<meta http-equiv="Content-Type" content="text/html; charset=GB18030"><div>Hi there, <br></div><div>    I have problems processing data with numerous files (~2GB each file) using NCL. <br></div><div>    There are 10-year hourly 3-dimention meteological data in NetCDF format, which from 2010~2019, 2847 days in total. Data were stored daily (so there are 2847 files).  <br></div><div>    I want to caluclate some statistic varibles along all time in each grid. Take wsp(time|2847*24, level, lat, lon) for example, in the current method, do-loop on levels is used. Then <br></div><div>'wsp' will be processed along time. Finally I can get what I need ( wsp_process(level,lat,lon) £©.</div><div>    However, it will be really ineffiency, and sometime it may meet error 'Segmentation fault (core dumped)'. <br></div><div>    Is there any effiency way to meet my needs? <br></div><div>Best regards,</div><div>HUANG<br> </div>