<div dir="ltr">Tomoko,<div><br></div><div>Please add the "s" flag to Dennis's request.  This will show chunk size parameters that may be relevant:</div><div><br></div><div>%> ncdump -hs <a href="http://tas_day_ipsl-cm5a-lr_rcp85_r1i1p1_20060101-22051231.rgrd.nc/" rel="noreferrer" target="_blank">tas_day_IPSL-CM5A-LR_rcp85_<wbr>r1i1p1_20060101-22051231.rgrd.<wbr>nc</a></div><div><br></div><div>There are known problems with Netcdf-4 chunk sizes that can dramatically slow down reading.  In particular, chunk size exceeding chunk cache size, or chunk size exceeding available memory.  If we know the structure details, we may be able to suggest a solution.</div><div><br></div><div>I recommend chunk sizes in the approximate range of 100 Kbytes to 4 Mbytes for large netcdf-4 files.</div><div><br></div><div>--Dave</div><div><br></div><div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Dec 18, 2017 at 8:05 AM, Dennis Shea <span dir="ltr"><<a href="mailto:shea@ucar.edu" target="_blank">shea@ucar.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div><div><div><div><div><div><div>When you have a file issue, you should include some information:<br><br></div>(a) what what either of the fillowing show?<br><br></div>%> ncl_filedump <a href="http://tas_day_IPSL-CM5A-LR_rcp85_r1i1p1_20060101-22051231.rgrd.nc" rel="noreferrer" target="_blank">tas_day_IPSL-CM5A-LR_rcp85_<wbr>r1i1p1_20060101-22051231.rgrd.<wbr>nc</a><br><br></div>or <br><br></div>%> ncdump -h <a href="http://tas_day_IPSL-CM5A-LR_rcp85_r1i1p1_20060101-22051231.rgrd.nc" rel="noreferrer" target="_blank">tas_day_IPSL-CM5A-LR_rcp85_<wbr>r1i1p1_20060101-22051231.rgrd.<wbr>nc</a><br><br></div>(b) what version of NCL are you using><br><br></div>%> ncl -V<br><br></div>(c) your system info<br><br></div>%> uname -a<br><br>-----------<br><br>
 fdir=“/root/dir4ncl/“<br>
 fili="<a href="http://tas_day_IPSL-CM5A-LR_rcp85_r1i1p1_20060101-22051231.rgrd.nc" rel="noreferrer" target="_blank">tas_day_IPSL-CM5A-LR_rc<wbr>p85_r1i1p1_20060101-22051231.<wbr>rgrd.nc</a>"<br>
 fn=addfile(fdir+fili,"r")<br>
 buff=fn->tas<div><div><div><div> print(“Data is stored”)</div></div></div></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Dec 18, 2017 at 3:35 AM, Guido Cioni <span dir="ltr"><<a href="mailto:guidocioni@gmail.com" target="_blank">guidocioni@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><div style="word-wrap:break-word">Tomoko,<div>9 GB is anything but "large", although the concept of "large" is highly subjective :P </div><div><br></div><div>I've successfully read SINGLE netcdf files in NCL whose size was ~500GB so that shouldn't be the problem. For some reason a netcdf file of some size, say 400 GB, which has many timesteps is read more slowly than a file with the same size but with less timesteps; that was my impression.</div><div><br></div><div>You are setting a lot of options which I think are not needed. Did you just try to read the file with this line? </div><div><br></div><div><blockquote type="cite">fn=addfile(fdir+fili,"r")<br></blockquote><br></div><div>If it still takes a lot of time it could be system-dependent. When creating the variable NCL stores it into the RAM. If the system does not have enough RAM, some virtual memory will be created on your hard drive, which can slow down everything. But honestly I don't think you're even close to saturate your system's RAM. The problem may lie somewhere else...</div><div><br></div><div>Let us know.</div><div><br></div><div><div><div class="gmail-m_9006037657592454840h5"><div><blockquote type="cite"><div>On 18. Dec 2017, at 07:17, Tomoko Koyama <<a href="mailto:Tomoko.Koyama@Colorado.EDU" target="_blank">Tomoko.Koyama@Colorado.EDU</a>> wrote:</div><br class="gmail-m_9006037657592454840m_6192207682118824426Apple-interchange-newline"><div><div>I’d like to extract some data from a large netcdf file, which size is about 9GB.<br><br>The following shows the partial script, but a submitted job was killed before “Data is stored” message appeared.<br>(I attempted several times with 3-hr max walltime )<br><br> setfileoption("nc", "FileStructure", "Advanced")<br> fdir=“/root/dir4ncl/“<br> fili="<a href="http://tas_day_IPSL-CM5A-LR_rcp85_r1i1p1_20060101-22051231.rgrd.nc" target="_blank">tas_day_IPSL-CM5A-LR_rcp<wbr>85_r1i1p1_20060101-22051231.<wbr>rgrd.nc</a>"<br> fn=addfile(fdir+fili,"r")<br> setfileoption("nc","Format","N<wbr>etCDF4Classic")<br> buff=fn->tas<br> print(“Data is stored”)<br><br>Does it simply take a long time to read?<br>Is there anyway to speed up to read a large netcdf file?<br><br><br>Thank you,<br>Tomoko</div></div></blockquote></div></div></div></div></div></blockquote></div></div></blockquote></div></div></div></div>