<html><head><meta http-equiv="Content-Type" content="text/html charset=us-ascii"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">Hi Klemens,<div class=""><br class=""></div><div class="">I am not entirely sure, but: The classical netCDF file format imposes a limit of 4GB on individual variables. With 4000x2500 grid columns (10 million), you are probably facing this problem for the 3D variables. The MPAS website <a href="https://mpas-dev.github.io" class="">https://mpas-dev.github.io</a> (MPAS-Atmosphere Download -&gt; MPAS-Atmosphere meshes) describes this problem briefly for the 10km mesh with 6 million cells (and three times as many edges).</div><div class=""><br class=""></div><div class="">Can you try to use the NetCDF4 format and see if the problem goes away? NetCDF4 usage is activated by setting the environment variable NETCDF4 to 1 before running ./configure and compiling the model (<a href="http://www2.mmm.ucar.edu/wrf/users/docs/user_guide_V3/users_guide_chap5.htm#_Installing_WRF" class="">http://www2.mmm.ucar.edu/wrf/users/docs/user_guide_V3/users_guide_chap5.htm#_Installing_WRF</a>). Make sure to do a ./clean -a beforehand.</div><div class=""><br class=""></div><div class="">Cheers,</div><div class=""><br class=""></div><div class="">Dom</div><div class=""><br class=""><div><blockquote type="cite" class=""><div class="">On 30/04/2017, at 11:52 AM, Klemens Barfus &lt;<a href="mailto:klemens.barfus@tu-dresden.de" class="">klemens.barfus@tu-dresden.de</a>&gt; wrote:</div><br class="Apple-interchange-newline"><div class="">
  

    <meta http-equiv="content-type" content="text/html; charset=utf-8" class="">
  
  <div bgcolor="#FFFFFF" text="#000000" class="">
    Dear all,<br class="">
    <br class="">
    I am working with WRF3.8.1 on the supercomputer of our university
    and have problems writing files larger than 2.2 GB from geogrid.exe
    (may be from other routines, too).<br class="">
    Large file support has been enabled by setting <span class="st">WRFIO_NCD_LARGE_FILE_SUPPORT
      to 1. Running geogrid.exe for 4 nested domains geo_em.d&lt;&gt;.nc
      for the first three domains are written properly as '64-bit
      offset', so I expect that </span><span class="st">WRFIO_NCD_LARGE_FILE_SUPPORT
      is recognized. Errror Message for the last domain (~4000*2500
      gridpoints) is <br class="">
      <br class="">
      Processing domain 4 of 4<br class="">
      &nbsp; Processing XLAT and XLONG<br class="">
      ERROR: Error in ext_pkg_write_commit<br class="">
      <br class="">
      There are no limitations on the file size in our system (tested as
      suggested from
      <a class="moz-txt-link-freetext" href="https://www.unidata.ucar.edu/software/netcdf/faq-lfs.html">https://www.unidata.ucar.edu/software/netcdf/faq-lfs.html</a>). I run
      geogrid.exe with 30GB memory of each CPU to avoid problems due to
      insufficient memory. <br class="">
      <br class="">
      WRF and WPS have been compiled with the following libraries for
      application in distributed memory mode:<br class="">
      <br class="">
    </span><span class="st"><span class="st">8)
        GCCcore/5.3.0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br class="">
      </span>9) binutils/2.26-GCCcore-5.3.0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br class="">
    </span><span class="st"><span class="st"> 10)
        icc/2016.3.210-GCC-5.3.0-2.26</span><br class="">
    </span><span class="st"><span class="st">11)
        ifort/2016.3.210-GCC-5.3.0-2.26<br class="">
      </span></span><span class="st"><span class="st"><span class="st">12)
          iccifort/2016.3.210-GCC-5.3.0-2.26&nbsp;&nbsp;</span></span>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
      <br class="">
    </span><span class="st"><span class="st">13)
        impi/5.1.3.181-iccifort-2016.3.210-GCC-5.3.0-2.26 </span><br class="">
    </span><span class="st"><span class="st">14)
        iimpi/2016.03-GCC-5.3.0-2.26&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; </span><br class="">
    </span><span class="st"><span class="st">15)
        imkl/11.3.3.210-iimpi-2016.03-GCC-5.3.0-2.26<br class="">
      </span></span><span class="st"><span class="st"><span class="st">16)
          intel/2016.03-GCC-5.3&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br class="">
        </span></span>17) JasPer/1.900.1-intel-2016.03-GCC-5.3<br class="">
      18) zlib/1.2.8-intel-2016.03-GCC-5.3<br class="">
      19) Szip/2.1-intel-2016.03-GCC-5.3<br class="">
      20) HDF5/1.8.16-intel-2016.03-GCC-5.3<br class="">
      21) cURL/7.47.0-intel-2016.03-GCC-5.3<br class="">
      22) netCDF/4.4.0-intel-2016.03-GCC-5.3<br class="">
      23) netCDF-Fortran/4.4.3-intel-2016.03-GCC-5.3<br class="">
      <br class="">
      Does anybody has an idea, what could be the problem ? Any help is
      greatly appreciated !<br class="">
      <br class="">
      Many thanks for your help in advance !<br class="">
      <br class="">
      Klemens<br class="">
    </span>
  </div>

_______________________________________________<br class="">Wrf-users mailing list<br class=""><a href="mailto:Wrf-users@ucar.edu" class="">Wrf-users@ucar.edu</a><br class="">http://mailman.ucar.edu/mailman/listinfo/wrf-users<br class=""></div></blockquote></div><br class=""></div></body></html>