For Dx/DY problem, you must use ncdump (or another tool) to see the value of dx in wrfinput with ncdump -h wrfinput_d01 and copy exactly the same value in namelist (sometimes due to rounding, there is differences)<br><br>For the other problems, how much is the size for stack? It must be large, if you are running with MPI and bash try ulimit -s unlimited, for OMP try with ulimit -s 8000000<br clear="all">

Atentamente<br>Jorge Arévalo Bórquez<br>
<br><br><div class="gmail_quote">On Wed, Apr 7, 2010 at 3:27 PM, Elliot <span dir="ltr">&lt;<a href="mailto:tornadodrummer@yahoo.com">tornadodrummer@yahoo.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">

<div><div style="font-family: arial,helvetica,sans-serif; font-size: 10pt;"><div>Good afternoon,<br><br>I am running into a couple of problems while trying to run real-data, one-way nested w/ndown runs in both WRFV3.0 and WRFV3.1.1.  I am running a number of different cases, and while a good number of them will run and complete without a problem, there are a few that abort due to problems.  When those specific cases are repeated, they cut out at the same location due to the same problem.  An example of a problem I am having in WRFV3.0 is with ndown.exe, which is given as follows:<br>

<br>NDOWN_EM V3.0 PREPROCESSOR<br>  *************************************<br>  Nesting domain<br>  ids,ide,jds,jde            1        
 151           1         151<br>  ims,ime,jms,jme           -4          81          -4          45<br>  ips,ipe,jps,jpe            1          75           1          38<br>  INTERMEDIATE domain<br>  ids,ide,jds,jde            3          58           3          58<br>

 
 ims,ime,jms,jme           -2          35          -2          23<br>  ips,ipe,jps,jpe            1          29           1          17<br>  *************************************<br> -------------- FATAL CALLED ---------------<br>

 FATAL CALLED FROM FILE:  set_timekeeping.b  LINE:     274<br> WRFU_TimeSet(startTime) FAILED   Routine returned error code =           -1<br> -------------------------------------------<br>[<a href="http://u213.uncc.edu:05171" target="_blank">u213.uncc.edu:05171</a>] MPI_ABORT invoked on rank
 0 in communicator MPI_COMM_WORLD with errorcode 1<br><br><br>Another problem I am having in WRFV3.0 is when trying to run the first child nest, after ndown.exe and real.exe have successfully completed.  Immediately upon the start of the first child WRF.exe, I get the following error: <br>

<br><br>WRF V3.0 MODEL<br>  *************************************<br>  Parent domain<br>  ids,ide,jds,jde            1         151           1         151<br>  ims,ime,jms,jme           -4          81          -4          44<br>

 
 ips,ipe,jps,jpe            1          75           1          38<br>  *************************************<br> DYNAMICS OPTION: Eulerian Mass Coordinate<br>   med_initialdata_input: calling input_model_input<br> -------------- FATAL CALLED ---------------<br>

 FATAL CALLED FROM FILE:  input_wrf.b  LINE:     173<br> DX and DY do not match from the namelist and the input file<br> -------------------------------------------<br>[<a href="http://b227.uncc.edu:25854" target="_blank">b227.uncc.edu:25854</a>] MPI_ABORT invoked on rank 0 in communicator MPI_COMM_WORLD with errorcode 1<br>

<br><br>Finally, I am running into problems with WRF.exe abruptly aborting in the middle of a run, ending with a segmentation fault.  Again, these segmentation faults
 occur in the exact same place when I attempt to repeat the same case.  The segmentation fault is given as follows:<br><br>b223:12055] *** Process received signal ***<br>[b223:12055] Signal: Segmentation fault (11)<br>[b223:12055] Signal code: Address not mapped (1)<br>

[b223:12055] Failing at address: 0xfffffffe06fcfb00<br>forrtl: error (78): process killed (SIGTERM)<br>Image              PC                Routine            Line        Source             <br>libgcc_s.so.1      00000033180087B0  Unknown               Unknown 
 Unknown<br>libc.so.6          00000033148E5338  Unknown               Unknown  Unknown<br>libopen-pal.so.0   00002B28CAB0598E  Unknown               Unknown  Unknown<br>libopen-pal.so.0   00002B28CAB044DE  Unknown               Unknown  Unknown<br>

libpthread.so.0    000000331540E4C0  Unknown               Unknown  Unknown<br>wrf.exe            0000000001454868  Unknown               Unknown 
 Unknown<br>wrf.exe            000000000144F6E8  Unknown               Unknown  Unknown<br>wrf.exe            000000000144E6F4  Unknown               Unknown  Unknown<br>wrf.exe            000000000144C528  Unknown               Unknown  Unknown<br>

wrf.exe            00000000011538DD  Unknown               Unknown  Unknown<br>wrf.exe            0000000001238307 
 Unknown               Unknown  Unknown<br>wrf.exe            0000000000C53DA2  Unknown               Unknown  Unknown<br>wrf.exe            00000000007BEE81  Unknown               Unknown  Unknown<br>wrf.exe            000000000049EAD6  Unknown               Unknown  Unknown<br>

wrf.exe            000000000046718B  Unknown               Unknown 
 Unknown<br>wrf.exe            0000000000467019  Unknown               Unknown  Unknown<br>wrf.exe            0000000000466FC2  Unknown               Unknown  Unknown<br>libc.so.6          000000331481D974  Unknown               Unknown  Unknown<br>

wrf.exe            0000000000466EE9  Unknown               Unknown  Unknown<br><br><br>Has anyone had any of these same issues, and if so what have you done to fix
 them?<br><br>Thanks,<br><br>Elliot.<br></div>
</div><br>

      </div><br>_______________________________________________<br>
Wrf-users mailing list<br>
<a href="mailto:Wrf-users@ucar.edu">Wrf-users@ucar.edu</a><br>
<a href="http://mailman.ucar.edu/mailman/listinfo/wrf-users" target="_blank">http://mailman.ucar.edu/mailman/listinfo/wrf-users</a><br>
<br></blockquote></div><br>