<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
<style type="text/css" style="display:none;"><!-- P {margin-top:0;margin-bottom:0;} --></style>
</head>
<body dir="ltr">
<div id="divtagdefaultwrapper" style="font-size:10pt;color:#000000;background-color:#FFFFFF;font-family:Mangal,Sans-Serif;">
<div id="divtagdefaultwrapper" style="font-size:10pt;color:#000000;background-color:#FFFFFF;font-family:Mangal,Sans-Serif;">
<p>Hi Jagan,&nbsp;</p>
<p><br>
</p>
<p>Thank you. The use&nbsp;&quot;./real.exe&quot; was not the problem though, because I&nbsp;ran it with mpiexec and got&nbsp;the same segfault. (Additionally, I realized I also tried unlimiting the stacksize, which&nbsp;did not solve the problem either.)</p>
<p><br>
</p>
<p>When you said &quot;OpenMPI&quot; is not required, did you mean &quot;OpenMP&quot; or OpenMPI? I actually use MVAPICH2, which seems to load default with the intel compilers and be&nbsp;the only one compatible with the&nbsp;NetCDF module&nbsp;on our system. Or did you mean openMP is not a
 big boost to performance?&nbsp;</p>
<p><br>
</p>
<p>Thanks,&nbsp;</p>
<p>Yaoping</p>
<p><br>
</p>
</div>
<hr style="display:inline-block;width:98%" tabindex="-1">
<div id="divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" style="font-size:11pt" color="#000000"><b>From:</b> wrf-users-bounces@ucar.edu &lt;wrf-users-bounces@ucar.edu&gt; on behalf of jagan TNAU &lt;jagan@tnau.ac.in&gt;<br>
<b>Sent:</b> Friday, September 2, 2016 8:30:50 PM<br>
<b>To:</b> wrf-users@ucar.edu<br>
<b>Subject:</b> Re: [Wrf-users] Wrf-users Digest, Vol 145, Issue 3</font>
<div>&nbsp;</div>
</div>
<div>
<div dir="ltr">Yapping,
<div><br>
</div>
<div>When you already compiled using an MPI you should not simply use ./real.exe you should also indicate how many processors you are using and the command should be &quot;mpirun -np 12 ./real.exe&quot;. I do not know why you are using without indicating the number of
 processors you like to use.</div>
<div><br>
</div>
<div>Openmpi is not a requirement and you can use any open source api lis MPICH2 etc.</div>
</div>
<div class="gmail_extra"><br>
<div class="gmail_quote">On Sat, Sep 3, 2016 at 4:08 AM, <span dir="ltr">&lt;<a href="mailto:wrf-users-request@ucar.edu" target="_blank">wrf-users-request@ucar.edu</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Send Wrf-users mailing list submissions to<br>
&nbsp; &nbsp; &nbsp; &nbsp; <a href="mailto:wrf-users@ucar.edu">wrf-users@ucar.edu</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
&nbsp; &nbsp; &nbsp; &nbsp; <a href="http://mailman.ucar.edu/mailman/listinfo/wrf-users" rel="noreferrer" target="_blank">
http://mailman.ucar.edu/<wbr>mailman/listinfo/wrf-users</a><br>
or, via email, send a message with subject or body 'help' to<br>
&nbsp; &nbsp; &nbsp; &nbsp; <a href="mailto:wrf-users-request@ucar.edu">wrf-users-request@ucar.edu</a><br>
<br>
You can reach the person managing the list at<br>
&nbsp; &nbsp; &nbsp; &nbsp; <a href="mailto:wrf-users-owner@ucar.edu">wrf-users-owner@ucar.edu</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than &quot;Re: Contents of Wrf-users digest...&quot;<br>
<br>
<br>
Today's Topics:<br>
<br>
&nbsp; &nbsp;1. Re: What is a reasonable speed for WRF / how to increase it?<br>
&nbsp; &nbsp; &nbsp; (Wang, Yaoping)<br>
<br>
<br>
------------------------------<wbr>------------------------------<wbr>----------<br>
<br>
Message: 1<br>
Date: Fri, 2 Sep 2016 22:33:30 &#43;0000<br>
From: &quot;Wang, Yaoping&quot; &lt;<a href="mailto:wang.3866@buckeyemail.osu.edu">wang.3866@buckeyemail.osu.edu</a><wbr>&gt;<br>
Subject: Re: [Wrf-users] What is a reasonable speed for WRF / how to<br>
&nbsp; &nbsp; &nbsp; &nbsp; increase it?<br>
To: Mike Dvorak &lt;<a href="mailto:mike@sailtactics.com">mike@sailtactics.com</a>&gt;, &quot;<a href="mailto:wrf-users@ucar.edu">wrf-users@ucar.edu</a>&quot;<br>
&nbsp; &nbsp; &nbsp; &nbsp; &lt;<a href="mailto:wrf-users@ucar.edu">wrf-users@ucar.edu</a>&gt;, &quot;<a href="mailto:cf.ross@gmail.com">cf.ross@gmail.com</a>&quot; &lt;<a href="mailto:cf.ross@gmail.com">cf.ross@gmail.com</a>&gt;<br>
Message-ID:<br>
&nbsp; &nbsp; &nbsp; &nbsp; &lt;<a href="mailto:CY4PR01MB2822D7E68D45A748E49217D9B2E50@CY4PR01MB2822.prod.exchangelabs.com">CY4PR01MB2822D7E68D45A748E492<wbr>17D9B2E50@CY4PR01MB2822.prod.<wbr>exchangelabs.com</a>&gt;<br>
<br>
Content-Type: text/plain; charset=&quot;windows-1252&quot;<br>
<br>
Hi,<br>
<br>
<br>
Could you explain more about the &quot;using 2 process in one core&quot; and how to find out/address it? I am not very familiar with the technical aspect of supercomputing. I thought one core in supercomputing means one CPU, but did you mean that each CPU is further
 made up of multiple &quot;little-cores&quot; themselves, or 2 cores can be on the same CPU?<br>
<br>
<br>
I am compiling MPI using the intel compiler. But here is another problem. OpenMP does not work at all on my system. The compiler finishes successfully, but then, when I run &quot;./real.exe&quot;, it segfaults without even creating an rsl file. I tried using &quot;./configure
 -d&quot;, and updating my WRF version from 3.8 to 3.8.1, but the segfault was the same. Do you know what else I might do? I attached my &quot;configure.wrf&quot; and &quot;configure.wps&quot; files.<br>
<br>
<br>
I also tested 44 cores with no luck. Increasing the number of nodes from 4 to 6 only increased the throughput marginally.<br>
<br>
<br>
Thank you,<br>
<br>
Yaoping<br>
<br>
______________________________<wbr>__<br>
From: <a href="mailto:wrf-users-bounces@ucar.edu">wrf-users-bounces@ucar.edu</a> &lt;<a href="mailto:wrf-users-bounces@ucar.edu">wrf-users-bounces@ucar.edu</a>&gt; on behalf of Mike Dvorak &lt;<a href="mailto:mike@sailtactics.com">mike@sailtactics.com</a>&gt;<br>
Sent: Thursday, September 1, 2016 5:05:28 PM<br>
To: <a href="mailto:wrf-users@ucar.edu">wrf-users@ucar.edu</a><br>
Subject: Re: [Wrf-users] What is a reasonable speed for WRF / how to increase it?<br>
<br>
Hi Yaoping,<br>
<br>
What parallelization option did you compile WRF with (e.g. MPI only)? Also, I've found the Intel compilers to be 3 times faster than the GNU compilers on some WRF configurations (unfortunately). What compiler did you use?<br>
<br>
You may also want to experiment using less than the number of total cores on the machine. For example, you could try using 44 cores instead of 48. I think WRF EMS is set to do this by default. I've verified on some of my multi-core machines that this does indeed
 reduce the runtime.<br>
<br>
Cheers,<br>
Mike<br>
<br>
<br>
On 09/01/2016 03:15 PM, Carlos Ross wrote:<br>
I think it should be faster, Xeon x5650 CPUs are 6 cores and 12 threads, so you maybe using 2 process in one core and that is slowing it down.<br>
<br>
2016-08-31 18:36 GMT-03:00 Wang, Yaoping &lt;<a href="mailto:wang.3866@buckeyemail.osu.edu">wang.3866@buckeyemail.osu.edu</a><wbr>&lt;mailto:<a href="mailto:wang.3866@buckeyemail.osu.edu">wang.3866@buckeyemail.<wbr>osu.edu</a>&gt;&gt;:<br>
<br>
Hi All,<br>
<br>
<br>
I am running WRF on a ~6km resolution, 91 x 121 domain in the eastern United States. I am using an adaptive time step which makes it mostly 72 sec increments. There are 34 vertical levels. I use 4 x 12 cores on a Intel Xeon x5650 CPUs machine. The throughput
 is about 1.2 hour wall time per 24 hours model time.<br>
<br>
<br>
Is this a reasonable speed? I found some information here (<a href="http://www.ecmwf.int/sites/default/files/elibrary/2014/13662-performance-analysis-operational-implementaion-wrf.pdf" rel="noreferrer" target="_blank">http://www.ecmwf.int/sites/<wbr>default/files/elibrary/2014/<wbr>13662-performance-analysis-<wbr>operational-implementaion-wrf.<wbr>pdf</a>)
 and after considering the domain difference, my run still seems a touch slow. And is there anyway I could figure how to make the model run faster?<br>
<br>
<br>
Thank you,<br>
<br>
Yaoping Wang<br>
<br>
______________________________<wbr>_________________<br>
Wrf-users mailing list<br>
<a href="mailto:Wrf-users@ucar.edu">Wrf-users@ucar.edu</a>&lt;mailto:<a href="mailto:Wrf-users@ucar.edu">Wrf-<wbr>users@ucar.edu</a>&gt;<br>
<a href="http://mailman.ucar.edu/mailman/listinfo/wrf-users" rel="noreferrer" target="_blank">http://mailman.ucar.edu/<wbr>mailman/listinfo/wrf-users</a><br>
<br>
<br>
<br>
<br>
<br>
______________________________<wbr>_________________<br>
Wrf-users mailing list<br>
<a href="mailto:Wrf-users@ucar.edu">Wrf-users@ucar.edu</a>&lt;mailto:<a href="mailto:Wrf-users@ucar.edu">Wrf-<wbr>users@ucar.edu</a>&gt;<br>
<a href="http://mailman.ucar.edu/mailman/listinfo/wrf-users" rel="noreferrer" target="_blank">http://mailman.ucar.edu/<wbr>mailman/listinfo/wrf-users</a><br>
<br>
<br>
--<br>
[Sail Tactics logo]<br>
&nbsp; &nbsp; &nbsp; &nbsp; Mike Dvorak, PhD<br>
Founder<br>
Sail Tactics, LLC<br>
Corpus Christi, TX<br>
&#43;1 650-454-5243<br>
<a href="http://sailtactics.com" rel="noreferrer" target="_blank">http://sailtactics.com</a><br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <a href="http://mailman.ucar.edu/pipermail/wrf-users/attachments/20160902/b084de44/attachment.html" rel="noreferrer" target="_blank">
http://mailman.ucar.edu/<wbr>pipermail/wrf-users/<wbr>attachments/20160902/b084de44/<wbr>attachment.html</a><br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: logo.png<br>
Type: image/png<br>
Size: 5891 bytes<br>
Desc: logo.png<br>
Url : <a href="http://mailman.ucar.edu/pipermail/wrf-users/attachments/20160902/b084de44/attachment.png" rel="noreferrer" target="_blank">
http://mailman.ucar.edu/<wbr>pipermail/wrf-users/<wbr>attachments/20160902/b084de44/<wbr>attachment.png</a><br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: configure.wps<br>
Type: application/vnd.ms-works<br>
Size: 3328 bytes<br>
Desc: configure.wps<br>
Url : <a href="http://mailman.ucar.edu/pipermail/wrf-users/attachments/20160902/b084de44/attachment.bin" rel="noreferrer" target="_blank">
http://mailman.ucar.edu/<wbr>pipermail/wrf-users/<wbr>attachments/20160902/b084de44/<wbr>attachment.bin</a><br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: configure.wrf<br>
Type: application/octet-stream<br>
Size: 26315 bytes<br>
Desc: configure.wrf<br>
Url : <a href="http://mailman.ucar.edu/pipermail/wrf-users/attachments/20160902/b084de44/attachment.obj" rel="noreferrer" target="_blank">
http://mailman.ucar.edu/<wbr>pipermail/wrf-users/<wbr>attachments/20160902/b084de44/<wbr>attachment.obj</a><br>
<br>
------------------------------<br>
<br>
______________________________<wbr>_________________<br>
Wrf-users mailing list<br>
<a href="mailto:Wrf-users@ucar.edu">Wrf-users@ucar.edu</a><br>
<a href="http://mailman.ucar.edu/mailman/listinfo/wrf-users" rel="noreferrer" target="_blank">http://mailman.ucar.edu/<wbr>mailman/listinfo/wrf-users</a><br>
<br>
<br>
End of Wrf-users Digest, Vol 145, Issue 3<br>
******************************<wbr>***********<br>
</blockquote>
</div>
<br>
<br clear="all">
<div><br>
</div>
-- <br>
<div class="gmail_signature" data-smartmail="gmail_signature">
<div dir="ltr">
<div>With regards<br>
<br>
Dr.R.Jagannathan&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; <br>
Professor &amp; Former Dean<br>
Tamil Nadu Agricultural University&nbsp;<br>
Coimbatore - 641 003 India&nbsp; &nbsp; &nbsp; &nbsp; <br>
<br>
PHONE:&nbsp; Mob: &#43;91 94438 89891<br>
<br>
DO NOT PRINT THIS E-MAIL UNLESS NECESSARY. THE ENVIRONMENT CONCERNS US ALL.</div>
</div>
</div>
</div>
</div>
</div>
</body>
</html>