<div dir="ltr"><div>I am sure there is no 'handy-dandy' function to do this specific task.</div><div>I ould think it would 'easy' to create a function to do this</div><div><br></div><div>undef("gfs_micah")</div><div>function gfs_micha(x)</div><div>begin</div><div>   ...</div><div>   return(xhour)<br></div><div>end</div><div>;--------------------</div><div>;    MAIN</div><div>;--------------------</div><div>   dir_gfs = "./"<br></div><div>   pth_gfs  =  <strong>systemfunc</strong>("ls "+dir_gfs+"/gfs*")</div><div>   n_gfs   = <b>dimsizes(</b>pth_gfs)</div><div>   print("n_gfs="+n_gfs)<br></div><div><pre>  f_gfs = <b>addfiles</b>(pth_gfs, "r")<br>  cld = f_gfs[:]->...<br>  <b>printVarSummary</b>(cld)<br></pre><pre>  CLD = <span style="color:rgb(0,0,255)"><b>gfs_micah</b></span>(cld)<br>  printVarSummary(CLD)<br></pre></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 3, 2020 at 11:45 AM Micah Sklut via ncl-talk <<a href="mailto:ncl-talk@ucar.edu">ncl-talk@ucar.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi, <div><br></div><div>I am looking at Cloud Cover values for GFS data. I download the GFS files for each individual hour, and for each hour the cloud cover represents a fraction of a 6 hour period, like this: </div><div><br></div><div>hour 1: 0-1 hour average</div><div>hour 2: 0-2 hour average</div><div>hour 3: 0-3 hour average</div><div>hour 4: 0-4 hour average</div><div>hour 5: 0-5 hour average</div><div>hour 6: 0-6 hour average</div><div><br></div><div>I would like to convert this to: </div><div><br></div><div><div>hour 1: 0-1 hour average</div><div>hour 2: 1-2 hour average</div><div>hour 3: 2-3 hour average</div><div>hour 4: 3-4 hour average</div><div>hour 5: 4-5 hour average</div><div>hour 6: 5-6 hour average</div></div><div><br></div><div>I understand it's just some simple arithmetic to get the averages of the values for each hour, but I was wondering if there are any handy NCL functions that can help me efficiently go through the global dataset for hours 0 - 384.  </div><div><br></div><div>I did notice there was a wgrib2 function to handle this problem but was hoping to handle this through NCL, where all my other files/variable modifications are happening. </div><div><br></div><div>Thanks, </div><div><div><br></div>-- <br><div dir="ltr">Micah Sklut<br><br></div></div></div>
_______________________________________________<br>
ncl-talk mailing list<br>
<a href="mailto:ncl-talk@ucar.edu" target="_blank">ncl-talk@ucar.edu</a><br>
List instructions, subscriber options, unsubscribe:<br>
<a href="http://mailman.ucar.edu/mailman/listinfo/ncl-talk" rel="noreferrer" target="_blank">http://mailman.ucar.edu/mailman/listinfo/ncl-talk</a></blockquote></div>