<div dir="ltr"><div><div><div><div dir="ltr"><div><font face="arial, sans-serif"><span>Dear</span> Colleagues,</font><div dir="auto"><font face="arial, sans-serif"><br></font></div><div dir="auto"><font face="arial, sans-serif">We’d like to encourage you to submit an abstract to the next <b>AMS annual meeting (January 8-12, 2023)</b> <span style="white-space:pre-wrap;border-color:rgb(0,0,0);color:rgb(0,0,0)">sharing your experiences and inspiring critical conversations on community needs, frameworks and standards development, and lessons learned for developing benchmark datasets. Abstracts are due via the submission portal by <b>August 24th.</b> We look forward to discussing this important topic with you online or in person in beautiful Colorado!</span></font></div><div dir="auto"><span style="white-space:pre-wrap;border-color:rgb(0,0,0);color:rgb(0,0,0)"><font face="arial, sans-serif"><br></font></span></div><div dir="auto"><span style="white-space:pre-wrap;border-color:rgb(0,0,0);color:rgb(0,0,0)"><font face="arial, sans-serif">Best wishes,</font></span></div><div dir="auto"><span style="white-space:pre-wrap;border-color:rgb(0,0,0);color:rgb(0,0,0)"><font face="arial, sans-serif">Rob Redmon</font></span></div><div dir="auto"><font face="arial, sans-serif"><br></font></div><div dir="auto"><font face="arial, sans-serif"><b style="word-spacing:1px;border-color:rgb(0,0,0)">Session Topic Title:</b><span style="word-spacing:1px;border-color:rgb(0,0,0)"> Open Environmental Datasets for AI Applications: Benchmarking Needs, Frameworks, Lessons Learned </span><br></font></div><div dir="auto"><span style="word-spacing:1px;border-color:rgb(0,0,0)"><font face="arial, sans-serif"><div dir="auto" style="border-color:rgb(0,0,0);color:rgb(0,0,0)"><b style="border-color:rgb(0,0,0)">Session Topic ID:</b><span style="border-color:rgb(0,0,0)"> 61571 </span></div><div dir="auto" style="border-color:rgb(0,0,0);color:rgb(0,0,0)"><b style="border-color:rgb(0,0,0);color:rgb(0,0,0)">Conference: </b><span style="border-color:rgb(0,0,0);color:rgb(0,0,0)">22nd Conference on Artificial Intelligence for Environmental Science  </span></div><div dir="auto" style="border-color:rgb(0,0,0);color:rgb(0,0,0)"><b><font face="arial, sans-serif"><br></font></b></div><div dir="auto" style="border-color:rgb(0,0,0);color:rgb(0,0,0)"><b><font face="arial, sans-serif">AMS abstract portal:</font></b></div><div dir="auto" style="border-color:rgb(0,0,0);color:rgb(0,0,0)"><a href="https://annual.ametsoc.org/index.cfm/2023/program-events/conferences-and-symposia/22nd-conference-on-artificial-intelligence-for-environmental-science/" target="_blank"><font face="arial, sans-serif">https://annual.ametsoc.org/index.cfm/2023/program-events/conferences-and-symposia/22nd-conference-on-artificial-intelligence-for-environmental-science/</font></a></div></font></span></div><div dir="auto"><div dir="auto"><font face="arial, sans-serif"><br></font></div><b><font face="arial, sans-serif">Session Description:</font></b></div><div dir="auto"><font face="arial, sans-serif"><span style="color:rgb(0,0,0);white-space:pre-wrap">Benchmark datasets, such as ImageNet, are instrumental for innovation in artificial intelligence (AI) and machine learning (ML). The infusion of AI, </span>and ML<span style="color:rgb(0,0,0);white-space:pre-wrap">, and other advanced data science (DS) techniques is expanding exponentially to contribute to solving Earth system and space science problems. Thus, developing benchmark datasets, standards, and frameworks for evaluation, use and publishing, and sharing lessons learned in a coordinated manner is needed to ensure AI/ML/DS applications continually increase our ability to predict complex physical processes with high levels of trust and explainability. Benchmark datasets that are highly AI/ML/DS-ready will empower research in Earth and space science and the transition of research to decision making services by lowering the cost of curiosity to getting started with baseline models and interactive notebooks. Use cases and community driven benchmarking frameworks using open science principles will also foster collaborative development by providing common evaluation metrics, ontologies for labeling features, and mechanisms for capturing user feedback for trustworthy AI applications. Benchmarking will ensure efficient research and development on topics of societal importance including tackling climate change, improving weather forecasts, protecting satellite observing systems and other technologies, safeguarding ecosystems, and improving social inequities. This session invites presentations sharing experiences and inspiring critical conversations on community needs, frameworks and standards development, and lessons learned for developing benchmark datasets. We invite experiences exploring domain agnostic benchmark standards and framework development, as well as domain specific topics, such as climate and weather science, environmental justice, fire weather, ocean conservation, hydrology, space weather, and any other relevant topics. </span></font></div><div dir="auto"><br></div>
</div>
</div>
</div>
</div>
</div>
</div>