Lebih

5.7.9: Peramalan Probabilistik - Geosains


Gambaran

Sekarang kita beralih ke peramalan probabilistik. Contoh probabilitas adalah:

  1. Peluang Anda memenangkan lotre,
  2. Kemungkinan Anda terkena tabrakan langsung di jalan bebas hambatan, atau
  3. Kemungkinan bahwa rumah Anda akan dihancurkan oleh api.

Meskipun Anda tidak tahu apakah Anda akan memenangkan lotre atau rumah Anda terbakar, probabilitas atau kemungkinan hasil ini cukup diketahui bahwa lotere dan kasino perjudian dapat beroperasi dengan untung. Anda dapat membeli asuransi terhadap tabrakan langsung atau kebakaran rumah dengan harga yang cukup rendah sehingga dapat dijangkau oleh kebanyakan orang, dan perusahaan asuransi dapat menunjukkan keuntungan (lihat Bab 10).

Dalam peramalan probabilistik gempa bumi, kami menggunakan geodesi, geologi, paleoseismologi, dan seismisitas untuk mempertimbangkan kemungkinan gempa besar di wilayah tertentu atau pada patahan tertentu di masa mendatang. Jangka waktu tiga puluh sampai lima puluh tahun biasanya dipilih karena itu dekat dengan panjang hipotek rumah dan kemungkinan berada dalam rentang perhatian para pemimpin politik dan masyarakat umum. Kerangka waktu satu tahun akan menghasilkan probabilitas yang terlalu rendah untuk mendapatkan perhatian dari badan legislatif negara bagian atau gubernur, sedangkan kerangka waktu seratus tahun, lebih lama dari sebagian besar masa hidup, mungkin tidak dianggap serius, meskipun kemungkinannya akan terjadi. menjadi jauh lebih tinggi.

Pada tahun 1954, Beno Gutenberg dan Charles Richter dari Caltech mempelajari seismisitas instrumental dari berbagai wilayah di seluruh dunia dan mengamati hubungan sistematis antara magnitudo dan frekuensi gempa bumi berukuran kecil hingga menengah. Gempa bumi dengan interval magnitudo tertentu kira-kira sepuluh kali lebih sering daripada gempa dengan magnitudo lebih tinggi berikutnya (Gambar 7-3). Penyimpangan kurva dari garis lurus pada magnitudo rendah dijelaskan oleh ketidakmampuan seismograf untuk mengukur gempa bumi yang sangat kecil. Peristiwa kecil ini hanya akan terdeteksi ketika mereka dekat dengan seismograf; lain yang lebih jauh akan terlewatkan. Jadi Gutenberg dan Richter memperkirakan bahwa jika seismograf dapat mengukur semua peristiwa, mereka akan jatuh pada garis lurus yang sama dengan peristiwa yang lebih besar yang pasti akan terdeteksi, di mana pun mereka terjadi di wilayah yang diinginkan. Perhatikan bahwa Gambar 7-3 adalah logaritmik, artinya unit yang lebih besar sepuluh kali lebih besar dari yang lebih kecil.

Ini dikenal sebagai Hubungan Gutenberg-Richter (G-R) untuk suatu wilayah tertentu. Jika kurva adalah garis lurus, maka hanya beberapa tahun catatan seismograf gempa bumi berkekuatan rendah yang dapat diekstrapolasi untuk memperkirakan seberapa sering gempa bumi berkekuatan lebih besar yang tidak tercakup oleh kumpulan data akan terjadi.

Cacat dalam asumsi yang dibangun ke dalam hubungan (atau, lebih tepatnya, penyalahgunaan hubungan yang tidak disengaja oleh Gutenberg dan Richter) adalah bahwa garis akan terus lurus untuk gempa yang jauh lebih besar daripada yang telah diukur. Misalnya, jika kurva Gutenberg-Richter meramalkan satu gempa M 7 dalam sepuluh tahun untuk suatu wilayah, ini akan menyiratkan satu M 8 per seratus tahun, satu M 9 per seribu tahun, dan satu M 10 per sepuluh ribu tahun! Jelas tidak mungkin demikian, karena tidak ada gempa bumi yang lebih besar dari M 9,5 yang diketahui pernah terjadi. Clarence Allen dari Caltech telah menunjukkan bahwa jika satu patahan pecah di seluruh bumi, asumsi yang mustahil, besarnya gempa hanya 10,6. Jadi hubungan Gutenberg-Richter, yang digunakan (atau disalahgunakan) dengan cara ini, membuat kita gagal di tempat yang paling kita butuhkan, dalam memperkirakan frekuensi gempa bumi terbesar yang paling menghancurkan masyarakat.

Roy Hyndman dan rekan-rekannya di Pacific Geoscience Center membangun kurva Gutenberg-Richter untuk gempa bumi kerak di Puget Sound dan wilayah selatan Selat Georgia (Gambar 7-4). Jangka waktu analisis mereka cukup singkat karena hanya dalam dua puluh tahun terakhir telah dimungkinkan untuk memisahkan gempa bumi kerak dari yang ada di bawah Lempeng Juan de Fuca. Mereka memiliki data yang dapat diandalkan untuk gempa bumi berkekuatan 3,5 hingga 5 dan data yang kurang dapat diandalkan untuk kekuatan hingga sekitar 6,2. Kurva frekuensi berarti satu gempa bumi berkekuatan 3,6 setiap tahun dan 0,1 gempa bumi berkekuatan 5,1 setiap tahun (atau satu gempa bumi dengan kekuatan itu setiap sepuluh tahun). Memperpanjang kurva sebagai garis lurus akan memprediksi satu gempa bumi berkekuatan 6 setiap lima puluh tahun.

Hyndman dan rekan-rekannya mengikuti praktik modern dan tidak memperkirakan hubungan GR sebagai garis lurus ke magnitudo yang lebih tinggi lagi. Mereka menunjukkan garis melengkung ke bawah mendekati garis vertikal, yang akan menjadi magnitudo maksimum, yang mereka perkirakan sebagai M 7,3 hingga 7,7. Ini akan menyebabkan gempa bumi berkekuatan 7 setiap empat ratus tahun. Perkiraan lain berdasarkan geologi menghasilkan magnitudo maksimum (MCE) 7,3, perkiraan deterministik. Dengan asumsi bahwa sebagian besar pemendekan kerak bumi yang diturunkan dari GPS antara Washington selatan dan British Columbia selatan terjadi oleh gempa bumi, seharusnya ada gempa bumi kerak di zona ini setiap empat ratus tahun. Gempa terakhir di Sesar Seattle terjadi sekitar sebelas ratus tahun yang lalu, tetapi diasumsikan bahwa patahan lain di wilayah ini seperti Sesar Tacoma atau Sesar Pulau Whidbey Selatan mungkin membuat perbedaan. Dengan demikian geologi dan geodesi tektonik memberikan perkiraan yang sebanding dengan perkiraan Gutenberg-Richter untuk gempa M 7 selama G-R tidak mengikuti garis lurus untuk magnitudo tertinggi.

Analisis ini bekerja untuk Puget Sound dan Selat Georgia, di mana terdapat sejumlah besar seismisitas instrumental. Diasumsikan bahwa semakin banyak gempa bumi yang terekam di seismogram, semakin besar kemungkinan gempa bumi yang jauh lebih besar di masa depan. Misalkan wilayah Anda memiliki lebih banyak gempa bumi dengan kekuatan di bawah 7 daripada kurva yang ditunjukkan pada Gambar 7-3. Ini akan menyiratkan lebih banyak gempa bumi besar dan bahaya yang lebih besar. Pada awalnya, ini tampak logis. Jika Anda merasakan efek dari gempa bumi kecil dari waktu ke waktu, Anda cenderung khawatir tentang gempa yang lebih besar.

Namun kegempaan instrumental dari Sesar San Andreas mengarah pada kesimpulan yang berlawanan. Bagian-bagian dari Patahan San Andreas yang pecah dalam gempa bumi besar pada tahun 1857 dan 1906 secara seismik sangat tenang hari ini. Hal ini diilustrasikan pada Gambar 7-5, peta seismisitas California tengah, dengan San Francisco Bay Area di sudut barat lautnya. Patahan San Andreas memanjang dari kiri atas ke sudut kanan bawah peta ini. Bagian-bagian dari Patahan San Andreas yang sering melepaskan gempa bumi berukuran sedang, seperti Parkfield dan daerah barat laut Parkfield, menonjol pada peta seismisitas. Sesar paling lemah di daerah ini, dan tidak mungkin menyimpan energi regangan yang cukup untuk melepaskan gempa bumi sebesar 7. Namun, patahan di sudut barat laut peta (bagian dari patahan 1906 M 7,9) relatif kegempaan instrumental rendah, dan patahan di sudut tenggara (bagian dari retakan 1857, juga M 7,9) tidak ditandai oleh gempa sama sekali. Segmen sesar dengan kegempaan instrumental terendah memiliki potensi gempa terbesar, hampir berkekuatan 8.

Zona Subduksi Cascadia pada dasarnya tidak memiliki seismisitas instrumental di utara California (Gambar 4-13). Namun bukti geologis dan perbandingan dengan zona subduksi lainnya memberikan bukti yang meyakinkan bahwa Cascadia telah pecah dalam gempa bumi sebesar 9, yang terakhir pada Januari 1700.

Ini menunjukkan bahwa ekstrapolasi Gutenberg-Richter ke magnitudo yang lebih tinggi bekerja di daerah-daerah di mana terdapat banyak gempa bumi berukuran kecil hingga sedang, tetapi tidak di mana patahan benar-benar terkunci. Seismisitas, yang mengukur pelepasan energi regangan elastis yang tersimpan, tergantung pada kekuatan kerak yang dipelajari. Sesar yang relatif lemah seperti Patahan San Andreas di Parkfield akan mengalami banyak gempa bumi kecil karena keraknya tidak dapat menyimpan cukup regangan untuk melepaskan yang besar. Sesar yang kuat seperti Patahan San Andreas di utara San Francisco akan melepaskan sedikit atau tidak ada gempa bumi sampai regangan cukup menumpuk untuk memecahkan kerak dalam gempa bumi yang sangat besar, seperti gempa 18 April 1906.

Paleoseismologi menegaskan masalah dalam menggunakan hubungan Gutenberg-Richter untuk memprediksi frekuensi gempa besar. Dave Schwartz dan Kevin Coppersmith, kemudian dari Konsultan Woodward-Clyde di San Francisco, mampu mengidentifikasi gempa bumi individu di penggalian parit backhoe dari sesar aktif di Utah dan California berdasarkan offset sesar lapisan sedimen di parit. Mereka menemukan bahwa offset sesar cenderung hampir sama untuk gempa yang berbeda di parit backhoe yang sama, menunjukkan bahwa gempa yang menghasilkan offset sesar cenderung berukuran sama. Hal ini membawa mereka pada konsep gempa karakteristik: segmen patahan tertentu cenderung menghasilkan gempa dengan ukuran yang sama setiap kali patah ke permukaan. Ini akan memungkinkan kita untuk menggali parit backhoe melintasi sesar yang dicurigai, menentukan slip pada gempa terakhir yang pecah (sebaiknya pada lebih dari satu kejadian pecah), dan memperkirakan ukuran gempa berikutnya. Jika dibandingkan dengan kurva Gutenberg-Richter untuk sesar yang sama, yang didasarkan pada seismisitas instrumental, karakteristik gempa bumi mungkin lebih besar atau lebih kecil dari perkiraan ekstrapolasi garis lurus. Selanjutnya, kurva Gutenberg-Richter tidak dapat digunakan untuk memperkirakan gempa dengan ukuran yang lebih besar dari gempa karakteristik. Gempa karakteristik adalah sebesar yang pernah terjadi pada patahan tertentu.

Sebelum kita terlalu terkesan dengan gagasan karakteristik gempa bumi, harus dikatakan bahwa di mana sejarah paleoseismik sesar sudah terkenal, seperti bagian dari Sesar San Andreas yang pecah pada tahun 1857, beberapa gempa bumi pecah permukaan lebih besar dari yang lain, cara lain untuk mengatakan bahwa tidak semua gempa bumi besar di Sesar San Andreas adalah karakteristik. Demikian pula, meskipun kami setuju bahwa gempa terakhir di Zona Subduksi Cascadia adalah berkekuatan 9, bukti dari rawa-rawa yang surut di Willapa Bay, Washington (Gambar 4-10a) dan dari turbidit yang dihasilkan gempa (Gambar 4-9) menunjukkan bahwa beberapa dari yang sebelumnya mungkin lebih kecil atau lebih besar dari M 9.

Diskusi ini menunjukkan bahwa tidak ada hubungan yang berarti antara hubungan Gutenberg-Richter untuk peristiwa kecil dan pengulangan dan ukuran gempa bumi besar. Agar hubungan ini bermakna, periode pengamatan instrumental perlu ribuan tahun. Sayangnya, seismograf baru berjalan lebih dari satu abad, jadi itu belum menjadi pilihan.

Sebelum mempertimbangkan analisis probabilistik untuk San Francisco Bay Area di California utara, perlu untuk memperkenalkan prinsip ketidakpastian. Hampir tidak ada ketidakpastian dalam prediksi pasang naik dan surut, gerhana matahari atau bulan, atau bahkan periode kembalinya Komet Halley. Peristiwa ini didasarkan pada orbit Bulan, Matahari, dan benda langit lainnya yang dipahami dengan baik. Sayangnya, interval pengulangan gempa bumi dikendalikan oleh banyak variabel, seperti yang kita pelajari di Parkfield. Kekuatan patahan dapat berubah dari gempa bumi ke gempa bumi. Gempa bumi lain dapat mengubah penumpukan ketegangan pada patahan, seperti yang mungkin telah dilakukan Gempa Coalinga 1983 untuk Gempa Parkfield yang diperkirakan tidak terjadi pada tahun 1988. Mengapa satu pohon di hutan tumbang hari ini, tetapi tetangganya pada usia yang sama dan lingkungan pertumbuhan yang sama membutuhkan waktu seratus tahun lagi untuk jatuh? Itulah jenis ketidakpastian yang kita hadapi dengan prakiraan gempa.

Bagaimana kita menangani ketidakpastian ini? Gambar 7-6 menunjukkan kurva probabilitas untuk terulangnya gempa bumi berikutnya di daerah tertentu atau di sepanjang patahan tertentu. Waktu dalam tahun bergerak dari kiri ke kanan, dimulai dari nol pada saat gempa sebelumnya. Peluang terjadinya gempa bumi pada waktu tertentu sejak gempa terakhir meningkat ke atas pada awalnya. Kurva berada pada titik tertinggi pada saat itu menurut kami gempa paling mungkin terjadi (interval perulangan rata-rata), dan kemudian kurva miring ke kanan. Kami merasa yakin bahwa gempa bumi pasti akan terjadi pada saat kurva turun mendekati nol di sisi kanan kurva.

Grafik pada Gambar 7-6 memiliki pita yang lebih gelap, yang mewakili kerangka waktu yang menarik dalam perkiraan probabilitas kami. Sisi kiri dari garis gelap adalah hari ini, dan sisi kanan adalah akhir dari kerangka waktu kita, biasanya tiga puluh tahun dari sekarang, durasi sebagian besar hipotek rumah. Ada kemungkinan tertentu bahwa gempa bumi akan terjadi selama jangka waktu yang telah kita pilih.

Ini mirip dengan ramalan cuaca, kecuali kita berbicara tentang ramalan tiga puluh tahun daripada ramalan lima hari. Jika ahli meteorologi di berita jam enam mengatakan ada kemungkinan 70 persen hujan besok, ini juga berarti ada kemungkinan 30 persen akan hujan. tidak hujan besok. Peramal cuaca sering "salah" karena hasil yang lebih kecil kemungkinannya benar-benar terjadi. Peramal gempa juga memiliki kemungkinan bahwa hasil yang lebih kecil kemungkinannya akan terjadi, seperti yang terjadi pada ramalan Parkfield tahun 1988.

Bayangkan menyalakan TV dan mendapatkan ramalan gempa tiga puluh tahun. Seismolog TV mengatakan, "Ada kemungkinan 70 persen gempa berkekuatan 6,7 atau lebih besar di wilayah kita dalam tiga puluh tahun ke depan." Orang-orang yang tinggal di San Francisco Bay Area sebenarnya menerima ramalan ini pada bulan Oktober 1999, mencakup periode tiga puluh tahun yang dimulai pada bulan Januari 2000. Itu mungkin tidak mempengaruhi rencana liburan mereka, tetapi itu akan mempengaruhi kode bangunan dan tarif asuransi mereka. Itu juga berarti bahwa Wilayah Teluk San Francisco mungkin tidak mengalami gempa bumi M 6,7 atau lebih besar dalam tiga puluh tahun ke depan (Gambar 7-7). Lebih lanjut tentang ramalan itu nanti.

Bagaimana kita menggambar kurva probabilitas kita? Kami mempertimbangkan semua yang kami ketahui: frekuensi gempa bumi berdasarkan catatan sejarah dan bukti geologis (paleoseismik), tingkat geologis jangka panjang di mana patahan bergerak, dan seterusnya. Sebuah panel ahli diadakan untuk memperdebatkan berbagai bukti dan sampai pada konsensus, yang disebut pohon logika, tentang probabilitas. Perdebatan sering memanas, dan kesepakatan mungkin tidak tercapai dalam beberapa kasus. Kami bahkan tidak yakin bahwa kurva pada Gambar 7-6 adalah cara terbaik untuk meramalkan gempa bumi. Prosesnya mungkin lebih tidak teratur, bahkan kacau.

Kurva probabilitas kita memiliki bentuk seperti itu karena kita mengetahui sesuatu tentang kapan gempa bumi berikutnya akan terjadi, berdasarkan sejarah gempa sebelumnya, tingkat slip sesar, dan sebagainya. Tetapi seandainya kita tidak tahu apa-apa tentang kapan gempa bumi berikutnya akan terjadi; artinya, kumpulan data kami tidak memiliki "ingatan" gempa terakhir untuk memandu kami. Gempa bumi kemungkinan besar akan terjadi satu tahun dengan tahun berikutnya, dan kemungkinan "kurva" akan menjadi garis horizontal lurus. Ini adalah probabilitas yang sama yang mengontrol peluang Anda untuk melempar koin dan memunculkannya: 50 persen. Anda kemudian dapat membalik koin dan mendapatkan kepala lima kali berikutnya, tetapi keenam kalinya, kemungkinan mendapatkan kepala akan sama seperti ketika Anda memulai: 50 persen.

Namun, kurva probabilitas kami berbentuk seperti lonceng; ia “mengingat” bahwa pernah terjadi gempa pada patahan yang sama atau di wilayah yang sama sebelumnya. Kita tahu bahwa gempa bumi lain akan terjadi, tetapi kita tidak yakin tentang perpindahan per peristiwa atau tingkat slip jangka panjang, dan alam membangun ketidakpastian tambahan. Luasnya kurva ini dibangun dalam semua ketidakpastian ini.

Dilihat secara probabilistik, ramalan Parkfield sebenarnya tidak gagal; gempa bumi berikutnya ada di suatu tempat di sisi kanan kurva. Kami yakin itu ada akan menjadi Gempa Parkfield lainnya, tetapi kita tidak tahu kapan sisi kanan kurva akan turun mendekati nol. Waktu 0 adalah 1966, tahun terakhir Gempa Parkfield. Sisi kiri pita gelap adalah hari ini. Sebelum tahun 1988, ketika Gempa Parkfield berikutnya diperkirakan terjadi, titik tertinggi pada kurva probabilitas terjadi pada tahun 1988. Waktu yang ditunjukkan oleh kurva di atas nol akan menjadi interval pengulangan terpanjang yang diketahui untuk Parkfield, yaitu tiga puluh dua tahun. , waktu antara gempa bumi tahun 1934 dan 1966. Waktu itu sudah lama berlalu; sampel sejarah perulangan gempa di Parkfield, meskipun lebih lengkap daripada sebagian besar patahan, tidak cukup lama. Gempa Parkfield berikutnya benar-benar terjadi pada tahun 2004, yang seharusnya berada di sebelah kanan pita gelap pada Gambar 6-6 dan mungkin di sebelah kanan garis nol pada gambar tersebut.

Bagaimana dengan gempa Cascadia Subduction Zone berikutnya? Waktu 0 adalah 1700 M ketika gempa terakhir terjadi. Tepi kiri pita gelap adalah hari ini. Mari kita ambil lebar pita gelap sebagai tiga puluh tahun, seperti yang kita lakukan sebelumnya. Kami masih akan berada di sebelah kiri titik tinggi dalam kurva probabilitas. Interval perulangan rata-rata kami berdasarkan paleoseismologi adalah sedikit lebih dari lima ratus tahun, dan itu hanya sedikit lebih dari tiga ratus tahun sejak gempa terakhir. Apa yang seharusnya menjadi waktu ketika kurva berada di nol lagi? Tidak lima ratus tahun setelah 1700 karena paleoseismologi (Gambar 4-9, 4-21) menunjukkan bahwa ada variabilitas yang besar dalam interval perulangan. Gempa bumi bisa terjadi besok, atau bisa terjadi seribu tahun setelah 1700, atau 2700 M.


Postprocessing statistik prakiraan ensemble untuk cuaca buruk di Deutscher Wetterdienst

Makalah ini memberikan gambaran umum tentang sistem postprocessing Deutscher Wetterdienst (DWD) yang disebut Ensemble-MOS bersama dengan motivasinya dan konsekuensi desain untuk prakiraan probabilistik peristiwa ekstrem berdasarkan data ensemble. Prakiraan sistem ensemble COSMO-D2-EPS dan ECMWF-ENS secara statistik dioptimalkan dan dikalibrasi oleh Ensemble-MOS dengan fokus pada cuaca buruk untuk mendukung manajemen keputusan peringatan di DWD.

Ensemble mean and spread digunakan sebagai prediktor untuk regresi berganda linier dan logistik untuk mengoreksi bias bersyarat. Prediksi berasal dari pengamatan sinoptik dan mencakup suhu, jumlah curah hujan, hembusan angin dan banyak lagi dan diperkirakan secara statistik dalam pendekatan model output statistik (MOS) yang komprehensif. Seri waktu yang lama dan koleksi stasiun digunakan sebagai data pelatihan yang menangkap cukup banyak peristiwa yang diamati, seperti yang diperlukan untuk pemodelan statistik yang kuat.

Regresi logistik diterapkan pada probabilitas terjadinya peristiwa meteorologi yang telah ditentukan sebelumnya. Rincian implementasi termasuk pemilihan prediktor dengan pengujian signifikansi disajikan. Untuk probabilitas hembusan angin kencang, parameterisasi logistik global dikembangkan yang bergantung pada estimasi lokal kecepatan angin. Dengan cara ini, prakiraan probabilitas yang kuat untuk kejadian ekstrim diperoleh sementara karakteristik lokal dipertahankan.

Masalah Ensemble-MOS, seperti perubahan model dan persyaratan konsistensi, yang terjadi dengan sistem operasi MOS dari DWD ditangani.

Peramalan ensemble naik dengan pemahaman tentang prediktabilitas cuaca yang terbatas. Keterbatasan ini disebabkan oleh pengamatan yang jarang dan tidak sempurna, perkiraan asimilasi dan pemodelan data numerik, dan oleh sifat fisik atmosfer yang kacau. Ide dasar dari peramalan ensemble adalah untuk memvariasikan pengamatan, kondisi awal dan batas, dan parameterisasi fisik dalam skala ketidakpastian yang diasumsikan dan menjalankan kembali model prakiraan dengan perubahan ini.

Ansambel prakiraan yang diperoleh mengungkapkan distribusi kemungkinan skenario cuaca yang diharapkan. Prakiraan probabilistik dapat diturunkan dari ansambel, seperti kesalahan prakiraan, probabilitas untuk kejadian cuaca khusus, kuantil distribusi atau bahkan estimasi distribusi penuh. Penyebaran ensemble sering digunakan sebagai estimasi untuk kesalahan perkiraan. Dalam sistem ansambel yang sempurna, penyebarannya secara statistik konsisten dengan kesalahan perkiraan rata-rata ansambel terhadap pengamatan (misalnya Wilks, 2011) namun, penyebarannya sering kali terlalu kecil, terutama untuk elemen cuaca dekat-permukaan dan waktu tunggu yang singkat. Biasanya, hubungan spread-skill yang optimal mendekati 1 dan keandalan perkiraan yang terlibat diperoleh jauh lebih mudah untuk variabel atmosfer di lapisan vertikal yang lebih tinggi, mis. Tinggi geopotensial 500 hPa, selain untuk variabel tingkat layar seperti suhu 2 m, kecepatan angin 10 m, atau curah hujan (misalnya Buizza et al., 2005 Gebhardt et al., 2011 Buizza, 2018) lihat juga Sect. 4.

Untuk memanfaatkan sebaik-baiknya informasi probabilistik yang terkandung dalam ansambel, mis. dengan menghubungkan probabilitas kejadian cuaca berbahaya dengan nilai ekonomis dalam evaluasi kerugian biaya (misalnya Wilks, 2001 Ben Bouallègue et al., 2015), prakiraan ensemble harus dikalibrasi ke frekuensi relatif yang diamati seperti yang dimotivasi oleh Buizza (2018). Ambang peringatan adalah tingkat probabilitas di mana peringatan meteorologi akan dikeluarkan. Ambang batas ini dapat disesuaikan untuk publik tergantung pada skor kategoris seperti probabilitas deteksi (POD) dan rasio alarm palsu (FAR). Keandalan statistik dari probabilitas perkiraan dianggap penting untuk definisi ambang batas yang memenuhi syarat dan untuk panduan peringatan otomatis.

Untuk prakiraan deterministik, postprocessing statistik digunakan untuk optimasi dan interpretasi. Hal ini juga berlaku untuk prakiraan ensemble, di mana kalibrasi statistik merupakan aplikasi tambahan dari postprocessing. Gneiting dkk. (2007) menggambarkan postprocessing probabilistik sebagai metode untuk memaksimalkan ketajaman distribusi prediktif di bawah kondisi kalibrasi (rata-rata klimatologi juga dikalibrasi, namun tidak memiliki ketajaman dan tidak berguna sebagai perkiraan). Namun demikian, optimasi masih menjadi masalah untuk perkiraan ensemble. Secara umum, kesalahan sistematis dari model numerik yang mendasari muncul di setiap anggota perkiraan dan dengan demikian dipertahankan dalam rata-rata ansambel. Rata-rata hanya mengurangi kesalahan acak dari anggota ensemble.

Karena kemampuannya untuk meningkatkan keterampilan dan keandalan prakiraan probabilistik, banyak metode pascapemrosesan yang berbeda ada untuk ansambel model tunggal dan multi. Ada sistem multivariat komprehensif dan sistem univariat yang khusus untuk elemen perkiraan tertentu. Panjang data pelatihan umumnya tergantung pada metode dan aplikasi statistik, namun ketersediaan data juga sering menjadi batasan yang serius. Beberapa sistem melakukan pelatihan individu untuk lokasi yang berbeda untuk memperhitungkan karakteristik lokal, sementara yang lain menerapkan model statistik yang sama untuk kumpulan stasiun atau titik grid. Pemodelan global meningkatkan pengambilan sampel statistik dengan mengorbankan perbedaan orografis dan klimatologis.

Sistem MOS klasik cenderung meremehkan kesalahan perkiraan jika koreksi diterapkan pada setiap anggota ansambel secara individual. Untuk mempertahankan variabilitas perkiraan, Vannitsem (2009) menyarankan untuk mempertimbangkan kesalahan pengamatan. Gneiting dkk. (2005) mengusulkan regresi Gaussian non-homogen (NGR) yang bergantung pada distribusi Gaussian. Lokasi dan parameter skala dari distribusi Gaussian sesuai dengan fungsi linier dari rata-rata ensemble dan penyebaran ensemble, masing-masing. Koefisien NGR dilatih dengan meminimalkan skor probabilitas peringkat berkelanjutan (CRPS). Dalam rata-rata model Bayesian (BMA) (misalnya Raftery et al., 2005 Möller et al., 2013) distribusi prakiraan yang sudah dikoreksi bias digabungkan sebagai rata-rata tertimbang menggunakan fungsi kernel.

Banyak metode postprocessing yang berbeda yang disesuaikan dengan variabel yang berbeda hanya ada beberapa yang disebutkan di sini. Untuk curah hujan 24 jam, Hamill (2012) menyajikan postprocessing ansambel multimodel berdasarkan regresi logistik yang diperluas dan data pelatihan 8 tahun. Hamil dkk. (2017) menjelaskan metode untuk memadukan ansambel multimodel resolusi tinggi dengan pemetaan kuantil dengan periode pelatihan singkat sekitar 2 bulan untuk presipitasi 6 dan 12 jam. Metode pasca-pemrosesan yang mengkhususkan diri dalam kecepatan angin telah dikembangkan juga, mis. Sloughter dkk. (2013) menggunakan BMA dalam kombinasi dengan distribusi Gamma. Ikhtisar pendekatan postprocessing univariat konvensional diberikan dalam Wilks (2018).

Selain metode postprocessing univariat yang disebutkan di atas, ada juga pendekatan untuk memodelkan struktur ketergantungan spatio-temporal dan karenanya untuk menghasilkan ensembel skenario perkiraan. Hal ini memungkinkan, misalnya, untuk memperkirakan probabilitas terkait area. Schefzik dkk. (2013) dan Schefzik dan Möller (2018) menggunakan ensemble copula coupling (ECC) dan pendekatan berbasis Schaake shuffle untuk menghasilkan skenario prakiraan pascaproses untuk suhu, curah hujan, dan angin. Ensemble skenario perkiraan ECC memberikan fleksibilitas tinggi dalam pembuatan produk dengan batasan bahwa semua data ensemble dapat diakses.

Lebih sedikit metode yang berfokus pada kejadian ekstrem curah hujan dan hembusan angin yang penting untuk dukungan peringatan otomatis. Friederichs dkk. (2018) menggunakan ekor distribusi nilai ekstrem yang digeneralisasi untuk memperkirakan probabilitas bersyarat dari peristiwa ekstrem. Karena kejadian meteorologi ekstrim (untungnya) jarang terjadi, rangkaian waktu yang lama diperlukan untuk menangkap sejumlah besar kejadian yang terjadi untuk mendapatkan estimasi yang signifikan secara statistik. Misalnya, peristiwa curah hujan yang kuat dengan jumlah hujan lebih dari 15 mm h 1 ditangkap hanya sekitar setahun sekali di setiap pengukur hujan di Jerman. Peristiwa ekstrim dengan ukuran lebih dari 40 dan 50 mm jarang muncul, namun peringatan sangat penting saat terjadi.

Dengan rangkaian waktu yang lama, sebagian besar data terdiri dari cuaca tenang tanpa relevansi dengan peringatan. Akan tetapi, adalah bermasalah untuk membatasi atau memfokuskan data pelatihan pada kejadian yang parah. Dalam melakukannya, prediktor mungkin dipilih yang sangat berkorelasi dengan rangkaian peristiwa parah yang dipilih tetapi secara tidak sengaja juga untuk menenangkan skenario yang tidak terkandung dalam data pelatihan. Untuk mengecualikan prediktor palsu ini dan untuk mendapatkan model statistik yang terampil, data pelatihan yang lebih umum perlu digunakan, karena jika tidak, perkiraan hasil yang berlebihan dan bias frekuensi (FB) dan FAR meningkat. Ini pada dasarnya sesuai dengan gagasan dilema peramal (lihat Lerch et al., 2017 ) yang menyatakan bahwa overforecasting adalah strategi yang menjanjikan ketika perkiraan dievaluasi terutama untuk kejadian ekstrim.

Penggunaan prakiraan probabilistik untuk peringatan cuaca buruk juga mempengaruhi cara prakiraan perlu dievaluasi. Juga untuk verifikasi, periode waktu yang lama diperlukan untuk menangkap kejadian ekstrim dan langka yang cukup untuk mendapatkan hasil yang signifikan secara statistik. Skor verifikasi seperti root mean square error (RMSE) atau CRPS (misalnya Hersbach, 2000 Gneiting et al., 2005) sangat didominasi oleh sebagian besar kasus ketika tidak ada peristiwa yang terjadi. Prakiraan cuaca tenang yang sangat baik tetapi tidak relevan dapat berpura-pura menjadi hasil verifikasi yang baik, meskipun beberapa kasus ekstrem yang relevan mungkin tidak dapat diramalkan dengan baik. Skor kategoris seperti POD dan FAR dianggap lebih relevan untuk kasus langka dan ekstrim, bersama dengan skor lain yang lebih kompleks seperti skor keterampilan Heidke (HSS) atau skor ancaman yang setara (ETS). Juga, diagram pencar mengungkapkan outlier dan sensitif terhadap nilai-nilai ekstrim.

Di sini kami menyajikan pendekatan MOS yang telah disesuaikan dengan prakiraan ensemble pascapemrosesan untuk peristiwa ekstrem dan langka. Ini dinamai Ensemble-MOS dan telah dibentuk di DWD untuk mendukung manajemen peringatan dengan prakiraan probabilistik dari peristiwa cuaca yang berpotensi berbahaya dalam AutoWARN lihat Reichert et al. (2015) dan Reichert (2016, 2017). Secara keseluruhan ada 37 elemen peringatan yang berbeda di DWD, termasuk hujan lebat dan hembusan angin kencang, baik pada beberapa tingkat intensitas, badai petir, hujan salju, kabut, jarak pandang terbatas, embun beku, dan lainnya. Saat ini sistem ensemble COSMO-D2-EPS dan ECMWF-ENS secara statistik dioptimalkan dan dikalibrasi menggunakan beberapa tahun data pelatihan, tetapi Ensemble-MOS berlaku untuk ansambel lain secara umum.

Di DWD, prakiraan pascaproses statistik dari sistem ensemble COSMO-D2-EPS dan ECMWF-ENS dan juga model deterministik ICON dan ECMWF-IFS digabungkan dalam langkah kedua untuk menyediakan kumpulan data yang konsisten dan transisi yang mulus dari yang sangat prakiraan jangka pendek hingga jangka menengah. Produk gabungan ini memberikan dasar suara tunggal untuk pembuatan proposal peringatan, lihat Reichert et al. (2015). Kombinasi ini didasarkan pada pendekatan MOS kedua yang serupa dengan sistem yang dijelaskan di sini. Kombinasi ini menggunakan prakiraan statistik individu dari model numerik sebagai prediktor. Karena kombinasi linier dari prakiraan yang dikalibrasi tidak selalu mempertahankan kalibrasi (misalnya Ranjan dan Gneiting, 2010), prediktor konstan tambahan ditambahkan ke persamaan MOS sebagai solusi. Primo (2016) dan Reichert (2017) menyatakan bahwa peringatan otomatis hembusan angin berdasarkan produk gabungan mencapai kinerja yang sebanding dengan peramal manusia.

Garis besar lebih lanjut dari makalah ini adalah sebagai berikut: setelah pendahuluan, pengamatan yang digunakan dan sistem ensemble diperkenalkan di Sect. 2. Setelah itu, Sek. 3 menjelaskan desain konseptual Ensemble-MOS dengan definisi prediktor dan prediktor dan memberikan rincian teknis dari regresi linier dan logistik bertahap. Khusus untuk embusan angin ekstrem, disajikan regresi logistik global yang menggunakan prakiraan statistik kecepatan embusan angin sebagai prediktor probabilitas kejadian kuat. Peringatan umum MOS seperti perubahan model dan konsistensi perkiraan dibahas di akhir bagian itu. Hasil yang ditampilkan di sini fokus pada hembusan angin dan disediakan di Sect. 4. Akhirnya, Sek. 5 memberikan ringkasan dan kesimpulan.

Pengamatan sinoptik dan data model dari sistem ensemble COSMO-D2-EPS dan ECMWF-ENS digunakan sebagai data pelatihan dan untuk prakiraan statistik saat ini. Rangkaian waktu 8 tahun pengamatan dan data model telah dikumpulkan untuk pelatihan pada saat penulisan. Data yang digunakan disajikan berikut ini.


2.1 Peserta

EA mengoperasikan lebih dari 14 area yang berbeda (yaitu secara luas berdasarkan delineasi daerah tangkapan) dengan tujuh pusat peramalan (selanjutnya disebut sebagai “pusat” lihat Gambar 1). Di dalam pusat-pusat ini, ia memiliki beberapa peran MFDO dan FWDO, yang diisi oleh sejumlah orang yang berbeda. Ini adalah peran sukarela, ditambahkan ke pekerjaan sehari-hari staf, di mana mereka mengikuti pelatihan yang relevan. MFDOs receive, process and communicate forecast information to FWDOs, who are responsible for interpreting the information and working out the potential impacts on the ground. The Duty Officers' schedules are predetermined by a rota, and Duty Officers are on call for a period of 1 week at a time. During times of increased flood risk, when more forecasting or warning activities are required, additional rostering takes place. Duty Officers receive a range of forecasts (nowcasting ∗ products to monthly outlooks ∗ ) and are aware of potential situations from a month out. Five days ahead is when the activity really starts to build and is the focus of these interviews.

Figure 1Map showing the geographical areas of the EA's operations (green numbered areas), highlighting the three areas which the centres where interviews were carried out are responsible for (blue boxes) (source: EA).

A total of six EA MFDOs and FWDOs from three different EA centres (one pair per centre) were interviewed to capture a range of perspectives in relation to the topic at hand, following best practice (Sivle et al., 2014 participant information sheet provided as the Supplement). Forecasting and decision-making varies between EA centres due to different management approaches and different types of geography and catchment responses ∗ . To protect anonymity, the three centres where interviews were carried out are shown in terms of the wider area they are responsible for: (1) the Yorkshire area (YOR) in the north (area 3), (2) the Thames area (THM) in the south-east (area 11), and (3) the Solent and South Downs area (SSD) in the south-east (area 14) (Fig. 1).

MFDOs and FWDOs were interviewed in pairs as they are used to working together and the information they use sits between these two roles. The thought was that by talking to the MFDOs alone we would lose the element of “and so what?”, while talking to the FWDOs alone the forecasting expertise would be lost. All MFDOs and FWDOs interviewed had several years of experience and so were able to describe the current practice and express personal expectations of how it might change with probabilistic forecasting.

Participants were selected by EA study co-developer I1 to meet the above criteria. For the purpose of anonymity, the interviewees will thereafter be reported using codes. The three MFDOs interviewed will be referred to as MFDO1, MFDO2 and MFDO3, and the three FWDOs interviewed as FWDO1, FWDO2 and FWDO3 (interviewed pairs are represented by the same number). As well as those from the MFDOs and FWDOs, quotes from two EA study co-developers are reported in this paper, I1 and I2, who helped the interviewer (Louise Arnal) by providing some context about the EA's organisational landscape, forecasting systems and MFDO and FWDO roles prior to the three interviews.


STEPS: A probabilistic precipitation forecasting scheme which merges an extrapolation nowcast with downscaled NWP

An ensemble-based probabilistic precipitation forecasting scheme has been developed that blends an extrapolation nowcast with a downscaled NWP forecast, known as STEPS: Short-Term Ensemble Prediction System. The uncertainties in the motion dan evolution of radar-inferred precipitation fields are quantified, and the uncertainty in the evolution of the precipitation pattern is shown to be the more important. The use of ensembles allows the scheme to be used for applications that require forecasts of the probability density function of areal and temporal averages of precipitation, such as fluvial flood forecasting—a capability that has not been provided by previous probabilistic precipitation nowcast schemes. The output from a NWP forecast model is downscaled so that the small scales not represented accurately by the model are injected into the forecast using stochastic noise. This allows the scheme to better represent the distribution of precipitation rate at spatial scales finer than those adequately resolved by operational NWP. The performance of the scheme has been assessed over the month of March 2003. Performance evaluation statistics show that the scheme possesses predictive skill at lead times in excess of six hours. © Crown copyright, 2006.


1.3 Outline of the paper

The paper is structured as follows. The theoretical framework for precipitation nowcasting and using stochastic perturbations to characterize the uncertainty is formulated in Sect. 2. The general architecture of the pysteps library is presented in Sect. 3. A comprehensive verification of pysteps nowcasts is given in Sect. 4. Various experiments to understand the sensitivity of pysteps to the model parameters and define the default configuration are done in Sect. 5. The limits of pysteps are tested in Sect. 6 using a tropical cyclone and severe convection case in Australia. Section 7 concludes the paper and lists potential future applications of pysteps. Finally, code listings demonstrating the use of pysteps are given in Appendix A.

This section introduces the basic concepts and components of probabilistic nowcasting models based on the Lagrangian persistence of radar precipitation fields and describes how these are currently implemented in pysteps.


Probability Aggregation Methods in Geoscience

The need for combining different sources of information in a probabilistic framework is a frequent task in earth sciences. This is a need that can be seen when modeling a reservoir using direct geological observations, geophysics, remote sensing, training images, and more. The probability of occurrence of a certain lithofacies at a certain location for example can easily be computed conditionally on the values observed at each source of information. The problem of aggregating these different conditional probability distributions into a single conditional distribution arises as an approximation to the inaccessible genuine conditional probability given all information. This paper makes a formal review of most aggregation methods proposed so far in the literature with a particular focus on their mathematical properties. Exact relationships relating the different methods is emphasized. The case of events with more than two possible outcomes, never explicitly studied in the literature, is treated in detail. It is shown that in this case, equivalence between different aggregation formulas is lost. The concepts of calibration, sharpness, and reliability, well known in the weather forecasting community for assessing the goodness-of-fit of the aggregation formulas, and a maximum likelihood estimation of the aggregation parameters are introduced. We then prove that parameters of calibrated log-linear pooling formulas are a solution of the maximum likelihood estimation equations. These results are illustrated on simulations from two common stochastic models for earth science: the truncated Gaussian model and the Boolean. It is found that the log-linear pooling provides the best prediction while the linear pooling provides the worst.

This is a preview of subscription content, access via your institution.


Tonton videonya: Peramalan Forecasting Model AR dengan Menggunakan Minitab (Oktober 2021).