Lebih

Mengapa faktor z dari 1 berubah menjadi 0.999998 di output saya my


Baru saja membangun model yang menggunakan Analis 3D - Volume Permukaan. Saya mencoba menggunakan faktor z 1. Setiap kali saya menjalankan model, tabel keluaran saya menunjukkan bahwa faktor Z 0.999998 digunakan sebagai ganti 1. Saya tahu ini adalah perbedaan yang sangat kecil tetapi meskipun demikian, hasil saya agak condong. Sungguh yang ingin saya ketahui, apakah ada penjelasan yang bagus mengapa diubah menjadi 0,9999998 atau adakah cara untuk membuatnya tetap di 1?


Terima kasih sekali lagi atas masukan Anda. Ketika saya mencoba mengubah jenis raster, alat ini menghilangkan faktor z secara bersamaan dan menguncinya di 0.999998. Jadi… Saya kira tidak ada jalan lain untuk menggunakan data integer atau floating point. Saya bahkan mencoba mengonversi ke bilangan bulat dan menggunakan kalkulator raster untuk mengalikan data dengan 1000 untuk mempertahankan desimal dalam bentuk bilangan bulat, tetapi masih terjebak dengan faktor z 0,999998. Tidak ada dadu.


Saya harus setuju dengan komentar, ini tentang bagaimana Anda ingin mewakili angka itu. Jika Anda ingin menyimpan angka 1 sebagai floating point, ArcGIS menyimpan angka ini sebagai 0,9999… Tampaknya argumen faktor Z ini disimpan seperti itu. Saya pikir tidak ada cara untuk menyimpannya sebagai integer. Faktanya, 0,99999 sama dengan 1.

Saya harus menambahkan gambar yang saya lihat beberapa hari yang lalu. Cocok untuk pertanyaan ini.


Mengapa disebut Vektor Laten?

Saya baru belajar tentang GAN dan saya agak bingung dengan penamaan Latent Vector.

Pertama, Dalam pemahaman saya, definisi variabel laten adalah variabel acak yang tidak dapat diukur secara langsung (kita perlu perhitungan dari variabel lain untuk mendapatkan nilainya). Misalnya, pengetahuan adalah variabel laten. Apakah itu benar?

Dan kemudian, di GAN, vektor laten $z$ adalah variabel acak yang merupakan input dari jaringan generator. Saya membaca di beberapa tutorial, itu dihasilkan hanya dengan menggunakan fungsi acak sederhana:

lalu bagaimana hubungan kedua hal tersebut? mengapa kita tidak menggunakan istilah "vektor dengan nilai acak antara -1 dan 1" saat merujuk $z$ (input generator) di GAN?


Saya akan mendekati ini sedikit berbeda mulai dari kira-kira tempat yang sama. Di sini saya akan menggunakan dipol resonansi $lambda$/2 20m yang digerakkan oleh 100 W sebagai model.

Mari kita hitung arus pada titik umpan dipol di resonansi, ini ditemukan dengan daya input (100 watt) dan impedansi titik umpan yang untuk dipol kita diasumsikan sebagai teori 73 $Omega$ :

Oleh karena itu tegangan penggerak dapat dihitung dengan Hukum Ohm:

$V_ eks = I cdot R = 1,17 mathrm A_ ext cdot 73 Omega = 85,44 :mathrm V_ ext $ (sinyal tidak termodulasi)

Tegangan di ujung dipol akan mengharuskan kita menghitung Q dan menyelesaikan yang berikut:

Mencoba meminimalkan gelombang tangan, kita dapat menggunakan beberapa perkiraan dari teori saluran transmisi untuk memberi kita Q. (Lihat Teknik Antena Radio Edmund Laport untuk penjelasan lengkap (dan matematika berat)) Untuk melakukan ini kita memerlukan impedansi karakteristik dari dipol (dianggap sebagai saluran transmisi). Itu diberikan oleh:

$ Z_ <0>= 276 cdot log_<10>frac

= 972.31 Omega $

Dimana $l$ adalah panjang total dipol dan $p$ adalah jari-jari konduktor (semua dalam satuan yang sama). Saya akan mengabaikan penghitungan panjang yang tepat di sini, kita tahu itu kira-kira 5% lebih pendek dari panjang gelombang sebenarnya untuk menebus faktor kecepatan dan efek akhir. Bit berikutnya ini bersandar pada teori saluran transmisi dan dapat berubah menjadi sekantong ular, jika Anda ingin tahu lebih banyak tentang dari mana persamaan ini berasal, periksa referensi yang dikutip di atas. $Q$ di sini adalah rasio tegangan gelombang langsung dan gelombang pantul:

dan $m$ dihitung dari impedansi titik umpan $R$ dan impedansi karakteristik $Z_0$:

Ketika saya menghitung $ Z_0 $, saya akan menganggap dipol kami dibuat dengan kawat 3mm. Sekarang untuk memutar nomor:

Sekarang kita dapat memecahkan $ V_ ext $:

Sekali lagi, ini adalah tegangan RMS yang harus kita ubah menjadi tegangan puncak:

$568 :mathrm V_ ext cdot sqrt <2>= pm 804 :mathrm V_ ext $

Ini semua untuk 100W, jika kita memasukkan 1500W ke dalam matematika di atas, kita akan mendapatkan

$4397 :mathrm V_ ext : eks : pm 6200 :mathrm V_ ext $

Itu goncangan yang cukup besar. Jadi kembali ke pertanyaan OP lainnya, daya input memiliki efek yang besar pada tegangan. Faktor lainnya semuanya sama untuk memaksimalkan efisiensi antena (resonansi, ukuran konduktor, dll.)

EDIT: Sebagian besar persamaan di atas berasal dari bagian Desain Sirkuit dalam referensi yang tercantum di atas. Buku ini lebih berat matematika daripada referensi radio amatir yang khas, tetapi tidak seburuk beberapa teks teknik yang lebih modern. Ini berjalan lambat, tapi layak dibaca.


Fungsi Hashing Kata Sandi yang Baik

PBKDF2 berasal dari PKCS#5. Ini diparameterisasi dengan jumlah iterasi (bilangan bulat, setidaknya 1, tanpa batas atas), garam (urutan byte yang berubah-ubah, tanpa batasan panjang), panjang output yang diperlukan (PBKDF2 dapat menghasilkan output dengan panjang yang dapat dikonfigurasi), dan "mendasari PRF". Dalam praktiknya, PBKDF2 selalu digunakan dengan HMAC, yang merupakan konstruksi yang dibangun di atas fungsi hash yang mendasarinya. Jadi, ketika kami mengatakan "PBKDF2 dengan SHA-1", sebenarnya yang kami maksud adalah "PBKDF2 dengan HMAC dengan SHA-1".

  • Telah ditentukan untuk waktu yang lama, tampaknya tidak terluka untuk saat ini.
  • Sudah diimplementasikan dalam berbagai kerangka kerja (misalnya disediakan dengan .NET).
  • Sangat dapat dikonfigurasi (walaupun beberapa implementasi tidak mengizinkan Anda memilih fungsi hash, misalnya yang ada di .NET hanya untuk SHA-1).
  • Menerima berkat NIST (modulo perbedaan antara hashing dan derivasi kunci lihat nanti).
  • Panjang keluaran yang dapat dikonfigurasi (sekali lagi, lihat nanti).
  • CPU-intensif saja, sehingga dapat menerima optimasi tinggi dengan GPU (bek adalah server dasar yang melakukan hal-hal umum, yaitu PC, tetapi penyerang dapat menghabiskan anggarannya untuk perangkat keras yang lebih khusus, yang akan memberinya keunggulan).
  • Anda masih harus mengelola parameter sendiri (pembuatan dan penyimpanan garam, pengkodean jumlah iterasi. ). Ada pengkodean standar untuk parameter PBKDF2 tetapi menggunakan ASN.1 sehingga kebanyakan orang akan menghindarinya jika mereka bisa (ASN.1 dapat menjadi rumit untuk ditangani untuk non-ahli).

Kesatuan hanya berarti 1, jadi mereka mungkin telah menormalkan nilai-nilai mereka sehingga semuanya berjumlah 1 alih-alih berapa pun total "alami" mereka. Saya dapat membayangkan beberapa skema normalisasi khusus, tetapi ini biasanya dilakukan dengan membagi, dan itulah yang akan saya asumsikan tanpa adanya deskripsi yang lebih rinci. Jika mereka telah dinormalisasi sehingga nilainya dijumlahkan menjadi 100, mereka akan menyatakannya sebagai persentase.

Misalkan ada zat yang terbuat dari tiga bahan kimia: 5L Kimia A, 2L Kimia B, dan 3L Kimia C. Anda dapat melakukan normalisasi serupa dan mengatakan bahwa setiap liter zat mengandung 0,5L A, 0,2L B, dan 0,3L C (setiap nilai telah dibagi 10, totalnya, jadi semua nilai dijumlahkan menjadi satu). Jika dinormalisasi menjadi 100 bukan satu, maka bisa juga dikatakan bahwa zat tersebut adalah 50% A, 20% B, dan 30% C.


Mereka terutama berbeda dalam fungsi tautan.

Dalam Probit: $Pr(Y=1 mid X) = Phi(X'eta)$ (Pdf normal kumulatif)

Dengan cara lain, logistik memiliki ekor yang sedikit lebih datar. yaitu kurva probit mendekati sumbu lebih cepat daripada kurva logit.

Logit memiliki interpretasi yang lebih mudah daripada probit. Regresi logistik dapat diartikan sebagai pemodelan log odds (yaitu mereka yang merokok >25 batang sehari memiliki kemungkinan 6 kali lebih besar untuk meninggal sebelum usia 65 tahun). Biasanya orang memulai pemodelan dengan logit. Anda dapat menggunakan nilai kemungkinan setiap model untuk memutuskan logit vs probit.

Model linier standar (misalnya, model regresi sederhana) dapat dianggap memiliki dua 'bagian'. Ini disebut komponen struktural dan komponen acak. Sebagai contoh:
$ Y=eta_0+eta_1X+varepsilon ext varepsilonsimmathcal(0,sigma^2) $ Dua suku pertama (yaitu, $eta_0+eta_1X$) merupakan komponen struktural, dan $varepsilon$ (yang menunjukkan suku kesalahan terdistribusi normal) adalah komponen acak. Ketika variabel respons tidak terdistribusi secara normal (misalnya, jika variabel respons Anda adalah biner), pendekatan ini mungkin tidak lagi valid. Model linier umum (GLiM) dikembangkan untuk mengatasi kasus seperti itu, dan model logit dan probit adalah kasus khusus GLiM yang sesuai untuk variabel biner (atau variabel respons multi-kategori dengan beberapa adaptasi terhadap proses). GLiM memiliki tiga bagian, a komponen struktural, Sebuah fungsi tautan, dan distribusi respon. Sebagai contoh:
$ g(mu)=eta_0+eta_1X $ Di sini $eta_0+eta_1X$ sekali lagi adalah komponen struktural, $g()$ adalah fungsi tautan, dan $mu$ adalah rata-rata dari distribusi respons bersyarat pada a titik tertentu dalam ruang kovariat. Cara kita berpikir tentang komponen struktural di sini sebenarnya tidak jauh berbeda dengan cara kita memikirkannya dengan model linier standar, itulah salah satu keuntungan besar GLiM. Karena untuk banyak distribusi, varians adalah fungsi dari mean, yang sesuai dengan mean bersyarat (dan mengingat bahwa Anda menetapkan distribusi respons), Anda secara otomatis menghitung analog dari komponen acak dalam model linier (NB: ini bisa menjadi lebih rumit dalam praktek).

Fungsi tautan adalah kunci untuk GLiM: karena distribusi variabel respons tidak normal, inilah yang memungkinkan kita menghubungkan komponen struktural ke respons--itu 'menghubungkan' mereka (karena itu namanya). Itu juga kunci pertanyaan Anda, karena logit dan probit adalah tautan (seperti yang dijelaskan @vinux), dan memahami fungsi tautan akan memungkinkan kita untuk memilih dengan cerdas kapan harus menggunakan yang mana. Meskipun ada banyak fungsi tautan yang dapat diterima, seringkali ada satu yang khusus. Tanpa ingin terlalu jauh ke dalam gulma (ini bisa menjadi sangat teknis) rata-rata yang diprediksi, $mu$, tidak harus secara matematis sama dengan distribusi respons parameter lokasi kanonik fungsi tautan yang menyamakannya adalah fungsi tautan kanonik. Keuntungan dari ini "adalah bahwa statistik yang cukup minimal untuk $eta$ ada" (Jerman Rodriguez). Tautan kanonik untuk data respons biner (lebih spesifik, distribusi binomial) adalah logit. Namun, ada banyak fungsi yang dapat memetakan komponen struktural ke dalam interval $(0,1)$, dan dengan demikian dapat diterima bahwa probit juga populer, tetapi masih ada opsi lain yang terkadang digunakan (seperti log pelengkap log, $ln(-ln(1-mu))$, sering disebut 'cloglog'). Jadi, ada banyak kemungkinan fungsi tautan dan pilihan fungsi tautan bisa menjadi sangat penting. Pilihan harus dibuat berdasarkan beberapa kombinasi dari:

  1. Pengetahuan tentang distribusi respon,
  2. Pertimbangan teoretis, dan
  3. Kesesuaian empiris dengan data.

Setelah membahas sedikit latar belakang konseptual yang diperlukan untuk memahami ide-ide ini dengan lebih jelas (maafkan saya), saya akan menjelaskan bagaimana pertimbangan ini dapat digunakan untuk memandu pilihan tautan Anda. (Biarkan saya perhatikan bahwa saya pikir komentar @ David secara akurat menangkap mengapa tautan yang berbeda dipilih dalam praktek.) Untuk memulainya, jika variabel respons Anda adalah hasil dari percobaan Bernoulli (yaitu, $ atau $1$), distribusi respons Anda akan menjadi binomial, dan apa yang sebenarnya Anda modelkan adalah probabilitas pengamatan menjadi $1$ (yaitu, $pi(Y=1)$). Akibatnya, fungsi apa pun yang memetakan garis bilangan real, $(-infty,+infty)$, ke interval $(0,1)$ akan berfungsi.

Dari sudut pandang teori substantif Anda, jika Anda memikirkan kovariat Anda sebagai langsung terhubung dengan probabilitas keberhasilan, maka Anda biasanya akan memilih regresi logistik karena ini adalah tautan kanonik. Namun, perhatikan contoh berikut: Anda diminta untuk memodelkan high_Blood_Pressure sebagai fungsi dari beberapa kovariat. Tekanan darah itu sendiri terdistribusi secara normal dalam populasi (saya tidak benar-benar tahu itu, tetapi tampaknya masuk akal prima facie), namun, dokter membaginya selama penelitian (yaitu, mereka hanya mencatat 'tekanan darah tinggi' atau 'normal' ). Dalam hal ini, probit akan lebih disukai a-priori karena alasan teoretis. Inilah yang dimaksud @Elvis dengan "hasil biner Anda bergantung pada variabel Gaussian tersembunyi". Pertimbangan lain adalah bahwa baik logit dan probit adalah simetris, jika Anda yakin bahwa kemungkinan sukses naik perlahan dari nol, tetapi kemudian berkurang lebih cepat saat mendekati satu, penyumbatan diperlukan, dll.

Terakhir, perhatikan bahwa kecocokan empiris model dengan data tidak mungkin membantu dalam memilih tautan, kecuali jika bentuk fungsi tautan yang dimaksud berbeda secara substansial (di antaranya, logit dan probit tidak). Sebagai contoh, perhatikan simulasi berikut:

Bahkan ketika kita mengetahui bahwa data dihasilkan oleh model probit, dan kita memiliki 1000 titik data, model probit hanya menghasilkan 70% kecocokan yang lebih baik dari waktu, dan bahkan kemudian, seringkali hanya dengan jumlah yang kecil. Pertimbangkan iterasi terakhir:

Alasannya adalah karena fungsi logit dan probit link menghasilkan keluaran yang sangat mirip ketika diberi masukan yang sama.

Fungsi logit dan probit secara praktis identik, kecuali bahwa logit sedikit lebih jauh dari batas ketika mereka 'berbelok di tikungan', seperti yang dinyatakan @vinux. (Perhatikan bahwa untuk mendapatkan logit dan probit untuk menyelaraskan secara optimal, $eta_1$ logit harus $kira-kira 1.7$ kali nilai kemiringan yang sesuai untuk probit. Selain itu, saya dapat menggeser cloglog sedikit sehingga mereka akan berbaring di atas satu sama lain lebih banyak, tetapi saya membiarkannya ke samping agar gambar lebih mudah dibaca.) Perhatikan bahwa cloglog tidak simetris sedangkan yang lain mulai menjauh dari 0 sebelumnya, tetapi lebih lambat, dan mendekat ke 1 dan kemudian berbelok tajam.

Beberapa hal lagi dapat dikatakan tentang fungsi tautan. Pertama, mempertimbangkan fungsi identitas ($g(eta)=eta$) sebagai fungsi tautan memungkinkan kita untuk memahami model linier standar sebagai kasus khusus dari model linier umum (yaitu, distribusi responsnya normal, dan tautannya adalah fungsi identitas ). Penting juga untuk mengetahui bahwa transformasi apa pun yang dibuat tautan diterapkan dengan benar ke parameter mengatur distribusi respons (yaitu, $mu$), bukan respons yang sebenarnya data. Akhirnya, karena dalam praktiknya kita tidak pernah memiliki parameter yang mendasari untuk diubah, dalam diskusi tentang model-model ini, seringkali apa yang dianggap sebagai tautan aktual dibiarkan implisit dan model diwakili oleh terbalik dari fungsi link diterapkan pada komponen struktural sebagai gantinya. Itu adalah:
$ mu=g^<-1>(eta_0+eta_1X) $ Misalnya, regresi logistik biasanya direpresentasikan: $ pi(Y)=frac <1+exp (eta_0+eta_1X)>$ bukannya: $ lnleft(frac<1-pi(Y)> ight)=eta_0+eta_1X $

Untuk ikhtisar yang cepat dan jelas, tetapi padat, tentang model linier umum, lihat bab 10 dari Fitzmaurice, Laird, & amp Ware (2004), (di mana saya bersandar untuk sebagian dari jawaban ini, meskipun karena ini adalah adaptasi saya sendiri dari itu --dan lainnya--materi, kesalahan akan menjadi milik saya sendiri). Untuk mengetahui cara menyesuaikan model ini di R, lihat dokumentasi untuk fungsi ?glm dalam paket dasar.

(Satu catatan terakhir ditambahkan kemudian :) Saya kadang-kadang mendengar orang mengatakan bahwa Anda tidak boleh menggunakan probit, karena itu tidak dapat ditafsirkan. Ini tidak benar, meskipun interpretasi beta kurang intuitif. Dengan regresi logistik, perubahan satu unit dalam $X_1$ dikaitkan dengan perubahan $eta_1$ dalam peluang log 'sukses' (sebagai alternatif, perubahan peluang $exp(eta_1)$ kali lipat), semua lain menjadi setara. Dengan probit, ini akan menjadi perubahan $eta_1 ext< >z

V. KESIMPULAN

…sebuah kota pada tingkat fundamentalnya tidak dapat dioptimalkan. Dinamisme kota berasal dari ketidakefisienannya, dari orang-orang dan ide-ide yang bertabrakan secara tak terduga. (Badger, 2018)

Kutipan di atas berasal dari Waktu New York artikel yang menggambarkan upaya dunia teknologi untuk meningkatkan kota dengan mengoptimalkan fungsinya, mengutip kutipan dari profesor UC-Berkeley Nicholas de Monchaux yang mengingatkan kita bahwa efisiensi itu berlebihan. Mengejar efisiensi waktu nyata berarti bahwa kami mencoba untuk mengoptimalkan komponen sistem kompleks yang tidak sepenuhnya kami pahami – dan mungkin kurang memahami karena upaya kami. Kota bukanlah mesin yang direkayasa untuk kecepatan tinggi: kota adalah ekosistem jaringan dan aliran yang kompleks (Batty, 2012, 2013b). Data geografis yang cepat adalah akselerator ampuh yang seharusnya hanya diterapkan pada ekosistem ini dengan cara yang bijaksana dan diskriminatif.

Tantangan nyata yang dihadapi umat manusia bukanlah mempercepat, melainkan memperlambat arus manusia, material, dan energi melalui kota (Townsend, 2013). Langkah pertama adalah berhenti memandang gesekan sebagai musuh yang harus dikalahkan: gesekan bisa menjadi teman (Miller, 2017b). Di Terra Nova: Dunia Baru setelah Minyak, Mobil, dan Pinggiran Kota, Eric Sanderson (2013) menggambarkan visi organisasi kota berdasarkan prinsip-prinsip ekologi yang merangkul friksi baik dan mengurangi friksi buruk. Gesekan yang baik adalah gesekan antara sistem alam dan sistem manusia di mana sumber daya (termasuk tanah) meninggalkan alam dan limbah masuk kembali. Gesekan buruk adalah gesekan yang memperlambat pertukaran dan inovasi dalam sistem manusia. Gesekan fisik juga buruk, harus dihindari dengan mengganti jalan dengan rel. Apakah Anda menerima detail visinya atau tidak, Sanderson menunjukkan ada cara kita dapat mengatur sistem manusia selain mengejar dunia yang cepat dan tanpa gesekan.


Seberapa akurat GPS untuk pengukuran kecepatan?

Seperti halnya penentuan posisi, akurasi kecepatan GPS bergantung pada banyak faktor.

Pemerintah menyediakan sinyal GPS di luar angkasa dengan kesalahan tingkat jangkauan pengguna rata-rata global (URRE) sebesar &le0.006 m/dtk selama interval 3 detik apa pun, dengan probabilitas 95%.

Ukuran ini harus dikombinasikan dengan faktor lain di luar kendali pemerintah, termasuk geometri satelit, penyumbatan sinyal, kondisi atmosfer, dan fitur/kualitas desain receiver, untuk menghitung akurasi kecepatan receiver tertentu.


3 Jawaban 3

Salah satu faktor penting adalah kesuburan tanah:

Tanah Jawa sangat subur karena pengayaan berkala oleh abu vulkanik.

Sebaliknya, dengan dua pulau besar di Indonesia, Kalimantan (bersama dengan Brunei dan Malaysia) dan Sumatra:

Borneo, pulau terbesar ketiga di dunia, memiliki tanah hutan hujan yang patut dicontoh: dangkal dan miskin nutrisi. Banyaknya hujan di ekosistem purba ini telah melarutkan tanah selama jutaan tahun.

Berbeda dengan Jawa yang kelebihan penduduk, pulau tetangga Sumatra masih menyediakan cadangan lahan yang tidak terpakai yang sangat besar. Namun, sejauh ini tidak semua cadangan tersebut dapat dianggap sebagai potensi pertanian yang nyata, mis. untuk proyek pemukiman kembali. Terutama tanah yang buruk sering membuktikan cacat pertanian. Selain kesuburan tanah, vegetasi yang ada juga harus diperhatikan. Jadi, misalnya, yang disebut "sabana rumput alang alang" secara umum menunjukkan potensi yang lebih baik daripada kawasan hutan, sementara sebagian besar rawa terbukti tidak cocok untuk pengembangan pertanian.

(Saya rasa tidak masuk akal untuk membandingkan Jawa dengan pulau-pulau seperti Honshu atau Madagaskar yang berada di negara lain dengan sejarah yang sama sekali berbeda.)

Alasan paling mendasar sehubungan dengan bagian lain dari Asia tropis adalah adopsi awal budidaya padi basah di Jawa. Grigg menunjukkan bahwa satu-satunya tempat di Asia yang memiliki kepadatan penduduk yang lebih besar pada akhir abad ke-19 adalah Cina dan Jepang. Beras basah hanyalah bentuk pertanian yang sangat produktif, terutama menurut standar tradisional, sebelum zaman pupuk sintetis.

Jepang adalah kasus yang berbeda. Baru-baru ini populasi Jawa telah melampaui Jepang, dan itu karena Jepang memiliki beberapa yang terendah tingkat kesuburan Di dalam dunia. Jawa masih berada pada tahap awal transisi demografi, tetapi seiring waktu pertumbuhan penduduknya secara bertahap melambat.

Dalam volume klasik Clifford Geertz Involusi Pertanian: Proses Perubahan Ekologis di Indonesia (1963), penulis berpendapat bahwa budidaya padi sawah bentuk Jawa memiliki potensi yang sangat tinggi untuk “menyerap tenaga kerja”. Sementara pandangan Geertz telah dikritik – untuk diskusi yang mencerahkan lihat Wood (2020), Bab 6 (pratinjau tersedia di Google Buku) – ini adalah titik awal yang baik untuk menjawab pertanyaan Anda. Kayu menulis:

Sangat mendasar bagi pandangan Geertz bahwa sistem pertanian yang berbeda memiliki kapasitas yang berbeda untuk penyerapan dan involusi tenaga kerja. Menurut Geertz, pertanian padi basah seperti yang dipraktikkan di Asia Timur dan Tenggara mungkin memiliki kapasitas tertinggi untuk menyerap tenaga kerja dari segala bentuk pertanian tradisional.

Dengan demikian, atribut khusus dari sistem pertanian padi basah di daerah tropis dan subtropis memungkinkan sistem ini untuk mendukung, dan memang dalam pandangan beberapa penulis. permintaan, kepadatan penduduk yang tinggi. Sistem beras basah dengan kepadatan tinggi dan intensitas tinggi ditemukan di seluruh Asia selatan dan tenggara.

Namun, seperti yang dikatakan oleh responden lain atas pertanyaan ini, sifat-sifat lingkungan fisik juga merupakan faktor penting dalam potensi sistem beras basah dengan kepadatan tinggi. Suhu musim tanam dan curah hujan akan mempengaruhi potensi produktivitas, tetapi di Asia musim tropis dan sedang, kesuburan tanah mungkin lebih penting. Jadi contoh terbaik dari sistem padi dengan kepadatan tinggi ditemukan tidak hanya di tanah vulkanik muda yang subur di Jawa, tetapi juga di sepanjang lembah sungai utama dan delta di wilayah tersebut, misalnya Mekong, Red, Chao Phraya, Irrawaddy, Pearl, Yangtze , Gangga, dan di lembah vulkanik Jepang yang subur namun sempit. Seperti disebutkan di atas, pulau-pulau lain yang Anda sebutkan:

Madagaskar, Kalimantan, Sulawesi, Honshu (Jepang), dan Sri Lanka

dicirikan oleh geologi yang lebih tua dan lebih kompleks dengan tanah yang secara signifikan kurang subur, dan dalam kasus Jepang, daerah substansial dengan iklim sejuk hingga dingin di mana pertanian padi akan dibatasi untuk satu tanaman per tahun, jika sama sekali.


Catatan kaki

File teks jelas dapat diterjemahkan ke dalam angka ini adalah bagaimana mereka disimpan dan ditransmisikan. Tidak bisakah file teks diproses secara elektronik? Sekali lagi, jawabannya harus ya, tergantung pada apa yang dimaksud dengan diproses. Kemampuan algoritma komputer untuk memproses dan menghasilkan ucapan (teks) telah meningkat secara dramatis sejak pertama kali kita membahas informasi lunak dan keras. Apakah itu dapat ditafsirkan dan dikodekan ke dalam skor numerik (atau skor) adalah pertanyaan yang lebih sulit. Skor numerik selalu dapat dibuat. Pertanyaannya adalah seberapa banyak informasi berharga yang hilang dalam proses tersebut. Kami menyebut proses ini sebagai pengerasan informasi, dan kami akan membahasnya di bawah.

Pendapatan penjualan perusahaan atau pengembalian saham mereka adalah contoh dari informasi yang sulit. Ada kesepakatan yang luas mengenai apa artinya bagi sebuah perusahaan untuk memiliki penjualan sebesar $10 juta tahun lalu atau harga saham perusahaan telah meningkat sebesar 10%. Namun, jika kita mengatakan pemilik perusahaan dapat dipercaya, ada sedikit kesepakatan tentang apa artinya ini dan mengapa itu penting. Definisi kepercayaan mungkin berbeda antar agen dan konteks di mana seseorang mengevaluasi kepercayaan mungkin relevan.

Perbedaan ini mengingatkan pada perbedaan antara pendekatan yang kami ambil ketika kami mengajar ekonometrika lulusan tahun pertama dan cara penelitian empiris dilakukan dalam praktik. Dalam Ekonometrika 101, kita asumsikan kita mengetahui variabel dependen, variabel independen, dan bentuk fungsional. Satu-satunya yang tidak diketahui adalah nilai yang tepat dari koefisien. Dalam proyek penelitian yang sebenarnya, kami memiliki prioritas tentang hubungan antara konsep-konsep ekonomi yang penting, tetapi kami tidak tahu bagaimana mengukur secara tepat konsep di balik variabel dependen dan independen maupun bentuk fungsional. Hanya setelah mengumpulkan data dan memeriksa hasil awal barulah kita memahami bagaimana variabel terkait. Hal ini membawa kita untuk memodifikasi hipotesis kita dan seringkali membutuhkan pengumpulan data tambahan atau perubahan dalam interpretasi data. Proses penelitian membantu kita melihat dan memahami konteks yang hilang.

Contoh tipikal adalah petugas pinjaman berbasis hubungan. Petugas pinjaman memiliki sejarah dengan peminjam dan, berdasarkan banyak kontak pribadi, telah membangun kesan tentang kejujuran peminjam, kelayakan kredit, dan kemungkinan gagal bayar. Berdasarkan pandangan peminjam dan pengalaman petugas pinjaman, pinjaman disetujui atau ditolak. Uzzi dan Lancaster (2003) memberikan deskripsi rinci tentang interaksi antara peminjam dan petugas pinjaman.

Dalam studi Bikhchandani, Hirshleifer, dan Welch (1992) tentang kaskade informasi, mereka memodelkan keputusan berurutan di mana agen melihat keputusan (biner) dari agen sebelumnya, tetapi bukan informasi yang menjadi dasar keputusan itu dibuat. Pengurangan (pengerasan) informasi ini menyebabkan agen mengabaikan informasi (lunak) mereka sendiri dan mengikuti orang banyak.

Deskripsi penulis tentang pasar kredit perdagangan selama periode ini sangat mirip dengan deskripsi Nocera (2013) tentang pasar pinjaman konsumen AS tahun 1950-an.

Pendahulu Dun dan Bradstreet, Mercantile Agency, didirikan pada tahun 1841 (Carruthers dan Cohen 2010b). Pendahulu Standard and Poor's, History of Railroads and Canals in the United States oleh Henry Poor, didirikan pada tahun 1860.

Carruthers dan Cohen (2010b, hlm. 5–6) mengutip Cohen (1998) yang mengatakan, “… apa yang masuk ke dalam evaluasi kredit adalah kumpulan fakta, penilaian, dan rumor yang bervariasi dan tidak sistematis tentang perusahaan, kepribadian pemiliknya, urusan bisnis, keluarga dan sejarah…. apa yang keluar adalah peringkat kelayakan kredit yang diformalkan, sistematis, dan sebanding ….”.

CRSP dimulai dengan pertanyaan dari Louis Engel, wakil presiden di Merrill Lynch, Pierce, Fenner, dan Smith. Dia ingin mengetahui pengembalian ekuitas jangka panjang. Dia menoleh ke Profesor James Lorie di University of Chicago, yang juga tidak tahu tetapi bersedia mencari tahu untuk mereka (untuk hibah $ 50.000). Proses mencari tahu mengarah pada pembuatan database pengembalian saham CRSP. Bahwa baik profesional investasi maupun keuangan akademik tidak mengetahui jawaban atas pertanyaan ini menggambarkan seberapa jauh kita telah bergantung pada informasi yang sulit, seperti pengembalian saham. Profesor Lorie menggambarkan keadaan penelitian sebelum CRSP dalam pidatonya di Philadelphia tahun 1965: “Sampai saat ini hampir semua pekerjaan ini dilakukan oleh orang-orang yang tahu banyak tentang pasar saham dan sangat sedikit tentang statistik. Sementara kombinasi pengetahuan dan ketidaktahuan ini tidak mungkin steril seperti kebalikannya — yaitu, kecanggihan statistik ditambah dengan ketidaktahuan bidang aplikasi — namun gagal menghasilkan banyak nilai.” Selain CRSP, dia berbicara tentang kumpulan data baru lainnya: Compustat (dijual oleh Standard Statistics Corporation), yang memiliki 60 variabel dari laporan laba rugi dan neraca perusahaan.

Untuk pinjaman usaha kecil, besaran biaya tidak tergantung pada besarnya pinjaman. Dengan demikian, persentase biaya menurun dengan ukuran pinjaman (Petersen dan Rajan 1994). Penurunan biaya transaksi, terutama melalui pengiriman digital dan otomatisasi, dapat menjadi sangat penting dalam pinjaman keuangan mikro, di mana jumlah pinjamannya sangat kecil (Karlan et al. 2016).

Sebab-akibat juga bisa berjalan ke arah yang berlawanan. Persaingan yang lebih besar, yang dapat timbul dari deregulasi, misalnya, meningkatkan tekanan untuk menurunkan biaya dan dengan demikian mengubah proses produksi menjadi lebih bergantung pada informasi yang sulit.

Pinjaman hipotek subprime kurang terstandarisasi dan lebih sensitif secara informasi daripada hipotek normal, karena, terkadang, peminjam tidak dapat memberikan pengungkapan penuh pendapatan mereka (Mayer, Pence, dan Sherlund 2009).

Karolyi (2017) menemukan bahwa hubungan terletak pada individu, bukan perusahaan. Setelah perubahan eksogen dalam kepemimpinan (kematian atau pensiunnya seorang CEO), perusahaan secara signifikan lebih mungkin untuk beralih ke pemberi pinjaman yang memiliki hubungan dengan CEO baru (lihat juga Degryse et al. 2013). Ini adalah salah satu alasan mengapa perusahaan yang mengandalkan informasi lunak dalam mengamankan modal utang peduli dengan kerapuhan bank tempat mereka meminjam (Schwert 2017).

Menggunakan uji coba kontrol acak, Paravisini dan Schoar (2015) mengevaluasi penerapan skor kredit dalam pengaturan pinjaman usaha kecil. Mereka menemukan bahwa menggunakan nilai kredit meningkatkan produktivitas komite kredit (misalnya, lebih sedikit waktu yang dihabiskan untuk setiap file).

Friedman (1990) berpendapat bahwa ini adalah salah satu keuntungan dari pasar versus ekonomi terencana. Dia berpendapat bahwa semua informasi yang relevan bagi konsumen atau produsen tentang penawaran relatif suatu barang terkandung dalam harga. Dengan demikian, pemasok tidak perlu mengetahui apakah harga naik karena permintaan naik atau penawaran turun. Pemasok hanya perlu mengetahui bahwa harga telah naik, dan ini akan menentukan keputusannya tentang berapa banyak untuk meningkatkan produksi. Deskripsi Friedman tentang ekonomi pasar menggambarkan lingkungan informasi klasik yang keras.

Pada krisis keuangan 2008, sejumlah besar sekuritas tingkat investasi gagal bayar. Besarnya default menunjukkan adanya masalah dengan proses pemeringkatan (lihat Benmelech dan Dlugosz 2009a, 2009b). Pengamat di industri, akademisi, dan pemerintah menyarankan kemungkinan sumber masalah dan solusi potensial. Menariknya, pengalaman default sangat berbeda di pasar obligasi korporasi (utang perusahaan yang beroperasi) dibandingkan dengan pasar keuangan terstruktur (misalnya, RMBS). Default di pasar obligasi korporasi melonjak pada 2009, tetapi puncaknya tidak berbeda secara drastis dari puncak resesi sebelumnya (lihat Vazza dan Kraemer 2016, bagan 1). Puncak default di pasar keuangan terstruktur pada tahun 2009 secara dramatis lebih besar (lihat South dan Gurwitz 2015, grafik 1). Bahwa runtuhnya pasar perumahan memukul sekuritas keuangan terstruktur lebih agresif menunjukkan bahwa sebagian dari masalah dengan proses pemeringkatan berada secara unik di segmen keuangan terstruktur pasar. Untuk perusahaan yang beroperasi, biaya modal yang rendah merupakan keuntungan, tetapi bukan satu-satunya atau sumber utama keunggulan kompetitif. Untuk struktur sekuritisasi, biaya modal yang lebih rendah adalah salah satu dari sedikit sumber "keunggulan kompetitif". Dengan demikian, bank dapat mengubah hipotek mana yang ditempatkan menjadi sekuritisasi jika perubahan ini akan meningkatkan fraksi sekuritisasi dengan peringkat AAA dan dengan demikian menurunkan biaya modal. Sebuah perusahaan manufaktur mobil tidak mungkin menutup pabrik atau menutup divisi semata-mata untuk mencapai peringkat kredit yang lebih tinggi. Biaya mengubah bisnis untuk meningkatkan skor kredit lebih tinggi dan manfaatnya (relatif) lebih rendah untuk perusahaan yang beroperasi. Ini mungkin mengapa kami melihat default yang relatif lebih sedikit di sektor obligasi korporasi dibandingkan dengan sektor yang disekuritisasi. Masalah ini mendorong lembaga pemeringkat kredit untuk mempertimbangkan skala penilaian yang berbeda untuk keuangan terstruktur versus utang perusahaan (Kimball dan Cantor 2008).

Hu, Huang, and Simonov (2017) see the same behavior in the market for individual loans. The theoretical importance of nonlinearities in the mapping of inputs (hard information) to outputs (decisions) is discussed in Jensen (2003). In his examples, incentives to misstate one’s information are smaller if the payoff function is linear. Small changes in the reported information have only small changes in the manager’s payoff.

There may also be strategic reasons to avoid a transparent mapping between the numbers and the credit rating. The business model of credit rating agencies relies on market participants being unable to replicate the ratings at a lower cost than the agency. If the mapping were a direct function of easily accessible inputs (e.g., the income statement and balance sheet) and nothing else, some clever assistant finance or accounting professor would figure out the function. This is one reason that the early credit reporting agencies publicly released only a fraction of their information in the form of a credit score. For additional fees, users could review a more complete report ( Carruthers and Cohen 2010a, 2014).

Guiso, Sapienza, and Zingales (2013) find that borrowers feel less obligated to repay an underwater mortgage if the mortgage has been sold in the marketplace.

Brown et al. (2012) find that loan officers use discretion to smooth credit, but there is limited information in discretionary changes. Degryse et al. (2013) provide evidence that soft information helps predict defaults over public information (e.g., financial statements), but discretionary actions do not predict default. Gropp, Gruendl, and Guettler (2012) show that the use of discretion by loan officers does not affect the performance of the bank portfolio. Puri, Rocholl, and Steffen (2011) document the widespread use of discretion inside a German savings bank but find no evidence that loans approved based on discretion perform differently than those approved not based on discretion. Cerqueiro, Degryse, and Ongena (2011) find that discretion seems to be important in the pricing of loans but that it only plays a minor role in the decision to lend.

This is an imperfect solution when the loan officer has an incentive and the ability to manipulate the inputs, just as the borrower might. The loan officers in Berg, Puri, and Rocholl (2016) work for a bank that uses an internal credit score to evaluate loans. They show that loan officers repeatedly enter new values of the variables into the system until a loan is approved. Not only are they able to get loans approved that were originally rejected, but they also learn the model’s cutoffs and thus what is required for loan approval. These results suggest that even hard information decision-making algorithms, which are transparent and depend on data subject to the control of either participant (local decision maker or the target of the decision), are subject to the Lucas critique (see Section 2.4).

A variety of possible costs are embedded in the transmission of information in an organization. Theories of costly communication, where soft information may be more costly to communicate across hierarchies ( Becker and Murphy 1992 Radner 1993 Bolton and Dewatripont 1994) theories of loss of incentives to collect, process, and use soft information like in Aghion and Tirole (1997), because of the anticipation of being overruled by one’s superior and strategic manipulation of information like in Crawford and Sobel (1982) and Dessein (2002), offer three different, but related, explanations. In all these theories, those who send the information make it noisier and less verifiable if their preferences are not aligned with those who are receiving it and, ultimately, have the final authority to make the decision.

Rajan and Zingales (1998) argue that ownership is not the only way to allocate power in an organization. Another, and, in some cases, a better way, is through access. Access is the ability to work with or use a critical resource, though not necessarily a physical resource that can be owned. In financial institutions (and increasingly in other firms), this resource is often information.

Although these papers all examine geographical distance, they are different in nature. Petersen and Rajan (2002) document that distance between lenders and borrowers increased because of improvements in information technology. Degryse and Ongena (2005) study the relationship between the competitiveness of the lending market and the distance between the borrower, their lender, and other potential competitors (banks). Mian (2006) suggests that greater distance not only decreases the incentives of a loan officer to collect soft information but also makes it more costly to produce and communicate soft information. DeYoung, Glennon, and Nigro (2008) document the relationship between the use of hard information using credit scoring technologies and an increase in borrower-lender distances. Finally, Agarwal and Hauswald (2010) study the effects of distance on the acquisition and use of private information in informationally opaque credit markets. They show that borrower proximity facilitates the collection of soft information, which is reflected in the bank’s internal credit assessment.

Starting in the early eighties, the number of banks in the United States began declining by over 50%, with most of the fall occurring in the first decade ( Petersen and Rajan 2002, figure 4 Berger and Bouwman 2016, figure 8.1). The decline in the total number of banks is completely driven by the decline of small banks defined by those with gross total assets less than $1 billion. The number of large banks has grown. The decline in small banks is driven, in part, by the technology and the shift to hard information and also by deregulation (Strahan and Kroszner 1999). The growing reliance on hard information and automated decision-making and the associated cost savings created pressure to reduce regulations on bank expansion. In turn, diminishing regulatory restrictions raised the value of capturing cost savings by shifting to production processes that rely on hard information and enabled greater economies of scale.

Even in markets that we think are dominated by hard information and thus where we would expect distance not to be relevant, research has sometimes found a preference for local investments. Mutual fund managers tend to hold a higher concentration in shares of local firms, because access to soft information of local firms is cheaper ( Coval and Moskowitz 1999, 2001). The effect is strongest in small and highly levered firms.

If the local underwriters have soft information that nonlocal underwriters do not have, and they can thus sell the bonds at higher prices, they should be able to extract larger fees. Oddly, they do not. Local underwriters charge lower fees relative to nonlocal underwriting, suggesting that local competition limits their pricing power.

They use the measure of distance between banks and borrowers from Petersen and Rajan (2002) to classify whether industries are hard- or soft-information intensive. Industries where the distance between borrowers and lenders is larger are classified as hard information environments.

A plant may be located far away in terms of geographical distance, but monitoring may be easier when direct flights are available between the cities in which headquarters and plants are located.

Analogously, firms attempted to alter the financial information they reported in response to the introduction of credit ratings in an effort to increase their access to credit in the late nineteenth century ( Carruthers and Cohen 2010b, footnote 36).

The literature began by simply counting positive and negative words, which proved to be more complicated than one would have initially guessed. The language of finance is not as simple as we think ( Longhran and McDonald 2011). For example, the sentence “The Dell Company has 100 million shares outstanding” would have been classified as an extremely positive sentence by the early dictionaries, since “company,” “share,” and “outstanding” are coded as positive words (Engelberg 2008). The Hoberg and Phillips (2010) method is similar, but they are interested in a very different question. They use text-based analysis of firms’ 10-Ks to measure the similarities of firms involved in mergers and thus predict the success of the mergers. Mayew and Venkatachalam (2012) took this idea one step further and examined the information embedded in the tone of managers’ voices during earning calls.

Loss of information is not only due to the effect of hardening the information. A change in the compensation structure of agents may also affect the use of information. In a controlled experiment, Agarwal and Ben-David (2018) study the impact that changing the incentive structure of loan officers to prospect new applications has on the volume of approved loans and default rates. They find that after the change, loan officers start relying more on favorable hard information and ignoring unfavorable soft information. The results highlight how incentives dictate not just what information is collected but also what role it plays in the decision. Another form of loss of information is due to the portability of soft information. For example, Drexler and Schoar (2014) show that when loan officers leave, they generate a cost to the bank, because leaving affects the borrower-lender relationship. As the departing loan officers have no incentives to voluntarily transfer the soft information, borrowers are less likely to receive new loans from the bank in their absence.

Appearance also played a role in the early credit reports collected by the Mercantile Agency. The agency’s instructions to their agents stated “… give us your impressions about them, judging from appearances as to their probable success, amount of stock, habits, application to business, whether they are young and energetic or the reverse …” ( Carruthers and Cohen 2010b, p. 12).

Mollick (2014, p. 2) defines crowdfunding as “… the efforts by entrepreneurial individuals and groups … to fund their ventures by drawing on relatively small contributions from a relatively large number of individuals using the internet, without standard financial intermediaries.”

Participants contribute capital in exchange for a product or so they may participate in supporting an event or creative endeavor. The first is a form of trade credit (prepaying for a product) and in most examples is more akin to market research than equity funding, since the existence and the quality of the product are often uncertain.

Newman (2011) has raised the concern that “… crowdfunding could become an efficient, online means for defrauding the investing public … .”

Investors “… rely on highly visible (but imperfect) proxies for quality such as accumulated capital, formal education, affiliation with top accelerator programs, advisors, etc.” ( Catalini and Hui 2018, p. 1).

The Mercantile Agency, the precursor to Dun and Bradstreet’s, also worried about the tendency of some subscribers, who had purchased access to their reports, relying too heavily on the ratings, as opposed to visiting their offices and inspecting the underlying data ( Carruthers and Cohen 2010b).

The evidence that human brokers factor their client’s characteristics into the investment decision is not reassuring. A retail investor’s asset allocation significantly depends more on who their broker is (e.g., broker fixed effects) than the investors own characteristics (e.g., risk tolerance, age, financial knowledge, investment horizon, and wealth see Foerster et al. 2017).

Algorithms are written by humans, so they may embody the same behavioral biases that human advisors have ( O’Neil 2016, D’Acunto, Prabhala, and Rossi 2017) as well as the biases of those who design the algorithms or which may be inherent in the data ( O’Neil 2016).