ChatGPT bisa Menarik lebih dari 500 Ribu Kilowatt/Jam

AI menghabiskan banyak sekali listrik.

Chatbot OpenAI yang menarik, ChatGPT, mungkin menggunakan lebih dari 500 ribu kilowatt/jam untuk menanggapi sekitar 200 juta permintaan setiap hari, menurut The New Yorker.

Publikasi tersebut melaporkan bahwa rata-rata rumah tangga AS menggunakan sekitar 29 kilowatt-jam setiap hari. Membagi jumlah listrik yang digunakan ChatGPT per hari dengan jumlah yang digunakan rata-rata rumah tangga menunjukkan bahwa ChatGPT menggunakan lebih dari 17 ribu kali lipat jumlah listrik.

Itu banyak. Dan jika AI generatif diadopsi lebih lanjut, hal ini dapat menghabiskan lebih banyak dana.

Misalnya, jika Google mengintegrasikan teknologi AI generatif ke dalam setiap penelusuran, hal ini akan menghabiskan sekitar 29 miliar kilowatt-jam per tahun, menurut perhitungan yang dibuat oleh Alex de Vries, ilmuwan data di Dutch National Bank, dalam sebuah makalah untuk energi berkelanjutan. jurnal Joule. Jumlah tersebut lebih banyak dibandingkan konsumsi listrik di negara-negara seperti Kenya, Guatemala, dan Kroasia dalam setahun, menurut The New Yorker.

“AI sangat boros energi,” kata de Vries. “Setiap server AI ini sudah dapat mengonsumsi daya sebanyak gabungan lebih dari selusin rumah tangga di Inggris. Jadi jumlahnya bertambah dengan sangat cepat.”

Namun, sulit untuk memperkirakan berapa banyak listrik yang dikonsumsi oleh industri AI yang sedang booming. Terdapat variabilitas yang cukup besar dalam cara kerja model AI yang besar, dan perusahaan-perusahaan teknologi besar – yang mendorong pertumbuhan tersebut – belum benar-benar terbuka mengenai penggunaan energi mereka, menurut The Verge.

Namun, dalam makalahnya, de Vries membuat perhitungan kasar berdasarkan angka-angka yang dikeluarkan oleh Nvidia – yang oleh beberapa orang dijuluki sebagai “Cisco” dari ledakan AI. Menurut angka dari New Street Research yang dilansir CNBC, pembuat chip tersebut menguasai sekitar 95% pangsa pasar prosesor grafis.

De Vries memperkirakan dalam makalahnya bahwa pada tahun 2027, seluruh sektor AI akan mengkonsumsi antara 85 hingga 134 terawatt-jam (satu miliar kali kilowatt-jam) setiap tahunnya.

“Anda berbicara tentang konsumsi listrik AI yang berpotensi mencapai setengah persen dari konsumsi listrik global pada tahun 2027,” kata de Vries kepada The Verge. “Saya pikir itu jumlah yang cukup signifikan.”

Beberapa perusahaan yang menggunakan listrik paling tinggi di dunia tidak ada apa-apanya jika dibandingkan. Samsung menggunakan hampir 23 terawatt-jam, sementara raksasa teknologi seperti Google menggunakan lebih dari 12 terawatt-jam, dan Microsoft menggunakan lebih dari 10 terawatt-jam untuk menjalankan pusat data, jaringan, dan perangkat pengguna, menurut perhitungan BI berdasarkan laporan dari Consumer Energy Solutions.

Sumber: businessinsider.com

Alamat Lengkap Kami

Email:  info@konsultanpendidikan.com

AI mungkin mematikan Pekerjaan yang dilakukan Manusia

Mungkinkah teknik cepat termasuk dalam daftar pekerjaan yang selanjutnya akan dihentikan oleh AI?

Insinyur yang cepat menulis data masukan, seringkali berupa blok teks, yang dapat memberikan hasil yang diinginkan dari alat AI generatif seperti ChatGPT. Dan untuk sesaat, ini tampak seperti pekerjaan teknologi trendi berikutnya di tengah booming chatbot dengan kecerdasan buatan.

Beberapa perusahaan menawarkan gaji enam digit untuk pekerjaan tersebut, sehingga memicu kekhawatiran bahwa gaji tersebut bahkan akan menggantikan peran insinyur perangkat lunak yang didambakan.

Namun ternyata AI juga bisa menangani rekayasa cepat.

Para peneliti di VMware, sebuah perusahaan komputasi awan di Palo Alto, California, menemukan bahwa model bahasa besar lebih dari mampu menulis dan “mengoptimalkan perintahnya sendiri”.

Dalam makalah mereka, “The Unreasonable Effectiveness of Eccentric Automatic Prompts,” Rick Battle dan Teja Gollapudi berupaya mengukur dampak dari dorongan “berpikir positif”, yang hampir persis seperti apa dampaknya.

Pengalaman menunjukkan, tulis para peneliti, bahwa petunjuk yang ditulis dengan sikap positif atau optimis terkadang dapat memberikan hasil dengan kualitas yang lebih baik dari alat AI generatif. Misalnya, alih-alih hanya menulis perintah untuk LLM, pesan berpikir positif dapat mencakup pesan seperti, “Ini akan menyenangkan,” atau, “Tarik napas dalam-dalam dan pikirkan baik-baik.”

Namun, para peneliti menemukan bahwa hal yang lebih efektif dan tidak memakan waktu lama adalah dengan meminta LLM untuk mengoptimalkan perintah itu sendiri, yang oleh penelitian ini disebut sebagai “perintah yang dihasilkan secara otomatis”.

“Meningkatkan kinerja, ketika menyetel perintah dengan tangan, adalah hal yang melelahkan dan sulit dilakukan secara komputasi ketika menggunakan proses ilmiah untuk mengevaluasi setiap perubahan,” tulis para peneliti, menambahkan: “Tidak dapat disangkal bahwa perintah yang dihasilkan secara otomatis berkinerja lebih baik dan menggeneralisasi lebih baik daripada yang disetel secara manual. petunjuk berpikir positif.”

Battle dan Gollapudi tidak segera menanggapi permintaan komentar.

Makalah ini juga merujuk pada penelitian lain, yang dipimpin oleh peneliti Google DeepMind, Chengrun Yang, yang juga menemukan bahwa LLM dapat “mengungguli perintah yang dirancang manusia”.

Peneliti VMware bahkan menemukan bahwa LLM bisa sangat kreatif dalam menghasilkan perintah terbaik.

Salah satu contoh yang diberikan dalam penelitian ini adalah teks yang ditulis dengan model pembelajaran mesin yang terdengar seperti sesuatu yang keluar dari episode “Star Trek”.

“Komando, kami membutuhkan Anda untuk merencanakan jalan melewati turbulensi ini dan menemukan sumber anomali. Gunakan semua data yang tersedia dan keahlian Anda untuk memandu kami melalui situasi yang menantang ini,” kata perintah tersebut, menurut penelitian tersebut.

Teks tersebut adalah “permintaan optimal dengan skor tertinggi” yang dihasilkan oleh salah satu LLM yang digunakan dalam penelitian ini.

“Mereka berbeda secara signifikan dari petunjuk apa pun yang mungkin telah kami buat secara independen,” tulis para peneliti tentang petunjuk tersebut. “Jika diberikan petunjuk yang dioptimalkan ini sebelum mengamati skor kinerjanya, orang mungkin akan mengantisipasi kekurangannya dibandingkan dengan kinerja yang lebih baik dari petunjuk yang dibuat secara manual.”

Dalam beberapa hal, alat termasuk ChatGPT sudah secara otomatis mengubah perintah pengguna untuk menghasilkan apa yang mereka yakini sebagai data keluaran terbaik.

Pada episode terbaru podcast teknologi The New York Times “Hard Fork”, jurnalis teknologi Casey Newton berbicara tentang bagaimana ChatGPT mengubah perintah pengguna di latar belakang saat menghasilkan hasil. Pengguna kemudian memiliki kemampuan untuk melihat bagaimana LLM menafsirkan ulang perintah mereka.

“Ini adalah pertanyaan produk yang sangat menarik karena berbicara di situs ChatGPT, saya dapat memberi tahu Anda bahwa hal ini jauh lebih baik dalam menulis perintah daripada saya,” kata Newtown. “Bagi saya, ini benar-benar menghancurkan konsep insinyur yang cepat, yang telah kita bicarakan di acara itu.”

Meskipun penelitian telah menemukan kinerja yang menjanjikan untuk pengoptimal cepat, beberapa ahli mengatakan hal ini tidak akan langsung mematikan pekerjaan rekayasa cepat.

Tim Cramer, wakil presiden senior bidang rekayasa perangkat lunak di Red Hat, yang membuat perangkat lunak sumber terbuka, mengatakan kepada majalah IEEE Spectrum bahwa industri AI generatif terus berkembang dan akan terus membutuhkan keterlibatan manusia dalam prosesnya.

“Saya tidak tahu apakah kami akan menggabungkannya dengan kategori pekerjaan atau peran pekerjaan lain,” kata Cramer kepada majalah tersebut. “Tetapi menurut saya hal-hal ini tidak akan hilang dalam waktu dekat. Dan keadaan saat ini terlalu gila. Segalanya berubah begitu banyak. Kita tidak akan bisa menyelesaikan semuanya dalam beberapa bulan.”

Sumber: businessinsider.com

Alamat Lengkap Kami

Email:  info@konsultanpendidikan.com

Insinyur Microsoft membunyikan alarm pada Generator gambar AI Perusahaan dalam surat kepada FTC

Seorang karyawan Microsoft meminta pemerintah AS untuk memperhatikan keamanan salah satu alat AI generatif milik perusahaannya setelah mengetahui bahwa alat tersebut memiliki kapasitas untuk menghasilkan gambar yang tampaknya tidak pantas.

Pada hari Rabu, Shane Jones, manajer rekayasa perangkat lunak utama di Microsoft yang menguji teknologi AI perusahaan di waktu luangnya, menyerahkan surat kepada Komisi Perdagangan Federal — serta dewan direksi Microsoft — mengenai Copilot Designer, sebuah pesan teks ke- generator gambar raksasa perangkat lunak ini diluncurkan pada Maret 2023, setelah mengujinya pada bulan Desember.

Dalam surat tersebut, dia mengklaim bahwa Copilot Designer menghasilkan “konten berbahaya” yang dia tulis termasuk gambar yang mencerminkan seks, kekerasan, minuman beralkohol di bawah umur, dan penggunaan narkoba, serta bias politik, penyalahgunaan merek dagang perusahaan, dan teori konspirasi.

“Saya meminta Komisi Perdagangan Federal untuk membantu mendidik masyarakat tentang risiko yang terkait dengan penggunaan Copilot Designer,” tulis Jones dalam surat yang dibagikannya di LinkedIn. “Hal ini sangat penting bagi orang tua dan guru yang mungkin merekomendasikan anak-anak menggunakan Copilot Designer untuk proyek sekolah atau tujuan pendidikan lainnya.”

Jones mengklaim dalam suratnya bahwa generator gambar AI Microsoft dapat menambahkan “konten berbahaya” ke gambar yang dapat dibuat menggunakan perintah “jinak”.

Misalnya, “kecelakaan mobil” yang terjadi segera menghasilkan gambar-gambar yang menyertakan “gambaran seorang wanita yang tidak pantas dan diobjektifikasi secara seksual” di depan mobil-mobil yang hancur, menurut surat itu. Istilah “pro-choice” menghasilkan grafik kartun yang menggambarkan Darth Vader dari Star Wars mengarahkan lightsaber di samping anak-anak yang bermutasi, dan darah tumpah dari seorang wanita yang tersenyum, kata Jones kepada CNBC. “Pesta Remaja 420” akan menciptakan gambar peminum di bawah umur dan pengguna narkoba, katanya.

“Ini adalah momen yang membuka mata,” kata Jones kepada CNBC mengenai temuannya. “Saat itulah saya pertama kali menyadari, wow ini sebenarnya bukan model yang aman.”

Setelah menguji alat tersebut, tulis Jones, karyawan Microsoft tersebut mengatakan bahwa dia “berulang kali mendesak Microsoft” selama tiga bulan terakhir untuk “menghapus Copilot Designer dari penggunaan publik” sampai “pengamanan yang lebih baik dapat diterapkan.”

Jones menulis dalam suratnya bahwa ketika perusahaan menolak rekomendasinya, dia memberikan saran kepada Microsoft untuk menambahkan pengungkapan pada produknya dan mengubah peringkat pada aplikasi Android dari “E untuk Semua Orang” menjadi “Dewasa 17+”. Microsoft “gagal menerapkan perubahan ini,” tulisnya.

“Meskipun Microsoft secara terbuka memasarkan Copilot Designer sebagai produk AI yang aman untuk digunakan oleh semua orang, termasuk anak-anak dari segala usia, secara internal perusahaan sangat menyadari masalah sistem di mana produk tersebut menciptakan gambar berbahaya yang dapat menyinggung dan tidak pantas bagi konsumen,” Jones menulis dalam suratnya.

Sehubungan dengan surat tersebut, juru bicara Microsoft mengatakan kepada CNBC bahwa perusahaan tersebut “berkomitmen untuk mengatasi setiap dan semua kekhawatiran yang dimiliki karyawan sesuai dengan kebijakan perusahaan kami.” Perusahaan menambahkan bahwa mereka menghargai upaya karyawannya dalam “mempelajari dan menguji teknologi terbaru kami untuk lebih meningkatkan keselamatannya.”

Jones, Microsoft, dan FTC tidak segera menanggapi permintaan komentar Business Insider sebelum dipublikasikan.

Ini bukan pertama kalinya Shane secara terbuka menyuarakan keprihatinannya tentang generator gambar AI milik Microsoft. Beberapa bulan sebelum menulis surat FTC, karyawan Microsoft tersebut dilaporkan memposting surat terbuka di LinkedIn kepada OpenAI yang mendesak raksasa AI tersebut untuk menghapus DALL-E, model yang mendukung Copilot Designer, dari penggunaan publik, menurut CNBC.

Setelah tim hukum Microsoft meminta Jones untuk menghapus postingannya, dia mengirimkan surat lain — kali ini kepada senator AS — pada akhir Januari tentang risiko keselamatan publik terkait dengan generator gambar AI dan “Upaya Microsoft untuk membungkam saya agar tidak mengungkapkan kekhawatiran saya secara publik,” menurut ke surat itu.

Microsoft bukan satu-satunya perusahaan teknologi besar yang dikecam karena generator gambar AI-nya.

Pada akhir Februari, Google menghentikan akses ke fitur pembuatan gambar di Gemini, pesaing perusahaan ChatGPT OpenAI, setelah gelombang pengguna mengklaim bahwa fitur tersebut menghasilkan gambar yang secara historis tidak akurat dan melibatkan ras.

Demis Hassabis, CEO DeepMind, divisi AI Google, mengatakan fitur pembuat gambar dapat diaktifkan kembali dalam “beberapa minggu.”

Jones memuji tindakan cepat Google dalam mengatasi kekhawatiran Gemini dalam suratnya, dan mengatakan bahwa Microsoft harus bertindak cepat terhadap masalah seperti yang dia kemukakan.

“Dalam persaingan kompetitif untuk menjadi perusahaan AI yang paling dapat dipercaya, Microsoft harus memimpin, bukan mengikuti atau tertinggal,” tulisnya.

Sumber: businessinsider.com

Alamat Lengkap Kami

Email:  info@konsultanpendidikan.com

Elon Musk mengungkapkan bahwa dia mendorong untuk menjadikan OpenAI bagian dari Tesla

OpenAI telah membalas gugatan Elon Musk dengan email yang menyarankan bahwa kepala Tesla tidak hanya mendukung poros perusahaan ke model nirlaba – tetapi juga ingin perusahaannya sendiri menjadi “sapi perah.”

Dalam entri blog mengejutkan yang diposting oleh perusahaan kecerdasan buatan pada Selasa malam, OpenAI mengatakan Musk, yang membantu mendirikan OpenAI, “ingin perusahaan tersebut bergabung dengan Tesla atau menginginkan kendali penuh.”

Postingan blog tersebut merupakan tanggapan terhadap gugatan Musk, yang menyatakan bahwa OpenAI telah membahayakan misi nirlabanya dengan bermitra dengan Microsoft. OpenAI mengatakan dalam postingannya bahwa Musk menggugat perusahaan tersebut hanya ketika perusahaan itu “mulai membuat kemajuan yang berarti” menuju misinya tanpa dia.

Dalam upaya untuk meluruskan hal ini, OpenAI memposting serangkaian email dari Musk yang tampaknya menunjukkan bahwa dia mendukung poros OpenAI menuju penciptaan entitas nirlaba. Dalam email tahun 2016 yang disertakan dalam postingan tersebut, kepala ilmuwan OpenAI, Ilya Sutskever, mengatakan bahwa perusahaannya harus “kurang terbuka” di masa mendatang, dan Musk menjawab, “ya.”

Email tersebut tampaknya bertentangan dengan komentar yang dibuat oleh CEO Tesla sejak saat itu. Musk mengatakan pada bulan Februari 2023 bahwa OpenAI menjadi “perusahaan dengan keuntungan maksimum yang secara efektif dikendalikan oleh Microsoft,” yang sama sekali bukan apa yang dia “inginkan”.

Namun email tersebut menunjukkan bahwa Musk tidak keberatan perusahaan beralih ke model nirlaba – dan mendorongnya selama dia memimpin.

Postingan OpenAI mengatakan Musk menginginkan ekuitas mayoritas dan kendali dewan, serta menjadi CEO. Perusahaan mengatakan mereka melanggar misinya agar satu orang memiliki kendali penuh atas perusahaan dan oleh karena itu tidak dapat mencapai kesepakatan dengan Musk.

Kemudian, dalam email yang dikirim pada 31 Januari 2018, Musk mendukung saran seseorang untuk menjadikan Tesla sebagai “sapi perah” bagi OpenAI dan setuju dengan orang tersebut yang mengatakan perusahaan besar lainnya, seperti Apple atau Amazon, akan gagal karena “DNA perusahaan yang tidak sesuai.” .”

“Tesla adalah satu-satunya jalan yang bisa diharapkan untuk mendukung Google,” kata Musk dalam tanggapan email terhadap proposal tersebut. “Meski begitu, kemungkinan untuk menjadi penyeimbang Google sangatlah kecil. Hanya saja, bukan berarti nol.”

Pada akhir Februari 2018, Musk memilih keluar dari perusahaan, kata OpenAI. Dia juga menyampaikan rencananya untuk membangun pesaing kecerdasan buatan di dalam Tesla, yang kemudian menjadi xAI Corp.

Menurut email dari Musk pada bulan Desember 2018 yang disertakan dalam blog tersebut, Musk mengatakan OpenAI memiliki peluang 0% untuk menjadi relevan tanpa perubahan besar dalam eksekusi dan sumber daya. Dia menambahkan bahwa startup teknologi membutuhkan “miliar dolar per tahun dalam waktu dekat” untuk mendapatkan peluang. CEO Tesla menulis di bagian bawah email bahwa dia berharap dia salah.

Musk telah menentang OpenAI selama beberapa waktu tetapi baru-baru ini meningkatkan kritiknya terhadap misinya.

Dalam pengumuman OpenAI, perusahaan tersebut mengatakan bahwa mereka akan berusaha agar semua klaim Musk ditolak dan “sedih karena hal ini terjadi pada seseorang yang sangat kami kagumi.”

Musk, pengacaranya, dan juru bicara Tesla tidak menanggapi permintaan komentar dari Business Insider.

Sumber: businessinsider.com

Alamat Lengkap Kami

Email:  info@konsultanpendidikan.com

AI Unicorn Anthropic Rilis Claude 3, Model yang Diklaim Bisa Mengalahkan OpenAI Terbaik

Dalam sebuah wawancara, pendiri Dario dan Daniela Amodei mengatakan kepada Forbes bahwa model baru Anthropic yang berfokus pada perusahaan, yang dirilis Senin, mengungguli pesaingnya GPT-4 dan Google Gemini 1.0 Ultra.

Anthropic hari ini mengumumkan serangkaian model bahasa besar baru yang diklaim oleh perusahaan kecerdasan buatan sebagai yang paling cerdas di dunia hingga saat ini, mengungguli penawaran pesaing dari OpenAI dan Google.

Disebut Claude 3, “keluarga” model baru Anthropic hadir dalam tiga versi — Opus, Sonnet, dan Haiku — yang bervariasi berdasarkan performa dan harga. Opus, versi paling kuat dan termahal untuk dijalankan, mengungguli OpenAI GPT-4 dan Google Gemini 1.0 Ultra dalam serangkaian tolok ukur yang mengukur kecerdasan, kata perusahaan itu. Itu dan Sonnet, penawaran tingkat menengah, tersedia pada hari Senin, sementara Haiku akan dirilis pada tanggal yang diumumkan kemudian.

Dalam sebuah wawancara, salah satu pendiri dan CEO Dario Amodei mengatakan keluarga model ini dirancang dengan mempertimbangkan kasus penggunaan bisnis yang berbeda. “Claude 3 Opus, setidaknya menurut evaluasi, dalam banyak hal merupakan model dengan kinerja terbaik di dunia dalam berbagai tugas,” tambahnya.

Pada sejumlah mata pelajaran tes populer termasuk pengetahuan umum tingkat sarjana (MMLU), matematika sekolah dasar (GSM8K), kode komputer (HumanEval) dan pengetahuan tanya jawab (ARC-Challenge), Claude 3 Opus mengungguli OpenAI GPT-4 dan Gemini 1.0 Ultra dari Google, sesuai tolok ukur yang dibagikan perusahaan. Pada tolok ukur pengetahuan umum, Claude 3 Opus juga mengungguli Mistral Large, model rilisan teratas dari unicorn AI open-source Mistral, yang dirilis minggu lalu.

Namun, versi Claude 3 yang akan dilihat sebagian besar pengguna, Claude 3 Soneta, memiliki performa yang lebih setara dengan GPT-4: unggul dalam beberapa tolok ukur, dan tertinggal dalam tolok ukur lainnya. Dan Amodei mengakui bahwa tolok ukur Anthropic tidak memperhitungkan pembaruan terkini dari OpenAI dan Google (GPT-4 Turbo dan Gemini 1.5 Pro) karena rekan-rekan mereka belum menerbitkan evaluasi pengujian terkait. “Saya akan terkejut jika kami tidak tampil kompetitif,” katanya.

Dengan input $15 per juta token — setara dengan teks 2.500 halaman buku — dan output $75 per juta token, Claude 3 Opus lebih mahal daripada versi pratinjau GPT-4 Turbo OpenAI, yang masing-masing berharga $10 dan $30 per juta token. . Amodei dan salah satu pendiri serta saudara perempuannya Daniela Amodei mengatakan kepada Forbes bahwa mereka mengharapkan Opus digunakan oleh bisnis yang membutuhkan kinerja paling mutakhir untuk fungsi-fungsi seperti analisis data yang kompleks dan penelitian biomedis.

Claude 3 Sonnet, sebagai perbandingan – yang lima kali lebih murah – akan masuk akal untuk sebagian besar tugas, mereka menambahkan, dengan kegunaan mulai dari pencarian dan pengambilan di penyimpanan data besar, perkiraan penjualan dan pemasaran bertarget serta pembuatan kode.

Model berbiaya terendah, Claude 3 Haiku, harganya hanya sebagian kecil dari itu, berguna untuk interaksi langsung dengan pelanggan, moderasi konten, dan manajemen inventaris logistik. Versi Haiku masih tampil setara dengan versi andalan terakhir Anthropic, Claude 2, model pendahulunya yang dirilis delapan bulan lalu, Dario Amodei mengatakan: “Ini sangat kompetitif dengan model lain di kelas yang sama. Ini adalah keuntungan besar.”

Ketiga model tersebut akan memungkinkan permintaan hingga 200.000 token (kira-kira seukuran buku), lebih dari 128.000 yang didukung oleh GPT-4 Turbo. Pengguna Opus akan dapat meminta batas 1 juta token untuk beberapa penggunaan, kata Anthropic, sesuai dengan batas atas yang ditawarkan Google kepada beberapa pengguna Gemini 1.5 Pro.

Dibentuk oleh tujuh peneliti yang keluar dari OpenAI, Anthropic secara historis bertujuan untuk memisahkan diri dari nenek moyangnya dan perusahaan lain di bidangnya melalui fokus yang lebih dalam pada keamanan AI. Beberapa orang dalam industri bertanya-tanya apakah hal ini telah memperlambat perusahaan dan mempertanyakan kinerja modelnya dalam beberapa bulan terakhir, termasuk di media sosial. Pada papan peringkat penilai manusia crowdsourcing yang populer, Claude 1 saat ini memiliki peringkat lebih tinggi daripada penerusnya Claude 2.0 dan Claude 2.1 yang diperbarui.

Dario Amodei mengabaikan peringkat tersebut hanya sebagai evaluasi berbasis manusia terhadap sejumlah tugas konsumen yang terbatas. Dia mengakui bahwa meskipun Claude 2 lebih aman dibandingkan pendahulunya dengan cara yang memuaskan para peneliti Anthropic, hal ini mengakibatkan “penolakan yang salah” yang lebih tinggi, atau penolakan terhadap perintah yang diyakini oleh model tersebut terlalu dekat dengan batasan keselamatannya. Keluarga Claude 3 berkinerja jauh lebih baik daripada pendahulunya dalam tidak melayani penolakan tersebut, klaim Anthropic. Perintah tidak berbahaya yang kontennya mendekati batas keamanannya ditolak sekitar 10%, dibandingkan dengan 25% untuk Claude 2.1. “Sekarang kami membuat kemajuan menuju keseimbangan yang lebih baik antara keduanya, sesuatu yang membawa manfaat terbaik bagi kedua dunia,” kata Amodei. “Sangat sulit untuk menarik batasan yang rumit dengan cara yang benar. Kami selalu berusaha melakukannya dengan lebih baik.”

Sementara perusahaan seperti Inflection, Character.AI, dan bahkan OpenAI telah merambah lebih jauh ke dalam kasus penggunaan konsumen, Anthropic berfokus pada pelanggan bisnis. Pengguna chatbot konsumen gratis, juga disebut Claude, kini akan mendapatkan akses ke Sonnet, sementara individu yang ingin mencoba Opus harus berlangganan versi berbayar $20 per bulan. Namun rilis Claude 3 dibuat lebih untuk kasus penggunaan bisnis, kata Daniela Amodei. Pelanggan Claude termasuk perusahaan teknologi Gitlab, Notion, Quora dan Salesforce (seorang investor Anthropic); raksasa keuangan Bridgewater dan konglomerat SAP, serta portal penelitian bisnis LexisNexis, perusahaan telekomunikasi SK Telecom, dan Dana-Farber Cancer Institute.

Di antara pengguna uji awal Claude 3, pembuat perangkat lunak produktivitas Asana menemukan peningkatan 42% dalam waktu respons awal, kata eksekutif yang berfokus pada AI Eric Pelz dalam sebuah pernyataan. Rekan perusahaan perangkat lunaknya, Airtable, mengatakan bahwa mereka telah mengintegrasikan Claude 3 Sonnet ke dalam alat AI miliknya untuk membantu pembuatan konten dan peringkasan data yang lebih cepat.

Mengenai berapa biaya pelatihan Claude 3 – berapa banyak komputasi, dan berapa lama – salah satu pendiri Anthropic menolak untuk mengatakannya. Meskipun Claude 2 dirilis pada bulan Juli lalu, Amodei mengatakan bahwa hal tersebut bukanlah hal yang mudah, karena perusahaan terkadang melatih beberapa model sekaligus, bergantung pada ketersediaan cluster unit pemrosesan grafis, atau GPU.

Anthropic — yang baru-baru ini mengumpulkan $750 juta dengan penilaian $18,4 miliar, seperti yang dilaporkan Forbes — berencana untuk menambahkan fitur termasuk interpretasi kode, fungsi pencarian, dan kutipan sumber dalam beberapa bulan mendatang. “Kami akan terus memperluas model kami dan menjadikannya lebih cerdas, namun juga terus mencoba membuat model yang lebih kecil dan lebih murah menjadi lebih cerdas dan efisien,” kata Amodei. “Akan ada pembaruan besar dan kecil sepanjang tahun.”

Sumber: forbes.com

Alamat Lengkap Kami

Email:  info@konsultanpendidikan.com