ARTICLE AD BOX
Jakarta, Gizmologi – Teknologi AI atau kecerdasan buatan semakin populer keberadaannya di seluruh dunia, salah satunya berkat bantuan ChatGPT. Alat tersebut mampu menampilkan kemampuan percakapan, membantu tugas anak sekolah hingga pekerja.
Meski begitu, ternyata teknologi AI pada platform tersebut masih bisa dikembangkan lagi. Sebagai manusia yang memiliki beragam kebutuhan, AI saat ini masih belum cukup membantu.
Peneliti dari Okinawa Insitute of Science and Technology pun mencoba untuk memberikan tingkat tinggi lagi dari AI. Para peniliti menginginkan AI bisa mencapai dalam memahami bahasa seperti manusia.
Baca Juga: IBM dan Palo Alto Networks Kenalkan Solusi Platformisasi untuk Keamanan Siber
Peneliti Buat Model Teknologi AI Terinspirasi dari Jaringan Saraf Otak Manusia
Melansir Ars Technica, AI saat ini dikatakan hanya dapat mempelajari lima kata benda dan delapan kata kerja. Dengan kekurangan tersebut bukan berarti AI tidak melakukan apapun. Sebagai teknologi yang maju, AI telah mempelajari lebih dari sekadar kata-kata, alat ini mempelajari konsep di balik kata-kata.
“Inspirasi untuk model kami berasal dari psikologi perkembangan. Kami mencoba meniru bagaimana bayi belajar dan mengembangkan bahasa,” ujar Prasanna Vijayaraghavan, seorang peneliti di Okinawa Institute of Science and Technology dan penulis utama penelitian ini.
Para pengembang telah memberikan pelajaran kepada teknologi AI seperti halnya mengajar bayi kecil. Adapun yang dilakukan oleh peneliti tersebut kurang lebih sama namun penerapannya ke jaring saraf standar yang mengaitkan kata-kata dengan visual.
Para peneliti juga mencoba mengajarkan teknologi AI menggunakan umpan video dari GoPro yang diikatkan ke bayi manusia. Dari video tersebut terlihat banyak hal yang dilakukan bayi, namun tidak semua dapat diterapkan ke teknologi AI.
Untuk mengatasai hal tersebut, tim Vijayaraghavan memberikan pengalaman yang nyata yaitu AI mereka dilatih dengan robot nyata yang dapat berinteraksi dengan dunia. Robot Vijayaraghavan adalah sistem yang cukup sederhana dengan sebuah lengan dan pencengkeram yang dapat mengambil objek dan memindahkannya. Dalam robot ini tersisipkan kamera RGB sederhana yang merekam video dalam resolusi 64×64 piksel yang agak kasar.
“Saya tidak ingin mengatakan bahwa kami mencoba membuat sistem yang masuk akal secara biologis. Katakanlah kami mencoba mengambil inspirasi dari otak manusia,” ungkap Vijayaraghavan.
Para ahli saraf di Universitas Parma menemukan bahwa area motorik di otak diaktifkan ketika para partisipan dalam penelitian mereka mendengarkan kalimat-kalimat yang berhubungan dengan tindakan. Untuk meniru hal tersebut pada robot, Vijayaraghavan menggunakan empat jaringan saraf yang bekerja dalam sistem yang saling berhubungan erat.
Jaringan saraf pertama bertanggung jawab untuk memproses data visual yang berasal dari kamera. Jaringan ini terintegrasi erat dengan jaringan saraf kedua yang menangani proprioception (proses yang memastikan robot mengetahui posisinya dan pergerakan tubuhnya).
Jaring saraf kedua ini juga membangun model internal tindakan yang diperlukan untuk memanipulasi balok di atas meja. Kedua jaring saraf tersebut juga terhubung ke memori visual dan modul perhatian yang memungkinkan mereka untuk secara andal fokus pada objek yang dipilih dan memisahkannya dari latar belakang gambar.
Vijayaragha mengembangkan teknologi AI-Nya dengan memasukkan proprioception dan perencanaan tindakan, yang pada dasarnya menambahkan lapisan yang mengintegrasikan indera dan gerakan pada cara robotnya memahami dunia. Namun, beberapa masalah masih harus diatasi karena AI memiliki ruang kerja yang sangat terbatas. Hanya ada beberapa objek dan semuanya berbentuk kubus.
Kosakata di dalam AI hanya mencakup nama-nama warna dan tindakan, jadi tidak ada pengubah, kata sifat, atau kata keterangan. Akhirnya, robot harus mempelajari sekitar 80 persen dari semua kemungkinan kombinasi kata benda dan kata kerja sebelum dapat menggeneralisasi dengan baik untuk 20 persen sisanya. Kinerjanya lebih buruk ketika rasio tersebut turun menjadi 60/40 dan 40/60.
Solusi dari hal tersebut adalah lebih banyak daya komputasi. Untuk penelitian teknologi AI ini, tim Okinawa menggunakan GPU RTX 3090.
“Kami ingin meningkatkan skala sistem. Kami memiliki robot humanoid dengan kamera di kepala dan dua tangan yang dapat melakukan lebih dari sekadar lengan robot. Jadi, itulah langkah selanjutnya: menggunakannya di dunia nyata dengan robot dunia nyata,” kata Vijayaraghavan.
Artikel berjudul Masih Bisa Berkembang, Peneliti Gunakan Cara Ini ke Teknologi AI yang ditulis oleh Zihan Fajrin pertama kali tampil di Gizmologi.id