Liputan6.com, Jakarta - Robot semakin dekat untuk menjadi asisten rumah tangga yang efisien, berkat penelitian baru yang dilakukan oleh Carnegie Mellon University (CMU).
Dengan menganalisis video orang-orang yang melakukan tugas sehari-hari di rumah mereka, robot-robot ini sekarang dapat belajar dan melakukan berbagai tugas, mulai dari memasak hingga bersih-bersih. Penelitian ini menunjukkan potensi untuk meningkatkan kegunaan robot dalam kehidupan sehari-hari.
Baca Juga
Tim peneliti di CMU berhasil melatih dua robot untuk menguasai 12 tugas yang berbeda. Tugas-tugas tersebut termasuk membuka laci, pintu oven, dan tutupnya, serta mengangkat panci dari kompor, mengangkat telepon, sayuran, dan kaleng sup.
Advertisement
"Robot ini dapat mempelajari di mana dan bagaimana manusia berinteraksi dengan objek yang berbeda dengan menonton video," jelas Deepak Pathak, asisten profesor di Institut Robotika di Sekolah Ilmu Komputer di CMU.
"Dari pengetahuan ini, kami dapat melatih model yang memungkinkan dua robot untuk menyelesaikan tugas yang sama di lingkungan yang bervariasi," sambungnya.
Secara tradisional, proses latih robot melibatkan manusia yang mendemonstrasikan tugas secara manual atau pelatihan ekstensif dalam lingkungan simulasi. Namun, kedua metode ini memakan waktu dan rentan terhadap kegagalan.
Sebelum riset ini, Pathak dan mahasiswanya memperkenalkan teknik terobosan yang disebut WHIRL (In-the-Wild Human Imitating Robot Learning) yang memungkinkan robot untuk belajar dengan mengamati manusia. Namun, metode ini mengharuskan manusia untuk melakukan tugas-tugas di lingkungan yang sama dengan robot.
Vision-Robotics Bridge
Inovasi terbaru Pathak, yang dikenal sebagai Vision-Robotics Bridge (VRB), dibangun di atas WHIRL dan menambahkan sejumlah penyemmpurnaa. Model baru ini menghilangkan kebutuhan akan demonstrasi manusia atau lingkungan yang sama dengan robot.
Seperti WHIRL, robot ini masih membutuhkan latihan untuk menguasai suatu tugas, tetapi penelitian tim menunjukkan bahwa robot ini dapat mempelajari tugas baru hanya dalam waktu 25 menit.
"Kami dapat membawa robot berkeliling kampus dan melakukan berbagai macam tugas," kata Shikhar Bahl, seorang mahasiswa Ph.D. robotika. "Robot dapat menggunakan model ini untuk menjelajahi dunia di sekitar mereka dengan penuh rasa ingin tahu. Daripada hanya mengayunkan lengannya, robot bisa lebih langsung berinteraksi."
Tim mencapai hal ini dengan menerapkan konsep affordances, yang berasal dari psikologi dan mengacu pada peluang yang ditawarkan lingkungan kepada individu.
Di VRB, kemampuan menentukan bagaimana dan di mana robot dapat berinteraksi dengan suatu objek berdasarkan perilaku manusia. Misalnya, saat mengamati manusia membuka laci, robot mengidentifikasi titik-titik kontak, seperti pegangan, dan arah pergerakan laci. Dengan menganalisis beberapa video manusia yang sedang membuka laci, robot tersebut mempelajari cara membuka laci secara efektif.
Advertisement
Ribuan Jam Video
Untuk melatih robot mereka, tim ini menggunakan kumpulan data video yang luas seperti Ego4D dan Epic Kitchens. Ego4D berisi sekitar 4.000 jam video egosentris yang menampilkan aktivitas sehari-hari dari berbagai lokasi di seluruh dunia, beberapa di antaranya dikumpulkan oleh para peneliti CMU.
Epic Kitchens menawarkan video serupa yang merekam kegiatan memasak, membersihkan, dan tugas-tugas terkait dapur lainnya. Kedua dataset ini pada awalnya dirancang untuk melatih model visi komputer.
"Kami menggunakan kumpulan data ini dengan cara yang baru dan berbeda," jelas Bahl. "Penelitian ini dapat memungkinkan robot untuk belajar dari sejumlah besar video internet dan YouTube yang tersedia."
Makalah penelitian ini dipresentasikan pada ajang Conference on Vision and Pattern Recognition.
Infografis Sampah Antariksa dan Potensi Bahaya Masa Depan. (Liputan6.com/Trieyasni)
Advertisement