Channel9.id-Jakarta. Google telah bertahun-tahun mengembangkan bahasa interaksi baru, dan kini perusahan membocorkan apa yang telah dikembakannya sejauh ini melalui episode pertama serial baru “In the lab with Google ATAP.” ATAP adalah kependekan dari Advanced Technology and Projects, dan ini merupakan divisi Google yang lebih eksperimental yang disebut sebagai “studio penemuan perangkat keras.”
Gagasan di balik “bahasa interaksi” ini adalah bahwa mesin di sekitar kita bisa lebih intuitif dan tanggap terhadap keinginan kita. Ketika berinteraksi dengan mesin, mesin ini diharapkan bisa lebih memahami isyarat nonverbal kita. “Perangkat yang mengelilingi kita… seharusnya terasa seperti sahabat terbaik,” ujar desainer interaksi senior di ATAP Lauren Bedal, dikutip dari Engadget (2/3).
Sejauh ini, ATAP menganalisis gerakan kita untuk melihat apakah kita siap untuk terlibat. Dengan begitu, perangkat tahu kapan harus tetap berada di latar belakang, alih-alih membombardir kita dengan informasi. Dalam hal ini, tm menggunakan sensor radar Soli untuk mendeteksi kedekatan, arah, dan jalur orang-orang di sekitarnya. Kemudian, data tersebut diurai untuk memastikan apakah seseorang melirik, melewati, mendekati atau berbelok ke arah sensor.
Google meresmikan empat gerakan dan menyebutnya “Approach, Glance, Turn and Pass” atau Mendekati, Lirik, Belok, dan Lewati. Gerakan ini bisa digunakan sebagai perintah atau reaksi pada hal-hal seperti smart display atau jenis komputer ambient lainnya. Ini memang terdengar familier, itu karena beberapa gerakan ini sudah berfungsi pada perangkat berkemampuan Soli yang ada. Misalnya Pixel 4, yang memiliki fitur Motion Sense yang memungkinkan kita mematikan alarm dengan melambai padanya, atau menghidupkan ponsel jika mendeteksi tangan kita mendekat. Selain itu, Nest Hub Max Google menggunakan kamera untuk melihat saat kita mengangkat telapak tangan yang terbuka, dan akan menjeda pemutaran media sebagai tanggapan.
“Approach” mirip dengan fitur yang sudah ada—yang ada di Pixel 4 dan Nest Hub. Ini memungkinkan perangkat untuk mengetahui kapan kita semakin dekat dengannya, sehingga mereka bisa memunculkan informasi yang mungkin bisa dilihat.
Sementara “Glance” tampaknya mirip “Approach.” Namun, menurut Bedal, yang membedakannya ketika seseorang sedang menggunakan banyak perangkat. “Misalnya Anda sedang melakukan panggilan telepon dengan seseorang dan Anda kebetulan melirik perangkat lain di rumah,” katanya. “Karena kami tahu Anda mungkin memperhatikan perangkat lain, kami bisa menawarkan saran untuk mentransfer percakapan Anda ke panggilan video.”
Adapun yang benar-benar baru adalah “Turn and Pass.” “Dengan ‘Turn,’ kami bisa mengizinkan perangkat untuk membantu mengotomatiskan tugas-tugas yang berulang atau biasa,” jelas Bedal. Ini bisa digunakan untuk menentukan kapan pengguna siap untuk langkah berikutnya dalam proses multi-tahap, seperti mengikuti resep di layar, atau sesuatu yang berulang, seperti memulai dan menghentikan video. Sementara “Pass” akan memberi tahu perangkat bahwa pengguna belum siap untuk terlibat.
Jelas bahwa “Approach, Pass, Turn, and Glance” dikembangkan dari hal yang sudah ada di Google. Namun, tim ATAP menggabungkan beberapa tindakan ini menjadi sesuatu yang belum banyak kita lihat di dunia nyata. Agar semua ini berfungsi dengan baik, sensor dan algoritme Google harus sangat mahir mengenali gerakan pengguna, sekalipun tidak melakukan apa-apa. Jika tidak demikian, maka justru membuat frustrasi.
“Itulah tantangan terbesar yang kami miliki dengan sinyal-sinyal gerakan ini,” ujar Kepala Desain ATAP Leonardo Giusti. Dia mengatakan bahwa dengan perangkat yang digunakan, akan ada lebih banyak daya untuk menjalankan algoritme yang lebih kompleks. Hal ini mengingat pihaknya berusaha membuat sistem lebih akurat dengan cara mengumpulkan lebih banyak data untuk melatih algoritme machine learning, termasuk gerakan yang benar dan salah.
“Pendekatan lain untuk mengurangi risiko ini adalah melalui desain UX,” kata Giusti. Dia menjelaskan bahwa sistem bisa memberi saran ketimbang sepenuhnya otomatis. Hal ini memungkinkan pengguna mengonfirmasi input yang tepat daripada bertindak berdasarkan isyarat yang mungkin tak akurat.
“Apa yang kami kerjakan adalah murni penelitian. Kami tidak berfokus pada integrasi produk,” ungkap Bedal.
Sebagai informasi, beberapa tahun belakangan ini, perusahaan berbicara tentang visinya untuk membuat dunia “komputasi ambien.” Perusahaan membayangkan berbagai sensor dan perangkat yang disematkan di sekitar kita, siap untuk mengantisipasi dan memenuhi kebutuhan kita. Agar dunia seperti ini tak mengganggu, ada banyak hal yang harus diselesaikan, termasuk melindungi privasi pengguna. Memiliki mesin yang tahu kapan harus berjarak dan membantu menjadi bagian dari tantangan ini.
Bedal mengatakan, “Kami percaya bahwa gerakan ini benar-benar mengisyaratkan cara masa depan untuk berinteraksi dengan komputer sambil memanfaatkan cara kita bergerak… Dengan begitu, kita dapat melakukan lebih sedikit dan komputer dapat… beroperasi di latar belakang, hanya membantu kita pada saat yang tepat.”
(LH)