Salah satu pertanyaan terbesar yang mengelilingi model seperti ChatGPT, Gemini, dan Midjourney sejak diluncurkan adalah peran apa (jika ada) yang akan dimainkan dalam kehidupan sehari-hari kita. Ini adalah sesuatu yang Apple berusaha untuk menjawab dengan pendekatan sendiri terhadap kategori tersebut, yaitu Apple Intelligence, yang secara resmi diungkapkan pekan ini di WWDC 2024.
Perusahaan ini memimpin dengan kilatan pada presentasi hari Senin; begitulah cara kerja keynote. Ketika SVP Craig Federighi tidak sedang terjun payung atau melakukan parkour dengan bantuan beberapa sihir Hollywood (atau lebih tepatnya Cupertino), Apple bertekad untuk menunjukkan bahwa model in-house mereka sama mampunya dengan pesaing-pesaingnya.
Pertanyaannya masih belum terjawab, dengan beta baru dirilis pada hari Senin, tetapi perusahaan sejak itu mengungkapkan beberapa hal yang membedakan pendekatan mereka terhadap kecerdasan buatan generatif. Yang pertama dan terutama adalah cakupan. Banyak perusahaan terkemuka di ruang tersebut mengambil pendekatan "semakin besar semakin baik" untuk model-model mereka. Tujuan dari sistem-sistem ini adalah untuk berfungsi sebagai semacam pusat informasi dunia.
Pendekatan Apple terhadap kategori tersebut, di sisi lain, didasarkan pada sesuatu yang lebih pragmatis. Apple Intelligence adalah pendekatan yang lebih khusus untuk kecerdasan buatan generatif, dibangun khusus dengan sistem operasi perusahaan sebagai dasarnya. Ini adalah pendekatan yang sangat Apple dalam artian bahwa ia memprioritaskan pengalaman pengguna yang tanpa gesekan di atas semua hal.
Apple Intelligence adalah latihan branding dalam satu artian, tetapi dalam artian lain, perusahaan lebih suka aspek kecerdasan generatif untuk menyatu dengan sistem operasi. Ini sama sekali tidak masalah — atau bahkan lebih disukai, sebenarnya — jika pengguna tidak memiliki konsep tentang teknologi yang mendasari sistem ini. Itulah cara produk Apple selalu bekerja.
Menjaga Model-model Kecil
Kunci dari banyak hal ini adalah menciptakan model-model kecil: melatih sistem-sistem ini pada satu set data yang disesuaikan yang dirancang khusus untuk jenis fungsionalitas yang diperlukan oleh pengguna sistem operasinya. Belum jelas seberapa banyak ukuran model-model ini akan memengaruhi masalah kotak hitam, tetapi Apple berpikir bahwa, setidaknya, memiliki lebih banyak model-model topik-spesifik akan meningkatkan transparansi seputar mengapa sistem membuat keputusan tertentu.
Karena sifat terbatas dari model-model ini, Apple tidak menyangka bahwa akan ada banyak variasi ketika meminta sistem ini, katakanlah, merangkum teks. Namun, pada akhirnya, variasi dari permintaan ke permintaan tergantung pada panjang teks yang dirangkum. Sistem operasi juga memiliki mekanisme umpan balik di mana pengguna dapat melaporkan masalah dengan sistem kecerdasan buatan generatif.
Meskipun Apple Intelligence jauh lebih fokus daripada model-model yang lebih besar, itu dapat mencakup spektrum permintaan, berkat inklusi "adapter," yang terkhusus untuk tugas dan gaya yang berbeda. Secara umum, bagaimanapun, Apple bukan pendekatan "semakin besar semakin baik" untuk membuat model-model, karena hal seperti ukuran, kecepatan, dan daya komputasi harus diperhitungkan — terutama saat berurusan dengan model-model di perangkat.
ChatGPT, Gemini dan yang lainnya
Memungkinkan model-model pihak ketiga seperti ChatGPT dari OpenAI masuk akal ketika mempertimbangkan fokus terbatas model-model Apple. Perusahaan melatih sistem-sistem mereka secara khusus untuk pengalaman macOS/iOS, jadi akan banyak informasi yang di luar cakupannya. Dalam kasus di mana sistem menganggap bahwa aplikasi pihak ketiga lebih tepat untuk memberikan tanggapan, sistem akan meminta apakah Anda ingin berbagi informasi tersebut secara eksternal. Jika Anda tidak menerima prompt seperti ini, permintaan sedang diproses dengan model-model in-house Apple.
Ini harus berfungsi sama dengan semua model eksternal yang bekerja sama dengan Apple, termasuk Google Gemini. Ini adalah salah satu contoh jarang di mana sistem akan menarik perhatian pada penggunaan kecerdasan buatan generatif dengan cara ini. Keputusan ini dibuat, sebagian, untuk menghilangkan kekhawatiran privasi. Setiap perusahaan memiliki standar yang berbeda ketika datang ke pengumpulan dan pelatihan data pengguna.
Meminta pengguna untuk memilih masuk setiap kali menghapus beberapa beban dari Apple, meskipun menambahkan beberapa gesekan ke dalam proses. Anda juga dapat memilih keluar dari platform pihak ketiga secara sistemik, meskipun melakukannya akan membatasi jumlah data yang sistem operasi/Siri dapat akses. Namun, Anda tidak dapat memilih keluar dari Apple Intelligence sekaligus. Sebaliknya, Anda harus melakukannya satu per satu pada basis fitur.
Private Cloud Compute
Apakah sistem memproses kueri tertentu pada perangkat atau melalui server jarak jauh dengan Private Cloud Compute, di sisi lain, tidak akan dijelaskan. Filosofi Apple adalah bahwa penjelasan semacam itu tidak diperlukan, karena perusahaan memiliki standar privasi server yang sama dengan perangkatnya, hingga silikon first-party yang menjalankannya.
Salah satu cara untuk mengetahui dengan pasti apakah kueri sedang dielola pada perangkat atau di cloud adalah dengan memutuskan mesin Anda dari internet. Jika masalah memerlukan komputasi cloud untuk diselesaikan, tetapi mesin tidak dapat menemukan jaringan, itu akan menimbulkan kesalahan mencatat bahwa itu tidak bisa menyelesaikan tindakan yang diminta.
Apple sedang memecah-mecah spesifik di sekitar tindakan mana yang akan memerlukan pemrosesan berbasis cloud. Ada beberapa faktor yang terlibat di sana, dan sifat yang selalu berubah dari sistem-sistem ini berarti sesuatu yang mungkin membutuhkan komputasi cloud hari ini mungkin bisa diselesaikan di perangkat besok. Pemrosesan di perangkat tidak selalu akan menjadi pilihan yang lebih cepat, karena kecepatan adalah salah satu parameter yang Apple Intelligence pertimbangkan ketika menentukan di mana akan memproses permintaan.
Ada, bagaimanapun, operasi tertentu yang akan selalu dilakukan di perangkat. Yang paling mencolok dari sekumpulan adalah Image Playground, karena model difusi penuh disimpan secara lokal. Apple menyempurnakan model agar menghasilkan gambar dalam tiga gaya rumah yang berbeda: animasi, ilustrasi, dan sketsa. Gaya animasi terlihat cukup mirip dengan gaya rumah perusahaan lain yang didirikan Steve Jobs. Demikian pula, generasi teks saat ini tersedia dalam tiga gaya: ramah, profesional, dan singkat.
Meskipun masih dalam tahap beta awal, generasi Image Playground sangat cepat, sering hanya membutuhkan waktu beberapa detik. Mengenai pertanyaan inklusi saat menghasilkan gambar orang, sistem memerlukan Anda untuk memasukkan spesifik, bukan hanya menebak hal-hal seperti etnisitas.
Cara Apple Menangani Dataset
Model-model Apple dilatih pada kombinasi dataset berlisensi dan dengan menjelajahi informasi yang dapat diakses secara publik. Yang terakhir ini dicapai dengan AppleBot. Web crawler perusahaan telah ada sejak lama sekarang, memberikan data kontekstual kepada aplikasi seperti Spotlight, Siri, dan Safari. Crawler ini memiliki fitur keluar yang ada untuk penerbit.
“Dengan Applebot-Extended,” Apple mencatat, “penerbit web dapat memilih untuk tidak menggunakan konten situs web mereka untuk melatih model-model dasar Apple yang menggerakkan fitur kecerdasan buatan generatif di produk Apple, termasuk Apple Intelligence, Layanan, dan Perangkat Pengembang.”
Ini dicapai dengan inklusi prompt dalam kode situs web. Dengan kedatangan Apple Intelligence, perusahaan telah memperkenalkan prompt kedua, yang memungkinkan situs web untuk dimasukkan dalam hasil pencarian tetapi dikecualikan dari pelatihan model generatif kecerdasan buatan.
AI yang Bertanggung Jawab
Apple merilis whitepaper pada hari pertama WWDC berjudul, “Memperkenalkan Model Dasar On-Device dan Server Apple.” Di antara hal lain, ini menyoroti prinsip-prinsip yang mengatur model AI perusahaan. Secara khusus, Apple menyoroti empat hal:
- “Mempower pengguna dengan alat-alat cerdas: Kami mengidentifikasi area di mana AI dapat digunakan secara bertanggung jawab untuk menciptakan alat-alat untuk mengatasi kebutuhan pengguna tertentu. Kami menghormati bagaimana pengguna kami memilih menggunakan alat-alat ini untuk mencapai tujuan mereka.”
- “Mewakili pengguna kami: Kami membangun produk yang sangat personal dengan tujuan mewakili pengguna di seluruh dunia secara autentik. Kami terus bekerja untuk menghindari pemertahankan stereotip dan bias sistemik di seluruh alat-alat dan model AI kami.”
- “Merancang dengan hati-hati: Kami mengambil tindakan pencegahan pada setiap tahap proses kami, termasuk desain, pelatihan model, pengembangan fitur, dan evaluasi kualitas untuk mengidentifikasi bagaimana alat-alat AI kami dapat disalahgunakan atau menyebabkan potensi bahaya. Kami akan terus dan proaktif memperbaiki alat-alat AI kami dengan bantuan umpan balik pengguna.”
- “Melindungi privasi: Kami melindungi privasi pengguna kami dengan pemrosesan on-device yang kuat dan infrastruktur terobosan seperti Private Cloud Compute. Kami tidak menggunakan data pribadi pribadi kami atau interaksi pengguna saat melatih model-model dasar kami.”
Pendekatan khusus Apple terhadap model-model dasar memungkinkan sistem ditailor secara khusus untuk pengalaman pengguna. Perusahaan telah menerapkan pendekatan UX-first ini sejak kedatangan Mac pertama. Memberikan pengalaman segesekan mungkin melayani pengguna, tetapi itu tidak boleh dilakukan dengan merugikan privasi.
Ini akan menjadi suatu keseimbangan yang sulit bagi perusahaan untuk menavigasi ketika kumpulan beta OS saat ini mencapai ketersediaan umum tahun ini. Pendekatan ideal adalah menawarkan sebanyak — atau sedikit — informasi yang dibutuhkan pengguna akhir. Tentu akan ada banyak orang yang tidak peduli, katakanlah, apakah kueri sedang dijalankan di mesin atau di cloud. Mereka puas dengan sistem default ke apa pun yang paling akurat dan efisien.
Bagi para pembela privasi dan orang lain yang tertarik pada aspek-aspek itu, Apple harus berusaha sebanyak mungkin memberikan transparansi kepada pengguna — tidak lupa transparansi untuk penerbit yang mungkin lebih suka tidak memiliki kontennya digunakan untuk melatih model-model ini. Ada beberapa aspek dengan yang masalah black box saat ini tidak dapat dihindari, tetapi dalam kasus di mana transparansi dapat ditawarkan, itu harus tersedia atas permintaan pengguna.