Apple Intelligence guna dua model AI yang dibangunkan sendiri

Amanz
Jun 12, 2024 15:57 MYT
Model ini membantu melakukan penjanaan imej (Image Playground, Genmoji dan Image Wand), dan ringkasan teks dalam Notes. -Amanz
SEMALAM pada acara WWDC, Apple Intelligence diumumkan secara rasmi dengan ia akan digunakan pada iPhone, iPad, MacBook dan Vision Pro untuk melakukan tugasan kecerdasan buatan (AI) seperti meringkaskan dokumen panjang serta menjana imej menggunakan prom.
Pada hari kedua WWDC, Apple berkongsi lebih banyak maklumat mengenai Apple Intelligence.
Pertama sekali, tidak seperti spekulasi, model-model ini dibangunkan sendiri dan bukan OpenAI seperti yang dibimbangi Elon Musk.
Pertama sekali dua model digunakan. Satu model dengan 3 bilion parameter boleh dijalankan terus dalam peranti.
Model ini membantu melakukan penjanaan imej (Image Playground, Genmoji dan Image Wand), dan ringkasan teks dalam Notes.
Menurut Apple, prestasi model ini adalah lebih baik berbanding Microsoft Phi-3-mini.
Model kedua pula digunakan pada pelayan awanan Private Cloud Compute. Tiada maklumat mengenai jumlah parameter digunakan semakan latihan dilakukan.
Apple sekadar berkata model dalam peranti mempunyai saiz 49K kosa kata manakala model pelayan awanan mempunyai saiz 100K kosa kata.
Dalam ujian yang dilakukan oleh manusia, kedua-dua model yang dibangunkan Apple mempunyai tahap kesilapan lebih rendah berbanding Gemma-7B, Gemma-2B, Phi-3-Mini dan Mistral-7B
Kedua-dua model juga dilatih menggunakan data sumber terbuka dan tidak menggunakan data peribadi milik pengguna. -Amanz
#Apple #OpenAI #Apple Intelligence #wwdc
;