DeepSeek memperkenalkan metode baru untuk meningkatkan kemampuan penalaran model bahasa besar

DeepSeek memperkenalkan metode baru untuk meningkatkan kemampuan penalaran model bahasa besar

Metode ganda dirancang untuk memungkinkan model bahasa besar memberikan respons yang lebih akurat dan cepat terhadap pertanyaan umum

ISTANBUL – Perusahaan rintisan kecerdasan buatan (AI) Tiongkok DeepSeek telah memperkenalkan metode baru untuk meningkatkan kemampuan penalaran model bahasa besar (LLM), yang kabarnya melampaui pendekatan saat ini.

DeepSeek mengembangkan teknik ganda yang menggabungkan pemodelan penghargaan generatif (GRM) dan penyetelan kritik berprinsip diri sendiri bekerja sama dengan para peneliti dari Universitas Tsinghua, South China Morning Post melaporkan pada hari Minggu.

Metode ganda ini dirancang untuk memungkinkan LLM memberikan respons yang lebih akurat dan cepat terhadap pertanyaan umum, menurut sebuah makalah yang diterbitkan pada hari Jumat.

Para peneliti mengatakan model DeepSeek-GRM yang dihasilkan mengungguli teknik yang ada, mencapai “kinerja kompetitif” dengan model penghargaan publik yang kuat. Pemodelan penghargaan adalah proses yang digunakan untuk menyelaraskan perilaku LLM dengan preferensi manusia.

DeepSeek berencana untuk membuat model GRM-nya menjadi sumber terbuka, kata para peneliti, meskipun tidak ada jadwal spesifik yang diberikan.

Makalah tersebut, yang diterbitkan pada repositori ilmiah daring arXiv, muncul di tengah meningkatnya minat terhadap perkembangan masa depan perusahaan, menyusul perhatian global yang tertuju pada model dasar V3 dan model penalaran R1-nya.

EDITOR: REYNA

Last Day Views: 26,55 K