Abstrak


PERBANDINGAN KINERJA MODEL TRANSFORMERS DALAM DETEKSI BERITA PALSU BAHASA INDONESIA


Oleh :
Antika Pratiwi Trio Difa - M0519018 - Fak. Teknologi Informasi dan Sains Data

Dalam era digital saat ini, kehadiran internet memudahkan individu mengakses informasi. Namun, kemudahan akses yang ditawarkan tersebut menjadikan mudahnya berita palsu tersebar. Informasi berita palsu ini dapat tersebar dalam berbagai macam bahasa, salah satunya yaitu Bahasa Indonesia. Berita palsu dalam Bahasa Indonesia menjadi tantangan yang dapat diatasi dengan model Transformers karena memiliki kinerja yang baik. ALBERT dirancang untuk memberikan kinerja serupa dengan BERT dengan kompleksitas yang lebih rendah, DistilBERT menggunakan teknik distilasi untuk mengurangi kompleksitasnya tanpa mengorbankan kinerja, IndoBERT khusus untuk Bahasa Indonesia menunjukkan performa yang superior, BERT Multilingual dilatih dengan dataset multibahasa yang mampu memberikan representasi yang berguna untuk berbagai bahasa tanpa model terpisah, RoBERTa yang mengoptimalkan performa dengan teknik dynamic masking. Untuk meningkatkan kinerja model, penelitian ini fokus pada penggunaan beberapa tokenizer. Hasil penelitian menunjukkan bahwa dengan penggunaan tokenizer yang disesuaikan dengan bahasa dan masalah pada dataset terbukti menghasilkan nilai yang optimal. Hasilnya adalah model IndoBERT dengan nilai akurasi sebesar 0.928, f1-score  sebesar 0.928, precision sebesar 0.929, dan recall sebesar 0.928.