Ingin mendapatkan informasi terkini langsung ke WhatsApp Anda? Ikuti Channel saya!

Memahami Etika Penggunaan AI dalam Publikasi Ilmiah

Etika penggunaan AI dalam publikasi ilmiah: tantangan, pedoman terkini, dan dampaknya bagi mahasiswa dan dosen dalam menjaga integritas akademik.
Gambar oleh Tung Lam dari Pixabay


Artificial Intelligence (AI) semakin menjadi bagian integral dari dunia akademik, khususnya dalam penelitian dan publikasi ilmiah. Kemampuan AI dalam mempercepat proses penelusuran literatur, analisis data, dan penyusunan naskah telah membawa dampak signifikan terhadap efisiensi kerja peneliti. Namun, meskipun menawarkan berbagai kemudahan, penggunaan AI juga menimbulkan tantangan etis yang serius. Bagaimana kita dapat memastikan bahwa teknologi ini digunakan dengan cara yang mendukung, bukan merusak integritas ilmiah?

Dalam konteks ini, penting bagi mahasiswa, dosen, dan peneliti untuk memahami kompleksitas etika dalam penggunaan AI. Artikel ini akan menguraikan berbagai aspek yang perlu diperhatikan dalam penggunaan AI di bidang publikasi ilmiah. Kita akan membahas sejarah perkembangan AI, peran AI dalam publikasi ilmiah, tantangan etis yang muncul, pedoman etika yang ada, serta masa depan AI dalam penelitian dan publikasi.

Evolusi AI dalam Penelitian Ilmiah

AI pertama kali dikembangkan pada tahun 1950-an dan sejak saat itu telah mengalami evolusi yang signifikan. Pada awalnya, AI hanya digunakan untuk tugas-tugas yang relatif sederhana, seperti pengenalan pola atau pengolahan bahasa alami. Namun, seiring dengan perkembangan teknologi komputer, AI mulai diterapkan dalam berbagai bidang penelitian yang lebih kompleks (Turing, 1950; Weizenbaum, 1976). Salah satu momen penting dalam sejarah AI adalah ketika Joseph Weizenbaum menerbitkan bukunya yang berjudul "Computer Power and Human Reason" pada tahun 1976, yang mulai mengangkat isu-isu moral terkait tanggung jawab pengembang AI.

Pada dekade 1980-an, AI mulai digunakan secara lebih luas dalam penelitian ilmiah, terutama dalam bidang ilmu komputer dan teknologi informasi. Namun, perkembangan ini juga menimbulkan kekhawatiran mengenai privasi dan bias dalam pengambilan keputusan (Weizenbaum, 1976). Kekhawatiran ini terus berkembang hingga tahun 1990-an, ketika AI mulai diterapkan dalam konteks interaksi manusia melalui chatbot seperti ALICE (Wallace, 1990). Sejak saat itu, isu-isu etis dalam penggunaan AI menjadi semakin menonjol, terutama terkait dengan bias, transparansi, dan akuntabilitas.

Peran AI dalam Proses Publikasi

Saat ini, AI memainkan peran penting dalam berbagai aspek proses publikasi ilmiah. AI digunakan dalam penelusuran literatur, yang memungkinkan peneliti untuk menemukan artikel yang relevan dengan lebih cepat dan efisien. Selain itu, AI juga membantu dalam analisis data, baik dalam pengolahan statistik maupun dalam interpretasi hasil penelitian. Dalam konteks penyusunan naskah, AI dapat digunakan untuk memformat teks, memperbaiki tata bahasa, dan bahkan menghasilkan ringkasan atau abstrak dari artikel yang kompleks (Chen, 2022).

https://doi.org/10.3346/jkms.2024.39.e249

AI juga memiliki kemampuan untuk melakukan pemeriksaan plagiarisme secara otomatis, yang sangat berguna dalam menjaga integritas ilmiah. Beberapa jurnal menggunakan AI untuk memeriksa kesamaan teks dengan sumber lain yang dipublikasikan sebelumnya, yang dapat membantu mencegah duplikasi atau plagiarisme. Selain itu, AI juga digunakan dalam proses peer-review, di mana algoritma dapat membantu editor dalam menilai kualitas dan keaslian naskah yang diserahkan (Kaebnick et al., 2024).

Namun, meskipun AI menawarkan banyak keuntungan, penting untuk diingat bahwa teknologi ini juga memiliki keterbatasan. AI tidak memiliki kesadaran atau pemahaman yang mendalam seperti manusia, sehingga output yang dihasilkan sering kali hanya berdasarkan data yang telah ada, yang mungkin mengandung bias atau informasi yang tidak akurat. Oleh karena itu, meskipun AI dapat mempercepat proses, tetap diperlukan pengawasan manusia untuk memastikan bahwa hasil yang dihasilkan benar-benar valid dan akurat.

Tantangan Etika dalam Penggunaan AI

Salah satu tantangan utama dalam penggunaan AI dalam publikasi ilmiah adalah risiko bias. AI dibangun di atas data yang dikumpulkan dan dilatih dari sumber yang ada, sehingga jika data tersebut mengandung bias, maka AI juga akan menghasilkan output yang bias (Chen, 2022). Bias ini dapat berupa representasi yang tidak seimbang dari berbagai kelompok atau pandangan, yang pada gilirannya dapat mempengaruhi hasil penelitian dan kesimpulan yang diambil. Hal ini menimbulkan pertanyaan tentang bagaimana kita dapat memastikan bahwa AI digunakan dengan cara yang adil dan tidak diskriminatif (Hosseini, 2023).

Selain itu, penggunaan AI dalam publikasi juga menimbulkan kekhawatiran tentang transparansi dan akuntabilitas. Banyak jurnal dan penerbit saat ini mewajibkan penulis untuk mengungkapkan penggunaan AI dalam naskah mereka (WAME, 2023). Namun, masih ada perbedaan pendapat tentang di mana dan bagaimana informasi ini harus diungkapkan. Beberapa jurnal menyarankan agar penggunaan AI diungkapkan dalam bagian pengakuan atau metode, sementara yang lain berpendapat bahwa hal ini harus dijelaskan secara lebih rinci dalam teks utama (ICMJE, 2023; COPE, 2019).

Tantangan lainnya adalah risiko plagiarisme dan misrepresentasi. AI memiliki kemampuan untuk menghasilkan teks yang tampak orisinal, tetapi sebenarnya merupakan kombinasi dari berbagai sumber yang ada. Jika penulis tidak berhati-hati, mereka dapat secara tidak sengaja menyajikan informasi yang salah atau menyesatkan. Oleh karena itu, penting bagi penulis untuk selalu memverifikasi hasil yang dihasilkan oleh AI dan memastikan bahwa semua sumber yang digunakan telah diakui dengan benar.

Pedoman Etika Terkini untuk Penggunaan AI

Untuk membantu penulis, editor, dan penerbit dalam menghadapi tantangan ini, beberapa organisasi internasional telah mengeluarkan pedoman etika terkait penggunaan AI dalam publikasi ilmiah. Misalnya, COPE (Committee on Publication Ethics) menekankan bahwa AI tidak dapat dianggap sebagai penulis karena tidak memiliki kesadaran atau tanggung jawab moral (COPE, 2019). Penulis yang menggunakan AI harus mengungkapkan bagaimana AI digunakan dalam naskah mereka dan bertanggung jawab penuh atas konten yang dihasilkan.

ICMJE (International Committee of Medical Journal Editors) juga memiliki pandangan serupa, menyatakan bahwa semua konten yang dihasilkan dengan bantuan AI harus secara jelas diungkapkan dalam naskah (ICMJE, 2023). Mereka juga menekankan bahwa penulis harus berhati-hati dalam menggunakan AI untuk pengumpulan dan analisis data, serta memastikan bahwa semua hasil telah diverifikasi secara independen oleh manusia.

WAME (World Association of Medical Editors) memberikan rekomendasi tambahan bahwa editor dan peer-reviewer juga harus transparan dalam penggunaan AI selama proses evaluasi naskah (WAME, 2023). Ini penting untuk menjaga integritas proses peer-review dan memastikan bahwa keputusan yang diambil berdasarkan penilaian yang adil dan tidak bias. Berikut rangkuman rekomendasi dari COPE, ICMJE, dan WAME mengenai penggunaan AI dalam publikasi ilmiah.

WAME (World Association of Medical Editors) recommendations on “Chatbots and Generative AI in Relation to Scientific Publication” (version 2:2023)

  • Chatbots cannot be authors
  • Authors should be transparent when chatbots are used and provide information about how they were used
  • Authors are responsible for material provided by a chatbot in their paper (including the accuracy of what is presented and the absence of plagiarism) and for appropriate attribution of all sources (including original sources for material generated by the chatbot)
  • Editors need appropriate tools to help them detect content generated or altered by AI. Such tools should be made available to editors regardless of ability to pay for them, for the good of science and the public, and to help ensure the integrity of healthcare information and reducing the risk of adverse health outcomes
  • Editors and peer reviewers should specify, to authors and each other, any use of chatbots in the evaluation of the manuscript and generation of reviews and correspondence. If they use chatbots in their communications with authors and each other, they should explain how they were used  AI = artificial intelligence. 

Teks yang tercetak miring merupakan tambahan di versi 2.

Panduan Penulis Sebelum Submit

Journals generally ask you to declare/indicate

  • Which AI model was used, when and by whom?
  • The rationale for the use of AI and how it is used
  • All prompts and responses
  • Where in your article the AI-generated content appears? 

During the manuscript writing process

  • Check the accuracy of all references
  • Ensure that all concepts are properly attributed
  • Ensure that the language used is neutral and inclusive
  • Check the similarity of text for plagiarism
  • Read the journal and/or publisher’s AI policy carefully

Ancaman Naskah Palsu dan "Paper Mills"

Penggunaan AI yang tidak etis juga dapat mengarah pada produksi naskah palsu atau "paper mills." Paper mills adalah praktik di mana naskah ilmiah diproduksi secara massal, sering kali dengan menggunakan AI, dan kemudian dijual kepada peneliti yang ingin meningkatkan jumlah publikasi mereka dengan cepat (Ali & Djalilian, 2023). Praktik ini sangat merusak integritas ilmiah dan sulit dideteksi, terutama karena AI dapat menghasilkan teks yang tampak orisinal dan valid.

Untuk menghadapi ancaman ini, beberapa penerbit dan jurnal telah mulai menggunakan alat deteksi khusus yang didukung oleh AI, seperti PapermillAlarm dan ZeroGPT (Gao et al., 2023). Alat ini dirancang untuk mendeteksi naskah yang dihasilkan secara otomatis dan mengidentifikasi tanda-tanda kecurangan, seperti manipulasi data atau gambar. Namun, seperti yang disebutkan dalam artikel ini, alat-alat ini masih memiliki keterbatasan dan dapat menghasilkan kesalahan positif atau negatif. Oleh karena itu, deteksi oleh manusia tetap diperlukan untuk memastikan akurasi hasil.

Selain itu, ada juga tantangan dalam menetapkan batasan yang jelas mengenai penggunaan AI. Sebagai contoh, berapa persen dari konten artikel yang boleh dihasilkan oleh AI sebelum dianggap melanggar etika? Saat ini, belum ada konsensus di antara penerbit dan jurnal mengenai batasan ini, dan hal ini menimbulkan ketidakpastian bagi penulis. Oleh karena itu, penting untuk terus mengembangkan pedoman yang lebih rinci dan spesifik mengenai penggunaan AI dalam penelitian dan publikasi.

Proses Retraksi di Era AI

Seiring dengan meningkatnya penggunaan AI dalam penelitian, jumlah retraksi artikel ilmiah juga meningkat. Retraksi adalah proses di mana artikel ditarik kembali setelah diterbitkan karena ditemukan pelanggaran etika atau kesalahan dalam penelitian. Dalam beberapa tahun terakhir, banyak artikel yang ditarik kembali karena masalah seperti plagiarisme, duplikasi publikasi, dan manipulasi data—semua ini bisa diperburuk oleh penggunaan AI.

AI juga dapat berperan dalam mendeteksi pelanggaran ini, tetapi penggunaan AI dalam proses retraksi juga menimbulkan tantangan baru. Salah satu masalah utama adalah bagaimana menentukan apakah kesalahan tersebut disebabkan oleh kesalahan manusia atau hasil dari AI yang digunakan. Ini menjadi semakin rumit ketika AI digunakan untuk menghasilkan data atau analisis yang kemudian terbukti tidak akurat atau menyesatkan.

Pedoman terbaru dari COPE menekankan pentingnya transparansi dalam proses retraksi, termasuk mengungkapkan jika AI terlibat dalam pelanggaran tersebut. Berikut ini pedoman retraksi terbaru dari COPE, yang mencakup alasan-alasan baru untuk retraksi, seperti manipulasi gambar, penggunaan data tanpa izin, dan masalah hukum (COPE, 2019).

COPE retraction guideline (version 2: 2019)

Editors should consider retracting a publication if:

  • They have clear evidence that the findings are unreliable, either as a result of major error (eg, miscalculation or experimental error), or as a result of fabrication (eg, of data) or falsification (eg, image manipulation)
  • It constitutes plagiarism
  • It reports unethical research
  • The findings have previously been published elsewhere without proper attribution to previous sources or disclosure to the editor, permission to republish, or justification (ie, cases of redundant publication)
  • It contains material or data without authorisation for use
  • Copyright has been infringed or there is some other serious legal issue (eg, libel, privacy)
  • It has been published solely on the basis of a compromised or manipulated peer review process
  • The author(s) failed to disclose a major competing interest (a.k.a. conflict of interest) that, in the view of the editor, would have unduly affected interpretations of the work or recommendations by editors and peer reviewers 

Teks yang tercetak miring merupakan tambahan di versi 2.

Masa Depan AI dan Etika dalam Publikasi Ilmiah

Masa depan AI dalam dunia akademik tampaknya akan semakin besar. Dengan perkembangan teknologi yang cepat, AI akan terus memengaruhi cara kita melakukan penelitian dan mempublikasikan hasilnya.Namun, seiring dengan perkembangan ini, tantangan etika juga akan terus berkembang. Pendidikan dan pelatihan tentang etika penggunaan AI akan menjadi semakin penting, terutama bagi generasi peneliti dan dosen yang akan datang. Mahasiswa dan dosen harus diajarkan untuk memahami risiko dan manfaat penggunaan AI serta bagaimana menerapkan prinsip-prinsip etika dalam setiap tahap penelitian dan publikasi.

Di masa depan, kita mungkin akan melihat perkembangan teknologi AI yang lebih maju, seperti "empathic AI," yang dirancang untuk memahami dan merespons dengan lebih baik kebutuhan dan konteks manusia (Kasani et al., 2024).. Teknologi ini bisa membantu mengatasi beberapa keterbatasan AI saat ini, seperti kurangnya empati dan pemahaman konteks, yang sering kali menjadi masalah dalam penelitian dan publikasi. Namun, meskipun teknologi ini menjanjikan, penting untuk tetap mengawasi dan menilai dampaknya terhadap etika dan integritas ilmiah.

Sebagai penutup, AI menawarkan potensi besar untuk meningkatkan efisiensi dan akurasi dalam penelitian dan publikasi ilmiah. Namun, dengan potensi ini juga datang tanggung jawab besar untuk memastikan bahwa teknologi ini digunakan dengan cara yang etis dan bertanggung jawab. Mahasiswa dan dosen, sebagai bagian dari komunitas akademik, memiliki peran penting dalam menjaga integritas ilmiah dengan memahami dan menerapkan pedoman etika dalam penggunaan AI. Hanya dengan demikian, kita dapat memastikan bahwa AI benar-benar mendukung kemajuan ilmu pengetahuan tanpa mengorbankan prinsip-prinsip dasar kejujuran dan transparansi.

Bahan Bacaan

1. Ali, M. J., & Djalilian, A. (2023). Readership awareness series - Paper 3: Paper mills. Ocular Surface, 28, 56-57. https://doi.org/10.1016/j.jtos.2023.02.001
2. Chen, J., Sun, J., & Wang, G. (2022). From unmanned systems to autonomous intelligent systems. Engineering (Beijing), 12, 16-19. https://doi.org/10.1016/j.eng.2021.10.007
3. Committee on Publication Ethics (COPE). (2019). COPE retraction guidelines — English. https://doi.org/10.24318/cope.2019.1.4
4. Gao, C. A., Howard, F. M., Markov, N. S., Dyer, E. C., Ramesh, S., & Luo, Y. (2023). Comparing scientific abstracts generated by ChatGPT to real abstracts with detectors and blinded human reviewers. NPJ Digital Medicine, 6(1), 75. https://doi.org/10.1038/s41746-023-00819-6
5. Hosseini, M., Resnik, D. B., & Holmes, K. (2023). The ethics of disclosing the use of artificial intelligence tools in writing scholarly manuscripts. Research Ethics Review, 19(4), 449-465. https://doi.org/10.1177/17470161231180449
6. International Committee of Medical Journal Editors (ICMJE). (2023). Recommendations for the conduct, reporting, editing, and publication of scholarly work in medical journals. https://www.icmje.org/recommendations
7. Kasani, P. H., Cho, K. H., Jang, J. W., & Yun, C. H. (2024). Influence of artificial intelligence and chatbots on research integrity and publication ethics. Science Editing, 11(1), 12-25. https://doi.org/10.6087/kcse.187
8. Kaebnick, G. E., Magnus, D. C., Kao, A., Hosseini, M., Resnik, D., & Dubljević, V. (2024). Editors’ statement on the responsible use of generative AI technologies in scholarly journal publishing. American Journal of Bioethics, 24(3), 5-8. https://doi.org/10.1080/15265161.2023.2292437
9. Kocak, Z. (2024). Publication ethics in the era of artificial intelligence. Journal of Korean Medical Science, 39(33), e249. https://doi.org/10.3346/jkms.2024.39.e249
10. Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460. https://doi.org/10.1093/mind/LIX.236.433
11. Wallace, R. S. (1990). ALICE: Artificial linguistic Internet computer entity. Journal of Artificial Intelligence Research, 7(4), 377-391. https://doi.org/10.1613/jair.10
12. Weizenbaum, J. (1976). Computer power and human reason: From judgment to calculation. W.H. Freeman and Company.
13. World Association of Medical Editors (WAME). (2023). Chatbots and generative artificial intelligence in relation to scholarly publications. https://wame.org/page3.php?id=106