• Tenable mengatakan mereka menemukan tujuh kelemahan injeksi cepat di ChatGPT-4o, yang dijuluki rantai serangan “HackedGPT”
  • Kerentanan mencakup perintah tersembunyi, persistensi memori, dan bypass keamanan melalui pembungkus tepercaya
  • OpenAI memperbaiki beberapa masalah di GPT-5; yang lainnya masih tersisa, sehingga mendorong seruan untuk pertahanan yang lebih kuat

ChatGPT memiliki banyak masalah keamanan yang memungkinkan pelaku ancaman memasukkan perintah tersembunyi, mencuri data sensitif, dan menyebarkan informasi yang salah ke dalam alat AIkata peneliti keamanan.

Baru-baru ini, pakar keamanan dari Tenable menguji ChatGPT-4o OpenAI dan menemukan tujuh kerentanan yang secara kolektif mereka namakan HackedGPT. Ini termasuk:

  • Injeksi cepat tidak langsung melalui situs tepercaya (menyembunyikan perintah di dalam situs publik yang tanpa disadari dapat diikuti oleh GPT saat membaca konten)
  • Injeksi prompt tidak langsung 0-klik dalam konteks penelusuran (GPT menelusuri web dan menemukan laman dengan kode berbahaya tersembunyi. Mengajukan pertanyaan tanpa disadari dapat memaksa GPT untuk mengikuti petunjuk)
  • Injeksi cepat melalui 1-klik (Sebuah twist pada phishing di mana pengguna mengklik link dengan perintah GPT tersembunyi)
  • Bypass mekanisme keamanan (membungkus tautan berbahaya dalam pembungkus tepercaya, mengelabui GPT agar menampilkan tautan tersebut kepada pengguna)
  • Injeksi percakapan: (Penyerang dapat menggunakan sistem SearchGPT untuk memasukkan instruksi tersembunyi yang kemudian dibaca oleh ChatGPT, sehingga secara efektif melakukan injeksi sendiri).
  • Penyembunyian konten berbahaya (instruksi berbahaya dapat disembunyikan di dalam kode atau teks penurunan harga)
  • Injeksi memori persisten (instruksi berbahaya dapat ditempatkan di obrolan tersimpan, menyebabkan model mengulangi perintah dan terus menerus membocorkan data).





Tautan sumber