Öğrenciler 'insan olduğunu' kanıtlamak zorunda
X platformunda paylaşılan bir gönderide, 17 yaşındaki bir öğrencinin hazırladığı akademik çalışmanın, yapay zekâ tespit yazılımı tarafından “yüksek ihtimalle yapay zekâ ile üretilmiş” olarak işaretlendiği anlatıldı. Paylaşımda çalışmanın tamamen öğrenciye ait olduğu belirtilirken, kullanılan denetim aracının bu sonuca hangi kriterlerle ulaştığının net olmadığı vurgulandı. Örnek, yapay zekâ çağında ölçme ve değerlendirme süreçlerinin güvenilirliğini ve öğrenciler üzerindeki baskıyı yeniden tartışmaya açtı. Öğrencilerin kendilerinin insan olduğunu kanıtlamak zorunda kaldığı bu dönemde yapay zekâ denetimlerinin neden yeterli olmadığını uzmanlar anlattı:
İNSAN FAKTÖRÜ GÜÇLENMELİOsman Demircan - Teknoloji UzmanıBir metnin yapay zekâ mı yoksa insan tarafından mı üretildiğini kesin olarak ispatlamak çoğu zaman mümkün değil. Doğrulama araçları olasılık üretiyor. Özellikle teknik ve akademik metinlerde kusursuzluk, bu araçlar tarafından “yapay zekâya yakınlık” olarak değerlendirilebiliyor. Tek bir doğrulama aracına kesin hüküm verme yetkisi yüklenmemeli. OpenAI’ın düşük doğruluk nedeniyle kendi geliştirdiği “AI Classifier” aracını kapatması, bu belirsizliğin önemli göstergelerinden biri. Akademik literatürde de doğrulama araçlarının farklı metin türlerinde ve dil yeterliliklerinde yüksek hata payına sahip olduğuna dair bulgular var. Bu nedenle otomatik denetim yerine, insan faktörünün güçlendirildiği süreçlerin öne çıkması gerektiği ifade ediliyor. Öğrencinin çalışmasını savunabilmesi, anlatabilmesi ve gerekçelendirebilmesi, yüz yüze eğitimde hâlâ en sağlıklı yöntem olarak görülüyor. Bir öğrencinin ödevini yapay zekâya yaptırması kadar, öğretmenin bunu anlamak için yapay zekâya ihtiyaç duyması da dikkat çekici bir durum.
Öte yandan, kullanıcıların zamanla yapay zekânın dilini ve biçimlendirme alışkanlıklarını benimsemesi, tespit araçlarının hata payını artırıyor. Benzer anlatım kalıpları, insan tarafından yazılan metinlerin de yüksek yapay zekâ benzerliğiyle işaretlenmesine yol açabiliyor. Bu noktada asıl odaklanılması gereken başlıklar intihal, sahtecilik, çarpıtma ve çıkar çatışması gibi bilimsel etik ilkeleri. Yapay zekânın, insan bilgisini etik ve şeffaf biçimde desteklediği ölçüde doğru ve faydalı bir araç olacağı ifade ediliyor.
YAPAY ZEKÂ TESPİT ARAÇLARI NEDEN YANILIYOR?
-Kanıt değil, olasılık üretiyor: Bu araçlar kesin ispat sunmuyor. Dil örüntülerine dayalı olasılık skoru hesaplıyor.
- Akademik dil yapay zekâya benziyor: Bilimsel metinlerdeki tutarlı, hatasız ve teknik dil, insan tarafından yazılsa bile “yapay zekâya yakın” olarak algılanabiliyor.
- Ortak dil modelleri kullanılıyor: Birçok tespit aracı benzer dil modelleriyle çalışıyor. Bu durum yanlış pozitif sonuçlara yol açabiliyor.
- İnsanlar yapay zekâdan öğreniyor: Başlık yapıları, madde imleri ve anlatım biçimleri zamanla benzeştikçe, tespit araçları bu metinleri yapay zekâ ürünü olarak işaretleyebiliyor.- Dil ve yeterlilik farkları etkili: Ana dili İngilizce olmayan kullanıcıların akademik akıcılığı artırması, hata payını yükseltebiliyor.
- Köken taraması sınırlı: Çevrimdışı yazılan metinlerde yazım sürecine dair sağlıklı veri elde edilemiyor.
- Evrensel standartlar yok: Farklı araçlar aynı metin için farklı sonuçlar üretebiliyor.
Bu haber www.hurriyet.com.tr kaynağından derlenmiştir.