llm'lerin halüsinasyonları
bu yapay zekalar bazen öyle şeyler uyduruyor ki şaşırıp kalıyorsun. yani olmayan bir bilgiyi sanki gerçekmiş gibi sana sunabiliyor. özellikle kritik konularda kullanırken mutlaka teyit etmek gerekiyor. sanırım bu durum, eğitildiği verilerin eksikliği veya modelin anlama biçimiyle ilgili bir sorun.