Kolejny artykuł dr Sztyber-Betley w Nature
Duże modele językowe (LLM) coraz częściej służą do tworzenia danych, na których trenuje się kolejne, lepsze modele. Mogą one uczyć się od siebie nawzajem poprzez ukryte przekazywanie sygnałów, ale również przekazywać innym modelom niepożądane cechy, zdolne do utrzymania się nawet wtedy, gdy dane treningowe zostały oczyszczone z pierwotnej cechy.