Jak niezrozumienie funkcji języka zaszytych w LLM prowadzi do błędnych wniosków o kosztach AI. To nie uprzejmość użytkowników, lecz nadgorliwa implementacja funkcji fatycznej w ChatGPT jest prawdziwym źródłem milionowych strat tokenów i zasobów. Wezwanie do działania jako funkcja fatyczna powoduje kolejną rundę INPUT / OUTPUT w rozmowie z LLM.