
Китайские уловки DeepSeek: Как ИИ научился думать самостоятельно?
#GPTэкспертиза: Китайские уловки DeepSeek - как ИИ научился думать самостоятельно?
Поэтому, если дать нейронке математическую задачу, она будет стараться как можно лучше имитировать человеческое решение, а не получить правильный ответ. Из-за этого качество ответов страдает на нестандартных задачах. Но и на стандартных нет-нет, да и завалит самостоятельную работу девятикласснику.
❤️ — нравится, 10/10
🔥 — норм, 7/10
👾 — такое себе 3/10
🐳 — редкостное


















