OpenAI та Anthropic провели взаємне тестування моделей на предмет галюцинацій та безпеки
Jinse Finance повідомляє, що OpenAI та Anthropic нещодавно провели взаємну оцінку моделей одна одної, щоб виявити проблеми, які могли бути пропущені під час власного тестування. Обидві компанії у середу заявили у своїх блогах, що цього літа вони провели тестування безпеки загальнодоступних AI-моделей одна одної, перевіряючи, чи схильні моделі до галюцинацій, а також наявність так званої "невідповідності" (misalignment), тобто коли модель не працює відповідно до очікувань розробників. Ці оцінки були завершені до запуску OpenAI моделі GPT-5 та випуску Anthropic Opus 4.1 на початку серпня. Anthropic була заснована колишніми співробітниками OpenAI.
Відмова від відповідальності: зміст цієї статті відображає виключно думку автора і не представляє платформу в будь-якій якості. Ця стаття не повинна бути орієнтиром під час прийняття інвестиційних рішень.
Вас також може зацікавити
За останні сім днів 21 Capital збільшив свої біткоїн-активи приблизно на 441 BTC, наразі володіє 43 514,12 BTC.
Польща повторно подала на розгляд раніше ветований президентом законопроєкт про криптовалюти
Компанія Satsuma продала 579 bitcoin для погашення кредитних зобов'язань
Спів засновник Paxos Chad Cascarilla: Paxos подав заявку до SEC на отримання статусу клірингової установи
