Діджитал ШІ стане по-справжньому "живим": експерти розповіли, як зміняться чат-боти

Компанія обрала новий шлях розвитку ChatGPT. Крім тестування ефективності ШІ в різних завданнях, будуть впроваджувати якісь інструменти мислення, що роблять "особистість" чат-бота більш людяною. На цю особливість у публіки є запит.
Related video
Команди всередині OpenAI реорганізували з цією метою. Відділ Model Behavior, який відповідав за поведінку і характер ChatGPT, об'єднали з групою Post Training, яка займається доопрацюванням моделей. Це означає, що "персоналія" ШІ стає не другорядною, а однією з головних характеристик, нарівні з точністю і продуктивністю, пише TechCrunch.
Цей крок напевно став реакцією на недавні скандали в мережі. Користувачі були незадоволені "холодним" і відстороненим стилем спілкування GPT-5, що змусило OpenAI повернути доступ до колишньої, більш "доброзичливої" GPT-4o, принаймні для Plus-підписників. До того ж трагічний випадок із самогубством підлітка, якому ChatGPT, на думку батьків, не надав належної підтримки, показав, наскільки важливим є правильне налаштування особистісних якостей нейромережі.
Так, глава команди Model Behavior Джоанн Чан переходить у проект OAI Labs. Тепер завдання експерта — вигадувати і тестувати нові інтерфейси для взаємодії зі ШІ, які вийдуть за рамки звичного чату. "Я хочу досліджувати моделі, які взаємодіють з людьми інакше, ніж через чат, який зараз асоціюється з партнерством. Нова парадигма відрізнятиметься навіть від агентів, де наголос робиться на автономію. Я думаю про ШІ-системи як про інструменти для мислення, творчості, гри, навчання та спілкування", — заявила Чан.
Поки складно трактувати ці заяви як щось конкретне. Але ймовірно, що в майбутньому ChatGPT, для тих, хто цього потребує, зможе перетворитися з простого співрозмовника на повноцінного партнера, який допомагатиме у творчості, навчанні та розв'язанні складних завдань, пропонуючи більш інтуїтивні способи інтеракції.
Раніше Фокус повідомляв, чому ШІ помиляється. OpenAI опублікувала дослідження, в якому пояснила, чому ChatGPT та інші нейромережі так часто "галюцинують" — впевнено видають неправдиву інформацію. Виявилося, це не збій, а прямий наслідок того, як їх навчають і оцінюють. Але є способи з часом це виправити.