Податки та законодавство, Суспільство Автор: RomanK Друкувати

Адвоката судитимуть через використання ChatGPT

  • Джерело: finance.ua.  → Ключові теги: ChatGPT

    Адвокат із Нью-Йорка Стівен Шварц використовував ChatGPT для підготовки документів у справі. В результаті він надав суду посилання на вигадані нейромережею подібні випадки судових процесів. Як повідомляє The New York Times, тепер суд розглядає «потенційні заходи покарання» для самого адвоката.

    1245_5d03ac6782765.jpg (35.65 Kb)

    В чому суть справи?
    Судовий процес був досить простим: Роберто Мата подав до суду на авіакомпанію Avianca, заявивши, що він отримав травму, коли металевий візок для сервірування вдарив його коліно під час рейсу до міжнародного аеропорту Кеннеді в Нью-Йорку.
    Представники авіакомпанії попросили федерального суддю відхилити справу, проте адвокати пана Мата категорично заперечували проти відхилення і надали 10-сторінковий запис, у якому цитувалися понад півдюжини подібних судових рішень.
    Проте ніхто: ні юристи авіакомпанії, ні навіть сам суддя — не зміг знайти рішення чи цитати, наведені в узагальнені в записці. І все через те, що їх повністю вигадав ChatGPT, яким користувався адвокат Стівен Шварц.
    Шварц, який займався адвокатською практикою в Нью-Йорку протягом 30 років, сказав судді, що він не мав наміру обдурити суд або авіакомпанію. Він заявив, що ніколи не використовував ChatGPT, і «тому не знав про можливість того, що його відповіді можуть бути неправдивими».
    Суддя врешті решт зазначив, що йому було представлено юридичне подання, повне «фальшивих судових рішень, з фальшивими цитатами та фальшивими внутрішніми цитатами». Для обговорення можливих санкцій проти адвоката було призначене додаткове слухання на 8 червня.
    Чому це цікаво?
    OpenAI попереджає, що ChatGPT може надавати неточну інформацію — нейромережа все вигадувала фальшиві газетні статті, невірні твердження про те, що професор права був залучений у скандал із сексуальними домаганнями, а мер Австралії був замішаний у скандалі з хабарництвом.
    Крім того, як окремі люди, так і великі корпорації стурбовані тим, як використовуються дані. Наприклад Samsung заборонила своїм співробітникам використовувати генеративні інструменти штучного інтелекту через побоювання щодо того, як дані зберігаються на зовнішніх серверах, і через ризик того, що секрети компанії в решті решт можуть бути розкриті іншим користувачам.
    Проте, як бачимо, чимало людей, далеких від розуміння всіх ризиків використання нейромереж в роботі, продовжують покладатися на штучний інтелект. І в окремих випадках це може більше нашкодити, ніж допомогти.



    ЧИТАЙТЕ ТАКОЖ:

    Рекомендуємо

    Слоти з 1024 способами виграшу: що це таке та як працює Слоти з 1024 способами виграшу: що це таке та як працює
    У класичних слотах ми звикли до ліній — їх може бути 5, 10, 20 чи навіть 40. Кожна з них має свою траєкторію та визначає, як формуються виграшні...
    Набори викруток Polax - універсальне рішення для будь-яких завдань Набори викруток Polax - універсальне рішення для будь-яких завдань
    Викрутка – базовий інструмент у домашньому господарстві, ремонтних роботах, будівництві, автомобільній сфері та електромонтажі. Однак набір викруток н...
    Республіка Парк демонструє розширення орендного простору та появлення нових соціальних ініціатив Республіка Парк демонструє розширення орендного простору та появлення нових соціальних ініціатив
    Торгово-розважальний центр Республіка Парк стрімко розвивається і дає змогу побачити стабільне зростання його комерційних можливостей, поєднане  ...
    Підписатись не коментуючи
    E-mail:

    День в фотографіях Всі фотографії

    Актуальні теми Всі актуальні теми