Дослідження Оксфорда показало, що ChatGPT відтворює глобальну нерівність

Дослідники з Oxford Internet Institute при University of Oxford спільно з University of Kentucky з’ясували, що ChatGPT систематично відтворює й посилює глобальну соціальну нерівність.

Штучний інтелект частіше оцінює заможні західні регіони як «розумніші», «безпечніші», «красивіші» або «інноваційніші», тоді як країни Африки, Близького Сходу, частини Азії та Латинської Америки регулярно опиняються внизу рейтингів.

Візіком, maps API, карта,

Джерело: phys.org

Дослідження під назвою The Silicon Gaze: A typology of biases and inequality in LLMs through the lens of place, опубліковане в журналі Platforms and Society, базується на аналізі понад 20 мільйонів запитів до ChatGPT. Учені перевіряли відповіді на питання, що здаються як суб’єктивними («де люди красивіші?»), так і більш нейтральними («яка країна безпечніша?»), і виявили стабільні патерни упередженості.

На картах, створених дослідниками, майже всі країни з низьким рівнем доходів отримують нижчі оцінки, тоді як США, Західна Європа та окремі регіони Східної Азії посідають верхні позиції. Подібні тенденції простежуються і на рівні міст та районів — наприклад, у Лондоні, Нью-Йорку та Ріо-де-Жанейро результати збігаються з уже існуючими соціальними й расовими розмежуваннями.

Професор інтернет-географії Mark Graham наголошує, що ШІ навчається на історично нерівномірних даних і тому масштабно транслює ці перекоси. На думку авторів, проблема має структурний характер і не зводиться до окремих помилок моделі. Вони закликають до більшої прозорості, незалежних аудитів і обережності у використанні відповідей генеративного ШІ як «об’єктивного» джерела знань про людей і місця.

2026-01-29 06:44:04