
Найдите возможности, которые подходят именно вам, чтобы продолжить образование за пределами вашей родной страны.
© 2025 Freedom Degree
Freedom Degree, Inc. является некоммерческой организацией 501(c)(3). © 2025 | Powered by Strapi
Найдите возможности, которые подходят именно вам, чтобы продолжить образование за пределами вашей родной страны.
© 2025 Freedom Degree
Freedom Degree, Inc. является некоммерческой организацией 501(c)(3). © 2025 | Powered by Strapi
05 мая 2025 г.
Чат GPT и другие помощники студентов. Рассказываем о плюсах, рисках, "галлюцинациях" ИИ, этике и недорогих альтернативах вроде Deep Seek. Что делают университеты и как применять ИИ разумно.
Согласно недавнему исследованию, 92% британских студентов используют ИИ чат-боты в итоговых работах, что эксперты и журналисты называют «взрывным ростом». Ничего удивительного, ведь такие технические средства становятся все более доступными. Даже если у вас нет средств на платную версию Chat GPT, вы можете использовать бюджетные аналоги, вроде китайского сервиса Deep Seek, который при этом не уступает Chat GTP в качестве.
Как университеты реагируют на резкий сдвиг в технологиях и смену привычек студентов? Как можно использовать их в образовании честно? Чем еще могут быть полезны генеративные ИИ чат-боты в образовании, если не использовать их при написании работ? Ответим на эти вопросы в нашем материале.
Наверное, вы много раз встречали людей, которые уверены, что ИИ чат-боты – это волшебная палочка, взмахнув которой можно получить ответ на любой вопрос. Такое представление далеко от истины. Chat GPT или другие чат-боты – это вовсе не суперкомпьютеры, которые знают все и сразу. Но что они точно способны делать – анализировать в реальном времени огромные массивы данных. Как же работают чат-боты? В двух словах так: вы отправляете запрос, а ИИ генерирует текст на основе того, что предсказывает каждое следующее слово, чтобы оно было верным в заданном контексте.
Чат-боты на основе искусственного интеллекта работают за счет сочетания машинного обучения, обработки естественного языка и огромных объёмов данных, на которых они обучались. Когда вы вводите сообщение, бот сначала старается понять, что именно вы имели в виду — он анализирует смысл, намерение, контекст и ключевые слова. Затем включается языковая модель (например, GPT), которая не выбирает готовый ответ из набора шаблонов, а «придумывает» ответ на лету. Она делает это, предсказывая, какое слово должно быть следующим в цепочке, основываясь на том, что видела раньше в текстах, на которых была обучена. То есть, по сути, она продолжает текст, используя оценку вероятности того, какое слово должно стать следующим в ответе. Модели обучаются на огромном количестве текстов — книги, статьи, сайты, диалоги — и учатся замечать закономерности в языке: как слова сочетаются, какие бывают структуры предложений, как развиваются темы и мысли. Чат-боты не «понимают» нас в человеческом смысле, но умеют имитировать понимание, потому что у них есть большая база примеров того, как люди разговаривают и пишут.
Простой пример из публикации в медиа:
Предположим, вы пишете в бот: «What is the capital of France?». Чат-бот сначала разбирает, о чём речь:
— «столица» — ключевая тема,
— «Франция» — место
– «is» указывает на то, что вы спрашиваете о текущей ситуации, а не о древних городах, которые могли быть столицами региона на территории современной Франции раньше. Модель машинного обучения работает так с анализом всех слов. Именно это позволяет ей достроить контекст и понять, что вы в данном случае спрашиваете о столице государства, а не о capital как материальных ресурсах.
Что все это значит на практике? Значит, что результаты чат-ботов требуют факт-чекинга. Как указывает тот же Chat GPT прямо в окне чата – система может ошибаться. Еще бы, ведь в интернете очень много информации, значительную часть которой невозможно назвать достоверной. Это тем более актуально, если если вы студент и занимаетесь академической работой с высокими стандартами. Хотя модели могут генерировать впечатляюще беглые ответы, многочисленные исследования показали существенные недостатки в академических условиях. Предлагаем посмотреть на некоторые результаты таких тестов, ведь в них есть весь спектр возможных ошибок: фактические неточности, слабая аргументация, неверное понимание контекста, «галлюцинации» информации, а также этические проблемы, связанные с ангажированными результатами.
Исследователи много раз оценивали успеваемость Chat GPT на официальных заданиях из тестовых экзаменов по медицине, праву, бизнесу и даже школьным предметам. Часто результаты были средними, а иногда откровенно провальными.
Одно из первых исследований на вопросах для студентов-медиков показало, что ответы чат-бота на экзамене по лицензированию в области медицины США (USMLE) были точными примерно на 60% - в районах порога успешного прохождения всех трех этапов экзамена. Однако, на более специализированных медицинских тестах ChatGPT не справился. Например, ChatGPT-3.5 набрал всего 65,1% (а ChatGPT-4 - 62,4%) на экзамене по гастроэнтерологии 2021-2022 годов, что ниже 70%-ного проходного балла. Аналогичным образом, в офтальмологии ChatGPT ответил на два симулирующих экзамена с точностью, которая была далека от проходного балла. Тесты дали возможность специалистам предупредить студентов, что не стоит полагаться на результаты чат-ботов в таких ответственных ситуациях, как итоговые экзамены.
Также Chat GPT проваливал итоговые экзамены на статус адвоката, на степень MBA, причем в последнем случае исследователей поразили ошибки в базовых арифметических вычислениях, несмотря на «потрясающие» результаты в некоторых теоретических вопросах.
ChatGPT может провалить даже экзамены уровня начальной школы. В ходе одного эксперимента ChatGPT были даны реальные вопросы из сингапурских выпускных экзаменов для шестого класса. ИИ «потерпел поражение», набрав в среднем всего 16 баллов из 100 по математике и 21 балл из 100 по естественным наукам. Бот не справился ни с одним вопросом, связанным с диаграммами или графиками (получив за них ноль баллов), и даже ошибся с простыми текстовыми заданиями по арифметике. Справедливости ради, повторные тесты спустя какое-то время могут показать правильные ответы на вопросы, которые ранее бот «зафейлил».
Помимо экзаменов с несколькими вариантами ответов, чат-боты с искусственным интеллектом также тестировались на открытых академических заданиях, таких как эссе, - часто с неутешительными результатами. Преподаватели отмечают, что хотя Chat GPT может писать связные тексты, качество содержания может быть низким, ему не хватает анализа и критического мышления, ожидаемых от академического письма.
Один из показательных экспериментов был проведен профессором истории, который попросил ChatGPT написать эссе об аболиционисте XIX века Фредерике Дугласcе. Эссе было грамматически правильным и уместным - по сути, это был базовый биографический обзор - но оно было крайне поверхностным – «контуры были, но детали отсутствовали». Что особенно важно, в эссе «отсутствовали аргументы или ссылки», подтверждающие факты. Другими словами, в нем не было ни тезисов, ни анализа, только общее резюме. При оценке по рубрикатору преподавателя эссе, написанное в ChatGPT, получило оценку D (удовлетворительно). В этом эссе не было вопиющей неправды или вымышленных фактов, но оно стало примером поверхостной работы.
Студенты, которые читали и критиковали эссе, сгенерированное ИИ, заметили его слабые места. Оно было фактологически верным в общих чертах и не содержало очевидных поддельных деталей, но в нем не было глубины, критической аргументации и оригинальных мыслей - ключевых элементов академической работы. Таким образом, работа Chat GPT скорее показывала тексты уровня старшей школы, чем то, что ждут от студентов в университетах.
Самыми известными неудачами ИИ-чатботов в научных кругах являются случаи «галлюцинаций» - когда бот уверенно фабрикует информацию или источники. Способность Chat GPT выдавать правдоподобно звучащие, но неверные или несуществующие факты хорошо задокументирована.
Одна из основных проблем - сфабрикованные цитаты и ссылки. Тестовые исследования показывают, что Chat GPT может генерировать большой поток поддельных научных цитат, которые выглядят настоящими. Эти фантомные ссылки часто имитируют реальные, даже вставляя имена настоящих исследователей и предоставляя правильно оформленные названия журналов, тома, номера страниц и DOI. При более тщательной проверке выясняется, что цитируемого исследования или статьи просто не существует. Подобная ошибка может легко ввести в заблуждение студентов или исследователей, не проявляющих особой бдительности при проверке источников.
Помимо ссылок, чат-боты могут «галлюцинировать» фактическую информацию по любому предмету. Если его спросить об историческом событии или научной теории, в которой он не уверен, он может придумать правдоподобно звучащее объяснение или цитату.
Примеры выше показывают, что чат-боты с искусственным интеллектом часто не соответствуют академическим стандартам. Они могут проваливать экзамены, давать ответы с ошибками, писать слабые эссе или даже фабриковать информацию. Еще важнее, что «галлюцинации» – это не просто случайные ошибки; это прямой результат того, как модель генерирует текст. Если требуется цитата или конкретная деталь, которую модель не может вспомнить правильно, она придумает что-то, что соответствует шаблону.
Появление чат-ботов с ИИ в академических кругах вызвало большую этическую и преподавательскую тревогу. По сути, при недобросовестном использовании, это становится современной формой плагиата или списывания, с который теперь нужно работать системе образования. Кроме того, есть много опасений на тему предвзятости и объективности ИИ. Модели обучаются на огромном количестве данных из интернета и могут непреднамеренно воспроизвести предвзятость или оскорбительный контент при неосторожном обращении к ним. В академической среде это, например, может означать, что чатбот даст предвзятую интерпретацию исторических событий.
Руководители учебных заведений пересматривают политику в области академических стандартов, издают рекомендации по использованию ИИ и меняют правила для курсовых и экзаменационных работ. Реакции разные: от строгих запретов до активной интеграции ИИ в процесс обучения.
Многие университеты обновили свои правила академической добросовестности или плагиата, чтобы явно обратить внимание на ИИ. Теперь в правилах пишут, что использование ИИ без разрешения или декларирования этого факта рассматривается как академическое нарушение. Например, Политика академической добросовестности Сиднейского университета теперь гласит, что можно использовать ИИ помощников, но с разрешения преподавателя и при открытой декларации об этом (то есть надо оформлять ссылки на информацию из чат-бота)
В похожей манере для достижения большей прозрачности, Оксфорд теперь требует от студентов «давать четкие подтверждения того, как [ИИ] был использован при подготовке работы к экзамену». Это согласуется с общими правилами Оксфорда по борьбе с плагиатом, согласно которым студенты должны четко указывать на любую дополнительную помощь такого рода.
Университеты вводят новые практики для мониторинга ситуации и хотят «держать руку на пульсе». Университет Дюка в США создал организацию, которая будет постоянно обновлять институциональную политику по использованию ИИ в учебных курсах. Подобные комитеты следят за развитием ИИ и рекомендуют корректировать политику, чтобы правила оставались актуальными по мере развития инструментов ИИ. В целом, суть пересмотра политики заключается в том, чтобы поддерживать академическую честность, рассматривая неправильное использование ИИ как эквивалент других форм списывания. В то же время, важно оставить пространство для легитимного использования технологий с указанием авторства и принципов работы.
Многие администраторы считают целесообразным обучать студентов и сотрудников тому, как эффективно и этично использовать ИИ. В Великобритании Рассел Групп (ассоциация из 24 крупных университетов, включая Оксфорд и Кембридж) выпустила совместное заявление в июле 2023 года с пятью руководящими принципами использования ИИ в образовании. Аналогичным образом, в Австралии Группа восьми университетов (ведущие исследовательские институты Австралии) совместно подтвердила принципы этичного и ответственного использования генеративного ИИ, обязавшись «дать студентам, академическому и научному персоналу возможность продуктивно, эффективно и этично работать с генеративным ИИ».
Университеты выпускают практические рекомендации для студентов и преподавателей о том, как обращаться с ИИ. Недавний обзор 50 лучших университетов США показал, что 94% из них выпустили ориентированные на преподавателей инструкции, в которых говорится о необходимости разработки и распространения политики в области ИИ для каждого конкретного курса. Эти рекомендации часто поощряют ответственное использование ИИ и направлены на то, чтобы рассказать студенческому сообществу о том, что можно и чего нельзя делать. Примером такого подхода может служить Гарвардский университет. В середине 2023 года администрация Гарварда разослала по электронной почте всем филиалам рекомендации на тему использования чат-ботов в образовании. В послании подчеркивалось, что «Университет поддерживает ответственные эксперименты с генеративными инструментами ИИ».
Пожалуй, самые заметные изменения в университетах произошли в области выставления оценок и проведения занятий. Обеспокоенные преподаватели экспериментируют с тем, как сделать задания более «устойчивыми к ИИ». Это уже привело к возрождению традиционных форматов очных письменных экзаменов. В США многие университеты объявили о своих планах сократить количество эссе «на дом» и проводить больше очных экзаменов, рукописных или устных. В дополнение к экзаменам некоторые преподаватели перерабатывают задания, делая их более творческими, прикладными или индивидуальными – задания, которые ИИ трудно выполнить правильно.
Чат-боты могут стать ценным инструментом для студентов, если использовать их вдумчиво и в рамках правил академической прозрачности. Главное - относиться к нему как к репетитору или помощнику, а не как к гострайтеру или кратчайшему пути к для выполнения задачи. Можно подумать об этом, как об использовании калькулятора в математике - он полезен, но только тогда, когда вы уже понимаете, что делаете, и когда его использование уместно для решения задачи.
Студенты могут использовать Chat GPT для разбивки сложной литературы на более простые конспекты, объяснения сложных концепций простым языком или даже для создания вопросов тренировочной тестов, чтобы проверить свои знания. Чат-бот хорошо справится с задачей стилистических правок вашего текста. Можно попросить его поменять тон, стиль, внести простоту или, наоборот, сделать текст более «нагруженным» сложными фразами. Все это не будет заменять вашу самостоятельную работу, а будет ее дополнять. Самая большая опасность заключается в том, что студенты иногда пытаются заставить чат-бот думать за них, вместо того, чтобы использовать его для улучшения собственного мышления.
У экспертов есть осторожный оптимизм на тему того, что модели ИИ будут развиваться и совершенствоваться. Новые версии (тот же GPT-4) уже показали более высокие результаты экзаменов в некоторых областях. Но консенсусное мнение на данный момент скорее состоит в том, что мы должны подходить к использованию ИИ в академических кругах с осторожностью. Пока чат-боты не смогут рассуждать, проверять факты и понимать контекст на уровне человека (если вообще смогут), они будут оставаться скорее несовершенными помощниками. Ключевым моментом становится ответственное использование этих инструментов при одновременном исследовании подводных камней. Поняв, по каким причинам Chat GPT не справляется с академическими задачами, университеты смогут эффективнее обучать и студентов, и сами ИИ-системы, стремясь к тому, чтобы технология не подменяла процесс обучения, а помогала ему.