Shared Chat•
Default (GPT-3.5)AI対策: 大学レポート不正
June 4, 2023
大学において課題レポートの提出によって従来は成績評価をおこなうことも多かったのですが、ChatGPTのような優れた生成系AIの出現により、コピペなどの不適切行為が従来以上に多くなることが予想されます。しかも従来のようないくつかの資料からのコピペと異なり、生成系AIがそれぞれの時点で作成したテキストのコピペに関しては、従来のようなコピペ対策ソフトが役に立たないと思われます。
大学としては、どのような対策を取るのが有効でしょうか?教育学の専門家の視点から、いくつかの対策を紹介してください。その際にはそれぞれのメリットおよびデメリットについて詳しく教えてください。
ChatGPTのような生成系AIの普及により、大学における課題レポートの不正行為が増加する可能性があるというご指摘ですね。以下に、教育学の専門家の視点から、対策のいくつかをご紹介します。ただし、各対策にはそれぞれメリットとデメリットがありますので、適切な組み合わせを検討する必要があります。
インタラクティブな課題設定と提出方法の導入
- メリット: 課題設定を抽象的なテーマではなく、具体的な問題や個別のケースに結びつけることで、個人の考えや分析能力をより評価しやすくなります。
- デメリット: 評価基準が主観的になる可能性があり、一部の学生にとって不利になる可能性があります。また、課題の幅が狭くなりがちで、学生の創造性や総合的な視野が制限される可能性もあります。
小テストやプレゼンテーションの追加
- メリット: レポートだけでなく、他の形式の評価を組み合わせることで、学生の独自性や理解度をより具体的に評価できます。また、不正行為の発覚リスクを高めることができます。
- デメリット: 評価方法の多様化により、評価基準の一貫性が損なわれる可能性があります。また、時間や資源の制約がある場合、追加の評価手法を導入することに難しさが伴うかもしれません。
相互評価やチームワークの活用
- メリット: 学生同士の評価や共同作業を導入することで、個人の責任感や協働能力を評価できます。また、他の学生からのフィードバックにより、不正行為を見つけやすくなるかもしれません。
- デメリット: 偏りや主観性が生じる可能性があります。また、一部の学生が不公平な評価を受ける可能性があるため、適切なルールとガイドラインの策定が必要です。
AIツールの導入
- メリット: AIツールを使用して、不正行為やコピペを検出することができます。特に生成系AIのコピペを検知するための新しいツールも開発されています。
- デメリット: AIツールの精度には限界があり、偽陽性や偽陰性の可能性があるため、手動の確認が必要となる場合があります。また、学生の個人情報やプライバシーに関わる可能性もあるため、適切な取り扱いに留意する必要があります。
これらの対策は単独では完全な解決策ではありませんが、組み合わせて使用することで効果的な結果が期待できるでしょう。大学は、教育環境の変化に柔軟に対応し、学生の学習能力や個別の評価を重視するための継続的な努力が求められます。
多肢選択式問題をオンラインで学生に解かせる場合、ChatGPTのような生成系AIを利用すると、学生はほぼ100%の正解率で解答します。オンラインによる多肢選択式問題テストにおいて、ChatGPTのような生成系AIの不正利用を防ぐ有効な対策はあるでしょうか?あれば教えてください。
ChatGPTのような生成系AIの不正利用を防ぐための対策として、以下のいくつかの方法が考えられます。
問題の多様化と出題パターンのランダム化:
- 多肢選択式問題の問題文や選択肢を多様化し、出題パターンをランダムに生成します。これにより、生成系AIが予測やコピペを行っても正解を得る確率が低くなります。
解答時間の制限:
- 問題ごとに解答時間を制限し、学生に十分な時間を与えずに迅速な回答を求めます。生成系AIは時間的制約下では十分なパフォーマンスを発揮できないため、正確な回答が難しくなります。
コンテキストの導入:
- 問題文や選択肢の周辺に、生成系AIが利用できない情報や文脈を追加します。これにより、AIが単独で正確な回答を導き出すことが困難になります。
プロクタリングシステムの導入:
- プロクタリングシステムを使用して、学生の行動や解答過程を監視します。画面録画や顔認識技術などを活用し、不正行為の検出と抑止を行います。
オープン質問の追加:
- 多肢選択式問題の他に、オープン質問やエッセイ形式の問題を組み合わせます。AIが短い回答だけでは対応できず、学生の個別の思考や表現力を必要とすることで、生成系AIの利用範囲を制限できます。
これらの対策を組み合わせることで、生成系AIの不正利用を防ぐことができます。ただし、技術の進化によりAIも改善されていくため、常に新たな対策の検討と更新が必要です。