お知らせ

メニュー

東邦大学における生成系AI の利用に関する方針

学生・教職員各位:
令和5年6月23日
学長 高松 研

 近年著しく普及・進化を見せている「ChatGPT」等のいわゆる「生成系AI」は、その利便性、原則誰でも手軽に利用できるアクセシビリティの高さにより、私たちの日常生活を豊かにする可能性を有するツールです。大学における教育・学修・研究等の諸活動についても、その創造性・生産性等の向上に対し、生成系AI がもたらすインパクトは計り知れません。
 ただし、各種報道等にてすでに言及されているとおり、生成系AI の利用には負の側面が伴い、具体的には以下のようなリスクが考えられます。本学の学生・教職員におかれては、これらを常に念頭に置き、以下の留意事項として挙げた点を熟慮の上、個々人の責任のもと、生成系AI のメリットを上手く活用し、教育・学修・研究等の諸活動に取り組んでいただきたいと思います。
リスクの種類 内容 留意事項
不正行為のリスク 生成系AI は、インターネット等でパブリックに公開されている著作物や発表物、調査結果等を基に学習しているため、生成系AIから出力された回答をそのまま利用することは、間接的に他人の著作物を剽窃してしまう、また著作権を侵害してしまうことにつながり得る。 生成系AI から出力された回答を、そのまま自分の課題回答・研究成果等として提出することは不正行為に該当する。部分的に利用する場合であっても、どの部分が生成系AI によって出力されたものか、また、どのような生成系AI を利用したかなどについて示す必要がある。
誤情報等のリスク そもそもインターネット上には、バイアスや誤りを含む情報も存在していることから、生成系AI から出力される情報も同様にバイアス・誤り等を含む可能性が十分にある。 生成系AI から出力された回答は、必ずしも正しいとは限らず、誤りが含まれることも多い。したがって、生成系AI から出力された回答を利用する場合には、その内容について、信頼できる情報源によって確認することを怠らないようにする必要がある
情報漏えいのリスク 厳密なセキュリティ体制下で管理されるべき情報を、生成系AI に対しての質問や指示として入力すると、生成系AI を媒介してサービス提供事業者にそれらの情報が知れ渡る、あるいはほかの誰かが入力した質問等の回答として返される、といった情報漏えいリスクがある。 学生・教職員等の個人情報や、未発表の研究データ・研究成果・論文等、厳密なセキュリティ体制下で管理しなければならない情報またはそれに準ずる情報は、絶対に生成系AI に対しての質問や指示として入力してはならない
(※)特に学生の皆さんに対しては、生成系AI に依存して課題や論文等を作成することについて、知識習得や必要な情報を吟味する能力・表現力・独自性等の伸長を妨げるリスクもあるため、各教員から個別に利用に関する指示・注意が出される場合があります。必ず指示等を確認するようにしてください。
本学では今後も最新の動向等に関する情報収集、また意見聴取等を行い、必要に応じて方針の見直しを検討していきます。