2024年CSE参加報告その1:学術出版と生成AI

今年も5月4日-7日にアメリカ・オレゴン州ポートランドで開催されたCSE(科学編集者会議)のAnnual Conferenceに参加しました。これまでは現地開催に戻ってから2年が経過しましたが、参加者も昨年に比べて多い印象を受けました。このコラムではCSEの参加報告をいくつかのシリーズに分けてお知らせいたします。

今回も昨年同様に生成AIに関するセッションがあり、やはり多くの参加者で賑わっていました。生成AIについて1年前は学術論文の執筆において「使うべきではない」という議論が主でしたが、今では既に「どのように使えるか?または使うべきか?」という議論に進んでいました。また参加者の中からは学術出版においても文章表現の適切化や作業の効率化、またはデータ分析等に使える、というような意見は多々ありました。

しかしChat GPTなどのLarge Language Model(LLM)を用いた生成AIはまだ開発初期の技術であり、その可能性の半面にリスクも未知数であり、特に学術出版において重要な倫理感である
・独自性(Originality)
・正確性(Accuracy)
・誠実さ (integrity)
に対応していないため、現時点では ICMJEの規定にあるように、利用することに制限が設けられているべきである、との意見が多くでていました。また構造的にLLMにフィードされたあらゆるデータは結果としてLLMの解析に使われ、どこかで再生成されてしまうため、守秘義務(Confidentiality)や著作権(copyright)への非倫理行為に繋がる可能性も指摘されています。

しかし、これらの課題が解決されるのも時間の問題であり、今後2−3年程度でこれらの問題をクリアしたツールが開発されるのであろう、との意見が出ており、聴講者の多くはうなずいていました。

また別のプレゼンターも「非常に早いスピードで開発と普及が進む流れの中において、著者の利用を止めさせることは現実的では無い。」という意見も多くあり、世の中の流れに合わせて学術出版においてもAIの利用が一般化する時代は、そう遠くは無い様です。よって、AIの利用については「時代の流れに逆行して完全に規制するのではなく、ICMJEに記載されている通り、利用した場合は全て開示する事を義務付ける、という方法でコントロールした方が著者にとってはメリットが多い」、というのが学術出版業界の認識と捉える事が出来ると思います。

SeeklはICMJE等のガイドラインのアップデートはもちろん、CSEやISMTEなどの国際会議に毎年参加する事で、常に世界基準のアップデートを行い、コンサルティングに反映させています。