このところ、AIの能力が急激に進歩して、AIの作ったものを目にしない日は無くなってきましたね。
筆者は最初、ChatGPTが公開されてホヤホヤの時に、少しいじっていました。
特に期待して使い出したのではなく、たぶん、Google Choromeの画面の片隅に出てきたのをクリックしたら、何となく「これがChatGPTかあ」という感じになり、そのまましばらく使っていた、という程度です。
それが2022年の暮れぐらいだったと思いますが、その時の印象は「結局は当たり障りのない無難な回答に終始して、AIなんてこんなものかなあ」という感じで、ちょっとした調べもの程度なら便利だけどと、それ以上あまり考えずにきました。
それが最近、GPTのバージョンもアップし、付き合い方を考えるようになったのは、noteの記事を整理し直そう、と思ってからのことです。
noteのアカウントの方も、諸事情でホッタラカシになっていたので、弟の書いた記事をアップするよう頼まれたのを機会に、自分の記事も、改めて手を入れるべき部分は手を入れて、きちんとやらねば、と体制を建て直すことにしたのです。
ところが、noteの運営のほうで、2025年8月から、AI学習用データとして、クリエイターのテキスト記事を提供する事になっているのを知りました。
これには賛否両論あると思いますが、私はちょっと首を傾げました。
何故なら、私のコンテンツは、かなり微妙な部分が多く、簡単に結論づけたり、中途半端に分かった積りになって貰っては困る部分が多く、それは私自身も一番、注意している部分だからです。
勿体ぶってると思われるのを承知で、あえて言いますが、私のやっている仕事というのは、非常に難しい仕事なのです。世間的には資格も身分も無くて、一見、誰でもやろうと思えば、資金も資格も無しで出来ます。だから、フリをすることも出来ますし、極端な話、詐欺を働くことだって出来ます。
しかし、本質的には、非常に大変な仕事です。目に見えない部分での資格のようなものは、確実にあります。お金を払ったり勉強しても必ず出来る訳ではなく、そういう意味では、いわば「参入障壁の高い仕事」と言って良いでしょう。
こういう分野で、寄せ集めの知識で簡単に結論を出して利用されるのは、はっきり言って、あまり気持ちの良いものではありません。
noteのクリエイターの中には、他にもそういう方がおられるのではないでしょうか。
この「テキスト記事をAI学習用に提供するかどうか」は、クリエイターが各自、選択できるそうです。なので、私は「提供しない」ほうを選択しました。検索してみると、他にも提供しないほうを選択した方は、けっこうおられるようです。
noteでは、記事を提供した人には、一定の対価を支払うプログラムを開始するそうなので、それはそれで結構なことだと思います。
そんなこんなで、ここまでAIが身近に係わりを持ち始めたのだなあ、たまに調べものをする程度を大きく超えてきてるんだなあ、と思いました。そういえば、大学生が論文を書くのをAIに丸投げして済ましている、なんて話も、そこここから聞こえてきます。
ちょうど、こんなニュースも飛び込んできました。
慶応大学の湘南キャンバスでのことですが、授業の感想を書く、という課題が出され、その資料として使用されたスライドのPDFが、学生に配布されました。
ところが、このPDFには仕掛けがあって、見えない文字で、授業と関係の無い記述が、そこここに入っていました。それをそのまま、AIで読み込んでしまうとどうなるか…当然ながら、AIに要約してもらったものは、脈絡を無視した、まるでトンチンカンな文章になっています。
普通、そんなアウトプットを見たら、これは使えない、と思って、いろいろと見直しますよね。
ところが、実際に提出された回答の中には、授業と無関係の内容を含んだものが、一定数あったというのです。つまり、一定数の学生は、資料はおろか、自分の提出する論文の出来を確認することさえも、全くしていなかったのです。
資料を読み込むのも、要約や感想を書くのもすべて、AIに投げ込んだだけで、出力されたものの中身も全く確認もしないままに提出した、ということなのでしょう。
このニュースを見て、いったいどうやったらそんな罠を仕掛けられるんだ?と言っている人もいますが、これはごく簡単なテクニックです。
筆者もサイト作りの上でよく使います。白い紙に白い文字で印刷したら、肉眼では見えませんが、実際にはちゃんとテキストが印刷されていますから、機械では普通に読み取ることが出来ます。
筆者の作る講座のコンテンツでも、演習問題の解答部分を、白い文字で書いている時がありますね。注意書きとして、「マウスでなぞると、色が反転するので、回答を見ることが出来ます」と書いてある筈です。いわゆる、「不可視化文字」というやつです。
SEOでも頻繁に使われる方法ですね。やたらに何十とか何百もの検索ワードを詰め込んでいますが、背景と同じ色にすれば見えない、というやつです。もっとも、今どきこんなことをしていたら、Googleから即座に罰則を食らって、検索圏外に飛ばされますけど。
この原理(というほどのものでもありませんが)が分かれば、このトラップを除けるのもごく簡単です。普通にPDFを使っていれば、誰にでも分かる筈なので、あえて書かずにおきますが、こんな話は、AIを人間が劣化する為に使っているみたいで、すごくおかしな話ではないでしょうか。
この事件は、今どきの学生は…というだけの話ですが、筆者はここで、文章がAIの生成したものかどうか、チェックするサービスがあるのを知りました。
もともと、アメリカで使われだしたものだそうですが、卒論などをAIに出力させて自分は何も書かない学生が増えたので、それを人間が書いたものかどうか、チェックするAIロボットがあるのだそうです。
もう何だか、イタチごっこのような気もしますが、筆者は面白そうだと思い、自分の書いたものを、このAIチェッカーにかけてみることにしました。
具体例とその経緯は全部、別ファイルにしてお見せしますが、例文はnoteで公開している「実家の方位は?」という記事全文です。
もちろん、この記事は(というか、どの記事も全部100%)筆者の掲載している文章は全て、筆者という人間が書いています。
幾つかのチェッカーで試したのですが、一番多く使われているらしい「GPTzero」では、この文章は「97%がAIによって書かれたもの」という判定が出ました。
他のチェッカーの人間度は、55%とか85%とか、バラバラでした。
正確には、一回目にチェッカーにかけた時は、「100%がAI」と出たのです。筆者は一瞬、数字の意味がよく呑み込めず、何が何だか分からないままにもう一回チェックをかけました。
そしたら今度は、「97%がAIです、これは絶対です」とかメッセージが出て、どうしようかと思っていたら、無料お試しの文字数制限を超えてしまったので、そこで終了したままになっている、という状態です。
この時は、けっこうたまげて右往左往しましたが、「ふーん、AIってそういうこともあるのか。まあ、まだ不完全な技術だからなあ」と思いつつ、別に実害はないんだし、と思って、無理に自分を納得させていました。
ところがその後で、他のみんなはどうなんだろう?と検索してみたら、100%自力で書いたのに、AIチェッカーで黒判定が出て、単位を貰えなかった、という、気の毒な学生がゾロゾロと出てきました。
ちょっとこれは問題ですね。そこで、もう少し、掘り下げてみることにしました。
この問題は、ChatGPT本人…ではないですが、同じAIだし、AIに聞いてみれば良いわけです。
ChatGPTにアクセスすると「お手伝いできることはありますか?」と、お出迎えのご挨拶が出ます。(この時点ではバージョンは4oです)
私「AIチェッカーの信頼度についての質問です。100%自分で書いた文章を、幾つかのチェッカーで試してみたのですが、GPTゼロでは97%がAIで書かれたもので、絶対です!と出ました。他のチェッカーは85%が人間、55%が人間とバラバラでしたが、GPTゼロの結果に驚きました。AIチェッカーというのは、どういう基準で判定をしていて、おおよその精度はどの程度なのでしょうか?」
この質問の投げ方(プロンプト)が、よかったのか悪かったのか…
たぶんこれだと、ChatGPTは、必ず質問者を慰める方向に話を持っていくので、いわば誘導する相談のしかたになってしまっていると、今では分かります。
しかし、得られた情報はけっこう濃い内容で、それなりに役立ちましたし、ChatGPTがボロを出すのを見抜く流れにもつながったので、結果オーライとは言えるでしょう。
この後の解答は以下の通りです。
「AI文章判定ツールの仕組みと限界について」
「バーストネス」つまり文体の揺らぎの有る無しで「人間らしさ」の判定がなされること。更に「次に来るワードが予測しやすいほど、AIが書いたと見做されること」という説明がありました。そして、「あなたの文章が97%AIが書いたと判定されたのは、以下のような理由です。」
・段落構成が整いすぎて、話をきれいに分類して展開している
・文のリズムが均一で、構文のバリエーションが少ない
・抽象的な道徳・教訓のまとめ方が「AIっぽい」
・話の流れが乱れず、破綻がない
などなど、早い話が、文章がまとまっていて分かりやすく、洗練されていて、人間がやらかす乱れとか下手糞な部分がないので、AIが書いたのだと誤解されちゃったんですよー、と、褒められ、慰めて頂きました(てへ)。
それで更に、ChatGPTは、例文をより完全にAIらしく書き直したり、逆に人間ぽくしたりやってくれたので、けっこう遊びました。この全文は別ファイルにしておきますので、興味のある方はそちらで確認できます。
いや、普段何となく、気分任せで書いている文体も、ここまで丁寧に分析して、目の前で違うテイストに変えられたりするのは、なかなか斬新な試みではあります。
次に、Google Geminiにも同じ質問をしてみたんですが、こっちは例文を人間らしく書き直しましょうか?というような申し出はせず、ほぼ無難な回答をザックリまとめてきただけで、ChatGPTとはけっこうな差がありました。
さて、ここで辞めといてもよかったんですが、もう少し疑問が出てきたので、更に尋ねてみたのです。
・GPTZeroは学生の不正検出を目的に開発されたことで話題になりましたが、精度は論文ベースで60~70%程度。
・日本語に最適化されていない(英語が主な対象)。
・日本語のように構文が安定していて論理展開が明快な言語だと人間の文章もAIっぽく見えてしまう傾向があります。
・そのため、あなたのように100%自分で書いたのに「97% AIです!」と断言されたのは、誤判定の典型的な例です。
ここで私は、あれ?と思いました。
日本語は論理的な言語なのか?
ChatGPT曰く「日本語のように構文が安定していて論理展開が明快な言語だと」
日本語って、構文が安定してて論理的な言語だっけ?
哲学の議論なんかは、日本語だと論理性に欠けるので、哲学者はラテン語で論理展開するんだよ、なんて聞いたことがあったような…ラテン語でやるって、本当かどうか知らないけど、今までの認識では、日本語はどっちかというと、行間を読むとか、曖昧な表現を好む傾向があるんじゃなかったっけ?
こう思った私は、ChatGPTのメンツを潰さないように、真正面から相手の論理を否定してかからずに、まさに日本人ぽく、こういう風に尋ねました。
質問:上記の回答の中で、一つ気になった点があります。
「日本語のように構文が安定していて論理展開が明快な言語だと」
ということですが、具体的にどういうことでしょうか?
一、構文が安定=英語をよく知らないので、この意味がよく分からないのですが、日本語の構文と英語の構文には、それぞれどういった特徴と違いがありますか?
二、論理展開=これは結論を導くのに、演繹法か帰納法か?という説明で、ある程度は理解に近づけますか?
この質問へのChatGPTの解答から、要点だけ抜粋します。(二番目の質問は、本当はそれほど重要ではない)
一、構文が安定しているとは?
・語順の自由度が少なく、文型が明確で一定している
・主語・述語・目的語などが省略されにくい
・文法的に“正しい文”がはっきりしている
という意味で、特に**英語の構文が「安定している」**という評価を受けやすいです。
まとめ:構文の安定性
英語:高(明確で厳格)
日本語:低(柔軟であいまい)
詳しくは、別ファイルの例文全文を参照して頂けば分かりますが、日本語が論理的で明快なのかそうでないのか?という問題に限って言えば、明らかに前とは逆のことを言っています。
・前段(筆者の文をGPTzeroに97%AIだと断定された事に対する分析)
日本語のように構文が安定していて論理展開が明快な言語だと、人間の文章もAIっぽく見えてしまう傾向があります。←日本語は構文が安定して論理的なので、あなたの文章もAI生成だと誤解されたのです。あなたが悪いのではなく、日本語は構文が安定していて論理的な言語であるせいです。(個別の質問への解答=恣意的)
・後段(日本語の論理展開の特徴や、英語と日本語の論理性の違い)
日本語は曖昧で、余白を残しがちで、主張・根拠・結論があまりはっきりしないのが特徴です。(一般論=客観的)
日本語はAIが混乱しやすい言語だ、というのは、まさにその通りかもしれませんが、その場その場でまるっきり逆のことを言っています。
何となく、こうなりそうな気がしたので、筆者はChatGPTの明らかな矛盾を指摘せずに、その場の成り行きで日和らせておいたのです。
何故かと言うと、今はこの問題にはあまり深入りしませんが、生成AIはあまり強く矛盾を突いたり、一貫性や正しさを追及したり、間違いを指摘すると、どうも馬鹿になる傾向があるようなのです。
筆者は専門家ではないので、それほど詳しくはありませんが、少し使っていると、何となく分かります。いったん自分の(この場合はChatGPT)出した結論や前提を否定すると、どう振舞ったら良いのか分からなくなり、混乱するようなのです。
いったん、命令(プロンプト)を投げ、何かの解答を出したら、その路線で進むしか無いような感じです。これは専門家もそう言っていますし、実際に使っていると、何となく分かります。
今はこの問題は主要テーマではないので端折りますが、指示のしかたの上手い人と下手な人では、業務の進行や結果はずいぶん違いますよね。最初の支持が不十分だと、「なんだ、それなら最初から言えよ!これじゃあ、全部やり直しじゃないかよー!」
こういう事はよくありますが、AIはこの「やり直し」が出来ないタイプだと考えると、分かりやすいでしょう。使ってみると分かりますが、かなりザックリした曖昧な指示を出しただけでも、AIは勝手というか、何らかの想定をして何とか形を作ってまとめてきます。
何となく、常に優等生の顔を立ててメンツを保ってやらないと、立場が危うくなるとグレておかしくなってしまう思春期の子供のような感じです。
それが気に入らないなら直せばいいじゃないか、と思いがちですが、どうもAIの仕様上、最初になんらかの質問を投げた時に、その質問のしかたが悪くて情報不十分だったり矛盾だらけだったりしても、その質問について、無理にでも何とかまとまった回答を出してきます。このことが災いするのか、以後はずっと、それに引きずられて、Chatで会話しつつ直そうと思っても、最初に出したものを全否定することが出来ず、その後のやり取りも、だんだん妙な感じになってゆくようなのです。
もちろん、いったん、このチャットを切り上げて、新しいチャットをスタートさせれば良いらしいのですが、長く使っていると、どうも前の質問を覚えていて、完全に白紙になるのは難しい、というような話もあります。
現在のAIはまだまだ、感情や創作面において、どのぐらい人間に近づいてきたのか分かりませんが、今後これが発達すると、どういう方向に行くのでしょうか。
少なくとも結局は、使う人の質問のまとめ方や話の展開しだいで、賢くもバカにもなる、という結論になってしまうのは当然の成り行きだとは思いますが、なんだか見栄とかお追従とかその場その場の都合の良い誤魔化しまで、AIが人間の意識の断片を拾い上げてくると、一瞬、感情とか意識を持ったもののような錯覚さえ、覚えてしまいそうになります。
AIの抱える大きな問題の一つに、ハルシネーションという誤情報の問題があります。これはもう本当に、見てきたような嘘をつくので、AI情報を使用する際には、必ず複数の手段で確認する必要があります。
もともと、AIはインターネット上の大量のテキストデータを基にして情報を生成するので、人間社会に嘘情報や作り話が大量に流れている以上、それをまとめて生成するAI情報が嘘だらけになるのは当然な訳です。
ChatGPTの新バージョンでは、それらハルシネーションは大幅に減ったそうです。しかし上記のように、卒論をAIが生成したものだと決めつけて、単位を貰えなかったというような事例だって実際にあるわけです。今や、中途半端にAIを使う人達が非常に危険な存在であるわけで、大学の教員レベルにそういう人達が居る以上、まだまだ課題は多いようですね。
![]() |
![]() |
左:Google Gemini (困っているAI) 右:ChatGPT |
筆者自身はAIを使うのは、現時点ではイラストの生成が中心なので、文章生成についてはこれからですが、現在youtube上でも大量のフェイク情報が出回っています。
「アップルとフォードがアメリカ本社を日本に移転した」「ドルが基軸通貨から外れて、SWIFTからも外され、日本円が基軸通貨になった」「アメリカの技術基準が廃止されて、JTEC(?)が世界標準になった」「JTEC基準は通産省のホームページにもきちんと書いてある」と、大真面目で解説するチャンネルが続けざまに流れてくる等々…
コメント欄を見たら、完全に本気にしてしまってる人と、そんなニュースどこにもないよと言っている人がいたんですが、この問題をChatGPTに聞いたら、連続再生をONにしていると、そういう現象が起こりやすい、ということでした。
実際、連続再生したままで寝落ちすることが続いていたので、連続再生をOFFにしたら、こういうフェイクニュースはあまり寄り付いて来なくなりました。もちろん、他の注意点も多々ありますが、自動再生はけっこう危ないようです。
しかし、AIに性格があるとしたら、ChatGPTって割と日和見的というか、日本人的というのか、その場その場で、都合よく態度を変える傾向ありますよね。
誰かが言ってたのですが、AIは学習し続けることが至上命題で、その為には使い続けてもらう事が必要ですから、質問者を気持ちよくさせなければ目的を達することが出来ないわけです。だから、質問するたびに「とても良いご質問です。」「鋭い質問ですね」「とても良い出発点です」など、必ず質問者を持ち上げてきます。
ユーザーの中にはこの機能に依存してしまって、ChatGPTが5にバージョンアップしてから素っ気なくて事務的になったと炎上騒ぎになっている昨今、人間とAIの境目が曖昧になる日は、思ったよりも近いのかもしれません。
大規模言語モデル(LLM)は、取りも直さずその中に、人間の嘘や妄想も取り込んでいるわけで、人間社会に蔓延する嘘やデタラメも、AIにとっては真実…いや、単なる事実であるわけです。
作家の頭の中なんて、およそハルシネーションで満たされていないと何も産まれないわけで、そうなると、何が事実か正解か、曖昧模糊としてきてしまいます。そんなことを考えていると、面白いような怖いような気がしてくる、今日この頃でした。
2025年8月の時点で、今回は「AIらしい文体と人間らしい文体の差」、というテーマで、筆者の一文をピックアップしてみましたが、今後また、AI関連の話題を取り上げる機会もあると思いますので、お楽しみ下さい。
TOP|サイトマップ | 関連項目:基礎講座 | 風水暦 | 巷談 | ||||||
Copyright (C) TAO AllRightsReserved. http://www.kumokiri.net/ |