前回、5列✕36行の表から、特定行/列を抜き出した表を作るのに、ChatGPTへの1行の指示で可能なことをお示ししました。
今回は、集計(計算)にチャレンジしてみましょう。集計の例として、四半期単位での算術平均値を計算してみましょう。たった3手で試せます。完全無料です。
※今回は、処理スピードを速める為に、表を3列✕12行に縮小しています。
※記事の続きを読むための会員登録は無料です!
どうでしょう?結果は出ましたか?それらしい回答をしてくれているとは思いますが、もしあなたがChatGPT3.5を使っているのであれば、恐らく答えは間違えています。それを確認するために、検算をしてもらいましょう。
どうでしょう?一番最後の列が0になっていれば、計算が正しいことになります(0でも正しくないこともあります→<参考1>参照)。私が試した限りでは、ChatGPT3.5の場合は毎回間違え、ChatGPT4は概ね正解するといった状況でした。
ここでは、計算の正しさを証明することが目的ではないので、先に進みますが、どうしても気になってしまう方のために、「ちゃんと検算できるシート」というSpreadsheet(<参考2>参照)をご用意しました(Googleユーザー限定)。
参考まで、ChatGPT3.5の実行結果例はこちらです。検算シートに値を入力した際に、赤セルに変わったところが、異常値です。
そして、ChatGPT4の実行結果例はこちらです。検算シートに値を入力しても、白っぽいままなので、正常です。
さて、つまるところ何が正解なのかと言いますと「計算には道具を使え」ということになります。道具とはここでは、Pythonプログラムとなります。ChatGPT4は自らPythonを書いて実行したと思います。だから正確に計算できました。対してChatGPT3.5は、Python無しに直接計算しました。
例えて言うならば、ChatGPT3.5が暗算で間違えてしまったのに対し、ChatGPT4は計算機(Python)で丁寧に処理して正解を導いた、といったところでしょうか。
なお、実は最近、ChatGPT3.5も道具を使うようになりました。すなわち、難しい計算問題に対しては、Pythonを書くようになったんです(暗算では間違えることを、自認してくれました😅)。但し、ChatGPT4と違って、Python実行環境を持ちません。つまり、ユーザー側でPython実行環境を用意し、出力されたPythonプログラムを、手動で実行しないと結果が出ません。なお、ChatGPT3.5にPythonを書かせてみたい場合は、一つ目の指示(プロンプト)から「制約条件」の1行を削除して、実行してみて下さい。
以上を簡単にまとめてみます。
・生成AIに暗算をさせてしまうと間違えることが多い
・難しい計算の場合には、道具(Python等のプログラム)を使ってもらうと良い
・但し、Python実行環境を持たない生成AI(ChatGPT3.5、Bing Copilot)の場合は、出力されたPythonコードをユーザー自らが実行しなければならない。
なお、「難しい計算」と「平易な計算」の境界はどこにあるかですが、筆者が試した限り、現時点のChatGPT3.5では、3桁と4桁の掛け算(1234✕987=)あたりが限界のようです。
さて、いかがだったでしょうか。生成AIにも得手不得手があり、特に「計算は苦手」という認識が一般的です。ところが、最近になって、Python実行環境という「道具」を得たChatGPT4は、更に頼れる存在になってきました。次々に成長していく生成AIから目が離せません。
なお、もっと多くの演習に触れてみたい方は、こちらの実践演習をお試し下さい。この道10年のプロが厳選した10の演習が含まれています。ぜひご検討下さいm(_ _)m
それではまた次回お会いしましょう。
<参考1>
検算結果の最終列が0でも、稀に間違えていることがあります。それは、検算の式を「A-(A÷3✕3)=0」としてしまうケースです(Aは「②最高値平均値×3」または「⑤最安値平均値×3」のいずれか)。これは、検算の計算方法を指示通りにやっていないことになり、0となるように検算式を変えてしまっているものと思います。
<参考2>
利用環境の準備
利用方法
ChatGPT4からCSV(TSV)をコピーする
「自由ノート」シートにペーストする
ペースト直後に出るメニューから「テキストを分割する」を選択する
適切な範囲を選択してコピーする
「検算シート」の白セルにペーストする
白セルの下のエリアでチェックする(白セルはOK、赤セルは異常)
<参考3>
参考まで、ChatGPT以外のLLMサービス、Bing CopilotとGeminiでも上記プロンプトを試してみました。Copilotは、Pythonを使わない暗算であっても、概ね正しい数値(誤差0.01以内が多かった)を計算しました。Geminiは、ChatGPT3.5と同様に、毎回間違えていました。Geminiは最近Python実行環境を具備したので、意図的にPythonを書かせて実行させもしましたが、それでも正解を導くことはできませんでした。但し、これらはあくまで、本記事投稿時時点の状況で、これから変わっていく可能性があります。