とりあえず形になった、といかにも自分の成果のように書いたが、最近の開発は生成 AI に頼りまくりで、なんともいえない気分になることがある。
たとえば自分で書いたソースコードに関して、メソッド名を生成 AI に考えてもらったとか、コードレビューを生成 AI にやってもらった、lint の指摘の対処を生成 AI にやってもらったなど、それくらいならまだいい。
さらに踏み込んで、作りたい処理の概要を生成 AI に伝えてがっつり実装してもらったり、エラーの解析作業を丸投げしてソースコードの修正やデバッグコマンドの実行まで生成 AI に任せたりすると、これははたして自分の成果といえるのか? とギモンが浮かび始める。
おまけに今回は作ったメソッドの中でも生成 AI を呼び出してるので、その実行結果にも時々ナゾの不安定さがあってなんともいえない感じ。
ちなみに、職場で使ってる LLM (生成 AI の大規模言語モデル) は最近は Claude 3.7 Sonnet と GPT-4o がメイン。
職場ではほかに Gemini 2.5 Pro や DeepSeek 系も併用してるが、みんな癖が強くておもしろい。
それと、先月くらいから当 Web サイトの改善に使ってる LLM は、GPT-4o mini ベースの GPT-4o Copilot (GitHub Copilot 標準のやつ) オンリーである。
GitHub Copilot は、今まさに書きかけの変数名・メソッド名とソースコード全体から連想して正解に限りなく近いコードを提案してくるので (しかもリアルタイムに)、いい意味で気持ち悪くておもしろい。