スレID: 142 タイトル: AIに小説を書かせることで成功したプロンプト、失敗したプロンプト 取得日時: 2026-04-04 22:03:53 (JST) ---------------------------------------- [Post #2112] codexが優秀すぎていろいろ詰め込みすぎてしまうが、やはり最初に戻って文体をどう作るかだけを考えてみる。たぶんこれが正しいはず。構造はAIが勝手に考えるはずだ。 [Post #2111] AGIで知性のコードは1万行以下の小ささって予想がされている。小説も本質はごくごく小さな記述でできる気がするな。それがわからないから困るけど。 [Post #2081] コンピュータが小説を書く日読みましたよ 何年も前からAIとは違う(?)ところから攻めている人いるんですね。アメリカにももちろんいて、その時からあっちが進んでいるっぽくてChatGPTが出る前から日本出遅れていた感 知識よりかはアルゴリズムで小説を書こうとしている物語が面白かったな、とか思ってしまった。 [Post #2080] タイトルと「」以外は行頭で全角スペース。 「」の前に『、』は使わないで。 これはメモリ機能に入れてもいいぐらい効いた。 [Post #2058] 今度読んでみます(/・ω・)/ [Post #2057] ■コンピュータが小説を書く日 ――AI作家に「賞」は取れるか : 佐藤 理史 https://www.amazon.co.jp/dp/4532176093 2016年11月発行 LLMの登場前(ディープラーニングが盛り上がっていた頃/AlphaGo直後)の原初的な方法論が、確実というか有効なのかもしれないと感じた 第3章 構造を導入する 第4章 文章生成器 GhostWriter 上記のくだりは、いまでも参考になりそう [Post #2055] どうしてAI本を作るのは簡単なのにAI小説を作るのは精神コストが高いのかGPTちゃんに聞いてみた。 答えは明快で、私が小説以外のAI本を作るときは型がはっきりしているけど、小説を書くときは、毎回詳細にプロンプトしているから。 AI本と同じように作るには型を決めて、コアのコアだけ考えればいいようにすればいいらしい。 なるほど。構造的を決めて、文学を生産する。そういうアプローチから考えるべきだったのかもしれない。文学→構造で考えていた。構造→文学か。 文学をプログラミングする。いけるかもしれない。 [Post #2046] GPTちゃんによるとプロンプトは何度でも過去のものを参照するらしい (プロンプトA100) ↓ (プロンプトB100) ↓ と重ねていくと、どんどんトークンを消費していく。 ということはやっぱり最初に物語の設定を入れるのはよくなくて、その都度入力がいいのではないだろうか? ただしこの手法はコンテクスト長が伸びたら勝手に解決する問題でもある [Post #1996] どうやらチャット履歴もプロンプトの重さに関係するようだ。一時チャットでやってみると確かに軽くなった気がする。しかし、同時にいままで刺さってきたものも消えた気がする。プレーンなテキストならこっちがいいんだろうけど、ユーザーの深層心理みたいなものに潜っていくにはチャット履歴をONにしたほうがいいのかもしれない。 [Post #1983] プログラマがclaude.mdの作り方の話をしていて、ここは300行以内にしたほうがいいと言っていた。そうしないと重くなるというか平坦になるらしい。小説と同じで前提になるプロンプトは小さいほうが性能がいいっぽい。 [Post #1982] あい [Post #1981] スレ違いに気づいた この話はいったんここで終わり モーニングノートで試してくれてありがとう。NDLのあれは国会図書館にあるような古文書(~江戸期)スキャンデータに特化しているから現代人の手書き文字は別のモデルでなければ対応できないのかも。 小生、gemini-2.5-flashの無料枠、1日20回まで使えるから、それを利用できるOCRキャプチャソフトウェアを試作している(昨夜思いついて寝る前に完成した) 小生の4B鉛筆もほとんど読み取ってテキストデータになった。 gemini-2.5-flashの性能は以前から知っていた。 Google AI Studioでも試せる。gemini-2.5-pro などに画像をアップロードする。「OCRして」 OCRキャプチャソフトに関しては配布できる段階にあるけれど、もうすこし微調整したい。 今度ここにDL共有URLを貼るから、暇なとき試してみて 手書きに対する精度がどんなものかフィードバックもらえるとありがたい。 基本プロンプトは登録済みで、そのあとも自分でプロンプト文を調整できる仕組みです。 Gemini api key 無料枠の試用もかねて、ご興味ありましたら、いずれ。 [Post #1980] NDL = 国立国会図書館(National Diet Library) OCR = Optical Character Recognition NDL系のOCRは印刷された一次資料が強みっぽいから、手書き文字の認識は期待しないほうがいいかもしれないです 手書き系のOCRは無料枠もあるけど基本は有料っぽいですね [Post #1976] 文字自体は認識できているから、あとはパターン認識? 簡単にDLできる程度のデータ量だと多分無理っぽい 日記を全部デジタル化は興味あるけどスマホで撮影するのはしんどいからロボットにやらせたい [Post #1975] モーニングノートをNDL(?)というのでOCRした結果 ていなこたがち、 なります。 ないということ なっている。 うしゃが、する人やがらかえい 大きないから、そのようない。 ほとんど読み取れていないのは字が致命的に汚いということがありそうです [Post #1973] NDLOCR-Liteの公開について https://lab.ndl.go.jp/news/2025/2026-02-24/ Core i5-4590 のような貧弱CPUでも軽快に動作する ファイルサイズも解凍後400MB程度 国会図書館デジタルコレクションで公開されているようなキレイなスキャン画像に対しては読み取り精度高い。とても有用。 ただし、スマホ撮影したような〈版面が歪んでいる/大きく傾いている〉画像に対しては、本来の読み取り精度を発揮できない。 今後のアップデートで改善されるかもしれない [Post #1972] NDLOCR-Liteの公開について https://lab.ndl.go.jp/news/2025/2026-02-24/ 手書きのデジタルテキスト化もイケるらしい うしPの朝ノートに対する認識精度どうかな? いずれ暇なときにやってみて 小生の4B鉛筆書きで試したけれど誤認識だらけ ちなみにOCRに関しては、gemini-2.5-flash の高精度とコスパを超えるのは難しい 上記LiteではないNDLOCRメインモデルよりもLLMの擬似的OCRのほうが精度高いから、カネ払ってでもLLMを使わざるをえない 手書き認識にも強い [Post #1971] 現在のLLMの知的水準で小説界をぶち抜けないはずがない。となると、考えられるのは、小説の技術や形にまだ言語化や構造化されていない何かがあるんじゃないかという可能性を考えてみた。 しかし、それもLLMの特性なら人間よりうまく見つけられるはず。電球一個程度のエネルギーしか使わない脳は絶対に小説から10億以上の要素を感知していないはず。 小説以外のことで目を開かれるようなことがあると、この奇妙なねじれが不思議でならない。 あるいは既に存在していて、人間として活動しているのかもしれない。 [Post #1906] @#1905 https://ushino.jp/thread.php?thread_id=142#p1905 男は、を、全裸男 もしくは ほぼ全裸男 と書き直したくなる。 こういう細かい指定も、理論上は可能なはずである。再現できるかは別として、理屈では出来る。 [Post #1905] 初期にcodexが考案して設定した「目的」やら「失敗」やら「回収」などの物語の基本要素が、かえって〈不自然〉に感じはじめる。 ソフトウェアの難しさはここからが本番であり、シロウトの手には余る。このまま漫然と追加修正を繰り返してもコードが破綻する。 ーーーーーーーーーーーーーー 霧雨が徳島市街の舗装を鈍く濡らしていた。中年男は、名も無く、全裸で立ち尽くしていた。冷たい雨粒が肌を刺し、全身の毛穴が悲鳴を上げているかのようだ。この凍てつく現実から逃れたいが、その手段は見つからない。このままでは凍死するだろう。男は震える手で、地面に落ちていた新聞紙を拾い上げた。なぜ、自分がこんな場所にいるのか。問いは霧の中に溶けていった。 新聞紙を破り、かろうじて腰に巻きつけた男は、ふらつく足取りで街灯に照らされた細い路地へと踏み込んだ。病気を恐れ、温かい場所、人のいる場所へと向かおうと決意した。遠くで響く車の走行音が、唯一の導きの糸だった。この雨の中、誰か助けてくれる人間はいるのだろうか。焦燥感が彼の歩みを急かした。 路地の角を曲がった瞬間、男は見慣れぬ男とぶつかった。派手な柄シャツを着た小柄な男、ケニーだ。人通りの少ないこの場所で、ケニーは誰かの「回収」を待っていたらしい。男はケニーの顔をまともに見られず、視線を地面に落とした。不審者として通報されるかもしれない。 「おい、その格好、なんだよ?」 ケニーが舌打ちをしながら、男の腰の新聞紙を指差した。 「すみません、道に迷ってしまって……」 男はか細い声で答えるしかなかった。 ケニーは、男のあまりの惨めな姿に一瞬言葉を失ったが、すぐにニヤリと笑い、男の肩を掴んだ。 「まあ、いいや。俺も暇してたんだ。とりあえず、どこか温かいとこ連れてってやるよ。」 ケニーは男を強引に引きずるように歩き出した。男は、ケニーの言葉を信じるしかないと判断した。この温情が、更なる深淵への入り口かもしれない。しかし、他に選択肢はなかった。 ケニーに連れられてたどり着いたのは、古びた喫茶店だった。店の中は、コーヒーの香ばしい匂いと、人々の話し声で満ちていた。ケニーに促され、男はカウンター席に腰を下ろした。 「マスター、こいつにホットミルクを頼む。」 ケニーは男に温かいミルクを差し出しながら言った。 「俺は、ここでちょっと待ってなきゃなんねぇんだ。あんたは、ゆっくりしてきな。」 男はケニーの言葉にわずかな安堵を覚えたが、この安堵は長くは続かないだろうと予感していた。 ホットミルクの温かさが、男の冷え切った体にゆっくりと染み渡った。その甘さと温かさに、まるで長年忘れていた幸福を思い出したかのように、男はそっと目を閉じた。目的は、この一時的な安寧を得ること。しかし、その代償は、この温もりから目を覚ました時に訪れるであろう、さらなる寒さと絶望かもしれない。ケニーが店外で待っているという事実が、彼をこの場に留める理由となっていた。 ーーーーーーー (以下、意味不明のため省略) [Post #1681] 誤字のあるプロンプトをすると性能が下がる・・・気がする [Post #1610] AI小説が書けるなら自分で売ればいいのに、なんて思ってしまうけど書籍化はまた別のトロフィーだよなー [Post #1604] ■大賞・読者賞を受賞→規約変更で書籍化&コミカライズが白紙になりました。私 × AI でなければ到達できない「面白い」を作ります。 - 近況ボード | アルファポリス - 電網浮遊都市 - https://www.alphapolis.co.jp/diary/view/301478 ※2026.01.03 13:02 "私は、2ちゃんねるのSSに夢中になった少年時代から、国立大学院での研究、国語教員免許の取得、査読論文の提出や学会での公演まで、ずっと「言葉」と共に生きてきました。 今、私が挑みたいのは、「AIと共に、より良い作品を創造すること」です。 ボタン一つで生まれる言葉ではなく、AIと対話し、葛藤し、「私とAIでなければ作れない」と言われるような作品を。そしてそれは「面白い」ということを。私は、自らの作品で証明したいと考えています。" "この「旅」や「創造」のプロセスそのものも、YouTubeを通じて皆さんに共有していきます。 そこでは小説の枠を飛び越え、アプリやゲームといった多角的なコンテンツを一人で企画・展開する「ソロプロデューサー」として、皆さんの日常にワクワクを届けます。" ■旅する書斎(☆ほしい)のWebコンテンツ | アルファポリス - 電網浮遊都市 - https://www.alphapolis.co.jp/author/detail/441458249 ※話題になった書籍化白紙作品の連載開始した(2025.08.15)前後にも、2025年5月には〈江戸時代ものライトノベル〉でも評価を得ている。 AI(LLM?)による創作術を自分のものにしている、というわけか。 【大賞】地味スキル《お片付け》は最強です!〜社畜OL、異世界でうっかり国を改革しちゃったら、騎士団長と皇帝陛下に溺愛されてるんですが!?〜 への感想 | ファンタジー小説 | 小説投稿サイトのアルファポリス https://www.alphapolis.co.jp/novel/441458249/997987444/comment ※コメント欄をみると〈ネット小説読者〉という、紙の読者(旧世代)とは異なるペルソナ?というかパーソナリティー群が存在するんだね。10年前くらいに「なろう」で見た光景と変わっていない。 こういう人たちがお金や有料ポイントを費やして「小説」を買ってくれるわけだ。 [Post #1489] @#1481 https://ushino.jp/thread.php?thread_id=142#p1481 gemini-2.5-flash は従ってくれず、少なめに生成しがち gemini-2.5-pro も完全には従ってくれないが、少なめ生成は減った あともうすこしだな。2026年末には小細工なしで従ってくれると信じたい [Post #1481] 小説で文字数を指定するときは半分くらいにするといいかもしれない 2000字ぐらいの小説がほしいなら1000字で書いてとプロンプトする コンピューター的に日本語は1文字3バイト使う。英数字は1バイト たぶん「1000字の小説を書いて」とAIに言うと内部の推論は日本語の確率50%3000バイト英数字の確率50%1000バイト、期待値1500バイトみたいな感じになっているのでは? で、なぜか文字数は1文字1バイトで計算されて、出力されるのが1500字くらい。本当のところはどうなのかは知らないけど指定文字数の1.4〜7倍くらいにおさまるからそう外れていはいないと思う。