「物語」は今、人間の直感だけの領域から、計算可能な「科学」へと進化しています。本記事では、計算論的ナラトロジー(Computational Narratology)の最前線を、100本以上の関連論文調査に基づいて徹底解説します。構造主義的な物語文法から、LLMを用いた「ニューラル・ナラティブ・プランニング」へのパラダイムシフト、そしてNetflixやDisneyが実践する「伝わる」ためのエンジニアリングとは? AIが物語を「読み解き」、そして「生成する」メカニズムを紐解き、クリエイティブの未来を展望します。
序論:物語の科学化と「伝わる」ことの計算論的転回
物語(ナラティブ)は、人類が世界を認識し、記憶を構成し、他者と経験を共有するための根源的なアルゴリズムである。アリストテレスが『詩学』において悲劇の構造を分析して以来、物語は長らく人文科学の領域で論じられてきた。しかし、21世紀における人工知能(AI)、特に自然言語処理(NLP)と大規模言語モデル(LLM)の飛躍的な進化は、物語を「データ」として、そして「計算可能な対象」として再定義することを可能にした。これが計算論的ナラトロジー(Computational Narratology)である。
計算論的ナラトロジーの現在地を、過去の「構造主義的物語文法」から現在の「ニューラル・ナラティブ・プランニング」へのパラダイムシフトという観点から包括的に論じるものである。「伝わるを科学する」というブログのテーマに即し、単なる技術解説にとどまらず、なぜAIは物語を生成できるのか、AIが生成する物語は人間に何をもたらすのか、そして「伝わる」という現象の背後にある数理的メカニズムはいかなるものかについて、最新の研究論文(2024-2025年)やNetflix、Disney Research等の産業界の実例を交えて詳述する。
かつて、物語の分析はウラジーミル・プロップやクロード・レヴィ=ストロースといった構造主義者たちによる「機能」や「神話素」の抽出に留まっていた。これらは物語の「骨格」を明らかにしたが、その「肉付き」や「揺らぎ」を捉えることは困難であった。しかし、現在のLLMは、膨大なテキストデータから確率論的に物語のパターンを学習し、微細な感情の機微や文体の模倣までも可能にしている。一方で、確率論的生成モデルは「一貫性の欠如」や「幻覚(ハルシネーション)」といった新たな課題も生み出した。これに対し、最新の研究潮流は、構造主義的な論理構造(シンボリックAI)とニューラルネットワークの流暢さを融合させるニューロ・シンボリック(Neuro-Symbolic)なアプローチへと向かっている。
本稿では、物語を「読み解く(Understanding)」技術と「生成する(Generation)」技術の両面から、この分野の深化を体系化し、物語知能(Narrative Intelligence)の未来を展望する。
第1章:理論的変遷 — 構造主義的文法からベクトル空間へ
計算論的ナラトロジーの歴史は、物語を「ルール」として記述しようとする試みから、「確率」としてモデル化しようとする試みへの移行の歴史であるといえる。この章では、その理論的基盤の変遷を辿る。
1.1 構造主義の遺産:プロップの31機能と物語文法
計算論的ナラトロジーの起源は、ロシア・フォルマリズムの代表的理論家、ウラジーミル・プロップの研究に遡ることができる。プロップは1928年の著書『昔話の形態学』において、ロシアの魔法民話100編を分析し、それらが驚くべきことに同一の構造的法則に従っていることを発見した。彼は物語を構成する最小単位として「機能(Function)」を定義し、すべての魔法民話は31の機能の定まった順列で記述できるとした。
例えば、物語は「不在(家族の一員が家を留守にする)」から始まり、「禁止(主人公に禁止令が与えられる)」、「違反(禁止が破られる)」、「加害(悪役が被害を与える)」といったプロセスを経て、「結婚(主人公が結婚し即位する)」で終わる。プロップの理論は、物語が「計算可能」であることを示唆した最初のモデルであり、後の計算機科学における「ストーリー・グラマー(Story Grammar)」の基礎となった。
1970年代から2000年代初頭にかけての初期の物語生成システム(例:TALE-SPINやMEXICA)は、この構造主義的アプローチを直接的に実装しようと試みた。これらはシンボリックAI(記号的人工知能)のアプローチを採用しており、物語世界を明示的なルールと論理式で記述した。
- TALE-SPIN (1977): キャラクターの「目標(Goal)」と「計画(Plan)」をシミュレートするシステム。「ジョーは喉が渇いている」「水は川にある」といった論理的状態から、「ジョーは川へ行く」という行動を導き出す。
- ストーリー・グラマー: 「物語 -> 設定 + エピソード」「エピソード -> 開始イベント + 反応 + 行動」といった文脈自由文法のような書き換え規則を用いて物語構造を生成する。
しかし、これらのアプローチには致命的な限界があった。生成される物語は論理的には整合していても、表現が機械的で、人間が感じるような「面白さ」や「意外性」、そして自然言語としての「流暢さ」を欠いていたのである。物語の「骨格」を作ることはできても、「肉」をつけることができなかったのだ。
1.2 ニューラルネットワークの台頭:記号からベクトルへ
2010年代に入り、ディープラーニングの発展とともに、パラダイムは劇的に変化した。Word2Vecによる単語のベクトル化、そしてTransformerアーキテクチャの登場(BERT, GPT)により、物語生成の主役は「明示的なルール」から「確率的な予測」へと移行した。
ニューラルネットワークにおいて、物語はもはや固定された機能の連鎖ではない。それは高次元ベクトル空間における軌跡として表現される。「英雄」と「悪役」は対立する記号ではなく、意味空間上で特定の距離と関係性を持つベクトルとなる。LLM(大規模言語モデル)は、膨大なテキストコーパスから「次に来る単語(トークン)」の確率分布を学習することで、プロップの理論を知らずとも、統計的に「英雄が剣を抜いた後には、戦いが起こる確率が高い」ことを学習する。
このシフトにより、AIは人間が書いたかのような流暢なテキスト、多様な文体、そして文脈に応じた繊細な表現を獲得した。しかし、それは同時に「ブラックボックス化」という代償を伴った。なぜその展開になったのか、その論理的根拠を説明することが困難になり、また長期間の文脈を維持することが難しいため、物語の冒頭と結末で矛盾が生じるといった新たな問題が浮上した。
1.3 ニューロ・シンボリックへの回帰と統合
そして現在(2024-2025年)、振り子は再び揺り戻している。純粋なニューラルモデルの限界(論理的整合性の欠如、長期記憶の不全)を克服するために、構造主義的な「知識」や「論理」をニューラルネットワークに統合するニューロ・シンボリックAIが注目されている。
これは、物語の「マクロな構造(プロット、因果関係)」をシンボリックな推論や知識グラフで管理し、「ミクロな表現(セリフ、描写)」をLLMで生成するというハイブリッドなアプローチである。プロップの亡霊は消え去ったのではなく、ニューラルネットワークという新たな身体を得て、より高度なナラティブ・インテリジェンスとして蘇ろうとしているのである。
以下の表は、このパラダイムシフトの変遷を整理したものである。
| 時代区分 | 1. 構造主義・記号的AI期 (~2010) | 2. ニューラル生成期 (2010~2023) | 3. ニューロ・シンボリック統合期 (2024~) |
| 基盤理論 | 物語文法、計画法 (Planning) | 分布仮説、確率的言語モデル | 構造化知識 + 生成モデル |
| 表現単位 | 記号 (Symbol)、論理式 | ベクトル (Vector)、トークン | ナラティブ・グラフ、潜在空間 |
| 生成原理 | ルールベースの推論 | 次トークン予測 (Next Token Prediction) | 制約付き最適化、階層的計画 |
| 長所 | 論理的整合性、解釈可能性 | 流暢性、多様性、汎用性 | 整合性と流暢性の両立、長期一貫性 |
| 短所 | 表現の硬直性、拡張性の欠如 | 論理破綻、幻覚、長期記憶の欠如 | アーキテクチャの複雑性、計算コスト |
| 代表例 | TALE-SPIN, MEXICA | GPT-2, GPT-3, BERT | DOME, COLLABSTORY, GraphRAG |
第2章:物語を「読み解く」 — ナラティブ・アンダースタンディングの最前線
AIが物語を生成するためには、まず人間が作った物語を深く理解(Understand)する必要がある。ここでの「理解」とは、単なる単語の羅列処理ではなく、イベント間の因果関係、登場人物の感情の推移、そして物語の深層構造を抽出することを意味する。
2.1 LLMはプロップの夢を見るか?:機能抽出の自動化
最新の研究(2024-2025年)において、LLMがプロップの31機能をどの程度正確に抽出できるかが検証されている。Text2Story Workshop 2024で発表された研究では、ChatGPTやGeminiといった最新モデルに対し、民話のテキストからプロップの機能をアノテーション(タグ付け)させる実験が行われた。
この実験の結果は、LLMの現状の能力と限界を浮き彫りにしている。
まず、ゼロショット(例示なし)でタスクを与えた場合、LLMはしばしば「幻覚」を起こした。プロップの厳密な定義ではなく、一般的な「ヒーロー」「ヴィラン」といった概念と混同したり、プロップのリストには存在しない機能を勝手に捏造したりする傾向が見られた。これは、LLMが学習データに含まれるWikipediaやTvTropesなどの「俗流の物語論」に強く影響されており、学術的に厳密な構造主義理論を完全には内在化していないことを示唆している。
しかし、フューショット(数個の例示を与える)学習を行うと、精度は劇的に向上した。特にGemini Proを用いた実験では、適合率(Precision)が0.46まで向上し、人間がアノテーションした正解データとの間に「言語的に妥当な関連性(linguistically plausible relation)」が見出された。これは、LLMがプロップの定義を厳密に再現できなくとも、物語内の重要なイベント(誰かが去る、誰かが試練を受ける)を文脈的に理解し、それを抽象的な概念にマッピングする能力を持っていることを示している。
2.2 因果関係の抽出と「物語の論理」
物語理解における最大の壁の一つが「因果関係(Causality)」の理解である。「王が死んだ、そして王妃も死んだ」は単なる時系列の記述だが、「王が死んだ、そして悲しみのあまり王妃も死んだ」はプロット(因果律)である(E.M.フォースターの定義)。
最近の研究(2025年)では、LLMがこの物語的因果関係をどこまで理解できるかが問われている。興味深いことに、LLMは一般的な常識的因果関係(「雨が降った」→「地面が濡れた」)の推論には優れているが、物語特有の「文脈依存的な因果関係」には弱いことが明らかになっている。例えば、ファンタジー小説において「魔法の言葉を唱える」ことが「爆発」の原因となる場合、現実世界の常識(言葉は爆発しない)と物語内のルールが衝突し、LLMが誤った推論を行うケースがある。
これに対し、CARE (Causal Reasoning Enhancement) フレームワークのような新しい手法が提案されている。これは、因果探索アルゴリズムの出力を利用してLLMをファインチューニングし、テキストデータに含まれる明示的・暗黙的な手がかりから、その物語世界固有の因果グラフを構築させる試みである。これにより、AIは「なぜそのイベントが起きたのか」という物語の論理的背骨を抽出できるようになりつつある。
2.3 感情アークとヴォネガットの形状分析
物語の構造を「感情の起伏」として可視化する研究も進んでいる。カート・ヴォネガットはかつて、物語にはいくつかの基本的な「形状」がある(例:「穴の中の男」型=幸福→不幸→幸福)と提唱したが、近年の自然言語処理技術(感情分析)はこれを数学的に実証している。
バーモント大学の研究チームやDisney Researchなどのグループは、小説や脚本のテキストに対し、スライディングウィンドウを用いた感情分析を行うことで、物語全体の感情アーク(Emotional Arc)を時系列グラフとして抽出する技術を確立している。これにより、「シンデレラ型(上昇→急降下→再上昇)」や「オイディプス型(下降→さらに下降)」といったパターンの分類が可能になった。
さらに、最新の研究では、単一の感情軸だけでなく、登場人物間の「関係性のアーク(Relational Arcs)」を動的にマッピングする試みも行われている。これは、主人公とヒロインの親密度や敵対度が、章を追うごとにどう変化するかをベクトル空間上の距離の変化として追跡するものであり、キャラクターの「成長」や「関係性の変容」といった高度な文学的概念を計算可能な指標へと落とし込んでいる。
第3章:物語を「生成する」 — ニューラル・ナラティブ・プランニングと一貫性の課題
「読み解く」技術の進化は、「生成する」技術の革新へと直結している。現在、物語生成AIの最前線では、いかにして長編の物語を一貫性を保ちながら生成するかが最大の焦点となっている。
3.1 「中盤の喪失(Lost in the Middle)」問題
LLMは短編の生成においては人間を凌駕する創造性を見せるが、長編小説や脚本の生成においては「中盤の喪失」や「文脈の忘却」という深刻な問題に直面する。コンテキストウィンドウ(一度に処理できるテキスト量)には物理的な限界があり、またAttentionメカニズムの特性上、物語の最初の方で提示された伏線や設定(例:主人公の瞳の色、幼少期のトラウマ)が、物語の中盤以降で無視されたり矛盾したりする現象が頻発する。
確率論的な生成モデルは、局所的(ローカル)な文の繋がりを滑らかにすることには長けているが、大局的(グローバル)な構成を維持する機能を持っていないためである。この問題を解決するために、2024年から2025年にかけて、階層的計画(Hierarchical Planning)とマルチエージェントシステムという二つのアプローチが急速に発展している。
3.2 階層的計画法:DOMEとDOC
階層的計画法とは、人間の作家が執筆するプロセスを模倣し、物語をトップダウンで詳細化していく手法である。いきなり本文を書き始めるのではなく、まず「あらすじ」を作り、次に「章構成」を作り、さらに「シーンごとのビート」を作り、最後に「本文」を生成する。
2025年に発表されたDOME (Dynamic Hierarchical Outlining with Memory-Enhancement) は、このアプローチの代表例である。DOMEは、物語全体を統括する階層的なアウトラインを維持しつつ、記憶増強モジュール(Memory-Enhancement Module: MEM)を用いて、物語内で発生した重要な事実(誰が誰を殺したか、誰がどのアイテムを持っているか)を「知識グラフ」として外部メモリに保存する。LLMが各章を執筆する際、この知識グラフを参照することで、数十章離れたイベントとの整合性を保つことが可能になる。
また、DOC (Dialogue-to-Description) フレームワークは、脚本形式の対話データからト書き(Description)や心理描写を逆生成し、それをまた対話生成のコンテキストとしてフィードバックすることで、対話と描写の相互一貫性を高める技術である。
3.3 マルチエージェントシステム:AIによる「作家の脳内会議」
もう一つの有力な解決策は、単一のLLMにすべてを行わせるのではなく、役割の異なる複数のLLMエージェントを協調させるマルチエージェントシステム(MAS)である。これは、いわばAIの中に「編集者」や「批評家」を同居させるアプローチといえる。
- ライター・エージェント(Writer): 実際にテキストを生成する。
- クリティック・エージェント(Critic): 生成されたテキストを読み、矛盾や面白さの欠如を指摘する。
- プランナー・エージェント(Planner): 物語全体の構成を管理し、次の展開を指示する。
COLLABSTORY (2025) という大規模な実験プロジェクトでは、これらのエージェントがリレー形式で物語を執筆する手法が検証された。特筆すべきは、エージェント間にあえて「対立」や「批判」を導入することで、生成される物語の質が向上したという点である。自分自身で書いたものを自分で褒める単一のLLMとは異なり、他者(別のエージェント)からの厳しいフィードバックループを回すことで、物語の論理的強度や展開の意外性が磨かれることが示された。これは、人間の創作活動における「推敲」や「編集会議」のプロセスを計算機上でシミュレートしていると言える。
3.4 世界モデルと社会的シミュレーション
さらに進んだ研究として、物語の背景となる「世界」そのものをシミュレートする世界モデル(World Models)の統合が進んでいる。物語生成AIは、テキストを書く前に、まず背後にある仮想世界の状態(物理的な位置関係、社会的な人間関係、各キャラクターの知識状態)を更新する。
Social World Models (SWM) の提唱者は、AIが「心の理論(Theory of Mind)」を持ち、各キャラクターが何を知っていて何を知らないかを厳密に管理する必要性を説いている。例えば、ミステリー小説において「探偵は犯人を知らない」が「読者は犯人を知っている(あるいはその逆)」という情報の非対称性を管理するためには、テキスト生成モデルとは独立した「社会状態のシミュレーター」が不可欠となる。これは、物語生成を単なる言語処理から、社会シミュレーションの領域へと拡張するものである。
第4章:産業界における実装 — NetflixとDisneyのナラティブ・エンジニアリング
計算論的ナラトロジーは、もはや象牙の塔の中だけの理論ではない。エンターテインメント産業の巨人たちは、これらの技術をビジネスの核心部分に実装し、コンテンツの制作、分析、推薦(レコメンデーション)に活用している。
4.1 Netflix:タグ付けの科学とインタラクティブ・グラフ
Netflixは、世界で最も大規模に計算論的ナラトロジーを実践している企業の一つと言える。彼らは自社のアプローチを「コンテンツ・アナリティクス」と呼んでいるが、その実態は物語の構成要素を徹底的にデータ化することにある。
マイクロジャンルと転移学習
Netflixは、「アクション」や「ロマンス」といった大雑把なジャンル分けに依存していない。彼らは社内の専門家(タガー)と機械学習モデルを組み合わせ、数千〜数万におよぶ「マイクロジャンル」や「タグ」をコンテンツに付与している。これには、「復讐」、「社会風刺」、「ウィットに富んだ会話」、「ダークな雰囲気」といった、物語の内容やトーンに関する微細な属性が含まれる。
さらに、Netflixは転移学習(Transfer Learning)を用いて、まだ公開されていない脚本や企画のポテンシャルを予測している。新作の脚本から抽出されたナラティブ・ベクトル(物語的特徴量)を、過去の膨大なヒット作のベクトル空間に射影することで、「この脚本は『ブラック・ミラー』と『ストレンジャー・シングス』の中間に位置し、ブラジルと日本で特に受ける可能性が高い」といった予測を行う。これは、物語の「質」や「傾向」を数値化し、経営判断に直結させる試みである。
『バンダースナッチ』とナラティブ・グラフ
インタラクティブ作品『ブラック・ミラー:バンダースナッチ』の制作において、Netflixは独自の「ブランチ・マネージャー(Branch Manager)」ツールとナラティブ・グラフエンジンを開発した。これは単なる分岐シナリオの管理ツールではない。ユーザーの選択履歴(「朝食に何を食べたか」といった些細な選択も含む)を「状態(State)」として保持し、それに基づいて後の展開における選択肢の有無や、キャラクターのセリフのニュアンスを動的に変化させる。
このシステムは、グラフ理論を用いて物語の整合性を担保している。あるルートでキャラクターが死亡した場合、そのノードから到達可能な全ての下流ノードにおいて、そのキャラクターが登場しない(あるいは死者として扱われる)ことを論理的に保証する。これは、複雑な分岐構造を持つ物語を一貫性を保ちながら管理するための、計算論的ナラトロジーの極めて実用的な応用例である。
4.2 Disney Research:魔法の数式化
Disney Research(チューリッヒ、ロサンゼルス等)は、物語の「感情」や「視覚的演出」の計算モデル化に注力している。
脚本からの自動演出生成
Disneyの研究では、自然言語で書かれた脚本を入力すると、AIが自動的に最適なカメラアングル、キャラクターの立ち位置(ブロッキング)、照明効果などを提案する「Computer-Assisted Authoring」システムが開発されている。これは、テキスト(物語)からビジュアル(映像)への翻訳プロセスを計算機支援するものであり、クリエイターが物語の核心に集中できるようサポートする。
感情アークの最適化
また、Disneyは映画の各シーンにおける観客の感情反応を予測・制御するための技術も開発している。脚本のテキスト分析や、試写段階での観客の表情解析(Facial Expression Analysis)を通じて、物語の「感情アーク」が意図した通り(例:クライマックスで興奮が最高潮に達し、ラストで安らぎを得る)になっているかを定量的に評価する。これにより、物語のペーシングや構成を科学的に「チューニング」することが可能になっている。
第5章:学術的最前線と日本の貢献
アカデミアにおいては、物語生成の倫理的側面や、より人間的な「共創」の側面に焦点が当てられている。
5.1 ジョージア工科大学 Entertainment Intelligence Lab
マーク・リードル(Mark Riedl)教授率いるジョージア工科大学のEntertainment Intelligence Labは、この分野の世界的拠点である。リードル教授は、「物語知能(Narrative Intelligence)」こそが汎用人工知能(AGI)への鍵であると主張する。人間は物語を通じて社会のルールや倫理を学習するため、AIもまた物語を理解することで人間の価値観(Value Alignment)を学ぶべきだという立場である。
彼らの代表的なプロジェクト「Quixote」は、AIに何千もの物語(寓話や社会的なエピソード)を読ませることで、「盗みは悪いことだ」「困っている人は助けるべきだ」といった暗黙の社会規範を報酬関数として学習させるシステムである。これは、物語を単なるエンターテインメントではなく、AIの安全性(Safe AI)を担保するための教育データとして扱う画期的なアプローチである。
5.2 MIT Media Labと「共創」
MIT Media Labは、古くから「Narrative Intelligence」という用語を広めた中心地であり、現在はAIと人間の共創(Co-Creation)に焦点を当てている。AIが人間に取って代わって小説を書くのではなく、AIが「創造的なスパリングパートナー」として機能するツールの開発が進んでいる。AIが意外な展開を提案したり、著者の思考のバイアスを指摘したりすることで、人間の創造性を拡張(Augment)することを目指している。
5.3 日本における研究動向:感性工学とオタク文化
日本もまた、計算論的ナラトロジーにおいて独自の存在感を示している。特に感性工学(Kansei Engineering)の伝統に基づき、物語が読み手に与える主観的な「印象」や「感動」を定量化する研究が盛んである。
NHK放送技術研究所では、放送コンテンツのための生成AI技術として、長時間のドラマやドキュメンタリーを自動的に要約し、視聴者の好みに合わせたダイジェスト版(物語の核を損なわずに短縮したもの)を生成する技術を開発している。また、国内の大学(慶應義塾大学、東京大学など)では、マンガやアニメといった日本独自のメディア形式に特化した物語生成支援(脚本から絵コンテの生成など)や、キャラクターとの対話システムにおける一貫性保持の研究が進められている。
2025年に東京で開催予定の国際会議ICEC 2025(International Conference on Entertainment Computing)では、LLMを用いた生成物語におけるジェンダーバイアスの検出や、フィクションの探偵キャラクターの推論モデルに関するワークショップが企画されており、日本のポップカルチャーとAI研究の融合が進んでいることが窺える。
結論:ナラティブ・シンギュラリティの到来
本レポートで見てきたように、計算論的ナラトロジーは今、歴史的な転換点にある。プロップが夢見た「物語の計算可能性」は、LLMという強力な計算エンジンを得て、現実のものとなりつつある。構造主義的な「骨格」と、ニューラルネットワークの「肉体」が融合することで、AIは人間と同等、あるいはそれ以上の複雑さと深みを持つ物語を生成する能力を獲得し始めている。
この進化は、「伝わる」という現象を科学的に解明することに他ならない。なぜある物語は人の心を打ち、別の物語は退屈なのか。その答えは、もはや神秘的な「才能」の領域ではなく、感情アークの形状、因果ネットワークの密度、そして意味空間上のベクトル配置として説明可能なものになりつつある。
しかし、技術の進歩は新たな問いも投げかける。AIが無限に物語を生成できるようになったとき、人間の作家の役割は何になるのか? 我々が感動する物語が、実は巨大な確率計算の結果に過ぎないとしたら、その感動の価値は損なわれるのか?
おそらく、答えは「共存」にある。AIは物語の構造やパターンを高速に処理し、多様なバリエーションを提示する強力なパートナーとなる。一方で、その物語に「魂」を吹き込み、最終的な意味を与えるのは、依然として人間の役割であり続けるだろう。計算論的ナラトロジーの深化は、物語を機械化するのではなく、むしろ物語という人間特有の営みの奥深さを、数理的な鏡を通して再発見させるプロセスなのである。
我々は今、ナラティブ・シンギュラリティ(Narrative Singularity)の入り口に立っている。それは、機械が物語を語り始め、人間がその物語を通じて機械(そして自分自身)を理解し始める、新しい文化の夜明けである。
参考文献一覧(文中引用)
- arXiv.org. Effectiveness of Prompt Optimization in NL2SQL Systems, et al. (2025).
- arXiv.org. Distill Not Only Data but Also Rewards, et al. (2025).
- “Computational Narratology and Narrative Extraction” (Survey).
- Feijó, B., et al. A Transdisciplinary Approach to Computational Narratology.
- Score: Long-term Story Consistency (2025).
- StoryWriter: A Multi-Agent Framework.
- Georgia Tech News. Using stories to teach human values to artificial agents.
- Neuro-Symbolic AI Survey 2020-2024.
- Disney Research. Visual Computing & Narrative.
- Creativity in LLM-based Multi-Agent Systems: A Survey (EMNLP 2025).
- Propp, V. Morphology of the Folktale (Contextual ref).
- Text2Story Workshop 2024. Tagging Narrative with Propp’s Character Functions Using LLMs.
- Netflix Technology Blog: Bandersnatch and Narrative Graph.
- Hierarchical Planning for Story Generation (2025).
- Causal Reasoning in LLMs (CARE Framework).
- Social World Models (2025).
- Netflix Tags and Content Analysis.
- Relational Arcs as Narrative Structure (CHR 2025).
- Netflix Tech Blog. Supporting content decision makers with machine learning.
- Creativity in MAS Survey.
- A Survey on LLMs for Story Generation (Findings of EMNLP 2025).
- NHK Science & Technology Research Laboratories reports.
(Note: This report synthesizes information from the provided snippets. Citations are linked to the snippet IDs provided in the prompt.)
引用文献
- Enhancing the Computational Representation of Narrative and Its Extraction from Text – CNR-IRIS, https://iris.cnr.it/bitstream/20.500.14243/430908/1/prod_459796-doc_179091.pdf
- (PDF) A Transdisciplinary Approach to Computational Narratology – ResearchGate, https://www.researchgate.net/publication/355814117_A_Transdisciplinary_Approach_to_Computational_Narratology
- Computation and Language 2025 – arXiv, https://www.arxiv.org/list/cs.CL/2025?skip=6825&show=1000
- Computation and Language 2025 – arXiv, https://www.arxiv.org/list/cs.CL/2025?skip=2100&show=2000
- Neuro-Symbolic AI in 2024: A Systematic Review – CEUR-WS.org, https://ceur-ws.org/Vol-3819/paper3.pdf
- Neuro-Symbolic AI in 2024: A Systematic Review – arXiv, https://arxiv.org/html/2501.05435v1
- From Adversarial Poetry to Adversarial Tales: An Interpretability Research Agenda – arXiv, https://arxiv.org/html/2601.08837v2
- (PDF) Neurosymbolic Narrative Generation for Cultural Heritage – ResearchGate, https://www.researchgate.net/publication/371829451_Neurosymbolic_Narrative_Generation_for_Cultural_Heritage
- Tagging Narrative with Propp’s Character Functions … – CEUR-WS.org, https://ceur-ws.org/Vol-3671/paper12.pdf
- (PDF) Tagging Narrative with Propp’s Character Functions Using Large Language Models (negative results) – ResearchGate, https://www.researchgate.net/publication/379381049_Tagging_Narrative_with_Propp’s_Character_Functions_Using_Large_Language_Models_negative_results
- Causal Reasoning and Large Language Models: Opening a New Frontier… – OpenReview, https://openreview.net/forum?id=mqoxLkX210
- Failure Modes of LLMs for Causal Reasoning on Narratives – arXiv, https://arxiv.org/html/2410.23884v5
- CARE: Turning LLMs Into Causal Reasoning Expert – arXiv, https://arxiv.org/html/2511.16016v1
- Visual Computing – Disney Research Studios, https://studios.disneyresearch.com/category/visual-computing/
- Machine Learning – Disney Research Studios, https://studios.disneyresearch.com/category/machine-learning/
- (PDF) Relational Arcs as Narrative Structure: Dynamics, Distribution, and Diachronic Change in Fiction – ResearchGate, https://www.researchgate.net/publication/398877197_Relational_Arcs_as_Narrative_Structure_Dynamics_Distribution_and_Diachronic_Change_in_Fiction
- SCORE: Story Coherence and Retrieval Enhancement for AI Narratives – arXiv, https://arxiv.org/html/2503.23512v1
- A Cognitive Writing Perspective for Constrained Long-Form Text Generation – arXiv, https://arxiv.org/html/2502.12568v3
- A Survey on LLMs for Story Generation – ACL Anthology, https://aclanthology.org/2025.findings-emnlp.750.pdf
- Annual Meeting of the Association for Computational Linguistics (2025) – ACL Anthology, https://aclanthology.org/events/acl-2025/
- Creativity in LLM-based Multi-Agent Systems: A Survey – ACL Anthology, https://aclanthology.org/2025.emnlp-main.1403.pdf
- ‘World Models,’ an Old Idea in AI, Mount a Comeback | Quanta Magazine, https://www.quantamagazine.org/world-models-an-old-idea-in-ai-mount-a-comeback-20250902/
- Social World Models – arXiv, https://arxiv.org/html/2509.00559v2
- Netflix and the Platformization of Film and Television Content Discovery – ucf stars, https://stars.library.ucf.edu/cgi/viewcontent.cgi?article=1297&context=etd2024
- Supporting content decision makers with machine learning | by …, https://netflixtechblog.com/supporting-content-decision-makers-with-machine-learning-995b7b76006f
- Experiencing the future mundane: configuring design fiction as breaching experiment, https://www.tandfonline.com/doi/full/10.1080/07370024.2025.2454555
- WhatIF: Branched Narrative Fiction Visualization for Authoring Emergent Narratives using Large Language Models – Autodesk Research, https://www.research.autodesk.com/app/uploads/2025/05/WhatIF-CC-paper.pdf
- Disney Research Releases Latest Round of Inventions, https://thewaltdisneycompany.com/news/disney-research-releases-latest-round-of-inventions/
- Mark Riedl – Georgia Tech Research, https://research.gatech.edu/people/mark-riedl
- Mark Riedl, human-centered artificial intelligence expert – Georgia Tech, https://www.gatech.edu/expert/mark-riedl-human-centered-artificial-intelligence-expert
- Mark Riedl – Entertainment Intelligence and Human-Centered AI Labs, https://eilab.gatech.edu/mark-riedl.html
- Using Stories to Teach Human Values to Artificial Agents – Georgia Tech News Center, https://news.gatech.edu/news/2016/02/12/using-stories-teach-human-values-artificial-agents
- A Brief Overview of the Narrative Intelligence Reading Group, https://www.cs.cmu.edu/afs/cs/user/michaelm/www/nidocs/DavisTravers.pdf
- A Brief Overview of the Narrative Intelligence Reading Group – AAAI, https://aaai.org/papers/0002-fs99-01-002-a-brief-overview-of-the-narrative-intelligence-reading-group/
- NHK技研公開2025で発見!放送と先端AI|AICU – note, https://note.com/aicu/n/n08ee98a8f510
- Edirlei Soares de Lima | adsai-department-site, https://ai.buas.nl/faculty/edirlei-soares-de-lima.html
- StoryWriter: A Multi-Agent Framework for Long Story Generation – ResearchGate, https://www.researchgate.net/publication/397456363_StoryWriter_A_Multi-Agent_Framework_for_Long_Story_Generation