F3: A2Aデモ 詳細台本
デモ所要時間: 約20分(セミナー内 15:00 – 35:00)
シナリオ: ブログ記事1本 → AI秘書がAgent toolでサブエージェントを起動し、SNS投稿・動画構成・LP案まで自動展開
事前準備チェックリスト
環境
- [ ] Claude Code 最新版にアップデート済み
- [ ] エージェント設定ファイル(SKILL.md / CLAUDE.md)が動作確認済み
- [ ] インターネット接続の安定性確認(有線推奨)
- [ ] Zoomの画面共有テスト完了
- [ ] フォントサイズをターミナルで拡大済み(参加者が読める大きさ)
デモ用素材
- [ ] デモ用ブログ記事の下書きを準備(テーマ: AI活用の実体験系が望ましい)
- [ ] ブランドバイブル / AI秘書の設定ファイルがロード可能な状態
- [ ] 分身AIの判定ロジックが動作確認済み
バックアップ
- [ ] デモ成功時の録画を事前に撮影済み(後述のバックアップ手順用)
- [ ] 録画ファイルをZoomで即座に共有できる場所に配置
- [ ] 静的な成果物スクリーンショット(万が一の最終手段用)
リハーサル
- [ ] 本番と同じ環境で最低2回の通しリハーサル完了
- [ ] デモ所要時間を計測済み(目標: 実演部分8-10分)
- [ ] 想定外のエラー発生時の切り替えトークを練習済み
デモ本編: 進行台本
導入(2分)
さて、ここからが今日の本題です。
実際にAIがAIを動かすところを、ライブで見てもらいます。
>
今、画面に映っているのは Claude Code です。
ここに1本のブログ記事の下書きがあります。
[画面: Claude Codeでブログ記事ファイルを表示]
この記事を起点に、AI秘書がAgent toolでサブエージェントを起動して、
SNS投稿、動画の構成案、LP案まで一気に作ります。
>
私がやるのは、指示を1回出すだけ。あとは見ていてください。
指示出し(1分)
では、指示を出します。
[コマンド入力]
(セミナー当日のコマンドを入力)
「このブログ記事を起点に、ターゲット分析をして、
X投稿3パターン、動画構成台本、LP案を作って」
>
これだけです。たった一言。
エージェント起動の解説(3分)
[画面: エージェントが動き始める]
今、何が起きているか説明しますね。
>
まず、AI秘書が記事を受け取りました。
AI秘書は記事の内容を分析しています。
「誰に届けるべきか」「どんな切り口が刺さるか」を設計している。
[解説スライド14を一瞬挟む]
普通なら、マーケターが30分かけてペルソナ設計する工程です。
これが数十秒で終わります。
並列処理の解説(3分)
[画面: 複数エージェントが同時に動いている]
見てください。今、3つのエージェントが同時に動いています。
>
– 1つ目: SNS投稿を3パターン生成中
– 2つ目: 動画の構成台本を組み立て中
– 3つ目: LP案のワイヤーフレームを設計中
>
これがエージェント連携の核心です。
「人間→AI」の1対1ではなく「人間→AI秘書→複数のサブエージェント」。
会社で言えば、社長が「今月の施策よろしく」と言ったら、
企画担当・制作担当・分析担当が同時に動き始めるイメージ。
>
一人で順番にやったら半日かかることが、並列で同時に進む。
品質チェックの解説(3分)
[画面: 分身AIの判定が走る]
ここが私のこだわりポイントです。
>
今、生成されたコンテンツを分身AIがチェックしています。
「この表現、ひろくんの価値観に合ってる?」
「NGワード使ってない?」
「読者にとって本当に価値ある?」
>
単なる自動生成じゃないんです。
自分の価値観、自分のブランドでフィルタリングまで自動化している。
>
「AIに任せると品質が心配」という声をよく聞きますが、
品質管理もAIがやってくれるんです。
もちろん最終チェックは人間の仕事。
でも「明らかにダメなもの」は、ここでフィルタされる。
成果物確認(3分)
[画面: 成果物が出力される]
はい、完了しました。
>
ブログ記事1本から、約5分で——
>
X投稿 3パターン
それぞれ切り口が違います。
1つ目は共感型、2つ目は実績型、3つ目は問いかけ型。
>
動画構成台本 1本
3-5分の解説動画用。冒頭のフック、本題、CTA(行動喚起)まで設計済み。
>
LP案 1枚
ファーストビュー、ベネフィット、CTAボタンの構成。
>
これを一人の人間が全部やったら、
控えめに見ても半日。普通なら丸1日かかります。
>
しかも全部、私の「声」で書かれている。
コピペ臭い文章じゃない。
それは、分身AIに私の価値観を教え込んでいるからです。
デモまとめ(2分)
今見てもらったのは——
>
1. 指示は1回だけ
2. 複数のAIが同時に動く
3. 品質チェックまで自動
4. 全部「自分の声」で出力される
>
これが「AIを育てる」ということの実例です。
デモ中の参加者への声かけポイント
| タイミング | 声かけ |
|---|---|
| エージェント起動時 | 「今、裏で何が動いているか見えますか?チャットで感想聞かせてください」 |
| 並列処理中 | 「3つ同時に動いてるの、分かりますか? 一人でやったら何時間かかりますかね」 |
| 品質チェック時 | 「ここで分身AIが品質チェックしてるんですが、これ結構すごいと思いません?」 |
| 成果物表示時 | 「どうですか? これ、私が書いたっぽくないですか? コピペ感ないでしょ?」 |
バックアップ手順(デモ失敗時)
レベル1: 軽微なエラー(復旧10秒以内)
「あ、ちょっとエラーが出ましたね。
でもこれ、実はリアルなんです。AIも完璧じゃない。
だから人間のチェックが大事なんですよね。
ちょっと再実行しますね」
→ コマンドを再実行
レベル2: 復旧に時間がかかりそう(30秒以上)
「ちょっと今日のネットワーク環境がご機嫌ナナメみたいです。
ここは事前に録画しておいた映像に切り替えますね。
結果は同じなので、ご安心ください」
→ 事前録画を再生(Zoom画面共有でビデオ再生)
レベル3: 完全に動かない
「すみません、今日はライブデモの神様がお留守のようです(笑)
事前に撮っておいた映像でお見せしますね。
逆に言うと、こういう時のためにバックアップを用意しておくのも
AIチーム運用のコツです」
→ 事前録画 + 静的スクリーンショットで成果物を見せる
デモ後に伝えるべきこと
「今日見てもらったのは、あくまで私の環境です。
エキスパート講座では、みなさん自身の業務で
AIに委ねて味見する体験をします。
スキルも設計図も書きません。AIに指示して味見するだけ。
2日間で「AIに委ねるOS」を自分の中にインストールできます」