投稿者: masa

  • “We Have This Data — Can We Do Something With It?”

    Everyone agrees by now: AI-first thinking doesn’t work.

    But here’s the thing — it still happens, all the time.

    You might not hear anyone say it out loud anymore, but you can see it in action every day:

    “We’ve got this data — can we do something with it?”

    “Is there any way AI can help us monetize this?”

    These behaviors still drive many projects forward — often unconsciously.

    This isn’t just a messaging problem.

    It’s a structural issue that leads to a common outcome:

    PoCs launched without a solid business scenario tend to become technical experiments that fail to inform meaningful decisions.

    Separate Ideation from Business Logic

    Phrases like “Can we do something with this data?” aren’t necessarily bad starting points. They can serve as prompts for exploration.

    But the real problem arises when such phrases are interpreted — or used — as concrete strategic instructions, without being reconstructed into a valid business scenario.

    Sometimes, frontline staff interpret them as directives from leadership and proceed with PoCs without any hypothesis or business validation logic.

    Other times, the person who made the comment genuinely believes in the power of AI to “figure something out,” and ends up rejecting more structured, hypothesis-driven approaches proposed by others — seeing them as off-target or unnecessary.

    In both cases, the result is the same: a project built on vague expectations, where AI is implicitly expected to deliver value on its own.

    It proceeds in form but lacks the structure needed to drive real decisions — and quietly fails to produce outcomes that matter.

    Business logic only works top-down

    When AI and data initiatives fail to deliver value, it’s often because the upstream business scenario wasn’t designed in the first place. What generates business value is a scenario like:

    What value will we provide, to whom, and what problem are we solving to achieve that?

    Only within such a structure can the role of AI or data be determined.

    This order can’t be reversed.

    Starting with the idea, “Can we do something with AI?” is fine in itself. But to turn it into a real business initiative, you’ll have to reconstruct the logic in this order:

    Value → Purpose → Problem → Solution Strategy → Tools

    You have to build from the trunk of the tree — business fundamentals — and only if necessary, tools like AI and data emerge as a means to an end. This is a top-down construction rooted in customer value and business vision.

    If you start from the branches — AI and data — that aren’t necessarily connected to the trunk, the business rationale for investment becomes vague. This is a bottom-up construction that starts from tools. And since computing power can deliver high output, it’s like having a powerful engine with no compass — the risk of missing the mark increases dramatically.

    Even if the initial idea came bottom-up from a business hunch, you need to restructure it top-down when building business logic.

    The structure of the field is also to blame

    In practice, many projects proceed to PoC with only the decision to “use AI and data” having been made — often between executives and sales — with no clear hypotheses or problem definitions. Meanwhile, the field teams face structural limitations in objectives, budgets, and time, leaving no room to even propose a proper hypothesis-testing process.

    As a result, PoCs end up being just technical experiments, disconnected from real business decision-making.

    These structural issues are often beyond the control of field teams. Either the upstream business logic is missing, or the motivation behind the investment is vague — like, “It’s DX, so we have to do AI.” (Sometimes this stems from investor pressure.)

    Once execution begins, it’s very hard to “enlighten” stakeholders. And team members who try to point out the structural issues are rarely rewarded — sometimes even seen as obstructive — and there’s no room for detours.

    In fact, in some cases, the most “rational” move for those facing unreasonable project structures is to quietly navigate around the core problems, produce a nominal success report, use it for PR, and exit early. The stronger the emphasis on “success” and career advancement, the stronger the incentives for this kind of outcome.

    Hypotheses and problem setting must come first

    This also affects how success is defined, but valuable business decisions don’t come from simply adopting outcomes that happen to look good — like an obvious correlation.

    They come from making the right decision based on sound business logic, and then using data to support and validate that logic.

    To do that, you first need to be able to ask:

    How do we form a hypothesis?

    What exactly is the problem?

    Say you want to improve ice cream sales, and you suspect that sales are related to temperature. That’s a hypothesis. How would you verify it? Maybe by incorporating weather data.

    What matters is that you had a clear hypothesis — which told you what data was necessary.

    On the other hand, if you just analyze sales and customer data blindly, without knowing what you’re trying to decide, you won’t gain meaningful insights.

    This is where the gap lies between “AI and data” as a starting point and a practical approach.

    Note:

    As of early 2025, executing general-purpose analysis has become significantly easier thanks to the integration of language models and analytics tools. For example, you can simply say, “I want to do this kind of analysis for this purpose,” and the language model will propose a method — and in some cases, even carry it out end-to-end. In fully automated setups, the process is handled entirely by the model. In other cases, a human intermediary — using the model to research methods — enables the same result seamlessly. This is no longer hypothetical; it’s already real.

    In this context, language models serve as a tool for directing the analysis, while analytics tools carry out the execution.

    That’s why what becomes even more important is the ability to ask:

    “What should we analyze — to support which business value?”

    What else needs to be validated — beyond analysis itself?

    Scenario design — the logic behind the validation process — now holds even more value.

    That kind of knowledge, judgment, and creative flexibility belongs to the domain of decision-makers and management. And its importance has only increased.

    Structural thinking is also critical for investment decisions

    When planning investment objectives, the absence of the following distinction increases risk:

    • Is the goal short-term and measurable (e.g., cost reduction)?
    • Or is it long-term and qualitative (e.g., developing new services or repositioning a brand)?

    If this distinction is blurred, and all initiatives are evaluated by uniform KPIs or ROI logic, then meaningful long-term projects get marginalized. Investment and strategy instead get funneled into low-risk, low-return areas — which are highly measurable, profit-linked, and crowded with competitors. Capital easily defines the winners there.

    What matters is whether the PoC aligns with your intent

    Messages like “Let’s leverage AI and data” still appear today — though perhaps with different intentions than in the past.

    In my view, these kinds of messages sometimes act as a kind of litmus test, surfacing less experienced audiences — not by targeting them directly, but by seeing who naturally responds.

    When outsourcing PoCs or implementation support, it’s important to be clear:  

    Is this about deploying tech and infrastructure,  

    or about supporting business hypothesis testing?  

    You need to communicate your intent — and understand the vendor’s intent as well.

    In closing

    To create value with AI and data, you need a logic structure that starts with:

    Hypothesis → Problem Setting → Strategy → Tools

    If you start with the tools, decision-making gets shaky, execution spins its wheels, and the investment won’t pay off.

    You can start with “Can we do something with AI?”

    But unless you have the structure to turn that into a value-creating process,

    your chances of success will depend heavily on luck.

    That’s the real trap in this space.

    And to be clear: this article is just a way to supplement experience around PoCs.

    There are organizations now that structure business logic from the start, with verification scenarios that go beyond technology. That accept escalations from the field, and correct their targets accordingly. Those organizations probably learned from some degree of PoC failure — and had people in management who took a fresh look at AI and data projects.

    If the PoC you’re seeing right now lacks business logic, looks like a tech-only test, or reports success with unclear business impact,

    then it might be time to review it from a management perspective.

    LONGBOW provides advisory services—primarily in Japanese—focused on addressing the lack of business logic in PoCs and AI initiatives. We support clients from hypothesis formulation through to scenario design.

    While our core services are in Japanese, we also offer English content for informational purposes. English support is available via written correspondence, such as email or shared documents.

  • AIとデータから始めるPoCが失敗しやすい「構造的な理由」

    少し古い話ではありますが、「AIが大量のデータを解析し、人間の発想を超えたインサイトを導き出す」というメッセージを、AIやデータ関連のソリューションベンダーからよく耳にしたのではないでしょうか。

    これは2010年代に頻繁に語られていたメッセージで、現在はこのメッセージには(完全な間違いではないにしろ)否定的な見解が多いと思います。

    とはいえ、「このデータで何かできないか?(=収益化できないか?)」という言葉に象徴されるように、今でも実際にはこの発想に基づいてプロジェクトが進められているケースが少なくありません。

    こうした考え方に従えば、「とりあえずデータを集めて、優秀なAIに食わせれば何かが見えるだろう」となりがちです。そしてその結果、多くの現場で「データありき、AIありき」の構造が生まれています。

    しかし実際のところ、AIもデータも単なる「手段」にすぎません。特に、スケーリング・高速化・自動化といった課題にはとても有効なツールですが、それ自体が価値を生むわけではないのです。

    発想とロジックを分ける

    「このデータで何かできないか?」という発言自体は、きっかけとして悪いものではありません。

    しかし、問題はそこからビジネス検証のシナリオに再構成されずに、発言そのものが「戦略・戦術的な指示」として扱われてしまう構造にあります。

    現場の担当者は、「それが意思決定層の方針だ」と理解し、ビジネスの検証シナリオや仮説・ビジネスロジックを立案しないままPoCに進んでしまう。

    あるいは、発言者自身が本当にそのような発想を持っており、担当者が再構成したビジネス検証のプロセスを「自分の要求とは異なる不要なもの」として退けてしまうこともあります。

    結果として、さも「AIがなんとかしてくれるだろう」と考えたかのような、漠然とした期待に基づく構造となり、プロジェクトは形だけ進行して、何も生み出せずに終わってしまうのです。

    ビジネス価値のロジックはトップダウンでしか構造化できない

    AIやデータを導入してもうまくいかないとき、その原因の多くは「上流のシナリオ設計が欠けていること」にあります。ビジネスとして価値があるのは、「どんな価値を誰に提供し、そのためにどの課題をどう解決するのか」というシナリオが存在するときです。そしてその中で、ようやくAIやデータという手段の位置づけが決まります。

    この順序は逆転できません。

    「AIで何かできないか」から始めるのは発想としてはもちろん良いのですが、最終的に事業として成立させるには、価値→目的→課題→解決方針→手段という順に再構成し直さなければならない。

    ツリーの幹からビジネスに必要な要素を組み立てる必要があり、その先に手段として、それが必要になった場合に限って、AIやデータが出てきます。顧客価値や事業のビジョンからスタートする、トップダウンの構成です。

    このビジネスロジックの組み立てを、幹とのつながっているとは限らない枝葉(AIやデータ)の方から進めた場合、投資のビジネス上の根拠は曖昧になります。これは手段からスタートするボトムアップの構成です。

    そして、コンピューティングがもたらす生産力は大きいので、「コンパスはないがエンジンの出力は大きい」といった具合に、的を外すリスクを大きく高めてしまいます。

    ビジネスの直感を信じてボトムアップで着想を得つつも、ビジネスロジックの組み立ての際には、一度トップダウンで整理し直す必要があります。

    現場の構造にも問題がある

    実際のプロジェクトでは、「意思決定層と営業の間で『AIとデータを使うこと』だけが先に決まり」、仮説も課題設定もないままPoCに進むケースが多々あります(ありました)。そして現場は現場で、目的と予算の構造的な制約と、裁量や時間のリソース的な制約から、正常な仮説検証プロセスを提案することができません。

    その結果、PoCは技術実験に終始し、ビジネスの意思決定に繋がらない、という結末に向かいます。

    このような構造は、現場の力では修正できないことが多いのが実情です。上流のビジネスロジックが不在か、あるいは「DXだからとにかくAI」といった曖昧な動機が投資判断の根拠になっているからです。(この動機は投資家に端を発する事もあります。)

    実行フェーズに入ってからの意思決定層の啓発は困難かつ、メンバーとしても評価されにくく(むしろ足を引っ張る人間とみなされかねません)、寄り道の余裕もありません。

    また、「不条理」にさらされた担当者にとっての合理的な解決策として、「問題点をうまく回避して成功を報告し、PRまで辿り着き、早期に離脱する」という、形式的なプロジェクト運営が現実的な落とし所にされているケースも散見されます。成功重視の圧力やキャリア志向が強いほど、こういう結末のインセンティブが上がるという背景構造があります。

    仮説と課題設定が出発点になる

    これは成功基準にも影響するのですが、ビジネスとして価値のある意思決定は、「結果が好ましいから採用する」(例:あからさまな相関が出る)のではなく、「ビジネスロジックとして正しい判断を、データで裏付ける」ことで生まれます。

    そのためにはまず、「どうすれば仮説を立てられるか」「何が課題なのか」を明らかにする必要があります。

    たとえば、アイスクリームの販売を改善したいとき、「売上と気温が関係ありそう」と思ったなら、それが仮説です。ではどう検証するか?例えば、気象データを取り込むことで確かめられるかもしれません。

    ここで大切なのは、「明確な仮説があるからこそ、必要なデータが定まる」という順序です。

    反対に、売上データや顧客属性を闇雲に分析しても、「それで何を判断したいのか」が決まっていなければ、意味のある示唆にはなりません。データとAIは分析の手段だからです。

    「AIとデータ」というキーワードを起点にしたアプローチと実務的なアプローチのズレがここにあります。

    補足:

    ただし2025年初頭の時点ではすでに、言語モデルと分析の組み合わせによって、一般的なアプローチでの分析はかなり簡単になりつつあります。たとえば、「こういう目的で、こういう分析をしたい」と伝えるだけで、LLMが分析を提案し、実行まで担ってくれる。これは全自動のケースもあれば、担当者に依頼することで(担当者がLLMで分析手段を調査し)自然とそのように進むこともあり、これはすでに現実になっています。

    ここで言語モデルは分析をディレクションする手段、分析ツールが分析自体の実行手段、としてそれぞれ機能しています。

    だからこそ重要になるのが、「どんなビジネス価値を裏付けるために、何の分析をすべきか」「分析以外に何を検証すべきか」というビジネスロジック、検証シナリオ設計の部分です。シナリオ設計に関する知見、判断力、そして柔軟性や独自性は、意思決定層やマネジメントが担うべき領域であり、むしろ以前より価値が高まっていると言えるでしょう。

    投資判断にも構造的な視点が必要

    目的や投資の設計でも、次のような視点が欠けているとリスクが増大します。

    • 短期で測定可能な目標(例:コストの削減)なのか
    • 長期的・定性的で測定が難しい価値(例:新たなサービスの開発、ブランド・ポジションの変更)なのか

    この区別が曖昧なまま、「KPIやROIを明確にせよ」という判断基準だけで横並びに評価してしまうと、長期的に意味のあるプロジェクトが正しく扱われず、低リスク・低リターン・競争の激しい(測定や予測が可能で、利益にも直結するので、多くのプレイヤーが参加し、資本で優劣がつきやすい)領域に投資や戦略が集中することになりかねません。

    見極めるべきは「中身のあるPoC」かどうか

    現在の「AIとデータを活用する」というメッセージには、かつての期待を煽る目的というよりは、むしろ「経験の浅い潜在顧客を浮き上がらせる」ために発されている側面もあるように思います。

    PoCや導入支援を外部ベンダーに依頼する場合にも、「技術実験や型式的なプロセス・インフラ導入として支援したいだけなのか」「ビジネスの仮説検証を支援したいのか」、意図を伝えると同時に、ベンダーのビジネスの意図を見極める必要があります。

    おわりに

    AIやデータを活用して価値を生むには、「仮説→課題設定→方針→手段」という論理構造を組み立てる必要があります。手段から始めてしまうと、意思決定はブレ、現場は空回りし、投資は回収されません。

    「AIで何かできないか」という問いから始まっても構いません。

    ただし、それをビジネスとして価値あるプロセスに変換できる構造を持たない限り、成功は偶然性に強く依存します。

    それが、この分野における大きな落とし穴だと考えています。

    そしてもちろん、ここに書いてあるのはあくまでも「PoCに関する実務の経験値を補うための視点」です。

    ビジネスロジックの整理は当然行っていて、技術領域に閉じない検証シナリオが存在する。現場からのエスカレーションを適切に受けて目標を軌道修正できる。そういう組織は増えました。

    ある程度の「PoCの迷走による失敗経験」を下敷きにして学び、また、マネジメントの目線でAI・データプロジェクトを見直した人材や組織、あるいは意思決定層がいた/招いたからでしょう。

    逆に現在のPoCにビジネスロジックがない、技術単体の検証に見える、成功の報告はあるがビジネスインパクトが不透明だ、と感じるのであれば、マネジメントの視点でPoCを見直してみることを推奨します。

    LONGBOWでは、PoCやAI活用の“ビジネスロジックの欠落”に対して、仮説設計・シナリオ整理から支援するアドバイザリーサービスを提供しています。PoCを通じた価値創出に不安や課題があれば、ぜひご相談ください。