データの眩惑: データを見る理由と、やってはいけないこと
ゲスト執筆者のボブ・スーはOnCorpsの創設者でありCEOである。OnCorpsは適応決定分析を行う企業で、人間の行動と、それがどのようにチームのパフォーマンスを推進するかに関して専門的知識を有している。
ロンドンでは冬の間、ホテルの窓はぴっちりと閉めきられている。最近、私がホテルの部屋に入ったとたんに何かの臭いがした。腐敗した、どこか手の届かないところで動物が死んだような臭いだった。臭いは少し経つと消えるので、それ以上は何も考えず、夕食に出かけた。だが部屋に戻ってくると、また臭いがした。
臭いは実際に部屋からなくなるわけではない。消えるのは、それを認識する自分の能力だ。このように、いわゆる神経順応というものは、デジタルの世界にも同様に押し広げられる。
人はデータに眩惑されるものであり、データの量が大きければ、意思決定者がデータに惑わされる可能性は増す。そこで、このように「データ盲目」となってしまう根本的な原因を探ることで、組織は重要な分析において強みを持つことになるだろう。
より明確にデータを見る方法と、もっと効果的にデータを利用する方法
投資家が明らかに問題のある株に殺到してしまう理由の一つは、神経順応のせいかもしれない。あるいは、現役の人間が何か新しいものの脅威を過小評価してしまうのも、そうかもしれない。火災警報器のように、偽陽性の恐れのある警告は、断固とした行動をとることをためらわせてしまうが、これによって、データによる別種の眩惑が生じる。完璧なサイバー・セキュリティの警告がよく見過ごされる理由の一つはこれだ。
残念ながら、圧倒的なデータ量のせいで、多くのプロジェクトはリソースの大半をデータ処理とグラフ化に費やすことになり、意思決定に集中するためのリソースはほとんど残らない。データに惑わされる原因には多くの要素がある。神経学的な要因もあれば、文化的な要因もある。全体をまとめて見るならば、論理的に行動するという人間の能力のジャマをしているのは、これらの要因である。
それを認識し、克服する3つの方法は次のとおりだ。
1.テクノロジーではなく、意思決定に集中すること。企業が2013年にビッグデータ・テクノロジーにかけた費用は全世界で31億ドル以上であり、その値は急速に伸びている。ABI Researchによるある研究では、ビッグデータへの取り組みが成功したと回答した組織は、たったの27%であることが分かった。ほとんどの場合、膨大な量のデータが利用可能であっても、ゴミの中から重要な情報を見極める能力は手に入れにくいものである。
大規模なストレージやアナリティクス・ソリューションを獲得し、実装することよりも、必要な意思決定に集中することが組織には求められる。そうすればよりスマートで、より考え抜かれた意思決定を行う態勢が整い、データの海で溺死するのを回避できるのだ。
2.意思決定をデータの正当化に利用しないこと。自分自身へシンプルに問いただしてみよう。意思決定を行うためにデータを利用しているのか、あるいはデータを正当化するためにデータを利用しているのか?
選ぶべきデータがあまりに多いと、われわれは確証バイアスに陥りがちだ。つまり、自分の望む結論を後押ししてくれるような項目や結果のみを選んでしまうということだ。ここで重要なのは、それを認識し、偏見にとらわれず、先入観をもたないで個々の状況を検討することである。
3.偽陽性に警戒すること。1700年代、長老派の牧師トーマス・ベイズは、事前確率から現在の確率を関連づけるための公式を生み出した。この基礎公式では、われわれが何らかの極まれな事象を検討する際、その方法が信頼できるものであったとしても、偽陽性率は非常に高いことが示されている。
珍しい出来事を発見するためにビッグデータを利用する時、われわれはベイズの考え方を無視する傾向にある。無関係だと思われる情報を受け取るたび、社内スタッフはそれに続くデータをますます無視するようになる。データの量が多ければ多いほど、問題はより大きくなる。偽陽性を減らすには、偽のサインを減らすようなやり方で、出来事や警告をプロファイリングする必要がある。
組織は、既存のトランザクション・データを収集し、グラフ化することから抜け出せなくなり、決定の方向性を見失う可能性がある。だが、データに惑わされてしまう要因を理解すれば、情報を目的ではなく、手段として見る一助となる。
利用できるデータを四六時中収集し、グラフ化するのではなく、企業のリーダーは、決定を行うことから始め、適切なデータを探すために逆行しなければならない。
トップ画像提供:Shutterstock
- 関連記事:
- Apache Sparkが今後ブレークする6つの理由
- 知っておくべきモノのインターネットにおける4種類のデータ
- ビッグデータの失敗はテクノロジーよりも企業文化に原因がある
- ビッグデータ・ツール「Spark」はHadoopよりホットかも知れない、だがまだ問題がある
- データサイエンスにはオープンソースが不可欠
※本記事はReadWrite Japanからの転載です。転載元はこちらをご覧ください。
連載バックナンバー
Think ITメルマガ会員登録受付中
全文検索エンジンによるおすすめ記事
- アルパインがSparkでカーナビデータ分析の実証実験。RDBよりも数十倍の性能と多くの知見を獲得
- ビッグデータ分析で効果を発揮するAzure Data Explorerとは
- ベイズの定理でプロジェクトの失敗を予測
- コネクト、ビッグデータ活用を支援するデータ解析ソリューション「HARUNIRE」提供開始
- ビッグデータを並列処理するクラスタコンピューティングフレームワーク「Apache Spark 2.0」リリース
- ビッグデータを並列処理するクラスタコンピューティングフレームワーク「Apache Spark 2.2.0」リリース
- ビッグデータを並列処理するクラスタコンピューティングフレームワーク「Apache Spark 2.2.0」リリース
- ビッグデータを並列処理するクラスタコンピューティングフレームワーク「Apache Spark 3.0.0」リリース
- バズワードではないDX、3大クラウドベンダーのビッグデータ分析サービス
- 普通の開発者を讃えよう