P.E.S.

政治、経済、そしてScience Fiction

世論調査について

DeLongのところで、Princeton Election Consortiumというブログが紹介されてました。アドレスを見る限りでは、プリンストン大学の人がやってるみたいですね(あくまでみたいですねってだけですが)。色々な世論調査を集計してより正確な世論調査を算出しているそうです。それによる4月から10月21日までの、オバマの予想獲得選挙人数の変化を表したのが下のグラフ。黒の実線は選挙人数推定値(10月21日現在でオバマ362人、マケイン176人)、その周りの色付き部分は95%区間です。赤い線はオバマが選挙戦に勝つ為に必要な選挙人数(270人)なので、オバマ勝利の予想となってます。これによると、マケインが流していた「オバマはセレブですよ!やな奴です!」CMと共和党全国大会&ペイリンは一時的なインパクトはあったものの、基本的にはずっとオバマ優勢ですね。

で、このサイトの10月17日のブログでなぜこのサイトの世論調査集計に意味があるのか、そしてなぜ他のメディア等は同じことをやらないのかについて書かれてますので、下に訳してみます。


世論調査報道の経済学 サム・ワン
メタ−アナリシスでの今のところの変化は、オバマのリードがわずかに拡大したことだけだ。ギャロップの全国世論調査はオバマのリードをわずか2%ポイント(通常の投票率モデル)もしくは6%(高投票率モデル)としていて、このような個々のモデルについて知りたい人もいるだろう。だが私自身は、統計上の信頼性の問題からこういう個々の調査結果は重視しない傾向がある。つまり個々の調査結果には興味がもてないのだ。集計した結果は、オバマはいまだにマケインを上回っている。ピリオド。

しかし、実はこの事からすら、学ぶべきことがある:個々の世論調査会社やメディアはあなたに、このレースを可能な限り正確には理解してもらいたいとはおもっていないのだ。なぜだろうか?

統計上の誤差のような不確実性は標本の数を増やす事により小さくする事ができる。調査者は調査対象人数を4倍にする事で、誤差を半分にする事ができる。平方根の関係があるのだ:標本の数がNなら、不確実性はNの平方根の率で減少してゆく。同じことはいくつもの世論調査をまとめることでも可能だ。さらにこれだと個々の調査方法の偏向による誤差も減少させる事ができる。そこに、このサイトのような世論調査の集計サイトの価値がある。メタ−アナリシスは2004年と2006年には非常に正確な予測を行った。今年もまたそうなるだろう。

では、なぜもっと多くの調査会社やメディアも調査の集計を行わないのだろう?CNNの調査の集計はその一歩ではある。しかしそれは例外といっていい。二つの要素がそれを阻害しているのだ。

調査会社間の競争 「うちの調査結果を他のと加えて平均してください」と言うのは、調査会社の利益とならない。また、統計誤差についても業界平均にさえ達していれば、さらに標本を集めて誤差を小さくするのは割に合わない。

飢えたメディアの獣たち 報道の予算が減少している中、意味あるニュースを流すのは予算的に大変である。世論調査を買って適当に予測を流せるのに、なぜわざわざきちんとした調査報道の為に金をださなきゃならないのか?世論調査の分野においては、市場の力は正確な予測を阻害する方向に働いている。たとえば、調査対象の人の数を4倍にすれば、不確実性を半分に出来る。しかし、より正確という事は、話を面白くするような世論の変化の可能性が低くなるわけで、なぜそんなデータに4倍もの金を払わなきゃならないのだろうか?

こういう理由から、メディアは可能な限り正確な世論調査の結果を報道しようとはしない。州ごとの世論調査についてのメタ−アナリシスの結果は、純粋なデータ減少であり(訳注:ここの部分は統計・計量の専門用語でしょうか?詳しくないので分かりません)、基本的には平均をとる事をより一般化させたものだ。よって、その結果は非常に安定したものとなる。これはブロッガー・ホビーストが価値を生み出している一例だといえる。我々は、調査会社やメディアを利用して付加価値を生み出しているのだ−安くね。

ま、結局はコストの問題に戻ってくるわけだが...