データとジャーナリズム

新聞を取らなくなって5年以上経つ。時折定食屋で読む程度だ。結局、あまり困ったこともないまま日々を過ごしている。ニュースは昼間会社で眺めるヤフーニュースか、車のラジオか、暇つぶしに眺めるラインニュースのみ。詳しい経済動向とかはよくわからないが、来年辺りから景気は悪くなるようだ。周りはそんなこと言っている。

 

先程NHKの番組を見ていたら、新聞は売れないし、ジャーナリストはあまり良い印象を持たれていないので困っているという話があった。なおかつインターネットの情報がこれだけ広まっている環境では、フェイクニュースも拡散しやすくなりジャーナリズムの信頼性がどんどん落ちているという(昔から信頼性があったのかどうかも謎だが)。

 

自分の仕事上、実験データ、製品データを扱うことが多いのだが、少し考えてみるとジャーナリズムの世界と自分の仕事には通じるものがあるなとふと思った。

 

データはある特定の条件の基、厳格なルールに従って採取される。ここでデータの信頼性は一般的に「精度」という言葉で表される(データの信頼性を表す用語に関してはたくさんある。おかしなことにISOでも統一されていない)。データは当然のごとく統計学を用いて、定量的にそれ自体の信頼性が評価される。

 

ここで正確なデータはある事象を表す「情報」である。直接目にしたり触れたり出来なくても、正確なデータを用いて物体の姿を推定することができる。

 

この情報を社会の大きな範囲(特に政治・社会問題)に適用すると、ニュースとなる。

 

ここで問題なのはそのニュースの信頼性をいまいち定量的に評価できないことだ。また実験とは違い、ニュースがどのような手順・条件の下得られたものかが不明確な事が多い。私のような一般人には、ニュースの信頼性はその情報源(大手新聞社、国の公式見解)にしか無いのでは無いかと思われる。(書いていて思ったが、気象予報は別だろうか?気象予報の信頼性はシミュレーションの種類?数式?流行り?よくわからん。勘のほうが当たる?)

 

だからどうしたということであるが、ジャーナリズムの世界にもその情報(データ、ニュース)の信頼性を定量的に評価できる手段はないのだろうか?

 

以前見た番組ではインターネット上のフェイクニュースの発生源(東欧だった気が・・・)を特定し、そこから発信された情報は危険だと自動的に判定されるソフトウェアが開発されていた。

 

それを見て思ったが、場所だけではなく、フェイクニュースを発信した個人・団体にも同様に格付けして自動的に危険性を表示するソフトウェアはすでにあるのだろうか?

 

当然ジャーナリズム業界の各社の情報の信頼性を格付けする取り組みがあるのだろうが、今日見たTV番組では紹介されなかった(めんどくさいので調べないが)。

 

色々述べたが、データ・ニュースという「情報」という共通事項から統計的にニュースの信頼性を評価できる仕組みがあれば、媒体によらず正確なニュースは読まれていくものと思う。