以下は佐々木俊尚氏のメルマガ(vol.118『マスメディアとインターネットはどう補完しあえるのか?(後編』)からの抜粋、データジャーナリズムについて。
データジャーナリズムは、政府などが持っている膨大な量の統計資料などのデータを分析し、それらをわかりやすく可視化していくというジャーナリズムです。これは調査報道手法から、デザインやプログラミングまでをも含む非常に広い分野の手法を統合させて、そこにひとつの重要な物語を紡いでいくというアプローチです。
(中略)
データジャーナリズムにおいても、やるべきことは普通のジャーナリズムと変わりありません。何かのできごとを取材し、そこからどのような物語を拾い上げるのかがジャーナリズムの仕事だとすれば、データジャーナリズムも同様に「データを調べて、そこから何らかの物語を抽出する」という行為を行っていくということです。
英紙ガーディアンは既にこのデータジャーナリズムを実践しているようです。その取り組みは、今年8月に米ブログ『Nieman Journalism Lab』に掲載された記事『How The Guardian is pioneering data journalism with free tool / フリーのツールを活用したデータジャーナリズムの先を行くガーディアン』に紹介されています。
ガーディアンは以前からデータジャーナリズムに力を入れており、その集大成は同紙のサイトにある『DATA BLOG』及び『DATA STORE』に結集されています。
同紙は、公開前に情報を得ていたこともありますが、一連のウィキリークス報道でも、賛否はともかく、そのデータジャーナリズムのノウハウを駆使し、多くの記事を発信しています。
一方、日本の場合ですが、国内の報道メディアで取り上げられるウィキリークス関連のニュースはその殆どが外電であることから、独自にデータを分析している(できている)ところは少ないのかもしれません。菅原琢氏(@sugawarataku)の著書『世論の曲解』や田村秀氏の著書『データの罠』でも指摘されていますが、データジャーナリズムは日本の報道ディアにとっては比較的弱い領域のようです(両書ともお勧めです)。
影響力のある報道メディアがデータの取り扱いを誤ると、大きな誤解や誤った分析結果を拡散してしまう恐れがります。様々な重要なデータがネットを中心に一般公開されるようになってきていることもあり、報道メディアにおける質の高いデータジャーナリズムに対する必要性は、これから益々高まるのではないでしょうか。