2012年12月5日水曜日

熱意とビジョン、そして適切なスキルさえあれば、データジャーナリズムは実践できる

プロジェクトメンバー2人、制作期間24時間、掛かった経費500ドル未満、しかしその効果は絶大―。ケニアのオープンデータを活用した実に小さな規模のデータジャーナリズム・プロジェクト「GoToVote!」が非常に大きな成果を挙げた、として、国際的なジャーナリストサポート団体 International Journalists Network (IJNet)のサイトで紹介されています。


「GoToVote!(選挙へいこう!)」はケニアで来年実施される大統領選に向けてケニア国内の有権者登録できる場所を検索するためのサービスで、アフリカにおけるジャーナリズムの発展を推進する団体African Media Initiativeと世界銀行が共催する「Code4Kenyaプロジェクト」が構築しました。サービス公開後数時間で約2500人が利用し、そのまま有権者登録をしに行った(=成果を出した)、とのことです。


「2人、24時間、500ドル未満」で作られたGoToVote!は、そのコストに見合い、機能も仕組も非常にシンプルなサービスです(構成は「Twitter Bootstrap」+「オリジナルのJavaScriptプログラム」+「JSON化した有権者登録場所のデータ」。ソースコードはGithubで公開されています)。何の新規性もなく、技術的にも何も学ぶものはありません。また、「オープンデータを活用」といっても、PDFファイルとして公開されていたドキュメントから投票所のデータを取り出した程度のことです。


にもかかわらず注目されているのは、「データジャーナリズムはカネと時間がかかる」「データジャーナリズムには超絶スキルが必要だ」といった風潮(アメリカ大統領選で大手メディアが展開したデータジャーナリズムプロジェクトはどれもリッチなものでした)に一石を投じ、「熱意とビジョン、そして適切なスキルさえあれば、良質なデータジャーナリズムは実践できる」ことを証明したからにほかなりません。

ケニアでは有権者登録されていないと選挙で投票できないため「事前の有権者登録」はとても重要、にもかかわらず政府からの公布が分かり難くくこのままでは投票率があがらないのではないか、との問題意識が発端となり、GoToVote!は構築されました。つまり、まず目的(投票率を上げる)があって、その手段として「データジャーナリズム」がつかわれたにすぎません。そしてここが重要なポイントです。

手段が目的化してしまうと、「誰のためのデータジャーナリズムか」が曖昧になり、単なるサービス開発競争に陥ることになりかねない、ということは、これからも忘れないようにしておきたいところです。

ちなみに「Code4Kenyaプロジェクト」には「データを活用してジャーナリストに変革をもたらす」という設立理念があるようで、こうした下地があったからこそGoToVote!のようなサービスが生まれたのかもしれません。

最後に、冒頭でご紹介した記事に記載されている、GoToVote!から得られたオープンデータを活用したデータジャーナリズムプロジェクトに関する教訓をまとめておきます。

  • オープンデータを活用したプロジェクトは、高価である必要は必ずしもない
  • オープンデータを活用したプロジェクトは、大きな規模である必要は必ずしもない
  • オープンデータを活用したプロジェクトは、時間を掛ける必要は必ずしもない
  • オープンデータの活用はさほど複雑なことではなく、アイディア次第でシンプルかつ強力なサービスを提供できる
  • オープンデータは必ずしも「利用し易い形態で」提供されているわけではない
  • オープンデータは市民の役に立ってこそ、最大の価値がある

2012年9月4日火曜日

データジャーナリズム・ワークショップ

去る7月28日にJCEJGLOCOMの共催でデータジャーナリズム・ワークショップ「データジャーナリズム実践 データから社会問題を発見する」を実施しました。開催から少し間があいてしまいましたが、ワークショップのポイントを簡単にまとめておきます。ワークショップ当日の様子については、JCEJのブログにアップされている運営報告をご参照ください。


JCEJが主催するデータジャーナリズムのワークショップは今回で3回目となりますが、いずれの回も満員御礼となったことから、この分野に対する関心の高さが感じられます。国内ではあまり認知されておらず、学ぶ機会が少ない一方で、世界のジャーナリズムの現場ではスタンダードとなりつつある、という差し迫った事情もあるのかもしれません。

さて、座学中心の第1回データジャーナリズムを実践する際に利用するツールを学んだ第2回に続き、第3回の今回はより実践に即したスタイルを目指しました。データジャーナリズムに関する日本語の参考資料が少ないことから、午前の部と午後の部の2部構成とし、午前の部でまずデータジャーナリズムに関する講義を行い、続けて午後の部で実践的なデータジャーナリズムに取り組む、という流れとしました。

午前の部では、データジャーナリズムに欠かすことができないオープンデータの国内最新事情についての講義をGLOCOMの庄司昌彦さんが、そしてデータジャーナリズムの最新動向についての講義を私が、それぞれ担当しました。講義の詳細については、ご参加いただいた山口亮さんによるTogetterが大いに参考となります。


なお、データジャーナリズムの最新動向については、私が使用した資料をSlideShareに、資料を作成する際に参考としたサイトをNAVERまとめに、それぞれアップしておきましたので、併せてご活用ください。




資料中でも触れていますが、データジャーナリズムは「チームで取り組む」こと、「読者目線」、そして「とにかくやってみる」ことが重要です。

データジャーナリズムは「データを活用して発見した事実を分かり易い形式で読者に届ける手段」であるため、データの収集、分析、可視化などのシーンでは、アナリストやエンジニアのスキルが要求されます。そのため、データジャーナリズムの現場ではジャーナリスト、アナリスト、エンジニアがチームを組むのが一般的となっています。また、データジャーナリズムでは、単にデータを可視化しただけの独りよがりはNGで、「読者にとって分かり易いか」「読者が洞察を得る手助けができたか」など読者目線が大きなポイントとなります。

ということで午後の部では、「ジャーナリスト」「アナリスト」「エンジニア」で構成される5名程度の「チーム」を即席で結成してもらい、各チームで「読者目線」のデータジャーナリズム・プロジェクトを、約3時間で企画してもらう、というワークに取り組んでいただきました。各チームでの取り組みについては、GLOCOMのオープンガバメント研究会のブログ、およびJCEJブログに掲載されている記事をご参照ください。全6チーム、6プロジェクトが企画されましたが、いずれも興味深いものばかりでした。


補足ですが、現在、データジャーナリズムの現場では、「テクノロジーの取り込み」と「読者の巻き込み」が進んでいますので、これからデータジャーナリズムに取り組む場合は、これらを考慮すると良いかもしれません。

<テクノロジーの取り込み>
ガーディアンやBBC、NYタイムズ、ProPublicaなど、データジャーナリズムに率先して取り組んでいるメディアは、優秀なエンジニアの採用を加速しています。Googleはデータジャーナリズムに必要なツールを開発したり、データジャーナリズム関連のプロジェクトに出資するなど、データジャーナリズムを強力にバックアップするようになりました。また、米国のジャーナリズムスクールではテクノロジーを学ぶ、あるいはテクノロジーを活用してイノベーションを起こすためのプログラムが導入されはじめました。

<読者の巻き込み>
ユーザの理解を促進する「インタラクションの実装」、「(読者からの)リアクション(コメントなど)の取り込み」、「N次創作(利用したデータを公開し、ユーザに別の視点から調査してもらう)の促進」など、読者を巻き込むことに主眼が置かれるようになってきています。

第4回のワークショップを9月1日に実施したのですが、これについては後日改めてまとめてみたいと思います。

2012年6月28日木曜日

データジャーナリズムアワードでみる世界のデータジャーナリズム最新動向

先月末(5月31日)、秀逸なデータジャーナリズム・プロジェクト(データを駆使した調査報道)に贈られる「データジャーナリズムアワード」の受賞プロジェクトが決定しました。データジャーナリズム版ピューリッツアー賞(言い過ぎ?)的な位置付けであるにも関わらず、国内ではあまりフォローされていないようですので、以下、少しまとめておきます。

今回が初開催となるデータジャーナリズムアワードは、この分野に力を注ぐGoogleが公式スポンサーとなり、CNNやBBC、ル・モンドなど世界各地の報道機関に所属する上級編集者らで構成される世界的な編集者ネットワーク「Global Editors Network(GEN)」が主催し、世界各地で実施されているデータジャーナリズム・プロジェクトが一堂に会す、ということで、データジャーナリズムの最新動向を押さえるうえで個人的に注目していました。余談ですが、編集者ネットワークGENにはブログ 世界を変える個人メディア』や『あなたがメディア! ソーシャル新時代の情報術』の著者、ダン・ギルモア氏も参加されています。


データジャーナリズムアワードの目的はサイトに英文で記載されていますが、抄訳すると以下のようになります。

  • 最も優れた取り組みにスポットを当て、データジャーナリズムのレベル向上に貢献する
  • ジャーナリストを刺激する
  • 編集者やメディアの経営者にデータジャーナリズムの価値を知ってもらう
  • ジャーナリスト、開発者、デザイナーなど、データジャーナリズムに関わる人たちの連携を促進する

審査委員にはNewYorkTimesやトムソン・ロイターの編集者、Googleのエンジニアなど、10名のデータジャーナリズムのスペシャリストが名を連ね、そしてそのトップに立つのがProPublicaのPaul Steiger氏です。

データジャーナリズムアワードには3つのカテゴリー「データ駆動調査報道」「データ可視化/ストーリーテリング」「データ駆動アプリケーション」と、2つのレンジ(対象範囲)「国家・国際部門」「地域部門」を掛け合わせた全6部門が設定され、各部門ごとに受賞プロジェクトが決められます。

  • DATA-DRIVEN INVESTIGATIONS National/international
    データ駆動調査報道の国家・国際部門。 社会問題をあぶり出す、あるいは社会が特定の問題に対する結論を出すために、データを分析・調査して新たな事実を見つけ出した、優れたデータ駆動型の調査報道に贈られる。
  • DATA-DRIVEN INVESTIGATIONS Local/regional
    データ駆動調査報道の地域部門。
  • DATA VISUALISATION AND STORYTELLING National/international
    データ可視化/ストーリーテリングの国家・国際部門。社会が特定の問題に対する結論を出すために、
    データをグラフや地図などの形態で可視化し、それを活用することで読者の理解を深めた、優れたプロジェクトに贈られる。
  • DATA VISUALISATION AND STORYTELLING Local/regional
    データ可視化/ストーリーテリングの地域部門。
  • DATA-DRIVEN APPLICATIONS National/international
    データ駆動アプリケーションの国家・国際部門。公共的に重要なデータを、読者にとって分かり易くかつシンプル、そして再利用を考慮した形式で提供している、優れたプロジェクトに贈られる。 
  • DATA-DRIVEN APPLICATIONS Local/regional
    データ駆動アプリケーションの地域部門。

本筋である「データ駆動調査報道」の他に、データジャーナリズム最大の強みである「データの可視化/ストーリーテリング」や「データ駆動アプリケーション」が設定されているのが特徴的で、データジャーナリズムでは調査力や文章力とは別に、テクノロジーに対するある程度深い理解が求められることがわかります。

また、選考基準を読んでいると、単にデータを可視化しただけの独りよがりのプロジェクトはNGで、「読者にとって分かり易いか」「読者が洞察を得る手助けができたか」など、読者目線も大きなポイントとなっています。



さて、データジャーナリズムアワードは今回が初開催だったにも関わらず、アメリカ、イギリス、フランス、ドイツ、ロシア、メキシコ、フィリピン、ケニヤ、ウガンダなど世界各国の報道機関や、フリーランスのジャーナリストから300を超えるデータジャーナリズム・プロジェクトがエントリーされました(残念ながら日本からのエントリーは無かったようです)。このうち58のプロジェクトが最終選考に残り、今年4月の国際ジャーナリズムフェスティバル期間中に開催された最終プレゼンを経て、各部門の最優秀プロジェクト(6プロジェクト)と3つの佳作プロジェクトを含む計9プロジェクトが、栄えある第一回データジャーナリズムアワードを受賞しました。

受賞プロジェクトの成果物は可視化されているものが多いため、言語の壁があるとは言え、どれも見応えがあります。これらの中で気になったのは米シアトルタイムス(The Seattle Times)が、データを収集・分析・可視化することで特定の医薬品(メタドン:Methadone)による被害を明らかにした「Methadone and the Politics of Pain」。2012年のピューリッツアー賞も受賞したこの調査報道は、最終的には政治を動かしたこともあり、データジャーナリズムの可能性を大いに感じさせてくれました。

また、スイスのPolinetz AGによる、法案の可決・否決状況など政治の動きを可視化する取り組み「Transparent Politics」にも注目したいところ。ジャーナリズムの重要な役割ともなっている「政治監視」の強化にもつながるのではないでしょうか。Googleもアメリカ大統領選の動向を可視化するサービス「Google Politics & Elections」をリリースするなど、この分野でのデータジャーナリズムはまだまだ広がることが予想されます。日本での取り組みも期待したいですね。

なお、ここでは触れなかった7つのプロジェクトを含め、全ての受賞プロジェクトをNAVERまとめにまとめておきましたが、早稲田大学ジャーナリズムコース准教授・田中幹人さんによる一連の関連ツイートが参考になります。


データジャーナリズムアワードの最終プレゼンも行われた国際ジャーナリズムフェスティバルに参加された朝日新聞・平和博さんによる、データジャーナリズムに関する一連の記事も理解を助けてくれると思います。


「データ可視化/ストーリテリング 国家・国際部門」で受賞したガーディアンが、自社のサイトに総評(英語)を掲載しています。


ちなみにガーディアンによるデータジャーナリズムに対する取り組みは非常に進んでおり、一見の価値があります。機会があればまとめてみますね。