2008年11月17日月曜日

マッシュアップサイト作成2

今回は前回に引き続き光速じゃらん について述べていきたいと思う。前回は言語の習得のしやすさとレンタルサーバでどの言語が使いやすいのかと言うような点から話を進めたが、今回はWebサイト全体のプログラミング構成やなぜこのようなインタフェースにしたか?、という点について様々な観点から説明して行きたい。



1.Javascriptでほとんどの処理を記述
今回作成したプログラムでサーバの担う役割はXmlHttpRequestによって送られた情報を読み取り、じゃらんWebサービスに送信するクエリを作成し、受け取ったデータをそのままクライアント側に送信するという極めてシンプルなものである。一方でjavascript側ではdomの操作、オブジェクト配列のソート等結構重い処理を行っている。これはサーバの負担の問題からである。javascriptを使いユーザ側のパソコンで処理させたほうがサーバの負担が少なくてすみ、アクセス数が上がっても耐える事ができる。それゆえ費用も少なくて済む。ただ、その分クライアント側のパソコンに負担が掛かって動作が鈍くなる可能性がある。しかし現在では現在Firefox3やGoogle Chome等次々とjavascriptを高速に動作させるブラウザが誕生してきているし、パソコンの性能も相当上がっているので今後問題とはならないであろう。Web動向全体の流れとしてもjavascriptを多用する方向に確実に向かっていると思う。光速じゃらんで99件のホテル情報を取得して安い順、口コミ順などに並び替える時、IE6,7を用いるを結構もっさりとした動作になるのだが最新のIE8はそこそこ高速であると聞いているしユーザをいらだたせる事もなくなるであろう。

 このような理由から処理をクライアント側にまわし、Webサービスからの情報の取得回数を減らし、こちら側のサーバとWebサービス側のサーバの負担の低減に努めた。Webサービス側のサーバの負担を低減させるためにできる限りクエリを短くするように配慮もしている。(というよりはクエリが長いと情報取得が遅くなるので短くするようにした。)



2.ユーザインタフェースについて


  • なぜ全画面で大きく表示せず全体をコンパクトにまとめたのか?
    大抵の地図マッシュアップサービスを見ているとページの余白領域をなくしできる限り大きく地図を表示していることが多い。インタフェース上でのメリットは画面を目いっぱい生かすことができ見やすいと事が挙げあられる、逆にデメリットとしては全画面を使う事により画面構成が難しくなる、画面が広くなりすぎる事によりマウスの移動に時間が掛かってしまうなどが挙げられると思う。文章も横いっぱいに広がると逆に読みにくくなる。大抵のサイトでも画面全体で表示すると言う事はあまり行っておらずせいぜいWidthが950くらいで固定されていることからもこのデメリットは大きいと思う。また解像度により画面が変わってしまい違和感を覚える人も多いと思う。で、サイトにもよるがどちらかと言えば画面全体を使うよりもwidth950くらいでレイアウトするのが最もインタフェース的に優れているのではないかと思う。そのような理由で全体をwidth960に抑える事にした、またサイトの現状がその程度の幅のものが多いためWebサイトに自然にマッシュアップサービスを埋め込ませるにはページ全体ではなくその程度の幅が求められる。そしてページにマッシュアップサービスを埋め込ませるという行為はSEO上で非常にメリットがある。通常のサイトのトップページにそのようなサービスを埋め込むとトップページのユーザ滞在時間(グーグルのアルゴリズムの一つとしてユーザがどれだけそのページに滞在したか?というデータを取っておりそれを利用している可能性は高い)も稼げ、そのページにブックマークしてくれる人も増えるであろう。逆にトップページから全体画面のマッシュアップサービスのページにリンクしているような場合であると、ユーザはどちらにブックマークするかも迷いそうであるし、トップページ下ではSEOが弱く、トップページに全体画面のマッシュアップサービスを持ってこようとすると、トップページのレイアウトが難しくなり、好きなキーワードをなかなか埋め込めなくなる可能性が高い。検索エンジン対策を考えるのであれば全体画面表示はやめた方が良いだろうとは思う。

  • 機能はドメインに特化させろ、Webにおいて「すべてある」は何もないのと変わらない
    ネットで何かを調べる時たいていの人は検索エンジンを利用する。検索エンジンにより情報のフィルタリングを行っているのである。ところがそのフィルタリングを行った先のサイトに何でもそろっていると返ってユーザは戸惑ってしまう。例えば「ホテル」と検索して地図情報なら何でも検索可能な「グーグルマップ」がトップに出てきても困る。このように我々は検索エンジンの返す結果に専門性というものを望み、何でもありでコンセプトがはっきりしないサイトを望むわけではないのである。でだ、このような背景があるにも関わらず「何でもよいから詰め込めるものは全部詰め込みました」っていうマッシュアップサイトが多い。そしてそのようなサイトは情報量が多すぎてうまく整理されていない場合が多く、分かりにくい。このような観点から見ればリクルートのドコイク?ってサイトは完全にミスっている。食べ物の口コミを調べるなら食べログの方が分かりやすいし、ホテルを検索するならば今回僕が作った光速じゃらんの方が断然分かりやすい。ドコイク?は目的が明確でない人が主なターゲットであり、リクルートというバックボーンがあってある程度認知されたものであり(検索エンジン起点で認知されるということはありえない)、個人がこのようなサイトを作ったところで誰からも見向きもされないことは目に見えている。色々なWebサービスを融合させたい気持ちも分かるが現状で儲かるサイトを作ろうと思ったらもう少しターゲットを明確にして機能をドメイン依存にすべきである。
  • 初心者でも簡単に使えるべき
    ユーザインタフェースの巨匠であるシュナイダーマンによると、良いインタフェースとは初心者でも簡単に扱え、上級者になれば更に素早く操作することが可能なものだそうだ。つまり最初からゴタゴタと使い方を読ますようなマッシュアップサイトは良いサービスとは言えない。使い方を読まずとも簡単に活用でき、使うに連れて徐々に理解できるサイトが良いマッシュアップサイトなのである。最初にごたごた説明を読ますサイトはRPGで言えば最初から全ての技・機能が使えるゲームみたいなものである、これではユーザは最初に何をやったらよいのかわからず困惑してしまう。できれば使い方を読まずとも徐々に使い方を理解して行けるというのが良いのである。一応光速じゃらんもそのような事を意識してつくっている。おそらくチュートリアルビデオを作っているようでは一般ユーザには普及しないであろう。まあチュートリアルビデオを見てでも使いたいほどの魅力があるならば話は別であるが・・・・

以上長くなったがマッシュアップサイト作成の上で特に考慮した点である。何らかの参考にして欲しいし、何か異論があるようならば積極的に連絡して欲しいと思います。

2008年11月9日日曜日

マッシュアップサイト作成

まあこのサイトを見る人で知らない人はいないであろうが近年マッシュアップサイトというものが盛んに作られている。WebにおいてマッシュアップというのはグーグルやYahoo!などが提供しているWebAPIを組み合わせて何か新しいサービスを構築する事を言う。材料となるデータや地図を会社が提供してくれるので比較的簡単に高度なWebサイトを構築する事ができるのである。
それで何か作ってみようと思い立ち光速じゃらん というマッシュアップサイトを作成してみた。光速じゃらんはGoogle maps API とじゃらんWebサービスを利用しており、じゃらんnetのホテル情報をじゃらんWebサービスから取り出して、それをグーグルマップに重畳表示している。
このサイトを作るに置いて気付いた点、苦労した点などについて色々述べていこうと思う。恐らく今後このようなマッシュアップサイトを作る人にとって参考になるはずである。
まず言語の選択である。PHP,Perl,Python,Javaサーブレット+JSPなどなどサーバサイド技術は数多くあるが一体何が適しているのか、筆者はPerlは使った事がないのでよくわからないがPHP,Python,Javaサーブレット+JSPの中ではPHPが適しているということを今回実感した。サーバの問題と習得のしやすさの2点がその理由である 。

まずサーバの問題であるがJavaはリソースの消費が大きいためレンタルサーバでなかなか使えるところがない。だいたい月2000円は取られ少々懐が痛い。次にPythonはGoogle App Engineという2008年4月にスタートしたグーグルの新サービスを使えば無料でサーバーを貸してもらえる。そこではサーバーサイドとしてはPythonだけが使用できるのである。更にグーグルのインフラを用いるので頑健性がある、いざとなった時でも安全そうである。しかし唯一のWebAPIサービスへのアクセス手段となるurlfetchという関数が曲者である。これはWebサービスにアクセスして5秒応答が返ってこないと接続を自動で切ってしまうため少しWebサービス側の動作が遅いとすぐにタイムアウトして結局情報を得られなくなる事が多い。光速じゃらんを作成するにあたって、前に2つのサイトをGoogle App Engineで作ったのだが(楽天Webサービスを使った楽々ホテル検索じゃらんWebサービスを使った楽々ホテル検索)いずれも少し長めのクエリを投げればタイムアウトする事が多い、楽天のWebサービスは特に応答が遅すぎて使い物にならない、関係ないがクエリにより料金に矛盾などしょっちゅう生じている。楽天トラベルAPIを使ったサイトがほとんど出てこないのはこのような理由からであろうと悟った。まあWebサービスがJSONP形式に対応していればjavascriptだけでサーバを持たなくても良いのでurlfetchを使わなくてもWebサービスから情報を取得する事はできるのだが、現状のWebサービスでJSONPに対応しているところは少ない。Google App Engineのサーバが海外におそらくあるということも問題である。「光速じゃらん」とじゃらんWebサービスを使った「楽々ホテル検索」では同じクエリを投げても大抵国内のサーバを使用している光速じゃらんの方が圧倒的に速い。それもそのはずでユーザがブラウザからリクエストを投げる(国内)→グーグルのサーバがキャッチ(海外)→じゃらんにリクエストを飛ばす(国内)→グーグルがじゃらんからのリクエストを受け取る(海外)→結果をユーザのブラウザに返す

とアメリカと日本を2往復するのだから当然返って来るのが遅いわけである。よってGoogle App EngineでPythonを使用してマッシュアップサイトを作ると言うのはあまり得策ではないと言える。他のレンタルサーバはどうかというとJavaよりはましだがあまり対応してない模様である。

最後にPHPであるが、これはほとんどのレンタルサーバで対応しており最も素早くサービスをスタートできる。圧倒的に個人でマッシュアップサイトを作ろうとするとサーバではPHPが有利であると言える。

次に習得のしやすさであるが、言語的には最も記述が少なくて覚えやすいのがPythonであると思う。Javaは冗長で難しいし,PHPもPythonほど可読性は高くない。ところがPythonは世界的にはPHPより普及しているが日本ではほとんど普及していない、それゆえ良くわからない所を検索エンジンで調べてみてもなかなか解答までたどり着けない、逆にJavaやPHPなら、特にPHPならば書籍もWebでの情報も充実しておりマッシュアップがやりやすい。以前JavaでAjaxプログラムを組んだ事があるのだがJavaであってもまだまだ情報量が少ない感じであった。これらの事情を考えると最も習得しやすいのはPHPであろう。Pythonは今後が期待されるが今のところはまだ時期尚早といった感じである。勉強しておいて損はしないと思う。

これらの理由でPHPで安い国内サーバを借りてマッシュアップサイトを作っていくと言うのが現状の流れであると思う。

2008年10月9日木曜日

モバイル地図アプリケーションフレームワークの提案

現在のグーグルマップモバイルのようなモバイルのアプリケーションは単にデスクトップアプリケーションの縮小版であり、モバイルという特性が十分に生かされていない。モバイルの地図アプリケーションにおいてはGPS情報や向きの情報を利用でき、また表示できる情報量が少ないなどの特性がある。この研究ではモバイルに適した地図アプリケーションについての関連研究をまとめ、そのようなアプリケーションを我々が簡単に開発できるようなフレームワークについて提案している。近い将来この論文で述べられているような地図アプリケーションが必ず登場してくるであろう。本論文はこちら→http://www2007.org/papers/paper287.pdf

A Mobile Application Framework for the Geospatial Web

1. INTRODUCTION

地理情報を用いたWeb上のアプリケーションが急速に発展してきている。Google MapsYahoo MapsのようなWeb ベースで地図に情報をマッピングするアプリケーションがGoogle EarthNASA WORLD WINDのような3Dの地理情報閲覧アプリケーションと同様に多くのWebユーザと開発者を魅了した。モバイルの分野でもGPSやデジタルコンパスと連動した地図のナビゲーションシステムが登場してきている。


この論文ではモバイルにおける地理空間アプリケーションの発展について最近の流行を考慮して議論する。そして我々は新たなナビゲーションの特性(GPSや傾きセンサ)を持ったデバイス上で開発者が革新的な地理ユーザインタフェースを作れる事を可能にし、なおかつ従来のデバイスの操作性を失わないようなフレームワークを提案する。


論文の章立ては以下のようになる



  • Section2:関連研究

  • Section3:最新のツールや技術を用いたモバイルWebアプリケーションの発展について議論する。我々はモバイルの位置に基づいたインタラクションの3つの基本的なステップを定義し、それを例によって説明する。またこの例により一般的なモバイルWebアプリケーションのフレームワークが必要であるということを述べていく。

  • Section4:我々のアプリケーションフレームワークを紹介し、それはセクション3で述べた必要性を満たすものである。

  • Section5:地理データを表現するのに、デバイスに依存しないXMLフォーマットを用いたLocal Visibility Modelについて述べる。これが我々のフレームワークの主な革新点である。


  • Section 6:我々のフレームワークをセクション3での例に適用する。Local Visibility Modelのおかげで例のアプリケーションは、従来の操作性を失わず、さらにデジタルコンパスと傾きセンサなどを用いる事でよりユーザ体験を向上させる事ができるのである。

  • Section7:まとめと今後の展望


2.RELATED WORK


位置情報を知らせるインタラクションの研究は何年間も積極的に行われてきている。

  • 仮想のポストイットメモやデジタルな落書きなどのように実世界にデジタル情報を付けるというような研究([4],[7],[18])が数多く行われている。(ただ単にデジタル地図に情報を書き込んでいく感じでそれほど新しいとも思えない。大量のデジタルポストイットから重要な情報のみをフィルタリングするというような事をやっていた)

  • 位置を知らせてくれるデバイスを使ってユーザはその位置に着いての情報にアクセスし、協調マッピング作業や位置に基づいた社会的交流に従事する([19],[26])


他の研究はモバイルの地理的交流の分野のなかで特定のサブドメインに焦点を当てている:例えばユーザの位置データを蓄積することに関するプライバシーの問題にずっと取り組んでいる([3],[5],[31])


また都会でのGPSの信頼性や精度についてずっと調べられてきている。代替の位置計測方法(無線LANGSMの基地局からの情報)が都会や室内環境でより適していると言うことが述べられてきた。([16],[17])


またGPSの誤差の程度についてユーザに隠さず知らせることでユーザの不安を和らげる研究[37]GPSの誤差による矛盾を防ぐために、誤差をロケーション・ベース・ゲームの建物の配置を決定するのに用いるなどしている[2]


我々はこれらの研究活動が我々の研究の事前条件として重要であると考えている。しかし我々の論文での主要なトピックはユーザと地理情報のインタラクションである。ほとんどのモバイルの地図アプリケーションがただ単にデスクトップの縮小版に過ぎない。しかしデスクトップのインタフェースをそのままモバイルに適用するのには無理がある[15],


モバイルユーザはデスクトップユーザより迅速な応答を地図アプリケーションに求め、さらにより目的志向である[35]。それゆえあまりに情報が多い地図は寧ろ弊害となることがある[37]


結果としてモバイル専用のインタフェースを作ろうとかなりの努力が行われている。Egenhofer[6]Smart Compass,Smart Horizon,GeoWandという3つのインタフェースを考案している。Smart Compassは常に行きたい目的地の方向を指し示したコンパスであり、Smart Horizonは特定の方向を指し示す事で、その方向の目に見えない部分をディスプレイに映し出すことができるものである。GeoWandはユーザが棒で物体を指し示す事でその物体の情報を入手する事ができるものである。そしてそのような特性を備えた製品が表れつつある。




3.DEVELOPING MOBILE GEOSPATIAL WEB APPLICATION


我々は次のモバイル地理アプリケーションのステップとして、開発者が携帯電話によって提供される革新的な性質(GPSやジャイロセンサの事だと思う)を用いて手軽に開発が行えるような、標準化されたオープンなフレームワークが必要なのではないかと考える。


デスクトップ上でオープンWebAPIが熱烈な開発者のコミュニティーを育てたのと同様に、モバイルにおいてもそのような開発者に適したフレームワークを作ってやる事で革新的な地図アプリケーションができるのではないかと思われる。


このセクションでは、我々はそのようなフレームワークに必要となる要素を導き出す。開発者が既存のツールとAPIを用いてモバイル地理アプリケーションを構築する時に取り組まなくてはならない問題について簡単な例を挙げて議論する。


図1は例として用いるアプリケーションの概略である。アプリにはGPS、ブラウザ、地理コードが埋め込まれたウィキペディアの記事が備わっている。


我々はわかりやすくするため、インタラクションの流れを端末の位置を知るPositioning、端末の位置に基づいた内容をAPIやその他のメカニズムを用いて取り出すSpatial selection、取り出した内容を端末のディスプレイに表示するPresentationの三つにわける。そしてそれぞれについて説明していく。

3.1 Positioning


デバイスごとにGPSデータの取り出し方は様々であるため、どのデバイスであってもGPSデータを同じプログラムで取り出せるように標準化していく必要がある。そこでブラウザからJavaScriptGPSに直接アクセスして座標を取ってこれるようにActiveX controlでデバイスの違いを吸収する。

3.2 Spatial Selection


通常のデスクトップアプリケーションの場合、地図情報を取得するとき、地図の中心から半径○○メートル以内、あるいは現在表示されている地図の範囲内といった検索要求をして、その範囲内の


データを取得するが、モバイルアプリケーションの場合より重要となるのは建物が視界、目に見えるかどうかである(field of view and visibility)。目に見えている部分と判断するには3次元のマップデータが必要となる。これについては4章で詳しく説明する。

3.3 Presentation


空間の選択プロセスの次に、選択された結果はモバイルデバイスでの表示のためにフォーマットされる。我々の例では、フォーマットはサーバで、地理情報が入ったデータベースから取り出した検索結果とともに一般的なXHTMLテンプレートを投入することによって行われる。


考えるべきところは、デバイスの画面サイズ、サポートされている言語、含まれるセンサなどにより開発プロセスが複雑になっており、個々のデバイスに様々な対応をしなければならない点である。表示形式だけではなく、インタラクションのあり方まで入り込んで考える必要がある。このことを考慮したうえで我々が考えるフレームワークは次の2つのことを考慮する必要がある


・フレームワークは、すべてのモバイルデバイスに適合するような統合されたデータ出力フォーマットを提供することにより、主題の一貫性(thematic consistency)を施行しなければならない。


・フレームワークはデバイスの能力を最大限に引き出すように開発者に薦めなければならない。(例えばスペックの低いデバイスでも出力フォーマットを意味のあるテキストに変えられる、あらゆる機能を備えたデバイスであればより複雑なリアルタイムユーザインタフェースを実現できるようにすべきである)


4. A FRAMEWORK FOR MOBILE GEOSPATIAL APPLICATIONS


このセクションでは我々のフレームワークの実装について説明する。このフレームワークではユーザの位置から見える建物かどうかに基づいて内容を選択する空間クエリエンジンを特色とする。またクエリの結果はデバイスや結果の表示方法にとらわれないXMLデータ交換フォーマットで返されることとする。これにより主題の一貫性(thematic consistency)とデバイスの能力(capabilities)を最大限に生かすように開発者を促す仕組みが施行される。


4.1 2.5D Environment Model


ユーザの視界に入るかどうかを検証するためには、経度、緯度、高度を持った3次元環境モデルが必要となる。3次元モデルを実現することは最新の技術により容易になってきている。


実装において2つのデータセットが用いられた。1つ目はテスト用として手動で集めたデータセットであり、図4左に当たる。2つ目はかなり正確に作りこまれたデータセットであるであり図4の右に当たる。それぞれの建物は一つの2次元ポリゴンで表されており高さの値を持っている。


(何を持って2.5次元と言っているのかは不明だがおそらく2次元マップであるが高さの情報を持っているというところが2.5次元なのであろう。)


4.2 Query Engine


我々のフレームワークにおいてクエリエンジンの空間選択プロセスは2つのステップからなる。最初のステップは現在位置を考慮して2.5次元環境モデルをデータベースから取り出すことである。同時にその地域におけるコンテンツ情報も取得する。2つ目のステップとして、クエリエンジンは実際にユーザから見えているポイントを発見する。具体的には図5のようになる。QUERY LOCATIONが現在位置であり、あらかじめ設けておいたデータポイントが見えるかどうかを判断して見えるポイントと見えないポイントの2つに分けている。


4.3 XML Query Result


地図の多様な表現方法やインタラクション方法に対応するために、我々は新しいXMLデータ交換フォーマットを開発し、我々のクエリエンジンによって返される結果をXMLデータに変換しブラウザに渡してやることにした。


次のセクションでは我々は表現方法に依存しないXMLのクエリ結果フォーマットであるthe Local Visibility Model (LVis)について詳細を説明する。


5. THE LOCAL VISIBILITY MODEL


Local Visibility Modelは検索結果空間の単純化された自己中心の概念である。LVisは3次元の情報を持っている。また標準的な単位を使用しており、例えばXSLTを使う事で簡単に意味のあるテキスト出力が行える。またLVisは極座標表記を採用しておりSmart CompassGeoWandといった本来ならばデカルト座標(直交座標)から極座標への変換が必要なインタフェースを簡単に実現できる。開発が容易となるよう、LVisは単純な空間モデリングメタファであるPoints of Interest(POI)とビルボードを使用する。


5.1 Points of Interest


伝統的な地理検索クエリはジオコードが付随した内容への照会であった。照会結果のデータは一つの点座標で表される。このようなポイント型のジオコードで座標が示される内容はLVis中ではPoint of Interest(POI)で表現される。


LVisは極座標を用いるのでそれぞれのPOIはユーザからの距離、方向(heading)、高位によって定義される。このようにPOIのテキストの記述は複雑な計算なしに生成されるのである。図6はPOIの要素のためのXMLのサンプルコードを示している。またユーザの視界には入らないポイントを含めて表示する場合はhpoi(hidden-poi)としてpoiとは異なったXMLが生成される


5.2 Billboards


LVisでは通常のPOIだけでなく、実際の環境構造(3Dの構造)も表現する。このアプローチ(3次元データを取ってきて表現に生かす)のためのモチベーションは次の二つである


・一つ目として我々はモバイルデバイスの環境の形状のローカルな知識が幾つかの先進的なセンサを用いるインタフェースのためにおもしろいデザインの特徴であると言うことを主張する。(意味不明→おそらく先進的なセンサを用いた場合では、点で建物を表現するだけではセンサの良さが十分に活かしきれないのでビルボードという表現方法が必要となるってことを言っている)


・2つ目として我々は、我々の周囲に蓄えられた環境構造がリアルタイムユーザインタフェースのために必要な事前条件であるという事を主張する。もしクライアントが周囲の3次元構造についての情報を持っているならば、地図情報はもう一度クエリをサーバに送ると必要なしで統合されたセンサーから反応して変化することができる。(ユーザが動いてもすぐさま最新の状況に対応できる、ちょうどグーグルマップで地図を移動した時に周囲の地図については既にブラウザに読み込まれていて新たにサーバから地図データを取ってくる必要がないって事に似ている?)

GMLのような従来のベクター構造で2D、3Dを表現している場合、人間が読む事ができず画像の出力には複雑な計算を伴う。これは我々の、環境構造を簡単にテキストで表現するという目的に反するために、より簡潔な構造の表現方法が必要であると考えた。そこでLVisではビルボードメタファを用いて環境構造を表現する。ビルボードは建物の特徴をユーザと直接面する四角形の壁で近似するものである。このビルボードはPOIと同様極座標で表せ、近くの建物をテキスト記述で表せ、計算なしに直接XMLからビルボードを構築する事ができる。XMLでの記述方法はPOIでの記述にビルボードの横幅の角度を表すhwidthと縦幅の角度を表すvwidthが加わったのみである。


5.3 Occlusion Detection
クエリエンジンは基本的な線をスキャンするアルゴリズムを個々のビルボードの間でオクルージョンを決定するために使われる。ビルボードのオクルージョンの発見をスピードアップさせるために、アルゴリズムは実際の建物の中でオクルージョンを計算しない。その代わり、アルゴリズムはそれぞれの建物を最初のステップとしてvisible cross sectionによって置き換える。それぞれのcross sectionはそれからチェックされる。LVisの計算が我々のクエリエンジンにより完全に行われた結果は図10のようになる。図10の上の部分は上から下を見下ろした図であり、下の部分は360度のパノラマの図である。ビルボードを確認しやすくするため「viewing beam」というものをもうけており、(角度的に)高いビルボードほど明るい色になっている。パノラマの図では明るい色ほど遠くにあることを示している。


5.4 Limitations
LVis
モデルでうまく行かない場合として次の2つがある
1.図11のようなアーチを描いた建物の場合は、建物の先が見えるに


もかかわらず見えないものと勘違いしてしまう。
2.
図12のような、一つの建物が視界の180度以上を占めるとき、一つのビルボードでは表現しきれないため図12のように3つのビルボードを使って表現する。


6.GEOSPATIAL USER INTERFACES


アプリケーションフレームワークに基づいて、我々はWikipedia Finderを実装した。このセクションでは我々のフレームワークとLVisで、異なったセンサーを持ったデバイスを用いて、いくつか可能なユーザインタフェースを実演してみる。


6.1 GPS-Enabled PDA


新しいスクリプトが一定期間おきに新しいLVisをサーバからXMLHttpRequestを用いて取り出されそれに応じてユーザインタフェース(表示画面)を更新する


図13のように現在見えている部分のwikipediaのきじが見えていない部分の記事とは分離されており、この部分が図1とは異なっている。


6.2 Sensor-Equipped Mobile Phone


商用のデバイスでGPSとコンパスを備えているものがなかったため図14のものを自作した。そして2章で説明したSmart Compass,Geo-WandPanorama GUIというものを実装した。Smart Compassは図15の左図のようになり、円の中心にユーザがいて、建物の方向が示されている。この矢印はユーザがどこを向いているかによって動的に変化する。Geo-Wandはスキャニングデバイスのように使われる、しかしいまいちどうするのかよくわからない。(ユーザがゆっくりと環境に沿ってデバイスをパンしている間、ユーザインタフェースは見えているWikipediaの記事の位置を指し示すと書いてある)、最後にPanorama GUIは360度全体を図15の右のようにパノラマGUIで表しており、近くの建物の情報を見る事ができる。


7.SUMMARY AND FUTURE WORK


この論文で、我々は将来携帯電話に取り付けられるであろうセンサによりどのような革新的な地理アプリケーションやユーザインタフェースが可能になるのかについて議論した。


また我々はWeb上で地理データを取り出す新しいAPIが必要である事を発見し、局所的な地理情報のXMLデータ交換フォーマットの候補としてLocal Visibility Model(LVis)を提案した。


そしてLVisがいかに多様なインタラクションのスタイルに対応できるかということを示した。


今後はビルボードによる表示が簡単すぎるので、簡潔さを失わない程度で3D化する、都会だけではなく田舎においてもビルボードは適用可能かどうかを調べる。ナビゲーションの機能を充実させるといった事を考えていきたいと思う。










2008年7月27日日曜日

Web2.0とこれからの日本

初心者向けにWeb2.0の一部を解説、ネットに少しでも興味を持ってもらえれば程度の話
近年Web2.0という言葉がネットの世界でもてはやされている。これは定義は非常に曖昧なのだが2000年当初にはなかった新しいネット世界の動きである。キーワードとしてはロングテール、ブログ、ソーシャルブックマーク、Youtube、SNS、集合知、クラウドソーシングなどが上げられる。ユーザによって書き込まれる、あるいはユーザの商品の購買履歴等、アクセスログ等の大量のデータとそれから有用な情報を抽出しようという手法などが合わさって新しい動きが起きているのである。グーグルはアドセンスという手法によってロングテールを実現した。アドセンスのロングテールというのは今までとても広告が出せなかったような企業にも広告を出すチャンスを与え、塵も積もれば山となる方式で利益を得ようとする事である。アマゾンでも売り上げの3分の1は書店ではほとんど置かれるような事がない本から得ており(数字は目安)、本の売り上げ順位のテールの部分から大きな利潤を得ている。またアマゾンは「この商品を買った人はこんな商品も買っています」というワードに代表される協調フィルタリングという手法により綿密にユーザが買いそうな本を推薦してくれる。

 このような動きが出てきているのが日本のYahoo!や楽天はどうか?これらの会社でWeb2.0の戦略を見つけるのは難しい。これは日本のベンチャーがほとんど技術的バックグラウンドがないままに巨大に育ったためと思われる。

 しかし最近では大量のデータベースから有意な情報を探し出すデータマイニング、テキストマイニング、ユーザの行動を予測し、適した広告を配信するための行動ターゲティング、協調フィルタリング等様々な取り組みが行われ始めている。その際たる例としてNTT Docomoのマイライフアシストプロジェクトがある。これは個人のおさいふケータイでの購買履歴やメール文書、GPS情報など様々なものからユーザの行動・嗜好を予測して、その時々に適した広告を配信するのである。これからネットの世界はリアル世界と融合し加速していくだろう。


2008年7月15日火曜日

Semantic Wikipedia

Semantic Wikipedia

セマンティックウェブという技術が近年注目されている。これはウェブページ中の個々の単語に意味を付与(タグ付け)して機械が扱い易い用にしようとする試みである。これが実現されるとWeb全体が一つのデータベースとして機能できるようになり、様々な知的発見が可能となる。本論文はWikipediaをセマンティックに扱えるようにしようとする試みである。本論文はこちら

http://www.aifb.uni-karlsruhe.de/WBS/hha/papers/SemanticWikipedia.pdf

1. INTRODUCTION

本稿ではWikipediaの機能をセマンティックウェブ技術を用いて拡張するという事について述べる。Wikipediaは世界最大の百科事典で、そしてボランティアによって運営されているものである。ところがこのWikipediaは未だに様々な分野のアプリケーションに対して応用されていない。現在のWikipediaの利用法は単に人が読むものであるに過ぎなく、形式化されていないためコンピューターが理解できない。そこでこの知の集積といえるWikipediaを機械が処理できるようにするために我々はいくつかの試みをしてみた。その試みは技術的な側面もあるが、主にはセマンティック技術を導入してそれをWikipediaに定着させることである。我々は解釈されたセマンティックデータをユーザに見せるためにウィキリンク構文と記事の表示方法の拡張を提案する。WikipediaRDF, XSD, RDFS, OWLなどのW3Cに乗っ取った方法で標準化して機械が理解できるようにすることで、検索要求に対する応答や統計的な処理、あるいは知識を素早く引き出す能力などが向上する。このプロジェクトの主な目的は近い未来に実際にWikipediaに拡張機能を持たせることである。

この記事の構成は次のようになっている

  • Wikipediaの達成した業績と欠点について評価してみる(Section 2)

  • 我々の(Wikipediaのセマンティック化に対する?)基本的な考えと、それを実際に適応させたときの効果について論じる(Section 3)

  • 我々が提案するシステムの根幹をなす構成について述べる(Section 4)

  • システムの具体的な実装法について概観する(Section 5)

  • どのような知識ベースアプリケーションに応用できるかについて様々な可能性を述べる(Section 6)

  • 本研究に関連するセマンティックウィキに対して簡単に評価を与える(Section 7)

  • 結論と研究で明らかになった問題点を指摘する(Section 8)


2. TODAY’S WIKIPEDIA

WikipediaWikiソフトウェアをベースに作られたものであり、誰でも辞書の内容を変更したり追加したりすることができる。またWikipediaにはローマ教皇を名前順や就任期間の長い順に並べたリストなど、ブラウジングを支援するための記事も存在する。しかしこれらのリストの編集はすべて人手で行わなければならず、リストに変更、追加、削除などがあった場合も人手で対処せねばならず非常に面倒である。また記事へのアクセス方法について言えば、フルテキストサーチ機能とハイパーリンクをたどるぐらいの事しかできない。とりわけ欠点といえることは人が読むことでしか記事にアクセスできず、機械が自動で情報を収集して2次利用する事が困難な状態にある。

3. GENERAL IDEA

誰でも簡単に編集でき、参加者同士で記事が妥当か判断し、直接的な規制は施さないという本来のWikipediaの考えを継承した上で我々のシステムに必要な他の考えも取り入れる。それには主に次の4つがある。

  • Usability
    ユーザーが特別な知識を持たなくても簡単に編集を行えるようにしなければならない

  • Expressiveness(表現性)
    機械が可読にしやすいフォーマットを選ぶ必要があるが、それを追求しすぎるとユーザビリティとパフォーマンスに支障をきたす可能性があるため良く考える必要がある

  • Flexibility
    ユーザが自然とwikiを使えるようになる必要がある

  • Scalability
    常に増加し続ける知識ベースに対応できるだけの拡張性を確保してパフォーマンスを維持しなければならない

  • Interchange and compatibility(交換と互換の問題)
    機械可読にするために具体的なインターフェースと輸出関数(機械語に置き換える関数?)が必要となる

ここからは編集する人の観点からとくにUsabilityExpressivenessFlexibilityに焦点をあてて述べていく。
3.1 The Big Picture(全体像)

何度も説明しているが、現在のWikipediaの使用法を継承しながら機械可読な形式に持っていくことがこの研究の目的であるが、それを実現するために次のような核要素にたどり着いた。

  • 種類(categories):内容によって記事を分類する

  • 種類別リンク(typed link):記事間のリンクをその種類によって分類

  • 属性(attributes):記事の内容に関連した特性を明確に述べる

Categoryについては既にWikipediaに存在するがそれは主にブラウジングの支援のためにある。Typed linkattributesについては新しい要素である。Typed linkの例としては“ロンドン”の記事から“イギリス”の記事へのリンクがあったとき、その関係を「is a capital of」と記述する。そうすることにより簡単な検索アルゴリズムでも十分「イギリスの首都はどこ?」という問いに答えられるようになる。またattributesは多くのデータの値を統合することが出来るもう一つの機械可読データである。我々のシステムの核となる特徴はFigure2のようになる。


.2 Usage of Typed Links
typedlinkは記事間にある関係を単なるリンクではなくセマンティックな意味づけされた

関係として解釈する。Wikiの編集者はtyped linkに対して自由なラベル付けが行えるようにする。また全てのリンクをtyped linkとする必要はなく、ナビゲーションのためだけに存在するようなリンクは通常のリンクとして残す。typed linkの行い方は例えば、通常のリンクは[[England]]としていたが、それを[[is capital of::England]]と書き換えることで簡単に行える、この方法なら既存の記事も容易に再編集可能であるし、誰でも簡単に編集することが可能である。またリンク間のエッジに複数の意味を持たせることも出来るようにする。先ほどの例で行くと[[is capital of::is the biggest city of::England]]などのように書くことも出来る。Typed linkは編集側にとって非常に自由度の高いリンクである。


    1. Attributes and Types

これもtyped linkと非常に良く似ていて属性、属性値の関係を[[属性:=属性値]]と書くだけである、ロンドンの人口の例で行くと[[population:=7421328]]といった具合にする。またtyped linkとよく似ているが、一つの属性に、複数の属性値を持たせることが可能で(例えば[[population:=7421328around 7.5 million]])属性は編集者が任意に定めることが出来る。このデータ等を利用してヨーロッパの都市を人口順に並べて表示するといったことが可能になるがそれには強力なクエリー言語が必要である。幸いにSPARQLという強力なRDFクエリー言語が存在するのでこれを利用することにする。またSPARQLの構文を知らなくてもユーザが簡単に高度な検索ができるようにする必要もある。

Atrributesには単位をどう処理するかの問題がある。Figure 4[[area:=609 square mile]]とあるが”square mile” を”mi2”と書いても良いし”sqmile”と書いても同じ意味になる、そこでシステムがこれらの表記の違いを自動で吸収することにする。その結果figure2atributeの欄には[[area:=609 square mile]]と表記しただけにも関わらずarea:1557303㎢(609 )と表記された。後のセクションで詳しく説明するが、ここではユーザーが単位の選択に迷うことがないとだけ言っておこう。


    1. Semantic Templates

セマンティック情報をあらかじめ埋め込んだテンプレートを用意し簡単にセマンティック情報の入った記事が書けるようにするってことを言っている。(完全なる予想だが例えばWikipediaである都市についての記事を書くとする、その時に人口を書く項目がテンプレートであったとするとあらかじめdatatypeinteger(人口は整数値)を埋め込んでおいたりすると自動的にセマンティック情報が付加される。)

    1. User Experience

Typed linkは”inverse searches”によってその価値を増す、”inverse searches”とは例えばHyde Parkがロンドンにあるとかかれた記事について、そこにあるinfoboxをクリックしただけでロンドンに位置する他の物についても検索してくれるのである。さらにデータの値はある特定のデータタイプと結びつけることも出来る。例えばある土地の座標を書いた記事があればそれが外部マップと結びつきどこにその土地があるのかが簡単にわかるなどである。(まだこの機能は完成してはいないが取り合えず例を挙げた)


4. DESIGN
この章では具体的な実装について説明する。全体の構成について紹介し、次にtyped link attributesについての評価の流れについて議論する。attributesについては宣言、エラーの扱い、単位の変換を含む。我々の提案するシステムをどのような形で実現しようか考えたところ、我々のシステムがほとんどRDFによって表現されうる事に気がついた。Typed linkは基本的にRDFリソース間のRDF特性(プロパティ)について述べているし、attributeは記事とRDFデータリテラルの間の特性と一致する。またRDFRDFSをシステムに採用することによりwikipediaの運営に不可欠で適当なフリーソフトも利用できる。またクエリー言語であるSPARQLにより簡単なデータアクセスが実現でき、RedlandのようなRDFソフトウェアライブラリにより外部からWikipediaを利用することも容易になる。全体のシステム像は図5のようになる。


4.1 Typed Links

次にMediaWiki内のTyped linkの入力、処理、出力の具体的な構造について説明していく

Typed linkRDFのプロパティに対して適切なURIを生成するために使われる文字列でありユーザがデータタイプを宣言する必要がなく、また自由にlinkに名前をつけることが可能である。しかしスキーマ情報が完全に欠如しているとアノテーションのタスクが困難となる。そしてたくさんの名前が同じ関係を表すのに使われていたり、同じ名前が異なる意味で使われるということが起こる。これらの問題は現在のwikipediaでも問題となっているがそれほど致命的な欠陥でもない。しかしこの問題に取り組むことによりほとんどの記事にたいして人間が可読な特殊な記事を作り出すことが可能となる。また同様にして(これもメタデータを増やし誤解が生じないようにする工夫?)Relationという名前空間を導入し二つの記事の間の関係を記述できるようにする。(たくさんの名前が同じ関係を表すのに使われているという問題に対処できていない例を示す。戦国大名というカテゴリがあったとする、このとき「織田」と「織田信長」が同一人物であるにもかかわらず違う人物としてリストに列挙されている場合が考えられる。このような問題を避けるためにスキーマ情報を増やして対処しようということである。)

 これらを追加したにもかかわらず、ユーザによって入力されたtyped linkの処理は関係に関する記事を含まない。だからストレージのバックエンドとして働くRDFトリプルストアに蓄えられるRDFトリプルにtyped linkを変換するためにローカルデータソースのみアクセスされる必要がある(意味不明)

 トリプルストアが記事に含まれていない情報を含んでいないということを確実にするため、我々は期限切れのトリプルを新しい情報を保存する前に削除しなければならない。

まとめるとユーザーによって引き起こされる記事の更新には次の3ステップがある

  1. 構文解析により記事からリンクタイプを抽出する

  2. セマンティック情報をRDF tripleに変換する

  3. 古いtripleを削除して新しいtripleに更新する

これらの操作は最小限のリソースで遂行されトリプルストアの更新は記事が保存された後に非同期的に達成される、編集が同時に行われることによって起こる衝突はMediawikiソフトウェアによって発見され解決される。(データの衝突、記事の更新時に古いデータが残ってしまう危険性の回避?)

 また我々のシステム構造はトリプルストアに検索要求をかけることにより現在のセマンティック情報にはいつでもアクセス可能になる。これは非常に便利である。なぜならセマンティックデータ上で動くアプリケーションがストレージインタフェースを参照するにあたって残りのシステムとは独立して実行できるからである。(良くわからないが処理速度の向上?)

4.2 Attributes

このセクションでは正式に属性データの語彙表現とXMLスキーマが表現するところのデータを関連付けて行きたいと思う。これを実現するには、エラー処理や単位の問題を考える前にセマンティック属性のデータタイプの宣言について十分に考える必要がある。

4.2.1 Value Processing and Datatypes

属性に関してまず最初に難しいことは、与えられた属性値を正しく認識することである。属性値はリンクとは違い構文解析を行ってその意味を見つけ出さなくてはならない。それゆえ適切にフォーマットすることはtyped linkと比べるとずっと難しくなる。

 形式的にvalue spacelexical spaceというものを区別する。例えばvalue spaceは整数の集まりで、lexical spaceは整数値を表現する文字列の集まりである。RDFにおいてデータタイプを表現するときに似たような概念化が行われるが、それはXSDに基づいている。

 現在wikipedia内で属性の支援をXSDデータタイプに基づいて行うことを試している。本当はRDFトリプルのデータの値を蓄えるのにXSD表現を使いたかったのだが、英語以外の言語の人が使えないという欠点があったので、ユーザがWikipediaの所定のlexical spaceからデータを入力できるようにした。これはXSDlexical spaceとは同じではない。形式的にデータ表現の間にある2つの変換を組み合わせる。1つはWikipedialexical spaceXSDvalue spaceの変換、もう一つはvalue spaceXSDのそれに相当するlexical spaceの変換。このようにすることによりあらゆる言語の人が編集してもデータの互換性を保つことができるようになるのである。

 ユーザに属性のデータタイプを宣言させるために、我々は新しくWikipediaに”Attribute”という名前空間を導入した。記事の中に関係とカテゴリーの時と同じように人間が可読な記述を与えることもできるがさらにデータタイプを明記したセマンティック情報も加えられるようにする。新しい統語構造の量を最小化するために我々はデータタイプのための3つ目の名前空間である”Type”を導入する。そして、内蔵されたセマンティックとの関係を使って、我々は単純に[[hasType::Type:integer]]と書けばよいだけにする。これは3.4節で説明されたテンプレートの作成を容易にする。

 一般的な作業の流れはtyped linkと比べて複雑なものとなる、属性値を記事から抽出するまえに属性値のデータタイプを発見しなくてはならないからである。これにはストレージバックエンドへの追加読み込み要求などが必要となり負荷がかかる。


4.22 Error Handling

Typed linkの場合とは違い、たとえ記事が文法的に正しいとしてもattributeを扱うときには入力をシステムが適切に処理できないという場合が考えられる。このようなケースはユーザが何もデータタイプの宣言をせずにattributeに言及した時だけではなく入力値がいずれのデータタイプのlexical spaceにも存在しない場合に起こる。この問題に対処するにはエラー内容をユーザに知らせてやれば良いのだが、知らせたところでユーザはそれに対処できないであろうから我々のシステムでは、エラーに対してある程度耐えられるようにしておき、またエラーを検知し、ユーザには単にエラーメッセージを出すだけとする。データタイプ宣言のエラーが生じたとき実行できるデータタイプを入力の構造から推定してエラーを回避する、基本的には数字の時には浮動小数点として、それ以外は文字列として処理する。データタイプ宣言されたがそのデータタイプがlexical spaceに存在しない場合はセマンティック情報を蓄えず、エラーメッセージだけを出すことにする。


4.2.3 Units of Measurement

現実的に“質”を表現するときには数値だけではなく単位も必要となる。単位の付け方はユーザによってまちまちで異なる単位系統(例:kilometers miles)や異なったスケール(例:kilometers と miles)で与えられる。ここで問題となることはRDFのツールではmilekilometerのような異なる単位系統同士を比較できないということである。

 そこで解決策として、ひとつは我々の手により自動単位変換を行い大部分のデータを同じ単位としてデータベースに蓄えてやる。もう一つは単位変換がまだサポートされていないものについてもその単位を認識し他の単位の値と混合するのを避けようとする事である。

 単位の自動変換において重要なことはスタンダードな単位をできるだけ少なくするということ(たくさん単位があるとわかりづらいのである程度統一してしまおうということ)と、ユーザが直感的に単位の自動変換が行われたのだとわかることである。

 形式上、単位サポート機能の追加が、Wikipediaのデータタイプのlexcical spaceを拡張したことになる。したがって単位情報もまたデータタイプによって与えられるようになる。


5. CURRENT IMPLEMENTATION

セクション4で説明した重要な部分はもうすでに実装した。MediaWikiの機能を拡張して、元のコードには修正を加えていないため、拡張した機能が大部分元のコードと独立しており簡単に実際に動くシステムを導入することができた。他により高機能な検索エンジンやXMLシリアライゼーションにおいてRDFを出力するモジュールなどを開発している。データの出力は外部アプリケーションからWikipediaの知識を利用するのに使われる。


6. APPLICATIONS

多岐にわたるアプリケーションがセマンティック情報により拡張されたWikipediaを基礎として実現可能となる。例えばwikipediaの知識をデスクトップアプリケーションに統合することや、高度なフォークソノミーを実現することや、多言語対応辞書の作成といったことが可能となる。

 多くのデスクトップアプリケーションはユーザにwikipediaからの関連情報を提示してやることでユーザビリティを向上させることが出来る。既にこれに相当することは行われていてamaroK メディアプレーヤーではシームレスにWikipediaからアーティストやアルバム情報を取得し、それをユーザに提示している。セマンティック情報が利用可能になれば更に高度なアプリケーションが利用可能になる。また領域限定のクエリー、例えば“ビートルズの影響を受けた音楽”というような要求にも答えられるようになる。さらに教育用アプリケーションにも利用できるし、カレンダーで現在の日付に起こった事についての項目を加えることもできる。これらはデスクトップアプリケーションに限定されずWebベースシステムでも同様に利用可能である。Webで言えば、様々な情報源からデータを集めるポータルサイトは明らかにWikipediaは有益となる。

 フォークソノミーの例で言えば現在タグは言語や文脈で区別されていない、例えば“gift”というタグがあるとそれはドイツ語での“毒”という意味か、英語の“贈り物”なのかわからない、また違った単語が同じ意味で使われている場合(例えば“country”,“state”,“nation”)もある。これらの問題に対してセマンティック情報は有益に働きタグの持つあいまいさを解消することが出来る。さらにセマンティックウィキペディアは多言語対応しており、例えば犬の画像を調べようとしてアラビア語で”犬”と打ち込むと、MediaWikiに取り込まれている辞典(Wiktionary)を利用することで他の言語の“犬”に相当する単語を検索にかけアラビア語の“犬”以外の“犬”についても写真を表示してくれるようになる。








7. RELATED APPROACHES
セマンティックな知識ベースを協力して編集するためにWikiを使おうという考え方は魅力的で、これを達成するのに多くのアプローチがなされている。

  • Playtypus Wiki(2004)
    最初のセマンティックウィキ、ユーザが セマンティック情報を専用の入力スペースに書き込むことで実現する。そのスペースは普通のwikiのテキストを書くスペースと分離されていた。ユーザはN3というソフトウェアを使いセマンティックデータを記述した。このアプローチはRhizome Wikiのような後のシステムにも影響を与えた。しかしこの両方ともRDF中心になりすぎたためRDFの理解とN3で記述する技術が必要となり一般人には理解しがたいものであった。

  • WikSAR(2005)
    セマンティックの内容をWikiテキストと同じスペースに書くことが出来るようになりユーザビリティが向上した。しかし機械可読なデータと人間が呼んで編集できるテキストとの統合が不十分であった。

  • S.Auer.Powlらのシステム
    正式な構造により重みをおいたアプローチもある。すなわちオントロジーの編集を重視しており彼らのWikiシステムはよりオントロジーのエディタに近いものであった、しかしリンクが作りにくいという致命的な欠点があった。

  • その他のWikiシステム
    最近では協力して作るのではなく個人用のデスクトップアプリケーションとしてのセマンティックWikiも登場してきている。




2008年7月7日月曜日

Spam Double Funnel

Spam Double Funnel:

サイトにアクセスした時、あるいは広告をクリックした時のデータの流れを探り、そこからスパム活動の傾向を知ろうという研究。米国のサイトを対象とした研究だから分かりにくかった。具体例のサイトとか知らないし。まあともあれこんな内容です。元も論文はこれ→http://www.cs.ucdavis.edu/~hchen/paper/www07.pdf

Abstract

検索エンジンの最適化技術(SEO)を駆使し、Webページの検索結果を上位に上げる事が広く行われている。我々は広く普及したスパム手法である“リダイレクトスパム”に焦点を当てる。リダイレクトスパムはスパムページがトラフィックを第三者のドメインにリダイレクトしていることにより見つけることができる。(リダイレクトスパムは、ユーザがあるスパムページを訪れるとすぐさま広告主である他のページにユーザを飛ばすという手法のスパムであると思ったがどうもこの論文では違うらしい。ググッたところリダイレクトとはプログラムの入力元や出力先を通常とは違うものに変更することとあった。つまりあるページにアクセスあるいはリンクをクリックするとそれが様々なドメインを経由してそのドメインから得た情報をページの一部として表示したり、アクセス情報を記録したりいろいろするらしい。)我々は5層2じょうごモデルをリダイレクトスパムを表現するために用い、層を解析する方法論を提示し、2つの広告キーワードの集合を用いてスパムと思われるドメインを発見する。2つの広告キーワードの一つはスパマーに狙われるキーワードを対象としており、もう一つは広告主に向けて入札額が高いキーワードを対象としている。我々の提案と結果はサーチエンジンがスパムに対して頑健性を増し、サイトの管理人がスパムのドアウェイページを取り除き、広告主がスパムページに広告を載せるような悪い宣伝主を発見するのに有用だろう。


1.Introduction

サーチスパマーとはクオリティの低いページをSEO技術を用いて検索結果上位に引き上げようとする輩を言う。一般的なSEOのテクニックとしてはキーワードの詰め込み、リンクファーム(例えば過度の相互リンク)、Webクローラーとユーザに異なったページを見せる手法(英語でCrawler-browser cloakingという、これはSEOが施されたページをクローラーに見せ、ユーザにはSEOは施されていないが見栄えが良いサイトを見せるという手法。例えばフラッシュで作られたサイトは検索エンジンとの相性が悪いためしばしばこの手法が用いられる。現在でもこの手法が蔓延っているのか分からないが・・・(もう古いテクニックでは?))などがある。最近の手法としては、スパム調査員から逃れるための手法として、click throuth cloakingというものがある。直接URLを入れて入力してきた人に対して偽のコンテンツを見せるというものである。(お気に入りから直接来た人はどうするんだと思ったが、スパムページだとお気に入りに登録する人などいないはずだから良いのだろう)

 

 我々はブラウザーに有名なスパマーによって制御された第3者ドメインを訪れるようにリダイレクトするリダイレクトスパムを扱う。多くのリダイレクトスパムページはシンジケーションを使っており、そこでスパムページの管理者はPay-Per-Clickプログラムに参加し、広告のポータルページを表示する。

 この論文では、我々はシンジケート(アフィリエイト会社やアドセンスのようにPay-per-Clickを行っている仲介業者)が絡んでいるスパムに特に注目して、リダイレクションスパムの活動を総括的に解析する。そして我々は5層2じょうごモデルを提案し、広告をスパムページに表示する流れと広告をクリックした時のトラフィックの流れを表現する。2つの異なった広告の検索用語のベンチマークを構築しStrider Search Ranger system[21]を何万ものスパムリンクを解析するために使い、我々は5層のそれぞれに存在する主要なドメインとドメインの特徴を発見する。

以下2章でSearch Ranger systemを概観し、ダブルファンネルモデルを説明する。3章ではスパマーを対象とした(リダイレクションスパムで良く狙われるターゲットで)検索ベンチマークを作る(スパム対象となる検索語を上から順にピックアップする)。4章ではスパム密度とダブルファンネルを3章で作成したベンチマークを用いて解析する。(どのカテゴリがスパムが多いか、スパム先のサイトはどのサイトが多いかなど)5章では広告主をターゲットとしたベンチマークを作り(入札キーワード額が高い順で検索語をピックアップ)、解析結果を4章の結果と比べる。(広告主が低いクオリティのサイトにリンクをはられて損をしないためにこのような調査も必要?)6章ではリダイレクトのないスパムであるがダブルファンネルモデルと関係するスパムについて討論する。7章では関連研究を述べ、8章では結論を述べる。

  

2.REDIRECTION SPAM

2.1 Definitions:Search Spam and Redirection

リダイレクトスパムは多くのドアウェイページと一つのリダイレクションドメインを結びつけるために大規模なスパマーによって広く使われている。またサーチスパムの中でもRedirectionのスパムはスパムであると決めやすい部類に入るということが書かれている。例えばクローキングや掲示板への大量の書き込みなどを行っている。スパムと適正なSEOとの区別が難しいがドアウェイページはスパムと断定しやすい要素が多くあり扱い易い。

 リダイレクトにはアドセンスのようにセカンドドメインから広告を取ってくる形式のものとセカンドドメインそのものにURLごとページを移動するものの2種類がある。本研究ではその両方を扱う。

2.2 Strider Search Ranger System

Strider Search Ranger Systemは以下のような3つの特徴を持ったスパムを自動で発見するシステムである。

  1. Web Patrol with Search Monkeys[19]

clawler-browser cloakingテクニック(人とクローラーに異なるページを見せるテクニック)を使うスパマーに対してはクライアントサイドも含め全てのスクリプトを実行することによりこれを見破り、click through cloaking テクニック(直接のURL入力に対して異なったページを見せるテクニック、サーチエンジンから来たユーザのみにスパムページを見せる)に対しても、サーチエンジンをクリックしたと見せかけるテクニックによりこれを見破る。

  1. Follow the money through Redirection Tracking

全てのリダイレクトのURLStrider URL Tracer[20]により盗み出す。

  1. Similarity-based Grouping for Identifying Large-scale Spam

人気のあるクエリから高いスパム密度(high spam density)を得たURLを収集し、その収集したページの類似度(表記はないが恐らくhtmlの構造の類似度)を調べる。調べると、類似度の高いものが同じリダイレクトドメインに繋がっていることが多い。そしてこのように検出されたスパマーは大々的にスパムを行っている場合が多い。次にリダイレクトドメインがスパムコンテンツに対して責任があると確認したのち、そのリダイレクトドメインをシードとして“backward propagation of distrust”[13]を使い他の類似度の高いページを洗い出す。


Search Ranger のスパム発見プロセス

ステップ1:

検索語をサーチエンジンに投げ、Search Monkeyがそれぞれの検索語に対して上位N番目の結果を取り出す。そしてそれぞれのURLをスキャンし全てのURLリダイレクションを記録するXMLファイルを生成する。

ステップ2:

スキャン後、SearchRangerはリダイレクション解析を行う。そして有名なスパマーのリダイレクションドメインにリダイレクトしているURLをスパムと見なす。

ステップ3:

Search Rangerが分類されなかったURL(すなわち有名なスパマーのリダイレクションドメインにリダイレクトしていないURL)を、リダイレクトのトラフィックを受け取った第3者ドメインによってグループ化する。

ステップ4:

Search RangerがサンプルURL(どの辺がサンプルなのか不明??)をそれぞれのグループからスパム検証器に送る、そして検証器はスパムとなりえる要素がないかを調べる。(cloakingや掲示板への大量書き込みなどをチェック)

ステップ5

Search Rangerが分類されなかったURLのグループを出力(この時点でスパムとなり得る要素の値やグループの大きさが一緒に送られる)、人間によってスパムかどうか審査される。スパムだとしたら有名なスパムドメインの集合にそのリダイレクションドメインを加える。


2.3 Spam Double-Funnel

典型的な広告シンジケートビジネスは3つの層からできている。ウェブサイトに魅力的なコンテンツを乗せて集客するサイトオーナー、ウェブサイトに乗せる広告を配信する広告主、広告主とサイトオーナーを繋ぐインフラを提供するシンジケーターである。グーグルアドセンスはシンジケーターの例である。疑わしい広告ビジネスにおいて、スパマーはサイトオーナーの役割と見なす、彼らはクオリティの低いコンテンツを用意し、好ましくないSEOテクニックを使い集客する。スパムが発見されるのを防ぐために、多くのスパマーはオペレーションを2つの層に分断する。最初の層がドアウェイページであり、ドアウェイページのURLはスパマーが検索エンジンの上位に組み込むように努力する。ユーザがドアウェイページへ入ると、ブラウザがスパムコンテンツをリダイレクションドメイン(第2層目)から取ってくるように指示する。スパマーとの結びつきを求めない賢明な広告主のため、多くのシンジケーターは彼らのオペレーションを2つかそれ以上の層に分けている。層は複数のリダイレクトによって結びつけられていて、広告主とスパマーの関係を分かりにくくする。(シンジケーターが広告主を騙す)これらのシンジケーターは大抵小さい会社なので、彼らはしばしば十分なトラフィックのプロバイダーと広告主をひきつけるためにトラフィックアグリゲーションを通じて協力する。

 私たちはこのスパムビジネスを図1のようにモデル化した。広告主はシンジケーターにお金を払い、シンジケーターはアグリゲーターにお金を払いトラフィックを集める。アグリゲーターはシンジケーターと広告主をスパムページから隔離するために仲介役となってトラフィックをスパマーから購入する。スパマーは数百から数千のリダイレクトドメインをセットし何百万ものドアウェイページを設置する。ドアウェイページはリダイレクトドメインから広告を取ってくる。またスパマーは掲示板にドアウェイページのURLを書き込む。


  1. SPAMMER-TARGETED KEYWORDS

リダイレクトスパムで共通の特徴を掴むために、リダイレクトスパムでよく狙われるキーワードとカテゴリを調べた。その結果ほとんどが薬と着メロとギャンブルに関するものであった。以下カテゴリ別にキーワードを示す。

Drugs:phentermine,Viagra,cialis,tramadol,xanax,etc.

Adult:porn,adult dating,sex,etc.

Gambling:casino,poker,roulette,texas holdem,etc.

Ringtone:verizon ringtones,free polyphonic ringtones.etc.

Money:car insurance,debt consolidation,mortgage,etc

・・・残り5カテゴリ

各カテゴリから上位100キーワードをとり1000個のスパマーに狙われる検索語をピックアップした。


4.Redirection-spam analysis

1000個のキーワードでクエリを主要3検索エンジンに投げ、それぞれトップ50のサイトを収集し、リダイレクトスパムを摘出したところ11.6%がスパムであった。我々は最初にカテゴリ別のスパム割合を調べ、その次にダブルファンネルモデルの解析を行う。

4.1 Spam Density Analysis

カテゴリ別のスパムの割合は図2のようになった。薬と、着メロでスパムが多かった。

4.2 Double-Funnel Analysis

我々はダブルファンネルモデルの5層を解析し、それぞれの層にどのようなドメインが関係しているのかを調べ、サーチスパムの傾向を捉えた。

4.2.1 Layer #1 Doorway Domain

図3はドアウェイページへのリンクがどれだけ発見されたかのを表している。また図4は図3のドメインの中でどれくらいの割合でスパムリンクが含まれていたかの割合を示す。


Spam Pages on .gov and .edu Domains

.gov.eduのような商業用でないトップレベルドメインは顕著にスパマーに狙われていた。

図5は.gov/.eduドメインの中で最もスパムの多いURLを持ったドメインを示している。これらは3つの種類に分けられる。それらはUniversal redirectors,Unproteted upload area,Home page-like directoriesである。(ハッキングして何かやってるんだろうが技術的な事はわからない)


4.2.2 Layer #2 Redirection Domains

図6はリダイレクトドメインをドアウェイページにリダイレクトしている数によって上から15個並べた図である。そのうち12個はシンジケートベースであり、テキストベースの広告のポータルページを配信している。2個はポルノ広告を、1個は商業のウェブサイトを配信している。またこれらのドメインの所有者は同じである場合が多く、一握りの主要なスパマーグループが複数のリダイレクトドメインを保持していることがわかった。


4.2.3 The Bottom Three Layers

次に我々はads portalサイト(広告だけをやたらと配信したサイト)のスパムページに焦点を置き12635個のスパムページから5172個のads portalサイトが見つかった。3層と5層に対して、我々はターゲットとなる広告主のURLads portalサイトから抽出して解析した。4層では、我々はそれぞれのads portalページから一つをランダムに選んで訪問してみて、リダイレクトのトラフィックを記録した。これはシンジケーターのドメイン名が広告ページのコンテンツに現れていないので必要である。

Layer #3 Aggregators

図7はスパムページで広告がクリックされた時、そのトラフィックを受け取るドメインを受け取る広告の数に応じて上から順に並べたものである。

するとトラフィックを受け取るドメインは64.111.のドメインと64.230のドメインの2つでほとんどを占めていることがわかった。


Layer #5: Advertisers(Page analysis)

広告主のドメインネームはしばしばアンカーテキストかマウスオーバーで見ることができる。そのようなドメイン名をads-portalページから取り出し、登場回数順に15位まで並べたところ図8のようになった。ebay.com,orbitz.com等の有名なサイトも見られた。


Layer #4: シンジケーター(click-through analysis)

クリックの解析において、一握りのシンジケーターがリダイレクトの連鎖に含まれている。

Findwhat.com/looksmart.com/7search.comで全体の59%を占めた。彼らはスパムトラフィックアグリゲータと広告主の主要な仲介役のようである。


5.ADVERTISER-TARGETED KEYWORDS

4章では最もスパムの多いキーワード群をベースに5層の解析を行った。しかし、検索する側のユーザや広告主にとって最も関心が高い事は、検索結果にスパムがどれだけ悪影響を及ぼしているかであろう。スパムの多いキーワードであってもあまりユーザや広告主が重視しないようなキーワードであれば問題がない、そこで最も広告の入札額が高い1000個のキーワードについて同様に実験を行った。


5.1 Benchmark of 1000 Most-Spammed Advertiser-Targeted Keyword

入札額上位5000番までのキーワードに対して主要3検索エンジンにクエリをなげスパムの多かった1000キーワードを選択した。するとドラッグやアダルト、ギャンブルの広告が少なくなり他の様々なカテゴリが上がってきた。


5.2 Spam Density Analysis

全体で95753URLに対して6153個のスパムを発見し、スパム率は5.8%であった。これは前回の実験の半分である。これはスパム率が高いカテゴリが少なかった(ドラッグやアダルトのジャンルのキーワードが少ないのでスパム率が下がるのは当たり前)のと、前回の実験の2週間後に実験を行っており、主要3検索エンジンがスパム除去に乗り出したことが原因として考えられる。(これは微妙だとは思うが)


5.3 Double-Funnel Analysis

我々は5層を解析して、最初のベンチマークと比べた。全ての図で最初のベンチマークで出てきたものと同じものはグレーで表現している。

5.3.1 Layer #1:Doorway Domains

図9はドアウェイページのドメインの上位15個である。スパムが多いキーワードで行った前回の実験(図3参照)との違いは、.infoドメインが増えているという事である。テーブル1から.infoがスパムである確率が.comに比べて異常に高いことが分かる

5.3.2 Layer#2: Redirection Domains

図10は上位15位までのリダイレクションドメインを表している。全てシンジケーションベースとなっていた。ドラッグやアダルトのスパマーがお金に関するサイト(car insurance,mortgage等)のスパマーに入れ替わったのが大きな違いであった。


5.3.3 The Bottom Three Layers

6153のスパムURLのうち2995個の広告のポータルページを抽出した。

Layer #3 Aggregators(Page analysis)

図11は相変わらず66.23064.111のIPがスパム広告のクリックを受信していた。合計で6153のスパムURLのうち6041個がこのIPを経由していた。

Layer#5

図12は上位15位までのスパム先からたどり着く広告主であり、これは図8のものとかなり違っていた。よく知られたショッピングサイトが多くランキングされるようになった。ここから広告主がターゲットとするキーワードは、スパマーがターゲットとするキーワードよりもショッピングのWebサイトにマッチしているという事が言える。

Layer #4 Syndicators

上位3位のシンジケーターはlooksmart.comfindwhat.com,7search.comであり全体の68%を占めていた。これらのシンジケーターは検索スパム産業に広く深く関わっていることが分かった。


6.OTHER COMMON SPAM

6.1 BLOG FARMS

同じサイトのフォーマット(具体的には良く分からない)で同じブログファームに属しているが、ターゲットとなるキーワードが違うページを発見。

6.2 PARASITE ADS-PORTAL FARMS

既存のサイトに寄生してスパムを逃れる手法。http://(既存のサイトのURL)/(寄生URL)

としてページのアドレスを決定することでスパムを逃れる。


7.RELATED WORK

クローキングに関連する研究

クローキングとリダイレクションを,スパムを隠す戦略であると見なした(Garcia-Molina[8]

クローキングとリダイレクションのWeb検索結果での割合を調べ実態を調査した。また分類機を作成する事でクローキングを発見する方法を提案した。

(Wu and Davison[23],[25])

我々のSearch Monkeysは機械が検索ユーザに成りすますことで、新しいクリッククローキング手法(検索結果以外のクリックに対して他のページを見せるクローキング手法)にも対応できる。


お金とスパムの関係の研究

お金はスパマーにとっての最も大きいインセンティブである。

Jansenはクリック詐欺の問題にも関わらず、スポンサードサーチがスパムの総量を減らすことができたことを観察した。[9](意味不明)

Sarukkaiは検索語の値段(キーワード代の目安のことだと思う)の定量化の手法を提案した。[17]

ChellapillaChickeringは検索語の上位5000と、キーワード代の高い順の5000を比べ、キーワード代の高いもののサイトの方がスパムが多いという経済的な側面を発見した[5]


リンク関連の研究

スパムをリンクの観点から減らす研究として、不信頼性に基づいたものがある。

スパムサイトのシードからリンクをたどりスパムの度合いを求めていくAnti-Trust Rank(Krishnan and Raj)[12]、似たようなものとして[13],リンクファームについての研究[24]等がある。その他相互リンクに着目した研究[4],[6]、既存のリンク解析技術をスパムの観点から比べた研究[3]等がある。我々の研究ではリンク解析はスパムURLの掲示板への書き込みを解析する事しか行っておらず、リダイレクションの解析に依存してスパム発見を行っている。


コンテンツ関連の研究

ページ内容をアンカーテキストやメタタグから解析して分類器を作りスパムを判定するもの[11],またURL構造や更新期間などからスパムを解析する手法[7],タイトルで使われている言葉や、目に見える割合(恐らくJavascriptなどのプログラムの部分を除いている)に着目したもの[16]HTML構造の類似性からページ製作者を特定するもの[18],ブログとそれに対するコメントの言語モデルを比較するもの[14](恐らくコメントがスパムなのかそうでないのかを比較する)などがある。


1