JP4755156B2 - 画像提供装置及び画像提供プログラム - Google Patents

画像提供装置及び画像提供プログラム Download PDF

Info

Publication number
JP4755156B2
JP4755156B2 JP2007229969A JP2007229969A JP4755156B2 JP 4755156 B2 JP4755156 B2 JP 4755156B2 JP 2007229969 A JP2007229969 A JP 2007229969A JP 2007229969 A JP2007229969 A JP 2007229969A JP 4755156 B2 JP4755156 B2 JP 4755156B2
Authority
JP
Japan
Prior art keywords
image
user
input
shooting
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007229969A
Other languages
English (en)
Other versions
JP2009065324A (ja
Inventor
光洋 我妻
行信 谷口
陽介 鳥井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007229969A priority Critical patent/JP4755156B2/ja
Publication of JP2009065324A publication Critical patent/JP2009065324A/ja
Application granted granted Critical
Publication of JP4755156B2 publication Critical patent/JP4755156B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、特定の場所で撮影された膨大な動画像や静止画像の中から、ユーザが見たいと考えている画像を検索してユーザに提供する画像提供装置と、その画像提供装置の実現に用いられる画像提供プログラムとに関し、特に、撮影位置や撮影方向や撮影時刻を手がかりにして、ユーザが見たいと考えている画像を検索してユーザに提供する画像提供装置と、その画像提供装置の実現に用いられる画像提供プログラムとに関する。
サッカーや野球のようなスポーツイベントを多数のカメラで撮影し、撮影映像を好みの方向、位置から目的の選手を映したシーンを検索したいといったニーズがある。
さらに、運動会など多くの人が撮影した映像、写真をコミュニティでアーカイブ、共有することで、自分が取り逃がしたハイライトシーンを検索して視聴するといった用途も考えられる。
このようなことを背景にして、多くのユーザが撮影した同一の撮影対象についてのデジタル情報を共有するウェブサイトも提供されている。
一方、デジタル製品の記憶媒体が大きくなっており、共有する全ての写真や映像を見るには時間がかかりすぎてしまう。
そこで素早い、直感的な方法で検索を行いたいという要求がある。例えば、特定の時間帯に特定の場所から撮った写真をまとめて見たい、といった検索である。
画像検索の従来技術として、画像が共有された後に個々の画像にタグを付与し、そのタグを元に検索する技術がある。
例えば、写真や映像ごとに「評価」や「人気度」を設定し、写真公開後にそれを見る人が評価を入力したり、見られた回数などで人気を算出したりすることで、評価や人気の高さなどを利用し、評価や人気の高いものを検索する技術がある。
このような画像検索技術は閲覧する側のアクションを前提とするものであるが、アップロードする側のアクションを前提とするものとして、それぞれの写真や映像にコメントを付与することで、それらのコメントから特定の用語を検索して画像を検索する技術もある。
また、ユーザの挙動を記録しておくことで、多くの人が続けて見ている写真、映像群を抽出しておき、特定の写真を見た人にそれと同じ群に属する写真、映像を紹介する技術もある。
また、デジタル写真を共有できるコミュニティサイトの写真を地図上に表示し、地図を用いて検索をするというサービスを提供するサイトも提供されている(例えば、非特許文献1の76頁参照)。
Ambient Findability,出版社:Oreilly & Associates Inc (2005/10),ISBN-10:0596007655,ISBN-13:978-0596007652
前述したように、画像検索の従来技術として、閲覧する側のアクションを前提とするものと、アップロードする側のアクションを前提とするものとがある。
このうち、閲覧する側のアクションを前提としたサービスでは、不特定多数のユーザが積極的に使用した後で初めて利用可能である。したがって、画像や映像を公開した直後はその情報を検索することは難しく、また、特定のコミュニティに対してのみ公開される情報ではユーザの数が限定されており、これらの技術で検索できるようにするのは困難である。
一方、アップロードする側のアクションを前提とするサービスでは、撮影位置などの情報を手動で入力することになる。しかし、数百枚程度の写真が保存可能である記憶媒体は珍しくない。特定のイベントに参加する際、1日に100枚を超えて撮影するようなことが考えられるが、それらの写真に手動で情報を付与することは現実的ではない。
GPS機能を使って撮影位置を自動検出してメタデータとして用いることも可能であるが、GPS機能のある携帯電話に付属するカメラは解像度に限界があり、解像度の高いデジタルカメラをGPSと共に持ち歩き、写真に撮影位置を付与させるサービスは、そもそもGPSをカメラと共に持ち歩く煩わしさが伴う。
しかも、現在、カメラと共に用いられているGPSサービスは10[m]程度の誤差が付きまとい、特定のイベント会場の中でどの場所なのかを特定するには不十分な精度である。
また、デジタル写真にはexif(Exchangeable Image File Format) と呼ばれるメタデータが付与されているのに対して、映像ファイルには撮影時刻をメタデータとして保持できないフォーマットもある。そのようなファイルでは撮影時刻での検索はできない。
本発明は、これらの問題点を解決するためになされたものであり、特定の場所で撮影された膨大な動画像や静止画像の中から、ユーザが見たいと考えている画像を検索してユーザに提供することを実現するために、閲覧ユーザ、投稿ユーザの積極的なアクションを必要とせず、GPSより高い精度で撮影位置情報を取得し、それによって直感的な検索を可能とする新たな画像提供技術の提供を目的とする。
この目的を達成するために、本発明の画像提供装置は、特定の場所で撮影された画像の中から、ユーザの閲覧要求を満たす画像を検索してユーザに提供することを実現するために、(1)特定の場所で撮影された動画像又は静止画像を入力して蓄積手段に保存する入力手段と、(2)入力手段の入力した画像と特定の場所の環境モデルとを照合することで、入力手段の入力した画像の撮影位置及び撮影角度を推定する推定手段と、(3)蓄積手段に保存される画像に対応付けて、推定手段の推定したその画像の撮影位置及び撮影角度の情報を記録する記録手段と、(4)ユーザから視点位置及び/又は視線角度の情報を指定する画像の閲覧要求がある場合に、蓄積手段に保存される撮影位置及び撮影角度の情報を検索することで、ユーザの指定する視点位置及び/又は視線方向から見えることになる画像を検索する検索手段と、(5)ユーザの指定する視点位置及び/又は視線方向から見えることになる特定の場所の環境モデルの画像をディスプレイに表示するとともに、その画像上に、検索手段の検索した画像の概要を示す要約画像の一覧を表示する表示手段とを備え、さらに次のように構成される。
第1の本発明では、上記(1)〜(5)の手段に加えて、蓄積手段に保存される画像の持つ音声の類似点を検出して、それに基づいて、蓄積手段に保存される撮影時刻の情報を持たない画像について、その撮影時刻を推定する第2の推定手段を備える。
第2の推定手段を備える場合には、記録手段は、入力手段の入力した画像の内の撮影時刻の情報を持つ画像については、その撮影時刻の情報をさらに記録し、撮影時刻の情報を持たない画像については、第2の推定手段の推定した撮影時刻の情報をさらに記録することになる。そして、検索手段は、ユーザから撮影時刻の情報についても指定する画像の閲覧要求がある場合には、蓄積手段に保存される撮影時刻の情報についても検索することで、ユーザの指定する撮影時刻に撮影された画像を検索することになる。
以上の各処理手段はコンピュータプログラムでも実現できるものであり、このコンピュータプログラムは、適当なコンピュータ読み取り可能な記録媒体に記録して提供されたり、ネットワークを介して提供され、本発明を実施する際にインストールされてCPUなどの制御手段上で動作することにより本発明を実現することになる。
このように構成される本発明の画像提供装置では、特定の場所で撮影された動画像又は静止画像を入力して蓄積手段に保存すると、その入力した画像と特定の場所の環境モデルとを照合することで、その入力した画像の撮影位置及び撮影角度を推定して、蓄積手段に保存した画像に対応付けて、その推定した撮影位置及び撮影角度の情報を記録する。このとき、入力した画像の内の撮影時刻の情報を持つ画像については、その撮影時刻の情報についても記録する。
また、第2の本発明では、上記(1)〜(5)の手段における(2)の推定手段が、画像の撮影位置及び撮影角度の推定を確かなものとするために、動画像を入力する場合には、その動画像の中から選択される最もズームアウトした画像を用いて特定の場所の環境モデルとの照合を行うことで、その動画像の撮影位置及び撮影角度を推定する。
また、第3の本発明では、上記(2)の推定手段が、その動画像から作成されるパノラマ画像を用いて特定の場所の環境モデルとの照合を行うことで、その動画像の撮影位置及び撮影角度を推定する。
このようにして、蓄積手段には、特定の場所において多数の投稿ユーザにより撮影された動画像や静止画像が保存されていくことになるとともに、それらの画像の撮影位置及び撮影角度の情報が記録されていくことになる。
このとき、撮影時刻の情報を持つ画像については、さらに、その撮影時刻の情報についても記録していくことになるので、撮影時刻の情報を持たない画像については、蓄積手段に保存される画像の持つ音声の類似点を検出して、それに基づいて、その撮影時刻を推定して記録していくことになる。
これから、蓄積手段には、最終的に、特定の場所において多数の投稿ユーザにより撮影された動画像や静止画像が保存されていくことになるとともに、それらの画像の撮影位置及び撮影角度の情報と、それらの画像の撮影時刻の情報とが記録されていくことになる。
この蓄積手段の保存する画像およびそれらの画像の持つ属性情報を受けて、閲覧ユーザから視点位置や視線角度の情報を指定する画像の閲覧要求があると、蓄積手段に保存される撮影位置及び撮影角度の情報を検索することで、閲覧ユーザの指定する視点位置や視線方向から見えることになる画像を検索する。
そして、その検索結果を閲覧ユーザに提供すべく、閲覧ユーザの指定する視点位置や視線方向から見えることになる特定の場所の環境モデルの画像をディスプレイに表示するとともに、その画像上に、その検索した画像の概要を示す要約画像の一覧を表示する。
このとき、閲覧ユーザから撮影時刻の情報についても指定する画像の閲覧要求がある場合には、蓄積手段に保存される撮影時刻の情報についても検索することで、閲覧ユーザの指定する撮影時刻に撮影された画像を検索することになる。
また、第4の本発明では、上記(2)の推定手段が、入力した画像と特定の場所の環境モデルとを照合するときに、その照合の度合いに基づいて、入力した画像の撮影位置及び撮影角度の推定の確信度を算出し、上記(4)の検索手段が、閲覧ユーザに対して、より閲覧要求に合致する画像を提供すべく、検索した画像の中から確信度の大きな画像を優先する形で画像を選択することで最終的な検索結果を得る。
また、第5の本発明では、上記(5)の表示手段が、閲覧ユーザに対して、どの撮影場所の画像が提供されるのかということを把握できるようにするために、検索した画像の撮影位置及び撮影角度の指す撮影場所に対応付けられる環境モデルの画像上位置に検索結果の要約画像を表示する。
また、第6の本発明では、上記(5)の表示手段が、閲覧ユーザに対して、どのような傾きを持つ画像が提供されるのかということを把握できるようにするために、検索した画像の撮影角度に応じて、閲覧ユーザが閲覧するときの状態に合わせる形態で検索結果の要約画像を傾けて表示する。
また、第7の本発明では、上記(5)の表示手段が、閲覧ユーザに対して、遠くで撮影された画像であるのか近くで撮影された画像であるのかということを把握できるようにするために、検索した画像の撮影位置に応じて、遠くで撮影された画像ほど小さくなる形態で検索結果の要約画像の大きさを変えて表示する。
本発明によれば、複数の動画像や静止画像を登録し環境モデルを構築する段階を有することにより、GPSよりも高い精度で撮影位置情報を取得する効果があり、撮影角度も定めることができる効果がある。
また、多数の動画像や静止画像のそれぞれに撮影位置や撮影角度や撮影時刻を自動的に付与し、それらを利用することで、検索のために閲覧者・投稿者の積極的なアクションを必要としない効果がある。
また、環境モデルを作成し、それを表示することで閲覧者に直感的な検索を提供できる効果がある。
また、時刻情報を持たない動画像に関しても、すでに登録されている画像との音声の同期を試みることで時刻情報を推定し、検索の対象をより広げる効果がある。
以下、実施の形態に従って本発明を詳細に説明する。
図1に、本発明を具備する画像提供システムのシステム構成を図示する。
本発明を具備する画像提供システムは、特定のイベント会場などで撮影された動画像や静止画像の中から、閲覧ユーザの閲覧要求を満たす動画像や静止画像(以下、動画像や静止画像を画像と総称することがある)を検索して閲覧ユーザに提供する処理を行うものであり、この処理を行うために、図1に示すように、環境モデル計算情報入力装置10と、環境モデル計算装置11と、環境モデル記憶装置12と、画像入力装置13と、画像記憶装置14と、推定装置15と、画像属性情報記憶装置16と、検索条件入力装置17と、画像検索装置18と、出力装置19とを備える。
環境モデル計算情報入力装置10は、撮影対象となる特定のイベント会場の環境モデル(3次元立体モデル)の計算に必要となる情報を入力する。環境モデル計算装置11は、環境モデル計算情報入力装置10の入力した情報に基づいて、撮影対象となるイベント会場の環境モデルを計算する。環境モデル記憶装置12は、環境モデル計算装置11の計算した環境モデルを記憶する。
画像入力装置13は、特定のイベント会場で撮影された動画像や静止画像を入力する。画像記憶装置14は、画像入力装置13の入力した画像を記憶する。
この画像記憶装置14の記憶する情報についてさらに説明するならば、画像入力装置13の入力した画像が静止画像である場合には、その静止画像のファイルを記憶することに加えて、図2(a)に示すように、画像ID、画像ファイルの型、投稿者ID、ファイル名などの情報を記憶する。また、画像入力装置13の入力した画像が動画像である場合には、その動画像のファイルとその動画像から抽出された代表画像のファイルとを記憶することに加えて、図2(b)に示すように、動画ID、動画像ファイルの型、代表画像ファイルの型、投稿者ID、動画像のファイル名、代表画像のファイル名などの情報を記憶する。
推定装置15は、画像記憶装置14に記憶される画像と環境モデル記憶装置12に記憶される環境モデルとを照合することで、画像入力装置13の入力した画像の撮影位置及び撮影方向(撮影角度)を推定し、さらに、画像記憶装置14に記憶される画像の持つ音声の類似点を検出して、それに基づいて、画像記憶装置14に記憶される撮影時刻の情報を持たない画像について、その撮影時刻を推定する。
下記の参考文献1に記載されるように、画像処理を用いて、画像の撮影位置だけでなく画像の撮影方向を推定する技術が開示されている。この技術では、環境モデルを実際に撮影し、撮影された画像列から特徴点を抽出し、被写体の3Dモデルを復元すると共に撮影された場所を推定するものである。
この推定装置15では、例えば、この参考文献1に記載される技術を使って、画像記憶装置14に記憶される画像と環境モデル記憶装置12に記憶される環境モデルとを照合することで、画像入力装置13の入力した画像の撮影位置及び撮影方向を推定するように処理する。
〔参考文献1〕Carlo Tomasi, Takeo Kanade : "Shape and Motion from Image Stream s", International Journal of Computer Vision Volume 9, Number 2, pp.137-154 (1992).
画像属性情報記憶装置16は、画像記憶装置14に記憶される画像と対応をとりつつ、推定装置15の推定した画像の撮影位置及び撮影角度の情報を記憶するとともに、画像の撮影時刻の情報(画像入力装置13の入力した画像の持つ撮影時刻の情報や、推定装置15の推定した撮影時刻の情報)を記憶する。
ここで、画像記憶装置14および画像属性情報記憶装置16が特許請求の範囲に記載する蓄積手段に相当するものである。
この画像属性情報記憶装置16の記憶する情報についてさらに説明するならば、画像記憶装置14に記憶される画像が静止画像である場合には、図3(a)に示すように、画像IDに対応付けて、撮影時刻、撮影位置、撮影角度、推定の確信度、被写体の人数、人気などの情報を記憶する。また、画像記憶装置14に記憶される画像が動画像である場合には、図3(b)に示すように、動画IDに対応付けて、撮影開始時刻、撮影終了時刻、撮影位置、撮影角度、同期リスト、推定の確信度、人気などの情報を記憶する。
検索条件入力装置17は、閲覧ユーザの発行する検索要求を受け取るものであり、視点位置や視線角度の情報を指定する画像の検索条件を入力する。画像検索装置18は、検索条件入力装置17の入力した検索条件をキーにして画像属性情報記憶装置16に記憶される画像の撮影位置、撮影角度及び撮影時刻の情報を検索することで、検索条件入力装置17の入力した検索条件の指す画像を検索して、その検索結果を表す3次元描画データ(3D化したイベント会場に対応付けて検査結果の画像を示す3Dマップの描画データ)を生成する。出力装置19は、画像検索装置18の生成した検索結果を表す3次元描画データを出力する。
図4に、このように構成される本発明を具備する画像提供システムの実行するフローチャートを図示する。
次に、このフローチャートに従って、このように構成される本発明を具備する画像提供システムの実行する処理について説明する。
本発明を具備する画像提供システムは、図4のフローチャートに示すように、先ず最初に、ステップS100で、管理ユーザが撮影対象となるイベント会場の環境モデルを計算により求めて環境モデル記憶装置12に登録する。
この環境モデルの構築には、具体的には以下のような方法がある。
(イ)方法1
管理ユーザが環境モデル計算装置11にCADや3Dを扱うことができるソフトウェアを用意しておき、3D化したいイベント会場の設計図に書かれている情報を環境モデル計算情報入力装置10から入力して環境モデル計算装置11に代入し、その結果得られたイベント会場の環境モデルを環境モデル記憶装置12に転送し格納する。
(ロ)方法2
管理ユーザが十分離れた二か所以上の場所から、3Dに復元したいイベント会場をビデオカメラで撮影する。撮影した動画像をavi(Audio Video Interleaving)や、mpg(Moving Picture Experts Group)などの形式で符号化し、環境モデル計算情報入力装置10から環境モデル計算装置11にデータを転送する。環境モデル計算装置11では、特徴点を抽出し、不動なものを検出した上で、特徴点の照合によりイベント会場の3D化された環境モデルを構築する。その得られた環境モデルを環境モデル記憶装置12に転送し格納する。
ここで、特徴点の抽出には、下記の参考文献2に記載されるHarris作用素、Moravec 作用素などを用いることができる。また、不動なものの検出は、特徴点を追跡することで可能であり、特徴点の抽出はKLT法などを用いることができる。また、特徴点の照合から3D化するには、前述の参考文献1に記載されるTomasi、Kanadeの因子分解法を用いることができる。また、環境モデル計算情報入力装置10から環境モデル計算装置11へのデータの転送はインターネットを介して転送する。また、携帯電話で撮影した動画像をmpgなどの形式でアップロードすることもできる。もちろん、環境モデル計算情報入力装置10と環境モデル計算装置11が一つの装置となることもでき、その場合にはネットワークを介する必要はない。
〔参考文献2〕金澤靖, 金谷健一:“コンピュータビジョンのための画像の特徴点の抽 出”電子情報通信学会誌 Vol.87, No.12 pp.1043-1048 (2004).
(ハ)方法3
管理ユーザが3Dに復元したいイベント会場の静止画像を十分多く撮影し、jpg(Joint Photographic Experts Group)などの形式で符号化し、環境モデル計算情報入力装置10から環境モデル計算装置11にデータを転送する。環境モデル計算装置11では、特徴点を抽出し、特徴点の照合によりイベント会場の3D化された環境モデルを構築する。その得られた環境モデルを環境モデル記憶装置12に転送し格納する。
ここで、方法2や方法3によってイベント会場の環境モデルを構築する場合、カメラやビデオカメラでイベント会場を撮影し、画像ごとに特徴点を抽出する必要がある。このとき、環境モデルの精度を高めるためには、イベント会場以外の被写体が画像に含まれないようにする必要があり、また、イベント会場以外の被写体が画像に含まれている場合には、ズームアウトした画像を使用したり、パノラマ画像を生成して使用するというような工夫を用いることが好ましい。
これらの方法を使って、ステップS100で、撮影対象となるイベント会場の環境モデルを求めて環境モデル記憶装置12に登録すると、続いて、ステップS101で、投稿ユーザがイベント会場で撮影した画像と自分の名前などの情報を画像入力装置13から入力し、画像記憶装置14に転送する。
これにより、画像記憶装置14には、図2に示したように、投稿ユーザがイベント会場で撮影した画像とその投稿者の名前などの情報が格納されることになる。
続いて、ステップS102で、前述した参考文献1に記載される方法に従って、画像記憶装置14に格納されている各画像について特徴点を抽出し、環境モデル記憶装置12に格納されている特徴点座標と照合し、それぞれの画像の撮影された場所、撮影の方向を推定する。さらに、画像の持つ音声の類似点を抽出することで撮影時刻が不明の画像についてその撮影時刻を推定する。そして、その推定した座標(場所)、方向、時刻などの情報を画像IDや動画IDと共に画像属性情報記憶装置16に格納する。
これにより、画像属性情報記憶装置16には、図3に示したように、画像記憶装置14に格納されている各画像と対応をとりつつ、それらの画像の撮影時刻や撮影場所や撮影角度などの情報が格納されることになる。
このステップS102の処理については、後述する図5及び図6のフローチャートに従って詳細に説明する。
続いて、ステップS103で、閲覧ユーザが視点位置、角度、時刻の範囲、顔が写っている写真限定にするか、などの検索条件を検索条件入力装置17から入力し、その検索条件を満たす3Dマップを生成して出力装置19に出力表示する。
すなわち、環境モデル記憶装置12の記憶する特徴点の情報に基づいて、検索条件で指定されるイベント会場の画像(閲覧ユーザから見えることになるイベント会場の画像)を出力装置19に出力表示するとともに、画像属性情報記憶装置16の記憶する情報に基づいて検索条件を満たす画像を割り出し、画像記憶装置14からその割り出した画像(動画像の場合には代表画像)を読み出しサムネイルを作成してイベント会場の画像に重畳表示する形で出力装置19に出力表示することで、出力装置19に対して、3D化したイベント会場に対応付けて検索結果の画像を示す3Dマップを出力表示するのである。
このステップS103の処理については、後述する図9のフローチャートに従って詳細に説明する。
次に、図5及び図6のフローチャートに従って、ステップS102で実行する処理について詳細に説明する。
ステップS102の処理に入る前に、図5のフローチャートに示すように、先ず最初に、ステップS200で、投稿ユーザがイベント会場で撮影した写真(静止画像)や動画像と自分の名前などの情報を画像入力装置13から入力し、これらの情報が画像記憶装置14に転送されることになる。すなわち、図4のフローチャートのステップS101の処理が実行されることになる。
この後、ステップS201の処理に入って、ステップS201〜ステップS214で、入力したファイル(写真あるいは動画像)に対して、以下に説明する処理を繰り返し実行する。ここで、この処理については推定装置15が実行することになる。
すなわち、ステップS202で、入力ファイルの拡張子やファイルヘッダなどから、入力ファイルが静止画像ファイルであるのか動画像ファイルであるのかを判断する。
このステップS202の判断処理に従って、入力ファイルが動画像ファイルであることを判断するときには、ステップS203に進んで、その動画像ファイルのパノラマ画像が作成可能であるのか検証する。パノラマ画像とは、パン、チルト、ズームなどのカメラ操作が含まれる区間から画像列を合成することで生成される画像であり、下記の参考文献3に記載される方法によってパノラマ画像の作成可否を判定することが可能である。
〔参考文献3〕谷口行信, 阿久津明人, 外村佳伸:"Panorama Excerpts:パノラマ画像の自動生成・レイアウトによる映像一覧" 電子情報通信学会論文誌 D-II Vol.J82-D-II, No.3 pp.390-398 (1999).
このステップS203の判断処理に従って、入力した動画像ファイルのパノラマ画像の作成が可能であることを判断するときには、ステップS204に進んで、参考文献3に記載される方法によって、入力した動画像ファイルからパノラマ画像を作成し、それを代表画像として画像記憶装置14に格納する。このようにパノラマ画像を代表画像として用いることでイベント会場が背景として多く含まれることになり、これにより、より多くの特徴を抽出することができるようになることで、後述する処理に従って画像の撮影場所や撮影方向を推定する場合に、その推定精度を高めることができるようになる。
一方、ステップS203の判断処理に従って、入力した動画像ファイルのパノラマ画像の作成が不可能であることを判断するときには、ステップS205に進んで、動画像の持つ画像の中で、ピントの合っている画像の中から最もズームアウトしている画像を選択して、それを代表画像として画像記憶装置14に格納する。このように最もズームアウトしている画像を代表画像として用いることでイベント会場が背景として多く含まれることになり、これにより、より多くの特徴を抽出することができるようになることで、後述する処理に従って画像の撮影場所や撮影方向を推定する場合に、その推定精度を高めることができるようになる。
続いて、ステップS206で、すでに登録された動画像から同時刻に撮影されたものを推定、検出し、検出された場合には同期リスト(図3(b)に示す同期リスト)に登録する。動画像の時間同期をとる手法については、後述する図6のフローチャートに従って詳細に説明する。
続いて、ステップS207で、この時間同期処理に従って、同時刻に撮影された撮影時刻の情報を検出できたのか否かを判断して、検出できないことを判断するときには、ステップS208に進んで、撮影時刻の自動検出を諦めて、変数time_s=0(未設定)とする。
一方、ステップS202の判断処理に従って、入力ファイルが静止画像ファイル(写真)であることを判断するときには、ステップS209に進んで、その静止画像ファイルがexif情報を保持しているのかを確認する。
このステップS202の確認処理に従って、入力した静止画像ファイルがexif情報を保持していることを確認するときには、ステップS210に進んで、exif情報に記録されている撮影時刻を変数timeに保持し、一方、入力した静止画像ファイルがexif情報を保持していないことを判断するときには、ステップS208に進んで、撮影時刻の自動検出を諦めて、変数time=0(未設定)とする。
続いて、ステップS211で、入力した画像が静止画像である場合には、その静止画像の中から人の顔を抽出して、その抽出した顔の数を保持し、一方、入力した画像が動画像である場合には、その動画像の代表画像の中から人の顔を抽出して、その抽出した顔の数を保持する。
続いて、ステップS212で、入力した画像が静止画像である場合には、その静止画像の特徴点を抽出し、一方、入力した画像が動画像である場合には、その動画像の代表画像の特徴点を抽出する。その上で、環境モデル記憶装置12に記憶されている特徴点と照合することで、入力した画像がどの位置、どの方向から撮影されたものかを推定し、確信度と共に保持する。ここで、確信度は特徴点の中で、撮影位置推定に用いられたものの数と、用いられなかったものの数の関数として算出する。
続いて、ステップS213で、ステップS200からの操作で得られた情報(図3に示す情報の内の人気を除く情報)の値を画像属性情報記憶装置16に格納する。
次に、図6のフローチャートに従って、ステップS206で実行する動画像の時間同期処理について説明する。
ステップS206の処理に入ると、図6のフローチャートに示すように、先ず最初に、ステップS300で、投稿ユーザから処理対象となる動画像ファイル(ステップS200で入力した動画像ファイル)を入力する。
続いて、ステップS301で、入力した動画像ファイルが撮影時刻のメタデータ(撮影の開始、終了時刻について記録するメタデータ)を持っているのか否かを判断する。
このステップS301の判断処理に従って、入力した動画像ファイルが撮影時刻のメタデータを持っていないことを判断するときには、ステップS302に進んで、撮影時刻が設定されていないことを示すべく、変数time_s=0(未設定)とし、一方、撮影時刻のメタデータを持っていることを判断するときには、ステップS303に進んで、撮影の開始、終了時刻をそれぞれtime_s,time_eに代入する。
続いて、ステップS304で、入力した動画像ファイルの音声を取り出し、ステップS305〜ステップS315で、この取り出し音声を処理対象として、過去に登録した全ての動画像ファイルについて、以下に説明する処理を繰り返し実行する。
すなわち、ステップS306で、過去に登録した動画像ファイルの音声を抽出し、入力した動画像ファイルの音声と一致する部分(同期する箇所)を探索する。
具体的には、例えば、入力した動画像ファイルの音声と、過去に登録した動画像ファイルの音声とを共に500[ms]間隔でカットし、カットしたそれぞれがある閾値を超える音圧を持っている場合、過去に登録した動画像ファイルの音声のどこかと一致しないかを調べる。具体的には、下記の参考文献4に記載される方法を用いることができる。そして、一致する部分の数が閾値を超えるとき、二つの音声は同期したとする。
〔参考文献4〕柏野邦夫, ガビンスミス, 村瀬洋: "ヒストグラム特徴を用いた音響信号の高速探索法" 電子情報通信学会論文誌 D-II Vol.J82-D-II, No.9 pp.1365-1373 (1999).
続いて、ステップS307で、ステップS306の探索処理に従って同期する音声を検出できたのか否かを判断して、同期する音声を検出できなかったことを判断するときには、ステップS315に進んで、次の過去に登録した動画像ファイルに処理を移行する。
一方、ステップS307の判断処理に従って、同期する音声を検出できたことを判断するときには、ステップS308に進んで、お互いの同期リスト(図3(b)に示す同期リスト)にお互いのID(動画ID)を加える。
続いて、ステップS309で、現在処理している過去に登録した動画像ファイルが時刻情報を持っておらず、かつ、入力した動画像ファイルの時刻情報が確定している状態にあるのか否かを判断する。
このステップS309の判断処理に従って、現在処理している過去に登録した動画像ファイルが時刻情報を持っておらず、かつ、入力した動画像ファイルの時刻情報が確定している状態にないことを判断するときには、ステップS310に進んで、現在処理している過去に登録した動画像ファイルの時刻情報が確定しており、かつ、入力した動画像ファイルが時刻情報を持っていない状態にあるのか否かを判断する。
このステップS310の判断処理に従って、現在処理している過去に登録した動画像ファイルの時刻情報が確定しており、かつ、入力した動画像ファイルが時刻情報を持っていない状態にないことを判断するときには、ステップS315に進んで、次の過去に登録した動画像ファイルに処理を移行する。
一方、ステップS310の判断処理に従って、現在処理している過去に登録した動画像ファイルの時刻情報が確定しており、かつ、入力した動画像ファイルが時刻情報を持っていない状態にあることを判断するときには、ステップS311に進んで、入力した動画像ファイルの音声と現在処理している過去に登録した動画像ファイルの音声との同期箇所から、入力した動画像ファイルの撮影開始時刻、終了時刻を推定して、それらを入力した動画像ファイルの持つtime_s,time_eに代入してから、ステップS315に進んで、次の過去に登録した動画像ファイルに処理を移行する。
一方、ステップS309の判断処理に従って、現在処理している過去に登録した動画像ファイルが時刻情報を持っておらず、かつ、入力した動画像ファイルの時刻情報が確定している状態にあることを判断するときには、ステップS312に進んで、入力した動画像ファイルの音声と現在処理している過去に登録した動画像ファイルの音声との同期箇所から、現在処理している過去に登録した動画像ファイルの撮影開始時刻、終了時刻を推定して、それらを現在処理している過去に登録した動画像ファイルの持つtime_s,time_eに代入する。
続いて、ステップS313で、過去に登録した動画像ファイルの持つ同期リストに撮影時刻が不明のものがあるのか否かを判断する。
このステップS313の判断処理に従って、過去に登録した動画像ファイルの持つ同期リストに撮影時刻が不明のものがないことを判断するときには、ステップS315に進んで、次の過去に登録した動画像ファイルに処理を移行する。
一方、ステップS313の判断処理に従って、過去に登録した動画像ファイルの持つ同期リストに撮影時刻が不明のものがあることを判断するときには、ステップS314に進んで、同期リストで連結される動画像ファイルで撮影時刻が不明のものについて全て再帰的に撮影時刻を推定し、代入してから、ステップS315に進んで、次の過去に登録した動画像ファイルに処理を移行する。
以上に説明した図6のフローチャートで実行する動画像の時間同期処理では、動画像は同じイベント会場で撮影されたものであることから、例えば、野球の応援歌やサッカーのゴール時の歓声や運動会の場内アナウンスのように環境音が他の動画像にも収音されており、これから、音の同期で撮影時刻を推定することが可能であるということに着目して、撮影時刻が不明の動画像の撮影時刻を推定するようにしている。
例えば、図7に示すように、動画像Aの撮影時刻が分かっており、動画像Bの撮影時刻が分かっていない場合に、動画像Aの音声と動画像Bの音声との一致箇所を求めて、それに基づいて、動画像Bの撮影時刻(撮影開始時刻及び撮影終了時刻)を推定するのである。さらに、例えば、図8に示すように、動画像A、動画像B、動画像C、動画像Dの順に投稿されたときにあって、動画像Dの撮影時刻しか分かっていない場合に、動画像Aの音声と動画像Bの音声との一致箇所と、動画像Bの音声と動画像Cの音声との一致箇所と、動画像Cの音声と動画像Dの音声との一致箇所とを求めて、それに基づいて、動画像A,B,Cの撮影時刻(撮影開始時刻及び撮影終了時刻)を推定するのである。
このようにして、本発明を具備する画像提供システムは、図4のフローチャートに従って、撮影対象となるイベント会場の環境モデルを求めて環境モデル記憶装置12に登録し(ステップS100)、投稿ユーザがイベント会場で撮影した画像とその投稿者の名前などの情報を画像記憶装置14に格納すると(ステップS101)、ステップS102の処理に入って、図5及び図6のフローチャートを実行することで、画像記憶装置14に格納されている各画像について特徴点を抽出し、環境モデル記憶装置12に格納されている特徴点座標と照合し、それぞれの画像の撮影された場所、撮影の方向を推定する。さらに、画像の持つ音声の類似点を抽出することで撮影時刻が不明の画像についてその撮影時刻を推定して、その推定した座標(場所)、方向、時刻などの情報を画像IDや動画IDと共に画像属性情報記憶装置16に格納するのである。
これにより、画像属性情報記憶装置16には、図3に示したように、画像記憶装置14に格納されている各画像と対応をとりつつ、それらの画像の撮影の時刻や撮影の場所や撮影の角度などの情報が格納されることになる。
図4のフローチャートのステップS103で説明したように、投稿ユーザにより撮影された画像の撮影の時刻や撮影の場所や撮影の角度などの情報を画像属性情報記憶装置16に格納すると、それらの情報を使って、閲覧ユーザに対して閲覧要求のある画像を提供するように処理する。
次に、図9のフローチャートに従って、ステップS103で実行する処理について詳細に説明する。ここで、このフローチャートの処理について画像検索装置18が実行することになる。
ステップS103の処理に入ると、図9のフローチャートに示すように、先ず最初に、ステップS400で、検索条件入力装置17を介して、閲覧ユーザから、視点位置、角度、時刻の範囲、顔が写っている画像に限定するかということについて記述する検索条件を入力する。
続いて、ステップS401で、環境モデル記憶装置12に記憶される特徴点の情報に基づいて、入力した視点位置、角度から見えるイベント会場の見やすい3Dマップを作成して、それを出力装置19に描画出力する。
ここで、見やすさの指標は視点位置、角度の関数である。視点位置から、地上に立っているように見ているのか、上から俯瞰しているのかを割り出し、それにより遠近感のある図にするかどうかを定める。
続いて、ステップS402で、画像属性情報記憶装置16の記憶する情報を検索することで、(1)検索条件で指定される視点位置、角度から見える画像で、(2)検索条件で指定される時刻範囲に撮影された画像で、(3)検索条件で顔が写っている画像であることが限定される場合には、それを満たしている画像で、(4)3Dマップ上の撮影された場所にサムネイルを描画可能である画像、という条件を満たす画像のIDを抽出する。
このステップS402で、上記の条件を満たす画像のIDを抽出できない場合には、処理を終了し、一方、上記の条件を満たす画像のIDを抽出できた場合には、ステップS403に進んで、その抽出した画像(動画像の場合には代表画像を用いる)の中から最も評価の高い画像を選ぶ。ここで、画像の評価は撮影場所の確信度、人気、写っている顔の数などの関数である。
続いて、ステップS404で、3Dマップ上の撮影位置にサムネイルを描画する際に、新たな画像のサムネイルが既に表示されている他の画像のサムネイルに隠れてその面積が半分以上表示できるかどうかを判断する。
例えば、現在の出力が図10のようになっているときに、次の画像が図11に示す画像Gであった場合、画像Gの面積の半分以上が画像B,Cによって隠れてしまい表示できない。このような状態になるのか否かを判断するのである。ここで、サムネイルの大きさは3Dマップの書き方と視点位置からの距離の関数である。
このステップS404の判断処理で、ステップS403で選んだ画像が半分以上表示できない画像であることを判断するときには、ステップS405に進んで、ステップS403で選んだ画像は描画不能とみなして描画を諦めると共に、その画像がS402で選ばれないよう条件から外してから、ステップS402の処理に戻る。
一方、ステップS404の判断処理で、ステップS403で選んだ画像が半分以上表示できる画像であることを判断するときには、ステップS406に進んで、画像記憶装置14から、ステップS403で選んだ画像IDの指す画像(動画像の場合には代表画像)を読み出し、その読み出した画像のサムネイルを生成して、出力装置19の3Dマップ上の画像の撮影位置に描画出力してから、ステップS402の処理に戻る。
このようにして、本発明を具備する画像提供システムは、図5及び図6のフローチャートを実行することで、投稿ユーザにより撮影された画像の撮影の時刻や撮影の場所や撮影の角度などの情報を画像属性情報記憶装置16に格納すると、図9のフローチャートを実行することで、閲覧ユーザから見えることになるイベント会場の画像を出力装置19に出力表示するとともに、画像属性情報記憶装置16の記憶する情報に基づいて検索条件を満たす画像を割り出し、画像記憶装置14からその割り出した画像(動画像の場合には代表画像)を読み出しサムネイルを作成してイベント会場の画像に重畳表示する形で出力装置19に出力表示することで、出力装置19に対して、3D化したイベント会場に対応付けて検索結果の画像を示す3Dマップを出力表示するのである。
図10〜図13に、検索結果の画像を示す3Dマップの出力表示の一例を図示する。
図10は、イベント会場を俯瞰した様子である。時刻範囲だけを定め、イベント会場全体を俯瞰することで、より詳しく調べたい場所を特定できる。図の画像Fは動画像から作成されたパノラマ画像である。
図11は、図10の表示を行っている場合にあって、画像Gが検索された場合に、この画像Gが描画対象とならないことを説明するための図である。
図12は、地上から見た場合である。遠くで撮影された画像は小さく出力される。さらに撮影された角度を用いて検索をしたい場合には画像にも角度をつけてやればよい。図13は、角度をつけた画像を用いた例を示す。
このような表示形態の切り替えを可能にすることで、時刻を入力し、イベント会場を俯瞰することで大まかな画像の配置を把握することができる。そして、地上の視点から見た出力に切り替えれば、実際にそこに立っている感覚で画像を検索できる。さらに、推定された撮影の角度を用いた出力に切り替えれば、画像を特定の被写体を写したものなどの限定することができ、検索がより容易になる。
このようにして表示するサムネイルの中から閲覧ユーザが一つのサムネイルを選択して詳細表示を要求すると、その選択したサムネイルの作成元となった原画像を表示するように処理することになる。
本発明は、特定の場所で撮影された膨大な動画像や静止画像の中から、ユーザが見たいと考えている画像を検索してユーザに提供する場合に適用できるものであり、撮影位置や撮影方向や撮影時刻を手がかりにして、ユーザが見たいと考えている画像を検索してユーザに提供することができるようになる。
本発明を具備する画像提供システムのシステム構成図である。 画像記憶装置の記憶する情報の説明図である。 画像属性情報記憶装置の記憶する情報の説明図である。 本発明を具備する画像提供システムの実行するフローチャートである。 本発明を具備する画像提供システムの実行するフローチャートである。 本発明を具備する画像提供システムの実行するフローチャートである。 動画像の時間同期処理の説明図である。 動画像の時間同期処理の説明図である。 本発明を具備する画像提供システムの実行するフローチャートである。 検索結果の出力表示の一例を示す図である。 検索結果の出力表示の一例を示す図である。 検索結果の出力表示の一例を示す図である。 検索結果の出力表示の一例を示す図である。
符号の説明
10 環境モデル計算情報入力装置
11 環境モデル計算装置
12 環境モデル記憶装置
13 画像入力装置
14 画像記憶装置
15 推定装置
16 画像属性情報記憶装置
17 検索条件入力装置
18 画像検索装置
19 出力装置

Claims (8)

  1. 特定の場所で撮影された画像の中から、ユーザの閲覧要求を満たす画像を検索してユーザに提供する画像提供装置であって、
    前記場所で撮影された動画像又は静止画像を入力して蓄積手段に保存する入力手段と、
    前記入力手段の入力した画像と前記場所の環境モデルとを照合することで、前記入力手段の入力した画像の撮影位置及び撮影角度を推定する第1の推定手段と、
    前記蓄積手段に保存される画像に対応付けて、前記第1の推定手段の推定したその画像の撮影位置及び撮影角度の情報を記録する記録手段と、
    ユーザから視点位置及び/又は視線方向の情報を指定する画像の閲覧要求がある場合に、前記蓄積手段に保存される撮影位置及び撮影角度の情報を検索することで、ユーザの指定する視点位置及び/又は視線方向から見えることになる画像を検索する検索手段と、
    ユーザの指定する視点位置及び/又は視線方向から見えることになる前記環境モデルの画像をディスプレイに表示するとともに、その画像上に、前記検索手段の検索した画像の概要を示す要約画像の一覧を表示する表示手段とを備え、
    かつ、前記蓄積手段に保存される画像の持つ音声の類似点を検出して、それに基づいて、前記蓄積手段に保存される撮影時刻の情報を持たない画像について、その撮影時刻を推定する第2の推定手段を備え、
    前記記録手段は、前記入力手段の入力した画像の内の撮影時刻の情報を持つ画像については、その撮影時刻の情報をさらに記録し、撮影時刻の情報を持たない画像については、前記第2の推定手段の推定した撮影時刻の情報をさらに記録し、
    前記検索手段は、ユーザから撮影時刻の情報についても指定する画像の閲覧要求がある場合には、前記蓄積手段に保存される撮影時刻の情報についても検索することで、ユーザの指定する撮影時刻に撮影された画像を検索することを、
    特徴とする画像提供装置。
  2. 特定の場所で撮影された画像の中から、ユーザの閲覧要求を満たす画像を検索してユーザに提供する画像提供装置であって、
    前記場所で撮影された動画像又は静止画像を入力して蓄積手段に保存する入力手段と、
    前記入力手段の入力した画像と前記場所の環境モデルとを照合することで、前記入力手段の入力した画像の撮影位置及び撮影角度を推定する推定手段と、
    前記蓄積手段に保存される画像に対応付けて、前記推定手段の推定したその画像の撮影位置及び撮影角度の情報を記録する記録手段と、
    ユーザから視点位置及び/又は視線方向の情報を指定する画像の閲覧要求がある場合に、前記蓄積手段に保存される撮影位置及び撮影角度の情報を検索することで、ユーザの指定する視点位置及び/又は視線方向から見えることになる画像を検索する検索手段と、
    ユーザの指定する視点位置及び/又は視線方向から見えることになる前記環境モデルの画像をディスプレイに表示するとともに、その画像上に、前記検索手段の検索した画像の概要を示す要約画像の一覧を表示する表示手段とを備え、
    かつ、前記推定手段は、前記入力手段が動画像を入力する場合には、その動画像の中から選択される最もズームアウトした画像を用いて前記環境モデルとの照合を行うことで、その動画像の撮影位置及び撮影角度を推定することを、
    特徴とする画像提供装置。
  3. 特定の場所で撮影された画像の中から、ユーザの閲覧要求を満たす画像を検索してユーザに提供する画像提供装置であって、
    前記場所で撮影された動画像又は静止画像を入力して蓄積手段に保存する入力手段と、
    前記入力手段の入力した画像と前記場所の環境モデルとを照合することで、前記入力手段の入力した画像の撮影位置及び撮影角度を推定する推定手段と、
    前記蓄積手段に保存される画像に対応付けて、前記推定手段の推定したその画像の撮影位置及び撮影角度の情報を記録する記録手段と、
    ユーザから視点位置及び/又は視線方向の情報を指定する画像の閲覧要求がある場合に、前記蓄積手段に保存される撮影位置及び撮影角度の情報を検索することで、ユーザの指定する視点位置及び/又は視線方向から見えることになる画像を検索する検索手段と、
    ユーザの指定する視点位置及び/又は視線方向から見えることになる前記環境モデルの画像をディスプレイに表示するとともに、その画像上に、前記検索手段の検索した画像の概要を示す要約画像の一覧を表示する表示手段とを備え、
    かつ、前記推定手段は、前記入力手段が動画像を入力する場合には、その動画像から作成されるバノラマ画像を用いて前記環境モデルとの照合を行うことで、その動画像の撮影位置及び撮影角度を推定することを、
    特徴とする画像提供装置。
  4. 特定の場所で撮影された画像の中から、ユーザの閲覧要求を満たす画像を検索してユーザに提供する画像提供装置であって、
    前記場所で撮影された動画像又は静止画像を入力して蓄積手段に保存する入力手段と、
    前記入力手段の入力した画像と前記場所の環境モデルとを照合することで、前記入力手段の入力した画像の撮影位置及び撮影角度を推定する推定手段と、
    前記蓄積手段に保存される画像に対応付けて、前記推定手段の推定したその画像の撮影位置及び撮影角度の情報を記録する記録手段と、
    ユーザから視点位置及び/又は視線方向の情報を指定する画像の閲覧要求がある場合に、前記蓄積手段に保存される撮影位置及び撮影角度の情報を検索することで、ユーザの指定する視点位置及び/又は視線方向から見えることになる画像を検索する検索手段と、
    ユーザの指定する視点位置及び/又は視線方向から見えることになる前記環境モデルの画像をディスプレイに表示するとともに、その画像上に、前記検索手段の検索した画像の概要を示す要約画像の一覧を表示する表示手段とを備え、
    前記推定手段は、前記照合の度合いに基づいて前記推定の確信度を算出し、
    前記検索手段は、検索した画像の中から前記確信度の大きな画像を優先する形で画像を選択することで最終的な検索結果を得ることを、
    特徴とする画像提供装置。
  5. 特定の場所で撮影された画像の中から、ユーザの閲覧要求を満たす画像を検索してユーザに提供する画像提供装置であって、
    前記場所で撮影された動画像又は静止画像を入力して蓄積手段に保存する入力手段と、
    前記入力手段の入力した画像と前記場所の環境モデルとを照合することで、前記入力手段の入力した画像の撮影位置及び撮影角度を推定する推定手段と、
    前記蓄積手段に保存される画像に対応付けて、前記推定手段の推定したその画像の撮影位置及び撮影角度の情報を記録する記録手段と、
    ユーザから視点位置及び/又は視線方向の情報を指定する画像の閲覧要求がある場合に、前記蓄積手段に保存される撮影位置及び撮影角度の情報を検索することで、ユーザの指定する視点位置及び/又は視線方向から見えることになる画像を検索する検索手段と、
    ユーザの指定する視点位置及び/又は視線方向から見えることになる前記環境モデルの画像をディスプレイに表示するとともに、その画像上に、前記検索手段の検索した画像の概要を示す要約画像の一覧を表示する表示手段とを備え、
    前記表示手段は、前記検索手段の検索した画像の撮影位置及び撮影角度の指す撮影場所に対応付けられる前記環境モデルの画像上位置に前記要約画像を表示することを、
    特徴とする画像提供装置。
  6. 特定の場所で撮影された画像の中から、ユーザの閲覧要求を満たす画像を検索してユーザに提供する画像提供装置であって、
    前記場所で撮影された動画像又は静止画像を入力して蓄積手段に保存する入力手段と、
    前記入力手段の入力した画像と前記場所の環境モデルとを照合することで、前記入力手段の入力した画像の撮影位置及び撮影角度を推定する推定手段と、
    前記蓄積手段に保存される画像に対応付けて、前記推定手段の推定したその画像の撮影位置及び撮影角度の情報を記録する記録手段と、
    ユーザから視点位置及び/又は視線方向の情報を指定する画像の閲覧要求がある場合に、前記蓄積手段に保存される撮影位置及び撮影角度の情報を検索することで、ユーザの指定する視点位置及び/又は視線方向から見えることになる画像を検索する検索手段と、
    ユーザの指定する視点位置及び/又は視線方向から見えることになる前記環境モデルの画像をディスプレイに表示するとともに、その画像上に、前記検索手段の検索した画像の概要を示す要約画像の一覧を表示する表示手段とを備え、
    前記表示手段は、前記検索手段の検索した画像の撮影角度に応じて、ユーザが閲覧するときの状態に合わせる形態で前記要約画像を傾けて表示することを、
    特徴とする画像提供装置。
  7. 特定の場所で撮影された画像の中から、ユーザの閲覧要求を満たす画像を検索してユーザに提供する画像提供装置であって、
    前記場所で撮影された動画像又は静止画像を入力して蓄積手段に保存する入力手段と、
    前記入力手段の入力した画像と前記場所の環境モデルとを照合することで、前記入力手段の入力した画像の撮影位置及び撮影角度を推定する推定手段と、
    前記蓄積手段に保存される画像に対応付けて、前記推定手段の推定したその画像の撮影位置及び撮影角度の情報を記録する記録手段と、
    ユーザから視点位置及び/又は視線方向の情報を指定する画像の閲覧要求がある場合に、前記蓄積手段に保存される撮影位置及び撮影角度の情報を検索することで、ユーザの指定する視点位置及び/又は視線方向から見えることになる画像を検索する検索手段と、
    ユーザの指定する視点位置及び/又は視線方向から見えることになる前記環境モデルの画像をディスプレイに表示するとともに、その画像上に、前記検索手段の検索した画像の概要を示す要約画像の一覧を表示する表示手段とを備え、
    前記表示手段は、前記検索手段の検索した画像の撮影位置に応じて、遠くで撮影された画像ほど小さくなる形態で前記要約画像の大きさを変えて表示することを、
    特徴とする画像提供装置。
  8. 請求項1ないし7のいずれか1項に記載の画像提供装置を構成する各手段としてコンピュータを機能させるための画像提供プログラム。
JP2007229969A 2007-09-05 2007-09-05 画像提供装置及び画像提供プログラム Expired - Fee Related JP4755156B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007229969A JP4755156B2 (ja) 2007-09-05 2007-09-05 画像提供装置及び画像提供プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007229969A JP4755156B2 (ja) 2007-09-05 2007-09-05 画像提供装置及び画像提供プログラム

Publications (2)

Publication Number Publication Date
JP2009065324A JP2009065324A (ja) 2009-03-26
JP4755156B2 true JP4755156B2 (ja) 2011-08-24

Family

ID=40559529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007229969A Expired - Fee Related JP4755156B2 (ja) 2007-09-05 2007-09-05 画像提供装置及び画像提供プログラム

Country Status (1)

Country Link
JP (1) JP4755156B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5293422B2 (ja) * 2009-06-05 2013-09-18 カシオ計算機株式会社 画像特定装置及び画像特定プログラム
US8929709B2 (en) 2012-06-11 2015-01-06 Alpinereplay, Inc. Automatic digital curation and tagging of action videos
US10008237B2 (en) 2012-09-12 2018-06-26 Alpinereplay, Inc Systems and methods for creating and enhancing videos
JP6354123B2 (ja) * 2013-06-17 2018-07-11 株式会社ニコン 撮像装置及び画像整列装置
US10212325B2 (en) 2015-02-17 2019-02-19 Alpinereplay, Inc. Systems and methods to control camera operations
JP5901825B1 (ja) * 2015-06-04 2016-04-13 株式会社ファンクリエイト 映像処理装置及び映像処理方法
US10321208B2 (en) 2015-10-26 2019-06-11 Alpinereplay, Inc. System and method for enhanced video image recognition using motion sensors
JP6918306B2 (ja) * 2016-06-09 2021-08-11 日本コントロールシステム株式会社 写真管理装置、写真管理方法、およびプログラム
JP6717113B2 (ja) * 2016-08-22 2020-07-01 株式会社Ihi 観察装置および観察方法
JP6468309B2 (ja) * 2017-05-08 2019-02-13 株式会社ニコン 画像サーバ
CN114175020A (zh) * 2019-07-19 2022-03-11 富士胶片株式会社 图像显示装置、方法及程序

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09218955A (ja) * 1996-02-14 1997-08-19 Hitachi Ltd 位置認識方法及び装置
JP3913410B2 (ja) * 1999-07-23 2007-05-09 富士フイルム株式会社 画像検索方法
JP2003101984A (ja) * 2001-09-21 2003-04-04 Mitsubishi Heavy Ind Ltd 画像配信システムおよび画像配信方法
JP2003263104A (ja) * 2002-03-11 2003-09-19 Mitsubishi Electric Corp 撮像情報認識システム

Also Published As

Publication number Publication date
JP2009065324A (ja) 2009-03-26

Similar Documents

Publication Publication Date Title
JP4755156B2 (ja) 画像提供装置及び画像提供プログラム
KR101417548B1 (ko) 사진 콜렉션에서 이벤트들을 생성하고 라벨링하는 방법 및 시스템
US8805165B2 (en) Aligning and summarizing different photo streams
JP5092000B2 (ja) 映像処理装置、方法、及び映像処理システム
US6956573B1 (en) Method and apparatus for efficiently representing storing and accessing video information
US8315463B2 (en) User interface for face recognition
US9076069B2 (en) Registering metadata apparatus
JP4973188B2 (ja) 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム
US20090161962A1 (en) Grouping images by location
JP5289151B2 (ja) データ管理装置、その制御方法及びプログラム
KR100982192B1 (ko) 사진의 촬영 위치 및 방향 정보 태깅 방법과 그 장치
Lu et al. GeoUGV: User-generated mobile video dataset with fine granularity spatial metadata
JP2008146191A (ja) 画像出力装置および画像出力方法
JP2011078008A (ja) コンテンツ共有装置、コンテンツ編集装置、コンテンツ共有プログラム、およびコンテンツ編集プログラム
CN108958592B (zh) 视频处理方法及相关产品
JP6203188B2 (ja) 類似画像検索装置
JP2006140559A (ja) 画像再生装置及び画像再生方法
JP3372096B2 (ja) 画像情報アクセス装置
US9779306B2 (en) Content playback system, server, mobile terminal, content playback method, and recording medium
JP2009267773A (ja) 映像編集装置、撮影装置および映像編集方法
JP5480495B2 (ja) 情報処理装置及び情報処理方法、並びに情報処理システム
JP2007316876A (ja) 文書検索プログラム
JP2006244424A (ja) 映像シーン分類方法及び装置及びプログラム
US20180189602A1 (en) Method of and system for determining and selecting media representing event diversity
JP2013214158A (ja) 表示画像検索装置、表示制御システム、表示制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090715

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110322

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110526

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4755156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees