JP2016103248A - 画像提供システムおよび画像提供方法 - Google Patents

画像提供システムおよび画像提供方法 Download PDF

Info

Publication number
JP2016103248A
JP2016103248A JP2014242551A JP2014242551A JP2016103248A JP 2016103248 A JP2016103248 A JP 2016103248A JP 2014242551 A JP2014242551 A JP 2014242551A JP 2014242551 A JP2014242551 A JP 2014242551A JP 2016103248 A JP2016103248 A JP 2016103248A
Authority
JP
Japan
Prior art keywords
image
subject
unit
display terminal
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014242551A
Other languages
English (en)
Other versions
JP6388532B2 (ja
Inventor
水谷 政美
Masami Mizutani
政美 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014242551A priority Critical patent/JP6388532B2/ja
Publication of JP2016103248A publication Critical patent/JP2016103248A/ja
Application granted granted Critical
Publication of JP6388532B2 publication Critical patent/JP6388532B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】複数の画像の中から被写体が含まれる区間の一連の画像を簡単な操作で表示することを目的とする。【解決手段】サーバは、表示端末が指定した被写体に関する情報に基づいて、前記被写体の位置を特定する特定部と、前記被写体を撮影した撮影位置と前記被写体の位置とに基づいて、前記被写体を含む区間の一連の周囲画像を特定する特定データを生成する生成部と、前記特定データを前記表示端末に送信する送信部と、を備え、前記表示端末は、複数の周囲画像が記憶される記憶装置から、前記特定データに基づいて、前記被写体を含む区間の一連の周囲画像を抽出する抽出部と、前記特定データに基づいて、前記抽出部が抽出した一連の周囲画像のうち前記被写体の画像を表示する表示部と、を備える。【選択図】図1

Description

本発明は、画像提供システムおよび画像提供方法に関する。
被写体の画像に撮影位置の位置情報を関連付けて、表示する被写体の画像を特定し、特定された被写体の画像を表示する技術がある。例えば、撮影位置と画像データとを関連付けて格納するデータベースから所望の検索対象物が写り込んでいる画像を検索する技術が提案されている。
また、コラージュを作成するために、デジタル画像の自動アノテーションのための、および画像をスラッチするための場所データに基づいて、デジタル画像により取得されたオブジェクトを識別する技術が提案されている(例えば、特許文献1および2参照)。
国際公開第2013/114473号公報 特表2010−509668号公報
1つの側面として、本発明は、複数の画像の中から被写体を捉えた区間の一連の画像を簡単な操作で表示することを目的とする。
1つの態様では、画像提供システムは、サーバと表示端末とを含む画像提供システムであって、前記サーバは、前記表示端末が指定した被写体に関する情報に基づいて、前記被写体の位置を特定する特定部と、前記被写体を撮影した撮影位置と前記被写体の位置とに基づいて、前記被写体を含む区間の一連の周囲画像を特定する特定データを生成する生成部と、前記特定データを前記表示端末に送信する送信部と、を備え、前記表示端末は、複数の周囲画像が記憶される記憶装置から、前記特定データに基づいて、前記被写体を含む区間の一連の周囲画像を抽出する抽出部と、前記特定データに基づいて、前記抽出部が抽出した一連の周囲画像のうち前記被写体の画像を表示する表示部と、を備える。
1つの側面によれば、複数の画像の中から被写体を捉えた区間の一連の画像を簡単な操作で表示することができる。
画像提供システムの一例を示す図である。 車両に搭載したカメラと視野との関係の一例を示す図である。 車両に含まれる制御部の一例を示す機能ブロック図である。 車載画像メタデータの一例を示す図である。 制御部が行う処理の一例を示すフローチャートである。 画像蓄積サーバおよびメタデータサーバの処理の一例を示すフローチャートである。 表示端末と画像検索サーバとが行う処理の一例を示すシーケンスチャートである。 合成画像メタデータの生成の一例を示すフローチャートである。 車載画像メタデータの区間の一例を示す図である。 被写体を囲うバウンディングボックスの一例を示す図である。 被写体を含むポリゴンデータの一例を示す図である。 車載画像メタデータと合成映像メタデータとの関係の一例を示す図である。 合成画像メタデータの一例を示す図である。 選択画面の一例を示す図である。 視野を設定して表示する処理の一例を示すフローチャートである。 テクスチャが設定された全周囲画像の一例を示す図である。 被写体を捉えた画像の一例を示す図である。 視点、視野を変更した場合の仮想カメラの仮想視野の一例を示す図である。 表示部に表示される動画の一例を示す図である。 可視性に基づく画像選択を行うための画面例を示す図である。 画像検索サーバのハードウェア構成の一例を示す図である。 表示端末のハードウェア構成の一例を示す図である。
<発明者の知見>
例えば、全周囲を撮影可能なカメラを搭載した車両が移動しながら所定のタイミングで全周囲画像の撮影を行う。従って、カメラが撮影する全周囲画像は、異なる位置で撮影した画像になる。車両が被写体の近傍を通過しながら撮影を行う場合、被写体が含まれる全周囲画像は一連の全周囲画像になる。
ユーザの端末(以下、表示端末と称する)が全周囲画像のうち車両の進行方向の視野の画像を表示するように設定されている場合、被写体が全周囲画像に含まれていたとしても、表示端末には被写体が表示されない場合がある。例えば、車両の進行方向に対して後方に被写体がある場合には、全周囲画像に被写体が含まれていたとしても、表示端末には被写体が表示されない。
この場合、ユーザは、表示端末を操作して、手動で視野を設定する。これにより、表示端末は、車両の進行方向に対して後方の被写体を表示することができ、表示端末は、被写体を中心に捉えたカメラワークで撮影した被写体を表示することができる。ただし、この場合、ユーザの手動操作により被写体を中心に捉えたカメラワークで被写体を表示するため、操作性が煩雑になる。
また、被写体の動画再生を行う場合、視野を手動で設定しながら、被写体を中心に捉えたカメラワークで動画再生を行うことは難しい。従って、被写体を含む区間の一連の周囲画像のうち被写体を中心に捉えたカメラワークの画像は、ユーザによる視野設定の操作が行われることなく、表示されることが望ましい。
<画像提供システムの全体構成の一例>
以下、図面を参照して、実施形態について説明する。図1は、画像提供システム1の一例を示している。画像提供システム1において、複数の車両2(2A、2B、・・・)と画像蓄積サーバ3と画像検索サーバ4とメタデータサーバ5と地図サーバ6と表示端末7とがネットワーク8を介して接続されている。
車両2は、例えば自動車である。車両2は、全周囲を撮影可能なカメラを搭載している。実施形態では、複数の車両2は移動しながら、所定のタイミングで全周囲を視野とする全周囲画像を撮影する。複数の車両2が移動しながら全周囲画像を撮影しているため、異なる車両2が同じ被写体を撮影することがある。
各車両2は、所定のタイミングで、ネットワーク8を介して、撮影した全周囲画像に画像IDを付与して画像蓄積サーバ3に送信する。なお、IDはIdentificationの略称である。また、各車両2は、ネットワーク8を介して、撮影した全周囲画像に関するデータ(以下、車載画像メタデータと称する)をメタデータサーバ5に送信する。
画像蓄積サーバ3は、各車両2から送信される全周囲画像を画像IDと関連付けて記憶する。また、画像蓄積サーバ3は、表示端末7から指定された被写体を含む一連の全周囲画像を抽出して、表示端末7に送信する。画像蓄積サーバ3は、記憶装置の一例である。
画像検索サーバ4は、サーバ通信部11と被写体位置特定部12と合成画像メタデータ生成部13と演算部14とを備える。画像検索サーバ4は、サーバの一例である。サーバ通信部11は、ネットワーク8との間でデータの通信を行う。サーバ通信部11は、送信部の一例である。
被写体位置特定部12は、指定された被写体の位置を特定する。実施形態では、被写体位置特定部12は、表示端末7から送信された被写体に関するキーワードに基づいて、地図サーバ6からキーワードに対応する被写体の位置を特定する。被写体位置特定部12は、特定部の一例である。
合成画像メタデータ生成部13は、合成画像メタデータを生成する。合成画像メタデータは、車載画像メタデータの一連の全周囲画像のうち、表示端末7が指定した被写体を含む区間の全周囲画像を特定するデータである。合成画像メタデータは、特定データの一例である。また、合成画像メタデータ生成部13は、生成部の一例である。
実施形態では、周囲画像に被写体が含まれるか否かは、被写体の位置と撮影位置との距離が所定の閾値以下であるか否かに基づいて判定される。ただし、周囲画像に被写体が含まれているか否かの判定基準は、上記の例には限定されない。
演算部14は、合成画像メタデータに含まれる各パラメータの値を演算する。例えば、演算部14は、上述した撮影位置と被写体の位置との間の距離を演算する。また、演算部14は、撮影位置から見た被写体の位置の方位や仰角等を演算する。
メタデータサーバ5は、上述した車載画像メタデータおよび合成画像メタデータを記憶する。メタデータサーバ5は、複数の車載画像メタデータおよび複数の合成画像メタデータを記憶する。
地図サーバ6は、地図上の位置とキーワードとを対応付けて記憶している。キーワードは、被写体を特定する情報である。例えば、キーワードは、施設の名称や住所等であってもよい。地図上の位置は、例えば、経度と緯度とにより特定されてもよい。また、地図サーバ6が記憶する地図は3次元地図であってもよい。
表示端末7は、ユーザが所有する端末である。例えば、パーソナルコンピュータやスマートフォン、携帯電話、タブレット端末等であってもよい。表示端末7は、端末通信部21と画像抽出部22と視野設定部23と画像処理部24と表示部25とを備える。
端末通信部21は、ネットワーク8を介して通信を行う。画像抽出部22は、被写体を含む区間の合成画像メタデータに基づいて、画像蓄積サーバ3から複数の全周囲画像の抽出を行う。
視野設定部23は、画像検索サーバ4から受信する合成画像メタデータに基づいて、全周囲画像の中での視野(仮想視野とも称することがある)を設定する。画像処理部24は、全周囲画像のうち視野設定部23が設定した視野の画像を生成する処理を行う。
表示部25は、画像処理部24が処理した画像を表示する。例えば、表示部25は、タッチパネルディスプレイであってもよい。表示部25がタッチパネルディスプレイの場合、表示部25は操作機能を有する。表示端末7が不図示の操作手段(例えば、ボタン等)を有する場合、表示部25は操作機能を有しなくてもよい。
図1の例では、画像蓄積サーバ3と画像検索サーバ4とメタデータサーバ5とを別個のサーバとして設けているが、これらのサーバを1つのサーバとしてもよい。例えば、画像検索サーバ4が画像蓄積サーバ3およびメタデータサーバ5の機能を有していてもよい。
<車両の一例>
図2は、全周囲を撮影可能なカメラを搭載した車両2の一例を示している。車両2の前後左右にはカメラC1〜C4が設けられている。カメラC1〜C4に対応する視野をV1〜V4とする。
カメラC1〜C4はそれぞれ広角レンズを用いており、視野V1〜V4は3次元的に広い範囲となる。視野V1および視野V4は、視野V2および視野V2およびV3と重なる視野範囲となる。カメラC1〜C4が撮影した画像を合成すると、車両2を中心とした全周囲を視野とした全周囲画像が生成される。
実施形態では、全周囲画像は、カメラC1〜C4が撮影した4チャンネルの画像に基づいて生成することができる。ただし、全周囲画像を生成する図2の例には限定されない。例えば、360度全天周レンズを用いた1台のカメラを車両2の屋根に設置して、このカメラが全周囲画像を撮影してもよい。
また、実施形態では、車両2に搭載するカメラにより生成される画像は全周囲画像であるものとして説明するが、全周囲画像には限定されない。例えば、車両2に搭載したカメラは350度の周囲画像を撮影してもよい。
図3は、車両2に含まれる制御部30の一例を示している。カメラC1〜C4が撮影した画像は、時刻同期がされている。時刻同期がされた4枚の画像は、一次記憶部31に記憶される。一次記憶部31は、例えばメモリ等であってもよい。
時刻同期がされた4枚の画像は、合成されているか否かにかかわらず、全周囲画像と称する。実施形態では、表示端末7の画像処理部24で画像処理がされるまで、全周囲画像は合成されていない画像であるものとする。ただし、時刻同期された4枚の画像は、制御部30で合成されてもよい。
圧縮符号化部32は、一次記憶部31から全周囲画像を読み出して、読み出した全周囲画像を圧縮符号化する。例えば、全周囲画像の4枚の画像(解像度:640×480)のそれぞれについて、時刻が異なる4枚の全周囲画像を1つにした全周囲画像(解像度:1280×960)に対して、圧縮符号化部32は、圧縮符号化を行ってもよい。圧縮符号化には、例えば、H.264等を適用してもよい、圧縮符号化部32が圧縮符号化を行った全周囲画像は、車載記憶部36に記憶される。
時刻計測部33は、時刻を計測する。位置情報取得部34は、現在位置の情報を取得する。例えば、位置情報取得部34は、Global Positioning System(GPS)であってもよい。位置情報取得部34と一次記憶部31が記憶する全周囲画像とは時刻同期がされている。
車載画像メタデータ生成部35は、車載画像メタデータを生成する。車載画像メタデータは、カメラC1〜C4が撮影した全周囲画像に関するデータである。図4の例に示される車載画像メタデータは、画像ID、撮影時刻、撮影位置、カメラ固有情報およびカメラ設置情報等のパラメータを含む。
画像IDは、全周囲画像を特定する識別子である。撮影時刻は、カメラC1〜C4が撮影を行ったときに時刻計測部33が計測した時刻である。撮影位置は、全周囲画像を取得したときに位置情報取得部34が取得する位置情報である。
カメラ固有情報は、カメラC1〜C4の解像度やレンズ歪み等に関する情報である。カメラ設置情報は、カメラC1〜C4の設置位置や姿勢等に関する情報である。カメラ固有情報およびカメラ設置情報は、既知の情報である。
車載画像メタデータは、図4の例に示されたパラメータ以外のパラメータを有していてもよい。車両2に搭載されたカメラC1〜C4は、所定のタイミングで全周囲画像を撮影する。車載画像メタデータ生成部35は、全周囲画像が生成されるごとに、それぞれ固有の画像IDを付与して、車載画像メタデータを生成する。
車載画像メタデータの画像IDと該画像IDに対応する全周囲画像とは関連付けがされて、車載記憶部36に記憶される。車両通信部37は、所定のタイミングごとに、車載画像メタデータをメタデータサーバに送信し、全周囲画像を画像蓄積サーバ3に送信する。
なお、車載記憶部36に記憶されている全周囲画像および車載画像メタデータのうち、送信済みの情報は削除されることが望ましい。これにより、車載記憶部36に記憶される情報量を削減することができる。
<制御部の処理の一例を示すフローチャート>
次に、制御部30の各部が行う処理のフローチャートについて、図5を参照して説明する。車両2に搭載されたカメラC1〜C4は撮影を行う(ステップS1)。カメラC1〜C4が撮影した4枚の画像は一次記憶部31に記憶される。
これら4枚の画像は時刻同期がされており、一次記憶部31には、カメラC1〜C4が撮影した画像が記憶される(ステップS2)。上述したように、実施形態では、時刻同期された4枚の画像を総称して全周囲画像と称する。
圧縮符号化部32は、全周囲画像の圧縮符号化を行う(ステップS3)。制御部30は、圧縮符号化された全周囲画像に対して画像IDを付与する(ステップS4)。制御部30は画像IDが付与された全周囲画像を車載記憶部36に記憶する(ステップS5)。
ステップS1〜S5の処理と並行して、以下のステップS6〜S9の処理が行われる。位置情報取得部34は、カメラC1〜C4が撮影したときの位置情報を取得する(ステップS6)。車載画像メタデータ生成部35は、時刻計測部33が計測した時刻と位置情報取得部34が取得した位置情報とを関連付ける(ステップS7)。
車載画像メタデータ生成部35は、位置情報取得部34から取得した位置情報に対応する画像IDを取得する(ステップS8)。これにより、時刻情報と位置情報とを含む車載画像メタデータが全周囲画像と関連付けられて車載記憶部36に記憶される(ステップS9)。
車両2は移動しながら、カメラC1〜C4を用いて、所定タイミングで撮影を行う。従って、異なる地点で撮影された経時的な一連の全周囲画像が生成される。そして、時刻ごとに、全周囲画像と車載画像メタデータとは関連付けられて車載記憶部36に記憶される。
車両通信部37は、画像蓄積サーバ3とコネクションが確立されているか否かを判定する(ステップS10)。コネクションが確立されている場合(ステップS10でYES)、車両通信部37は全周囲画像を画像蓄積サーバ3に送信する(ステップS11)。一方、コネクションが確立されていない場合(ステップS10でNO)、全周囲画像は送信されない。
車両通信部37は、メタデータサーバ5とコネクションが確立されているか否かを判定する(ステップS12)。コネクションが確立されている場合(ステップS12でYES)、車両通信部37は車載画像メタデータをメタデータサーバ5に送信する(ステップS13)。一方、コネクションが確立されていない場合(ステップS12でNO)、車載画像メタデータは送信されない。
制御部30は、送信済みの全周囲画像および車載画像メタデータを車載記憶部36から削除してもよい。カメラC1〜C4は所定タイミングで撮影を行うため、全周囲画像および車載映像メタデータは、撮影を行うごとに増えていく。従って、制御部30が送信済みの全周囲画像および車載画像メタデータを車載記憶部36から削除することで、車載記憶部36に記憶される情報量を削減することができる。
<画像蓄積サーバおよびメタデータサーバの処理の一例>
図6(A)は、画像蓄積サーバ3の処理の一例を示している。画像蓄積サーバ3は、車両2の車両通信部37との間でコネクションを確立しているか否かを判定する(ステップS21)。
コネクションが確立されている場合(ステップS21でYES)、画像蓄積サーバ3は、車両通信部37から全周囲画像を受信したか否かを判定する(ステップS22)。画像蓄積サーバ3は、全周囲画像を受信したと判定した場合(ステップS22でYES)、受信した全周囲画像を画像IDと関連付けて記憶する(ステップS23)。これにより、画像蓄積サーバ3に全周囲画像が蓄積される。
画像蓄積サーバ3は、車両通信部37との間でコネクションが確立されていない場合(ステップS21でNO)、または画像を受信しない場合(ステップS22でNO)、ステップS23の処理を行わない。
図6(B)は、メタデータサーバ5の処理の一例を示している。メタデータサーバ5は、車両2の車両通信部37との間でコネクションを確立しているか否かを判定する(ステップS24)。
コネクションが確立されている場合(ステップS24でYES)、メタデータサーバ5は、車両通信部37から車載映像メタデータを受信したか否かを判定する(ステップS25)。メタデータサーバ5は、車載映像メタデータを受信したと判定した場合(ステップS25でYES)、受信した車載映像メタデータを記憶する(ステップS23)。
メタデータサーバ5は、車両通信部37との間でコネクションが確立されていない場合(ステップS24でNO)、または車載映像メタデータを受信しない場合(ステップS25でNO)、ステップS26の処理を行わない。
<表示端末と画像検索サーバとの間で行われる処理の一例>
次に、表示端末7と画像検索サーバ4とが行う処理の一例について、図7のシーケンスチャートを参照して説明する。表示端末7のユーザは、対象となる被写体の情報を表示端末7に入力する。例えば、表示部25が操作機能を有する場合、ユーザは、表示部25を用いて、対象となる被写体の情報を入力する。
表示端末7は、入力された被写体(ユーザにより指定された被写体)の情報を画像検索サーバ4に送信する。実施形態では、ユーザにより指定された被写体の情報は、キーワードであるものとする。
キーワードは、上述したように、施設の名称や住所等であってもよい。従って、端末通信部21は、入力されたキーワードを画像検索サーバ4に送信する(ステップSC1)。なお、ユーザにより指定される被写体の情報は、キーワードには限定されない。例えば、被写体の情報は、被写体の経度および緯度を示す位置情報であってもよい。
画像検索サーバ4は、受信したキーワードを地図サーバ6に送信する。地図サーバ6は、キーワードに対応付けられている位置情報を画像検索サーバ4に送信する。これにより、画像検索サーバ4は、キーワードに基づく位置情報を取得する(ステップSC2)。取得した位置情報は、ユーザにより指定された被写体の位置情報である。
画像検索サーバ4は、メタデータサーバ5に記憶されている複数の車載映像メタデータのうち、取得した位置情報(図4の例では撮影位置)を含む車載映像メタデータをメタデータサーバ5から抽出する(ステップSC3)。抽出される車載映像メタデータは複数の場合もある。
画像検索サーバ4の合成画像メタデータ生成部13は、車載映像メタデータから被写体を含む区間の画像を特定し、合成画像メタデータを生成する(ステップSC4)。合成画像メタデータの生成の一例について、図8のフローチャートを参照して説明する。
演算部14は、抽出された車載映像メタデータに含まれる撮影位置と被写体の位置との間の距離Dを算出する(ステップS31)。距離Dは、2つの地点間の距離を算出する以下の式(1)を用いてもよい。
なお、以下の式(1)において、撮影位置は(経度x1、緯度y1)とし、被写体の位置は(経度x2、緯度y2)とする。撮影位置は、車載映像メタデータに含まれ、被写体の位置は、ステップSC2で取得した位置情報により特定される。rは地球の赤道半径である。
「D=r×cos−1(sin(y1)×sin(y2)+cos(y1)×cos(y2)×cos(x2−x1))」・・・(式1)
次に、演算部14は、上記の式(1)で得られた撮影位置と被写体の位置との距離Dが閾値Dth以下となる区間Tsegを算出する。区間Tsegは、全周囲画像に被写体が含まれている区間を示す。
図9は、車載画像メタデータのうち区間Tseg(ハッチングを施した区間)を特定した一例を示している。撮影位置と被写体の位置との距離が短ければ、全周囲画像に被写体は鮮明に写る。一方、撮影位置と被写体の位置との距離が長ければ、全周囲画像に写る被写体の鮮明度は低下する。
そこで、全周囲画像に被写体が含まれるか否かを判定する基準を上記の閾値Dthとする。閾値Dthは任意の値が設定されてもよい。画像検索サーバ4に対して、閾値Dthが入力されてもよい。
また、後述する図10の被写体のバウンディングボックスBBが得られる場合には、車載画像メタデータに含まれるカメラ固有情報に基づいて、全周囲画像に被写体が所定画素以上で写るために必要な距離をDthとしてもよい。
図9の場合、時刻T1から始まる一連の全周囲画像のうち、時刻T4からT7の区間における撮影位置と被写体の位置とが「D≧Dth」を満たす区間である。時刻T3または時刻T8における全周囲画像にも被写体が含まれている可能性がある。ただし、図9の例では、時刻T3および時刻T8は「D≧Dth」を満たさないため、合成画像メタデータ生成部13は、全周囲画像に被写体が含まれていないと判定する。
撮影位置は、図9の例に示すように、経時的に変化する。図9の例では、時刻T4においては、撮影位置は位置P4であり、時刻T5においては、位置P5である。つまり、車両2に搭載されたカメラC1〜C4が所定のタイミングで撮影を行うため、撮影したタイミングごとの一連の全周囲画像が生成される。
時刻Tにおける距離をDtとする。上記の式(1)は、Dt=F(X、Pt)としてもよい。Xは、被写体の位置であり、Ptは時刻tにおける撮影位置である。そして、時刻Tにおける距離Dtは、上記の式(1)の関数Fにより求めることができる。
また、上述したように、「D≧Dth」となる開始時刻をTs、終了時刻Teとすると、上記の区間Tsegは「Ts,Te」として表すことができる。図9の例の場合、区間Tsegの開始時刻TsはT4であり、終了時刻TeはT7である。
図8の例に示すように、区間Tsegが算出された後、合成画像メタデータ生成部13は、方位情報θを算出する(ステップS33)。方位情報θは、撮影位置から被写体の位置を撮影したときの方位である。方位情報θは、例えば、以下の式(2)により得られる。なお、x1、x2、y1およびy2は、上述した式(1)と同様である。
「θ=90−arctan2(sin(x2−x1)、cos(y1)×tan(y2)−sin(y1)×cos(x2−x1))」・・・式(2)
これにより、撮影位置から見た被写体の方位情報θが得られる。車両2が移動するごとに撮影位置が変化するため、方位情報θも撮影位置によって変化する。撮影位置は撮影時刻によって変化するため、方位情報θも時刻によって変化する。従って、時刻tの方位情報θtはθt=G(X、Pt)として表すことができる。つまり、式(2)を関数Gとして表せば、θt=G(X、Pt)となる。
演算部14は、仰角情報φを算出する(ステップS34)。仰角情報φは、水平面方向を基準とした被写体の仰角を示す。仰角情報φも時刻と共に変化するため、仰角情報φtとすることができる。仰角情報φtは、例えば、図10の破線で示すバウンディングボックスBBに基づいて得ることができる。
仰角情報φtは、被写体を3次元的に囲う直方体形状のバウンディングボックスBBが設定されている場合、バウンディングボックスBBの8つの頂点B1〜B8の中心座標Bcに基づいて、以下の式(3)により得ることができる。なお、中心座標Bcは(xc、yc、zc)とする。xc、yx、zxは、バウンディングボックスBBのx軸、y軸、z軸の中心座標であることを示す。
「φt=arctan(zc/Dt)」・・・(式3)
演算部14は、視野情報FOVを算出する(ステップS35)。視野情報FOVは、図10に一例として示すバウンディングボックスBBを規定する。視野情報FOVは、水平方向の視野角(fovH)および垂直方向の視野角(fovV)により規定される。
例えば、視野情報FOVは、バウンディングボックスBBをちょうど包含するように設定されてもよいし、固定値としてもよい。視野情報FOVが固定値の場合、演算部14は視野情報FOVを求める演算は行わない。次に、演算部14は、可視性Vを算出する(ステップS36)。
可視性Vも、時刻ごとに変化するため、時刻tにおける可視性Vを可視性Vtとする。可視性Vtは、撮影位置から被写体の立体領域(例えば、バウンディングボックスBB)が見える程度を示す。つまり、可視性Vtは、時刻tにおける全周囲画像に写っている被写体の率を示す。
例えば、図10に示すように、撮影位置(Pt)からバウンディングボックスBBに向けて所定の角度分解能で視線ベクトルを発したときの該視線ベクトルの本数をN本とする。図11の例は、被写体を含むポリゴンデータの一例である。演算部14は、視線ベクトルが被写体に衝突する率を演算する。演算部14は、被写体のポリゴンにヒット(衝突)した総数がM本の場合、可視性Vtを以下の式(4)で演算する。
「Vt=M/N」・・・(式4)
例えば、撮影位置と被写体との間に何らかの遮蔽物があると、撮影位置から発した視線ベクトルのうち遮蔽物にヒットした視線ベクトルは、被写体にはヒットしない。このため、Mが低下するため、可視性Vtも低下する。
演算部14は、可視良好性Qを演算する(ステップS37)。可視良好性Qは、ステップS32で求められた区間Tsegにおける可視性Vtから統合的に評価される値である。例えば、可視良好性Qは、以下の式(5)のように、区間Tsegにおける全ての可視性Vの平均値として演算してもよい。
なお、式(5)において、fsは総フレーム数を示す。例えば、車載画像メタデータと合成映像メタデータとの関係の例を示す図12の例の場合、区間Tsegにおける可視良好性Qは、以下の式(6)のようになる。
「Q=(V4+V5+V6+V7)/4」・・・(式6)
以上により、図7のステップSC4の処理が終了し、合成画像メタデータが生成される。図12の例に示されるように、車載画像メタデータのうち、時刻T4からT7までの間が区間Tseg(ハッチングを施してある区間)である。
演算部14は、区間Tsegの間の方位θ4からθ7、仰角φ4からφ7、視野FOV4からFOV7および可視性V4からV7を演算する。図13は、合成画像メタデータに含まれるパラメータの一例である。
合成画像メタデータIDは、合成画像メタデータを識別する識別子である。画像ID、撮影時刻、撮影位置、カメラ固有情報およびカメラ設置情報は、合成画像メタデータを生成する元となる車載画像メタデータに含まれるデータである。
また、区間情報は、合成画像メタデータが区間Tsegの開始時刻および終了時刻を示す。上述したように、区間情報は「Ts、Te」であるため、図12の例の場合、区間情報は「T4、T7」になる。
合成画像メタデータ生成部13は、区間Tsegに含まれる各時刻について、合成画像メタデータを生成する。図12の例の場合、合成画像メタデータ生成部13は、時刻T4からT7の4つの時刻について、合成画像メタデータを生成する。
上述したように、指定された被写体を含む複数の合成画像メタデータが生成されることがある。サーバ通信部11は、生成された複数の合成画像メタデータをそれぞれ特定する合成画像メタデータIDをリスト形式で表示端末7に送信する(ステップSC5)。表示端末7の端末通信部21は、合成画像メタデータIDのリストを受信する。
表示端末7は、リストに含まれる合成画像メタデータIDで特定される複数の合成画像メタデータをメタデータサーバ5から取得する(ステップSC6)。このために、端末通信部21は、リストに含まれる合成画像メタデータIDをメタデータサーバ5に送信する。
メタデータサーバ5は、合成画像メタデータIDで特定される複数の合成画像メタデータを表示端末5に送信する。これにより、表示端末7は、複数の合成画像メタデータを取得する。
表示端末7は、取得した複数の合成画像メタデータのうち何れの合成画像メタデータを表示するかを選択する画面(以下、選択画面と称する)を表示する(ステップSC7)。なお、表示端末7が受信した合成画像メタデータが1つの場合は、ステップSC7の処理は行われなくてもよい。
図14は、選択画面の一例を示している。選択画面は、1つの合成画像メタデータIDごとに、可視良好性Qを表示する。図14の例では、1つの合成画像メタデータIDについて、撮影時刻とサムネイルとを表示している。
可視良好性Qは、区間Tsegにおける1つの全周囲画像についての可視性Vの統合的な評価値であり、動画表示したときの平均的な品質を示す。ユーザは、表示部25に表示されている選択画面の中から所望の合成画像メタデータIDを選択する。従って、ユーザは、可視良好性Qの値が高い合成画像メタデータIDを選択することで、指定した被写体を含む高品質な動画を視聴することができる。
なお、図14の例において、表示部25は、可視良好性Qではなく、可視性Vの最大値を表示してもよい。この場合、ユーザは、合成画像メタデータIDで特定される複数の静止画のうち、可視性Vが高い静止画を選択することができる。これにより、表示部25は、指定した被写体を含む高品質な静止画を表示することができる。
表示端末7の端末通信部21は、選択された合成画像メタデータIDをメタデータサーバ5に送信する。メタデータサーバ5は、選択された合成画像メタデータを表示端末7に送信する。これにより、表示端末7は、選択された合成画像メタデータを取得する(ステップSC8)。
図7の例に示すように、画像抽出部22は、合成画像メタデータIDが選択されると、選択された合成画像メタデータIDに基づく一連の画像を画像蓄積サーバ3から抽出する(ステップSC9)。合成画像メタデータは、画像IDと区間情報とを含む。図12の例では、区間情報は、時刻T4から時刻T7を示す情報になる。
従って、表示端末7は、選択された合成画像メタデータに含まれる画像IDと区間情報とを画像蓄積サーバ3に送信する。画像蓄積サーバ3は、記憶している複数の全周囲画像のうち、画像IDで特定される全周囲画像について、区間情報で特定される一連の全周囲画像を抽出する。画像蓄積サーバ3は、抽出した一連の全周囲画像を端末通信部21に送信する。このときに抽出される一連の全周囲画像は、区間Tsegの一連の全周囲画像になる。
端末通信部21は、区間Tsegの一連の全周囲画像を受信する。図7の例に示すように、表示端末7は、全周囲画像の中で視野を設定し、設定された視野で画像処理部24が画像処理を行う。そして、画像処理された画像が表示部25に表示される(ステップSC10)。
図15は、ステップSC8の処理の例を示す。表示端末7が受信する全周囲画像は、上述したように、カメラC1〜C4が撮影した4枚の画像である。画像処理部24は、取得した全周囲画像を合成して、車両2を中心とした3次元曲面を設定する(ステップS41)。3次元曲面は、例えば、ポリゴンで定義されてもよい。
画像処理部24は、テクスチャの設定を行う(ステップS42)。例えば、画像処理部24は、合成画像メタデータに含まれるカメラ固有情報およびカメラ設置情報に基づいて、仮想空間に配置したカメラから3次元曲面のポリゴン頂点を向く視線ベクトルを算出する。
そして、画像処理部24は、視線ベクトルに対応したカメラの画素位置をカメラ固有情報に基づいて算出する。これにより、画像処理部24は、ポリゴン頂点とテクスチャの画素位置との対応関係を算出することができる。
テクスチャが設定された全周囲画像の一例を図16に示す。図16では、楕円形で全周囲画像41を示しているが、上述したように全周囲画像は3次元曲面である。例えば、テクスチャが設定された全周囲画像は、3次元的に湾曲したお椀型の形状をしている。
表示端末7は、図16の例の全周囲画像に対応する合成画像メタデータを受信している。従って、視野設定部23は、合成画像メタデータに含まれる方位情報θおよび仰角情報φに基づいて、図16の例の全周囲画像に仮想カメラ42の仮想視野を設定できる。図16では、仮想視野を一点鎖線で示している。この仮想視野には、被写体44が含まれる。
画像処理部24は、設定された仮想視野で描画処理を行う(ステップS44)。これにより、図17の例で示されるような被写体44を捉えた画像(被写体44を含む画像)が表示部25に表示される。図17の例の被写体44は、建物を示している。
上述したように、車両2が移動することで、撮影地点は変化し、被写体に対する視点、視野が変化する。つまり、区間Tsegにおいて、一連の全周囲画像の撮影位置は刻々と変化していく。そこで、視野設定部23は、区間Tsegの次の時刻の全周囲画像に対して、この全周囲画像に対応する合成画像メタデータに基づいて、視点、視野の設定を変更する(ステップS45)。
図18は、視点、視野を変更した場合の仮想カメラ42の仮想視野の例を示している。視野設定部23は、区間Tsegの次の時刻の方位情報θおよび仰角情報φに基づいて、仮想視野を変更している。
区間Tsegの一連の全周囲画像は、それぞれ撮影位置が異なる。従って、区間Tsegの一連の全周囲画像の方位情報θおよび仰角情報φは、全周囲画像によって異なる。つまり、全周囲画像によってカメラワークが異なる。
画像処理部24は、表示を終了するか否かを判定する(ステップS46)。例えば、区間Tsegの全周囲画像に基づく画像表示が全て終了したとき(ステップS46でYES)、表示部25は表示を終了する。または、表示端末7に対して、表示を終了する操作がされた場合に、表示部25は表示を終了する。
一方、表示を終了しない場合(ステップS46でNO)、ステップS43〜S45の処理が繰り返される。従って、区間Tsegの間、ステップS43およびS44の処理が繰り返される。視野設定部23は、合成画像メタデータに含まれる方位情報θおよび仰角情報φに基づいて、随時、被写体を捉えるカメラワークで撮影された画像を表示する。
これにより、ユーザは、特別な操作を行うことなく、被写体を捉えたカメラワークで撮影された区間Tsegの一連の画像を視聴することができる。視野設定部23は、方位情報θおよび仰角情報φを含むカメラワーク情報に基づいて、仮想カメラ42の位置を変化させる。
従って、区間Tsegの一連の画像を視聴するときに、各画像は、常に被写体を中心に捉えた画像になっている。例えば、区間Tsegの一連の画像を表示端末7が動画表示する場合、ユーザは単にキーワードを指定するだけで、簡単な操作で常に被写体を中心に捉えたカメラワークの動画を視聴することができる。
図19は、表示部25に表示される動画の一例を示している。図19(A)は、被写体44を正面から撮影する位置に到達する前にカメラC1〜C4が撮影した全周囲画像に基づく画像の一例である。
図19(A)の場合、遮蔽物45により、被写体44の一部が非表示の状態になる。遮蔽物45としては、例えば、電柱や樹木等がある。図19(A)の例では、遮蔽物45を要因として被写体44の可視性がV=0.7となる。
図19(B)は、被写体44を正面から撮影した全周囲画像に基づく画像の一例である。この場合、カメラワークが変化しており、遮蔽物45により被写体44の可視性Vはそれほど影響を受けない。図19(B)の場合、可視性VはV=0.9である。
図19(C)は、被写体44を正面から通過した位置で撮影した全周囲画像に基づく画像の一例である。この場合、カメラワークが変化しており、遮蔽物45を要因として被写体44の可視性Vが低下する。図19(C)の場合、可視性VはV=0.7である。
図20は、可視性Vに基づく画像選択を行うための画面例を示している。表示端末7の表示部25は、画像表示領域51と可視性グラフ52とスライダバー53とを有している。画像表示領域51は、被写体44を含む画像を表示する領域である。
可視性グラフ52は、区間Tsegの中で経時的に変化する可視性Vを示したグラフである。スライダバー53は、可視性グラフ52の任意の時刻Tを指定するためのバーである。ユーザは、スライダバー53を時刻Tの方向に沿って移動させることができる。
従って、最も可視性Vが高い位置にスライダバー53のバーを位置させることで、画像表示領域51には、最も可視性Vが高い静止画が表示される。従って、上述したように、カメラワークが適用された画像において、どの部分が被写体44を良好に捉えているかの指標をユーザに与えることができる。
<画像検索サーバのハードウェア構成の一例>
次に、図21の例を参照して、画像検索サーバ4のハードウェア構成の一例を説明する。図21の例に示すように、バス100に対して、CPU111とRAM112とROM113と補助記憶装置114と媒体接続部115と通信インタフェース116とが接続されている。
CPU111は任意の処理回路である。CPU111はRAM112に展開されたプログラムを実行する。実行されるプログラムとしては、実施形態の処理を行うプログラムを適用することができる。ROM113はRAM112に展開されるプログラムを記憶する不揮発性の記憶装置である。
補助記憶装置114は、種々の情報を記憶する記憶装置であり、例えばハードディスクドライブや半導体メモリ等を補助記憶装置114に適用することができる。媒体接続部115は、可搬型記録媒体118と接続可能に設けられている。
可搬型記録媒体118としては、可搬型のメモリや光学式ディスク(例えば、Compact Disk(CD)やDigital Versatile Disk(DVD)等)を適用することができる。この可搬型記録媒体118に実施形態の画像検索サーバ4が行う処理のプログラムが記録されていてもよい。
画像検索サーバ4のサーバ通信部11以外の各部は、CPU111により実現されてもよい。また、サーバ通信部11は、通信インタフェース116により実現されてもよい。RAM112、ROM113および補助記憶装置114は、何れもコンピュータ読み取り可能な有形の記憶媒体の一例である。これらの有形な記憶媒体は、信号搬送波のような一時的な媒体ではない。
<表示端末のハードウェア構成の一例>
次に、図22を参照して、表示端末7のハードウェア構成の一例を説明する。図22の例に示すように、バス200に対して、CPU211とRAM212とROM213と補助記憶装置214と媒体接続部215と通信インタフェース216とが接続されている。
CPU211とRAM212とROM213と補助記憶装置214と媒体接続部215とは上述した例と同様である。CPU211が実行するプログラムは、実施形態の処理を行うプログラムであってもよい。通信インタフェース216は、外部との通信を行う。
入出力インタフェース217は、例えば表示部25との間でデータを入出力するインタフェースである。端末通信部21は、通信インタフェース216により実現されてもよい。表示端末7のうち、端末通信部21および表示部25以外の各部はCPU211により実現されてもよい。
RAM212、ROM213および補助記憶装置214は、何れもコンピュータ読み取り可能な有形の記憶媒体の一例である。これらの有形な記憶媒体は、信号搬送波のような一時的な媒体ではない。
<その他>
従って、実施形態では、表示端末7が指定した被写体を含む区間の一連の全周囲画像を特定する合成画像メタデータを画像検索サーバ4が生成し、表示端末7が合成画像メタデータに基づいて画像蓄積サーバ3から全周囲画像の抽出を行っている。これにより、簡単な操作で、表示端末7は被写体を含む区間Tsegの一連の画像を表示することができる。
特に、表示端末7にキーワードが指定されるだけで、表示端末7は、指定した被写体が含まれる区間Tsegの一連の画像を動画表示することができる。従って、ユーザは、簡単な操作で、被写体が含まれる区間の動画を視聴することができる。撮影位置を変化させた静止画を連続して表示する場合も同様である。
また、視野設定部23は、区間Tsegの一連の画像について、合成画像メタデータに含まれる方位情報θおよび仰角情報φに基づいて、被写体が常に画像の中心に位置するように視野を設定することができる。これにより、例えば、区間Tsegの一連の画像について、表示端末7は、被写体が常に中心に位置する動画を再生することができる。
方位情報θおよび仰角情報φは、カメラワーク情報の一例である。カメラワーク情報は、方位情報θだけであってもよい。この場合、仰角は固定されている。従って、被写体は画像の中心に位置するとは限らない。表示端末7は、方位情報θおよび仰角情報φに基づくカメラワークで被写体を表示すると、被写体が常に中心に位置した動画または静止画を表示することができる。
また、合成画像メタデータは、可視性Vを含む。図20の例に示したように、ユーザは、スライダバー53を操作することで、表示端末7は、可視性Vが良好な画像を選択的に表示することができる。
また、表示端末7が指定する被写体を多数の車両2のカメラC1〜C4が撮影している場合、メタデータサーバ5は、表示端末7が指定する被写体についての合成画像メタデータを多数蓄積する。
このため、図14のように、表示端末7は、可視良好性Qの一覧から選択する選択画面を表示することで、可視良好性Qが高い高品質な画像を選択的に抽出することができる。これにより、表示する画像(例えば、動画)の合成画像メタデータIDを絞り込むことができる。
上述した実施形態では、可視良好性Qは、可視性Vを統合的に評価する値とする例について説明したが、可視良好性Qは、被写体の見え易さの度合いを示す値であってもよい。例えば、カメラC1〜C4が撮影した画像(つまり、全周囲画像)のうち、画像の中で被写体が写っている位置が中心からの距離に基づく値を可視良好性Qとしてもよい。
画像の中心に被写体が写っている場合、被写体の見え易さの度合いは高くなる。このため、可視良好性Qの値も高くなる。一方、画像の中心から被写体が離間している場合、被写体の見え易さの度合いは低くなるため、可視良好性Qの値も低くなる。
従って、ユーザが可視良好性Qの高い合成映像メタデータIDを選択することで、画像抽出部22は、画像の中心に被写体が写っている全周囲画像に絞って抽出することができる。
本実施形態は、以上に述べた実施の形態に限定されるものではなく、本実施形態の要旨を逸脱しない範囲内で種々の構成または実施形態を取ることができる。
1 画像提供システム
2 車両
3 画像蓄積サーバ
4 画像検索サーバ
5 メタデータサーバ
6 地図サーバ
11 サーバ通信部
12 被写体位置特定部
13 合成画像メタデータ生成部
14 演算部
21 端末通信部
22 画像抽出部
23 視野設定部
24 画像処理部
25 表示部
30 制御部
33 時刻計測部
34 位置情報取得部
35 車載画像メタデータ生成部
36 車載記憶部
111、211 CPU
112、212 RAM
113、213 ROM

Claims (8)

  1. サーバと表示端末とを含む画像提供システムであって、
    前記サーバは、
    前記表示端末が指定した被写体に関する情報に基づいて、前記被写体の位置を特定する特定部と、
    前記被写体を撮影した撮影位置と前記被写体の位置とに基づいて、前記被写体を含む区間の一連の周囲画像を特定する特定データを生成する生成部と、
    前記特定データを前記表示端末に送信する送信部と、
    を備え、
    前記表示端末は、
    複数の周囲画像が記憶される記憶装置から、前記特定データに基づいて、前記被写体を含む区間の一連の周囲画像を抽出する抽出部と、
    前記特定データに基づいて、前記抽出部が抽出した一連の周囲画像のうち前記被写体の画像を表示する表示部と、
    を備える画像提供システム。
  2. 前記生成部は、前記周囲画像の撮影位置と前記被写体の位置との距離が所定距離以下のときに、前記被写体を含む周囲画像であると特定する、
    請求項1記載の画像提供システム。
  3. 前記特定データは、前記撮影位置から見た前記被写体の位置の方位を示す方位情報を含み、
    前記表示部は、前記周囲画像のうち前記方位情報に基づく視野の画像を表示する、
    請求項1または2記載の画像提供システム。
  4. 前記特定データは、前記撮影位置から見た前記被写体の位置の仰角を示す仰角情報をさらに含み、
    前記表示部は、前記周囲画像のうち前記方位情報と前記仰角情報とに基づく視野の画像を表示する、
    請求項3記載の画像提供システム。
  5. 前記特定データは、前記周囲画像のうち前記被写体が写っている率を示す可視性を含み、
    前記表示端末は、複数の前記特定データのそれぞれの前記可視性のうち何れか1つを選択可能な画面を表示する、
    請求項1乃至4のうち何れか1項に記載の画像提供システム。
  6. 前記特定データは、前記表示端末が指定した被写体を含む区間の一連の周囲画像の各周囲画像の前記可視性の統合的な値を示す可視良好性を含み、
    前記表示端末は、複数の前記特定データのそれぞれの前記可視良好性のうち何れか1つを選択可能な画面を表示する、
    請求項5記載の画像提供システム。
  7. 前記抽出部は、複数の前記被写体を含む区間の一連の周囲画像のうち、前記被写体が前記周囲画像の中心に写っている一連の周囲画像を抽出する、
    請求項1乃至6のうち何れか1項に記載の画像提供システム。
  8. サーバと表示端末とが通信を行う画像提供方法であって、
    前記サーバは、
    前記表示端末が指定した被写体に関する情報に基づいて、前記被写体の位置を特定し、
    前記被写体を撮影した撮影位置と前記被写体の位置とに基づいて、前記被写体を含む区間の一連の周囲画像を特定する特定データを生成し、
    前記特定データを前記表示端末に送信し、
    前記表示端末は、
    複数の周囲画像が記憶される記憶装置から、前記特定データに基づいて、前記被写体を含む区間の一連の周囲画像を抽出し、
    前記特定データに基づいて、前記抽出部が抽出した一連の周囲画像のうち前記被写体の画像を表示する、
    画像提供方法。
JP2014242551A 2014-11-28 2014-11-28 画像提供システムおよび画像提供方法 Active JP6388532B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014242551A JP6388532B2 (ja) 2014-11-28 2014-11-28 画像提供システムおよび画像提供方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014242551A JP6388532B2 (ja) 2014-11-28 2014-11-28 画像提供システムおよび画像提供方法

Publications (2)

Publication Number Publication Date
JP2016103248A true JP2016103248A (ja) 2016-06-02
JP6388532B2 JP6388532B2 (ja) 2018-09-12

Family

ID=56087873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014242551A Active JP6388532B2 (ja) 2014-11-28 2014-11-28 画像提供システムおよび画像提供方法

Country Status (1)

Country Link
JP (1) JP6388532B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082381A1 (ja) * 2017-10-27 2019-05-02 楽天株式会社 画像抽出装置、画像抽出方法及び画像抽出プログラム
JP2021013181A (ja) * 2020-10-08 2021-02-04 株式会社リコー 画像表示システム、画像表示方法、及びプログラム
JPWO2020044646A1 (ja) * 2018-08-30 2021-11-11 日本電気株式会社 画像処理装置、画像処理方法及びプログラム
JP7383911B2 (ja) 2019-06-27 2023-11-21 株式会社リコー 撮像システム、画像処理装置、撮像装置およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005504595A (ja) * 2001-10-03 2005-02-17 レティナリゼ・ダンマーク・アクティーゼルスカブ 画像内の病変の評定
JP2010129032A (ja) * 2008-12-01 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> 画像検索装置および画像検索プログラム
JP2014164685A (ja) * 2013-02-27 2014-09-08 Brother Ind Ltd 情報処理装置及び情報処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005504595A (ja) * 2001-10-03 2005-02-17 レティナリゼ・ダンマーク・アクティーゼルスカブ 画像内の病変の評定
JP2010129032A (ja) * 2008-12-01 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> 画像検索装置および画像検索プログラム
JP2014164685A (ja) * 2013-02-27 2014-09-08 Brother Ind Ltd 情報処理装置及び情報処理方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082381A1 (ja) * 2017-10-27 2019-05-02 楽天株式会社 画像抽出装置、画像抽出方法及び画像抽出プログラム
JPWO2020044646A1 (ja) * 2018-08-30 2021-11-11 日本電気株式会社 画像処理装置、画像処理方法及びプログラム
JP7383911B2 (ja) 2019-06-27 2023-11-21 株式会社リコー 撮像システム、画像処理装置、撮像装置およびプログラム
JP2021013181A (ja) * 2020-10-08 2021-02-04 株式会社リコー 画像表示システム、画像表示方法、及びプログラム
JP7020523B2 (ja) 2020-10-08 2022-02-16 株式会社リコー 画像表示システム、画像表示方法、及びプログラム

Also Published As

Publication number Publication date
JP6388532B2 (ja) 2018-09-12

Similar Documents

Publication Publication Date Title
US8818097B2 (en) Portable electronic and method of processing a series of frames
JP5260705B2 (ja) 3次元拡張現実提供装置
JP6621063B2 (ja) カメラ選択方法及び映像配信システム
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
KR20160140452A (ko) 이미지 기반의 라이트 필드를 사용자의 디바이스 상에 표시하기 위한 방법 및 장치, 및 대응하는 컴퓨터 프로그램 제품
KR101335617B1 (ko) 모바일 환경에서의 증강 현실 구현 방법 및 이를 위한 장치
JP2011166264A (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2012160904A (ja) 情報処理装置、情報処理方法、プログラム、及び撮像装置
JP6388532B2 (ja) 画像提供システムおよび画像提供方法
JP2012068861A (ja) Ar処理装置、ar処理方法及びプログラム
CN109495733B (zh) 三维影像重建方法、装置及其非暂态电脑可读取储存媒体
JP2011233005A (ja) オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
KR101574636B1 (ko) 면형방식 디지털 항공카메라로 촬영한 시계열 항공사진을 입체시하여 좌표를 연동하고 변화지역을 판독하는 시스템
JP6635573B2 (ja) 画像処理システム、画像処理方法、及びプログラム
KR101474521B1 (ko) 영상 데이터베이스 구축 방법 및 장치
US11195295B2 (en) Control system, method of performing analysis and storage medium
JP2018139052A (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP2014179740A (ja) 映像検索装置、映像検索システム、および映像検索方法
KR20210055381A (ko) 스마트 디스플레이를 통해 증강 현실 컨텐츠를 제공하는 장치, 방법 및 컴퓨터 프로그램
JP5001400B2 (ja) 遮蔽物除去表示装置
JP4673861B2 (ja) 情報表示システム及び情報表示方法
WO2017181750A2 (zh) 一种移动终端的采集图片方法及装置、计算机存储介质
JP6292785B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2010165081A (ja) 表示装置、立体コンテンツ生成システム、立体コンテンツ生成装置、及び、立体コンテンツ生成方法
KR102578058B1 (ko) 거리뷰 영상을 생성하는 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20180607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180814

R150 Certificate of patent or registration of utility model

Ref document number: 6388532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150