JP6296056B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6296056B2
JP6296056B2 JP2015522611A JP2015522611A JP6296056B2 JP 6296056 B2 JP6296056 B2 JP 6296056B2 JP 2015522611 A JP2015522611 A JP 2015522611A JP 2015522611 A JP2015522611 A JP 2015522611A JP 6296056 B2 JP6296056 B2 JP 6296056B2
Authority
JP
Japan
Prior art keywords
image processing
image
processing apparatus
terminal
arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015522611A
Other languages
English (en)
Other versions
JPWO2014203592A1 (ja
Inventor
田原 哲雄
哲雄 田原
敦 塩野崎
敦 塩野崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014203592A1 publication Critical patent/JPWO2014203592A1/ja
Application granted granted Critical
Publication of JP6296056B2 publication Critical patent/JP6296056B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator

Description

本開示は、画像処理装置、画像処理方法及びプログラムに関する。
従来、何らかの目的地へユーザを誘導する様々なナビゲーションサービスが実用化されている。ナビゲーションは、通常、目的地の位置に関する知識とユーザの現在位置とに基づいて行われる。多くのナビゲーションサービスは、ユーザの現在位置を取得するために、ユーザが保持する端末に搭載される、GPS(Global Positioning System)モジュール又はPlaceEngine(登録商標)などの測位モジュールを利用する。
特許文献1は、端末の画面上で目的とする場所(建物又は施設など)をユーザが容易に見つけ出すことができるように、目的とする場所に対応する指定オブジェクトを画像内で強調的に表示することを提案している。特許文献1においても、ユーザの現在位置は、GPSモジュールを通じて取得される。
特開2012−079129号公報
しかしながら、全ての端末が測位モジュールを搭載しているわけではない。また、測位モジュールを搭載している端末であっても、測位用の無線信号を受信できない環境下では、測位モジュールを通じて現在位置を取得することは難しい。
従って、測位モジュールを通じて現在位置を取得することが難しい状況において、目的地に向けてのナビゲーションをユーザに提供することのできる仕組みが実現されることが望ましい。
本開示によれば、視覚的な認識対象を有する実オブジェクトを映す画像を取得する画像取得部と、前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識する認識部と、前記認識部により認識される前記端末の前記相対的配置に基づいて、ユーザの目的地に向かう方向を示す表示オブジェクトを前記端末の画面に表示させる制御部と、を備える画像処理装置が提供される。
また、本開示によれば、画像処理装置により実行される画像処理方法であって、視覚的な認識対象を有する実オブジェクトを映す画像を取得することと、前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識することと、認識された前記端末の前記相対的配置に基づいて、ユーザの目的地に向かう方向を示す表示オブジェクトを前記端末の画面に表示させることと、を含む画像処理方法が提供される。
また、本開示によれば、画像処理装置を制御するコンピュータを、視覚的な認識対象を有する実オブジェクトを映す画像を取得する画像取得部と、前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識する認識部と、前記認識部により認識される前記端末の前記相対的配置に基づいて、ユーザの目的地に向かう方向を示す表示オブジェクトを前記端末の画面に表示させる制御部と、として機能させるためのプログラムが提供される。
本開示に係る技術によれば、測位モジュールを通じて現在位置を取得することが難しい状況において、目的地に向けてのナビゲーションをユーザに提供することができる。
一実施形態に係る装置の概要について説明するための説明図である。 認識対象を有する実オブジェクトの一例を示す説明図である。 一実施形態におけるナビゲーションの原理について説明するための説明図である。 一実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 一実施形態に係る画像処理装置の論理的機能の構成の一例を示すブロック図である。 認識辞書データの構成の第1の例を示す説明図である。 認識辞書データの構成の第2の例を示す説明図である。 図6Bに例示した追加コード配置データについて説明するための説明図である。 オブジェクト配置データの構成の第1の例を示す説明図である。 オブジェクト配置データの構成の第2の例を示す説明図である。 端末の姿勢の変化に伴う出力画像の変化の一例を示す説明図である。 図9に例示した出力画像のユーザの視点からの見え方を示す説明図である。 端末の移動に伴う端末の配置の追跡の一例について説明するための説明図である。 目的地をユーザに選択させるためのウィンドウの第1の例を示す説明図である。 目的地をユーザに選択させるためのウィンドウの第2の例を示す説明図である。 目的地をユーザに選択させるためのウィンドウの第3の例を示す説明図である。 一実施形態において表示され得る表示オブジェクトのいくつかの例を示す第1の説明図である。 一実施形態において表示され得る表示オブジェクトのいくつかの例を示す第2の説明図である。 一実施形態において表示され得る表示オブジェクトのいくつかの例を示す第3の説明図である。 一実施形態において表示され得る表示オブジェクトのいくつかの例を示す第4の説明図である。 一実施形態に係る画像処理の流れの一例を示すフローチャートである。 図14に示した端末配置判定処理の詳細な流れの第1の例を示すフローチャートである。 図14に示した端末配置判定処理の詳細な流れの第2の例を示すフローチャートである。 図14に示した端末配置判定処理の詳細な流れの第3の例を示すフローチャートである。 図14に示した目的地方向判定処理の詳細な流れの第1の例を示すフローチャートである。 図14に示した目的地方向判定処理の詳細な流れの第2の例を示すフローチャートである。 スタンプラリーの応用例において表示され得る表示オブジェクトのいくつかの例を示す説明図である。 画像処理装置の一変形例について説明するための説明図である。 図18の変形例において表示され得る表示オブジェクトのいくつかの例を示す説明図である。 複数の装置の連携について説明するための説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下の順序で説明を行う。
1.概要
2.画像処理装置の構成例
2−1.ハードウェア構成
2−2.機能構成
2−3.処理の流れ
3.応用例
3−1.スタンプラリー
3−2.HMDの利用
3−3.複数の装置の連携
4.まとめ
<1.概要>
まず、図1〜図3を用いて、本開示に係る装置の概要を説明する。
図1は、一実施形態に係る装置の概要について説明するための説明図である。図1を参照すると、ユーザUaが有する画像処理装置100が示されている。画像処理装置100は、実空間1を撮像するカメラ102と、ディスプレイ110とを備える。図1の例において、実空間1には、実オブジェクト10が存在している。画像処理装置100のカメラ102は、実オブジェクト10を撮像することにより、実オブジェクト10を映す映像を構成する一連の画像を生成する。そして、画像処理装置100は、カメラ102により生成される撮像画像を入力画像として画像処理を行い、出力画像を生成する。本実施形態において、典型的には、出力画像は、入力画像にナビゲーション用の表示オブジェクトを重畳することにより生成される。画像処理装置100のディスプレイ110は、生成された出力画像を順次表示する。なお、図1に示した実空間1は、一例に過ぎない。画像処理装置100は、いかなる実オブジェクトを映した画像を処理してもよい。
図1では、画像処理装置100の一例としてスマートフォンを示している。しかしながら、画像処理装置100は、かかる例に限定されない。画像処理装置100は、例えば、タブレットPC(Personal Computer)、ノートPC、携帯型ゲーム端末、PND(Portable Navigation Device)若しくはデジタルカメラなどのモバイルデバイスであってもい。また、画像処理装置100は、HMD(Head Mounted Display)端末などのウェアラブルデバイスであってもよい。
本開示に係る技術では、実オブジェクトの視覚的な認識対象を映す画像が、入力画像として取得される。ここでの認識対象とは、実オブジェクトの外見に現れる既知の図形、記号、文字列若しくは絵柄、又はそれらの任意の組合せなどであってよい。認識対象は、何らかの情報が符号化される視覚的なコード(例えば、バーコード、又はサイバーコード(登録商標)など)を含んでもよい。画像処理装置100は、認識対象についての特徴データを予め記憶し、入力画像に映る認識対象の配置(撮像面からの相対的配置)を、当該特徴データを用いて認識する。本明細書において、「配置(arrangement)」との用語は、2次元又は3次元の座標系における、位置(並行移動)、姿勢(回転)及びサイズ(スケーリング)のうち少なくとも1つを含むものとする。特徴データは、例えば、認識対象の既知画像から抽出される特徴点のセットについてのデータを含んでもよい。また、特徴データは、既知の図形的パターンの形状及びサイズについてのデータを含んでもよい。
図2は、認識対象を有する実オブジェクトの一例を示す説明図である。図2の例において、実オブジェクト10は、駅などの公共施設に設置される案内板である。案内板10は、その表面に印刷され又は貼付され得る認識対象11を有する。認識対象11は、アルファベット“i”を模した図形と、当該図形を囲む白黒の枠とを含む。画像処理装置100は、例えば、入力画像から抽出される複数の特徴点を認識対象11について予め記憶される特徴点セットと照合することにより、入力画像に認識対象11がどのような配置で映っているかを認識することができる。
また、案内板10は、その表面上に目的地リスト15を有する。ユーザは、目的地リスト15を見ることにより、案内板10が設置された場所の周辺に存在する主要なスポットを知ることができる。しかし、個々のスポットがどの方向に存在するかを目的地リスト15は示さない。仮に案内板10が地図を有していて、その地図上で各スポットの位置が示されていたとしても、2次元的な(しかもほとんどの場合垂直に掲示される)地図の上では、目的地に向かう方向を直感的に表現することは難しい。そのため、ユーザは、地図上の方向と実空間における方向とのマッピングを自身の頭の中で行うことを強いられる。いくつかのナビゲーションサービスは、そうした不便さを解消するために、端末に搭載されるGPSモジュールなどの測位モジュールを通じて端末の現在位置を取得し、またセンサを通じて端末の姿勢を取得した上で、目的地までユーザを誘導する。しかしながら、全ての端末が測位モジュールを搭載しているわけではない。また、測位モジュールを搭載している端末であっても、測位用の無線信号を受信できない環境下(例えば、屋内、地下又はトンネル内など)では、測位モジュールを通じて現在位置を取得することは難しい。一方、本実施形態では、認識対象11について実行される上述した画像認識に基づいて端末の配置が判定され、その判定結果に従って目的地へユーザを誘導するためのナビゲーションが提供される。それにより、測位モジュールを頼る必要性が回避される。
図3は、一実施形態におけるナビゲーションの原理について説明するための説明図である。図3を参照すると、認識対象を有する実オブジェクト10、選択された目的地50、及び実オブジェクト10を撮像する画像処理装置100が示されている。実オブジェクト10及び目的地50は地理的に固定されているため、目的地50の実オブジェクト10との間の相対的位置RAsdは、既知である。なお、目的地50の姿勢及びサイズはナビゲーションに影響を与えないため、ここでは「配置」ではなく「位置」との語が使用される。画像処理装置100の実オブジェクト10との間の相対的配置RAsuは、実オブジェクトが有する認識対象についての画像認識に基づいて判定される。そして、未知であった、目的地50の画像処理装置100との間の相対的位置RAudは、画像処理装置100の実オブジェクト10との間の相対的配置RAsu、及び目的地50の実オブジェクト10との間の相対的位置RAsdを用いて導出される。画像処理装置100は、例えば、この相対的位置RAudに対応するナビゲーション用の表示オブジェクトを、画面に表示させ得る。
なお、図2及び図3の例に限定されず、実空間に存在するいかなる実オブジェクトが認識対象を有していてもよい。例えば、商業施設のフロアマップ、広告看板若しくはイベント用のポスターなどに認識対象が印刷され若しくは貼付されてもよく、又はデジタルサイネージにより認識対象が電子的に表示されてもよい。次節では、上述した仕組みを実現する画像処理装置100の具体的な構成の例を説明する。
<2.画像処理装置の構成例>
[2−1.ハードウェア構成]
図4は、一実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図4を参照すると、画像処理装置100は、カメラ102、測位モジュール104、入力インタフェース106、メモリ108、ディスプレイ110、通信インタフェース112、センサモジュール114、バス116及びプロセッサ118を備える。
(1)カメラ
カメラ102は、画像を撮像する撮像モジュールである。カメラ102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実オブジェクトを撮像し、撮像画像を生成する。カメラ102により生成される一連の撮像画像は、映像を構成する。
(2)測位モジュール
測位モジュール104は、GPS(Global Positioning System)モジュール又はPlaceEngine(登録商標)などであってよい。測位モジュール104は、測位用の無線信号を受信し得る環境下において、当該無線信号を受信することにより、画像処理装置100の地理的位置を取得する。そして、測位モジュール104は、取得した地理的位置を示す測位データを生成する。本明細書において、地理的位置とは、グローバル座標系における絶対的な位置をいう。なお、測位モジュール104は、画像処理装置100の構成から省略されてもよい。
(3)入力インタフェース
入力インタフェース106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力インタフェース106は、例えば、ディスプレイ110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。また、入力インタフェース106は、キーボード、キーパッド、ボタン又はスイッチなどの入力デバイスを含んでもよい。また、入力インタフェース106は、音声入力用のマイクロフォン及び音声認識モジュールを含んでもよい。
(4)メモリ
メモリ108は、半導体メモリ又はハードディスクなどの記憶媒体である。メモリ108は、画像処理装置100による処理のためのプログラム及びデータを記憶する。メモリ108により記憶されるデータは、例えば、撮像画像データ、測位データ、センサデータ及び後に説明する様々なデータベース(DB)内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、メモリ108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
(5)ディスプレイ
ディスプレイ110は、画像を表示する画面を有する表示モジュールである。ディスプレイ110は、例えば、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などであってよい。ディスプレイ110は、例えば、画像処理装置100により生成される、ナビゲーション用の表示オブジェクトの重畳された出力画像を表示する。
(6)通信インタフェース
通信インタフェース112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信インタフェース112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
(7)センサモジュール
センサモジュール114は、ジャイロセンサ、地磁気センサ及び加速度センサなどのセンサ群を含み得る。センサモジュール114は、例えば、画像処理装置100の姿勢を測定する。また、センサモジュール114は、画像処理装置100の動きを測定する。そして、センサモジュール114は、測定した姿勢及び動きを示すセンサデータを生成する。センサモジュール114により生成されるセンサデータは、画像処理装置100の配置の変化を追跡するために使用され得る。なお、センサモジュール114は、画像処理装置100の構成から省略されてもよい。
(8)バス
バス116は、カメラ102、測位モジュール104、入力インタフェース106、メモリ108、ディスプレイ110、通信インタフェース112、センサモジュール114及びプロセッサ118を相互に接続する。
(9)プロセッサ
プロセッサ118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。プロセッサ118は、メモリ108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
[2−2.機能構成]
図5は、図4に示した画像処理装置100のメモリ108及びプロセッサ118により実現される論理的機能の構成の一例を示すブロック図である。図5を参照すると、画像処理装置100は、画像取得部140、認識データベース(DB)150、認識部160、オブジェクト配置DB170及び制御部180を備える。
(1)画像取得部
画像取得部140は、カメラ102により撮像される画像を入力画像として取得する。入力画像は、典型的には、動画を構成する一連のフレームの各々である。本実施形態において、入力画像は、視覚的な認識対象を有する実オブジェクトを映す画像である。そして、画像取得部140は、取得した入力画像を認識部160及び制御部180へ出力する。
(2)認識DB
認識DB150は、後に説明する認識部160により使用される認識辞書データを記憶するデータベースである。認識辞書データは、1つ以上の認識対象の各々についての、当該認識対象の特徴を定義する特徴データを含む。ある例において、認識辞書データは、実オブジェクトが追加的に有する追加コードの配置を定義する追加コード配置データを含み得る。
図6Aは、認識DB150により記憶され得る認識辞書データの構成の第1の例を示す説明図である。図6Aを参照すると、認識辞書データ151aは、コードID152及び特徴データ153を含む。コードID152は、認識対象を一意に識別するための識別子である。特徴データ153は、認識対象の各々についての既知の特徴を定義する。特徴データ153は、認識対象についての既知画像から予め抽出される特徴量セットを定義してもよい。一例として、特徴量セットは、複数の特徴点の各々についての、実オブジェクトのローカル座標系における位置座標と、当該特徴点の輝度とを含んでよい。また、特徴データ153は、既知のパターンの形状及びサイズを定義してもよい。
図6Bは、認識DB150により記憶され得る認識辞書データの構成の第2の例を示す説明図である。図6Bを参照すると、認識辞書データ151bは、コードID152、特徴データ153及び追加コード配置データ154を含む。追加コード配置データ154は、コードタイプ155、位置オフセット156、回転157及びサイズ158を含む。コードタイプ155は、追加コードのタイプ(例えば、バーコード、サイバーコード(登録商標)など)を定義する。位置オフセット156は、認識対象の基準位置(例えば、ローカル座標系の原点)からの追加コードの基準位置のオフセットを定義する。回転157は、基準位置を中心とした追加コードの回転量(例えば、実オブジェクトの表面上での回転量)を定義する。サイズ158は、追加コードのサイズを定義する。
図7は、図6Bに例示した追加コード配置データ154について説明するための説明図である。図7において、星印は、ローカル座標系CLocalにおける、特徴点FP1を含む認識対象11の複数の特徴点の位置を示す。位置座標OF1は、位置オフセット156により定義されるベクトル値であり、追加コードを囲むバウンディングボックスの左上の頂点のローカル座標系CLocalにおける座標に等しい。図7の例では、追加コードは回転されないため、回転157は回転量ゼロを定義し得る。追加コードを囲むバウンディングボックスの幅W及び高さHは、サイズ158により定義され得る。
(3)認識部
認識部160は、認識対象について画像認識を実行することにより、入力画像を撮像した端末の、当該認識対象を有する実オブジェクトとの間の相対的配置を認識する。本実施形態において、入力画像を撮像した端末とは、画像処理装置100である。認識部160は、例えば、入力画像から抽出される画像特徴量を認識DB150により記憶される既知の特徴量セットと照合することにより、入力画像に映る認識対象を認識してもよい。また、認識部160は、入力画像に含まれるパターンを認識DB150により記憶される既知のパターンと照合することにより、入力画像に映る認識対象を認識してもよい。さらに、認識部160は、検出した複数の特徴点の間の位置関係、又は検出したパターンの形状及びサイズから、入力画像に認識対象がどのような配置で映っているかを認識する。
認識部160は、画像認識の結果として、撮像面からの認識対象の相対的配置を表現するパラメータを生成する。一例として、認識部160により生成されるパラメータは、撮像面及びその奥行きに対応する3次元のスクリーン座標系における同次変換行列であってもよい。この同次変換行列は、画像処理装置100の実オブジェクトとの間の相対的配置を実質的に表現する。認識部160は、認識した認識対象の識別子(コードID)と対応するパラメータ(例えば、同次変換行列)とを、制御部180へ出力する。
認識部160は、さらに、検出された認識対象又は当該認識対象に関連付けて実オブジェクトの表面に付加される追加コードにより情報が符号化されている場合に、当該認識対象又は当該追加コードから、符号化されている情報を復号してもよい。認識部160により復号される情報は、データサーバへの問合せのために使用され得る認識対象(又は実オブジェクト)の識別情報を含んでもよい。また、認識部160により復号される情報は、後述するような、実オブジェクトの地理的配置及び目的地の位置の少なくとも一方を示すオブジェクト配置データを含んでもよい。情報が追加コードにより符号化される場合には、認識部160は、図6Bに例示した追加コード配置データ154に従って、追加コードが存在する領域を特定する。そして、認識部160は、特定した領域の部分画像について追加コードのコードタイプに応じた認識処理(例えば、バーコードの読み取りなど)を実行する。その結果、追加コードにより符号化された情報が復号され得る。なお、オブジェクト配置データは、認識対象又は追加コードから復号される代わりに、実オブジェクトの識別情報を用いて外部のデータサーバから取得されてもよい。
(4)オブジェクト配置DB
オブジェクト配置DB170は、オブジェクト配置データを記憶するデータベースである。オブジェクト配置データは、後に説明する制御部180により、目的地に向かう方向を決定するために使用され得る。
図8Aは、オブジェクト配置データの構成の第1の例を示す説明図である。図8Aを参照すると、オブジェクト配置データ171aは、オブジェクトID172a、種別173、名称174、地理的位置175及び姿勢176を含む。オブジェクトID172aは、認識対象を有する実オブジェクト及び目的地の候補の各々を識別するための識別子である。種別173は、各オブジェクトがどういった種類のオブジェクトであるのか(例えば、案内板又は目的地の候補)を識別する。名称174は、各オブジェクトの表示上の名称を定義する。地理的位置175は、グローバル座標系における各オブジェクトの位置(例えば、緯度、経度及び高度)を定義する。姿勢176は、グローバル座標系における各オブジェクトの姿勢を定義する。なお、目的地の候補について、姿勢176の値は省略されてよい。
図8Bは、オブジェクト配置データの構成の第2の例を示す説明図である。図8Bを参照すると、オブジェクト配置データ171bは、コードID172b、名称174、目的地ID177、目的地名178及び相対的配置179を含む。コードID172bは、認識対象を有する実オブジェクト(又は認識対象)の各々を識別するための識別子である。目的地ID177は、目的地の候補の各々を識別するための識別子である。図8Bの例では、1つの認識対象に1つ以上の目的地の候補が関連付けられている。目的地名178は、目的地の各候補の表示上の名称を定義する。相対的配置179は、目的地の各候補の、関連付けられる実オブジェクトとの間の相対的配置を定義する。相対的配置179は、座標値を用いて厳密に定義されてもよく、又は、東、南、西、北、上及び下などの簡略的な区分値を用いて粗く定義されてもよい。
上述したオブジェクト配置データは、オブジェクト配置DB170により予め記憶されてもよい。また、オブジェクト配置データの一部又は全部は、外部のデータサーバから動的に取得されてもよい。また、上述したように、オブジェクト配置データの一部又は全部は、認識対象又は認識対象に関連付けられる追加コードから認識部160により復号されてもよい。
(5)制御部
制御部180は、認識部160により認識される画像処理装置100の実オブジェクトからの相対的配置に基づいて、ユーザの目的地に向かう方向を示す表示オブジェクトをディスプレイ110の画面に表示させる。
制御部180は、例えば、目的地に向かう方向を、認識部160により認識される端末の相対的配置、並びにオブジェクト配置データにより示される実オブジェクトの地理的配置及び目的地の地理的位置から判定してもよい。より具体的には、例えば、制御部180は、実オブジェクトの地理的配置(例えば、緯度、経度、高度及び向き)及び当該実オブジェクトに対する端末の相対的配置から、端末の地理的配置を判定する。さらに、目的地の地理的位置が得られれば、制御部180は、目的地に向かう方向に対応するベクトルを、端末のスクリーン座標系において決定することができる。
その代わりに、制御部180は、目的地に向かう方向を、認識部160により認識される端末の相対的配置、及びオブジェクト配置データにより示される目的地の実オブジェクトとの間の相対的位置から判定してもよい。より具体的には、例えば、制御部180は、端末に対する実オブジェクトの相対的配置に、実オブジェクトに対する目的地の相対的位置を加算することにより、目的地に向かう方向に対応するベクトルを、端末のスクリーン座標系において決定することができる。
このように画像認識に基づいて目的地に向かう方向を動的に判定することにより、目的地に向かう方向を、表示オブジェクトを用いて画面上でユーザに直感的に提示することができる。
図9は、端末の姿勢の変化に伴う出力画像の変化の一例を示す説明図である。図9の上段左には、ある時点における案内板10と画像処理装置100との位置関係が示されており、画像処理装置100の撮像面は案内板10に正対している。認識部160は、案内板10の表面上の認識対象についての画像認識を実行し、画像処理装置100の案内板10との間の相対的配置を表現するパラメータRASUを生成する。図9の下段左には、一例としての出力画像Im01が示されている。出力画像Im01には、目的地に向かう方向を示すナビゲーション用の表示オブジェクトN01が重畳されている。制御部180は、表示オブジェクトN01の向きRAudを、パラメータRASUに応じて決定する。表示オブジェクトH01は、表示オブジェクトN01の3次元的な向きをユーザが把握することを支援するための水平面を表現する。図9の上段右には、後続する時点における案内板10と画像処理装置100との位置関係が示されており、画像処理装置100は、撮像面がより水平に近づくように倒されている。パラメータRASU´は、この時点における画像処理装置100の案内板10との間の相対的配置を表現する。図9の下段右には、一例としての出力画像Im02が示されている。出力画像Im02には、パラメータRASU´に応じて決定された向きRAud´を有する表示オブジェクトN02が重畳されている。表示オブジェクトH02は、水平面を表現する。
図10は、図9に例示した出力画像のユーザの視点からの見え方を示す説明図である。図10の左において、出力画像Im01に重畳された表示オブジェクトN01は、ユーザの視点から見て左前方を示している。図10の右において、出力画像Im02に重畳された表示オブジェクトN02は、端末の姿勢の変化にも関わらず、やはりユーザの視点から見て左前方を示している。従って、ユーザは、端末を動かしたとしても、実空間において目的地が存在する方向を直感的に知ることができる。
制御部180は、一度認識された認識対象が画角から外れた後に、センサモジュール114からのセンサデータを用いて端末の相対的配置を追跡することにより、ナビゲーション用の表示オブジェクトを継続的に画面に表示させてもよい。例えば、制御部180は、加速度センサにより測定される端末の加速度を積算することにより、端末の位置の変化を追跡し得る。また、制御部180は、ジャイロセンサにより測定される端末の回転をを積算することにより、端末の姿勢の変化を追跡し得る。また、制御部180は、地磁気センサからのセンサデータを用いて、端末の姿勢を追跡し得る。また、制御部180は、測位モジュール104が利用可能である場合には、追跡される端末の配置を、当該測位モジュールからの測位データを用いて補正してもよい。
図11は、端末の移動に伴う端末の配置の追跡の一例について説明するための説明図である。図11を参照すると、画像処理装置100を持ってユーザUaが移動している様子が、時刻t=T11、T12、T13及びT14のそれぞれについて示されている。時刻T11において、画像処理装置100の画角G11内には案内板10が存在するため、制御部180は、認識部160により実行される画像認識の結果に基づいて画像処理装置100の配置を判定することができる。時刻T12において、ユーザUaは移動しているものの、画像処理装置100の画角G12内に案内板10が存在するため、制御部180は、依然として画像認識の結果に基づいて画像処理装置100の配置を判定することができる。時刻T13において、ユーザUaがさらに移動した結果、画像処理装置100の画角G13内に認識対象が存在しない。この場合、制御部180は、センサデータを用いて画像処理装置100の配置を追跡することにより、ナビゲーション用の表示オブジェクトを継続的に画面に表示し、ユーザにナビゲーションサービスを提供することができる。但し、センサデータを用いた追跡の精度は、その継続時間が長くなるほど低下し得る。時刻T14において、ユーザUaが屋内から屋外に出た結果、測位モジュール104が利用可能になり得る。そこで、制御部180は、測位モジュール104を通じて画像処理装置100の地理的位置を取得することにより、追跡中の画像処理装置100の配置を補正する。画像処理装置100の姿勢もまたセンサデータを用いて補正されてよい。このような追跡及び補正によって、継続的なナビゲーションサービスの提供が可能となり、ユーザの利便性を強化することができる。
制御部180は、ナビゲーションの対象となる目的地を、認識された実オブジェクトに関連付けられる目的地候補のリスト又はマップを画面に表示させることにより、ユーザに選択させてもよい。その代わりに、制御部180は、ナビゲーションの対象となる目的地を、予めユーザにより選択させてもよい。また、制御部180は、単一の目的地がユーザにより選択されていない場合に、認識された実オブジェクトに関連付けられる複数の目的地候補に向かう方向をそれぞれ示す複数の表示オブジェクトを、画面に表示させてもよい。
図12A〜図12Cは、目的地をユーザに選択させるためのウィンドウの例をそれぞれ示している。図12Aに示した第1の例において、目的地選択ウィンドウW1は、チェックボックスCB11及びボタンB12を含む。チェックボックスCB11は、認識部160により認識された実オブジェクトに関連付けられる(例えば、案内板が設置された場所の周辺に存在する)目的地候補のリストを示す。ユーザは、チェックボックスCB11においていずれかの候補をチェックし、ボタンB12をタップする。それにより、ナビゲーションの対象となる目的地が選択される。
図12Bに示した第2の例において、目的地選択ウィンドウW2は、チェックボックスCB13、ボタンB14及びボタンB15を含む。チェックボックスCB13は、全ての目的地候補のリストのうちのいくつかを示す。ユーザは、チェックボックスCB13においていずれかの候補をチェックした上でボタンB14をタップすることにより、所望の目的地を選択してもよい。その代わりに、ユーザは、ボタンB15をタップすることにより、次のページに遷移し、目的地候補のリストのうちの他のいくつかを目的地選択ウィンドウW2に表示させてもよい。なお、目的地選択ウィンドウW2において、目的地候補が例えば最寄り駅ごとにグルーピングされ、リストアップされる目的地候補が最寄り駅の選択に応じてフィルタリングされてもよい。
図12Cに示した第3の例において、目的地選択ウィンドウW3は、認識部160により認識された実オブジェクトの地理的位置の周辺のマップと、マップ上にプロットされる複数のアイコンとを含む。アイコンIC16は、現在地(即ち、認識された実オブジェクトの地理的位置)を示す。アイコンIC17は、目的地候補の1つの位置を示す。ユーザは、所望の目的地に対応するアイコンをタップすることにより、ナビゲーションの対象となる目的地を選択し得る。
ナビゲーションのための出力画像は、ユーザビリティを向上させるための様々な表示オブジェクトを含み得る。図13A〜図13Dは、一実施形態において表示され得る表示オブジェクトのいくつかの例を示している。
図13Aの第1の例において、出力画像Im11には、表示オブジェクトN11及びH11、並びに補助表示オブジェクトJ11、J12、J13、J14及びJ15が重畳されている。表示オブジェクトN11は、現在地から目的地に向かう方向を示す。表示オブジェクトH11は、水平面を表現するオブジェクトである。補助表示オブジェクトJ11は、画像認識の照準を表現するオブジェクトである。補助表示オブジェクトJ12は、現在地を表現するアイコンである。補助表示オブジェクトJ13は、目的地を表現するアイコンである。補助表示オブジェクトJ14は、現在地、目的地及びその他の場所の表示のための縮尺をユーザが変更するためのスライダである。補助表示オブジェクトJ15は、目的地以外のスポット(例えば、案内板、又は選択されなかった目的地候補など)を表現するアイコンである。
図13Bの第2の例において、出力画像Im12には、表示オブジェクトN12、並びに補助表示オブジェクトJ12、J13、及びJ16が重畳されている。表示オブジェクトN12は、現在地から目的地に向かう方向を示す。但し、表示オブジェクトN12は、図13Aに例示した表示オブジェクトN11が目的地に向かう直線的な方向を示すのとは対照的に、目的地に向かう非直線的な経路(例えば、ユーザが通行可能な道)に沿った方向を示す。補助表示オブジェクトJ16は、入力画像内の認識対象11の検出位置を示す。ユーザは、補助表示オブジェクトJ16を視認することにより、認識対象の認識が成功したこと、及び画像内のどの部分を撮像することが精度の高いナビゲーションのために有益であるかを知ることができる。
図13Cの第3の例は、センサデータを用いた追跡が継続されている最中に表示され得る出力画像Im13を示している。出力画像Im13には、表示オブジェクトN13、補助表示オブジェクトJ13、J17、及びJ18、並びにメッセージM11が重畳されている。表示オブジェクトN13は、現在地から目的地に向かう方向を示す。但し、表示オブジェクトN13の輪郭線は細くなっており、これは追跡の精度が低下している可能性があることをユーザに示す。補助表示オブジェクトJ17及びJ18は、推定される現在地の近傍に存在する案内板(認識対象を有する実オブジェクト)の位置を表現するアイコンである。メッセージM11は、近傍の案内板にカメラをかざすことをユーザに提案している。
図13Dの第4の例は、複数の目的地についてナビゲーションが行われる場合の出力画像Im14を示している。出力画像Im14には、表示オブジェクトN11a、N11b及びN11c、並びに補助表示オブジェクトJ13a、J13b及びJ13cが重畳されている。表示オブジェクトN11aは、現在地から第1の目的地に向かう方向を示す。補助表示オブジェクトJ13aは、第1の目的地を表現するアイコンである。表示オブジェクトN11bは、現在地から第2の目的地に向かう方向を示す。補助表示オブジェクトJ13bは、第2の目的地を表現するアイコンである。表示オブジェクトN11cは、現在地から第3の目的地に向かう方向を示す。補助表示オブジェクトJ13cは、第3の目的地を表現するアイコンである。
図13A〜図13Dに例示した様々な表示オブジェクトは、どのように組み合わされて画面に表示されてもよい。
[2−3.処理の流れ]
(1)全体的な流れ
図14は、本実施形態に係る画像処理装置100により実行される画像処理の流れの一例を示すフローチャートである。図14に示した処理は、カメラ102により撮像される一連の入力画像の各々について繰り返される。
図14を参照すると、まず、画像取得部140は、視覚的な認識対象を有する実オブジェクトを映す入力画像を、カメラ102から取得する(ステップS100)。そして、画像取得部140は、取得した入力画像を認識部160及び制御部180へ出力する。
次に、認識部160は、認識DB150により記憶される認識辞書データを用いて、認識対象についての画像認識を実行する(ステップS102)。そして、認識部160は、入力画像内で認識対象が検出されたか否かを判定する(ステップS104)。認識対象が検出された場合には、処理はステップS110へ進む。一方、認識対象が検出されなかった場合には、処理はステップS130へ進む。
認識対象が検出された場合、認識部160は、端末配置判定処理を実行することにより、その時点の端末の位置及び姿勢を認識する(ステップS110)。ここで実行される端末配置判定処理の詳細な流れのいくつかの例について、後にさらに説明する。
認識対象が検出されなかった場合、制御部180は、測位モジュール104が利用可能であるかを判定する(ステップS130)。測位モジュール104が利用可能である場合、制御部180は、測位モジュール104を通じて画像処理装置100の地理的位置を取得する(ステップS132)。また、制御部180は、センサモジュール114から、画像処理装置100の姿勢を示すセンサデータを取得する(ステップS134)。
測位モジュール104が利用可能でない場合、制御部180は、画像処理装置100の配置の追跡を継続するか否かを判定する(ステップS136)。配置の追跡は、例えば、ユーザからの明示的な指示、認識対象が前回検出された時点からの所定の時間の経過、閾値を上回る動きの検出、又は目的地への到着などの様々な事象に応じて終了され得る。配置の追跡を継続しないと判定された場合には、処理はステップS100へ戻り、次の入力画像について上述した処理が繰り返される。配置の追跡を継続すると判定された場合、制御部180は、センサモジュール114からのセンサデータを用いて、認識対象が前回検出された時点からの画像処理装置100の配置の変化を積算することにより、画像処理装置100の配置を追跡する(ステップS138)。
ステップS110、ステップS134又はステップS138において画像処理装置100のその時点の配置が判定されると、制御部180は、目的地方向判定処理を実行することにより、画像処理装置100のスクリーン座標系における目的地に向かう方向を決定する(ステップS140)。ここで実行される目的地方向判定処理の詳細な流れのいくつかの例について、後にさらに説明する。
次に、制御部180は、決定した方向を示すナビゲーション用の表示オブジェクトを生成する(ステップS162)。制御部180は、さらに、水平面、現在地、目的地又は認識の照準などを表現し得る1つ以上の補助的な表示オブジェクトを生成してもよい。そして、制御部180は、生成した表示オブジェクトの画像を入力画像に重畳することにより出力画像を生成し、生成した出力画像をディスプレイ110の画面に表示させる(ステップS164)。その後、処理はステップS100へ戻り、次の入力画像について上述した処理が繰り返される。
(2−1)端末配置判定処理−第1の例
図15Aは、図14に示した端末配置判定処理の詳細な流れの第1の例を示すフローチャートである。第1の例において、オブジェクト配置データは、外部のデータサーバから取得される。
図15Aを参照すると、まず、認識部160は、入力画像から抽出される画像特徴量又は入力画像に含まれるパターンと認識辞書データに含まれる特徴データとの照合の結果に基づいて、認識した実オブジェクトとの間の画像処理装置100の相対的配置を計算する(ステップS112)。
次に、認識部160は、認識した実オブジェクトの識別情報を用いて外部のデータサーバへデータ要求を送信することにより、当該実オブジェクトの地理的配置を示すオブジェクト配置データをデータサーバから取得する(ステップS116)。そして、認識部160は、取得したオブジェクト配置データをオブジェクト配置DB170へ格納する。
次に、認識部160は、取得したオブジェクト配置データにより示される実オブジェクトの地理的配置と、実オブジェクトとの間の画像処理装置100の相対的配置とから、画像処理装置100の地理的配置を判定する(ステップS122)。
なお、画像処理装置100の地理的配置、即ちグローバル座標系における端末の絶対的な位置及び姿勢がナビゲーションのために必要とされない場合には、ステップS122の処理は省略されてもよい。
(2−2)端末配置判定処理−第2の例
図15Bは、図14に示した端末配置判定処理の詳細な流れの第2の例を示すフローチャートである。第2の例において、オブジェクト配置データは、検出された認識対象から復号される。
図15Bを参照すると、まず、認識部160は、入力画像から抽出される画像特徴量又は入力画像に含まれるパターンと認識辞書データに含まれる特徴データとの照合の結果に基づいて、認識した実オブジェクトとの間の画像処理装置100の相対的配置を計算する(ステップS112)。
次に、認識部160は、認識対象に符号化されているオブジェクト配置データを復号することにより、当該認識対象を有する実オブジェクトの地理的配置を示すオブジェクト配置データを取得する(ステップS118)。そして、認識部160は、取得したオブジェクト配置データをオブジェクト配置DB170へ格納する。
次に、認識部160は、取得したオブジェクト配置データにより示される実オブジェクトの地理的配置と、実オブジェクトとの間の画像処理装置100の相対的配置とから、画像処理装置100の地理的配置を判定する(ステップS122)。
(2−3)端末配置判定処理−第3の例
図15Cは、図14に示した端末配置判定処理の詳細な流れの第3の例を示すフローチャートである。第3の例において、オブジェクト配置データは、検出された認識対象に関連付けて実オブジェクトの表面に付加される追加コードから復号される。
図15Cを参照すると、まず、認識部160は、入力画像から抽出される画像特徴量又は入力画像に含まれるパターンと認識辞書データに含まれる特徴データとの照合の結果に基づいて、認識した実オブジェクトとの間の画像処理装置100の相対的配置を計算する(ステップS112)。
次に、認識部160は、認識辞書データに含まれる追加コード配置データを用いて、入力画像内の追加コードの配置を判定する(ステップS114)。
次に、認識部160は、追加コードに符号化されているオブジェクト配置データを復号することにより、実オブジェクトの地理的配置を示すオブジェクト配置データを取得する(ステップS120)。認識部160は、例えば、追加コードが付加されている面が入力画像に正対するように入力画像を変形させた上で、追加コードを読み取るための認識処理を追加コードを含む部分画像に適用してもよい。そして、認識部160は、取得したオブジェクト配置データをオブジェクト配置DB170へ格納する。
次に、認識部160は、取得したオブジェクト配置データにより示される実オブジェクトの地理的配置と、実オブジェクトとの間の画像処理装置100の相対的配置とから、画像処理装置100の地理的配置を判定する(ステップS122)。
(3−1)目的地方向判定処理−第1の例
図16Aは、図14に示した目的地方向判定処理の詳細な流れの第1の例を示すフローチャートである。第1の例において、目的地に向かう方向は、目的地の地理的位置及び端末の地理的配置から判定される。
図16Aを参照すると、まず、制御部180は、ナビゲーションの対象とする1つ以上の目的地を決定する(ステップS142)。制御部180は、例えば、図12A〜図12Cに例示したようなユーザインタフェースを介してユーザにより選択された目的地を、ナビゲーションの対象として決定してもよい。その代わりに、制御部180は、周辺に存在する1つ以上のスポット、ナビゲーションの順路に従って選択されるスポット、又は広告の目的で選択されるスポットなどを、ナビゲーションの対象として自動的に決定してもよい。
次に、制御部180は、決定した目的地の地理的位置を、オブジェクト配置DB170に格納されているオブジェクト配置データから取得する(ステップS144)。
次に、制御部180は、取得した目的地の地理的位置、及び画像処理装置100の地理的配置から、画像処理装置100のスクリーン座標系における目的地に向かう方向を計算する(ステップS148)。
(3−2)目的地方向判定処理−第2の例
図16Bは、図14に示した目的地方向判定処理の詳細な流れの第2の例を示すフローチャートである。第2の例において、目的地に向かう方向は、実オブジェクトを基準とする目的地の相対的位置及び端末の相対的配置から判定される。
図16Bを参照すると、まず、制御部180は、第1の例と同様に、ナビゲーションの対象とする1つ以上の目的地を決定する(ステップS142)。
次に、制御部180は、決定した目的地の実オブジェクトからの相対的位置を、オブジェクト配置DB170に格納されているオブジェクト配置データから取得する(ステップS146)。
次に、制御部180は、取得した目的地の相対的位置及び画像処理装置100の相対的配置から、画像処理装置100のスクリーン座標系における目的地に向かう方向を計算する(ステップS150)。
<3.応用例>
[3−1.スタンプラリー]
本開示に係る技術は、様々な用途に適用可能である。一例として、スタンプラリーの用途についてここで説明する。スタンプラリーは、一般的には、何らかのテーマを共有する複数のスポットをユーザが順に訪問し、各スポットに置かれたスタンプをスタンプカードに押印することにより、スタンプの収集を楽しみ又は収集結果に応じた特典を獲得しようとするイベントである。スタンプをスタンプカードに押印する代わりに、各スポットをユーザが訪問した証拠として、各スポットに置かれる目印をユーザが撮像する手法もある。
このようなスタンプラリーにおいて、本開示に係る技術は、次に訪問すべきスポットへユーザを誘導するために使用され得る。図17は、スタンプラリーの応用例において表示され得る表示オブジェクトのいくつかの例を示す説明図である。図17の左に示した出力画像Im21には、表示オブジェクトN21及び補助表示オブジェクトJ21が重畳されている。表示オブジェクトN21は、現在地からスタンプラリーにおける次のスポットに向かう方向を示す。補助表示オブジェクトJ21は、目的地としての当該次のスポットを表現するアイコンである。
図17の右に示した出力画像Im22には、実オブジェクト40が映っている。実オブジェクト40は、スタンプラリーのスポットに掲示されるポスターである。即ち、ユーザは、この時点で1つのスポットに到達しており、その後次のスポットを目指すことになる。ポスター40の印刷面には、認識対象41が印刷されている。画像処理装置100の認識部160は、認識対象41について画像認識を実行することにより、ポスター40との間の画像処理装置100の相対的配置を認識する。そして、制御部180は、画像処理装置100の相対的配置と、ポスター40に関連して取得されるオブジェクト配置データとを用いて、次のスポットへ向かう方向を判定する。出力画像Im22には、表示オブジェクトN22及び補助表示オブジェクトJ21が重畳されている。補助表示オブジェクトJ21は、ポスター40が掲示されたスポットにユーザが到達したことを通知するように、強調的に表示されている。表示オブジェクトN22は、画像認識に基づいて判定された次のスポットへ向かう方向を示している。
スタンプラリーの用途において、複数のスポットで共通的な認識対象と、個々のスポットを識別するための追加コードとが用意されてもよい。その代わりに、複数のスポットで互いに異なる認識対象が用意されてもよい。
[3−2.HMDの利用]
上述したように、本開示に係る技術は、HMD端末を用いて実現されてもよい。図18は、画像処理装置の一変形例について説明するための説明図である。図18の例において、画像処理装置200は、ユーザの頭部に装着される眼鏡型のHMD端末である。画像処理装置200は、筐体201、カメラ202、接触面206並びに一対の画面210a及び210bを備える。筐体201は、画面210a及び210bを支持するフレームと、ユーザの側頭部に位置するいわゆるテンプルとを含む。テンプルの内部には、画像処理のためのメモリ及びプロセッサを含むいくつかのモジュールが格納される。それらモジュールは、図5に示した画像処理装置100の様々な論理的機能と同等の機能を有する。カメラ202は、そのレンズの光軸がユーザの視線と略平行になるように配置され、画像を撮像するために用いられる。接触面206は、ユーザによるタッチを検出する面であり、画像処理装置200がユーザ入力を受け付けるために用いられる。画面210a及び210bは、ユーザの左目及び右目の前方にそれぞれ配置される、シースルー型の又は非シースルー型の画面である。
図19は、図18の変形例において表示され得る表示オブジェクトのいくつかの例を示す説明図である。図19を参照すると、画像処理装置200の画面に、表示オブジェクトN31、表示オブジェクトH31及び補助表示オブジェクトJ31が表示されている。表示オブジェクトN31は、現在地から目的地に向かう方向を示すナビゲーション用のオブジェクトである。表示オブジェクトH31は、水平面を表現するオブジェクトである。補助表示オブジェクトJ31は、入力画像内の認識対象の検出位置を示すオブジェクトである。補助表示オブジェクトJ31は、静的なアイコンであってもよく、又はアニメーションであってもよい。図19の例では、実オブジェクト10の認識対象11が検出されている。
HMDの用途においては、図19の例のようにナビゲーション用の表示オブジェクトを画面の端部に表示させることにより、ユーザの視界を妨げることなく、ナビゲーションサービスを安全に提供することができる。目的地の選択などのためのユーザインタフェースは、画面210a及び210bに表示されてもよく、又は画像処理装置200と連携する他の装置(例えば、ユーザが保持するスマートフォン)の画面に表示されてもよい。
[3−3.複数の装置の連携]
本開示に係る技術は、複数の装置が互いに連携することにより実現されてもよい。例えば、上述した認識部160及び制御部180の機能の一部は、画像処理装置100又は200とは物理的に異なる装置により実行されてもよい。
図20は、複数の装置の連携について説明するための説明図である。図20を参照すると、画像処理装置100、及び画像処理装置100と通信するサーバ装置300が示されている。サーバ装置300は、ユーザの近傍に構築されるパーソナルネットワーク若しくはホームネットワーク上に配置されてもよく、又はインターネットなどの遠隔的なネットワーク上に配置されてもよい。画像処理装置100は、例えば入力画像をサーバ装置300へ送信する(SIG1)。サーバ装置300は、図5に示した認識部160及び制御部180の機能を有する装置である。サーバ装置300は、画像処理装置100から受信される入力画像について画像認識を実行し、認識対象を有する実オブジェクトを認識する。そして、サーバ装置300は、画像認識の結果に応じた情報を画像処理装置100へ送信する(SIG2)。サーバ装置300から画像処理装置100へ送信される情報は、実オブジェクトとの間の画像処理装置100の相対的配置を示すパラメータ、ユーザの目的地に向かう方向を示すパラメータ、又は目的地に向かう方向を示す表示オブジェクトのグラフィックデータなどであってよい。画像処理装置100は、サーバ装置300から受信される情報を用いて、目的地に向かう方向を示す表示オブジェクトの重畳された出力画像を画面に表示させる。かかる構成によれば、画像処理装置100が少ない処理リソースしか有しない場合であっても、ユーザにナビゲーションサービスを提供することができる。
<4.まとめ>
ここまで、図1〜図20を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、実オブジェクトが有する視覚的な認識対象について画像認識を実行することにより、画像を撮像した端末の実オブジェクトとの間の相対的配置が認識され、認識された当該相対的配置に基づいて、目的地に向かう方向を示す表示オブジェクトが端末の画面に表示される。従って、測位モジュールに頼ることなく、目的地に向けてのナビゲーションをユーザに提供することができる。
一例として、目的地は、撮像された実オブジェクトに関連付けられる目的地候補のリスト又はマップを表示する画面を介してユーザにより選択されてもよい。かかる構成によれば、認識対象を有する実オブジェクトの周辺に存在する主要なスポットを、ユーザが容易に目的地として選択することが可能となる。また、広告の対象商品の画像が印刷されたポスターをユーザが撮像した場合に、当該対象商品を販売する近隣の店舗をユーザに選択させて、ユーザを店舗へ誘導するような応用も可能である。その代わりに、目的地は、予めユーザにより選択されてもよい。また、1つ以上の目的地が自動的に選択されてもよい。
また、一例として、目的地に向かう方向は、端末の相対的配置、実オブジェクトの地理的配置、及び目的地の地理的位置から判定され得る。通常、実オブジェクトの地理的配置及び目的地の地理的位置は変動しないため、かかる構成によれば、動的に認識される端末の配置と予め定義されるデータとを用いて、目的地に向かう方向を適切に判定することができる。他の例として、目的地に向かう方向は、端末の相対的配置及び目的地の実オブジェクトとの間の相対的位置から判定され得る。この場合にも、動的に認識される端末の配置と予め定義されるデータとを用いて、目的地に向かう方向を適切に判定することができる。
実オブジェクトの配置又は目的地の位置を定義するデータがデータサーバから動的に取得される場合には、予めデータを各端末に配布する必要性が無いため、上述した仕組みの導入が容易となる。一方、実オブジェクトの配置又は目的地の位置を定義するデータが実オブジェクトの表面上で視覚的に符号化される場合には、やはり予めデータを各端末に配布する必要性はなく、さらに各端末がデータサーバと通信する必要性も回避される。従って、測位モジュールも無線通信モジュールも利用可能でない状況においても、ユーザにナビゲーションサービスを提供することができる。
また、上述した実施形態によれば、端末が有するセンサからのセンサデータを用いて端末の配置が追跡され、目的地に向かう方向を示す表示オブジェクトが継続的に画面に表示される。それにより、ユーザが動いている間にも、ユーザに中断なくナビゲーションサービスを提供することが可能となる。
なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
また、本明細書においてフローチャートを用いて説明した処理は、必ずしもフローチャートに示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
視覚的な認識対象を有する実オブジェクトを映す画像を取得する画像取得部と、
前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識する認識部と、
前記認識部により認識される前記端末の前記相対的配置に基づいて、ユーザの目的地に向かう方向を示す表示オブジェクトを前記端末の画面に表示させる制御部と、
を備える画像処理装置。
(2)
前記制御部は、前記実オブジェクトに関連付けられる目的地候補のリスト又はマップを前記画面に表示させることにより、前記目的地を前記ユーザに選択させる、前記(1)に記載の画像処理装置。
(3)
前記目的地は、予め前記ユーザにより選択される、前記(1)に記載の画像処理装置。
(4)
前記制御部は、単一の目的地が前記ユーザにより選択されていない場合に、前記実オブジェクトに関連付けられる複数の目的地候補に向かう方向をそれぞれ示す複数の表示オブジェクトを前記画面に表示させる、前記(1)〜(3)のいずれか1項に記載の画像処理装置。
(5)
前記制御部は、前記画像内の前記認識対象の検出位置を示す補助表示オブジェクトを前記画面に表示させる、前記(1)〜(4)のいずれか1項に記載の画像処理装置。
(6)
前記表示オブジェクトは、前記目的地に向かう直線的な方向又は非直線的な経路に沿った前記方向を示す、前記(1)〜(5)のいずれか1項に記載の画像処理装置。
(7)
前記制御部は、前記端末の前記相対的配置、前記実オブジェクトの地理的配置、及び前記目的地の地理的位置から、前記表示オブジェクトが示すべき前記方向を判定する、前記(1)〜(6)のいずれか1項に記載の画像処理装置。
(8)
前記制御部は、前記端末の前記相対的配置及び前記目的地の前記実オブジェクトとの間の相対的位置から、前記表示オブジェクトが示すべき前記方向を判定する、前記(1)〜(6)のいずれか1項に記載の画像処理装置。
(9)
前記制御部は、前記端末が有するセンサからのセンサデータを用いて前記端末の配置を追跡することにより、前記表示オブジェクトを継続的に前記画面に表示させる、前記(1)〜(8)のいずれか1項に記載の画像処理装置。
(10)
前記制御部は、前記端末の地理的位置を測定する測位モジュールが利用可能である場合に、追跡される前記端末の配置を、当該測位モジュールからの測位データを用いて補正する、前記(9)に記載の画像処理装置。
(11)
前記実オブジェクトの前記地理的配置は、データサーバから取得される配置データにより示される、前記(7)に記載の画像処理装置。
(12)
前記実オブジェクトの前記地理的配置は、前記認識対象又は前記認識対象に関連付けられる前記実オブジェクトの表面上の追加コードから復号される、前記(7)に記載の画像処理装置。
(13)
前記目的地の前記相対的位置は、データサーバから取得される配置データにより示される、前記(8)に記載の画像処理装置。
(14)
前記目的地の前記相対的位置は、前記認識対象又は前記認識対象に関連付けられる前記実オブジェクトの表面上の追加コードから復号される、前記(8)に記載の画像処理装置。
(15)
前記画像処理装置は、前記端末である、前記(1)〜(14)のいずれか1項に記載の画像処理装置。
(16)
前記画像処理装置は、前記端末と通信するサーバ装置である、前記(1)〜(14)のいずれか1項に記載の画像処理装置。
(17)
画像処理装置により実行される画像処理方法であって、
視覚的な認識対象を有する実オブジェクトを映す画像を取得することと、
前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識することと、
認識された前記端末の前記相対的配置に基づいて、ユーザの目的地に向かう方向を示す表示オブジェクトを前記端末の画面に表示させることと、
を含む画像処理方法。
(18)
画像処理装置を制御するコンピュータを、
視覚的な認識対象を有する実オブジェクトを映す画像を取得する画像取得部と、
前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識する認識部と、
前記認識部により認識される前記端末の前記相対的配置に基づいて、ユーザの目的地に向かう方向を示す表示オブジェクトを前記端末の画面に表示させる制御部と、
として機能させるためのプログラム。
10 実オブジェクト
11 認識対象
100,200 画像処理装置
140 画像取得部
160 認識部
180 制御部
171a,b オブジェクト配置データ

Claims (18)

  1. 実空間に配置され各々が視覚的な認識対象を有する複数の実オブジェクトのうちの1つを映す画像を取得する画像取得部と、
    前記画像に映る実オブジェクトの前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識する認識部と、
    前記画像認識の結果に関連して取得される前記複数の実オブジェクトのうちの他の実オブジェクトの地理的配置、及び前記認識部により認識される前記端末の前記相対的配置に基づいて、ユーザの次の目的地としての前記他の実オブジェクトに向かう方向を示す表示オブジェクトを前記端末の画面に表示させる制御部と、
    を備える画像処理装置。
  2. 前記制御部は、前記ユーザが前記画像に映る実オブジェクトの場所に到達したことを強調的に示す補助表示オブジェクトを前記画面にさらに表示させる、請求項1に記載の画像処理装置。
  3. 前記認識対象は、前記複数の実オブジェクトに共通的な部分と個々の実オブジェクトを識別するための追加的な部分とを含む、請求項1又は請求項2に記載の画像処理装置。
  4. 前記複数の実オブジェクトは、スタンプラリーにおいて前記ユーザが訪問すべきスポットに配置される、請求項1〜3のいずれか1項に記載の画像処理装置。
  5. 前記制御部は、前記画像内の前記認識対象の検出位置を示す補助表示オブジェクトを前記画面に表示させる、請求項1〜4のいずれか1項に記載の画像処理装置。
  6. 前記表示オブジェクトは、前記目的地に向かう直線的な方向又は非直線的な経路に沿った前記方向を示す、請求項1〜5のいずれか1項に記載の画像処理装置。
  7. 前記制御部は、前記端末の前記相対的配置、前記実オブジェクトの地理的配置、及び前記目的地の地理的位置から、前記表示オブジェクトが示すべき前記方向を判定する、請求項1〜6のいずれか1項に記載の画像処理装置。
  8. 前記制御部は、前記端末の前記相対的配置及び前記目的地の前記実オブジェクトとの間の相対的位置から、前記表示オブジェクトが示すべき前記方向を判定する、請求項1〜6のいずれか1項に記載の画像処理装置。
  9. 前記制御部は、前記端末が有するセンサからのセンサデータを用いて前記端末の配置を追跡することにより、前記表示オブジェクトを継続的に前記画面に表示させる、請求項1〜8のいずれか1項に記載の画像処理装置。
  10. 前記制御部は、前記端末の地理的位置を測定する測位モジュールが利用可能である場合に、追跡される前記端末の配置を、当該測位モジュールからの測位データを用いて補正する、請求項9に記載の画像処理装置。
  11. 前記他の実オブジェクトの前記地理的配置は、データサーバから取得される配置データにより示される、請求項に記載の画像処理装置。
  12. 前記他の実オブジェクトの前記地理的配置は、前記認識対象又は前記認識対象に関連付けられる前記実オブジェクトの表面上の追加コードから復号される、請求項に記載の画像処理装置。
  13. 前記目的地の前記相対的位置は、データサーバから取得される配置データにより示される、請求項8に記載の画像処理装置。
  14. 前記目的地の前記相対的位置は、前記認識対象又は前記認識対象に関連付けられる前記実オブジェクトの表面上の追加コードから復号される、請求項8に記載の画像処理装置。
  15. 前記画像処理装置は、前記端末である、請求項1〜14のいずれか1項に記載の画像処理装置。
  16. 前記画像処理装置は、前記端末と通信するサーバ装置である、請求項1〜14のいずれか1項に記載の画像処理装置。
  17. 画像処理装置により実行される画像処理方法であって、
    実空間に配置され各々が視覚的な認識対象を有する複数の実オブジェクトのうちの1つを映す画像を取得することと、
    前記画像に映る実オブジェクトの前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識することと、
    前記画像認識の結果に関連して取得される前記複数の実オブジェクトのうちの他の実オブジェクトの地理的配置、及び認識された前記端末の前記相対的配置に基づいて、ユーザの次の目的地としての前記他の実オブジェクトに向かう方向を示す表示オブジェクトを前記端末の画面に表示させることと、
    を含む画像処理方法。
  18. 画像処理装置を制御するコンピュータを、
    実空間に配置され各々が視覚的な認識対象を有する複数の実オブジェクトのうちの1つを映す画像を取得する画像取得部と、
    前記画像に映る実オブジェクトの前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識する認識部と、
    前記画像認識の結果に関連して取得される前記複数の実オブジェクトのうちの他の実オブジェクトの地理的配置、及び前記認識部により認識される前記端末の前記相対的配置に基づいて、ユーザの次の目的地としての前記他の実オブジェクトに向かう方向を示す表示オブジェクトを前記端末の画面に表示させる制御部と、
    として機能させるためのプログラム。
JP2015522611A 2013-06-17 2014-04-03 画像処理装置、画像処理方法及びプログラム Active JP6296056B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013126617 2013-06-17
JP2013126617 2013-06-17
PCT/JP2014/059809 WO2014203592A1 (ja) 2013-06-17 2014-04-03 画像処理装置、画像処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018027806A Division JP2018132528A (ja) 2013-06-17 2018-02-20 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2014203592A1 JPWO2014203592A1 (ja) 2017-02-23
JP6296056B2 true JP6296056B2 (ja) 2018-03-20

Family

ID=52104336

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015522611A Active JP6296056B2 (ja) 2013-06-17 2014-04-03 画像処理装置、画像処理方法及びプログラム
JP2018027806A Pending JP2018132528A (ja) 2013-06-17 2018-02-20 画像処理装置、画像処理方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018027806A Pending JP2018132528A (ja) 2013-06-17 2018-02-20 画像処理装置、画像処理方法及びプログラム

Country Status (5)

Country Link
US (2) US10175050B2 (ja)
EP (1) EP3012587A4 (ja)
JP (2) JP6296056B2 (ja)
CN (1) CN105431708B (ja)
WO (1) WO2014203592A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160001178A (ko) * 2014-06-26 2016-01-06 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
JP6424100B2 (ja) * 2015-01-29 2018-11-14 株式会社ゼンリンデータコム ナビゲーションシステム、ナビゲーション装置、グラス型デバイス及び装置間連携方法
JP6536810B2 (ja) * 2015-09-01 2019-07-03 パナソニックIpマネジメント株式会社 案内表示装置、案内システム及び案内方法
CN107239728B (zh) * 2017-01-04 2021-02-02 赛灵思电子科技(北京)有限公司 基于深度学习姿态估计的无人机交互装置与方法
CN108289327A (zh) * 2017-01-07 2018-07-17 薛明洁 一种基于图像的定位方法及系统
WO2018143360A1 (ja) * 2017-02-03 2018-08-09 良夫 川又 相対位置検出システム及び画像表示システム
WO2018230111A1 (ja) * 2017-06-13 2018-12-20 ソニー株式会社 情報処理装置、情報処理方法、及び情報処理システム
CN107607110A (zh) * 2017-07-29 2018-01-19 刘儿兀 一种基于图像和惯导技术的定位方法及系统
CA3073928C (en) * 2017-09-15 2022-10-18 Kimberly-Clark Worldwide, Inc. Washroom device augmented reality installation system
EP3731066A4 (en) 2017-12-20 2021-01-27 Sony Corporation DATA PROCESSING DEVICE AND PROCESS, AND ASSOCIATED PROGRAM
CN113272766A (zh) 2019-01-24 2021-08-17 麦克赛尔株式会社 显示终端、应用程序控制系统和应用程序控制方法
WO2021019591A1 (ja) * 2019-07-26 2021-02-04 マクセル株式会社 軌跡表示装置
JP7039535B2 (ja) * 2019-08-30 2022-03-22 ヤフー株式会社 生成装置、生成方法、および生成プログラム
JP6959305B2 (ja) * 2019-08-30 2021-11-02 ヤフー株式会社 生成装置、生成方法、および生成プログラム
DE102019213634A1 (de) * 2019-09-09 2021-03-11 Volkswagen Aktiengesellschaft Verfahren und Assistenzsystem zur Nutzung einer digitalen Karte in einem Fahrzeug
CN112857391A (zh) * 2021-01-19 2021-05-28 支付宝(杭州)信息技术有限公司 基于ar的路线展示处理方法及装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244488A (ja) * 2002-02-19 2003-08-29 Sharp Corp 画像情報付加装置及びシステム
JP4447294B2 (ja) * 2003-12-03 2010-04-07 エヌ・ティ・ティ・ソフトウェア株式会社 ナビゲーション装置及びそのプログラム
JP3808865B2 (ja) * 2003-12-04 2006-08-16 株式会社ナビタイムジャパン 経路案内用データ作成装置および経路案内用データを用いた経路案内配信装置
JP4322147B2 (ja) * 2004-03-09 2009-08-26 株式会社ナビタイムジャパン 地図表示機能を有する携帯端末、地図表示システムおよび情報配信サーバならびにプログラム
JP2006170872A (ja) 2004-12-17 2006-06-29 Seiko Epson Corp 誘導情報システム及び携帯機器
JP4474348B2 (ja) * 2005-10-04 2010-06-02 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、及び記憶媒体
CN101430209B (zh) 2005-12-07 2011-05-25 松下电器产业株式会社 路线信息显示装置以及路线信息显示方法
JP4851969B2 (ja) * 2007-03-13 2012-01-11 日本電信電話株式会社 環状idマーク読み取り装置、環状idマーク読み取りシステム、環状idマーク読み取り方法および環状idマーク読み取りプログラム
JP2008309530A (ja) 2007-06-12 2008-12-25 National Institute Of Information & Communication Technology 位置検出装置、それにおける位置の検出をコンピュータに実行させるためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011094992A (ja) * 2009-10-27 2011-05-12 Jvc Kenwood Holdings Inc ナビゲーション装置、ナビゲーション方法、およびナビゲーションプログラム
KR101662595B1 (ko) 2009-11-03 2016-10-06 삼성전자주식회사 사용자 단말 장치, 경로 안내 시스템 및 그 경로 안내 방법
JP5638789B2 (ja) * 2009-11-12 2014-12-10 株式会社野村総合研究所 標識使用方法
JP2011122967A (ja) * 2009-12-11 2011-06-23 Ikutoku Gakuen ナビゲーションシステム
US8855929B2 (en) * 2010-01-18 2014-10-07 Qualcomm Incorporated Using object to align and calibrate inertial navigation system
CN102933938B (zh) * 2010-02-08 2017-05-03 通腾波兰股份有限公司 用于评估兴趣点的属性的方法及设备
CN102783144B (zh) * 2010-03-01 2016-06-29 本田技研工业株式会社 车辆的周围监测装置
KR101173358B1 (ko) * 2010-05-12 2012-08-10 (주)에코펌 큐알코드를 이용한 숲길 정보제공 시스템 및 방법
JP5255595B2 (ja) * 2010-05-17 2013-08-07 株式会社エヌ・ティ・ティ・ドコモ 端末位置特定システム、及び端末位置特定方法
JP5634786B2 (ja) * 2010-08-02 2014-12-03 株式会社メガチップス デジタルカメラ
JP5652097B2 (ja) 2010-10-01 2015-01-14 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
JP5724544B2 (ja) * 2011-03-31 2015-05-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP5836670B2 (ja) * 2011-07-07 2015-12-24 株式会社レイトロン 案内システム、撮影装置、および制御装置

Also Published As

Publication number Publication date
WO2014203592A1 (ja) 2014-12-24
US20160123742A1 (en) 2016-05-05
EP3012587A4 (en) 2017-03-08
CN105431708B (zh) 2019-06-21
US20190086214A1 (en) 2019-03-21
JP2018132528A (ja) 2018-08-23
CN105431708A (zh) 2016-03-23
EP3012587A1 (en) 2016-04-27
JPWO2014203592A1 (ja) 2017-02-23
US10677596B2 (en) 2020-06-09
US10175050B2 (en) 2019-01-08

Similar Documents

Publication Publication Date Title
JP6296056B2 (ja) 画像処理装置、画像処理方法及びプログラム
EP2455713B1 (en) Building directory aided navigation
JP6635037B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US10225506B2 (en) Information processing apparatus and information processing method
US9699375B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
JP5871976B2 (ja) ナビゲータとしてのモバイルイメージング装置
US9074899B2 (en) Object guiding method, mobile viewing system and augmented reality system
US9355496B2 (en) Image processing apparatus, image processing method, and medium to display augmented reality objects
US10025985B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium storing program
US9874454B2 (en) Community-based data for mapping systems
CN112101339B (zh) 地图兴趣点的信息获取方法、装置、电子设备和存储介质
US20190333478A1 (en) Adaptive fiducials for image match recognition and tracking
Anagnostopoulos et al. Gaze-Informed location-based services
US20120293550A1 (en) Localization device and localization method with the assistance of augmented reality
CN107885763B (zh) 室内图中兴趣点信息的更新方法、装置及计算机可读介质
KR20150077607A (ko) 증강현실을 이용한 공룡 유적지 체험 서비스 제공 시스템 및 그 방법
JP5527005B2 (ja) 位置推定装置、位置推定方法及び位置推定プログラム
CN107861975B (zh) 室内全景数据的采集方法及装置、设备与计算机可读介质
Kang Design and Implementation of Digital Map Products Contributing GIS Perspective based on Cloud Computing
CN110999279A (zh) 可穿戴终端显示系统、可穿戴终端显示方法以及程序
Forward et al. overarching research challenges

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180205

R151 Written notification of patent or utility model registration

Ref document number: 6296056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151