JP6296056B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP6296056B2 JP6296056B2 JP2015522611A JP2015522611A JP6296056B2 JP 6296056 B2 JP6296056 B2 JP 6296056B2 JP 2015522611 A JP2015522611 A JP 2015522611A JP 2015522611 A JP2015522611 A JP 2015522611A JP 6296056 B2 JP6296056 B2 JP 6296056B2
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- processing apparatus
- terminal
- arrangement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/005—Traffic control systems for road vehicles including pedestrian guidance indicator
Description
1.概要
2.画像処理装置の構成例
2−1.ハードウェア構成
2−2.機能構成
2−3.処理の流れ
3.応用例
3−1.スタンプラリー
3−2.HMDの利用
3−3.複数の装置の連携
4.まとめ
まず、図1〜図3を用いて、本開示に係る装置の概要を説明する。
[2−1.ハードウェア構成]
図4は、一実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図4を参照すると、画像処理装置100は、カメラ102、測位モジュール104、入力インタフェース106、メモリ108、ディスプレイ110、通信インタフェース112、センサモジュール114、バス116及びプロセッサ118を備える。
カメラ102は、画像を撮像する撮像モジュールである。カメラ102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実オブジェクトを撮像し、撮像画像を生成する。カメラ102により生成される一連の撮像画像は、映像を構成する。
測位モジュール104は、GPS(Global Positioning System)モジュール又はPlaceEngine(登録商標)などであってよい。測位モジュール104は、測位用の無線信号を受信し得る環境下において、当該無線信号を受信することにより、画像処理装置100の地理的位置を取得する。そして、測位モジュール104は、取得した地理的位置を示す測位データを生成する。本明細書において、地理的位置とは、グローバル座標系における絶対的な位置をいう。なお、測位モジュール104は、画像処理装置100の構成から省略されてもよい。
入力インタフェース106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力インタフェース106は、例えば、ディスプレイ110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。また、入力インタフェース106は、キーボード、キーパッド、ボタン又はスイッチなどの入力デバイスを含んでもよい。また、入力インタフェース106は、音声入力用のマイクロフォン及び音声認識モジュールを含んでもよい。
メモリ108は、半導体メモリ又はハードディスクなどの記憶媒体である。メモリ108は、画像処理装置100による処理のためのプログラム及びデータを記憶する。メモリ108により記憶されるデータは、例えば、撮像画像データ、測位データ、センサデータ及び後に説明する様々なデータベース(DB)内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、メモリ108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
ディスプレイ110は、画像を表示する画面を有する表示モジュールである。ディスプレイ110は、例えば、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などであってよい。ディスプレイ110は、例えば、画像処理装置100により生成される、ナビゲーション用の表示オブジェクトの重畳された出力画像を表示する。
通信インタフェース112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信インタフェース112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
センサモジュール114は、ジャイロセンサ、地磁気センサ及び加速度センサなどのセンサ群を含み得る。センサモジュール114は、例えば、画像処理装置100の姿勢を測定する。また、センサモジュール114は、画像処理装置100の動きを測定する。そして、センサモジュール114は、測定した姿勢及び動きを示すセンサデータを生成する。センサモジュール114により生成されるセンサデータは、画像処理装置100の配置の変化を追跡するために使用され得る。なお、センサモジュール114は、画像処理装置100の構成から省略されてもよい。
バス116は、カメラ102、測位モジュール104、入力インタフェース106、メモリ108、ディスプレイ110、通信インタフェース112、センサモジュール114及びプロセッサ118を相互に接続する。
プロセッサ118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。プロセッサ118は、メモリ108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
図5は、図4に示した画像処理装置100のメモリ108及びプロセッサ118により実現される論理的機能の構成の一例を示すブロック図である。図5を参照すると、画像処理装置100は、画像取得部140、認識データベース(DB)150、認識部160、オブジェクト配置DB170及び制御部180を備える。
画像取得部140は、カメラ102により撮像される画像を入力画像として取得する。入力画像は、典型的には、動画を構成する一連のフレームの各々である。本実施形態において、入力画像は、視覚的な認識対象を有する実オブジェクトを映す画像である。そして、画像取得部140は、取得した入力画像を認識部160及び制御部180へ出力する。
認識DB150は、後に説明する認識部160により使用される認識辞書データを記憶するデータベースである。認識辞書データは、1つ以上の認識対象の各々についての、当該認識対象の特徴を定義する特徴データを含む。ある例において、認識辞書データは、実オブジェクトが追加的に有する追加コードの配置を定義する追加コード配置データを含み得る。
認識部160は、認識対象について画像認識を実行することにより、入力画像を撮像した端末の、当該認識対象を有する実オブジェクトとの間の相対的配置を認識する。本実施形態において、入力画像を撮像した端末とは、画像処理装置100である。認識部160は、例えば、入力画像から抽出される画像特徴量を認識DB150により記憶される既知の特徴量セットと照合することにより、入力画像に映る認識対象を認識してもよい。また、認識部160は、入力画像に含まれるパターンを認識DB150により記憶される既知のパターンと照合することにより、入力画像に映る認識対象を認識してもよい。さらに、認識部160は、検出した複数の特徴点の間の位置関係、又は検出したパターンの形状及びサイズから、入力画像に認識対象がどのような配置で映っているかを認識する。
オブジェクト配置DB170は、オブジェクト配置データを記憶するデータベースである。オブジェクト配置データは、後に説明する制御部180により、目的地に向かう方向を決定するために使用され得る。
制御部180は、認識部160により認識される画像処理装置100の実オブジェクトからの相対的配置に基づいて、ユーザの目的地に向かう方向を示す表示オブジェクトをディスプレイ110の画面に表示させる。
(1)全体的な流れ
図14は、本実施形態に係る画像処理装置100により実行される画像処理の流れの一例を示すフローチャートである。図14に示した処理は、カメラ102により撮像される一連の入力画像の各々について繰り返される。
図15Aは、図14に示した端末配置判定処理の詳細な流れの第1の例を示すフローチャートである。第1の例において、オブジェクト配置データは、外部のデータサーバから取得される。
図15Bは、図14に示した端末配置判定処理の詳細な流れの第2の例を示すフローチャートである。第2の例において、オブジェクト配置データは、検出された認識対象から復号される。
図15Cは、図14に示した端末配置判定処理の詳細な流れの第3の例を示すフローチャートである。第3の例において、オブジェクト配置データは、検出された認識対象に関連付けて実オブジェクトの表面に付加される追加コードから復号される。
図16Aは、図14に示した目的地方向判定処理の詳細な流れの第1の例を示すフローチャートである。第1の例において、目的地に向かう方向は、目的地の地理的位置及び端末の地理的配置から判定される。
図16Bは、図14に示した目的地方向判定処理の詳細な流れの第2の例を示すフローチャートである。第2の例において、目的地に向かう方向は、実オブジェクトを基準とする目的地の相対的位置及び端末の相対的配置から判定される。
[3−1.スタンプラリー]
本開示に係る技術は、様々な用途に適用可能である。一例として、スタンプラリーの用途についてここで説明する。スタンプラリーは、一般的には、何らかのテーマを共有する複数のスポットをユーザが順に訪問し、各スポットに置かれたスタンプをスタンプカードに押印することにより、スタンプの収集を楽しみ又は収集結果に応じた特典を獲得しようとするイベントである。スタンプをスタンプカードに押印する代わりに、各スポットをユーザが訪問した証拠として、各スポットに置かれる目印をユーザが撮像する手法もある。
上述したように、本開示に係る技術は、HMD端末を用いて実現されてもよい。図18は、画像処理装置の一変形例について説明するための説明図である。図18の例において、画像処理装置200は、ユーザの頭部に装着される眼鏡型のHMD端末である。画像処理装置200は、筐体201、カメラ202、接触面206並びに一対の画面210a及び210bを備える。筐体201は、画面210a及び210bを支持するフレームと、ユーザの側頭部に位置するいわゆるテンプルとを含む。テンプルの内部には、画像処理のためのメモリ及びプロセッサを含むいくつかのモジュールが格納される。それらモジュールは、図5に示した画像処理装置100の様々な論理的機能と同等の機能を有する。カメラ202は、そのレンズの光軸がユーザの視線と略平行になるように配置され、画像を撮像するために用いられる。接触面206は、ユーザによるタッチを検出する面であり、画像処理装置200がユーザ入力を受け付けるために用いられる。画面210a及び210bは、ユーザの左目及び右目の前方にそれぞれ配置される、シースルー型の又は非シースルー型の画面である。
本開示に係る技術は、複数の装置が互いに連携することにより実現されてもよい。例えば、上述した認識部160及び制御部180の機能の一部は、画像処理装置100又は200とは物理的に異なる装置により実行されてもよい。
ここまで、図1〜図20を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、実オブジェクトが有する視覚的な認識対象について画像認識を実行することにより、画像を撮像した端末の実オブジェクトとの間の相対的配置が認識され、認識された当該相対的配置に基づいて、目的地に向かう方向を示す表示オブジェクトが端末の画面に表示される。従って、測位モジュールに頼ることなく、目的地に向けてのナビゲーションをユーザに提供することができる。
(1)
視覚的な認識対象を有する実オブジェクトを映す画像を取得する画像取得部と、
前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識する認識部と、
前記認識部により認識される前記端末の前記相対的配置に基づいて、ユーザの目的地に向かう方向を示す表示オブジェクトを前記端末の画面に表示させる制御部と、
を備える画像処理装置。
(2)
前記制御部は、前記実オブジェクトに関連付けられる目的地候補のリスト又はマップを前記画面に表示させることにより、前記目的地を前記ユーザに選択させる、前記(1)に記載の画像処理装置。
(3)
前記目的地は、予め前記ユーザにより選択される、前記(1)に記載の画像処理装置。
(4)
前記制御部は、単一の目的地が前記ユーザにより選択されていない場合に、前記実オブジェクトに関連付けられる複数の目的地候補に向かう方向をそれぞれ示す複数の表示オブジェクトを前記画面に表示させる、前記(1)〜(3)のいずれか1項に記載の画像処理装置。
(5)
前記制御部は、前記画像内の前記認識対象の検出位置を示す補助表示オブジェクトを前記画面に表示させる、前記(1)〜(4)のいずれか1項に記載の画像処理装置。
(6)
前記表示オブジェクトは、前記目的地に向かう直線的な方向又は非直線的な経路に沿った前記方向を示す、前記(1)〜(5)のいずれか1項に記載の画像処理装置。
(7)
前記制御部は、前記端末の前記相対的配置、前記実オブジェクトの地理的配置、及び前記目的地の地理的位置から、前記表示オブジェクトが示すべき前記方向を判定する、前記(1)〜(6)のいずれか1項に記載の画像処理装置。
(8)
前記制御部は、前記端末の前記相対的配置及び前記目的地の前記実オブジェクトとの間の相対的位置から、前記表示オブジェクトが示すべき前記方向を判定する、前記(1)〜(6)のいずれか1項に記載の画像処理装置。
(9)
前記制御部は、前記端末が有するセンサからのセンサデータを用いて前記端末の配置を追跡することにより、前記表示オブジェクトを継続的に前記画面に表示させる、前記(1)〜(8)のいずれか1項に記載の画像処理装置。
(10)
前記制御部は、前記端末の地理的位置を測定する測位モジュールが利用可能である場合に、追跡される前記端末の配置を、当該測位モジュールからの測位データを用いて補正する、前記(9)に記載の画像処理装置。
(11)
前記実オブジェクトの前記地理的配置は、データサーバから取得される配置データにより示される、前記(7)に記載の画像処理装置。
(12)
前記実オブジェクトの前記地理的配置は、前記認識対象又は前記認識対象に関連付けられる前記実オブジェクトの表面上の追加コードから復号される、前記(7)に記載の画像処理装置。
(13)
前記目的地の前記相対的位置は、データサーバから取得される配置データにより示される、前記(8)に記載の画像処理装置。
(14)
前記目的地の前記相対的位置は、前記認識対象又は前記認識対象に関連付けられる前記実オブジェクトの表面上の追加コードから復号される、前記(8)に記載の画像処理装置。
(15)
前記画像処理装置は、前記端末である、前記(1)〜(14)のいずれか1項に記載の画像処理装置。
(16)
前記画像処理装置は、前記端末と通信するサーバ装置である、前記(1)〜(14)のいずれか1項に記載の画像処理装置。
(17)
画像処理装置により実行される画像処理方法であって、
視覚的な認識対象を有する実オブジェクトを映す画像を取得することと、
前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識することと、
認識された前記端末の前記相対的配置に基づいて、ユーザの目的地に向かう方向を示す表示オブジェクトを前記端末の画面に表示させることと、
を含む画像処理方法。
(18)
画像処理装置を制御するコンピュータを、
視覚的な認識対象を有する実オブジェクトを映す画像を取得する画像取得部と、
前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識する認識部と、
前記認識部により認識される前記端末の前記相対的配置に基づいて、ユーザの目的地に向かう方向を示す表示オブジェクトを前記端末の画面に表示させる制御部と、
として機能させるためのプログラム。
11 認識対象
100,200 画像処理装置
140 画像取得部
160 認識部
180 制御部
171a,b オブジェクト配置データ
Claims (18)
- 実空間に配置され各々が視覚的な認識対象を有する複数の実オブジェクトのうちの1つを映す画像を取得する画像取得部と、
前記画像に映る実オブジェクトの前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識する認識部と、
前記画像認識の結果に関連して取得される前記複数の実オブジェクトのうちの他の実オブジェクトの地理的配置、及び前記認識部により認識される前記端末の前記相対的配置に基づいて、ユーザの次の目的地としての前記他の実オブジェクトに向かう方向を示す表示オブジェクトを前記端末の画面に表示させる制御部と、
を備える画像処理装置。 - 前記制御部は、前記ユーザが前記画像に映る実オブジェクトの場所に到達したことを強調的に示す補助表示オブジェクトを前記画面にさらに表示させる、請求項1に記載の画像処理装置。
- 前記認識対象は、前記複数の実オブジェクトに共通的な部分と個々の実オブジェクトを識別するための追加的な部分とを含む、請求項1又は請求項2に記載の画像処理装置。
- 前記複数の実オブジェクトは、スタンプラリーにおいて前記ユーザが訪問すべきスポットに配置される、請求項1〜3のいずれか1項に記載の画像処理装置。
- 前記制御部は、前記画像内の前記認識対象の検出位置を示す補助表示オブジェクトを前記画面に表示させる、請求項1〜4のいずれか1項に記載の画像処理装置。
- 前記表示オブジェクトは、前記目的地に向かう直線的な方向又は非直線的な経路に沿った前記方向を示す、請求項1〜5のいずれか1項に記載の画像処理装置。
- 前記制御部は、前記端末の前記相対的配置、前記実オブジェクトの地理的配置、及び前記目的地の地理的位置から、前記表示オブジェクトが示すべき前記方向を判定する、請求項1〜6のいずれか1項に記載の画像処理装置。
- 前記制御部は、前記端末の前記相対的配置及び前記目的地の前記実オブジェクトとの間の相対的位置から、前記表示オブジェクトが示すべき前記方向を判定する、請求項1〜6のいずれか1項に記載の画像処理装置。
- 前記制御部は、前記端末が有するセンサからのセンサデータを用いて前記端末の配置を追跡することにより、前記表示オブジェクトを継続的に前記画面に表示させる、請求項1〜8のいずれか1項に記載の画像処理装置。
- 前記制御部は、前記端末の地理的位置を測定する測位モジュールが利用可能である場合に、追跡される前記端末の配置を、当該測位モジュールからの測位データを用いて補正する、請求項9に記載の画像処理装置。
- 前記他の実オブジェクトの前記地理的配置は、データサーバから取得される配置データにより示される、請求項1に記載の画像処理装置。
- 前記他の実オブジェクトの前記地理的配置は、前記認識対象又は前記認識対象に関連付けられる前記実オブジェクトの表面上の追加コードから復号される、請求項1に記載の画像処理装置。
- 前記目的地の前記相対的位置は、データサーバから取得される配置データにより示される、請求項8に記載の画像処理装置。
- 前記目的地の前記相対的位置は、前記認識対象又は前記認識対象に関連付けられる前記実オブジェクトの表面上の追加コードから復号される、請求項8に記載の画像処理装置。
- 前記画像処理装置は、前記端末である、請求項1〜14のいずれか1項に記載の画像処理装置。
- 前記画像処理装置は、前記端末と通信するサーバ装置である、請求項1〜14のいずれか1項に記載の画像処理装置。
- 画像処理装置により実行される画像処理方法であって、
実空間に配置され各々が視覚的な認識対象を有する複数の実オブジェクトのうちの1つを映す画像を取得することと、
前記画像に映る実オブジェクトの前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識することと、
前記画像認識の結果に関連して取得される前記複数の実オブジェクトのうちの他の実オブジェクトの地理的配置、及び認識された前記端末の前記相対的配置に基づいて、ユーザの次の目的地としての前記他の実オブジェクトに向かう方向を示す表示オブジェクトを前記端末の画面に表示させることと、
を含む画像処理方法。 - 画像処理装置を制御するコンピュータを、
実空間に配置され各々が視覚的な認識対象を有する複数の実オブジェクトのうちの1つを映す画像を取得する画像取得部と、
前記画像に映る実オブジェクトの前記認識対象について画像認識を実行することにより、前記画像を撮像した端末の前記実オブジェクトとの間の相対的配置を認識する認識部と、
前記画像認識の結果に関連して取得される前記複数の実オブジェクトのうちの他の実オブジェクトの地理的配置、及び前記認識部により認識される前記端末の前記相対的配置に基づいて、ユーザの次の目的地としての前記他の実オブジェクトに向かう方向を示す表示オブジェクトを前記端末の画面に表示させる制御部と、
として機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013126617 | 2013-06-17 | ||
JP2013126617 | 2013-06-17 | ||
PCT/JP2014/059809 WO2014203592A1 (ja) | 2013-06-17 | 2014-04-03 | 画像処理装置、画像処理方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018027806A Division JP2018132528A (ja) | 2013-06-17 | 2018-02-20 | 画像処理装置、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014203592A1 JPWO2014203592A1 (ja) | 2017-02-23 |
JP6296056B2 true JP6296056B2 (ja) | 2018-03-20 |
Family
ID=52104336
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015522611A Active JP6296056B2 (ja) | 2013-06-17 | 2014-04-03 | 画像処理装置、画像処理方法及びプログラム |
JP2018027806A Pending JP2018132528A (ja) | 2013-06-17 | 2018-02-20 | 画像処理装置、画像処理方法及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018027806A Pending JP2018132528A (ja) | 2013-06-17 | 2018-02-20 | 画像処理装置、画像処理方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (2) | US10175050B2 (ja) |
EP (1) | EP3012587A4 (ja) |
JP (2) | JP6296056B2 (ja) |
CN (1) | CN105431708B (ja) |
WO (1) | WO2014203592A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160001178A (ko) * | 2014-06-26 | 2016-01-06 | 엘지전자 주식회사 | 글래스 타입 단말기 및 이의 제어방법 |
JP6424100B2 (ja) * | 2015-01-29 | 2018-11-14 | 株式会社ゼンリンデータコム | ナビゲーションシステム、ナビゲーション装置、グラス型デバイス及び装置間連携方法 |
JP6536810B2 (ja) * | 2015-09-01 | 2019-07-03 | パナソニックIpマネジメント株式会社 | 案内表示装置、案内システム及び案内方法 |
CN107239728B (zh) * | 2017-01-04 | 2021-02-02 | 赛灵思电子科技(北京)有限公司 | 基于深度学习姿态估计的无人机交互装置与方法 |
CN108289327A (zh) * | 2017-01-07 | 2018-07-17 | 薛明洁 | 一种基于图像的定位方法及系统 |
WO2018143360A1 (ja) * | 2017-02-03 | 2018-08-09 | 良夫 川又 | 相対位置検出システム及び画像表示システム |
WO2018230111A1 (ja) * | 2017-06-13 | 2018-12-20 | ソニー株式会社 | 情報処理装置、情報処理方法、及び情報処理システム |
CN107607110A (zh) * | 2017-07-29 | 2018-01-19 | 刘儿兀 | 一种基于图像和惯导技术的定位方法及系统 |
CA3073928C (en) * | 2017-09-15 | 2022-10-18 | Kimberly-Clark Worldwide, Inc. | Washroom device augmented reality installation system |
EP3731066A4 (en) | 2017-12-20 | 2021-01-27 | Sony Corporation | DATA PROCESSING DEVICE AND PROCESS, AND ASSOCIATED PROGRAM |
CN113272766A (zh) | 2019-01-24 | 2021-08-17 | 麦克赛尔株式会社 | 显示终端、应用程序控制系统和应用程序控制方法 |
WO2021019591A1 (ja) * | 2019-07-26 | 2021-02-04 | マクセル株式会社 | 軌跡表示装置 |
JP7039535B2 (ja) * | 2019-08-30 | 2022-03-22 | ヤフー株式会社 | 生成装置、生成方法、および生成プログラム |
JP6959305B2 (ja) * | 2019-08-30 | 2021-11-02 | ヤフー株式会社 | 生成装置、生成方法、および生成プログラム |
DE102019213634A1 (de) * | 2019-09-09 | 2021-03-11 | Volkswagen Aktiengesellschaft | Verfahren und Assistenzsystem zur Nutzung einer digitalen Karte in einem Fahrzeug |
CN112857391A (zh) * | 2021-01-19 | 2021-05-28 | 支付宝(杭州)信息技术有限公司 | 基于ar的路线展示处理方法及装置 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003244488A (ja) * | 2002-02-19 | 2003-08-29 | Sharp Corp | 画像情報付加装置及びシステム |
JP4447294B2 (ja) * | 2003-12-03 | 2010-04-07 | エヌ・ティ・ティ・ソフトウェア株式会社 | ナビゲーション装置及びそのプログラム |
JP3808865B2 (ja) * | 2003-12-04 | 2006-08-16 | 株式会社ナビタイムジャパン | 経路案内用データ作成装置および経路案内用データを用いた経路案内配信装置 |
JP4322147B2 (ja) * | 2004-03-09 | 2009-08-26 | 株式会社ナビタイムジャパン | 地図表示機能を有する携帯端末、地図表示システムおよび情報配信サーバならびにプログラム |
JP2006170872A (ja) | 2004-12-17 | 2006-06-29 | Seiko Epson Corp | 誘導情報システム及び携帯機器 |
JP4474348B2 (ja) * | 2005-10-04 | 2010-06-02 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム、及び記憶媒体 |
CN101430209B (zh) | 2005-12-07 | 2011-05-25 | 松下电器产业株式会社 | 路线信息显示装置以及路线信息显示方法 |
JP4851969B2 (ja) * | 2007-03-13 | 2012-01-11 | 日本電信電話株式会社 | 環状idマーク読み取り装置、環状idマーク読み取りシステム、環状idマーク読み取り方法および環状idマーク読み取りプログラム |
JP2008309530A (ja) | 2007-06-12 | 2008-12-25 | National Institute Of Information & Communication Technology | 位置検出装置、それにおける位置の検出をコンピュータに実行させるためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2011094992A (ja) * | 2009-10-27 | 2011-05-12 | Jvc Kenwood Holdings Inc | ナビゲーション装置、ナビゲーション方法、およびナビゲーションプログラム |
KR101662595B1 (ko) | 2009-11-03 | 2016-10-06 | 삼성전자주식회사 | 사용자 단말 장치, 경로 안내 시스템 및 그 경로 안내 방법 |
JP5638789B2 (ja) * | 2009-11-12 | 2014-12-10 | 株式会社野村総合研究所 | 標識使用方法 |
JP2011122967A (ja) * | 2009-12-11 | 2011-06-23 | Ikutoku Gakuen | ナビゲーションシステム |
US8855929B2 (en) * | 2010-01-18 | 2014-10-07 | Qualcomm Incorporated | Using object to align and calibrate inertial navigation system |
CN102933938B (zh) * | 2010-02-08 | 2017-05-03 | 通腾波兰股份有限公司 | 用于评估兴趣点的属性的方法及设备 |
CN102783144B (zh) * | 2010-03-01 | 2016-06-29 | 本田技研工业株式会社 | 车辆的周围监测装置 |
KR101173358B1 (ko) * | 2010-05-12 | 2012-08-10 | (주)에코펌 | 큐알코드를 이용한 숲길 정보제공 시스템 및 방법 |
JP5255595B2 (ja) * | 2010-05-17 | 2013-08-07 | 株式会社エヌ・ティ・ティ・ドコモ | 端末位置特定システム、及び端末位置特定方法 |
JP5634786B2 (ja) * | 2010-08-02 | 2014-12-03 | 株式会社メガチップス | デジタルカメラ |
JP5652097B2 (ja) | 2010-10-01 | 2015-01-14 | ソニー株式会社 | 画像処理装置、プログラム及び画像処理方法 |
JP5724544B2 (ja) * | 2011-03-31 | 2015-05-27 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP5836670B2 (ja) * | 2011-07-07 | 2015-12-24 | 株式会社レイトロン | 案内システム、撮影装置、および制御装置 |
-
2014
- 2014-04-03 US US14/896,025 patent/US10175050B2/en active Active
- 2014-04-03 WO PCT/JP2014/059809 patent/WO2014203592A1/ja active Application Filing
- 2014-04-03 CN CN201480032897.4A patent/CN105431708B/zh active Active
- 2014-04-03 JP JP2015522611A patent/JP6296056B2/ja active Active
- 2014-04-03 EP EP14813032.1A patent/EP3012587A4/en active Pending
-
2018
- 2018-02-20 JP JP2018027806A patent/JP2018132528A/ja active Pending
- 2018-11-16 US US16/193,049 patent/US10677596B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2014203592A1 (ja) | 2014-12-24 |
US20160123742A1 (en) | 2016-05-05 |
EP3012587A4 (en) | 2017-03-08 |
CN105431708B (zh) | 2019-06-21 |
US20190086214A1 (en) | 2019-03-21 |
JP2018132528A (ja) | 2018-08-23 |
CN105431708A (zh) | 2016-03-23 |
EP3012587A1 (en) | 2016-04-27 |
JPWO2014203592A1 (ja) | 2017-02-23 |
US10677596B2 (en) | 2020-06-09 |
US10175050B2 (en) | 2019-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6296056B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
EP2455713B1 (en) | Building directory aided navigation | |
JP6635037B2 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
US10225506B2 (en) | Information processing apparatus and information processing method | |
US9699375B2 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
JP5871976B2 (ja) | ナビゲータとしてのモバイルイメージング装置 | |
US9074899B2 (en) | Object guiding method, mobile viewing system and augmented reality system | |
US9355496B2 (en) | Image processing apparatus, image processing method, and medium to display augmented reality objects | |
US10025985B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium storing program | |
US9874454B2 (en) | Community-based data for mapping systems | |
CN112101339B (zh) | 地图兴趣点的信息获取方法、装置、电子设备和存储介质 | |
US20190333478A1 (en) | Adaptive fiducials for image match recognition and tracking | |
Anagnostopoulos et al. | Gaze-Informed location-based services | |
US20120293550A1 (en) | Localization device and localization method with the assistance of augmented reality | |
CN107885763B (zh) | 室内图中兴趣点信息的更新方法、装置及计算机可读介质 | |
KR20150077607A (ko) | 증강현실을 이용한 공룡 유적지 체험 서비스 제공 시스템 및 그 방법 | |
JP5527005B2 (ja) | 位置推定装置、位置推定方法及び位置推定プログラム | |
CN107861975B (zh) | 室内全景数据的采集方法及装置、设备与计算机可读介质 | |
Kang | Design and Implementation of Digital Map Products Contributing GIS Perspective based on Cloud Computing | |
CN110999279A (zh) | 可穿戴终端显示系统、可穿戴终端显示方法以及程序 | |
Forward et al. | overarching research challenges |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180205 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6296056 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |