JP6388744B1 - 測距装置および測距方法 - Google Patents

測距装置および測距方法 Download PDF

Info

Publication number
JP6388744B1
JP6388744B1 JP2018503816A JP2018503816A JP6388744B1 JP 6388744 B1 JP6388744 B1 JP 6388744B1 JP 2018503816 A JP2018503816 A JP 2018503816A JP 2018503816 A JP2018503816 A JP 2018503816A JP 6388744 B1 JP6388744 B1 JP 6388744B1
Authority
JP
Japan
Prior art keywords
image
unit
feature
dimensional
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018503816A
Other languages
English (en)
Other versions
JPWO2019049317A1 (ja
Inventor
健 宮本
健 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6388744B1 publication Critical patent/JP6388744B1/ja
Publication of JPWO2019049317A1 publication Critical patent/JPWO2019049317A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

特徴抽出部(21)が、画像から複数の特徴部を抽出する。位置取得部(23)が、特徴部が含まれる画像上で指定された特徴部の位置情報を取得する。位置補正部(24)が、特徴抽出部(21)によって抽出された特徴部の位置情報に基づいて、位置取得部(23)によって取得された位置情報を補正する。

Description

この発明は、位置補正装置としての機能を有する測距装置および位置補正方法による測距方法に関する。
従来から、画像上でオブジェクトを指定する位置情報を、正しいオブジェクトの位置に補正する技術が知られている。オブジェクトは、画像内の点または線である。
例えば、特許文献1には、表示部に表示された複数のキー(いわゆるソフトウェアキー)からタッチパネルを用いて指定されたキーの位置情報を、正しいキーの位置に補正する技術が記載されている。この技術は、タッチパネルを用いて受け付けられたキーに対する接触箇所の、当該キーの表示領域における基準位置に対する相対位置が、複数のキーのそれぞれについて算出される。タッチパネルによって接触が受け付けられると、この接触箇所と、複数のキーのうちの少なくとも当該接触箇所から一定の範囲内にある、2つ以上のキーのそれぞれの相対位置と、に基づいて、2つ以上のキーのうちの1つのキーが操作対象として特定される。
特開2012−93948号公報
特許文献1に記載された技術では、キーを指定する接触箇所の位置情報を、既知のキー表示領域の基準位置を利用して補正することができる。
しかしながら、カメラによって撮影された自然画像には、前述した位置補正の基準位置がないため、特許文献1に記載された技術では、自然画像上で指定されたオブジェクトの位置情報を補正できないという課題があった。
この発明は上記課題を解決するもので、位置補正の基準となる情報がない画像であっても位置情報を補正することができる位置補正装置および位置補正方法を得ることを目的とする。
この発明に係る測距装置は、3次元空間内の距離を算出する測距装置であって、位置補正装置としての画像取得部、特徴抽出部、表示部、位置取得部、および位置補正部を備える。画像取得部は、3次元空間が撮影された2次元画像を取得する。特徴抽出部は、画像取得部によって取得された2次元画像から、3次元空間内の特徴部および2次元画像上での複数の特徴部の位置情報を抽出する。表示部は、特徴部が含まれる2次元画像の表示処理を行う。位置取得部は、特徴部が含まれる2次元画像上で入力装置により指定された位置情報を取得する。位置補正部は、位置取得部によって取得された位置情報より、特徴抽出部によって抽出された複数の前記特徴部のうち、位置取得部によって取得された位置情報最も近い特徴部の2次元画像上での位置情報を特定する。
この発明によれば、画像から複数の特徴部を抽出して、特徴部が含まれる画像上で入力装置により指定された位置情報を取得し、画像から抽出された複数の特徴部の位置情報に基づいて、位置取得部によって取得された位置情報と最も近い特徴部の2次元画像上での位置情報特定する。これにより、位置補正の基準となる情報がない画像であっても位置情報を補正することができる。
この発明の実施の形態1に係る位置補正装置を備えた測距装置の構成を示すブロック図である。 実施の形態1に係る位置補正方法を示すフローチャートである。 画像における特徴部の例を示す図である。 図4Aは、画像の一例を示す図である。図4Bは、画像でコーナー上の点が指定された様子を示す図である。図4Cは、コーナー上の点間の距離が重畳表示された画像を示す図である。 この発明の実施の形態2に係る位置補正装置を備えた拡張現実表示装置の構成を示すブロック図である。 実施の形態2に係る位置補正方法を示すフローチャートである。 事前処理の概要を示す図である。 拡張現実の表示処理の概要を示す図である。 図9Aは、実施の形態1および実施の形態2に係る位置補正装置の機能を実現するハードウェア構成を示すブロック図である。図9Bは、実施の形態1および実施の形態2に係る位置補正装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。
以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る位置補正装置2を備えた測距装置1の構成を示すブロック図である。測距装置1は、画像上で指定された2つのオブジェクト間の距離を測定する装置であり、位置補正装置2およびアプリケーション部3を備える。また、測距装置1は、カメラ4、表示器5および入力装置6のそれぞれに接続されている。位置補正装置2は、入力装置6を用いて画像上で指定されたオブジェクトの位置情報を補正する装置であり、画像取得部20、特徴抽出部21、表示部22、位置取得部23および位置補正部24を備える。
アプリケーション部3は、画像上で2つのオブジェクトのそれぞれを指定した位置情報に基づいて、2つのオブジェクト間の距離を測定する。2つのオブジェクト間の距離を測定する方法としては、例えば、オブジェクトの画像上の2次元位置から、実空間におけるオブジェクトの3次元位置を算出し、2つのオブジェクトの3次元位置間の距離を求める方法が挙げられる。位置補正装置2は、例えば、アプリケーション部3の距離測定に使用される、オブジェクトの画像上の2次元位置を正しい位置に補正する。
カメラ4は、位置補正の基準となる情報がない自然画像を、カラー画像または白黒画像で撮影する。カメラ4は、一般的な単眼のカメラであってもよいが、例えば、異なる複数の方向から対象物を撮影可能なステレオカメラであってもよく、赤外線を利用したTof(Time of Flight)カメラであってもよい。
表示器5は、位置補正装置2の補正処理で得られた画像、アプリケーション部3による処理で得られた画像またはカメラ4によって撮影された撮影画像を表示する。表示器5としては、例えば、液晶ディスプレイ、有機エレクトロルミネッセンスディスプレイ(以下、有機ELディスプレイと記載する)またはヘッドアップディスプレイが挙げられる。
入力装置6は、表示器5が表示する画像内のオブジェクトを指定する操作を受け付ける装置である。入力装置6には、例えば、タッチパネル、ポインティングデバイス、またはジェスチャ認識用センサが挙げられる。
タッチパネルは、表示器5の画面上に設けられ、画像内のオブジェクトを指定するタッチ操作を受け付ける。ポインティングデバイスは、画像内のオブジェクトを、ポインタで指定する操作を受け付けるデバイスであり、マウスなどがある。ジェスチャ認識用センサは、オブジェクトを指定するジェスチャ操作を認識するセンサであって、カメラ、赤外線またはこれらの組み合わせを用いてジェスチャ操作を認識する。
画像取得部20は、カメラ4によって撮影された画像を取得する。画像取得部20によって取得された画像は、特徴抽出部21に出力される。
特徴抽出部21は、画像取得部20によって取得された画像から、特徴部を抽出する。特徴部は、画像内の特徴的な部分であり、例えば、被写体のコーナー部分の点または被写体の輪郭部分の線である。
特徴抽出部21によって抽出された特徴部およびその位置情報(画像上の2次元位置)は、表示部22および位置補正部24に出力される。
表示部22は、特徴部を含む画像の表示処理を行う。例えば、表示部22は、特徴部を含む画像を表示器5に表示する。
特徴部を含む画像は、画像取得部20によって取得された画像でもよいが、画像取得部20によって取得された画像のうち、特徴部を強調表示した画像であってもよい。測距装置1の使用者は、入力装置6を用いて、表示器5に表示された画像上の点または線を指定する操作を行う。
位置取得部23は、入力装置6を用いて画像上で指定された点または線の位置情報を取得する。例えば、入力装置6がタッチパネルであれば、位置取得部23は、タッチ操作が行われた位置情報を取得する。入力装置6がポインティングデバイスであれば、位置取得部23は、ポインタ位置を取得する。入力装置6がジェスチャ認識用センサである場合、位置取得部23は、特徴部を示すジェスチャ操作位置を取得する。
位置補正部24は、特徴抽出部21によって抽出された特徴部の位置情報に基づいて、位置取得部23によって取得された点または線の位置情報を補正する。
例えば、画像上で点または線をタッチ操作で指定する場合、点または線の真の位置から数十ピクセルずれる場合がある。このずれが生じる理由は、使用者の指が画像のピクセルに比べて遙かに大きいためである。
そこで、位置補正部24は、特徴抽出部21によって画像から抽出された複数の特徴部の位置情報のうち、位置取得部23によって取得された点または線の位置情報に最も近い特徴部の位置情報を、画像上で指定された点または線の位置情報とする。
次に動作について説明する。
図2は、実施の形態1に係る位置補正方法を示すフローチャートである。
画像取得部20は、カメラ4によって撮影された画像を取得する(ステップST1)。特徴抽出部21は、画像取得部20によって取得された画像から、特徴部を抽出する(ステップST2)。例えば、特徴抽出部21は、画像の中から複数の特徴的な点または線を抽出する。
図3は、画像4Aにおける特徴部を示す図である。画像4Aは、カメラ4によって撮影された画像であり、表示器5に表示される。画像4Aには、矩形のドアが被写体として写っている。特徴抽出部21は、例えば、被写体であるドアのエッジに相当する線30またはドアのコーナー上の点31を抽出する。コーナーは、エッジ同士が交わった交点に相当する部分である。
特徴抽出部21は、例えば、ハリスコーナー検出法を利用して、画像から特徴的な点を抽出する。また、特徴抽出部21は、例えば、ハフ変換を利用して、画像から特徴的な線を抽出する。
図2の説明に戻る。
表示部22は、特徴部を含む画像を表示器5に表示する(ステップST3)。
例えば、表示部22は、画像取得部20によって取得された画像を特徴抽出部21から入力して、上記画像をそのまま表示器5に表示する。
また、表示部22は、特徴抽出部21によって抽出された特徴部の色を変えて強調した上で、画像取得部20によって取得された画像上に上記特徴部を重畳して表示器5に表示させてもよい。測距装置1の使用者は、入力装置6を用いて、画像上で点または線を指定する操作を行う。例えば、使用者が、タッチパネル上で画像内の点をタッチ操作するか、画像内の線をなぞる操作を行う。
位置取得部23は、入力装置6を用いて、表示器5が表示している画像上で指定された点または線の位置情報を取得する(ステップST4)。ここで、上記位置情報は、点または線の位置yを示す情報であるものとする。
位置補正部24は、特徴抽出部21によって抽出された特徴部の位置情報に基づいて、位置取得部23によって取得された位置情報を補正する(ステップST5)。
例えば、位置補正部24は、特徴抽出部21によって特徴部として抽出された点または線の中から、入力装置6を用いて指定された点または線の位置yに最も近い点または線を特定する。そして、位置補正部24は、特定した点または線の位置で、入力装置6を用いて指定された点または線の位置を置き換える。
表示器5が表示する画像上で点が指定されると、位置補正部24は、下記式(1)に従って、特徴抽出部21によって抽出されたN個の点の中から、入力装置6を用いて指定された点の位置yに最も近いもの(互いの距離が最小のもの)を特定する。ただし、下記式(1)において、x(i=1,2,3,・・・,N)は、特徴抽出部21によって画像から抽出された点の位置である。

Figure 0006388744
表示器5が表示する画像上で線が指定されると、位置補正部24は、下記式(2)に従って、特徴抽出部21によって抽出されたM個の線の中から、入力装置6を用いて指定された線の位置yに最も近いもの(互いの距離が最小のもの)を特定する。ただし、下記式(2)において、z(j=1,2,3,・・・,M)は、特徴抽出部21によって画像から抽出された線のベクトルであり、×は外積を示している。

Figure 0006388744
図2に示した一連の処理が完了すると、アプリケーション部3は、位置補正装置2によって補正された位置情報に基づいて測距処理を行う。
図4Aは、カメラ4によって撮影された自然画像である画像4Aを示す図であり、表示器5に表示されている。図3と同様に、画像4Aには、矩形のドアが被写体として写っている。
図4Bは、画像4Aでコーナー上の点31aおよび点31bが指定された様子を示す図である。測距装置1の使用者が、入力装置6を用いて点31aおよび点31bのそれぞれを指定する。点31aおよび点31bは、画像4Aの特徴部であるので、位置補正装置2によって点31aおよび点31bの位置情報が補正される。
図4Cは、コーナー上の点31aと点31bとの間の距離が重畳表示された画像4Aを示す図である。アプリケーション部3は、補正された点31aおよび点31bの位置情報に基づいて、点31aと点31bとの間の距離を算出する。
例えば、アプリケーション部3は、位置補正装置2によって補正された点31aおよび点31bの2次元位置を、実空間における点31aおよび点31bの3次元位置に変換して、点31aの3次元位置と点31bの3次元位置との間の距離を算出する。
図4Cでは、アプリケーション部3が、表示器5に表示された画像4A上に、点31aと点31bとの間の距離である“1m”を示すテキスト情報を重畳表示している。
以上のように、実施の形態1に係る位置補正装置2において、画像取得部20が、画像を取得する。特徴抽出部21が、画像取得部20によって取得された画像から、複数の特徴部を抽出する。表示部22が、特徴部を含む画像の表示処理を行う。位置取得部23が、特徴部を含む画像上で指定された位置情報を取得する。位置補正部24が、特徴抽出部21によって抽出された特徴部の位置情報に基づいて、位置取得部23によって取得された位置情報と最も近い特徴部の2次元画像上での位置情報を特定する。特に、特徴部として、画像内の点または線が抽出される。これにより、位置補正の基準となる情報がない画像であっても、位置情報を補正することができる。また、位置補正装置2によって、入力装置を用いて指定された位置情報が正しい位置に補正されるので、測距装置1による測距機能の精度を高めることができる。
実施の形態2.
図5は、この発明の実施の形態2に係る位置補正装置2Aを備えた拡張現実(以下、ARと記載する)表示装置1Aの構成を示すブロック図である。図5において、図1と同一の構成要素には同一の符号を付して説明を省略する。
AR表示装置1Aは、表示器5に表示された画像上にARのグラフィックスを表示する装置であって、位置補正装置2A、アプリケーション部3Aおよびデータベース(以下、DBと記載する)7を備える。また、AR表示装置1Aには、カメラ4、表示器5、入力装置6およびセンサ8が接続されている。
位置補正装置2Aは、入力装置6を用いて指定された位置情報を補正する装置であり、画像取得部20、特徴抽出部21A、表示部22、位置取得部23、位置補正部24および変換処理部25を備える。
アプリケーション部3Aは、カメラ4の位置および姿勢に基づいて、カメラ4によって撮影されて表示器5に表示された画像上にARのグラフィックスを重畳表示する。また、アプリケーション部3Aは、表示器5が表示する画像上で指定された位置情報と、DB7から読み出した、対応する実空間の3次元位置とに基づいて、カメラ4の位置および姿勢を算出する。
DB7には、実空間でARのグラフィックスが見かけ上表示される面の3次元位置情報が格納される。
センサ8は、カメラ4によって撮影された被写体を検出するセンサであり、距離センサまたはステレオカメラで実現される。
変換処理部25は、センサ8の検出情報に基づいて、画像取得部20によって取得された画像を仮想的に撮影方向が変更された画像に変換する。
例えば、変換処理部25は、センサ8の検出情報に基づいて、カメラ4によって被写体が斜め方向から撮影されたか否かを確認し、カメラ4によって被写体が斜め方向から撮影された画像を、被写体が正面から撮影された画像に変換する。
特徴抽出部21Aは、変換処理部25による変換後の画像から、特徴部を抽出する。
次に動作について説明する。
図6は、実施の形態2に係る位置補正方法を示すフローチャートである。図6におけるステップST1a、ステップST4aからステップST6aまでの処理は、図2におけるステップST1、ステップST3からステップST5までの処理と同じであるので、説明を省略する。
ステップST2aにおいて、変換処理部25は、画像取得部20によって取得された画像を、被写体を正面から見た画像に変換する。
図7は、事前処理の概要を示す図である。図7において、カメラ4によって撮影される被写体100は、道路標識のように、平面部分を有した矩形状の物体である。
カメラ4が第1の位置にある場合に、被写体100は、カメラ4によって斜め方向から撮影され、カメラ4によって撮影された画像において菱形に歪んで写る。
AR表示装置1Aの使用者は、入力装置6を用いて、被写体100が写った画像上で、例えば、点101a〜101dを指定することになる。
しかしながら、被写体100が歪んで写った画像では、例えば、被写体100のエッジが極端に短くなって特徴部としての抽出に失敗する可能性が高く、その位置も正確に算出できない可能性もある。
そこで、実施の形態2に係るAR表示装置1Aでは、変換処理部25が、カメラ4によって斜め方向から撮影された画像を、被写体を正面から見た画像に変換する。
例えば、被写体100が、平面部分を有した矩形状の物体である場合に、センサ8は、被写体100の平面部分における複数箇所とカメラ4(第1の位置)との間の距離を検出する。変換処理部25は、センサ8によって検出された距離が、被写体100の一方向で徐々に大きくなる場合、被写体100がカメラ4によって斜め方向から撮影されたと判定する。
被写体100が斜め方向から撮影されたと判定すると、変換処理部25は、被写体100の平面部分における複数箇所とカメラ4との距離が等しくなるように画像の2次元座標を変換する。すなわち、変換処理部25は、カメラ4に対する被写体100の平面部分の回転度合いを変更してカメラ4の撮影方向を仮想的に変更することで、第2の位置にあるカメラ4によって被写体100が正面から撮影されたような画像に変換する。
ステップST3aにおいて、特徴抽出部21Aは、変換処理部25によって事前処理された画像から、複数の特徴部を抽出する。例えば、特徴抽出部21Aは、画像の中から、複数の特徴的な点または線を抽出する。事前処理された画像は、被写体100の歪みが解消された画像であるので、特徴抽出部21Aによる点または線の抽出失敗が低減されて、点または線の位置も正確に算出することが可能となる。
なお、ステップST4aにおいて、表示部22は、事前処理された画像を表示器5に表示してもよいが、画像取得部20によって取得された画像をそのまま表示器5に表示してもよい。また、表示部22は、特徴抽出部21Aによって抽出された特徴部の色を変えて強調してから、画像上に上記特徴部を重畳して表示器5に表示させてもよい。
また、変換処理部25が、カメラ4によって被写体100が正面から撮影されたような画像に変換する場合を示したが、これに限定されるものではない。
例えば、変換処理部25は、特徴抽出部21Aによる特徴部の抽出および特徴部の位置算出に支障がない範囲で画像の撮影方向を仮想的に変更するので、事前処理後の画像内で被写体が多少斜めに写っている場合もあり得る。
図6に示した一連の処理が完了すると、アプリケーション部3Aは、位置補正装置2Aによって補正された位置情報に基づいて、ARのグラフィックスの表示処理を行う。
図8は、ARの表示処理の概要を示す図である。カメラ4によって撮影された画像は、表示器5の画像投影面200に投影される。
AR表示装置1Aの使用者は、入力装置6を用いて、画像投影面200に投影された画像上の点200a〜200dを指定する。点200a〜200dは、位置補正装置2Aによって位置情報が補正される。
アプリケーション部3Aは、位置補正装置2Aによって補正された点200a〜200dの位置情報に基づいて、これらのそれぞれに対応する3次元位置情報をDB7から検索する。図8において、実空間内の点300a〜300dの3次元位置が、使用者によって指定された点200a〜200dの位置に対応する。
次に、アプリケーション部3Aは、例えば、実空間の点300a〜300dから画像上の点200a〜200dへ向かうベクトル(図8中に破線で示す矢印)が収束する位置をカメラ4の位置として算出する。また、アプリケーション部3Aは、算出したカメラ4の位置に基づいて、カメラ4の姿勢を算出する。
アプリケーション部3Aは、カメラ4の位置および姿勢に基づいて、カメラ4によって撮影された画像上にARのグラフィックスを重畳表示する。
実施の形態2では、変換処理部25を有した位置補正装置2Aを、AR表示装置1Aに設けた場合を示したが、実施の形態1で示した位置補正装置2の代わりに、測距装置1に設けてもよい。このように構成することでも、特徴抽出部21による特徴部の抽出失敗が低減され、特徴部の位置も正確に算出することが可能となる。
以上のように、実施の形態2に係る位置補正装置2A、この装置の機能を有するAR表示装置1Aまたは測距装置1は、画像取得部20によって取得された画像を、仮想的に撮影方向が変更された画像に変換する変換処理部25を備える。特徴抽出部21Aは、変換処理部25によって変換された画像から、複数の特徴部を抽出する。このように構成することで、特徴部の抽出失敗が低減され、特徴部の位置も正確に算出することが可能となる。
図9Aは、位置補正装置2および位置補正装置2Aの機能を実現するハードウェア構成を示すブロック図である。図9Bは、位置補正装置2および位置補正装置2Aの機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。
図9Aおよび図9Bにおいて、カメラ400は、ステレオカメラ、Tofカメラといったカメラ装置であり、図1および図5におけるカメラ4である。表示器401は、液晶ディスプレイ、有機ELディスプレイまたはヘッドアップディスプレイといった表示装置であり、図1および図5における表示器5である。タッチパネル402は、図1および図5における入力装置6の一例である。距離センサ403は、図5におけるセンサ8の一例である。
位置補正装置2における、画像取得部20、特徴抽出部21、表示部22、位置取得部23および位置補正部24のそれぞれの機能は、処理回路によって実現される。
すなわち、位置補正装置2は、図2に示したフローチャートのそれぞれの処理を実行するための処理回路を備える。
処理回路は、専用のハードウェアであってもよく、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
同様に、位置補正装置2Aにおける、画像取得部20、特徴抽出部21A、表示部22、位置取得部23、位置補正部24および変換処理部25のそれぞれの機能は、処理回路によって実現される。
すなわち、位置補正装置2Aは、図6に示したフローチャートのそれぞれの処理を実行するための処理回路を備える。
処理回路は、専用のハードウェアであってもよく、メモリに記憶されたプログラムを実行するCPUであってもよい。
処理回路が図9Aに示す専用のハードウェアである場合、処理回路404は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)またはこれらを組み合わせたものが該当する。
処理回路が図9Bに示すプロセッサ405である場合、画像取得部20、特徴抽出部21、表示部22、位置取得部23および位置補正部24のそれぞれの機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせによって実現される。
同様に、画像取得部20、特徴抽出部21A、表示部22、位置取得部23、位置補正部24および変換処理部25のそれぞれの機能は、ソフトウェア、ファームウェアまたは、ソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ406に記憶される。
プロセッサ405は、メモリ406に記憶されたプログラムを読み出して実行することで、画像取得部20、特徴抽出部21、表示部22、位置取得部23および位置補正部24のそれぞれの機能を実現する。
すなわち、位置補正装置2は、プロセッサ405によって実行されたときに、図2に示す一連の処理のそれぞれが結果的に実行されるプログラムを記憶するためのメモリ406を備える。
これらのプログラムは、画像取得部20、特徴抽出部21、表示部22、位置取得部23および位置補正部24の手順または方法をコンピュータに実行させるものである。
同様に、プロセッサ405は、メモリ406に記憶されたプログラムを読み出して実行することで、画像取得部20、特徴抽出部21A、表示部22、位置取得部23、位置補正部24および変換処理部25のそれぞれの機能を実現する。
すなわち、位置補正装置2Aは、プロセッサ405によって実行されたときに、図2に示す一連の処理のそれぞれが結果的に実行されるプログラムを記憶するためのメモリ406を備える。
これらのプログラムは、画像取得部20、特徴抽出部21A、表示部22、位置取得部23、位置補正部24および変換処理部25の手順または方法をコンピュータに実行させるものである。
メモリ406には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically−EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
画像取得部20、特徴抽出部21、表示部22、位置取得部23および位置補正部24のそれぞれの機能について一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
また、画像取得部20、特徴抽出部21A、表示部22、位置取得部23、位置補正部24および変換処理部25のそれぞれの機能について一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
例えば、特徴抽出部21および表示部22については、専用のハードウェアとしての処理回路404でその機能を実現する。位置取得部23および位置補正部24は、プロセッサ405が、メモリ406に記憶されたプログラムを実行することによってその機能を実現してもよい。
このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、または、これらの組み合わせによって上記機能のそれぞれを実現することができる。
なお、本発明は上記実施の形態に限定されるものではなく、本発明の範囲内において、実施の形態のそれぞれの自由な組み合わせまたは実施の形態のそれぞれの任意の構成要素の変形もしくは実施の形態のそれぞれにおいて任意の構成要素の省略が可能である。
この発明に係る位置補正装置およびこの装置の機能を有する装置は、位置補正の基準となる情報がない画像であっても位置情報を補正することができるので、例えば、測距装置またはAR表示装置に利用することができる。
1 測距装置、1A AR表示装置、2,2A 位置補正装置、3,3A アプリケーション部、4 カメラ、4A 画像、5 表示器、6 入力装置、8 センサ、20 画像取得部、21,21A 特徴抽出部、22 表示部、23 位置取得部、24 位置補正部、25 変換処理部、30 線、31,31a,31b,101a〜101d,200a〜200d,300a〜300d 点、100 被写体、200 画像投影面、400 カメラ、401 表示器、402 タッチパネル、403 距離センサ、404 処理回路、405 プロセッサ、406 メモリ。

Claims (6)

  1. 3次元空間内の距離を算出する測距装置であって、
    3次元空間が撮影された2次元画像を取得する画像取得部と、
    前記画像取得部によって取得された2次元画像から、3次元空間内の複数の特徴部および2次元画像上での複数の前記特徴部の位置情報を抽出する特徴抽出部と、
    前記特徴部が含まれる2次元画像の表示処理を行う表示部と、
    前記特徴部が含まれる2次元画像上で入力装置により指定された位置情報を取得する位置取得部と、
    前記位置取得部によって取得された位置情報より、前記特徴抽出部によって抽出された複数の前記特徴部のうち、前記位置取得部によって取得された位置情報最も近い特徴部の2次元画像上での位置情報を特定する位置補正部と
    前記位置補正部が特定した前記特徴部の2次元画像上での位置情報を3次元位置に変換し、変換した3次元位置に基づいて2つの特徴部の間の3次元空間内の距離を算出するアプリケーション部とを備えたこと
    を特徴とする測距装置
  2. 前記画像取得部によって取得された2次元画像を、仮想的に3次元空間の撮影方向が変更された2次元画像に変換する変換処理部を備え、
    前記特徴抽出部は、前記変換処理部によって変換された2次元画像から、3次元空間内の複数の特徴部および2次元画像上での複数の前記特徴部の位置情報を抽出すること
    を特徴とする請求項1記載の測距装置
  3. 前記特徴抽出部は、2次元画像における点を、3次元空間内の前記特徴部として抽出すること
    を特徴とする請求項1または請求項2記載の測距装置
  4. 前記特徴抽出部は、2次元画像における線を、3次元空間内の前記特徴部として抽出すること
    を特徴とする請求項1または請求項2記載の測距装置
  5. 3次元空間内の距離を算出する測距方法であって、
    画像取得部が、3次元空間が撮影された2次元画像を取得するステップと、
    特徴抽出部が、前記画像取得部によって取得された2次元画像から、3次元空間内の複数の特徴部および2次元画像上での複数の前記特徴部の位置情報を抽出するステップと、
    表示部が、前記特徴部が含まれる2次元画像の表示処理を行うステップと、
    位置取得部が、前記特徴部が含まれる2次元画像上で入力装置により指定された位置情報を取得するステップと、
    位置補正部が、前記位置取得部によって取得された位置情報より、前記特徴抽出部によって抽出された複数の前記特徴部のうち、前記位置取得部によって取得された位置情報最も近い特徴部の2次元画像上での位置情報を特定するステップとを備えたこと
    を特徴とする測距方法
  6. 変換処理部が、前記画像取得部によって取得された2次元画像を、仮想的に3次元空間の撮影方向が変更された2次元画像に変換するステップを備え、
    前記特徴抽出部は、前記変換処理部によって変換された2次元画像から、3次元空間内の複数の特徴部および2次元画像上での複数の前記特徴部の位置情報を抽出すること
    を特徴とする請求項5記載の測距方法
JP2018503816A 2017-09-08 2017-09-08 測距装置および測距方法 Active JP6388744B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/032494 WO2019049317A1 (ja) 2017-09-08 2017-09-08 位置補正装置および位置補正方法

Publications (2)

Publication Number Publication Date
JP6388744B1 true JP6388744B1 (ja) 2018-09-12
JPWO2019049317A1 JPWO2019049317A1 (ja) 2019-11-07

Family

ID=63518887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018503816A Active JP6388744B1 (ja) 2017-09-08 2017-09-08 測距装置および測距方法

Country Status (6)

Country Link
US (1) US20210074015A1 (ja)
JP (1) JP6388744B1 (ja)
KR (1) KR20200028485A (ja)
CN (1) CN111052062A (ja)
DE (1) DE112017007801T5 (ja)
WO (1) WO2019049317A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112964243A (zh) * 2021-01-11 2021-06-15 重庆市蛛丝网络科技有限公司 一种室内定位方法及装置

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293627A (ja) * 1999-04-02 2000-10-20 Sanyo Electric Co Ltd 画像入力装置、画像入力方法、及び記憶媒体
JP2001027924A (ja) * 1999-07-14 2001-01-30 Sharp Corp 表示画面を用いる入力装置
JP2004046326A (ja) * 2002-07-09 2004-02-12 Dainippon Screen Mfg Co Ltd 画像表示装置、画像表示方法およびプログラム
JP2005216170A (ja) * 2004-01-30 2005-08-11 Kyocera Corp 携帯端末装置および情報処理装置の入力処理方法
JP2009522697A (ja) * 2006-01-05 2009-06-11 アップル インコーポレイテッド 携帯用電子機器のためのキーボード
JP2009246646A (ja) * 2008-03-31 2009-10-22 Kenwood Corp リモコン装置及び設定方法
JP2010271982A (ja) * 2009-05-22 2010-12-02 Nec Casio Mobile Communications Ltd 携帯端末装置及びプログラム
JP2012043359A (ja) * 2010-08-23 2012-03-01 Kyocera Corp 携帯端末
JP2013016127A (ja) * 2011-07-06 2013-01-24 Kii corp 可搬デバイス、タッチ位置調整方法、オブジェクト選択方法、選択位置決定方法及びプログラム
JP2013182463A (ja) * 2012-03-02 2013-09-12 Nec Casio Mobile Communications Ltd 携帯端末装置、タッチ操作制御方法、及びプログラム
JP2014229083A (ja) * 2013-05-22 2014-12-08 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2015018572A (ja) * 2010-06-14 2015-01-29 アップル インコーポレイテッド コントロール選択近似
JP2015114928A (ja) * 2013-12-13 2015-06-22 コニカミノルタ株式会社 画像処理システム、画像形成装置、操作画面表示方法、およびコンピュータプログラム
JP2017027596A (ja) * 2015-07-17 2017-02-02 ダッソー システムズDassault Systemes モデル化オブジェクトの幾何学的要素のセットに対する測定値の計算
JP2017536618A (ja) * 2014-11-25 2017-12-07 マイクロソフト テクノロジー ライセンシング,エルエルシー ウェアラブル可視化デバイスのための仮想測定ツール

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004354236A (ja) * 2003-05-29 2004-12-16 Olympus Corp ステレオカメラ支持装置およびステレオカメラ支持方法ならびにステレオカメラシステム
JP4272966B2 (ja) * 2003-10-14 2009-06-03 和郎 岩根 3dcg合成装置
US8698735B2 (en) * 2006-09-15 2014-04-15 Lucasfilm Entertainment Company Ltd. Constrained virtual camera control
JP5604909B2 (ja) * 2010-02-26 2014-10-15 セイコーエプソン株式会社 補正情報算出装置、画像処理装置、画像表示システム、および画像補正方法
JP2012093948A (ja) 2010-10-27 2012-05-17 Kyocera Corp 携帯端末、プログラム及び入力制御方法
JP5216834B2 (ja) * 2010-11-08 2013-06-19 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置及びオブジェクト表示方法
JP5325267B2 (ja) * 2011-07-14 2013-10-23 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
US9519973B2 (en) * 2013-09-08 2016-12-13 Intel Corporation Enabling use of three-dimensional locations of features images
WO2014181725A1 (ja) * 2013-05-07 2014-11-13 シャープ株式会社 画像計測装置
JP6353214B2 (ja) * 2013-11-11 2018-07-04 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2016111120A1 (ja) * 2015-01-05 2016-07-14 三菱電機株式会社 画像補正装置、画像補正システム、および、画像補正方法
JP6627352B2 (ja) * 2015-09-15 2020-01-08 カシオ計算機株式会社 画像表示装置、画像表示方法及びプログラム

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293627A (ja) * 1999-04-02 2000-10-20 Sanyo Electric Co Ltd 画像入力装置、画像入力方法、及び記憶媒体
JP2001027924A (ja) * 1999-07-14 2001-01-30 Sharp Corp 表示画面を用いる入力装置
JP2004046326A (ja) * 2002-07-09 2004-02-12 Dainippon Screen Mfg Co Ltd 画像表示装置、画像表示方法およびプログラム
JP2005216170A (ja) * 2004-01-30 2005-08-11 Kyocera Corp 携帯端末装置および情報処理装置の入力処理方法
JP2009522697A (ja) * 2006-01-05 2009-06-11 アップル インコーポレイテッド 携帯用電子機器のためのキーボード
JP2009246646A (ja) * 2008-03-31 2009-10-22 Kenwood Corp リモコン装置及び設定方法
JP2010271982A (ja) * 2009-05-22 2010-12-02 Nec Casio Mobile Communications Ltd 携帯端末装置及びプログラム
JP2015018572A (ja) * 2010-06-14 2015-01-29 アップル インコーポレイテッド コントロール選択近似
JP2012043359A (ja) * 2010-08-23 2012-03-01 Kyocera Corp 携帯端末
JP2013016127A (ja) * 2011-07-06 2013-01-24 Kii corp 可搬デバイス、タッチ位置調整方法、オブジェクト選択方法、選択位置決定方法及びプログラム
JP2013182463A (ja) * 2012-03-02 2013-09-12 Nec Casio Mobile Communications Ltd 携帯端末装置、タッチ操作制御方法、及びプログラム
JP2014229083A (ja) * 2013-05-22 2014-12-08 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2015114928A (ja) * 2013-12-13 2015-06-22 コニカミノルタ株式会社 画像処理システム、画像形成装置、操作画面表示方法、およびコンピュータプログラム
JP2017536618A (ja) * 2014-11-25 2017-12-07 マイクロソフト テクノロジー ライセンシング,エルエルシー ウェアラブル可視化デバイスのための仮想測定ツール
JP2017027596A (ja) * 2015-07-17 2017-02-02 ダッソー システムズDassault Systemes モデル化オブジェクトの幾何学的要素のセットに対する測定値の計算

Also Published As

Publication number Publication date
DE112017007801T5 (de) 2020-06-18
WO2019049317A1 (ja) 2019-03-14
KR20200028485A (ko) 2020-03-16
JPWO2019049317A1 (ja) 2019-11-07
US20210074015A1 (en) 2021-03-11
CN111052062A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
CN110135455B (zh) 影像匹配方法、装置及计算机可读存储介质
JP6348093B2 (ja) 入力データから検出対象物の像を検出する画像処理装置および方法
US9519968B2 (en) Calibrating visual sensors using homography operators
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
CN110070564B (zh) 一种特征点匹配方法、装置、设备及存储介质
US20190228263A1 (en) Training assistance using synthetic images
US20130051626A1 (en) Method And Apparatus For Object Pose Estimation
JP6744747B2 (ja) 情報処理装置およびその制御方法
CN110986969B (zh) 地图融合方法及装置、设备、存储介质
US11842514B1 (en) Determining a pose of an object from rgb-d images
WO2012172817A1 (en) Image stabilization apparatus, image stabilization method, and document
JP5833507B2 (ja) 画像処理装置
US10249058B2 (en) Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method
WO2018098862A1 (zh) 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备
CN110222641B (zh) 用于识别图像的方法和装置
WO2018142533A1 (ja) 位置姿勢推定装置および位置姿勢推定方法
KR101453143B1 (ko) 스테레오 매칭 처리 시스템, 스테레오 매칭 처리 방법, 및 기록 매체
US20180213156A1 (en) Method for displaying on a screen at least one representation of an object, related computer program, electronic display device and apparatus
JP6388744B1 (ja) 測距装置および測距方法
CN110832851B (zh) 图像处理装置、图像变换方法
US9135715B1 (en) Local feature cameras for structure from motion (SFM) problems with generalized cameras
JP2014102805A (ja) 情報処理装置、情報処理方法及びプログラム
TWI731430B (zh) 資訊顯示方法與資訊顯示系統
JP2020187557A (ja) 温度画像表示装置、温度画像表示システムおよび温度画像表示プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180125

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180125

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180814

R150 Certificate of patent or registration of utility model

Ref document number: 6388744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250