JP6388744B1 - 測距装置および測距方法 - Google Patents
測距装置および測距方法 Download PDFInfo
- Publication number
- JP6388744B1 JP6388744B1 JP2018503816A JP2018503816A JP6388744B1 JP 6388744 B1 JP6388744 B1 JP 6388744B1 JP 2018503816 A JP2018503816 A JP 2018503816A JP 2018503816 A JP2018503816 A JP 2018503816A JP 6388744 B1 JP6388744 B1 JP 6388744B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- feature
- dimensional
- dimensional image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
Description
例えば、特許文献1には、表示部に表示された複数のキー(いわゆるソフトウェアキー)からタッチパネルを用いて指定されたキーの位置情報を、正しいキーの位置に補正する技術が記載されている。この技術は、タッチパネルを用いて受け付けられたキーに対する接触箇所の、当該キーの表示領域における基準位置に対する相対位置が、複数のキーのそれぞれについて算出される。タッチパネルによって接触が受け付けられると、この接触箇所と、複数のキーのうちの少なくとも当該接触箇所から一定の範囲内にある、2つ以上のキーのそれぞれの相対位置と、に基づいて、2つ以上のキーのうちの1つのキーが操作対象として特定される。
しかしながら、カメラによって撮影された自然画像には、前述した位置補正の基準位置がないため、特許文献1に記載された技術では、自然画像上で指定されたオブジェクトの位置情報を補正できないという課題があった。
実施の形態1.
図1は、この発明の実施の形態1に係る位置補正装置2を備えた測距装置1の構成を示すブロック図である。測距装置1は、画像上で指定された2つのオブジェクト間の距離を測定する装置であり、位置補正装置2およびアプリケーション部3を備える。また、測距装置1は、カメラ4、表示器5および入力装置6のそれぞれに接続されている。位置補正装置2は、入力装置6を用いて画像上で指定されたオブジェクトの位置情報を補正する装置であり、画像取得部20、特徴抽出部21、表示部22、位置取得部23および位置補正部24を備える。
特徴抽出部21によって抽出された特徴部およびその位置情報(画像上の2次元位置)は、表示部22および位置補正部24に出力される。
特徴部を含む画像は、画像取得部20によって取得された画像でもよいが、画像取得部20によって取得された画像のうち、特徴部を強調表示した画像であってもよい。測距装置1の使用者は、入力装置6を用いて、表示器5に表示された画像上の点または線を指定する操作を行う。
例えば、画像上で点または線をタッチ操作で指定する場合、点または線の真の位置から数十ピクセルずれる場合がある。このずれが生じる理由は、使用者の指が画像のピクセルに比べて遙かに大きいためである。
そこで、位置補正部24は、特徴抽出部21によって画像から抽出された複数の特徴部の位置情報のうち、位置取得部23によって取得された点または線の位置情報に最も近い特徴部の位置情報を、画像上で指定された点または線の位置情報とする。
図2は、実施の形態1に係る位置補正方法を示すフローチャートである。
画像取得部20は、カメラ4によって撮影された画像を取得する(ステップST1)。特徴抽出部21は、画像取得部20によって取得された画像から、特徴部を抽出する(ステップST2)。例えば、特徴抽出部21は、画像の中から複数の特徴的な点または線を抽出する。
特徴抽出部21は、例えば、ハリスコーナー検出法を利用して、画像から特徴的な点を抽出する。また、特徴抽出部21は、例えば、ハフ変換を利用して、画像から特徴的な線を抽出する。
表示部22は、特徴部を含む画像を表示器5に表示する(ステップST3)。
例えば、表示部22は、画像取得部20によって取得された画像を特徴抽出部21から入力して、上記画像をそのまま表示器5に表示する。
また、表示部22は、特徴抽出部21によって抽出された特徴部の色を変えて強調した上で、画像取得部20によって取得された画像上に上記特徴部を重畳して表示器5に表示させてもよい。測距装置1の使用者は、入力装置6を用いて、画像上で点または線を指定する操作を行う。例えば、使用者が、タッチパネル上で画像内の点をタッチ操作するか、画像内の線をなぞる操作を行う。
例えば、位置補正部24は、特徴抽出部21によって特徴部として抽出された点または線の中から、入力装置6を用いて指定された点または線の位置yに最も近い点または線を特定する。そして、位置補正部24は、特定した点または線の位置で、入力装置6を用いて指定された点または線の位置を置き換える。
図4Aは、カメラ4によって撮影された自然画像である画像4Aを示す図であり、表示器5に表示されている。図3と同様に、画像4Aには、矩形のドアが被写体として写っている。
例えば、アプリケーション部3は、位置補正装置2によって補正された点31aおよび点31bの2次元位置を、実空間における点31aおよび点31bの3次元位置に変換して、点31aの3次元位置と点31bの3次元位置との間の距離を算出する。
図4Cでは、アプリケーション部3が、表示器5に表示された画像4A上に、点31aと点31bとの間の距離である“1m”を示すテキスト情報を重畳表示している。
図5は、この発明の実施の形態2に係る位置補正装置2Aを備えた拡張現実(以下、ARと記載する)表示装置1Aの構成を示すブロック図である。図5において、図1と同一の構成要素には同一の符号を付して説明を省略する。
AR表示装置1Aは、表示器5に表示された画像上にARのグラフィックスを表示する装置であって、位置補正装置2A、アプリケーション部3Aおよびデータベース(以下、DBと記載する)7を備える。また、AR表示装置1Aには、カメラ4、表示器5、入力装置6およびセンサ8が接続されている。
位置補正装置2Aは、入力装置6を用いて指定された位置情報を補正する装置であり、画像取得部20、特徴抽出部21A、表示部22、位置取得部23、位置補正部24および変換処理部25を備える。
DB7には、実空間でARのグラフィックスが見かけ上表示される面の3次元位置情報が格納される。
変換処理部25は、センサ8の検出情報に基づいて、画像取得部20によって取得された画像を仮想的に撮影方向が変更された画像に変換する。
例えば、変換処理部25は、センサ8の検出情報に基づいて、カメラ4によって被写体が斜め方向から撮影されたか否かを確認し、カメラ4によって被写体が斜め方向から撮影された画像を、被写体が正面から撮影された画像に変換する。
特徴抽出部21Aは、変換処理部25による変換後の画像から、特徴部を抽出する。
図6は、実施の形態2に係る位置補正方法を示すフローチャートである。図6におけるステップST1a、ステップST4aからステップST6aまでの処理は、図2におけるステップST1、ステップST3からステップST5までの処理と同じであるので、説明を省略する。
図7は、事前処理の概要を示す図である。図7において、カメラ4によって撮影される被写体100は、道路標識のように、平面部分を有した矩形状の物体である。
カメラ4が第1の位置にある場合に、被写体100は、カメラ4によって斜め方向から撮影され、カメラ4によって撮影された画像において菱形に歪んで写る。
AR表示装置1Aの使用者は、入力装置6を用いて、被写体100が写った画像上で、例えば、点101a〜101dを指定することになる。
そこで、実施の形態2に係るAR表示装置1Aでは、変換処理部25が、カメラ4によって斜め方向から撮影された画像を、被写体を正面から見た画像に変換する。
例えば、変換処理部25は、特徴抽出部21Aによる特徴部の抽出および特徴部の位置算出に支障がない範囲で画像の撮影方向を仮想的に変更するので、事前処理後の画像内で被写体が多少斜めに写っている場合もあり得る。
図8は、ARの表示処理の概要を示す図である。カメラ4によって撮影された画像は、表示器5の画像投影面200に投影される。
AR表示装置1Aの使用者は、入力装置6を用いて、画像投影面200に投影された画像上の点200a〜200dを指定する。点200a〜200dは、位置補正装置2Aによって位置情報が補正される。
アプリケーション部3Aは、カメラ4の位置および姿勢に基づいて、カメラ4によって撮影された画像上にARのグラフィックスを重畳表示する。
図9Aおよび図9Bにおいて、カメラ400は、ステレオカメラ、Tofカメラといったカメラ装置であり、図1および図5におけるカメラ4である。表示器401は、液晶ディスプレイ、有機ELディスプレイまたはヘッドアップディスプレイといった表示装置であり、図1および図5における表示器5である。タッチパネル402は、図1および図5における入力装置6の一例である。距離センサ403は、図5におけるセンサ8の一例である。
すなわち、位置補正装置2は、図2に示したフローチャートのそれぞれの処理を実行するための処理回路を備える。
処理回路は、専用のハードウェアであってもよく、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
すなわち、位置補正装置2Aは、図6に示したフローチャートのそれぞれの処理を実行するための処理回路を備える。
処理回路は、専用のハードウェアであってもよく、メモリに記憶されたプログラムを実行するCPUであってもよい。
すなわち、位置補正装置2は、プロセッサ405によって実行されたときに、図2に示す一連の処理のそれぞれが結果的に実行されるプログラムを記憶するためのメモリ406を備える。
これらのプログラムは、画像取得部20、特徴抽出部21、表示部22、位置取得部23および位置補正部24の手順または方法をコンピュータに実行させるものである。
すなわち、位置補正装置2Aは、プロセッサ405によって実行されたときに、図2に示す一連の処理のそれぞれが結果的に実行されるプログラムを記憶するためのメモリ406を備える。
これらのプログラムは、画像取得部20、特徴抽出部21A、表示部22、位置取得部23、位置補正部24および変換処理部25の手順または方法をコンピュータに実行させるものである。
また、画像取得部20、特徴抽出部21A、表示部22、位置取得部23、位置補正部24および変換処理部25のそれぞれの機能について一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、または、これらの組み合わせによって上記機能のそれぞれを実現することができる。
Claims (6)
- 3次元空間内の距離を算出する測距装置であって、
3次元空間が撮影された2次元画像を取得する画像取得部と、
前記画像取得部によって取得された2次元画像から、3次元空間内の複数の特徴部および2次元画像上での複数の前記特徴部の位置情報を抽出する特徴抽出部と、
前記特徴部が含まれる2次元画像の表示処理を行う表示部と、
前記特徴部が含まれる2次元画像上で入力装置により指定された位置情報を取得する位置取得部と、
前記位置取得部によって取得された位置情報より、前記特徴抽出部によって抽出された複数の前記特徴部のうち、前記位置取得部によって取得された位置情報と最も近い特徴部の2次元画像上での位置情報を特定する位置補正部と、
前記位置補正部が特定した前記特徴部の2次元画像上での位置情報を3次元位置に変換し、変換した3次元位置に基づいて2つの特徴部の間の3次元空間内の距離を算出するアプリケーション部とを備えたこと
を特徴とする測距装置。 - 前記画像取得部によって取得された2次元画像を、仮想的に3次元空間の撮影方向が変更された2次元画像に変換する変換処理部を備え、
前記特徴抽出部は、前記変換処理部によって変換された2次元画像から、3次元空間内の複数の特徴部および2次元画像上での複数の前記特徴部の位置情報を抽出すること
を特徴とする請求項1記載の測距装置。 - 前記特徴抽出部は、2次元画像における点を、3次元空間内の前記特徴部として抽出すること
を特徴とする請求項1または請求項2記載の測距装置。 - 前記特徴抽出部は、2次元画像における線を、3次元空間内の前記特徴部として抽出すること
を特徴とする請求項1または請求項2記載の測距装置。 - 3次元空間内の距離を算出する測距方法であって、
画像取得部が、3次元空間が撮影された2次元画像を取得するステップと、
特徴抽出部が、前記画像取得部によって取得された2次元画像から、3次元空間内の複数の特徴部および2次元画像上での複数の前記特徴部の位置情報を抽出するステップと、
表示部が、前記特徴部が含まれる2次元画像の表示処理を行うステップと、
位置取得部が、前記特徴部が含まれる2次元画像上で入力装置により指定された位置情報を取得するステップと、
位置補正部が、前記位置取得部によって取得された位置情報より、前記特徴抽出部によって抽出された複数の前記特徴部のうち、前記位置取得部によって取得された位置情報と最も近い特徴部の2次元画像上での位置情報を特定するステップとを備えたこと
を特徴とする測距方法。 - 変換処理部が、前記画像取得部によって取得された2次元画像を、仮想的に3次元空間の撮影方向が変更された2次元画像に変換するステップを備え、
前記特徴抽出部は、前記変換処理部によって変換された2次元画像から、3次元空間内の複数の特徴部および2次元画像上での複数の前記特徴部の位置情報を抽出すること
を特徴とする請求項5記載の測距方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/032494 WO2019049317A1 (ja) | 2017-09-08 | 2017-09-08 | 位置補正装置および位置補正方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6388744B1 true JP6388744B1 (ja) | 2018-09-12 |
JPWO2019049317A1 JPWO2019049317A1 (ja) | 2019-11-07 |
Family
ID=63518887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018503816A Active JP6388744B1 (ja) | 2017-09-08 | 2017-09-08 | 測距装置および測距方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210074015A1 (ja) |
JP (1) | JP6388744B1 (ja) |
KR (1) | KR20200028485A (ja) |
CN (1) | CN111052062A (ja) |
DE (1) | DE112017007801T5 (ja) |
WO (1) | WO2019049317A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112964243A (zh) * | 2021-01-11 | 2021-06-15 | 重庆市蛛丝网络科技有限公司 | 一种室内定位方法及装置 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293627A (ja) * | 1999-04-02 | 2000-10-20 | Sanyo Electric Co Ltd | 画像入力装置、画像入力方法、及び記憶媒体 |
JP2001027924A (ja) * | 1999-07-14 | 2001-01-30 | Sharp Corp | 表示画面を用いる入力装置 |
JP2004046326A (ja) * | 2002-07-09 | 2004-02-12 | Dainippon Screen Mfg Co Ltd | 画像表示装置、画像表示方法およびプログラム |
JP2005216170A (ja) * | 2004-01-30 | 2005-08-11 | Kyocera Corp | 携帯端末装置および情報処理装置の入力処理方法 |
JP2009522697A (ja) * | 2006-01-05 | 2009-06-11 | アップル インコーポレイテッド | 携帯用電子機器のためのキーボード |
JP2009246646A (ja) * | 2008-03-31 | 2009-10-22 | Kenwood Corp | リモコン装置及び設定方法 |
JP2010271982A (ja) * | 2009-05-22 | 2010-12-02 | Nec Casio Mobile Communications Ltd | 携帯端末装置及びプログラム |
JP2012043359A (ja) * | 2010-08-23 | 2012-03-01 | Kyocera Corp | 携帯端末 |
JP2013016127A (ja) * | 2011-07-06 | 2013-01-24 | Kii corp | 可搬デバイス、タッチ位置調整方法、オブジェクト選択方法、選択位置決定方法及びプログラム |
JP2013182463A (ja) * | 2012-03-02 | 2013-09-12 | Nec Casio Mobile Communications Ltd | 携帯端末装置、タッチ操作制御方法、及びプログラム |
JP2014229083A (ja) * | 2013-05-22 | 2014-12-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2015018572A (ja) * | 2010-06-14 | 2015-01-29 | アップル インコーポレイテッド | コントロール選択近似 |
JP2015114928A (ja) * | 2013-12-13 | 2015-06-22 | コニカミノルタ株式会社 | 画像処理システム、画像形成装置、操作画面表示方法、およびコンピュータプログラム |
JP2017027596A (ja) * | 2015-07-17 | 2017-02-02 | ダッソー システムズDassault Systemes | モデル化オブジェクトの幾何学的要素のセットに対する測定値の計算 |
JP2017536618A (ja) * | 2014-11-25 | 2017-12-07 | マイクロソフト テクノロジー ライセンシング,エルエルシー | ウェアラブル可視化デバイスのための仮想測定ツール |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004354236A (ja) * | 2003-05-29 | 2004-12-16 | Olympus Corp | ステレオカメラ支持装置およびステレオカメラ支持方法ならびにステレオカメラシステム |
JP4272966B2 (ja) * | 2003-10-14 | 2009-06-03 | 和郎 岩根 | 3dcg合成装置 |
US8698735B2 (en) * | 2006-09-15 | 2014-04-15 | Lucasfilm Entertainment Company Ltd. | Constrained virtual camera control |
JP5604909B2 (ja) * | 2010-02-26 | 2014-10-15 | セイコーエプソン株式会社 | 補正情報算出装置、画像処理装置、画像表示システム、および画像補正方法 |
JP2012093948A (ja) | 2010-10-27 | 2012-05-17 | Kyocera Corp | 携帯端末、プログラム及び入力制御方法 |
JP5216834B2 (ja) * | 2010-11-08 | 2013-06-19 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト表示装置及びオブジェクト表示方法 |
JP5325267B2 (ja) * | 2011-07-14 | 2013-10-23 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム |
US9519973B2 (en) * | 2013-09-08 | 2016-12-13 | Intel Corporation | Enabling use of three-dimensional locations of features images |
WO2014181725A1 (ja) * | 2013-05-07 | 2014-11-13 | シャープ株式会社 | 画像計測装置 |
JP6353214B2 (ja) * | 2013-11-11 | 2018-07-04 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
WO2016111120A1 (ja) * | 2015-01-05 | 2016-07-14 | 三菱電機株式会社 | 画像補正装置、画像補正システム、および、画像補正方法 |
JP6627352B2 (ja) * | 2015-09-15 | 2020-01-08 | カシオ計算機株式会社 | 画像表示装置、画像表示方法及びプログラム |
-
2017
- 2017-09-08 JP JP2018503816A patent/JP6388744B1/ja active Active
- 2017-09-08 KR KR1020207005728A patent/KR20200028485A/ko active IP Right Grant
- 2017-09-08 WO PCT/JP2017/032494 patent/WO2019049317A1/ja active Application Filing
- 2017-09-08 CN CN201780094490.8A patent/CN111052062A/zh active Pending
- 2017-09-08 US US16/640,319 patent/US20210074015A1/en not_active Abandoned
- 2017-09-08 DE DE112017007801.6T patent/DE112017007801T5/de active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293627A (ja) * | 1999-04-02 | 2000-10-20 | Sanyo Electric Co Ltd | 画像入力装置、画像入力方法、及び記憶媒体 |
JP2001027924A (ja) * | 1999-07-14 | 2001-01-30 | Sharp Corp | 表示画面を用いる入力装置 |
JP2004046326A (ja) * | 2002-07-09 | 2004-02-12 | Dainippon Screen Mfg Co Ltd | 画像表示装置、画像表示方法およびプログラム |
JP2005216170A (ja) * | 2004-01-30 | 2005-08-11 | Kyocera Corp | 携帯端末装置および情報処理装置の入力処理方法 |
JP2009522697A (ja) * | 2006-01-05 | 2009-06-11 | アップル インコーポレイテッド | 携帯用電子機器のためのキーボード |
JP2009246646A (ja) * | 2008-03-31 | 2009-10-22 | Kenwood Corp | リモコン装置及び設定方法 |
JP2010271982A (ja) * | 2009-05-22 | 2010-12-02 | Nec Casio Mobile Communications Ltd | 携帯端末装置及びプログラム |
JP2015018572A (ja) * | 2010-06-14 | 2015-01-29 | アップル インコーポレイテッド | コントロール選択近似 |
JP2012043359A (ja) * | 2010-08-23 | 2012-03-01 | Kyocera Corp | 携帯端末 |
JP2013016127A (ja) * | 2011-07-06 | 2013-01-24 | Kii corp | 可搬デバイス、タッチ位置調整方法、オブジェクト選択方法、選択位置決定方法及びプログラム |
JP2013182463A (ja) * | 2012-03-02 | 2013-09-12 | Nec Casio Mobile Communications Ltd | 携帯端末装置、タッチ操作制御方法、及びプログラム |
JP2014229083A (ja) * | 2013-05-22 | 2014-12-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2015114928A (ja) * | 2013-12-13 | 2015-06-22 | コニカミノルタ株式会社 | 画像処理システム、画像形成装置、操作画面表示方法、およびコンピュータプログラム |
JP2017536618A (ja) * | 2014-11-25 | 2017-12-07 | マイクロソフト テクノロジー ライセンシング,エルエルシー | ウェアラブル可視化デバイスのための仮想測定ツール |
JP2017027596A (ja) * | 2015-07-17 | 2017-02-02 | ダッソー システムズDassault Systemes | モデル化オブジェクトの幾何学的要素のセットに対する測定値の計算 |
Also Published As
Publication number | Publication date |
---|---|
DE112017007801T5 (de) | 2020-06-18 |
WO2019049317A1 (ja) | 2019-03-14 |
KR20200028485A (ko) | 2020-03-16 |
JPWO2019049317A1 (ja) | 2019-11-07 |
US20210074015A1 (en) | 2021-03-11 |
CN111052062A (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135455B (zh) | 影像匹配方法、装置及计算机可读存储介质 | |
JP6348093B2 (ja) | 入力データから検出対象物の像を検出する画像処理装置および方法 | |
US9519968B2 (en) | Calibrating visual sensors using homography operators | |
US11308347B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
JP5580164B2 (ja) | 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム | |
CN110070564B (zh) | 一种特征点匹配方法、装置、设备及存储介质 | |
US20190228263A1 (en) | Training assistance using synthetic images | |
US20130051626A1 (en) | Method And Apparatus For Object Pose Estimation | |
JP6744747B2 (ja) | 情報処理装置およびその制御方法 | |
CN110986969B (zh) | 地图融合方法及装置、设备、存储介质 | |
US11842514B1 (en) | Determining a pose of an object from rgb-d images | |
WO2012172817A1 (en) | Image stabilization apparatus, image stabilization method, and document | |
JP5833507B2 (ja) | 画像処理装置 | |
US10249058B2 (en) | Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method | |
WO2018098862A1 (zh) | 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备 | |
CN110222641B (zh) | 用于识别图像的方法和装置 | |
WO2018142533A1 (ja) | 位置姿勢推定装置および位置姿勢推定方法 | |
KR101453143B1 (ko) | 스테레오 매칭 처리 시스템, 스테레오 매칭 처리 방법, 및 기록 매체 | |
US20180213156A1 (en) | Method for displaying on a screen at least one representation of an object, related computer program, electronic display device and apparatus | |
JP6388744B1 (ja) | 測距装置および測距方法 | |
CN110832851B (zh) | 图像处理装置、图像变换方法 | |
US9135715B1 (en) | Local feature cameras for structure from motion (SFM) problems with generalized cameras | |
JP2014102805A (ja) | 情報処理装置、情報処理方法及びプログラム | |
TWI731430B (zh) | 資訊顯示方法與資訊顯示系統 | |
JP2020187557A (ja) | 温度画像表示装置、温度画像表示システムおよび温度画像表示プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180125 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180125 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180717 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180814 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6388744 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |