JP2023525066A - 被写体下端位置に基づいた深度推定 - Google Patents
被写体下端位置に基づいた深度推定 Download PDFInfo
- Publication number
- JP2023525066A JP2023525066A JP2022567599A JP2022567599A JP2023525066A JP 2023525066 A JP2023525066 A JP 2023525066A JP 2022567599 A JP2022567599 A JP 2022567599A JP 2022567599 A JP2022567599 A JP 2022567599A JP 2023525066 A JP2023525066 A JP 2023525066A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- subject
- bottom edge
- image data
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013507 mapping Methods 0.000 claims abstract description 105
- 238000000034 method Methods 0.000 claims abstract description 47
- 230000008859 change Effects 0.000 claims description 10
- 230000009471 action Effects 0.000 claims description 8
- 238000010801 machine learning Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 58
- 230000003287 optical effect Effects 0.000 description 28
- 238000004891 communication Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 15
- 238000005259 measurement Methods 0.000 description 13
- 238000012549 training Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000013500 data storage Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000001771 impaired effect Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 206010011878 Deafness Diseases 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
本願は、2020年6月3日に出願され、「被写体下端位置に基づいた深度推定」(Depth Estimation Based on Object Bottom Position)と題された、米国仮特許出願第63/033,964号の優先権を主張する。当該仮出願全体は、あたかもこの記載で完全に述べられたかのように、本明細書に引用により援用される。
立体カメラは、被写体に関連付けられた距離または深度を決定するために使用され得る。具体的には、立体カメラは、被写体の二つ以上の画像を同時に取り込み得る。立体カメラの画像センサ間の既知の距離と、二つ以上の同時に取り込まれた画像における被写体の表現間の相違とに基づいて、距離または深度が決定され得る。同様に、カメラは、被写体距離または深度を決定するために、構造化光パターンプロジェクタと組み合わされて使用され得る。具体的には、パターンが異なる深度の被写体上に投影される際にパターンが変形され、分散され、または他の態様で変更される程度に基づいて、距離または深度が決定され得る。各アプローチでは、深度または距離測定は、いくつかのコンピューティングデバイス上で利用できないかもしれない撮像ハードウェアを伴う。
カメラによって生成された画像データが、カメラと画像データ内で表わされた被写体との間の距離を決定するために使用され得る。画像データ内の被写体の下端の垂直位置を識別し、垂直位置を画像データの全高で除算して被写体下端比率を得ることによって、被写体までの推定距離が決定され得る。距離投影モデルが、被写体下端比率を、カメラと被写体との間の物理的距離の対応する推定値にマッピングし得る。距離投影モデルは、カメラが環境内の特定の高さに位置付けられ、被写体の下端が環境の地面と接しているという仮定の下で動作し得る。また、ゼロでないピッチ角で配向されたカメラによって画像データが生成される場合、オフセット計算器が、ゼロでないカメラピッチを補償するために被写体下端比率に加算されるべきオフセットを決定し得る。
例示的な方法、デバイス、およびシステムが本明細書で説明される。「例」および「例の」という文言は、本明細書では「例、事例、または例示として機能すること」を意味するために使用されることが理解されるべきである。本明細書で「例」、「例の」、および/または「例示的」として説明されるどの実施形態もしくは特徴も、他の実施形態もしくは特徴よりも好ましいかまたは有利であると述べられない限り、必ずしもそのように解釈されるべきではない。このため、本明細書に提示される主題の範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を行なうことができる。
モバイルおよび/またはウェアラブルコンピューティングデバイスを含むコンピューティングデバイスは、環境の画像を取り込むために使用可能なカメラを含み得る。たとえば、カメラは、コンピューティングデバイスがユーザによって保持され、着用され、および/または使用されるときに、ユーザの前の環境に面し得る。したがって、本明細書で提供されるのは、カメラと、カメラによって生成された画像データにおいて表わされた被写体との間の距離を決定するために使用され得るシステムおよび動作である。これらのシステムおよび動作は、たとえば、カメラを含むコンピューティングデバイス上で実現されてもよく、このため、これらのコンピューティングデバイスが環境内の被写体までの距離を測定することを可能にする。
図1は、コンピューティングシステム100の例示的なフォームファクタを示す。コンピューティングシステム100は、たとえば、携帯電話、タブレットコンピュータ、またはウェアラブルコンピューティングデバイスであり得る。しかしながら、他の実施形態が可能である。コンピューティングシステム100は、本体102と、ディスプレイ106と、ボタン108および110といったさまざまな要素を含み得る。コンピューティングシステム100はさらに、前面カメラ104と、背面カメラ112と、前面赤外線カメラ114と、赤外線パターンプロジェクタ116とを含み得る。
図3は、環境内のカメラと一つ以上の被写体との間の物理的距離の推定値を決定するために使用され得る例示的なシステムを示す。具体的には、システム340は、被写体下端検出器308と、被写体下端比率計算器310と、オフセット計算器312と、距離投影モデル314とを含み得る。これらは各々、本明細書で説明されるそれぞれの動作を実行するように構成されたハードウェアコンポーネントおよび/またはソフトウェアコンポーネントの組み合わせを表わし得る。システム340は、画像データ300と、カメラのパラメータを示すメタデータとを、入力として受信するように構成され得る。メタデータは、画像データ300の取り込み時の、カメラピッチ306といったカメラの姿勢に関する情報を含み得る。画像データ300は、被写体302~304といった一つ以上の被写体をそこに表わし得る。被写体302~304は、他の可能性の中でもとりわけ、人間、動物、車両、ロボットデバイス、郵便ポスト、柱(たとえば灯柱、交通信号柱など)、および/またはベンチといった、環境のさまざまな移動および/または静止特徴を含み得る。
図4Aは、カメラの例示的な幾何学的モデルを示す。幾何学的モデルは、距離投影モデル314のマッピング316~326を生成するための基盤として使用され得る。具体的には、図4Aは、地面406を含む環境に配置された画像センサ400とアパーチャ402とを示す。画像センサ400とアパーチャ402とは、図4Aで地面406と略平行に延びる光軸404を規定する。画像センサ400(すなわち、その垂直中心)は、地面406から高さHだけ上方に配置され、アパーチャ402は、画像センサ400に対して(焦点)距離fに位置付けられる。
図4C、図4D、図4E、および図4Fは、実際のカメラパラメータが、距離投影モデル314によって仮定または使用されるカメラパラメータから外れる場合に生じ得る誤差を示す。具体的には、図4Cの上部は、画像センサ400が高さHから高さH’へ上方に移動され、その結果、光軸404が、線418によって示されるように、比例する量だけ上方に動くことを示す。この上方移動がなければ、画像センサ400に最も近い被写体414の下端部分は、線422によって示されるように、画像センサ400上のその中心から距離dだけ上方で画像を作成したであろう。しかしながら、上方移動の結果、画像は代わりに、線420によって示されるように、画像センサ400の中心から距離d’(dよりも大きい)だけ上方で作成される。
図5は、カメラのゼロでないピッチ角を補償するための例示的なアプローチを示す。具体的には、図5は、光軸504Aが環境における地面と平行に延びる(たとえば、環境の重力ベクトルと垂直に延びる)ようにゼロのピッチ角を有する配向500Aおよび502Aにそれぞれ位置付けられた、カメラの画像センサ500およびアパーチャ502を示す。無限遠基準線520が画像センサ500を通って投影されて示されており、画像センサ500が配向500Aから配向500Bへ下方に傾斜され、および/または、配向500Aから配向500Cへ上方に傾斜される際の、画像センサ500に対する無限遠基準線520の位置の見かけの変化を示している。加えて、図5では、画像センサ500が配向500Aにある場合、無限遠基準線520は光軸504Aと一致し、ひいては、被写体下端比率0.5に対応するように示される。しかしながら、画像センサ500が配向500Aにとどまった状態で画像センサ500の高さが変更されると、無限遠基準線520は光軸504Aから外れ、異なる被写体下端比率(たとえば、高さに依存して0.0~1.0)に対応し得る。
図6は、本明細書に開示される深度決定モデル、システム、デバイス、および手法についての例示的な使用事例を示す。具体的には、図6は、ほぼ胸の高さでコンピューティングデバイス602を着用しているユーザ600を示す。コンピューティングデバイス602はコンピューティングシステム100および/またはコンピューティングデバイス200に対応し、カメラとシステム340の実現化例とを含み得る。コンピューティングデバイス602は、ランヤード、コード、ストラップ、または他の結合メカニズムを介してユーザ600の首のまわりに掛けられ得る。それに代えて、コンピューティングデバイス602は、ユーザ600の身体に、異なる位置で、および/または異なる連結メカニズムを通して接続され得る。このため、ユーザ600が環境を通って歩く間、コンピューティングデバイス602およびそのカメラは、環境の地面より上方のほぼ固定された高さに位置付けられ得る(それは、ユーザ600の動きに起因するいくつかの高さ変動を可能にする)。したがって、距離投影モデル314は、マッピング316~326から、このほぼ固定された高さに対応するマッピングを選択してもよく、このため、環境内で検出された被写体までの距離を決定するために使用され得る。
図7は、被写体とカメラとの間の距離の推定値を決定することに関する動作のフローチャートを示す。これらの動作は、コンピューティングシステム100、コンピューティングデバイス200、システム340、および/またはコンピューティングデバイス602、および/またはさまざまな他のタイプのデバイスまたはデバイスサブシステムのうちの一つ以上によって実行され得る。図7の実施形態は、そこに示される特徴のうちの任意の一つ以上の除去によって簡略化されてもよい。さらに、これらの実施形態は、前述の図のいずれかの、もしくは本明細書で他の態様で説明される、特徴、局面、および/または実現化例と組み合わされてもよい。
本開示は、さまざまな局面の例示として意図される、本願に記載される特定の実施形態に関して限定されるべきではない。当業者には明らかであるように、その範囲から逸脱することなく、多くの修正および変形を行なうことができる。本明細書に記載されるものに加えて、本開示の範囲内の機能的に等価な方法および装置が、前述の説明から当業者には明らかであろう。そのような修正および変形は、特許請求の範囲内に入るよう意図される。
Claims (20)
- カメラから、環境における被写体を表わす画像データを受信することと、
前記画像データに基づいて、前記画像データ内の前記被写体の下端の垂直位置を決定することと、
前記垂直位置と前記画像データの高さとの間の被写体下端比率を決定することと、
距離投影モデルを介しておよび前記被写体下端比率に基づいて、前記カメラと前記被写体との間の物理的距離の推定値を決定することとを備え、前記距離投影モデルは、複数の候補被写体下端比率のうちの各それぞれの候補被写体下端比率について、(i)前記それぞれの候補被写体下端比率と(ii)前記環境における対応する物理的距離との間のマッピングを規定し、
前記カメラと前記被写体との間の前記物理的距離の前記推定値の指標を生成することを備える、コンピュータが実現する方法。 - 前記マッピングは、前記カメラが前記環境内の予め定められた高さに位置付けられているという仮定に基づいている、請求項1に記載のコンピュータが実現する方法。
- 前記画像データを取り込んでいる間に前記カメラの物理的高さが前記予め定められた高さを上回る場合、前記カメラと前記被写体との間の前記物理的距離の前記推定値は過小推定値であり、
前記画像データを取り込んでいる間に前記カメラの前記物理的高さが前記予め定められた高さを下回る場合、前記カメラと前記被写体との間の前記物理的距離の前記推定値は過大推定値である、請求項2に記載のコンピュータが実現する方法。 - 前記カメラに関連付けられたユーザインターフェイスを介して、前記予め定められた高さの指定を受信することと、
前記予め定められた高さの前記指定に基づいて、前記カメラが前記予め定められた高さの前記指定に従って位置付けられていると仮定するように前記マッピングを修正することによって前記距離投影モデルを構成することとをさらに備える、請求項2に記載のコンピュータが実現する方法。 - 前記距離投影モデルを構成することは、前記予め定められた高さの前記指定に基づいて、複数の候補マッピングから前記マッピングを選択することを含み、
前記複数の候補マッピングのうちの各それぞれのマッピングは、前記予め定められた高さの対応する指定に関連付けられる、請求項4に記載のコンピュータが実現する方法。 - 前記距離投影モデルは機械学習モデルを含み、
前記距離投影モデルを構成することは、前記予め定められた高さの前記指定に基づいて前記機械学習モデルの少なくとも一つの入力パラメータを調節することを含む、請求項4に記載のコンピュータが実現する方法。 - 前記マッピングは前記カメラの幾何学的モデルに基づいており、
前記幾何学的モデルは、(i)焦点距離を有し、前記環境内の前記予め定められた高さに配置された前記カメラと、(ii)前記環境の地面とほぼ平行に配向された前記カメラの光軸と、(iii)前記カメラの画像センサ上のそれぞれの点から前記環境の前記地面上の対応する点へ投影された複数の線のうちの各それぞれの線とを含み、
各それぞれの候補被写体下端比率は、前記幾何学的モデルに基づいて、前記環境における前記対応する物理的距離に関連付けられる、請求項2に記載のコンピュータが実現する方法。 - 前記マッピングは、(i)前記カメラの縦長配向に対応する第1のマッピングと、(ii)前記カメラの横長配向に対応する第2のマッピングとを含み、
前記第1のマッピングに関連付けられた各それぞれの候補被写体下端比率は、縦長画像データ内の対応する垂直位置と前記縦長画像データの高さとの間にあり、
前記第2のマッピングに関連付けられた各それぞれの候補被写体下端比率は、横長画像データ内の対応する垂直位置と前記横長画像データの高さとの間にあり、
前記方法は、
前記画像データを取り込んでいる間の前記カメラの配向に基づいて、前記画像データの前記高さを決定することと、
前記画像データを取り込んでいる間の前記カメラの前記配向に基づいて、前記カメラと前記被写体との間の前記物理的距離の前記推定値を決定する際に使用するための前記第1のマッピングまたは前記第2のマッピングを選択することとをさらに備える、請求項1に記載のコンピュータが実現する方法。 - 前記カメラに関連付けられた一つ以上のセンサから、前記カメラのピッチ角を示すセンサデータを得ることと、
前記カメラの前記ピッチ角を示す前記センサデータに基づいて、ゼロのピッチ角に対する前記カメラの前記ピッチ角によって引き起こされた前記垂直位置の変化を勘案する前記被写体下端比率の推定オフセットを決定することと、
前記被写体下端比率と前記推定オフセットとの合計を決定することとをさらに備え、
前記距離投影モデルは、前記合計に基づいて、前記カメラと前記被写体との間の前記物理的距離の前記推定値を決定するように構成される、請求項1に記載のコンピュータが実現する方法。 - 前記被写体下端比率の前記推定オフセットを決定することは、前記カメラの推定焦点距離と前記カメラの前記ピッチ角の正接との積を求めることを含み、
前記カメラの上方傾斜に関連付けられた正のピッチ角は、前記合計が前記被写体下端比率よりも高くなるように正の値を有する推定オフセットをもたらし、
前記カメラの下方傾斜に関連付けられた負のピッチ角は、前記合計が前記被写体下端比率よりも低くなるように負の値を有する推定オフセットをもたらす、請求項9に記載のコンピュータが実現する方法。 - 前記推定焦点距離は、(i)無限遠基準線を前記カメラの画像センサ上の初期位置から前記画像センサの上端へ第1の画面比率だけオフセットする最大ピッチ角の決定、または(ii)前記無限遠基準線を前記画像センサ上の前記初期位置から前記画像センサの下端へ第2の画面比率だけオフセットする最小ピッチ角の決定、のうちの少なくとも一つに基づいており、
前記第1の画面比率と前記第2の画面比率との合計は1に等しい、請求項10に記載のコンピュータが実現する方法。 - 前記複数の候補被写体下端比率は、(i)最小の測定可能な物理的距離に対応する、ゼロである第1の候補被写体下端比率から、(ii)最大の測定可能な物理的距離に対応する第2の候補被写体下端比率に及ぶ、請求項1に記載のコンピュータが実現する方法。
- 前記画像データ内の前記被写体の前記下端の前記垂直位置を決定することは、
一つ以上の被写体検出アルゴリズムを介して、前記画像データ内の前記被写体の位置に対応する前記画像データ内の関心領域を決定することと、
一つ以上の被写体下端検出アルゴリズムを介しておよび前記関心領域に基づいて、前記被写体の前記下端を識別することと、
前記被写体の前記下端を識別することに基づいて、前記被写体の前記下端が前記環境の地面と接していると決定することと、
前記被写体の前記下端が前記環境の前記地面と接していると決定することに基づいて、前記画像データ内の前記被写体の前記下端の前記垂直位置を決定することとを含む、請求項1に記載のコンピュータが実現する方法。 - 前記カメラから、前記環境における追加の被写体を表わす追加の画像データを受信することと、
前記追加の画像データに基づいて、前記追加の被写体の下端が前記画像データ内で見えないと決定することと、
前記追加の被写体の前記下端が前記画像データ内で見えないと決定することに基づいて、前記カメラと前記追加の被写体との間の物理的距離の追加の推定値が、最小の測定可能な物理的距離を下回る予め定められた値であると決定することと、
前記カメラと前記追加の被写体との間の前記物理的距離の前記追加の推定値の追加の指標を生成することとをさらに備える、請求項1に記載のコンピュータが実現する方法。 - 前記カメラと前記被写体との間の前記物理的距離の前記推定値の前記指標を生成することは、(i)前記物理的距離の前記推定値の視覚表現をディスプレイ上に表示すること、(ii)前記物理的距離の前記推定値を表現する可聴発話を生成すること、または(iii)前記物理的距離の前記推定値の触覚表現を生成すること、のうちの一つ以上を含む、請求項1に記載のコンピュータが実現する方法。
- 前記カメラの視野のアクティブな部分の指定を受信することと、
前記被写体の少なくとも一部が前記カメラの前記視野の前記アクティブな部分内に含まれていると決定することと、
前記被写体の前記少なくとも一部が前記カメラの前記視野の前記アクティブな部分内に含まれていると決定することに基づいて、前記カメラと前記被写体との間の前記物理的距離の前記推定値の前記指標を生成することとをさらに備え、
前記カメラと対応する被写体との間の物理的距離のそれぞれの推定値の指標の生成は、前記カメラの前記視野の前記アクティブな部分の外側の被写体については省略される、請求項1に記載のコンピュータが実現する方法。 - 複数の被写体クラスからの一つ以上の被写体クラスの選択を受信することと、
前記被写体が前記一つ以上の被写体クラスのうちの第1の被写体クラスに属すると決定することと、
前記被写体が前記第1の被写体クラスに属すると決定することに基づいて、前記カメラと前記被写体との間の前記物理的距離の前記推定値の前記指標を生成することとをさらに備え、
前記カメラと対応する被写体との間の物理的距離のそれぞれの推定値の指標の生成は、前記第1の被写体クラスに属さない被写体については省略される、請求項1に記載のコンピュータが実現する方法。 - カメラと、
プロセッサと、
前記プロセッサによって実行されると前記プロセッサに動作を行なわせる命令が格納された、非一時的コンピュータ読取可能記憶媒体とを備え、前記動作は、
前記カメラから、環境における被写体を表わす画像データを受信することと、
前記画像データに基づいて、前記画像データ内の前記被写体の下端の垂直位置を決定することと、
前記垂直位置と前記画像データの高さとの間の被写体下端比率を決定することと、
距離投影モデルを介しておよび前記被写体下端比率に基づいて、前記カメラと前記被写体との間の物理的距離の推定値を決定することとを含み、前記距離投影モデルは、複数の候補被写体下端比率のうちの各それぞれの候補被写体下端比率について、(i)前記それぞれの候補被写体下端比率と(ii)前記環境における対応する物理的距離との間のマッピングを規定し、前記動作はさらに、
前記カメラと前記被写体との間の前記物理的距離の前記推定値の指標を生成することを含む、コンピューティングシステム。 - 前記カメラのピッチ角を示すセンサデータを生成するように構成された一つ以上のセンサをさらに備え、
前記動作はさらに、
前記一つ以上のセンサから、前記カメラの前記ピッチ角を示す前記センサデータを得ることと、
前記カメラの前記ピッチ角を示す前記センサデータに基づいて、ゼロのピッチ角に対する前記カメラの前記ピッチ角によって引き起こされた前記垂直位置の変化を勘案する前記被写体下端比率の推定オフセットを決定することと、
前記被写体下端比率と前記推定オフセットとの合計を決定することとを含み、
前記距離投影モデルは、前記合計に基づいて、前記カメラと前記被写体との間の前記物理的距離の前記推定値を決定するように構成される、請求項18に記載のコンピューティングシステム。 - コンピューティングシステムによって実行されると前記コンピューティングシステムに動作を行なわせる命令が格納された、非一時的コンピュータ読取可能記憶媒体であって、前記動作は、
カメラから、環境における被写体を表わす画像データを受信することと、
前記画像データに基づいて、前記画像データ内の前記被写体の下端の垂直位置を決定することと、
前記垂直位置と前記画像データの高さとの間の被写体下端比率を決定することと、
距離投影モデルを介しておよび前記被写体下端比率に基づいて、前記カメラと前記被写体との間の物理的距離の推定値を決定することとを含み、前記距離投影モデルは、複数の候補被写体下端比率のうちの各それぞれの候補被写体下端比率について、(i)前記それぞれの候補被写体下端比率と(ii)前記環境における対応する物理的距離との間のマッピングを規定し、前記動作はさらに、
前記カメラと前記被写体との間の前記物理的距離の前記推定値の指標を生成することを含む、非一時的コンピュータ読取可能記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063033964P | 2020-06-03 | 2020-06-03 | |
US63/033,964 | 2020-06-03 | ||
PCT/US2021/032686 WO2021247228A1 (en) | 2020-06-03 | 2021-05-17 | Depth estimation based on object bottom position |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023525066A true JP2023525066A (ja) | 2023-06-14 |
JP7394240B2 JP7394240B2 (ja) | 2023-12-07 |
Family
ID=76422038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022567599A Active JP7394240B2 (ja) | 2020-06-03 | 2021-05-17 | 被写体下端位置に基づいた深度推定 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20230127218A1 (ja) |
EP (1) | EP4049242A1 (ja) |
JP (1) | JP7394240B2 (ja) |
KR (1) | KR20230007477A (ja) |
CN (1) | CN115516509A (ja) |
DE (1) | DE112021001436T5 (ja) |
WO (1) | WO2021247228A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019164514A1 (en) * | 2018-02-23 | 2019-08-29 | Google Llc | Transitioning between map view and augmented reality view |
US12002238B1 (en) * | 2022-06-07 | 2024-06-04 | Bureau of Innovation LLC | Contactless mobile fingerprinting capture device and method of use |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6352300A (ja) * | 1986-08-21 | 1988-03-05 | アイシン精機株式会社 | 車上前方監視装置 |
JPH10150656A (ja) * | 1996-09-20 | 1998-06-02 | Hitachi Ltd | 画像処理装置及び侵入者監視装置 |
JP2006266848A (ja) * | 2005-03-23 | 2006-10-05 | Sharp Corp | 距離測定装置 |
US20070154068A1 (en) * | 2006-01-04 | 2007-07-05 | Mobileye Technologies, Ltd. | Estimating Distance To An Object Using A Sequence Of Images Recorded By A Monocular Camera |
JP2008286638A (ja) * | 2007-05-17 | 2008-11-27 | Sogo Keibi Hosho Co Ltd | 身長推定装置および身長推定方法 |
JP2009301495A (ja) * | 2008-06-17 | 2009-12-24 | Sumitomo Electric Ind Ltd | 画像処理装置及び画像処理方法 |
US20140152810A1 (en) * | 2012-12-03 | 2014-06-05 | Samsung Techwin Co., Ltd. | Method of acquiring horizontal distance between camera and target, and camera and surveillance system adopting the method |
WO2014171052A1 (ja) * | 2013-04-16 | 2014-10-23 | コニカミノルタ株式会社 | 画像処理方法、画像処理装置、撮像装置および画像処理プログラム |
JP2018097688A (ja) * | 2016-12-14 | 2018-06-21 | 株式会社デンソー | 物体検出装置、物体検出方法 |
JP2020056644A (ja) * | 2018-10-01 | 2020-04-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596116B (zh) * | 2018-04-27 | 2021-11-05 | 深圳市商汤科技有限公司 | 测距方法、智能控制方法及装置、电子设备和存储介质 |
-
2021
- 2021-05-17 KR KR1020227042610A patent/KR20230007477A/ko unknown
- 2021-05-17 WO PCT/US2021/032686 patent/WO2021247228A1/en unknown
- 2021-05-17 US US17/995,051 patent/US20230127218A1/en active Pending
- 2021-05-17 EP EP21732148.8A patent/EP4049242A1/en active Pending
- 2021-05-17 JP JP2022567599A patent/JP7394240B2/ja active Active
- 2021-05-17 CN CN202180034017.7A patent/CN115516509A/zh active Pending
- 2021-05-17 DE DE112021001436.6T patent/DE112021001436T5/de active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6352300A (ja) * | 1986-08-21 | 1988-03-05 | アイシン精機株式会社 | 車上前方監視装置 |
JPH10150656A (ja) * | 1996-09-20 | 1998-06-02 | Hitachi Ltd | 画像処理装置及び侵入者監視装置 |
JP2006266848A (ja) * | 2005-03-23 | 2006-10-05 | Sharp Corp | 距離測定装置 |
US20070154068A1 (en) * | 2006-01-04 | 2007-07-05 | Mobileye Technologies, Ltd. | Estimating Distance To An Object Using A Sequence Of Images Recorded By A Monocular Camera |
JP2008286638A (ja) * | 2007-05-17 | 2008-11-27 | Sogo Keibi Hosho Co Ltd | 身長推定装置および身長推定方法 |
JP2009301495A (ja) * | 2008-06-17 | 2009-12-24 | Sumitomo Electric Ind Ltd | 画像処理装置及び画像処理方法 |
US20140152810A1 (en) * | 2012-12-03 | 2014-06-05 | Samsung Techwin Co., Ltd. | Method of acquiring horizontal distance between camera and target, and camera and surveillance system adopting the method |
WO2014171052A1 (ja) * | 2013-04-16 | 2014-10-23 | コニカミノルタ株式会社 | 画像処理方法、画像処理装置、撮像装置および画像処理プログラム |
JP2018097688A (ja) * | 2016-12-14 | 2018-06-21 | 株式会社デンソー | 物体検出装置、物体検出方法 |
JP2020056644A (ja) * | 2018-10-01 | 2020-04-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP4049242A1 (en) | 2022-08-31 |
DE112021001436T5 (de) | 2023-01-12 |
US20230127218A1 (en) | 2023-04-27 |
KR20230007477A (ko) | 2023-01-12 |
JP7394240B2 (ja) | 2023-12-07 |
WO2021247228A1 (en) | 2021-12-09 |
CN115516509A (zh) | 2022-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6283152B2 (ja) | ハンドヘルド測地デバイスによるグラフィック支援遠隔位置測定 | |
JP2018535402A (ja) | 異なる分解能を有するセンサーの出力を融合するシステム及び方法 | |
JP7394240B2 (ja) | 被写体下端位置に基づいた深度推定 | |
US10866635B2 (en) | Systems and methods for capturing training data for a gaze estimation model | |
US11585724B2 (en) | Fixtureless lensmeter system | |
CN112150560A (zh) | 确定消失点的方法、装置及计算机存储介质 | |
US20230169686A1 (en) | Joint Environmental Reconstruction and Camera Calibration | |
CN105025284A (zh) | 标定集成成像显示设备的显示误差的方法和设备 | |
US12020448B2 (en) | Systems and methods for updating continuous image alignment of separate cameras | |
KR20210062708A (ko) | 무고정 렌즈미터 시스템 | |
US20230386065A1 (en) | Systems and methods for processing captured images | |
KR20140142441A (ko) | 전자 장치 및 전자 장치의 3차원 모델링을 위한 촬영방법 | |
CN114600162A (zh) | 用于捕捉摄像机图像的场景锁定模式 | |
US11450014B2 (en) | Systems and methods for continuous image alignment of separate cameras | |
WO2018161322A1 (zh) | 基于深度的图像处理方法、处理装置和电子装置 | |
JP7477596B2 (ja) | 深度推定のための方法、深度推定システム、およびコンピュータプログラム | |
WO2022244069A1 (ja) | 撮影条件決定方法、撮影条件決定システム、撮影条件決定装置、及びコンピュータ可読媒体 | |
CN118295613A (zh) | 信息显示方法及其处理装置与信息显示系统 | |
WO2023247015A1 (en) | Determining a scale factor | |
TWI516744B (zh) | 距離估算系統、距離估算方法及電腦可讀取媒體 | |
WO2023203530A1 (en) | Interpupillary distance estimation method | |
CN116708731A (zh) | 投影画面调整方法、装置、电子设备及可读存储介质 | |
Forsman | Applying Augmented Reality to Outdoors Industrial Use | |
JP2016110597A (ja) | 情報処理システム、情報処理装置、座標変換方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221107 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7394240 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |