JP2019087229A - 情報処理装置、情報処理装置の制御方法及びプログラム - Google Patents
情報処理装置、情報処理装置の制御方法及びプログラム Download PDFInfo
- Publication number
- JP2019087229A JP2019087229A JP2018152718A JP2018152718A JP2019087229A JP 2019087229 A JP2019087229 A JP 2019087229A JP 2018152718 A JP2018152718 A JP 2018152718A JP 2018152718 A JP2018152718 A JP 2018152718A JP 2019087229 A JP2019087229 A JP 2019087229A
- Authority
- JP
- Japan
- Prior art keywords
- learning model
- information
- learning
- image
- input image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 100
- 238000000034 method Methods 0.000 title claims description 116
- 238000011156 evaluation Methods 0.000 claims abstract description 198
- 238000003384 imaging method Methods 0.000 claims abstract description 91
- 238000012545 processing Methods 0.000 claims description 37
- 230000008859 change Effects 0.000 claims description 14
- 230000006978 adaptation Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 45
- 238000001514 detection method Methods 0.000 description 27
- 238000004364 calculation method Methods 0.000 description 18
- 239000002131 composite material Substances 0.000 description 15
- 230000004048 modification Effects 0.000 description 14
- 238000012986 modification Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000001914 filtration Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 238000012706 support-vector machine Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000013480 data collection Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 239000010426 asphalt Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 201000011243 gastrointestinal stromal tumor Diseases 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
撮像装置が撮像した入力画像に基づいて幾何情報を推定するための複数の学習モデルを保持する保持手段と、
前記入力画像に写るシーンへの学習モデルの適合度を示す評価値を前記学習モデルごとに算出し、前記評価値に基づいて前記複数の学習モデルから学習モデルを選択する選択手段と、
前記入力画像と前記選択された学習モデルとを用いて第一の幾何情報を推定する推定手段と、
を備えることを特徴とする。
本実施形態では、複合現実感システムにおける現実空間と仮想物体との位置合わせ、すなわち、仮想物体の描画に利用するための現実空間における撮像装置の位置及び姿勢の計測に本発明を適用した場合について説明する。複合現実感を体験するユーザはスマートフォンやタブレットに代表されるモバイル端末を把持し、モバイル端末のディスプレイを通じて仮想物体が重畳された現実空間を観察する。本実施形態ではモバイル端末には撮像装置として単眼のRGBカメラが搭載されており、カメラが撮像した画像上にカメラの現実空間における位置姿勢に基づいて描画された仮想物体のCG画像が重畳されてユーザに提示される。
図1は、本実施形態における情報処理装置1の機能構成例を示す図である。情報処理装置1は、画像入力部110、学習モデル選択部120、学習モデル群保持部130、幾何情報推定部140及び位置姿勢取得部150を備えている。画像入力部110はモバイル端末に搭載された撮像装置11、および表示情報生成部12と接続されている。位置姿勢取得部150は、表示情報生成部12と接続されている。表示情報生成部12は表示部13と接続されている。ただし、図1は、機器構成の一例であり、本発明の適用範囲を限定するものではない。図1の例では表示情報生成部12及び表示部13は情報処理装置1の外部に構成されているが、これらを情報処理装置1に含めて構成してもよい。また、表示情報生成部12を情報処理装置1に含め、表示部13は情報処理装置1の外部装置として構成してもよい。
次に、本実施形態における処理手順について説明する。図4は、本実施形態における情報処理装置1を含む情報処理システムが実施する処理手順を示すフローチャートである。
ステップS170では、表示情報生成部12が、ステップS160で算出された撮像装置11の位置姿勢を用いて、仮想物体のCG画像をレンダリングし、入力画像に重畳合成した合成画像を生成して、表示部13に入力する。また、表示部13が、合成画像をモバイルデバイスのディスプレイである表示部に表示する。
ここで、図5は、本実施形態におけるS140の学習モデルの選択処理の手順を示すフローチャートである。
続いて、図6は、本実施形態におけるS1120の学習モデルの評価値算出処理の詳細手順を示すフローチャートである。
以上に述べたように、実施形態1では、複数の学習モデルの中から各学習モデルについて評価値を算出し、評価値の高い学習モデルを選択する。このとき、入力画像とそれぞれの学習モデルの学習時に用いた学習画像との類似度を算出し、類似度が高い各学習モデルに高い評価値をつける。そして、評価値が高い学習モデルを用い推定した幾何情報を用いて撮像装置の位置姿勢を算出する。このように、入力画像と学習画像とが類似している学習モデルを選択することで、学習モデルが高い精度で幾何情報を推定することができる。そのため、例えば、この推定した幾何情報を用いて撮像装置の位置姿勢を求める場合には、高い精度で撮像装置の位置姿勢を算出することができる。なお、推定した幾何情報の他の用途としては、例えば、後述する自動車の自動運転などにおける画像認識に用いることなどが挙げられる。
実施形態1においては、学習モデル群保持部130は、学習モデルの学習に用いた学習画像を保持していた。しかしながら、保持する画像は、学習モデルを特徴づけることができる画像であれば、学習画像そのものに限らない。例えば、学習画像を縮小した画像や一部を切り取った画像であってもよいし、学習画像と類似する画像であってもよい。
実施形態1では、入力画像と学習モデルの学習に利用した学習画像との類似度を評価値として算出していた。これに対して、実施形態2では、入力画像から検出した物体の種類と、あらかじめ学習画像から検出しておいた物体の種類とを比較することで学習モデルの評価値を算出する例を説明する。
実施形態2における情報処理装置の構成は、実施形態1で説明した情報処理装置1の構成を示す図1と同一であるため省略する。学習モデル群保持部130が保持する情報が実施形態1と異なる。本実施形態において、学習モデル群保持部130は、少なくとも2つの学習モデルを保持する。さらに、学習モデルごとにそのモデルの学習のために用いた学習画像からあらかじめ検出した物体情報を記載した物体情報リストを持つものとする。本実施形態では、各学習モデルに対して物体情報リストが1つずつ関連付けられており、物体情報リストには例えば「机」や「テーブル」、「ベッド」、「椅子」といった物体情報(本実施形態では物体の種類)が保持されているものとする。
実施形態2における処理全体の手順は、実施形態1で説明した情報処理装置1の処理手順を示す図4と同一であるため、説明を省略する。また、図4における学習モデルのステップS140の詳細は、図5と同一であるため説明を省略する。実施形態1と異なるのは、図5のステップS1120における学習モデル選択部が学習モデルの評価値を算出する評価値算出処理である。本実施形態では図6に代えて図7の処理を行う。
以上に述べたように、実施形態2では、学習モデルの学習に使用した学習画像から検出された物体情報と、入力画像から検出された物体情報とを比較し、同じ種類の物体が写っているほど高い評価値を学習モデルに付与する。そして、評価値の大きな学習モデルを用いて推定した幾何情報を用いて撮像装置の位置姿勢を算出する。これにより、入力画像と学習画像に同じ種類の物体が写っている学習モデルを選択することができ、学習モデルが高い精度で幾何情報を推定することができ、高い精度で撮像装置の位置姿勢を取得することができる。
実施形態2では、学習画像と入力画像からの物体検出には、あらかじめ機械学習により学習した物体検出学習モデルを用いた。しかしながら、物体検出は物体種の有無を判定できるものであれば何でもよい。例えば、物体種ごとに局所特徴をあらかじめ算出しておき、入力画像から検出した局所特徴とマッチングした局所特徴数が所定の閾値以上であれば検出したと判定してもよい。また、あらかじめ物体の画像を切り出したテンプレート画像を保持しておき、学習画像と入力画像それぞれからテンプレートマッチングにより物体検出を行ってもよい。
実施形態1では、入力画像と学習モデルの学習に利用した学習画像との類似度を評価値として算出していた。実施形態2では、入力画像から検出した物体種と、あらかじめ学習画像から検出しておいた物体種とを比較することで学習モデルの評価値を算出していた。これに対して、実施形態3では、入力画像や学習モデルを学習した学習画像を撮影した位置情報を用いて学習モデルの評価値を算出する例を説明する。
図10に示されるように、実施形態3における情報処理装置2は、実施形態1で説明した情報処理装置1の構成を示す図1の構成に加えて、位置情報取得部1000を更に備える。位置情報取得部1000は、不図示の位置情報取得センサからGPS信号やWiFi信号などのセンサ情報を受信し、位置情報として例えば座標値やアクセスポイントの識別IDを算出する。位置情報取得部1000は、取得した位置情報を学習モデル選択部120に出力する。また、学習モデル群保持部130が保持する情報が実施形態1とは異なっている。本実施形態において、学習モデル群保持部130は、少なくとも2つの学習モデルと、各モデルの学習のために用いた学習画像を撮像した位置情報を記載した位置情報リストを持つものとする。
実施形態3における処理手順は、実施形態1で説明した情報処理装置1の処理手順を示す図4と同一であるため説明を省略する。また、図4におけるステップS140の詳細は、図5と同一であるため説明を省略する。実施形態1と異なるのは、図5のステップS1120における学習モデル選択部が学習モデルの評価値を算出する評価値算出処理である。本実施形態では図6に代えて図8の処理を行う。
以上に述べたように、実施形態3では、入力画像や学習モデルを学習した学習画像を撮影した位置情報が一致しているほど高い評価値を学習モデルに付与する。これにより、入力画像と学習画像とを撮影した位置情報が一致している学習モデルを選択することができるため、学習モデルが高い精度で幾何情報を推定することができ、高い精度で撮像装置の位置姿勢を算出することができる。
実施形態3では、位置情報としてGPSから求めた緯度経度や、WiFiアクセスポイントの識別IDを例として挙げた。しかしながら、位置情報は入力画像と学習画像を撮影した位置を識別できるものであれば何でもよい。例えば、緯度経度から求めた国名、地域名、住所であってもよいし、後述するWiFiアクセスポイント以外の識別IDであってもよい。
実施形態1では、入力画像と学習モデルの学習に利用した学習画像との類似度を評価値として算出していた。実施形態2では、入力画像から検出した物体種と、あらかじめ学習画像から検出しておいた物体種とを比較することで学習モデルの評価値を算出していた。実施形態3では、入力画像や学習モデルを学習した学習画像を撮影した位置情報を用いて学習モデルの評価値を算出していた。ただし、これまで述べてきた方法では、入力画像に写っているシーンが昼なのに反して夜に撮影した学習画像を用いて学習した学習モデルや、春なのに反して冬の雪が降っているシーンの学習画像を用いて学習した学習モデル、雨なのに反して晴れの日の学習画像で学習した学習モデルというように、同一の撮影地点でも見えが違う状況の学習画像で学習した学習モデルが選択されうる。しかしながら、見えの違う状況の学習画像で学習した学習モデルを用いてしまうと、学習モデルが推定する幾何情報の精度が低下することにより、位置姿勢を高精度に取得することが困難になる。そこで、実施形態4では、入力画像や学習モデルを学習した学習画像を撮影した日時や季節、天気といった画像の見えを変えうる状況を表す状況情報が一致するほど、学習モデルに高い評価値を算出する。
実施形態4における情報処理装置の構成は、実施形態1で説明した情報処理装置1の構成を示す図1と同一であるため省略する。学習モデル群保持部130が保持する情報が実施形態1と異なる。本実施形態において、学習モデル群保持部130は、少なくとも2つの学習モデルを保持する。さらに、学習モデルごとにそのモデルの学習のために用いた学習画像を撮像した際の画像の見えを変えうる状況を記述した状況情報を保持する。なお、本実施形態においては状況情報の具体例として、日時情報を状況情報として用いる場合を説明する。各学習モデルに対して状況情報リストが1つずつ関連付けられており、状況情報リストには状況情報として学習画像を撮影したが状況情報が保持されているものとする。また、情報処理装置は撮影時刻を取得することのできる内部時計を保有しているものとする。
実施形態4における処理全体の手順は、実施形態1で説明した情報処理装置1の処理手順を示す図4と同一であるため、説明を省略する。また、図4における学習モデルのステップS140の詳細は、図5と同一であるため説明を省略する。実施形態1と異なるのは、図5のステップS1120における学習モデル選択部が学習モデルの評価値を算出する評価値算出処理である。
以上に述べたように、実施形態4では入力画像や学習モデルを学習した学習画像の見えを変えうる状況情報が一致しているほど高い評価値を学習モデルに付与する。これにより、入力画像と学習画像の撮影状況が一致している学習モデルを選択することができるため、学習モデルが高い精度で幾何情報を推定することができ、高い精度で撮像装置の位置姿勢を算出することができる。
実施形態4では、状況情報として情報処理装置が保有する電子時計から取得した日時情報を用いていた。しかしながら、現在の時刻を取得できれば日時情報の取得方法は何でもよく、I/F(H17)を介してネットワーク経由で外部サーバから取得してもよいし、キーボード等の入力手段を用いてユーザが入力してもよい。
実施形態1では、入力画像と学習モデルの学習に用いた学習画像との類似度を評価値として算出していた。実施形態2では、入力画像から検出した物体種と、あらかじめ学習画像から検出しておいた物体種とを比較することで学習モデルの評価値を算出していた。実施形態3では、入力画像や学習モデルを学習した学習画像を撮影した位置情報を用いて学習モデルの評価値を算出していた。実施形態4では、撮像した画像の見えを変えうる状況情報の一致度から学習モデルの評価値を算出した。これ対して、実施形態5では、実施形態1から実施形態4を組み合わせた方式で学習モデルの評価値を算出する例を説明する。
<情報処理装置の構成>
実施形態5における情報処理装置の構成は、実施形態1で説明した情報処理装置1の構成を示す図1と同一であるため説明を省略する。学習モデル群保持部130が保持する情報が実施形態1と異なっている。本実施形態において、学習モデル群保持部130は、少なくとも2つの学習モデルを持ち、さらにモデルごとに、実施形態1で説明したようにそのモデルの学習のために用いた学習画像を1枚以上保持する。また、実施形態2で説明したようにそのモデルの学習画像からあらかじめ検出した物体情報を記載した物体情報リストを保持する。実施形態3で説明したようにそのモデルの学習画像を撮像した位置情報を記載した位置情報リストを保持する。さらに、実施形態4で説明したようにそのモデルの学習画像を撮像した際の状況情報を記載した状況情報リストを保持する。
実施形態5における処理手順は、実施形態1で説明した情報処理装置1の処理手順を示す図4と同一であるため説明を省略する。実施形態1と異なるのは、ステップS140における学習モデル選択部120が学習モデルを選択する手順である。
以上に述べたように、実施形態5では、入力画像と学習画像との類似度、入力画像と学習画像から検出した物体種の一致度、入力画像や学習画像を撮影した位置情報の一致度が高いほど高い評価値になるように学習モデルの評価値を算出する。入力画像と学習画像とが類似しており、かつ入力画像と学習画像とに同一種類の物体が撮像されており、かつ撮影した位置が一致し、かつ撮影時刻や季節、天気が一致する学習モデルを選択することで、高い精度で幾何情報を推定することができる。従って、高い精度で撮像装置の位置姿勢を算取得することができる。
実施形態5においては、入力画像と学習画像の類似度、入力画像と学習画像から検出した物体種の一致度、入力画像や学習画像を撮影した位置情報の一致度、撮像した画像の見えを変えうる状況情報の一致度から学習モデルの評価値を算出した。しかしながら、上記4つのうち2つを使用する構成であってもよい。また、ステップS1130における学習モデルの決定においては、例えば、評価値1から評価値3の所定の重み付き平均が最大となる学習モデルを選んでもよい。あるいは、各評価値が所定の閾値以上の中から最大の学習モデルを選んでもよいし、各評価値すべての中で最大の評価値をもつ学習モデルを選んでもよい。
実施形態1から実施形態5では、入力画像と学習画像との類似度や、それらの画像から検出した物体や画像撮像時の位置情報、撮像した画像の見えを変えうる状況情報に基づいて、学習モデルを選択していた。これに対して、実施形態6では、入力画像からモーションステレオにより推定した幾何情報(第二の幾何情報)と、学習モデル群保持部が保持する各学習モデルを用いて推定した幾何情報(第三の幾何情報)とを比較することで学習モデルの評価値を算出する。なお、学習モデル選択部が選択した学習モデルが出力した幾何情報が第一の幾何情報である。
実施形態6における情報処理装置の構成は、実施形態1で説明した情報処理装置1の構成を示す図1と同一であるため説明を省略する。実施形態1と異なるのは、各構成の役割とそれらのデータの入出力関係である。
実施形態6における情報処理装置の処理手順は、実施形態1で説明した情報処理装置1の処理手順を説明した図4、およびステップS140における学習モデルの選択処理の詳細を説明した図5と同一であるため省略する。実施形態1と異なるのは、幾何情報推定部140が、さらに第二の幾何情報、第三の幾何情報を算出する点と、学習モデルの評価手順である。
実施形態6では、幾何情報推定部140が学習モデルを用いて推定した第三の幾何情報と、入力画像からモーションステレオにより推定した第二の幾何情報とを比較することで学習モデルの評価値を算出する。これにより、モーションステレオにより推定した第二の幾何情報と類似する幾何情報を出力することができる学習モデルを選択することができ、高い精度で撮像装置の位置姿勢を取得することができる。
実施形態6においては、画像を撮像する撮像装置11は、RGBカメラを用いてモーションステレオ法により第二の幾何情報を算出していた。しかしながら、撮像装置11が、奥行き情報や距離画像、三次元点群データを撮像できるカメラである場合には、それらから得られる奥行き情報を第二の幾何情報として用いてもよい。また、二台以上の複数のカメラやセンサを備えるカメラを用いる場合には、複数のカメラの画像をステレオマッチングして算出した奥行きを第二の幾何情報としてもよい。さらには、情報処理装置がLiDARやミリ波レーダなど奥行き情報を得ることができるセンサを更に搭載していれば、それらから得た奥行き情報を第二の幾何情報としてもよい。
実施形態1から実施形態6では、選択した学習モデルが入力画像に写るシーンに適しているかユーザが確認することができなかった。これに対して、実施形態7では、ユーザが確認できるように、学習モデルを特徴づける情報、学習モデルの出力に基づき仮想物体であるCG画像を合成した合成画像、学習モデルの出力に基づき生成したシーンの三次元形状などを表示部に表示する例を説明する。
実施形態7における情報処理装置の構成の一部は、実施形態1で説明した情報処理装置1の構成を示す図1と同じであるため説明を省略する。実施形態1と異なるのは、表示情報生成部12と表示部13とを情報処理装置1に組み込んだ点である。
実施形態7における全体処理の手順は実施形態1で説明した情報処理装置1の処理手順を説明した図4と同一であるため説明を省略する。実施形態1と異なる処理は、表示情報生成部12が表示情報を生成する手順である。
以上述べたように、実施形態7では、学習モデルを特徴づける情報、仮想物体のCGを合成した合成画像、学習モデルが出力した幾何情報や当該幾何情報に基づいて復元した三次元形状を提示する。これにより、各学習モデルを入力画像に写るシーンで利用したときの適合度や、正しい学習モデルを選択することができたかどうかということをユーザが確認することができる。さらに、不適切な学習モデルが選択された場合には、処理をやり直し、適切な学習モデルを選択し直すことができるようになり、高い精度で位置姿勢を取得することができるようになる。
実施形態7では、学習モデルを特徴づける情報、仮想物体のCGを合成した合成画像、学習モデルが出力した幾何情報や幾何情報に基づいて復元した三次元形状をレンダリングした表示情報を提示する構成について説明した。しかしながら、3つの表示情報をすべて提示する必要はなく、少なくとも1つを提示する構成であってもよい。
実施形態1から実施形態5では、最初に一度だけ学習モデルを選択していた。しかしながら、複合現実感を体験しているうちに、例えば利用者が移動することで入力画像に写るシーンが変化するような場合には対応が難しい。そこで、実施形態7では、一度学習モデルを選択した後も引き続き学習モデルについて再度評価値を算出し直す例を説明する。
実施形態8における情報処理装置の構成は、実施形態1で説明した情報処理装置1の構成を示す図1と同じであるため説明を省略する。実施形態1と異なるのは、幾何情報推定部140が入力画像に基づいて第二の幾何情報を算出して学習モデル選択部120に出力する点と、学習モデル選択部120が学習モデルの評価値を算出し直す点である。
実施形態8における全体処理の手順は実施形態1で説明した情報処理装置1の処理手順を説明した図4と同一であるため説明を省略する。実施形態1と異なる処理は、ステップS140において一度学習モデルを選択した後にも再度学習モデルの評価値を算出し、学習モデルを選択し直す点と、ステップS150において幾何情報推定部140が第二の幾何情報を算出する点である。
実施形態8では、一度学習モデルを選択した後にも、再度学習モデルの評価値を算出し、学習モデルを選択し直す。これにより、例えば複合現実感を体験している間に、利用者が移動して入力画像に写るシーンが変化した場合に、学習モデルを再度評価できる。再評価結果が高い学習モデルを選択することで、その時点の入力画像に写るシーンにおいて高い精度で学習モデルが幾何情報を算出でき、従って、高い精度で撮像装置の位置姿勢を取得することがきる。
なお、学習モデルの評価値を再算出するタイミングは任意である。すなわち、一定の時間間隔ごとに再算出してもよいし、非特許文献1に記載のキーフレームの追加のタイミング毎に再算出してもよい。また、位置姿勢取得結果に基づいて、撮像装置11が所定の移動量以上移動したときに再算出してもよい。また、一度選択した学習モデルの評価値が低下した場合や所定の閾値を下回った場合に、再算出してもよい。入力画像に写るシーンや物体種が変化した場合や位置情報が変化した場合(例えば新たなWiFiアクセスポイントが見つかった、GPS位置情報が変化したといった場合)に、再算出してもよい。また、一定時刻経過した場合や、天気が変化した場合に再算出するようにしてもよい。
実施形態1から8では、あらかじめ作成しておいた複数の学習モデルの中から、情報処理装置を適用するシーンにおいて精度よく幾何情報を推定することができる学習モデルを選択する方法について述べた。本実施形態では、第二の撮像装置91であるデプスセンサが取得したRGB画像とデプスマップとに基づいて、情報処理装置が用いる学習モデルを生成する方法について説明する。特に、本実施形態では、第二の撮像装置91が撮像したRGB画像からシーンの種別を認識し、種別ごとに学習モデルの作り分ける方法について述べる。なお、本実施形態においては、第二の撮像装置91とはTOFセンサのことであり、RGB画像とデプスマップが取得できるものである。
まず、図12を参照しながら、実施形態9に係る情報処理装置4の構成を説明する。実施形態9における情報処理装置4の構成は、実施形態1で説明した情報処理装置1の構成を示す図1に加えて、第二の画像入力部910、学習用データ分類部920、学習データ保持部930、学習モデル生成部940が追加された点で実施形態1と異なる。第二の画像入力部910は、第二の撮像装置91と接続されている。
以上に述べたように、実施形態9では、モデル学習用画像のシーンの判別結果を基にモデル学習用画像とモデル学習用デプスマップとを分類し、それぞれのシーンの種別ごとに学習モデルを生成する。このように、シーンの種別ごとに学習モデルを生成しておき、実施形態1で説明した位置姿勢算出時には撮像画像のシーンの種別が一致する学習モデルを用いることで、高い精度で撮像装置の位置姿勢を算出することができる。
実施形態9では、モデル学習用画像に写るシーン判別のために、シーン判別学習モデルを用いていた。しかしながら、モデル学習用画像に写るシーンの種別を判別するものであれば何でもよい。つまり、実施形態1で述べたように、あらかじめシーンの種別ごとにGLC特徴の特徴空間の識別境界をSVNによって算出しておき、モデル学習用画像から検出したGLC特徴がどのカテゴリに位置するか判別した結果を基にシーンの種別を判別してもよい。あらかじめシーンの種別ごとにカラーヒストグラムを作成しておき、モデル学習用画像のカラーヒストグラムが最も一致するシーンの種別に分類してもよい。
実施形態1では、複数の学習モデルの中の各学習モデルに評価値を付与し、評価値が高い学習モデルを選択する。このとき、入力画像とそれぞれの学習モデルの学習時に用いた学習画像との類似度を算出し、類似度が高いほど高い評価値となるように各学習モデルの評価値を算出する。そして、評価値が高い学習モデルを用いて推定した幾何情報を用いて、撮像装置の位置姿勢を算出する。このように、入力画像と学習画像が類似している学習モデルを選択することで、学習モデルが高い精度で幾何情報を推定することができ、高い精度で撮像装置の位置姿勢を算出することができる。
本発明における画像入力部は、現実空間を撮像した画像を入力するものであれば何でもよい。たとえば濃淡画像を撮像するカメラの画像を入力してもよいし、RGB画像を入力するカメラの画像を入力してもよい。奥行き情報や距離画像、三次元点群データを撮像できるカメラの画像を入力してもよい。また、単眼カメラであってもよいし、二台以上の複数のカメラやセンサを備えるカメラが撮像した画像を入力してもよい。さらに、カメラが撮像した画像を直接入力してもよいし、ネットワークを介して入力してもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (20)
- 撮像装置が撮像した入力画像に基づいて幾何情報を推定するための複数の学習モデルを保持する保持手段と、
前記入力画像に写るシーンへの学習モデルの適合度を示す評価値を前記学習モデルごとに算出し、前記評価値に基づいて前記複数の学習モデルから学習モデルを選択する選択手段と、
前記入力画像と前記選択された学習モデルとを用いて第一の幾何情報を推定する推定手段と、
を備えることを特徴とする情報処理装置。 - 前記第一の幾何情報に基づいて前記撮像装置の位置姿勢を取得する取得手段を更に備えることを特徴とする請求項1に記載の情報処理装置。
- 前記保持手段は、各学習モデルの学習に用いた学習画像を前記学習モデルごとにさらに少なくとも1枚保持し、
前記選択手段は、前記入力画像と前記学習画像との画像の類似度を算出し、当該類似度が高いほど高い評価値となるように前記学習モデルの評価値を算出することを特徴とする請求項1または2に記載の情報処理装置。 - 前記保持手段は、各学習モデルと関連付けられた物体情報を含む物体情報リストをさらに保持し、
前記選択手段は、前記入力画像から検出された物体情報と、前記物体情報リストに含まれる物体情報との一致度が高いほど高い評価値となるように前記学習モデルの評価値を算出することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 - 前記保持手段は、各学習モデルと関連付けられた位置情報を含む位置情報リストをさらに保持し、
前記選択手段は、前記入力画像の撮像時の位置情報と、前記位置情報リストに含まれる位置情報との一致度が高いほど高い評価値となるように前記学習モデルの評価値を算出することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。 - 前記保持手段は、各学習モデルと関連付けられた、入力画像の見えを変えうる状況を記述した状況情報を含む状況情報リストをさらに保持し、
前記選択手段は、前記入力画像の状況情報と、前記状況情報リストに含まれる状況情報との一致度が高いほど高い評価値となるように前記学習モデルの評価値を算出することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 - 前記推定手段は、前記入力画像に基づいて第二の幾何情報をさらに推定し、前記学習モデルごとに前記入力画像と前記学習モデルとに基づいて第三の幾何情報をさらに推定し、前記選択手段は、前記第二の幾何情報と前記第三の幾何情報との一致度が高いほど高い評価値となるように前記学習モデルの評価値を算出することを特徴とする請求項1に記載の情報処理装置。
- 前記撮像装置の移動量を計測するセンサをさらに備え、
前記推定手段は、前記センサにより計測されたセンサ情報または前記センサ情報に基づいて算出した幾何情報の少なくともどちらか一方と、前記第三の幾何情報との一致度が高いほど高い評価値となるように前記学習モデルの評価値を算出することを特徴とする請求項7に記載の情報処理装置。 - 前記推定手段は、前記学習モデルごとに前記入力画像と前記学習モデルとに基づいて第三の幾何情報をさらに推定し、
前記選択手段は、前記入力画像から検出された既知の物体のサイズ又は形状と前記第三の幾何情報とが整合するほど高い評価値となるように前記学習モデルの評価値を算出することを特徴とする請求項1に記載の情報処理装置。 - 前記入力画像と、前記第一の幾何情報と、前記保持手段が保持する情報と、前記評価値と、前記位置姿勢とのうち少なくとも一つに基づいて表示情報を生成する生成手段をさらに備えることを特徴とする請求項2に記載の情報処理装置。
- 前記生成手段は、前記第一の幾何情報に基づいて前記入力画像に仮想物体のCG画像を合成して前記表示情報を生成することを特徴とする請求項10に記載の情報処理装置。
- 前記推定手段は、前記学習モデルごとに前記入力画像と前記学習モデルとに基づいて第三の幾何情報をさらに推定し、
前記生成手段は、前記第三の幾何情報に基づいて前記入力画像に仮想物体のCG画像を合成して前記表示情報を生成することを特徴とする請求項10に記載の情報処理装置。 - 前記生成手段は、前記第一の幾何情報に基づいて、前記入力画像を撮像したシーンの三次元形状を復元して前記表示情報を生成することを特徴とする請求項10に記載の情報処理装置。
- 前記推定手段は、前記学習モデルごとに前記入力画像と前記学習モデルとに基づいて第三の幾何情報をさらに推定し、
前記生成手段は、前記第三の幾何情報に基づいて、前記入力画像を撮像したシーンの三次元形状を復元して前記表示情報を生成することを特徴とする請求項10に記載の情報処理装置。 - 前記表示情報を表示する表示部をさらに備えることを特徴とする請求項10乃至14の何れか1項に記載の情報処理装置。
- 前記推定手段は、前記撮像装置が前記入力画像を撮像した時刻と異なる第二の時刻に撮像した第二の入力画像に基づいて、前記第二の幾何情報と前記第三の幾何情報とを更新し、
前記選択手段は、前記更新された第二の幾何情報と前記更新された第三の幾何情報との一致度が高いほど高い評価値となるように前記学習モデルの評価値を算出し直すことを特徴とする請求項7に記載の情報処理装置。 - 前記推定手段は、複数時刻において前記撮像装置が撮像した複数の入力画像に基づいて、複数の第二の幾何情報と複数の第三の幾何情報とを推定し、
前記選択手段は、前記複数の第二の幾何情報と前記複数の第三の幾何情報との一致度が高いほど高い評価値となるように前記学習モデルの評価値を算出することを特徴とする請求項7に記載の情報処理装置。 - 第二の撮像装置が取得した第三の入力画像および第四の幾何情報を入力する第二の画像入力手段と、
前記第三の入力画像または前記第四の幾何情報に写るシーンの種別ごとに前記第三の入力画像および前記第四の幾何情報を分類する学習用データ分類手段と、
前記学習用データ分類手段が分類した結果に基づいて、前記第三の入力画像および前記第四の幾何情報を前記シーンの種別ごとに保持する学習データ保持手段と、
前記学習データ保持手段が保持する前記第三の入力画像および前記第四の幾何情報を用いて、前記シーンの種別ごとに前記複数の学習モデルを学習し、前記学習データ保持手段に保持する学習モデル生成手段と、
をさらに備えることを特徴とする請求項1乃至17の何れか1項に記載の情報処理装置。 - 撮像装置が撮像した入力画像に基づいて幾何情報を推定するための複数の学習モデルを保持する保持手段を備える情報処理装置の制御方法であって、
前記入力画像に写るシーンへの学習モデルの適合度を示す評価値を前記学習モデルごとに算出し、前記評価値に基づいて前記複数の学習モデルから学習モデルを選択する選択工程と、
前記入力画像と前記選択された学習モデルとを用いて第一の幾何情報を推定する推定工程と、
を有することを特徴とする情報処理装置の制御方法。 - コンピュータを、請求項1乃至18の何れか1項に記載の情報処理装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/174,458 US11144786B2 (en) | 2017-11-02 | 2018-10-30 | Information processing apparatus, method for controlling information processing apparatus, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017213226 | 2017-11-02 | ||
JP2017213226 | 2017-11-02 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019087229A true JP2019087229A (ja) | 2019-06-06 |
JP2019087229A5 JP2019087229A5 (ja) | 2021-09-24 |
JP7190842B2 JP7190842B2 (ja) | 2022-12-16 |
Family
ID=66764253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018152718A Active JP7190842B2 (ja) | 2017-11-02 | 2018-08-14 | 情報処理装置、情報処理装置の制御方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7190842B2 (ja) |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110503688A (zh) * | 2019-08-20 | 2019-11-26 | 上海工程技术大学 | 一种用于深度相机的位姿估计方法 |
CN112241678A (zh) * | 2019-07-17 | 2021-01-19 | 奥林巴斯株式会社 | 评价支援方法、评价支援系统以及计算机可读介质 |
KR20210015226A (ko) * | 2019-08-01 | 2021-02-10 | 주식회사 다비오 | 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법 |
JP2021025220A (ja) * | 2019-07-31 | 2021-02-22 | 株式会社大林組 | 打継面粗さ評価装置及び打継面粗さ評価システム |
CN112788230A (zh) * | 2019-11-01 | 2021-05-11 | 佳能株式会社 | 摄像设备及系统、信息处理设备、其控制方法和存储介质 |
WO2021166290A1 (ja) * | 2020-02-20 | 2021-08-26 | 株式会社日立製作所 | 物体検出装置、物体検出システム、および、物体検出方法 |
JP2021125151A (ja) * | 2020-02-07 | 2021-08-30 | ソフトバンク株式会社 | 情報処理装置及び端末装置 |
JP2021128648A (ja) * | 2020-02-17 | 2021-09-02 | コニカミノルタ株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2021131831A (ja) * | 2020-02-21 | 2021-09-09 | オムロン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JPWO2020090251A1 (ja) * | 2018-10-30 | 2021-09-30 | 日本電気株式会社 | 物体認識装置、物体認識方法および物体認識プログラム |
CN113554179A (zh) * | 2020-04-23 | 2021-10-26 | 丰田自动车株式会社 | 信息处理系统 |
CN113566829A (zh) * | 2021-07-19 | 2021-10-29 | 上海极赫信息技术有限公司 | 基于高精度定位技术的混合现实的导览方法、系统及mr设备 |
CN113658117A (zh) * | 2021-08-02 | 2021-11-16 | 浙江大学 | 一种基于深度学习的沥青混合料中集料边界识别与划分方法 |
JP2022000761A (ja) * | 2018-06-27 | 2022-01-04 | ナイアンティック, インコーポレイテッドNiantic, Inc. | デバイスローカリゼーションのためのマルチシンクアンサンブルモデル |
JP2022511151A (ja) * | 2019-09-27 | 2022-01-31 | センスタイム インターナショナル ピーティーイー.リミテッド | 積み重ね物体を認識する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム |
JP2022512525A (ja) * | 2019-10-15 | 2022-02-07 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | Arシーン画像処理方法及び装置、電子機器並びに記憶媒体 |
KR102364822B1 (ko) * | 2020-11-04 | 2022-02-18 | 한국전자기술연구원 | 가려진 영역 복원 방법 및 장치 |
KR20220023553A (ko) * | 2020-08-21 | 2022-03-02 | 한국전자통신연구원 | 휴먼 자세 추정 장치 및 방법 |
JP2022049570A (ja) * | 2020-09-16 | 2022-03-29 | ヤフー株式会社 | 情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム |
JP2022069464A (ja) * | 2020-07-30 | 2022-05-11 | アナウト株式会社 | コンピュータプログラム、学習モデルの生成方法、手術支援装置、及び情報処理方法 |
WO2022130498A1 (ja) | 2020-12-15 | 2022-06-23 | 三菱電機株式会社 | 類似度算出装置、類似度算出方法、及び、類似度算出プログラム |
JP2022100299A (ja) * | 2020-12-23 | 2022-07-05 | 日本電気株式会社 | 画像処理の方法、デバイス及びコンピュータ可読記憶媒体 |
WO2022176465A1 (ja) * | 2021-02-18 | 2022-08-25 | 日本電気株式会社 | 画像処理装置および画像処理方法 |
WO2022201780A1 (ja) * | 2021-03-26 | 2022-09-29 | 株式会社Jvcケンウッド | 推定装置およびプログラム |
WO2023074183A1 (ja) * | 2021-10-28 | 2023-05-04 | パナソニックIpマネジメント株式会社 | 学習支援システム、外観検査装置、外観検査用ソフトの更新装置及び外観検査用モデルの更新方法 |
WO2023074184A1 (ja) * | 2021-10-28 | 2023-05-04 | パナソニックIpマネジメント株式会社 | アノテーション支援システム及びそれを利用した外観検査用モデルの学習支援システム |
JP7270856B1 (ja) * | 2022-05-16 | 2023-05-10 | 三菱電機株式会社 | 検出装置、カメラシステム、検出方法、及び検出プログラム |
JP2023530545A (ja) * | 2021-05-26 | 2023-07-19 | 北京地平▲線▼信息技▲術▼有限公司 | 空間幾何情報推定モデルの生成方法及び装置 |
WO2023248355A1 (ja) * | 2022-06-21 | 2023-12-28 | 株式会社日立ハイテク | 不適合検出装置、および、不適合検出方法 |
JP7510033B2 (ja) | 2020-08-25 | 2024-07-03 | 公立大学法人会津大学 | 学習プログラム、学習装置及び学習方法 |
JP7532808B2 (ja) | 2020-02-28 | 2024-08-14 | 沖電気工業株式会社 | 学習処理装置、学習処理方法及び学習処理プログラム、並びに分類処理装置、分類処理方法及び分類処理プログラム |
JP7539073B1 (ja) | 2024-06-07 | 2024-08-23 | 一般社団法人健康マイスター協会 | 学習済みモデル生成装置、情報処理装置、学習済みモデル生成方法、情報処理方法、学習済みモデル生成プログラム、及び情報処理プログラム |
JP7553408B2 (ja) | 2021-07-19 | 2024-09-18 | Kddi株式会社 | 描画装置及びプログラム |
CN112241678B (en) * | 2019-07-17 | 2024-10-25 | 仪景通株式会社 | Evaluation support method, evaluation support system, and computer-readable medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015186284A1 (ja) * | 2014-06-03 | 2015-12-10 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2016099668A (ja) * | 2014-11-18 | 2016-05-30 | キヤノン株式会社 | 学習方法、学習装置、画像認識方法、画像認識装置及びプログラム |
JP2017156162A (ja) * | 2016-02-29 | 2017-09-07 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2018
- 2018-08-14 JP JP2018152718A patent/JP7190842B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015186284A1 (ja) * | 2014-06-03 | 2015-12-10 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2016099668A (ja) * | 2014-11-18 | 2016-05-30 | キヤノン株式会社 | 学習方法、学習装置、画像認識方法、画像認識装置及びプログラム |
JP2017156162A (ja) * | 2016-02-29 | 2017-09-07 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Non-Patent Citations (4)
Title |
---|
IRO LAINA ET AL.: ""Deeper Depth Prediction with Fully Convolutional Residual Networks"", 2016 FOURTH INTERNATIONAL CONFERENCE ON 3DVISION (3DV), JPN6022035963, 25 October 2016 (2016-10-25), US, pages 239 - 248, XP033027630, ISSN: 0004860374, DOI: 10.1109/3DV.2016.32 * |
KEISUKE TATENO ET AL.: ""CNN-SLAM: Real-Time Dense Monocular SLAM with Learned Depth Prediction"", 2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN6022035964, 21 July 2017 (2017-07-21), US, pages 6565 - 6574, XP033250021, ISSN: 0004860375, DOI: 10.1109/CVPR.2017.695 * |
柳瀬 直人、外3名: ""単一画像からの深度推定と幾何学的制約を利用した寸法推定"", 映像情報メディア学会 2017年年次大会講演予稿集, JPN6022035962, 16 June 2017 (2017-06-16), JP, pages 1 - 2, ISSN: 0004913572 * |
進藤 智則: ""ディープラーニング技術が今度はSLAMに波及 キヤノンと独TUM、単眼カメラで密な3D地図"", NIKKEI ROBOTICS, JPN6022035961, 10 June 2017 (2017-06-10), JP, pages 5 - 11, ISSN: 0004860376 * |
Cited By (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11540096B2 (en) | 2018-06-27 | 2022-12-27 | Niantic, Inc. | Multi-sync ensemble model for device localization |
JP7361075B2 (ja) | 2018-06-27 | 2023-10-13 | ナイアンティック, インコーポレイテッド | デバイスローカリゼーションのためのマルチシンクアンサンブルモデル |
JP2022000761A (ja) * | 2018-06-27 | 2022-01-04 | ナイアンティック, インコーポレイテッドNiantic, Inc. | デバイスローカリゼーションのためのマルチシンクアンサンブルモデル |
JPWO2020090251A1 (ja) * | 2018-10-30 | 2021-09-30 | 日本電気株式会社 | 物体認識装置、物体認識方法および物体認識プログラム |
US11586856B2 (en) | 2018-10-30 | 2023-02-21 | Nec Corporation | Object recognition device, object recognition method, and object recognition program |
CN112241678A (zh) * | 2019-07-17 | 2021-01-19 | 奥林巴斯株式会社 | 评价支援方法、评价支援系统以及计算机可读介质 |
JP2021018459A (ja) * | 2019-07-17 | 2021-02-15 | オリンパス株式会社 | 評価支援方法、評価支援システム、プログラム |
JP7313942B2 (ja) | 2019-07-17 | 2023-07-25 | 株式会社エビデント | 評価支援方法、評価支援システム、プログラム |
CN112241678B (en) * | 2019-07-17 | 2024-10-25 | 仪景通株式会社 | Evaluation support method, evaluation support system, and computer-readable medium |
JP7398613B2 (ja) | 2019-07-31 | 2023-12-15 | 株式会社大林組 | 打継面粗さ評価装置及び打継面粗さ評価システム |
JP2021025220A (ja) * | 2019-07-31 | 2021-02-22 | 株式会社大林組 | 打継面粗さ評価装置及び打継面粗さ評価システム |
KR20210015226A (ko) * | 2019-08-01 | 2021-02-10 | 주식회사 다비오 | 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법 |
KR102277503B1 (ko) | 2019-08-01 | 2021-07-15 | 주식회사 다비오 | 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법 |
CN110503688A (zh) * | 2019-08-20 | 2019-11-26 | 上海工程技术大学 | 一种用于深度相机的位姿估计方法 |
CN110503688B (zh) * | 2019-08-20 | 2022-07-22 | 上海工程技术大学 | 一种用于深度相机的位姿估计方法 |
JP2022511151A (ja) * | 2019-09-27 | 2022-01-31 | センスタイム インターナショナル ピーティーイー.リミテッド | 積み重ね物体を認識する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム |
JP7150894B2 (ja) | 2019-10-15 | 2022-10-11 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | Arシーン画像処理方法及び装置、電子機器並びに記憶媒体 |
JP2022512525A (ja) * | 2019-10-15 | 2022-02-07 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | Arシーン画像処理方法及び装置、電子機器並びに記憶媒体 |
US11423625B2 (en) | 2019-10-15 | 2022-08-23 | Beijing Sensetime Technology Development Co., Ltd. | Augmented reality scene image processing method and apparatus, electronic device and storage medium |
CN112788230B (zh) * | 2019-11-01 | 2023-05-30 | 佳能株式会社 | 摄像设备及系统、信息处理设备、其控制方法和存储介质 |
CN112788230A (zh) * | 2019-11-01 | 2021-05-11 | 佳能株式会社 | 摄像设备及系统、信息处理设备、其控制方法和存储介质 |
JP7009527B2 (ja) | 2020-02-07 | 2022-01-25 | ソフトバンク株式会社 | 情報処理装置及び端末装置 |
JP2021125151A (ja) * | 2020-02-07 | 2021-08-30 | ソフトバンク株式会社 | 情報処理装置及び端末装置 |
JP7452068B2 (ja) | 2020-02-17 | 2024-03-19 | コニカミノルタ株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2021128648A (ja) * | 2020-02-17 | 2021-09-02 | コニカミノルタ株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2021166290A1 (ja) * | 2020-02-20 | 2021-08-26 | 株式会社日立製作所 | 物体検出装置、物体検出システム、および、物体検出方法 |
JP2021131734A (ja) * | 2020-02-20 | 2021-09-09 | 株式会社日立製作所 | 物体検出装置、物体検出システム、および、物体検出方法 |
JP7440823B2 (ja) | 2020-02-21 | 2024-02-29 | オムロン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2021131831A (ja) * | 2020-02-21 | 2021-09-09 | オムロン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7532808B2 (ja) | 2020-02-28 | 2024-08-14 | 沖電気工業株式会社 | 学習処理装置、学習処理方法及び学習処理プログラム、並びに分類処理装置、分類処理方法及び分類処理プログラム |
CN113554179B (zh) * | 2020-04-23 | 2024-02-09 | 丰田自动车株式会社 | 信息处理系统 |
CN113554179A (zh) * | 2020-04-23 | 2021-10-26 | 丰田自动车株式会社 | 信息处理系统 |
JP2022069464A (ja) * | 2020-07-30 | 2022-05-11 | アナウト株式会社 | コンピュータプログラム、学習モデルの生成方法、手術支援装置、及び情報処理方法 |
JP7194889B2 (ja) | 2020-07-30 | 2022-12-23 | アナウト株式会社 | コンピュータプログラム、学習モデルの生成方法、手術支援装置、及び情報処理方法 |
KR102591325B1 (ko) * | 2020-08-21 | 2023-10-20 | 한국전자통신연구원 | 휴먼 자세 추정 장치 및 방법 |
KR20220023553A (ko) * | 2020-08-21 | 2022-03-02 | 한국전자통신연구원 | 휴먼 자세 추정 장치 및 방법 |
JP7510033B2 (ja) | 2020-08-25 | 2024-07-03 | 公立大学法人会津大学 | 学習プログラム、学習装置及び学習方法 |
JP7408518B2 (ja) | 2020-09-16 | 2024-01-05 | Lineヤフー株式会社 | 情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム |
JP2022049570A (ja) * | 2020-09-16 | 2022-03-29 | ヤフー株式会社 | 情報処理装置、情報処理方法、情報処理プログラム、端末装置、推論方法、及び推論プログラム |
WO2022097766A1 (ko) * | 2020-11-04 | 2022-05-12 | 한국전자기술연구원 | 가려진 영역 복원 방법 및 장치 |
KR102364822B1 (ko) * | 2020-11-04 | 2022-02-18 | 한국전자기술연구원 | 가려진 영역 복원 방법 및 장치 |
WO2022130498A1 (ja) | 2020-12-15 | 2022-06-23 | 三菱電機株式会社 | 類似度算出装置、類似度算出方法、及び、類似度算出プログラム |
JP2022100299A (ja) * | 2020-12-23 | 2022-07-05 | 日本電気株式会社 | 画像処理の方法、デバイス及びコンピュータ可読記憶媒体 |
US12118737B2 (en) | 2020-12-23 | 2024-10-15 | Nec Corporation | Image processing method, device and computer-readable storage medium |
WO2022176465A1 (ja) * | 2021-02-18 | 2022-08-25 | 日本電気株式会社 | 画像処理装置および画像処理方法 |
WO2022201780A1 (ja) * | 2021-03-26 | 2022-09-29 | 株式会社Jvcケンウッド | 推定装置およびプログラム |
JP2023530545A (ja) * | 2021-05-26 | 2023-07-19 | 北京地平▲線▼信息技▲術▼有限公司 | 空間幾何情報推定モデルの生成方法及び装置 |
JP7411114B2 (ja) | 2021-05-26 | 2024-01-10 | 北京地平▲線▼信息技▲術▼有限公司 | 空間幾何情報推定モデルの生成方法及び装置 |
CN113566829A (zh) * | 2021-07-19 | 2021-10-29 | 上海极赫信息技术有限公司 | 基于高精度定位技术的混合现实的导览方法、系统及mr设备 |
JP7553408B2 (ja) | 2021-07-19 | 2024-09-18 | Kddi株式会社 | 描画装置及びプログラム |
CN113658117B (zh) * | 2021-08-02 | 2023-09-15 | 安徽省交通控股集团有限公司 | 一种基于深度学习的沥青混合料中集料边界识别与划分方法 |
CN113658117A (zh) * | 2021-08-02 | 2021-11-16 | 浙江大学 | 一种基于深度学习的沥青混合料中集料边界识别与划分方法 |
WO2023074184A1 (ja) * | 2021-10-28 | 2023-05-04 | パナソニックIpマネジメント株式会社 | アノテーション支援システム及びそれを利用した外観検査用モデルの学習支援システム |
WO2023074183A1 (ja) * | 2021-10-28 | 2023-05-04 | パナソニックIpマネジメント株式会社 | 学習支援システム、外観検査装置、外観検査用ソフトの更新装置及び外観検査用モデルの更新方法 |
JP7270856B1 (ja) * | 2022-05-16 | 2023-05-10 | 三菱電機株式会社 | 検出装置、カメラシステム、検出方法、及び検出プログラム |
WO2023223386A1 (ja) * | 2022-05-16 | 2023-11-23 | 三菱電機株式会社 | 検出装置、カメラシステム、検出方法、及び検出プログラム |
WO2023248355A1 (ja) * | 2022-06-21 | 2023-12-28 | 株式会社日立ハイテク | 不適合検出装置、および、不適合検出方法 |
JP7539073B1 (ja) | 2024-06-07 | 2024-08-23 | 一般社団法人健康マイスター協会 | 学習済みモデル生成装置、情報処理装置、学習済みモデル生成方法、情報処理方法、学習済みモデル生成プログラム、及び情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7190842B2 (ja) | 2022-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7190842B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
US11144786B2 (en) | Information processing apparatus, method for controlling information processing apparatus, and storage medium | |
US10198823B1 (en) | Segmentation of object image data from background image data | |
JP7326720B2 (ja) | 移動体位置推定システムおよび移動体位置推定方法 | |
US10546387B2 (en) | Pose determination with semantic segmentation | |
US9965865B1 (en) | Image data segmentation using depth data | |
CN111652934B (zh) | 定位方法及地图构建方法、装置、设备、存储介质 | |
US9846946B2 (en) | Objection recognition in a 3D scene | |
US20150138310A1 (en) | Automatic scene parsing | |
CN104885098B (zh) | 基于移动装置的文本检测及跟踪 | |
CN110163930A (zh) | 车道线生成方法、装置、设备、系统及可读存储介质 | |
CN110443898A (zh) | 一种基于深度学习的ar智能终端目标识别系统及方法 | |
KR102167835B1 (ko) | 영상 처리 방법 및 장치 | |
CN111323024A (zh) | 定位方法及装置、设备、存储介质 | |
JP2020153956A (ja) | 移動体位置推定システムおよび移動体位置推定方法 | |
WO2024088445A1 (zh) | 一种基于视觉语义矢量的车辆导引方法、系统、设备和介质 | |
CN106407978B (zh) | 一种结合似物度的无约束视频中显著物体检测方法 | |
CN113920263A (zh) | 地图构建方法、装置、设备及存储介质 | |
CN115147328A (zh) | 三维目标检测方法及装置 | |
CN114969221A (zh) | 一种更新地图的方法及相关设备 | |
KR102249381B1 (ko) | 3차원 영상 정보를 이용한 모바일 디바이스의 공간 정보 생성 시스템 및 방법 | |
KR20220062709A (ko) | 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템 및 방법 | |
CN110827340B (zh) | 地图的更新方法、装置及存储介质 | |
CN115565072A (zh) | 一种道路垃圾识别和定位方法、装置、电子设备及介质 | |
CN107016351A (zh) | 拍摄指导信息的获取方法以及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210812 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210812 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221206 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7190842 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |