JP7484924B2 - 撮像装置、画像処理システム、画像処理方法及びプログラム - Google Patents
撮像装置、画像処理システム、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP7484924B2 JP7484924B2 JP2021548409A JP2021548409A JP7484924B2 JP 7484924 B2 JP7484924 B2 JP 7484924B2 JP 2021548409 A JP2021548409 A JP 2021548409A JP 2021548409 A JP2021548409 A JP 2021548409A JP 7484924 B2 JP7484924 B2 JP 7484924B2
- Authority
- JP
- Japan
- Prior art keywords
- feature points
- detected
- image processing
- images
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 129
- 238000003384 imaging method Methods 0.000 title claims description 56
- 238000003672 processing method Methods 0.000 title claims description 10
- 238000000034 method Methods 0.000 claims description 60
- 230000008569 process Effects 0.000 claims description 52
- 238000001514 detection method Methods 0.000 claims description 27
- 230000001133 acceleration Effects 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 description 28
- 238000005516 engineering process Methods 0.000 description 27
- 238000005070 sampling Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 230000010365 information processing Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 9
- 230000010354 integration Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/18143—Extracting features based on salient regional features, e.g. scale invariant feature transform [SIFT] keypoints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Description
上記画像処理回路は、
所定のフレームレートで撮像された複数の画像各々について、特徴点を検出し、
上記検出された特徴点の動体重みを算出する処理を複数回実行する。
検出部により上記検出部の加速度及び角速度が検出されたセンサデータを取得し、
上記センサデータを積分処理することにより、上記複数の画像を撮像する撮像部の位置及び姿勢を算出し、
上記検出された特徴点の位置情報と、上記算出された位置及び姿勢とに基づいて、当該特徴点が上記現在フレームにおいて位置する予測位置を算出してもよい。
上記複数の画像から、所定の処理レートで特徴点を検出し当該特徴点周辺の画像パッチを抽出する処理を実行し、
上記複数の画像の現在フレームから当該画像パッチに対応する領域を探索し、当該領域から当該検出された特徴点に対応する特徴点を検出する第2のマッチング処理を上記所定の処理レートで実行してもよい。
上記撮像装置は、画像処理回路を有する。
上記画像処理回路は、所定のフレームレートで撮像された複数の画像各々について特徴点を検出し、上記検出された特徴点の動体重みを算出する処理を複数回実行する。
所定のフレームレートで撮像された複数の画像各々について、特徴点が検出される。
上記検出された特徴点の動体重みを算出する処理が複数回実行される。
所定のフレームレートで撮像された複数の画像各々について特徴点を検出するステップ。
上記検出された特徴点の動体重みを算出する処理を複数回実行するステップ。
[構成例1]
図1は本実施形態に係る画像処理システム100の構成例を示すブロック図である。画像処理システム100は、撮像装置10と、情報処理装置20と、IMU30とを有する。
撮像装置10は、図1に示すように、イメージセンサ11を有する。撮像装置10は、イメージセンサ11及びイメージセンサ11への被写体像の結像を制御するレンズ等の各種の部材を用いて実空間を撮像し、撮像画像を生成する。
情報処理装置20は、CPU(Central Processing Unit)、RAM(Random Access Memory)及びROM(Read Only Memory)等のコンピュータに必要なハードウェアを有する。CPUがROMに予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、情報処理装置20内の動作が実行される。
IMU30は、ジャイロセンサ、加速度センサ、磁気センサ及び圧力センサ等が複数軸で組み合わされた慣性計測装置である。IMU30は、自身の加速度及び角速度を検出し、これにより得られたセンサデータを積分処理部21に出力する。IMU30は例えば、機械式、レーザー式又は光ファイバー式のものが採用されてもよく、その種類は問わない。
図2は、本実施形態に係る画像処理システム100の他の構成例を示すブロック図である。画像処理システム100は、図2に示すように、特徴点サンプリング部24と、位置姿勢推定部26とを画像処理回路12が有する構成であってもよい。なお、構成例2では、構成例1と同様の構成については同様の符号を付し、その説明を省略する。
図3は、本実施形態に係る撮像装置10の他の構成例を示すブロック図である。本技術の撮像装置10は、図3に示すように、IMU30と画像処理回路12とを有し、画像処理回路12が積分処理部21、特徴点サンプリング部24及び位置姿勢推定部26を有する構成であってもよい。なお、構成例3では、構成例1と同様の構成については同様の符号を付し、その説明を省略する。
図4は画像処理システム100の典型的な動作の流れを示すフローチャートである。本技術は、画像処理システム100の処理レートでは捨てられる画像情報を有効利用することによって、画像中の動体が検出されること抑制し、そのロバスト性を向上させるものである。以下、画像処理システム100の画像処理方法について図4を適宜参照しながら説明する。
特徴点検出部121は、イメージセンサ11から高速画像を取得する。特徴点検出部121は、高速画像から特徴点を検出し、この特徴点の位置情報を記憶部124に出力する。特徴点検出部121は、高速画像から特徴点と共に、特徴点周辺の画像パッチを抽出し、画像パッチを記憶部124に書き込む。
予測位置算出部126は、積分処理部21から取得した相対位置及び相対姿勢の変化量ΔP,ΔRと、記憶部124から取得した特徴点の位置情報及び深度とに基づいて当該特徴点が現在フレームにおいて位置する予測位置p´tを算出し、算出結果を重み算出部123に出力する。
Pt=ΔRT・(Pt-1-ΔP) ・・・(5)
p´t=(1/zt)・K・Pt ・・・(6)
マッチング処理部122は、記憶部124に記憶されている、高速画像の過去フレームにおいて検出された特徴点周辺の画像パッチを記憶部124から読み出し、高速画像の現在フレームから当該画像パッチと最も類似する領域を探索するテンプレートマッチングを実行し、マッチングした領域の中から過去フレームの特徴点に対応する特徴点を検出する(第1のマッチング処理)。マッチング処理部122は、検出した特徴点に関する位置情報を重み算出部123及び深度算出部125に出力する。深度算出部125は、マッチング処理部122により検出された各特徴点の深度を算出し、算出結果を記憶部124に出力する。
図5は、高速画像における過去フレームと現在フレームとを併記して示す模式図であり、現在フレームの動体重みの算出方法を示す図である。重み算出部123は、高速画像の現在フレームから検出された特徴点の位置と、この特徴点が現在フレームにおいて位置する予測位置とのズレから、現在フレームの動体重みを算出する。
本実施形態の画像処理回路12は、撮像装置10により所定のフレームレートで所定回数撮像が実行されていない場合(1フレーム中の露光回数が規定回数未満である場合)に(ステップS105のNO)、所定のフレームレートで撮像された分だけ先のステップS101~S104までの一例の処理を繰り返し実行する。
特徴点検出部23は、高速画像のうちイメージセンサ11から所定の出力レート(例えば60fps)で出力された通常画像を取得する。特徴点検出部23は、通常画像から特徴点を検出し、この特徴点周辺の画像パッチを抽出し画像パッチを記憶部25に書き込む。
特徴点サンプリング部24は、通常画像から検出された特徴点を、先のステップS105において取得した統合重みを基準としてアウトライアを除去する。具体的には、特徴点サンプリング部24は当該特徴点をサンプリングし、仮説検証を行う。ここで言う仮説検証とは、サンプリングした特徴点ペアから撮像装置10の仮の相対位置・姿勢を求め、その相対位置・姿勢に見合う移動関係にある特徴点ペアがいくつ残るかでその仮説が正しいかを検証する。特徴点サンプリング部24は、特徴点を複数回サンプリングし、撮像装置10の一番良い仮説の相対位置・姿勢に見合う移動関係にある特徴点ペアをインライアペア、そうでないペアをアウトライアペアとしてアウトライアペアの除去を行う。
この際、特徴点サンプリング部24は、例えばPROSAC(Progressive Sample Consensus)などの所定のアルゴリズムに従って、統合重みが小さい値の特徴点を動体とは異なる特徴点であるとして優先的にサンプリングする処理を繰り返し実行する。これにより、通常のRANSAC(Random Sample Consensus)アルゴリズムに従って通常画像から特徴点をランダムにサンプリングするよりもサンプリング回数が大幅に抑えられ、イメージセンサ11が搭載された撮像装置10の位置・姿勢を推定する上での処理スピードが格段に向上する。
位置姿勢推定部26は、PnPアルゴリズムなどの所定のアルゴリズムに従って、先のステップS107においてサンプリングされた、過去フレームの特徴点と現在フレームの特徴点とのズレ量から、イメージセンサ11が搭載された撮像装置10の位置姿勢を推定する。PnPアルゴリズムに関しては、下記文献2を参照されたい(文献2:Lepetit, V. ; Moreno-Noguer, M.; Fua, P. (2009), EPnP: An Accurate 0(n) Solution to the PnP Problem, International Journal of Computer Vision. 81(2) 155-166)。
SLAM(Simultaneous Localization and Mapping)は物体の自己位置・姿勢を推定する技術であり、しばしば、IMU(慣性計測装置)を用いる手法が採用される。しかしながら、SLAMにより物体の自己位置・姿勢を推定する上でIMUを主に用いるシステムでは、IMUにより検出された加速度・角速度を積分処理する過程で観測ノイズが堆積してしまい、IMUから出力されたセンサデータの信頼性が確保される期間が短く、実用的ではない場合がある。
また、SLAM技術は撮像画像内に動体がないという前提のもと、物体の自己位置・姿勢を推定しているため、動体が画面内に多く映り込むと推定精度が落ちてしまう。そこで、本実施形態では、このシャッターの閉じた大半の時間を有効活用するため、画像処理システム100の処理レートよりもイメージセンサ11を高速に撮像させ、推定精度の向上を図るものである。
これにより、高速画像の過去フレームにおいて検出された特徴点に対応する特徴点を現在フレームから検出する処理が短い時間間隔で複数回実行されるため、IMU30由来の観測ノイズの影響が低減され、特徴点マッチングのロバスト性(頑強性)が向上する。
これにより、通常画像から抽出された特徴点から、動体とは異なる特徴点をサンプリングする際のロバスト性が向上する。従って、動体の多く存在する場所での自己位置・姿勢を推定する精度を上げることができる。
以上、本技術の実施形態について説明したが、本技術は上述の実施形態に限定されるものではなく種々変更を加え得ることは勿論である。
本技術の実施形態は、例えば、上記で説明したような情報処理装置、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
所定のフレームレートで撮像された複数の画像各々について、特徴点を検出し、
前記検出された特徴点の動体重みを算出する処理を複数回実行する、画像処理回路
を具備する撮像装置。
(2)
上記(1)に記載の撮像装置であって、
上記画像処理回路は、上記複数の画像各々について、上記検出された特徴点周辺の画像パッチを抽出する処理を実行する
撮像装置。
(3)
上記(2)に記載の撮像装置であって、
上記画像処理回路は、上記複数の画像の現在フレームから上記画像パッチに対応する領域を探索し、上記領域から上記検出された特徴点に対応する特徴点を検出する第1のマッチング処理を実行する
撮像装置。
(4)
上記(3)に記載の撮像装置であって、
上記画像処理回路は、
検出部により上記検出部の加速度及び角速度が検出されたセンサデータを取得し、
上記センサデータを積分処理することにより、上記複数の画像を撮像する撮像部の位置及び姿勢を算出し、
上記検出された特徴点の位置情報と、上記算出された位置及び姿勢とに基づいて、当該特徴点が上記現在フレームにおいて位置する予測位置を算出する
撮像装置。
(5)
上記(4)に記載の撮像装置であって、
上記画像処理回路は、上記第1のマッチング処理により検出された特徴点と、上記予測位置とに基づき、当該特徴点の動体重みを算出する
撮像装置。
(6)
上記(5)に記載の撮像装置であって、
上記画像処理回路は、上記第1のマッチング処理により検出された特徴点と上記予測位置との間の距離を算出し、上記距離から上記動体重みを算出する
撮像装置。
(7)
上記(5)又は(6)に記載の撮像装置であって、
上記画像処理回路は、上記第1のマッチング処理により検出された特徴点について上記動体重みを繰り返し算出し、上記繰り返し算出された動体重みが合算された統合重みを算出する
撮像装置。
(8)
上記(7)に記載の撮像装置であって、
上記画像処理回路は、
上記複数の画像から、所定の処理レートで特徴点を検出し当該特徴点周辺の画像パッチを抽出する処理を実行し、
上記複数の画像の現在フレームから当該画像パッチに対応する領域を探索し、当該領域から当該検出された特徴点に対応する特徴点を検出する第2のマッチング処理を上記所定の処理レートで実行する
撮像装置。
(9)
上記(8)に記載の撮像装置であって、
上記画像処理回路は、上記統合重みに基づいて、上記第2のマッチング処理により検出された特徴点をサンプリングする
撮像装置。
(10)
所定のフレームレートで撮像された複数の画像各々について特徴点を検出し、上記検出された特徴点の動体重みを算出する処理を複数回実行する画像処理回路
を有する撮像装置
を具備する画像処理システム。
(11)
画像処理回路が、
所定のフレームレートで撮像された複数の画像各々について、特徴点を検出し、
上記検出された特徴点の動体重みを算出する処理を複数回実行する
画像処理方法。
(12)
所定のフレームレートで撮像された複数の画像各々について、特徴点を検出するステップと、
上記検出された特徴点の動体重みを算出する処理を複数回実行するステップと
を画像処理回路に実行させるプログラム。
イメージセンサ・・・11
画像処理回路・・・12
情報処理装置・・・20
積分処理部・・・21
マッチング処理部・・・22,122
特徴点検出部・・・23,121
特徴点サンプリング部・・・24
記憶部・・・25,124
位置姿勢推定部・・・26
IMU・・・30
画像処理システム・・・100
重み算出部・・・123
予測位置算出部・・・126
Claims (9)
- 所定のフレームレートで撮像された複数の画像各々について、特徴点を検出し、
前記検出された特徴点の動体重みを算出する処理を複数回実行する、画像処理回路
を具備し、前記画像処理回路は、
前記複数の画像各々について、前記検出された特徴点周辺の画像パッチを抽出する処理を実行し、
前記複数の画像の現在フレームから前記画像パッチに対応する領域を探索し、前記領域から前記検出された特徴点に対応する特徴点を検出する第1のマッチング処理を実行し、
検出部により前記検出部の加速度及び角速度が検出されたセンサデータを取得し、
前記センサデータを積分処理することにより、前記複数の画像を撮像する撮像部の位置及び姿勢を算出し、
前記検出された特徴点の位置情報と、前記算出された位置及び姿勢とに基づいて、当該特徴点が前記現在フレームにおいて位置する予測位置を算出する
撮像装置。 - 請求項1に記載の撮像装置であって、
前記画像処理回路は、前記第1のマッチング処理により検出された特徴点と、前記予測位置とに基づき、当該特徴点の動体重みを算出する
撮像装置。 - 請求項2に記載の撮像装置であって、
前記画像処理回路は、前記第1のマッチング処理により検出された特徴点と前記予測位置との間の距離を算出し、前記距離から前記動体重みを算出する
撮像装置。 - 請求項2に記載の撮像装置であって、
前記画像処理回路は、前記第1のマッチング処理により検出された特徴点について前記動体重みを繰り返し算出し、前記繰り返し算出された動体重みが合算された統合重みを算出する
撮像装置。 - 請求項4に記載の撮像装置であって、
前記画像処理回路は、
前記複数の画像から、所定の処理レートで特徴点を検出し当該特徴点周辺の画像パッチを抽出する処理を実行し、
前記複数の画像の現在フレームから当該画像パッチに対応する領域を探索し、当該領域から当該検出された特徴点に対応する特徴点を検出する第2のマッチング処理を前記所定の処理レートで実行する
撮像装置。 - 請求項5に記載の撮像装置であって、
前記画像処理回路は、前記統合重みに基づいて、前記第2のマッチング処理により検出された特徴点をサンプリングする
撮像装置。 - 所定のフレームレートで撮像された複数の画像各々について特徴点を検出し、前記検出された特徴点の動体重みを算出する処理を複数回実行する画像処理回路
を有し、前記画像処理回路は、
前記複数の画像各々について、前記検出された特徴点周辺の画像パッチを抽出する処理を実行し、
前記複数の画像の現在フレームから前記画像パッチに対応する領域を探索し、前記領域から前記検出された特徴点に対応する特徴点を検出する第1のマッチング処理を実行し、
検出部により前記検出部の加速度及び角速度が検出されたセンサデータを取得し、
前記センサデータを積分処理することにより、前記複数の画像を撮像する撮像部の位置及び姿勢を算出し、
前記検出された特徴点の位置情報と、前記算出された位置及び姿勢とに基づいて、当該特徴点が前記現在フレームにおいて位置する予測位置を算出する
撮像装置
を具備する画像処理システム。 - 画像処理回路が、
所定のフレームレートで撮像された複数の画像各々について、特徴点を検出し、
前記検出された特徴点の動体重みを算出する処理を複数回実行する
画像処理方法であって、
前記複数の画像各々について、前記検出された特徴点周辺の画像パッチを抽出する処理を実行し、
前記複数の画像の現在フレームから前記画像パッチに対応する領域を探索し、前記領域から前記検出された特徴点に対応する特徴点を検出する第1のマッチング処理を実行し、
検出部により前記検出部の加速度及び角速度が検出されたセンサデータを取得し、
前記センサデータを積分処理することにより、前記複数の画像を撮像する撮像部の位置及び姿勢を算出し、
前記検出された特徴点の位置情報と、前記算出された位置及び姿勢とに基づいて、当該特徴点が前記現在フレームにおいて位置する予測位置を算出する
画像処理方法。 - 所定のフレームレートで撮像された複数の画像各々について、特徴点を検出するステップと、
前記検出された特徴点の動体重みを算出する処理を複数回実行するステップと、
前記複数の画像各々について、前記検出された特徴点周辺の画像パッチを抽出する処理を実行するステップと、
前記複数の画像の現在フレームから前記画像パッチに対応する領域を探索し、前記領域から前記検出された特徴点に対応する特徴点を検出する第1のマッチング処理を実行するステップと、
検出部により前記検出部の加速度及び角速度が検出されたセンサデータを取得するステップと、
前記センサデータを積分処理することにより、前記複数の画像を撮像する撮像部の位置及び姿勢を算出するステップと、
前記検出された特徴点の位置情報と、前記算出された位置及び姿勢とに基づいて、当該特徴点が前記現在フレームにおいて位置する予測位置を算出するステップと
を画像処理回路に実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019175935 | 2019-09-26 | ||
JP2019175935 | 2019-09-26 | ||
PCT/JP2020/030040 WO2021059765A1 (ja) | 2019-09-26 | 2020-08-05 | 撮像装置、画像処理システム、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021059765A1 JPWO2021059765A1 (ja) | 2021-04-01 |
JP7484924B2 true JP7484924B2 (ja) | 2024-05-16 |
Family
ID=75166602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021548409A Active JP7484924B2 (ja) | 2019-09-26 | 2020-08-05 | 撮像装置、画像処理システム、画像処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220366574A1 (ja) |
JP (1) | JP7484924B2 (ja) |
WO (1) | WO2021059765A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11875516B2 (en) * | 2020-12-28 | 2024-01-16 | Waymo Llc | Systems, apparatus, and methods for retrieving image data of image frames |
WO2023032255A1 (ja) * | 2021-09-02 | 2023-03-09 | 日立Astemo株式会社 | 画像処理装置 |
US20240281996A1 (en) * | 2023-02-16 | 2024-08-22 | Qualcomm Incorporated | Systems and methods for motion blur compensation for feature tracking |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018113021A (ja) | 2017-01-06 | 2018-07-19 | キヤノン株式会社 | 情報処理装置およびその制御方法、プログラム |
JP2018160732A (ja) | 2017-03-22 | 2018-10-11 | 株式会社デンソーテン | 画像処理装置、カメラずれ判定システム、及び画像処理方法 |
JP2019062340A (ja) | 2017-09-26 | 2019-04-18 | キヤノン株式会社 | 像振れ補正装置および制御方法 |
JP2019121032A (ja) | 2017-12-28 | 2019-07-22 | 株式会社デンソーテン | カメラずれ検出装置およびカメラずれ検出方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10390003B1 (en) * | 2016-08-29 | 2019-08-20 | Perceptln Shenzhen Limited | Visual-inertial positional awareness for autonomous and non-autonomous device |
-
2020
- 2020-08-05 WO PCT/JP2020/030040 patent/WO2021059765A1/ja active Application Filing
- 2020-08-05 JP JP2021548409A patent/JP7484924B2/ja active Active
- 2020-08-05 US US17/753,865 patent/US20220366574A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018113021A (ja) | 2017-01-06 | 2018-07-19 | キヤノン株式会社 | 情報処理装置およびその制御方法、プログラム |
JP2018160732A (ja) | 2017-03-22 | 2018-10-11 | 株式会社デンソーテン | 画像処理装置、カメラずれ判定システム、及び画像処理方法 |
JP2019062340A (ja) | 2017-09-26 | 2019-04-18 | キヤノン株式会社 | 像振れ補正装置および制御方法 |
JP2019121032A (ja) | 2017-12-28 | 2019-07-22 | 株式会社デンソーテン | カメラずれ検出装置およびカメラずれ検出方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021059765A1 (ja) | 2021-04-01 |
US20220366574A1 (en) | 2022-11-17 |
WO2021059765A1 (ja) | 2021-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7484924B2 (ja) | 撮像装置、画像処理システム、画像処理方法及びプログラム | |
JP6942488B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
US8648918B2 (en) | Method and system for obtaining a point spread function using motion information | |
JP7272024B2 (ja) | 物体追跡装置、監視システムおよび物体追跡方法 | |
JP3801137B2 (ja) | 侵入物体検出装置 | |
JP6217635B2 (ja) | 転倒検知装置および転倒検知方法、転倒検知カメラ、並びにコンピュータ・プログラム | |
US20190206065A1 (en) | Method, system, and computer-readable recording medium for image object tracking | |
JP6905390B2 (ja) | 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム | |
JP7354767B2 (ja) | 物体追跡装置および物体追跡方法 | |
US10593044B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JPWO2018235219A1 (ja) | 自己位置推定方法、自己位置推定装置および自己位置推定プログラム | |
TWI671707B (zh) | 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體 | |
JP2009211122A (ja) | 画像処理装置およびオブジェクト推定プログラム。 | |
JP2007304721A (ja) | 画像処理装置及び画像処理方法 | |
US20140063258A1 (en) | Distance estimation in camera-based systems utilizing motion measurement and compression attributes | |
JP6525934B2 (ja) | 画像処理装置および制御方法 | |
JP7098972B2 (ja) | 行動認識装置、行動認識システム、行動認識方法およびプログラム | |
JP5539565B2 (ja) | 撮像装置及び被写体追跡方法 | |
Rajakaruna et al. | Image deblurring for navigation systems of vision impaired people using sensor fusion data | |
JP2018151940A (ja) | 障害物検出装置および障害物検出方法 | |
EP3496390B1 (en) | Information processing device, information processing method, and storage medium | |
JP7281660B2 (ja) | 変位計測装置及び変位計測方法 | |
JP2023008030A (ja) | 画像処理システム、画像処理方法及び画像処理プログラム | |
JP5419925B2 (ja) | 通過物体数計測方法、通過物体数計測装置、及びプログラム | |
JP6780639B2 (ja) | 画像解析装置、画像解析方法、及び、画像解析プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7484924 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |