JP7418697B2 - 画像処理装置、及び画像処理プログラム - Google Patents

画像処理装置、及び画像処理プログラム Download PDF

Info

Publication number
JP7418697B2
JP7418697B2 JP2020156502A JP2020156502A JP7418697B2 JP 7418697 B2 JP7418697 B2 JP 7418697B2 JP 2020156502 A JP2020156502 A JP 2020156502A JP 2020156502 A JP2020156502 A JP 2020156502A JP 7418697 B2 JP7418697 B2 JP 7418697B2
Authority
JP
Japan
Prior art keywords
unit
image
frame
vector
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020156502A
Other languages
English (en)
Other versions
JP2022050099A (ja
Inventor
優 北條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020156502A priority Critical patent/JP7418697B2/ja
Priority to PCT/JP2021/020802 priority patent/WO2022059265A1/ja
Priority to EP21868952.9A priority patent/EP4216537A4/en
Priority to CN202180048380.4A priority patent/CN115804101A/zh
Publication of JP2022050099A publication Critical patent/JP2022050099A/ja
Priority to US18/182,220 priority patent/US20230283898A1/en
Application granted granted Critical
Publication of JP7418697B2 publication Critical patent/JP7418697B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像部により撮像された映像の各フレームを処理する画像処理装置、及び画像処理プログラムに関する。
電子式の手ブレ補正機能が搭載されたカメラが広く普及している。電子式の手ブレ補正機能では、カメラの手ブレが相殺されるように、撮像範囲から切り出す画角の範囲を適応的に移動させて、ブレが低減された画像を生成する。電子式の手ブレ補正では、画角内の被写体の位置ができるだけ固定されるように制御される。しかしながら、カメラの移動により視点が移動すると、画角内の構図が変わり、対象物と背景の位置関係の見え方が変わる。
特許文献1は、被写体空間が異なる複数の視点から撮像した視差画像を合成して、視点が変わる前の画像に近い画像を合成する技術を開示する。ただし、この技術では一つのマイクロレンズに対して複数の画素を備えた撮像素子が必要であり、光学系が複雑化する。
特開2016-42662号公報
本実施形態はこうした状況に鑑みてなされたものであり、その目的は、撮影視点がブレても、構図を含めて安定した映像を電子的に生成する技術を提供することにある。
上記課題を解決するために、本実施形態のある態様の画像処理装置は、撮像部により撮像された映像を取得する映像取得部と、前記撮像部に加わる振動を検出するためのセンサの出力信号、または取得された映像のフレーム間の差分をもとに、前記撮像部に加わる振動に基づく前記撮像部の移動量を特定する移動量特定部と、取得された映像のフレーム内から、注目すべき対象物を検出する対象物検出部と、距離を計測するためのセンサからの出力信号、またはフレーム内の前記対象物の大きさをもとに、前記撮像部から前記対象物までの距離を特定する距離特定部と、前記振動によるブレを打ち消すための補正ベクトルの強度を調整するベクトル強度調整部と、取得された映像の各フレームから所定サイズの画像を切り出すための切り出し位置を決定する切出位置決定部であって、前記切り出し位置を前記補正ベクトルに従い移動させ、前記補正ベクトルの強度に応じて、対象物用の切り出し位置と背景用の切り出し位置を別々に決定する切出位置決定部と、前記対象物用の切り出し位置から切り出された前記対象物の画像データと、前記背景用の切り出し位置から切り出された前記対象物を除く背景の画像データを合成する画像合成部と、を備える。
なお、以上の構成要素の任意の組合せ、本実施形態の表現を、装置、方法、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本実施形態の態様として有効である。
本実施形態によれば、撮影視点がブレても、構図を含めて安定した映像を電子的に生成することができる。
本発明の実施の形態1に係る撮像装置の構成を示す図である。 図2(a)-(c)は、実施の形態1に係る画像処理装置による合成画像生成処理の具体例を説明するための図である(その1)。 図3(a)-(c)は、実施の形態1に係る画像処理装置による合成画像生成処理の具体例を説明するための図である(その2)。 本発明の実施の形態2に係る撮像装置の構成を示す図である。 図5(a)-(c)は、実施の形態2に係る画像処理装置による合成画像生成処理の具体例を説明するための図である(その1)。 図6(a)-(c)は、実施の形態2に係る画像処理装置による合成画像生成処理の具体例を説明するための図である(その2)。 図7(a)-(c)は、実施の形態2に係る画像処理装置による合成画像生成処理の具体例を説明するための図である(その3)。 本発明の実施の形態3に係る撮像装置の構成を示す図である。 図9(a)-(c)は、実施の形態1、3に係る画像処理装置による総切り出し範囲の制限処理の具体例を説明するための図である。
図1は、本発明の実施の形態1に係る撮像装置1の構成を示す図である。撮像装置1は、単体のビデオカメラであってもよいし、スマートフォン、タブレット、ノートPCなどの情報機器に搭載されるカメラモジュールであってもよい。
実施の形態1に係る撮像装置1は、撮像部10、振動検出センサ11及び画像処理装置20を備える。撮像部10は、レンズ、固体撮像素子、信号処理回路を含む。固体撮像素子には例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサまたはCCD(Charge Coupled Devices)イメージセンサを使用することができる。固体撮像素子は、レンズを介して入射される光を、電気的な映像信号に変換し、信号処理回路に出力する。信号処理回路は、固体撮像素子から入力される映像信号に対して、A/D変換、ノイズ除去などの信号処理を施し、画像処理装置20に出力する。
振動検出センサ11は、撮像部10に加わる振動を検出して、画像処理装置20に出力する。振動検出センサ11には例えば、ジャイロセンサを使用することができる。ジャイロセンサは、撮像部10のヨー方向およびピッチ方向に加わる振動を角速度としてそれぞれ検出する。
画像処理装置20は、映像取得部21、画像認識部22、対象物検出部23、対象物追尾部24、動きベクトル検出部25、切出位置決定部27、振動情報取得部28、移動量特定部29、切出部30、画像合成部31及び画素補完部32を備える。これらの構成要素は、ハードウェア資源とソフトウェア資源の協働、またはハードウェア資源のみにより実現できる。ハードウェア資源として、CPU、ROM、RAM、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、ISP(Image Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、その他のLSIを利用できる。ソフトウェア資源としてファームウェアなどのプログラムを利用できる。
映像取得部21は、撮像部10により撮像された映像を取得する。振動情報取得部28は、振動検出センサ11の出力信号を振動成分情報として取得する。移動量特定部29は、振動情報取得部28により取得された出力信号を積分して撮像部10の移動量を特定する。例えば、移動量特定部29は、振動情報取得部28により取得されたヨー方向およびピッチ方向の角速度信号をそれぞれ積分して、撮像部10のヨー方向およびピッチ方向の移動角度を算出する。
なお移動量特定部29は、フレーム間の差分から、後述する画像認識部22により認識された対象物を除く、背景領域の全体が一律に同じ方向に移動していることが検出された場合、当該背景領域の全体の移動量を、撮像部10の移動量として特定してもよい。この場合、振動検出センサ11を省略しても、撮像部10に加わる振動に基づく撮像部10の移動量を推定することができる。振動検出センサ11を省略すればコストを削減することができる。
移動量特定部29は、特定した撮像部10の移動量を打ち消すための補正ベクトルを生成する。即ち、撮像部10がブレた方向に、撮像部10の移動量と同量の補正量を持つ補正ベクトルを生成する。移動量特定部29は、生成した補正ベクトルを切出位置決定部27に出力する。撮像部10が理想的に静止している場合、補正ベクトルの値はゼロになる。
画像認識部22は、映像取得部21により取得された映像のフレーム内において、対象物を探索する。画像認識部22は、辞書データとして、特定の対象物が写った多数の画像を学習して生成された特定の対象物の識別器を有する。特定の対象物は例えば、人物の顔、人物の全身、動物(例えば、犬や猫)の顔、動物の全身、乗り物(例えば、鉄道車両)などが対象となる。
画像認識部22は、映像のフレーム内を各対象物の識別器を用いて探索する。対象物の認識には例えば、HOG(Histograms of Oriented Gradients)特徴量を用いることができる。なお、Haar-like特徴量やLBP(Local Binary Patterns)特徴量などを用いてもよい。フレーム内に対象物が存在する場合、画像認識部22は、矩形の検出枠で当該対象物を補足する。
対象物検出部23は、画像認識部22により認識された対象物を、注目すべき対象物として検出するか否か決定する。注目すべき対象物は、撮像装置1のユーザ(撮影者)が注目している被写体と推定される対象物である。
対象物検出部23は、以下の判断基準のいずれか一つまたは複数の組み合わせをもとに、認識された対象物を被写体とするか否か決定する。(a)所定のサイズより大きな対象物であるか、(b)フレーム内の中央領域に位置する対象物であるか、(c)対象物が人物または動物であるか、(d)対象物までの距離が所定値未満か(対象物までの距離の推定方法は後述する)、(e)対象物に隠れている部分がないか、(f)対象物の動きが所定値より小さいか(動きの検出方法は後述する)。
フレーム内において複数の対象物が認識された場合、対象物検出部23は、上記の判断基準を満たす対象物を全て被写体として検出してもよいし、下記の判断基準のいずれか一つまたは複数の組み合わせをもとに、一つの被写体を選定してもよい。(a)’フレーム内で最も大きい対象物であるか、(b)’フレーム内で最も中央に位置する対象物であるか、(d)’対象物までの距離が最も近いか、(f)’動きのある対象物の中で最も動きが小さい対象物か。
これらの判断基準は、撮影者が注目している被写体の多くが、フレーム内で大きな領域を占めている、フレームの中央に位置している、被写界深度の手前側に位置している、撮影者が撮像装置1で被写体を追うことによりフレーム内での動きが小さくなっている、という経験則に基づく。
なお撮像装置1のファインダ画面がタッチパネル式の場合、対象物検出部23は、ファインダ画面内に映っている対象物のうち、撮像装置1のユーザによりタッチされた対象物を、被写体に決定してもよい。
対象物追尾部24は、画像認識部22が認識した対象物を、後続するフレーム内において追尾する。対象物の追尾には、例えば、パーティクルフィルタやミーンシフト法を使用することができる。追尾する対象物は、画像認識部22により認識された全ての対象物であってもよいし、対象物検出部23により注目すべき対象物として検出された対象物のみであってもよい。なお、被写体の選定基準に対象物の動きを用いている場合は、画像認識部22により認識された全ての対象物を追尾する必要がある。
動きベクトル検出部25は、映像のフレーム間における注目すべき対象物の移動量を、当該対象物の動きベクトルとして検出する。この動きベクトルは、当該対象物の動きの順ベクトル(追尾ベクトル)を示している。
切出位置決定部27は、映像の各フレームから所定サイズの画像を切り出すための切り出し位置を決定する。切出位置決定部27は、固体撮像素子の全画素で撮像された全撮像範囲から、一部の領域を切り出して表示または記録する画像の範囲を決定する。
本実施の形態では、電子式の手ブレ補正機能を採用している。電子式の手ブレ補正機能では、撮像装置1の手ブレが相殺されるように、全撮像範囲から切り出す画角の位置を適応的に変化させる。また本実施の形態では、被写体追尾機能も採用している。被写体追尾機能では、被写体の動きに対して、画角内の被写体の位置ができるだけ固定されるように、全撮像範囲から切り出す画角の位置を変化させる。このように本実施の形態では、電子式の手ブレ補正機能と被写体追尾機能によるリアルタイムの画角切り出しが行われる。
切出位置決定部27は、移動量特定部29から補正ベクトルを取得し、動きベクトル検出部25から注目すべき対象物の位置と動きベクトルを取得する。切出位置決定部27は、注目すべき対象物の切り出し位置と、背景の切り出し位置を別々に決定する。
切出位置決定部27は、参照フレームの対象物用の切り出し位置を、補正ベクトルと対象物の動きベクトルを合成した合成ベクトルに従い移動させて、現フレームの対象物用の切り出し位置を決定する。
参照フレームが前フレームの場合、補正ベクトルは、前フレームと現フレーム間の撮像部10の動きを打ち消すための補正ベクトルとなり、対象物の動きベクトルは、前フレームと現フレーム間の対象物の動きを示す動きベクトルとなる。参照フレームが対象物の追尾開始時のフレームの場合、補正ベクトルは、追尾開始時のフレームと現フレーム間の撮像部10の動きを打ち消すための補正ベクトルとなり、対象物の動きベクトルは、追尾開始時のフレームと現フレーム間の対象物の動きを示す動きベクトルとなる。
切出位置決定部27は、参照フレームの背景用の切り出し位置を、補正ベクトルに従い移動させて、現フレームの背景用の切り出し位置を決定する。参照フレームが前フレームの場合、補正ベクトルは、前フレームと現フレーム間の撮像部10の動きを打ち消すための補正ベクトルとなる。参照フレームが対象物の追尾開始時のフレームの場合、補正ベクトルは、追尾開始時のフレームと現フレーム間の撮像部10の動きを打ち消すための補正ベクトルとなる。
切出位置決定部27は、現フレームの対象物用の切り出し位置を、対象物の動きベクトルの逆ベクトルに従い移動させて、背景用の切り出し位置を決定してもよい。この場合、対象物の動きベクトルは、追尾開始時のフレームと現フレーム間の動きを示す動きベクトルとなる。
切出部30は、対象物用の切り出し位置の画像データから、当該対象物の画像データのみを切り出す。切出部30は、背景用の切り出し位置の画像データから当該対象物を除く背景の画像データを切り出す。画像合成部31は、切り出された当該対象物の画像データと、切り出された背景の画像データを合成する。
詳細な説明は後述するが、フレーム内に注目すべき対象物が複数設定される場合、合成された画像内において欠陥画素が発生する可能性がある。その場合、画素補完部32は、合成された画像内における欠陥画素を、当該欠落画素に空間的または時間的に近接する少なくとも1つの有効画素をもとに補完する。
図2(a)-(c)は、実施の形態1に係る画像処理装置20による合成画像生成処理の具体例を説明するための図である(その1)。図3(a)-(c)は、実施の形態1に係る画像処理装置20による合成画像生成処理の具体例を説明するための図である(その2)。
図2(a)に示すように切出位置決定部27はデフォルトで、フレームF0内の中央に切り出し位置C0を設定する。対象物検出部23は、フレームF0内において対象物OB1を、注目すべき対象物として検出する。対象物追尾部24は、対象物OB1の追尾を開始する。図2(a)に示す例では、対象物OB1が左方向に移動している。また、撮影者の手ブレにより撮像部10が上方向へ移動している。
図2(b)に示すように切出位置決定部27は、現フレームF1において、参照フレームF0の切り出し位置C0を、手ブレの補正ベクトルと対象物OB1の動きベクトルの合成ベクトルに従い移動させ、対象物OB1用の切り出し位置C1を決定する。
図2(c)に示すように切出位置決定部27は、現フレームF1の対象物OB1用の切り出し位置C1を、対象物OB1の動きベクトルの逆ベクトルに従い移動させ、背景用の切り出し位置C2を決定する。
図3(a)に示すように切出部30は、現フレームF1の対象物OB1用の切り出し位置C1の画像データから対象物OB1の画像データを切り出す。図3(b)に示すように切出部30は、現フレームF1の背景用の切り出し位置C2の画像データから対象物OB1の画像データを除く背景の画像データを切り出す。図3(c)に示すように画像合成部31は、切り出された対象物OB1の画像データと、切り出された背景の画像データを合成して新たな合成画像Icを生成する。
以上説明したように実施の形態1によれば、全撮像範囲から被写体を追尾して画角を切り出す際、被写体用の画角と背景用の画角を別々に切り出して、背景用の画角に対して背景ブレの補正を実施する。背景ブレの補正後に、被写体用の画角と背景用の画角を合成することにより、背景ブレを抑制することができる。その際、手ブレの補正は被写体用の画角と背景用の画角の両方に実施する。これにより、画角全体においてブレが抑制された映像を生成することができる。
したがって、被写体を鮮明に捉えつつ自然な背景の映像を生成することができる。例えば、リビングで猫を撮影する場合、猫は被写体追尾機能で追尾されるため、猫のブレは抑制される。さらに、猫の動きに応じて目まぐるしく背景が動くこともなく、自然な背景の映像を撮影することができる。また撮像者がパンニングしているときも、背景の動きが抑制されるため、何が映っているか認識しにくい映像になることを抑制することができる。また詳細は後述するが、被写体が複数の場合でも、複数の被写体をできるだけ一枚の画角に収めることができる。また手ブレを相殺するための補正ベクトルの強度を、被写体の動きベクトルと同強度にかけることにより、バーチャル背景のような背景が静止した映像を撮影することができる。また、バーチャル背景に使用可能な素材を作成することもできる。
図4は、本発明の実施の形態2に係る撮像装置1の構成を示す図である。実施の形態2に係る撮像装置1は、撮像部10、振動検出センサ11、距離検出センサ12及び画像処理装置20を備える。実施の形態2に係る画像処理装置20は、映像取得部21、画像認識部22、対象物検出部23、ベクトル強度調整部26、切出位置決定部27、振動情報取得部28、移動量特定部29、切出部30、画像合成部31、画素補完部32、距離情報取得部33及び距離特定部34を備える。
以下、実施の形態1との相違点を説明する。距離検出センサ12は、撮影方向にある物体の撮像部10からの距離を検出するためのセンサである。距離検出センサ12には例えば、TOF(Time of Flight)センサを使用することができる。TOFセンサの代表的なものに、超音波センサ(ソナー)やLiDAR(Light Detection and Ranging)がある。超音波センサは撮影方向に超音波を発信し、その反射波を受信するまでの時間を計測して撮影方向にある物体までの距離を検出する。LiDARは撮影方向にレーザ光を照射し、その反射光を受光するまでの時間を計測して撮影方向にある物体までの距離を検出する。
距離情報取得部33は、距離検出センサ12の出力信号を距離情報として取得する。距離特定部34は、取得された距離情報をもとに、撮像部10で撮像された可視光画像に対応する距離画像を生成する。
距離特定部34は、画像認識により、撮像部10からフレーム内に写った対象物までの距離を推定してもよい。例えば、辞書データとして登録されている対象物の一般的な大きさと、フレーム内に写った当該対象物の大きさと、撮像部10から当該対象物までの距離の関係を、予めテーブルまたは関数で規定しておく。距離特定部34は、フレーム内において画像認識部22により認識された対象物の大きさをもとに、当該テーブルまたは当該関数を参照して、撮像部10から当該対象物までの距離を推定する。この場合、距離検出センサ12を省略しても、フレーム内に写った対象物までの距離を推定することができる。距離検出センサ12を省略すればコストを削減することができる。
また距離特定部34は、撮像部10からフレーム内に写った対象物までの距離をオートフォーカス調整部(不図示)から取得できる場合、オートフォーカス調整部から取得した距離を使用してもよい。また撮像部10が二眼で構成される場合、距離特定部34は、二眼の撮像部10で撮像された映像間の視差をもとに、フレームに写った対象物までの距離を推定してもよい。
実施の形態2では被写体追尾機能は省略されている。したがって基本的に、対象物の動きベクトルを算出する必要はなく、実施の形態2では画像処理装置20から対象物追尾部24及び動きベクトル検出部25が省略されている。
実施の形態2でも電子式の手ブレ補正機能が採用されている。即ち、撮像装置1の手ブレが相殺されるように、全撮像範囲から切り出す画角の位置が適応的に移動される。実施の形態2では、手ブレを打ち消すための補正ベクトルの強度を調整するためのベクトル強度調整部26が追加される。
ベクトル強度調整部26は、移動量特定部29から補正ベクトルを取得し、距離特定部34から当該対象物までの距離を取得する。ベクトル強度調整部26は、移動量特定部29から取得した補正ベクトルの強度を、距離特定部34から取得した当該対象物までの距離に応じて調整する。ベクトル強度調整部26は、当該対象物までの距離が近いほど補正ベクトルの強度を強く設定し、当該対象物までの距離が遠いほど補正ベクトルの強度を弱く設定する。
例えば、手ブレ量と、撮像部10から対象物までの距離と、当該フレーム内に写った当該対象物の手ブレによる移動量との関係を予めテーブルまたは関数で規定しておく。当該関係は、設計者による実験やシミュレーションに基づき導出されてもよい。ベクトル強度調整部26は、距離特定部34から取得した撮像部10から対象物までの距離をもとに、当該テーブルまたは当該関数を参照して、移動量特定部29から取得した補正ベクトルの強度を調整する。
実施の形態2では切出位置決定部27は、対象物検出部23から注目すべき対象物の位置を取得し、ベクトル強度調整部26から当該対象物の補正ベクトルを取得する。切出位置決定部27は、参照フレーム(例えば、前フレーム)の切り出し位置を、補正ベクトルに従い移動させて、現フレームの切り出し位置を決定する。その際、切出位置決定部27は、対象物と背景の補正ベクトルの強度に応じて、対象物用の切り出し位置と背景用の切り出し位置を別々に決定する。
フレーム内に注目すべき対象物が複数設定されている場合、切出位置決定部27は、注目すべき対象物ごとに切り出し位置を決定する。例えば、フレーム内において第1対象物と、当該第1対象物より奥に位置する第2対象物が注目すべき対象物として検出されている場合、ベクトル強度調整部26は、第1対象物の補正ベクトルの強度を、第2対象物の補正強度より強く設定する。
なお背景の補正ベクトルについては、補正ベクトルの強度を調整せずにそのまま使用してもよいし、ベクトル強度調整部26がその強度を調整してもよい。例えば、距離の区分に応じて全体の背景を複数の背景に分割し、ベクトル強度調整部26は分割された背景ごとに補正ベクトルの強度を調整してもよい。またベクトル強度調整部26は、背景を構成する各物体までの距離の代表値(例えば、平均値、中央値または最頻値)をもとに補正ベクトルの強度を調整してもよい。
図5(a)-(c)は、実施の形態2に係る画像処理装置20による合成画像生成処理の具体例を説明するための図である(その1)。図6(a)-(c)は、実施の形態2に係る画像処理装置20による合成画像生成処理の具体例を説明するための図である(その2)。図7(a)-(b)は、実施の形態2に係る画像処理装置20による合成画像生成処理の具体例を説明するための図である(その3)。
図5(a)に示すように切出位置決定部27はデフォルトで、フレームF0内の中央に切り出し位置C0を設定する。対象物検出部23は、フレームF0内において第1対象物OB1と第2対象物OB2を、注目すべき対象物として検出する。撮像部10から見て第2対象物OB2は第1対象物OB1の奥側に存在し、フレームF0内において第2対象物OB2の一部が第1対象物OB1に隠れている。
図5(b)は、図5(a)に示した状態から、撮像者の手ブレにより撮像部10が右に移動した状態を示している。図5(b)は、電子式の手ブレ補正機能がオフの場合を示している。この場合、切り出し位置C0は変わらず、第1対象物OB1と第2対象物OB2が画角の左側に移動する。
その際、撮像部10が右に移動したことにより視点が右に移動するが、それにより、第1対象物OB1と第2対象物OB2の相対的な位置関係の見え方が変わる。具体的には現フレームF1内において、視点に近い第1対象物OB1のほうが、視点から遠い第2対象物OB1より左に大きく移動する。即ち、手ブレ前の参照フレームF0と比較して現フレームF1では、第1対象物OB1と第2対象物OB2の重なり部分が大きくなり、第2対象物OB2が第1対象物OB1に隠れる部分が大きくなっている。
図5(c)は、電子式の手ブレ補正機能がオンの場合で、かつ参照フレームF0の切り出し位置C0を、手ブレの補正ベクトルに従い単純に左に移動させた場合を示している。切り出し位置C0の移動により、現フレームF1の切り出し位置C0’では、第1対象物OB1と第2対象物OB2が画角の中央に配置される。しかしながら、参照フレームF0と比較して、現フレームF1内の第1対象物OB1と第2対象物OB2の構図が変わっている。
これに対して図6(a)-(c)は、第1対象物OB1、第2対象物OB2、背景の切り出し位置を別々に決定している。図6(a)に示すように切出位置決定部27は、参照フレームF0の切り出し位置C0を、第1対象物OB1の補正ベクトルに従い移動させ、第1対象物OB1用の切り出し位置C1を決定する。図6(b)に示すように切出位置決定部27は、参照フレームF0の切り出し位置C0を、第2対象物OB2の補正ベクトルに従い移動させ、第2対象物OB2用の切り出し位置C2を決定する。図6(c)に示すように切出位置決定部27は、参照フレームF0の切り出し位置C0を、背景の補正ベクトルに従い移動させ、背景用の切り出し位置C3を決定する。
図7(a)に示すように、切出部30は、第1対象物OB1用の切り出し位置C1の画像データから第1対象物OB1の画像データを切り出し、第2対象物OB2用の切り出し位置C2の画像データから第2対象物OB2の画像データを切り出し、背景用の切り出し位置C3の画像データから第1対象物OB1と第2対象物OB2を除く背景の画像データを切り出す。画像合成部31は、切り出された第1対象物OB1の画像データと、切り出された第2対象物OB2の画像データと、切り出された背景の画像データを合成して新たな合成画像Icを生成する。
新たに生成された合成画像Ic内の第1対象物OB1と第2対象物OB2の構図は、参照フレームF0の切り出し位置C0内の第1対象物OB1と第2対象物OB2の構図と同じになる。即ち、撮像部10があたかも動いていなかったかのような、疑似的な視点変換を行うことができる。
現フレームF1から新たに生成された合成画像Ic内の第1対象物OB1と第2対象物OB2の重複部分は、現フレームF1に実際に写った第1対象物OB1と第2対象物OB2の重複部分より少なくなる。したがって、新たに生成された合成画像Icでは、両者の重複部分の差分の領域に画素抜けが発生する。即ち、第1対象物OB1に隠れていた一部の領域が欠陥画素領域Rmになる。
画素補完部32は、この欠陥画素領域Rmの画素を、当該欠陥画素領域Rmに空間的または時間的に近接する少なくとも1つの有効画素をもとに補完する。第1の補完方法として画素補完部32は、現フレームF1において欠陥画素領域Rmに隣接する周辺画素から補完画素を生成する。
例えば画素補完部32は、欠陥画素領域Rm内の各画素に、各画素に最も近接する有効画素と同じ画素を割り当てる。例えば画素補完部32は、欠陥画素領域Rm内の画素に、欠陥画素領域Rmに隣接する複数の有効画素の代表値を割り当ててもよい。なお欠陥画素領域Rm内の画素ごとに、近接する周辺の複数の有効画素を特定し、当該特定の複数の有効画素の代表値を算出してもよい。
例えば画素補完部32は、欠陥画素領域Rmの左右または上下に隣接する有効画素から、その間の欠陥画素領域Rm内の複数の画素を補間してもよい。例えばライン単位で線形補間してもよい。その際、グラデーションを付けて欠陥画素領域Rm内の複数の画素を補間してもよい。グラデーションを付ける場合、複数の画素間の色差は均等でもよいし、各画素間の色差に一定の規則にしたがった変化(例えば、指数関数的な変化)を持たせてもよい。
第2の補完方法として画素補完部32は、現フレームF1と時間的に近接する複数のフレームにおいて、現フレームF1の欠陥画素領域Rmに対応する領域(以下、単に対応領域という)に有効画素が存在するフレームを探索し、探索したフレーム内の対応領域の有効画素をもとに、現フレームF1の欠陥画素領域Rmの画素を補完する。
例えば画素補完部32は、対応領域に有効画素が存在するフレームのうち、現フレームF1に時間的に最も隣接するフレーム内の対応領域の有効画素を、現フレームF1の欠陥画素領域Rmに補完する。例えば画素補完部32は、対応領域に有効画素が存在するフレームのうち、対応領域内の有効画素の代表値が、現フレームF1において欠陥部分がある第2対象物OB2の領域内の画素の代表値と最も近いフレームを特定する。画素補完部32は、特定したフレーム内の対応領域の有効画素を、現フレームF1の欠陥画素領域Rmに補完する。
第3の補完方法として画素補完部32は、現フレームF1において欠陥部分がある第2対象物OB2の本来の形状を推定し、欠陥画素領域Rmを第2対象物OB2の領域と背景の領域に区分し、領域ごとに画素を補完する。
図7(b)に示す例では画素補完部32は、第2対象物OB2の外周と欠陥画素領域Rmの外周が交わる2点間に直線L1を引いている。画素補完部32は、欠陥画素領域Rmにおいて直線L1の左側領域Rm2を第2対象物OB2の領域と推定し、直線L1の右側領域Rm1を背景の領域と推定する。
画素補完部32は、欠陥画素領域Rmの左側領域Rm2内の画素を、第2対象物OB2の有効画素をもとに補完する。その際、参照範囲を第2対象物OB2の有効画素の範囲内とした上で、第1の補完方法を使用することができる。画素補完部32は、欠陥画素領域Rmの右側領域Rm1内の画素を、右側領域Rm1に近接する背景の有効画素をもとに補完する。その際、参照範囲を背景の有効画素の範囲内とした上で、第1の補完方法を使用することができる。
以上説明したように実施の形態2によれば、同一フレーム内において被写体と背景を別々に手ブレ補正する。その際、撮像部10からの距離に応じて、被写体と背景の補正強度を変えることにより、フレーム内の構図を維持しつつ手ブレを補正することができる。また、切り出し位置の移動により画素抜け領域が発生した場合は、空間的または時間的に近接する画素を補完することにより、画像の不自然さを低減することができる。以上により、手ブレが発生したにも関わらず、あたかも撮像装置1が静止しているかのような映像を生成することができる。
図8は、本発明の実施の形態3に係る撮像装置1の構成を示す図である。実施の形態3に係る撮像装置1は、撮像部10、振動検出センサ11、距離検出センサ12及び画像処理装置20を備える。実施の形態3に係る画像処理装置20は、映像取得部21、画像認識部22、対象物検出部23、対象物追尾部24、動きベクトル検出部25、ベクトル強度調整部26、切出位置決定部27、振動情報取得部28、移動量特定部29、切出部30、画像合成部31、画素補完部32、距離情報取得部33及び距離特定部34を備える。
以下、実施の形態1、2との相違点を説明する。実施の形態3では実施の形態1と同様に、被写体追尾機能と電子式の手ブレ補正機能の両方が採用されている。実施の形態3では、ベクトル強度調整部26は、動きベクトル検出部25から注目すべき対象物の動きベクトルを取得し、距離特定部34から当該対象物までの距離を取得する。ベクトル強度調整部26は、動きベクトル検出部25から取得した注目すべき対象物の動きベクトルの強度を、距離特定部34から取得した当該対象物までの距離に応じて調整する。ベクトル強度調整部26は、当該対象物までの距離が近いほど当該対象物の動きベクトルの強度を強く設定し、当該対象物までの距離が遠いほど当該対象物の動きベクトルの強度を弱く設定する。
例えば、対象物の実際の動きによる移動量と、撮像部10から対象物までの距離と、対象物の実際の動きに対するフレーム内における対象物の移動量との関係を予めテーブルまたは関数で規定しておく。当該関係は、設計者による実験やシミュレーションに基づき導出されてもよい。ベクトル強度調整部26は、距離特定部34から取得した撮像部10から対象物までの距離をもとに、当該テーブルまたは当該関数を参照して、動きベクトル検出部25から取得した当該対象物の動きベクトルの強度を調整する。
実施の形態3では、切出位置決定部27は、参照フレームの切り出し位置を、手ブレの補正ベクトルと、ベクトル強度調整部26により調整された対象物の動きベクトルの合成ベクトルに従い移動させ、対象物用の切り出し位置を決定する(図2(b)参照)。以下の処理は実施の形態1と同様である。
上述したように、フレーム内に注目すべき対象物が複数設定される場合がある。その際、複数の対象物が異なる方向に移動している場合がある。その場合、各対象物用の画角を合成した画像内における構図が、実際の構図と大きくずれることがある。そこで、複数の切り出し位置の合成前の総切り出し範囲に制限を加えてもよい。
図9(a)-(c)は、実施の形態1、3に係る画像処理装置20による総切り出し範囲の制限処理の具体例を説明するための図である。図9(a)に示すように切出位置決定部27はデフォルトで、フレームF0内の中央に切り出し位置C0を設定する。対象物検出部23は、フレームF0内において第1対象物OB1と第2対象物OB2を、注目すべき対象物として検出する。対象物追尾部24は、第1対象物OB1と第2対象物OB2の追尾を開始する。図9(a)に示す例では、第1対象物OB1が左方向に移動し、第2対象物OB2が右方向に移動している。また、撮影者の手ブレにより撮像部10が上方向へ移動している。
図9(b)に示すように切出位置決定部27は、現フレームF1において、参照フレームF0の切り出し位置C0を、手ブレの補正ベクトルと第1対象物OB1の動きベクトルの合成ベクトルに従い移動させ、第1対象物OB1用の切り出し位置C1を決定する。同様に切出位置決定部27は、現フレームF1において、参照フレームF0の切り出し位置C0を、手ブレの補正ベクトルと第2対象物OB2の動きベクトルの合成ベクトルに従い移動させ、第2対象物OB2用の切り出し位置C2を決定する。
図9(b)に示す例では、第1対象物OB1用の切り出し位置C1と第2対象物OB2用の切り出し位置C2の合成前の総切り出し範囲の幅W1が広がっている。切り出し位置C1内の第1対象物OB1の画像データと、切り出し位置C2内の第2対象物OB2の画像データと、背景用の切り出し位置(図9(b)には不図示)内の背景データを合成すると、合成画像内の画角に第1対象物OB1と第2対象物OB2の両方が完全に収まる。ただし、第1対象物OB1と第2対象物OB2の位置関係が、実際より近接した画像が生成され、実際の位置関係との乖離が大きくなる。
そこで、総切り出し範囲に制限を設ける。具体的には総切り出し範囲に幅上限Wtと高さ上限Htを設定する。ベクトル強度調整部26は、フレーム内において複数の対象物が検出された場合、総切り出し範囲の制限の収まるように、複数の対象物の少なくとも一つの動きベクトルの強度を調整する。
図9(c)に示す例ではベクトル強度調整部26は、総切り出し範囲の幅上限Wtを満たすように、第2対象物OB2の動きベクトルの強度を弱めている。具体的にはベクトル強度調整部26は、第1対象物OB1用の切り出し位置C1と第2対象物OB2用の切り出し位置C2’の合成前の総切り出し範囲の幅W1’が、総切り出し範囲の幅上限Wtと一致するように、第2対象物OB2の動きベクトルの強度を弱めている。この場合、合成画像内の画角から第2対象物OB2の一部が外れる。
なおベクトル強度調整部26は、第2対象物OB2の動きベクトルの強度ではなく第1対象物OB1の動きベクトルの強度を弱めてもよいし、第1対象物OB1と第2対象物OB2の動きベクトルの両方の強度を弱めてもよい。
動きベクトルの強度を弱める対象物は、優先度の低い対象物であってもよい。優先度は、サイズが大きい対象物ほど高く設定されてもよい。また優先度は、フレーム内で中央に近い対象物ほど高く設定されてもよい。また優先度は、撮像部10からの距離が近い対象物ほど高く設定されてもよい。また優先度は、動きが小さい対象物ほど高く設定されてもよい。またこれらの基準の複数を組み合わせて使用してもよい。
総切り出し範囲の幅上限Wtと高さ上限Htの値は、ユーザが設定変更可能であってもよい。幅上限Wtと高さ上限Htの値を大きく設定するほど、合成画像内の画角に全ての対象物が収まる確率が高くなる。一方、幅上限Wtと高さ上限Htの値を小さく設定するほど、補正の強度が弱くなり、実際の構図からの乖離を低減することができる。
以上説明したように実施の形態3によれば、実施の形態1と実施の形態2の両方の効果を奏する。即ち、画角全体においてブレが抑制され、画角内の構図が自然な映像を生成することができる。なお実施の形態2は、実施の形態3において被写体が静止している場合の例と捉えることもできる。
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上記図9(a)-(c)では、フレーム内に追尾対象とすべき対象物が複数設定される例を説明した。この点、フレーム内で認識された複数の対象物のうち、一つ以上の対象物を追尾対象とすべき対象物に設定し、残りの対象物を追尾対象としない対象物に設定してもよい。その場合において、追尾対象としない対象物は背景として処理される。
上述した実施の形態1-3では、撮影中にリアルタイムに切り出し画角を調整して、合成画像を生成する例を説明した。この点、全撮像範囲の映像データと各フレーム時刻のセンサ情報を記録しておき、撮影終了後に、記録した全撮像範囲の映像データと各フレーム時刻のセンサ情報を読み出し、上述した実施の形態1-3に係る合成画像生成処理を実行してもよい。その場合、撮像装置1内ではなく、別の画像再生装置(例えば、PCやスマートフォン)で合成画像生成処理を実行してもよい。
1 撮像装置、 10 撮像部、 11 振動検出センサ、 12 距離検出センサ、 20 画像処理装置、 21 映像取得部、 22 画像認識部、 23 対象物検出部、 24 対象物追尾部、 25 動きベクトル検出部、 26 ベクトル強度調整部、 27 切出位置決定部、 28 振動情報取得部、 29 移動量特定部、 30 切出部、 31 画像合成部、 32 画素補完部、 33 距離情報取得部、 34 距離特定部。

Claims (5)

  1. 撮像部により撮像された映像を取得する映像取得部と、
    前記撮像部に加わる振動を検出するためのセンサの出力信号、または取得された映像のフレーム間の差分をもとに、前記撮像部に加わる振動に基づく前記撮像部の移動量を特定する移動量特定部と、
    取得された映像のフレーム内から、注目すべき対象物を検出する対象物検出部と、
    距離を計測するためのセンサからの出力信号、またはフレーム内の前記対象物の大きさをもとに、前記撮像部から前記対象物までの距離を特定する距離特定部と、
    前記振動によるブレを打ち消すための補正ベクトルの強度を調整するベクトル強度調整部と、
    取得された映像の各フレームから所定サイズの画像を切り出すための切り出し位置を決定する切出位置決定部であって、前記切り出し位置を前記補正ベクトルに従い移動させ、前記補正ベクトルの強度に応じて、対象物用の切り出し位置と背景用の切り出し位置を別々に決定する切出位置決定部と、
    前記対象物用の切り出し位置から切り出された前記対象物の画像データと、前記背景用の切り出し位置から切り出された前記対象物を除く背景の画像データを合成する画像合成部と、
    を備える画像処理装置。
  2. 前記ベクトル強度調整部は、前記対象物までの距離が近いほど前記補正ベクトルの強度を強く設定する、
    請求項1に記載の画像処理装置。
  3. 前記ベクトル強度調整部は、フレーム内において第1対象物と、当該第1対象物より奥に位置する第2対象物が検出されている場合、前記第1対象物用の切り出し位置を移動させるための前記補正ベクトルの強度を、前記第2対象物用の切り出し位置を移動させるための前記補正ベクトルの強度より強く設定する、
    請求項1または2に記載の画像処理装置。
  4. 前記画像合成部により合成された画像内において、欠陥画素が発生した場合、当該欠陥画素に空間的または時間的に近接する少なくとも1つの有効画素をもとに、前記欠陥画素を補完する画素補完部を、
    さらに備える請求項3に記載の画像処理装置。
  5. 撮像部により撮像された映像を取得する処理と、
    前記撮像部に加わる振動を検出するためのセンサの出力信号、または取得された映像のフレーム間の差分をもとに、前記撮像部に加わる振動に基づく前記撮像部の移動量を特定する処理と、
    取得された映像のフレーム内から、注目すべき対象物を検出する処理と、
    距離を計測するためのセンサからの出力信号、またはフレーム内の前記対象物の大きさをもとに、前記撮像部から前記対象物までの距離を特定する処理と、
    前記振動によるブレを打ち消すための補正ベクトルの強度を調整する処理と、
    取得された映像の各フレームから所定サイズの画像を切り出すための切り出し位置を決定する処理であって、前記切り出し位置を前記補正ベクトルに従い移動させ、前記補正ベクトルの強度に応じて、対象物用の切り出し位置と背景用の切り出し位置を別々に決定する処理と、
    前記対象物用の切り出し位置から切り出された前記対象物の画像データと、前記背景用の切り出し位置から切り出された前記対象物を除く背景の画像データを合成する処理と、
    をコンピュータに実行させる画像処理プログラム。
JP2020156502A 2020-09-17 2020-09-17 画像処理装置、及び画像処理プログラム Active JP7418697B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020156502A JP7418697B2 (ja) 2020-09-17 2020-09-17 画像処理装置、及び画像処理プログラム
PCT/JP2021/020802 WO2022059265A1 (ja) 2020-09-17 2021-06-01 画像処理装置、及び画像処理プログラム
EP21868952.9A EP4216537A4 (en) 2020-09-17 2021-06-01 IMAGE PROCESSING DEVICE AND IMAGE PROCESSING PROGRAM
CN202180048380.4A CN115804101A (zh) 2020-09-17 2021-06-01 图像处理装置以及图像处理程序
US18/182,220 US20230283898A1 (en) 2020-09-17 2023-03-10 Image processing device, image processing method and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020156502A JP7418697B2 (ja) 2020-09-17 2020-09-17 画像処理装置、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2022050099A JP2022050099A (ja) 2022-03-30
JP7418697B2 true JP7418697B2 (ja) 2024-01-22

Family

ID=80775741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020156502A Active JP7418697B2 (ja) 2020-09-17 2020-09-17 画像処理装置、及び画像処理プログラム

Country Status (5)

Country Link
US (1) US20230283898A1 (ja)
EP (1) EP4216537A4 (ja)
JP (1) JP7418697B2 (ja)
CN (1) CN115804101A (ja)
WO (1) WO2022059265A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116193257B (zh) * 2023-04-21 2023-09-22 成都华域天府数字科技有限公司 一种消除手术视频图像画面抖动的方法
CN117690064B (zh) * 2024-02-04 2024-04-16 广东电网有限责任公司广州供电局 输电线路检测方法、装置、电子设备和计算机可读介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007074031A (ja) * 2005-09-02 2007-03-22 Canon Inc 撮像装置、及び、画像処理装置及び方法
JP2009017223A (ja) * 2007-07-04 2009-01-22 Sony Corp 撮影装置、画像処理装置、これらにおける画像処理方法およびプログラム
JP5111088B2 (ja) * 2007-12-14 2012-12-26 三洋電機株式会社 撮像装置及び画像再生装置
JP4832462B2 (ja) * 2008-03-31 2011-12-07 富士通株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP6362473B2 (ja) 2014-08-18 2018-07-25 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、記憶媒体
US11070729B2 (en) * 2018-07-27 2021-07-20 Canon Kabushiki Kaisha Image processing apparatus capable of detecting moving objects, control method thereof, and image capture apparatus

Also Published As

Publication number Publication date
EP4216537A4 (en) 2024-03-20
JP2022050099A (ja) 2022-03-30
CN115804101A (zh) 2023-03-14
WO2022059265A1 (ja) 2022-03-24
US20230283898A1 (en) 2023-09-07
EP4216537A1 (en) 2023-07-26

Similar Documents

Publication Publication Date Title
JP5049300B2 (ja) 障害物検出表示装置
JP6371553B2 (ja) 映像表示装置および映像表示システム
EP2698766B1 (en) Motion estimation device, depth estimation device, and motion estimation method
US20230283898A1 (en) Image processing device, image processing method and non-transitory computer-readable recording medium
US9767545B2 (en) Depth sensor data with real-time processing of scene sensor data
JP5725953B2 (ja) 撮像装置及びその制御方法、並びに情報処理装置
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP7123736B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5325800B2 (ja) 画像処理装置、画像撮影装置、画像表示装置、およびプログラム
CN110245549B (zh) 实时面部和对象操纵
CN107950023B (zh) 车辆用显示装置以及车辆用显示方法
US20160078598A1 (en) Image processor and image processing method
KR101994473B1 (ko) 평면이미지의 리포커싱 방법, 장치 및 기록매체에 저장된 프로그램
KR101726692B1 (ko) 객체 추출 장치 및 방법
JP7418696B2 (ja) 画像処理装置、及び画像処理プログラム
JP2007166442A (ja) 撮像装置
JP6120632B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2007233487A (ja) 歩行者検出方法、装置、およびプログラム
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
WO2018209603A1 (zh) 图像处理方法、图像处理设备及存储介质
JP6344903B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
US20230298182A1 (en) Masking of objects in an image stream
EP3540640A1 (en) Information processing apparatus, system, movable body, method of information processing, and program
JP2021013056A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5854801B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R150 Certificate of patent or registration of utility model

Ref document number: 7418697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150