WO2022201825A1 - 情報処理装置、情報処理方法、及び、情報処理システム - Google Patents

情報処理装置、情報処理方法、及び、情報処理システム Download PDF

Info

Publication number
WO2022201825A1
WO2022201825A1 PCT/JP2022/002503 JP2022002503W WO2022201825A1 WO 2022201825 A1 WO2022201825 A1 WO 2022201825A1 JP 2022002503 W JP2022002503 W JP 2022002503W WO 2022201825 A1 WO2022201825 A1 WO 2022201825A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
information processing
deviation
imaging
imaging direction
Prior art date
Application number
PCT/JP2022/002503
Other languages
English (en)
French (fr)
Inventor
大資 田原
慧 柿谷
浩二 神谷
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2022201825A1 publication Critical patent/WO2022201825A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Abstract

本技術は、所定の機能を備える器具を用いずに、カメラの撮像方向の検出精度を向上させることができるようにする情報処理装置、情報処理方法、及び、情報処理システムに関する。 情報処理装置は、撮像画像の撮像を行う撮像装置により検出され、前記撮像画像に対応付けられている前記撮像装置の撮像方向である第1の撮像方向のズレを、前記撮像画像に基づいて検出するズレ検出部を備える。本技術は、例えば、撮像装置の制御を行うCCU(Camera Control Unit)に適用できる。

Description

情報処理装置、情報処理方法、及び、情報処理システム
 本技術は、情報処理装置、情報処理方法、及び、情報処理システムに関し、特に、カメラの撮像方向の検出精度を向上させるようにした情報処理装置、情報処理方法、及び、情報処理システムに関する。
 従来、カメラが雲台に装着された場合、雲台がパン回転又はチルト回転の基点となるホームポジションの検出動作を含むイニシャル処理を行い、カメラの撮像方向を正確に制御する技術が提案されている(例えば、特許文献1参照)。
特開2007-121575号公報
 しかしながら、特許文献1に記載の発明では、カメラの撮像方向の検出精度を向上させるために所定の機能を備える雲台が必要になる。
 本技術は、このような状況に鑑みてなされたものであり、所定の機能を備える雲台等の器具を用いずに、撮像装置の撮像方向の検出精度を向上させるようにするものである。
 本技術の第1の側面の情報処理装置は、撮像画像の撮像を行う撮像装置により検出され、前記撮像画像に対応付けられている前記撮像装置の撮像方向である第1の撮像方向のズレを、前記撮像画像に基づいて検出するズレ検出部を備える。
 本技術の第1の側面の情報処理方法は、情報処理装置が、撮像画像の撮像を行う撮像装置により検出され、前記撮像画像に対応付けられている前記撮像装置の撮像方向のズレを、前記撮像画像に基づいて検出する。
 本技術の第1の側面においては、撮像画像の撮像を行う撮像装置により検出され、前記撮像画像に対応付けられている前記撮像装置の撮像方向のズレが、前記撮像画像に基づいて検出される。
 本技術の第2の側面の情報処理システムは、撮像画像の撮像を行う撮像装置と、前記撮像装置の制御を行う情報処理装置とを備え、前記撮像装置は、前記撮像装置の撮像方向を検出する撮像方向検出部と、前記撮像方向検出部により検出された前記撮像方向を含むメタデータを生成し、前記メタデータを前記撮像画像に対応付けて前記情報処理装置に出力するメタデータ生成部とを備え、前記情報処理装置は、前記メタデータに含まれる前記撮像方向のズレを、前記撮像画像に基づいて検出するズレ検出部を備える。
 本技術の第2の側面においては、撮像装置の撮像方向が検出され、検出された前記撮像方向を含むメタデータが生成され、前記メタデータが前記撮像画像に対応付けられて前記情報処理装置に出力され、前記メタデータに含まれる前記撮像方向のズレが、前記撮像画像に基づいて検出される。
本技術を適用した情報処理システムの一実施の形態を示すブロック図である。 カメラのCPUの機能構成例を示すブロック図である。 CCUのCPUの機能構成例を示すブロック図である。 CCUの情報処理部の機能構成例を示すブロック図である。 特徴点マップの例を示す図である。 特徴点マップの生成方法を説明するための図である。 カメラの処理を説明するためのフローチャートである。 CCUの処理を説明するためのフローチャートである。 撮像方向ズレ検出処理の詳細を説明するためのフローチャートである。 映像フレームの例を示す図である。 特徴点の検出結果の例を示す図である。 再投影された特徴点の例を示す図である。 コンピュータの構成例を示す図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.カメラの撮像方向の検出方法の例
 2.実施の形態
 3.変形例
 4.その他
 <<1.カメラの撮像方向の検出方法の例>>
 まず、カメラの撮像方向(姿勢)の検出方法の例について説明する。
 例えば、三脚に取り付けられた雲台の角度を計測するエンコーダを内蔵する三脚システムを用いて、カメラの撮像方向を検出し、映像と一緒に伝送する方法がある。
 しかし、この方法では、エンコーダ付きの三脚システムが必要になる。
 例えば、カメラに内蔵されたジャイロセンサにより角速度を検出し、検出した角速度に基づいて角度の変化量を算出し、所定の基準方向を基準にして、角度の変化量を累積計算することにより、カメラの撮像方向を検出する方法がある。
 しかし、この方法では、いわゆる「ドリフト」と呼ばれる現象が発生する。すなわち、ノイズ等によるジャイロセンサの誤差が蓄積されることにより、カメラの撮像方向の検出結果が徐々にずれていく現象が発生する。この撮像方向のズレは、実質的に基準方向のズレとみなすことができる。
 例えば、カメラ本体の動き、並びに、レンズのフォーカスリング及びズームリングの動きを検出する外付けシステムを用いる方法がある。
 具体的には、例えば、天井に貼付した専用マーカ、外部の広角カメラ、及び広角カメラにより撮影した専用マーカの位置をカメラの姿勢情報へ変換する映像処理システムを用いる方法がある。
 例えば、VR(Virtual Reality)用のヘッドマウントディスプレイ・コントローラの赤外カメラシステムをカメラに装着して、赤外カメラシステムの動き情報に基づいて、カメラの撮像方向を算出する方法がある。
 例えば、LiDAR(Light Detection and Ranging)や複眼カメラシステムを用いた測位システム(例えば、Intel RealSenseカメラ)をカメラに装着する方法がある。
 しかし、これらの外付けシステムを用いる場合、専門技術が必要になるとともに、外付けシステムの設置や調整といった煩雑な作業が必要になる。
 また、適用可能な範囲が制約される。例えば、専用マーカを用いる場合、適用可能な範囲が、専用マーカを貼付することが可能な天井や地面を有する空間に限定される。例えば、赤外カメラシステムを用いる場合、赤外カメラの撮像範囲の制約により、適用可能な範囲が部屋サイズ程度の空間に限定される。例えば、測距システムを用いる場合、アクティブ測距やステレオ測距に伴う距離の制約が生じる。
 例えば、画像処理とジャイロセンサを組み合わせた技術であるVisual Inertial OdometryやVisual Inertial SLAMを用いる方法がある。
 しかし、例えば、放送コンテンツ、特にスポーツ中継等においては、ズームレンズを用いたズーム操作が多用されたり、放送用の映像に選択されていないカメラが素早くパンニングされたりする。そのため、撮像範囲が頻繁かつ高速に変化する。また、スポーツ選手や演者を大写しにして、周囲をぼかすような寄りのシーンが撮像される。このようなカメラの操作や映像の特殊性から、Visual Inertial OdometryやVisual Inertial SLAMを直接適用することは困難である。
 <<2.実施の形態>>
 次に、図1乃至図12を参照して、本技術の実施の形態について説明する。
  <情報処理システムの構成例>
 図1は、本技術を適用した情報処理システム1一実施の形態を示すブロック図である。
 情報処理システム1は、カメラ11、三脚12、雲台13、カメラケーブル14、及び、CCU(Camera Control Unit)15を備える。カメラ11は、三脚12に取り付けられた雲台13の上に、パン方向、チルト方向、及び、ロール方向に回転し、並進方向に移動しないように設置されている。ここでCCU15とは、カメラ11の制御を行ったり、カメラ11で撮像した映像の処理を行ったりする外部装置のことであり、カメラ11とCCU15とは、カメラケーブル14により接続されている。また、カメラ11とCCU15とは、必ずしも物理的なケーブルで接続する必要はなく、例えば、無線通信により接続してもよい。
 カメラ11は、本体部21及びレンズ22を備える。レンズ22は、本体部21に装着されている。本体部21は、信号処理部31、モーションセンサ32、及び、CPU33を備える。
 レンズ22は、レンズ22に関するレンズ情報をCPU33に供給する。レンズ情報は、例えば、焦点距離、合焦距離、及び、アイリス値等のレンズ22の制御値や仕様等を含む。
 信号処理部31は、CCU15の信号処理部51と映像信号処理を分担して行う。例えば、信号処理部31は、イメージセンサ(不図示)がレンズ22を介して被写体を撮像することにより得られる映像信号に対して所定の信号処理を行い、イメージセンサにより撮像された撮像画像からなる映像フレームを生成する。信号処理部31は、カメラケーブル14を介して、CCU15の信号処理部51に映像フレームを出力する。
 モーションセンサ32は、例えば、角速度センサ及び加速度センサを備え、カメラ11の角速度及び加速度を検出する。モーションセンサ32は、カメラ11の角速度及び加速度の検出結果を示すデータをCPU33に供給する。
 CPU33は、カメラ11の各部の処理を制御する。例えば、CPU33は、CCU15から入力される制御信号に基づいて、カメラ11の制御値を変更したり、制御値に関する情報を図示せぬビューファインダに表示したりする。
 CPU33は、カメラ11の角速度の検出結果に基づいて、カメラ11の姿勢(パン角、チルト角、ロール角)、すなわち、カメラ11の撮像方向を検出する。例えば、CPU33は、事前に基準方向を設定し、基準方向を基準にして、カメラ11の向き(角度)の変化量を累積計算(積算)することにより、カメラ11の撮像方向(姿勢)を検出する。なお、CPU33は、必要に応じてカメラ11の加速度の検出結果も用いて、カメラ11の撮像方向を検出する。
 ここで、カメラ11の基準方向とは、カメラ11のパン角、チルト角、及び、ロール角を0度とする方向である。CPU33は、後述するように、CCU15から出力される補正データに基づいて、内部に保持している基準方向を補正する。
 CPU33は、カメラ11の撮像方向を含む情報(以下、撮像方向情報と称する)及びレンズ情報を含むカメラメタデータを生成する。CPU33は、カメラケーブル14を介して、カメラメタデータをCCU15のCPU52に出力する。
 CCU15は、信号処理部51、CPU52、情報処理部53、及び、出力部54を備える。
 信号処理部51は、カメラ11の信号処理部31により生成された映像フレームに対して、所定の映像信号処理を行う。信号処理部51は、映像信号処理後の映像フレームを情報処理部53及び出力部54に供給する。
 CPU52は、カメラ11の各部の処理を制御する。CPU52は、カメラ11から取得したカメラメタデータを情報処理部53に供給する。CPU52は、カメラメタデータに基づいて、出力信号に埋め込むための付帯メタデータを生成し、出力部54に供給する。CPU52は、情報処理部53から供給される基準方向の補正値(オフセット値)及びその信頼度を示すデータに基づいて、カメラ11の基準方向を補正するための補正データを生成する。CPU52は、カメラケーブル14を介して、補正データをカメラ11に出力する。
 情報処理部53は、映像フレームに対して、コンピュータビジョン、AI(Artificial Intelligence)、機械学習等を用いた各種の認識処理を行う。例えば、情報処理部53は、映像フレーム及びカメラメタデータに基づいて、カメラ11により検出された撮像方向のズレ(誤差)を検出する。情報処理部53は、検出した撮像方向のズレに基づいて、基準方向の補正値を算出するとともに、基準方向の補正値の信頼度を算出する。情報処理部53は、基準方向の補正値及びその信頼度を示すデータをCPU52に供給する。
 出力部54は、所定の形式の出力信号(例えば、SDI(Serial Digital Interface)信号)に、映像フレーム及び付帯メタデータを配置して、後段の装置に出力する。
 なお、以下、カメラ11とCCU15との間の信号やデータの伝送処理において、カメラケーブル14の記載を適宜省略する。例えば、カメラ11が、カメラケーブル14を介して、映像フレームをCCU15に出力する場合、カメラケーブル14の記載を省略して、単にカメラ11が映像フレームをCCU15に出力すると記載する場合がある。
  <CPU33の機能構成例>
 図2は、カメラ11のCPU33により実現される機能の構成例を示している。例えば、CPU33が所定の制御プログラムを実行することにより、制御部71、撮像方向検出部72、及び、カメラメタデータ生成部73を含む機能が実現される。
 制御部71は、カメラ11の各部の処理の制御を行う。
 撮像方向検出部72は、モーションセンサ32によるカメラ11の角速度の検出結果に基づいて、カメラ11の撮像方向を検出する。なお、撮像方向検出部72は、必要に応じて、カメラ11の加速度の検出結果も用いる。また、撮像方向検出部72は、CCU15から出力される補正データに基づいて、カメラ11の基準方向を補正する。
 カメラメタデータ生成部73は、カメラ11の撮像方向情報及びレンズ情報を含むカメラメタデータを生成する。カメラメタデータ生成部73は、カメラメタデータをCCU15のCPU52に出力する。
  <CPU52の機能構成例>
 図3は、CCU15のCPU52により実現される機能の構成例を示している。例えば、CPU52が所定の制御プログラムを実行することにより、制御部101、補正データ生成部102、及び、付帯メタデータ生成部103を含む機能が実現される。
 制御部101は、CCU15の各部の処理の制御を行う。
 補正データ生成部102は、情報処理部53から供給されるカメラ11の基準方向の補正値に基づいて、補正データを生成する。補正データ生成部102は、補正データをカメラ11のCPU33に出力する。
 付帯メタデータ生成部103は、カメラ11から取得したカメラメタデータに基づいて、付帯メタデータを生成する。付帯メタデータ生成部103は、付帯メタデータを出力部54に供給する。
  <情報処理部53の構成例>
 図4は、CCU15の情報処理部53の構成例を示している。情報処理部53は、特徴点検出部131、被写体・領域認識部132、特徴点選択部133、バッファ134、カメラ状態判定部135、映像状態判定部136、カメラ投影情報生成部137、再投影部138、特徴点マッチング部139、ズレ検出部140、カメラ投影情報生成部141、特徴点マップ更新部142、及び、特徴点マップ記憶部143を備える。
 特徴点検出部131は、信号処理部51から供給される映像フレームの特徴点を検出し、検出した各特徴点の特徴量ベクトルを算出する。特徴点検出部131は、検出した各特徴点の位置及び特徴量ベクトルを示すデータを特徴点選択部133及び映像状態判定部136に供給する。
 被写体・領域認識部132は、信号処理部51から供給される映像フレームの被写体及び領域の認識処理を行う。被写体・領域認識部132は、映像フレームの被写体及び領域の認識結果を示すデータを特徴点選択部133及び映像状態判定部136に供給する。
 特徴点選択部133は、映像フレームの被写体及び領域の認識結果に基づいて、特徴点検出部131により検出された特徴点の中から、特徴点マッチングに用いる特徴点を選択する。特徴点選択部133は、選択した各特徴点の位置及び特徴量ベクトルを示すデータを特徴点マッチング部139に供給する。
 バッファ134は、CPU52から供給されるカメラメタデータを一時的に記憶する。ここで、映像フレームの画像処理(特徴点の検出、被写体認識、領域認識、特徴点マッチング、及び、撮像方向のズレの検出)には、ある程度の時間を要する。バッファ134は、カメラメタデータの出力を映像フレームの画像処理に要する時間分だけ遅延させて、映像フレームと同期させるために用いられる。
 カメラ状態判定部135は、バッファ134に記憶されているカメラメタデータに含まれる撮像方向情報及びレンズ情報に基づいて、カメラ11の状態を判定する。すなわち、カメラ状態判定部135は、映像フレームの撮像時のカメラ11の状態が、撮像方向のズレの検出に適した状態であったか否かを判定する。カメラ状態判定部135は、判定結果を示すカメラ状態フラグを映像状態判定部136に供給する。
 映像状態判定部136は、特徴点の検出結果、並びに、被写体及び領域の認識結果に基づいて、映像フレームの状態を判定する。すなわち、映像状態判定部136は、映像フレームが撮像方向のズレの検出に適した状態であるか否かを判定する。映像状態判定部136は、判定結果を示す映像状態フラグ、及び、カメラ状態判定部135から取得したカメラ状態フラグを特徴点マッチング部139に供給する。
 カメラ投影情報生成部137は、バッファ134に記憶されている撮像方向情報及びレンズ情報に基づいて、特徴点マップ記憶部143に記憶されている特徴点マップの特徴点を、カメラ11の視野に再投影するためのカメラ投影情報を生成する。カメラ投影情報生成部137は、カメラ投影情報を再投影部138に供給する。
 再投影部138は、カメラ投影情報生成部137により生成されたカメラ投影情報に基づいて、特徴点マップ記憶部143に記憶されている特徴点マップの特徴点をカメラ11の視野に再投影する。再投影部138は、再投影した特徴点の位置及び特徴量ベクトルを示すデータを特徴点マッチング部139に供給する。
 特徴点マッチング部139は、カメラ状態フラグ及び映像状態フラグに基づいて、撮像方向のズレの検出が可能であるか否かを判定する。特徴点マッチング部139は、撮像方向のズレの検出が可能であると判定した場合、映像フレームから検出された特徴点群(以下、検出特徴点群と称する)と、特徴点マップから再投影された特徴点群(以下、再投影特徴点群と称する)とのマッチングを行う。特徴点マッチング部139は、特徴点マッチングの結果を示すデータをズレ検出部140及び特徴点マップ更新部142に供給する。
 ズレ検出部140は、検出特徴点群と再投影特徴点群とのマッチング結果に基づいて、カメラ11により検出された撮像方向のズレ(誤差)を検出するとともに、ズレが補正されたカメラ11の撮像方向を検出する。また、ズレ検出部140は、検出した撮像方向のズレに基づいて、カメラ11の基準方向の補正値を算出する。さらに、ズレ検出部140は、映像フレームの特徴点の検出結果、及び、特徴点マッチングの結果等のうち1つ以上に基づいて、基準方向の補正値の信頼度を算出する。
 ズレ検出部140は、検出したカメラ11の撮像方向を示すデータをカメラ投影情報生成部141に供給する。ズレ検出部140は、カメラ11の基準方向の補正値及びその信頼度を示すデータをCPU52に供給する。
 カメラ投影情報生成部141は、カメラ11のレンズ情報をバッファ134から取得する。カメラ投影情報生成部141は、ズレ検出部140により検出されたカメラ11の撮像方向、及び、取得したレンズ情報に基づいて、カメラ投影情報を生成する。カメラ投影情報生成部141は、生成したカメラ投影情報を特徴点マップ更新部142に供給する。
 特徴点マップ更新部142は、特徴点マッチングの結果、及び、カメラ投影情報生成部141により生成されたカメラ投影情報に基づいて、カメラ11の周囲の特徴点の分布を示す特徴点マップを生成及び更新する。特徴点マップ更新部142は、特徴点マップを特徴点マップ記憶部143に記憶させる。
 ここで、図5及び図6を参照して、特徴点マップの例について説明する。
 図5は、特徴点マップの例を示している。図内のバツ印は、特徴点の位置を示している。
 例えば、特徴点マップ更新部142は、カメラ11の周囲を撮像した映像フレームの特徴点の検出結果を繋ぎ合わせることにより、カメラ11の周囲のシーンの特徴点の位置及び特徴量ベクトルを示す特徴点マップを生成及び更新する。この特徴点マップでは、特徴点の位置が、例えば、カメラ11の基準方向を基準とする方向、及び、奥行方向の距離により表される。
 ここで、上述したように、情報処理システム1では、カメラ11が並進方向に移動しないように設置されている。すなわち、カメラ11の移動に、回転成分のみが含まれ、並進成分が含まれない。従って、特徴点マップ更新部142は、奥行方向の距離を用いずに、特徴点マップを生成及び更新することが可能になる。
 具体的には、例えば、特徴点マップ更新部142は、図6のA及びBに示されるように、カメラ11の光学中心P1を中心にして、イメージセンサ201上の特徴点を放射状に3次元の球面S1上に投影した特徴点マップを生成及び更新する。この特徴点マップでは、例えば、特徴点の位置が球面S1上の位置(緯度及び経度)のみで表され、奥行方向の距離が不要となる。これにより、特徴点マップの管理が容易になる。
  <情報処理システム1の処理>
 次に、情報処理システム1の処理について説明する。
   <カメラ11の処理>
 まず、図7のフローチャートを参照して、カメラ11の処理について説明する。
 この処理は、例えば、カメラ11に対して撮像を開始する操作が行われたとき開始される。
 ステップS1において、カメラ11は、撮像及び撮像方向の検出処理を開始する。
 具体的には、イメージセンサ201は、撮像を行い、得られた映像信号を信号処理部31に供給する処理を開始する。
 信号処理部31は、イメージセンサ201から供給される映像信号に対して所定の映像信号処理を行い、映像フレームを生成する処理を開始する。
 モーションセンサ32は、カメラ11の角速度及び加速度を検出し、検出結果を示すデータをCPU33に供給する処理を開始する。
 撮像方向検出部72は、カメラ11の基準方向を設定し、メモリ(不図示)に記憶させる。そして、撮像方向検出部72は、カメラ11の角速度の検出結果に基づいて、カメラ11の向きの変化量を累積計算することにより、カメラ11の基準方向に対するパン角、チルト角、及び、ロール角を計算する処理を開始する。
 レンズ22は、CPU33へのレンズ情報の供給を開始する。上述したように、レンズ情報は、例えば、レンズ22の焦点距離、合焦距離、及び、アイリス値を含む。
 ステップS2において、カメラ11は、映像フレーム及びカメラメタデータの出力を開始する。
 具体的には、信号処理部31は、CCU15に映像フレームを出力する処理を開始する。
 カメラメタデータ生成部73は、カメラ11の撮像方向情報及びレンズ情報を含むカメラメタデータを生成する処理を開始する。また、カメラメタデータ生成部73は、信号処理部31による映像フレームの出力に同期して、CCU15にカメラメタデータを出力する処理を開始する。これにより、映像フレームと、映像フレームの撮像時刻付近のカメラ11の撮像方向情報及びレンズ情報を含むカメラメタデータとが対応付けられる。
 ステップS3において、撮像方向検出部72は、基準方向を補正する条件を満たしたか否かを判定する。
 ここで、後述するCCU15による撮像方向のズレの検出処理は、ある程度の時間を要する。従って、撮像方向のズレの検出処理の周期は、カメラ11の撮像周期(フレーム周期)より長くなる。換言すれば、撮像方向のズレの検出頻度(例えば、10Hz)は、カメラ11のフレームレート(例えば、60Hz)より小さくなる。また、後述するように、CCU15は、カメラ11により検出される撮像方向のズレが所定の閾値以上になった場合に、補正データを生成し、出力する。そのため、カメラ11により検出される撮像方向のズレが生じてから、その撮像方向のズレに基づく補正データがカメラ11に入力されるまでの間に、ある程度の時間差が生じる。
 従って、例えば、撮像方向検出部72が、CCU15から補正データを取得してすぐに基準方向を補正した場合、撮像方向が急激に変化し、映像を見るユーザ(例えば、VE(Video Engineer等)に不自然な印象を与える恐れがある。
 これに対して、撮像方向検出部72は、CCU15から補正データを取得しても、所定の条件を満たすまで、基準方向を補正しない。例えば、撮像方向検出部72は、カメラ11の撮像方向の移動速度(例えば、パン角及びチルト角のうち少なくとも一方の変化速度)が、所定の閾値以上であり、かつ、未使用の補正データを保持している場合、基準方向を補正する条件を満たしたと判定し、処理はステップS4に進む。
 ステップS4において、撮像方向検出部72は、補正データに基づいて、基準方向を補正する。
 このとき、撮像方向検出部72は、例えば、αブレンド(IIR(Infinite impulse response)処理)を用いて、複数回に分けて連続的に基準方向を補正する。これにより、基準方向が徐々に滑らかに変化するようになり、ステップS3の判定処理とあわせて、画角が不連続に変化し、映像を見るユーザに不自然な印象を与えることを防止する効果が生じる。
 その後、処理はステップS5に進む。
 一方、ステップS3において、撮像方向検出部72は、例えば、カメラ11の撮像方向の移動速度が所定の閾値未満である場合、又は、未使用の補正データを保持していない場合、基準方向を補正する条件を満たしていないと判定し、ステップS4の処理はスキップされ、処理はステップS5に進む。
 ステップS5において、制御部71は、撮像の停止が指示されたか否かを判定する。撮像の停止が指示されていないと判定された場合、処理はステップS3に戻る。
 その後、ステップS5において、撮像の停止が指示されたと判定されるまで、ステップS3乃至ステップS5の処理が繰り返し実行される。
 一方、ステップS5において、撮像の停止が指示されたと判定された場合、カメラ11の処理は終了する。
   <CCU15の処理>
 次に、図8のフローチャートを参照して、図7のカメラ11の処理に対応して実行されるCCU15の処理について説明する。
 この処理は、例えば、カメラ11からの映像フレーム及びカメラメタデータの出力が開始されたとき開始される。
 ステップS51において、CCU15は、映像フレーム及び付帯メタデータの出力を開始する。
 具体的には、信号処理部51は、カメラ11から取得した映像フレームに対する所定の映像信号処理を開始する。また、信号処理部51は、映像信号処理を行った映像フレームを情報処理部53の特徴点検出部131及び被写体・領域認識部132、並びに、出力部54に供給する処理を開始する。
 付帯メタデータ生成部103は、カメラ11から取得したカメラメタデータを整形することにより、付帯メタデータを生成する処理を開始する。そして、付帯メタデータ生成部103は、信号処理部51から出力部54に映像フレームが供給されるのに同期して、付帯メタデータを出力部54に供給する処理を開始する。これにより、映像フレームと、映像フレームの撮像時刻付近のカメラ11の撮像方向及びレンズ22の状態を示す付帯メタデータが同期して、出力部54に供給される。また、付帯メタデータ生成部103は、カメラ11から取得したカメラメタデータを、情報処理部53のバッファ134に蓄積する処理を開始する。
 出力部54は、所定の形式の出力信号に映像フレーム及び付帯メタデータを配置し、後段の装置に出力する処理を開始する。これにより、映像フレームと、映像フレームの撮影時刻付近のカメラ11の撮像方向及びレンズ22の状態を示す付帯メタデータとが、出力信号に埋め込まれ、互いに対応付けられる。
 ステップS52において、情報処理部53は、撮像方向ズレ検出処理を開始する。撮像方向ズレ検出処理の詳細は後述するが、情報処理部53は、映像フレーム及びカメラメタデータに基づいて、カメラ11により検出された撮像方向のズレを検出する処理を開始する。また、情報処理部53は、検出した撮像方向のズレを補正するための基準方向の補正値、及び、その信頼度を算出し、CPU52に供給する処理を開始する。基準方向の補正値は、例えば、基準方向のパン角、チルト角、及び、ロール角のそれぞれの方向の補正値を含む。
 ステップS53において、補正データ生成部102は、基準方向の補正値が算出されたか否かを判定する。補正データ生成部102は、情報処理部53から基準方向の補正値及びその信頼度を示すデータが供給された場合、基準方向の補正値が算出されたと判定し、処理はステップS54に進む。
 ステップS54において、補正データ生成部102は、基準方向の補正値が所定の条件を満たしているか否かを判定する。例えば、補正データ生成部102は、基準方向の補正値に基づいて、基準方向の補正量を算出する。基準方向の補正量は、補正前の基準方向と補正後の基準方向との間の回転角の大きさにより表される。補正データ生成部102は、基準方向の補正量が所定の閾値以上、かつ、基準方向の補正値の信頼度が所定の閾値以上である場合、基準方向の補正値が所定の条件を満たしていると判定し、処理はステップS55に進む。
 ステップS55において、補正データ生成部102は、基準方向の補正データを出力する。具体的には、補正データ生成部102は、基準方向の補正値に基づいて(間接的に、検出された撮像方向のズレに基づいて)、補正データを生成する。補正データは、例えば、カメラ11の基準方向のパン角、チルト角、及び、ロール角の各方向の補正値を含む。補正データ生成部102は、補正データをカメラ11に出力する。
 その後、処理はステップS56に進む。
 一方、ステップS54において、例えば、補正データ生成部102は、基準方向の補正量が所定の閾値未満、又は、基準方向の補正値の信頼度が所定の閾値未満である場合、基準方向の補正値が所定の条件を満たしていないと判定する。そして、ステップS55の処理はスキップされ、処理はステップS56に進む。
 すなわち、この場合、基準方向の補正データは、カメラ11に出力されない。これにより、基準方向が小刻みに補正されたり、補正後の基準方向に誤差が生じたりすることが防止される。
 また、ステップS53において、基準方向の補正値が算出されていないと判定された場合、ステップS54及びステップS55の処理はスキップされ、処理はステップS56に進む。
 ステップS56において、制御部101は、カメラ11の撮像が停止されたか否かを判定する。カメラ11の撮像が停止されていないと判定された場合、処理はステップS53に戻る。
 その後、ステップS56において、カメラ11の撮像が停止されたと判定されるまで、ステップS53乃至ステップS56の処理が繰り返し実行される。
 一方、ステップS56において、制御部101は、カメラ11からの映像フレーム及びカメラメタデータの出力が停止した場合、カメラ11の撮像が停止されたと判定し、CCU15の処理は終了する。
   <撮像方向ズレ検出処理>
 次に、図9のフローチャートを参照して、撮像方向ズレ検出処理の詳細について説明する。
 ステップS101において、特徴点検出部131は、特徴点を検出する。具体的には、特徴点検出部131は、所定の方法により、信号処理部51から供給された映像フレーム(以下、現在の映像フレームとも称する)の特徴点を検出し、検出した各特徴点の特徴量ベクトルを算出する。特徴点検出部131は、各特徴点の画像フレーム内の位置及び特徴量ベクトルを示すデータを特徴点選択部133及び映像状態判定部136に供給する。
 なお、特徴点の検出方法は、特に限定されない。例えば、ORB(Oriented FAST and Rotated BRIEF)、AKAZE、又は、Deep Learningを用いた方法(例えば、LF-Net等)等が用いられる。
 ステップS102において、被写体・領域認識部132は、被写体及び領域の認識処理を行う。例えば、被写体・領域認識部132は、映像フレームに対してオブジェクト検出及びセマンティックセグメンテーションを行い、映像フレーム内の被写体の位置、及び、映像フレーム内の各領域の種別(セマンティックラベル)を認識する。被写体・領域認識部132は、映像フレームの被写体及び領域の認識結果を示すデータを特徴点選択部133及び映像状態判定部136に供給する。
 なお、オブジェクト検出及びセマンティックセグメンテーションの方法は、特に限定されない。例えば、オブジェクト検出には、Faster R-CNN、YOLO等が用いられる。例えば、セマンティックセグメンテーションには、Mask R-CNN等が用いられる。
 ステップS103において、特徴点選択部133は、特徴点を選択する。具体的には、特徴点選択部133は、映像フレームの被写体及び領域の認識結果に基づいて、特徴点検出部131により検出された映像フレームの特徴点のうち、特徴点マッチングに用いる特徴点を選択する。例えば、特徴点選択部133は、検出された特徴点から、動物体の領域内に存在する特徴点を削除する。これにより、特徴点マッチングに用いる特徴点が選択される。
 ここで、動物体には、例えば、人、車両、ボール等の動いている物体だけでなく、動く可能性がある物体も含まれる。動く可能性がある物体としては、例えば、一時的に静止している動物体等が想定される。
 特徴点選択部133は、選択した各特徴点の映像フレーム内の位置及び特徴量ベクトルを示すデータを特徴点マッチング部139に供給する。
 ステップS104において、カメラ投影情報生成部137は、カメラ11により検出された撮像方向に基づいて、カメラ投影情報を生成する。具体的には、カメラ投影情報生成部137は、現在の映像フレームに対応する撮像方向情報及びレンズ情報をバッファ134から取得する。カメラ投影情報生成部141は、撮像方向情報に示されるカメラ11の撮像方向、及び、レンズ情報に示されるレンズ22の焦点距離(すなわち、画角)に基づいて、カメラ投影情報としてカメラ投影行列を生成する。
 カメラ投影行列は、球面S1上の特徴点をカメラ11の視野に投影するための行列である。すなわち、カメラ投影行列は、特徴点マップの座標系(以下、球面座標系と称する)を映像フレームの座標系(以下、画像座標系と称する)に変換する行列である。カメラ投影情報生成部137は、生成したカメラ投影行列を再投影部138に供給する。
 ステップS105において、再投影部138は、特徴点マップの特徴点を再投影する。例えば、再投影部138は、カメラ投影行例を用いて、特徴点マップの特徴点を、カメラ11により検出された撮像方向、及び、レンズ22の焦点距離に基づく画角により規定されるカメラ11の視野に投影する。これにより、当該視野(カメラ11により検出された撮像方向)に対応する映像フレーム内の特徴点が抽出され、画像座標系に配置される。再投影部138は、抽出した特徴点の画像座標系における位置及び特徴量ベクトルを示すデータを特徴点マッチング部139に供給する。
 ステップS106において、カメラ状態判定部135は、カメラ11の状態を判定する。具体的には、カメラ状態判定部135は、現在の映像フレームに対応するカメラ11の撮像方向情報及びレンズ情報を、バッファ134から取得する。カメラ状態判定部135は、撮像方向情報及びレンズ情報に基づいて、カメラ11が撮像方向のズレの検出処理に適した状態であるか否かを判定する。
 例えば、カメラ状態判定部135は、撮像方向情報に基づいて、カメラ11の撮像方向の移動速度(回転速度)を算出する。カメラ状態判定部135は、カメラ11の撮像方向の移動速度が所定の閾値未満である場合、カメラ11が撮像方向のズレの検出処理に適した状態であると判定する。一方、カメラ状態判定部135は、カメラ11の撮像方向の移動速度が所定の閾値以上である場合、カメラ11が撮像方向のズレの検出処理に適した状態でないと判定する。これは、カメラ11の撮像方向の移動速度が速い場合、映像フレームのボケが生じ、特徴点の検出精度が低下するおそれがあるからである。
 例えば、カメラ状態判定部135は、レンズ情報に基づいて、カメラ11のズームを変更中であるか否かを判定する。カメラ状態判定部135は、カメラ11のズームを変更中でない場合、カメラ11が撮像方向のズレの検出処理に適した状態であると判定する。一方、カメラ状態判定部135は、カメラ11のズームを変更中である場合、カメラ11が撮像方向のズレの検出処理に適した状態でないと判定する。これは、カメラ11のズームを変更中の場合、映像フレームが放射状にぶれ、特徴点の検出精度が低下するおそれがあるからである。
 例えば、カメラ状態判定部135は、レンズ情報に基づいて、カメラ11のフォーカスを変更中であるか否かを判定する。カメラ状態判定部135は、カメラ11のフォーカスを変更中でない場合、カメラ11が撮像方向のズレの検出処理に適した状態であると判定する。一方、カメラ状態判定部135は、カメラ11のフォーカスを変更中である場合、カメラ11が撮像方向のズレの検出処理に適した状態でないと判定する。これは、カメラ11のフォーカスを変更中の場合、映像フレームの特徴点の位置が変化し、特徴点の検出精度が低下するおそれがあるからである。
 例えば、カメラ状態判定部135は、レンズ情報に基づいて、カメラ11のアイリスを変更中であるか否かを判定する。カメラ状態判定部135は、カメラ11のアイリスを変更中でない場合、カメラ11が撮像方向のズレの検出処理に適した状態であると判定する。一方、カメラ状態判定部135は、カメラ11のアイリスを変更中である場合、カメラ11が撮像方向のズレの検出処理に適した状態でないと判定する。これは、カメラ11のアイリスを変更中の場合、映像フレームの背景がぼけ、特徴点の検出精度が低下するおそれがあるからである。
 例えば、カメラ状態判定部135は、レンズ情報に基づいて、カメラ11の焦点距離を検出する。カメラ状態判定部135は、カメラ11の焦点距離が所定の閾値未満である場合、すなわち、カメラ11の画角のサイズが所定の閾値以上である場合、カメラ11が撮像方向のズレの検出処理に適した状態であると判定する。一方、カメラ状態判定部135は、カメラ11の焦点距離が所定の閾値以上である場合、すなわち、カメラ11の画角のサイズが所定の閾値未満である場合、カメラ11が撮像方向のズレの検出処理に適した状態でないと判定する。これは、映像フレームが大写しの場合(画角が狭い場合)、特徴点の誤検出が発生しやすくなるからである。
 例えば、カメラ状態判定部135は、レンズ情報に示されるレンズ22の焦点距離、合焦距離、及び、アイリス値に基づいて、カメラ11の後方被写界深度を計算する。カメラ状態判定部135は、カメラ11の後方被写界深度が所定の閾値以上である場合、カメラ11が撮像方向のズレの検出処理に適した状態でないと判定する。一方、カメラ状態判定部135は、カメラ11の後方被写界深度が所定の閾値未満である場合、カメラ11が撮像方向のズレの検出処理に適した状態でないと判定する。これは、後方被写界深度が小さい場合、映像フレームの背景のボケが強くて、特徴点の検出精度が低下するおそれがあるためである。
 例えば、カメラ状態判定部135は、全ての条件で、カメラ11が撮像方向のズレの検出処理に適した状態であると判定した場合、カメラ11が撮像方向の検出処理に適した状態であることを示すカメラ状態フラグを生成する。一方、カメラ状態判定部135は、少なくとも1つの条件で、カメラ11が撮像方向のズレの検出処理に適した状態でないと判定した場合、カメラ11が撮像方向の検出処理に適した状態でないことを示すカメラ状態フラグを生成する。カメラ状態判定部135は、カメラ状態フラグを映像状態判定部136に供給する。
 ステップS107において、映像状態判定部136は、映像フレームの状態を判定する。具体的には、映像状態判定部136は、映像フレームの被写体及び領域の認識結果、並びに、特徴点の検出結果に基づいて、映像フレームが撮像方向のズレの検出処理に適した状態であるか否かを判定する。
 例えば、映像状態判定部136は、映像フレーム内の特徴点の分布を検出する。例えば、映像状態判定部136は、特徴点検出部131により検出された特徴点群の包絡ポリラインを生成し、包絡ポリラインにより囲まれる領域(以下、包絡領域と称する)の面積を計算する。映像状態判定部136は、映像フレームにおける包絡領域の面積の比率が所定の閾値以上である場合、映像フレームが撮像方向のズレの検出処理に適した状態であると判定する。一方、映像状態判定部136は、映像フレームにおける包絡領域の面積の比率が所定の閾値未満である場合、映像フレームが撮像方向のズレの検出処理に適した状態でないと判定する。これは、映像フレームの特徴点の分布が偏っており、特徴点マッチングの精度が低下するおそれがあるためである。
 例えば、図10に示されるように、映像フレーム内において空が大部分を占めている場合、特徴点の分布が偏り、かつ、特徴点の数も少なくなり、特徴点マッチングの精度が低下するおそれがある。従って、この映像フレームは、撮像方向のズレの検出処理に適した状態でないと判定される。
 例えば、映像状態判定部136は、映像フレームにおいて動物体が存在する領域(以下、動物体領域と称する)の面積を計算する。映像状態判定部136は、映像フレームにおける動物体領域の面積の比率が所定の閾値未満である場合、映像フレームが撮像方向のズレの検出処理に適した状態であると判定する。一方、映像状態判定部136は、映像フレームにおける動物体領域の面積の比率が所定の閾値以上である場合、映像フレームが撮像方向のズレの検出処理に適した状態でないと判定する。これは、映像フレーム内に移動する可能性がある特徴点が多く、特徴点マッチングの精度が低下するおそれがあるためである。
 例えば、映像状態判定部136は、全ての条件で、映像フレームが撮像方向のズレの検出処理に適した状態であると判定した場合、映像フレームが撮像方向の検出処理に適した状態であることを示す映像状態フラグを生成する。一方、映像状態判定部136は、少なくとも1つの条件で、映像フレームが撮像方向のズレの検出処理に適した状態でないと判定した場合、映像フレームが撮像方向の検出処理に適した状態でないことを示す映像状態フラグを生成する。映像状態判定部136は、映像情報フラグ及びカメラ状態フラグを特徴点マッチング部139に供給する。
 ステップS108において、特徴点マッチング部139は、撮像方向のズレを検出できるか否かを判定する。特徴点マッチング部139は、カメラ状態フラグ及び映像状態フラグに基づいて、カメラ11及び映像フレームがともに撮像方向のズレの検出処理に適した状態であるか否かを判定する。特徴点マッチング部139は、カメラ11及び映像フレームがともに撮像方向のズレの検出処理に適した状態である場合、撮像方向のズレを検出できると判定し、処理はステップS109に進む。
 ステップS109において、特徴点マッチング部139は、特徴点マッチングを行う。すなわち、特徴点マッチング部139は、映像フレームから検出された検出特徴点群と、特徴点マップから再投影された再投影特徴点群との間で特徴点マッチングを行い、特徴点の対応付けを行う。特徴点マッチング部139は、特徴点マッチングの結果を示すデータをズレ検出部140及び特徴点マップ更新部142に供給する。
 なお、特徴点マッチングの方法は、特に限定されない。例えば、RANSAC、や総当たり探索、又は、Deep Learningによるマッチング(例えば、SuperGlue)等が用いられる。
 ステップS110において、ズレ検出部140は、撮像方向のズレを検出する。
 例えば、図11は、特徴点検出部131による特徴点の検出結果の例を示している。具体的には、カメラ11が基準方向を向いている場合に撮像された映像フレームの特徴点の検出結果の例を示している。
 例えば、図12は、再投影部138により再投影された特徴点の例を示している。この例では、カメラ11により検出された撮像方向が、基準方向に対してパン方向に-7度(パン方向に半時計周りに7度)の方向であり、検出された撮像方向の特徴点が再投影されている。
 従って、この場合、カメラ11により検出された撮像方向と、カメラ11の実際の撮像方向(図11)との差、すなわち、撮像方向のズレは、-7度となる。
 ズレ検出部140は、所定の方法により、この撮像方向のズレを検出する。すなわち、ズレ検出部140は、カメラ11により検出された撮像方向のズレを、映像フレームに基づく撮像方向に基づいて検出する。
 撮像方向のズレの検出方法は、特に限定されない。例えば、ズレ検出部140は、Kabschアルゴリズムを用いて、撮像方向のズレを検出する。Kabschアルゴリズムは、3次元空間の対応済みの2つの点群の間のRSMD(二乗平均平方根偏差)を最小にする回転行列を算出する方法である。
 ここで、Kabschアルゴリズムを用いた撮像方向のズレの検出方法の例について説明する。
 例えば、特徴点マッチングにより対応付けられたN組の特徴点のうち、映像フレームから検出された特徴点群(検出特徴点群)の画像座標系における座標を(xn,yn)とする。一方、特徴点マップから再投影された特徴点群(再投影特徴点群)の画像座標系における座標を(Xn,Yn)とする。なお、n=1、2、・・・、Nである。
 また、現在の映像フレームの撮像時のレンズ22の焦点距離をfとする。なお、厳密には、焦点距離fは、カメラ11のイメージセンサのサイズと画素数に基づいて、画像座標系と同じ単位系に換算されたものである。
 まず、3×Nの行列P及び行列Qを、次の式(1)乃至式(8)に示されるように定義する。
Figure JPOXMLDOC01-appb-M000001
 ズレ検出部140は、次の式(9)及び式(10)に示される3×3の行列Hを計算する。
Figure JPOXMLDOC01-appb-M000002
 次に、ズレ検出部140は、次式(11)に示さるように、行列Hの特異値分解を行う。
H=USV ・・・(11)
 U、S、Vは、3×3の行列である。行列Sは、対角要素に特異値が設定されている対角行列である。
 次に、ズレ検出部140は、行列U及び行列Vを用いて、次式(12)の行列式dを計算する。
d=det(VU) ・・・(12)
 次に、ズレ検出部140は、次式(13)の3×3の行列Rを計算する。
Figure JPOXMLDOC01-appb-M000003
 行列Rは、撮像方向のズレを表す回転行列である。
 また、ズレ検出部140は、検出した撮像方向のズレに基づいて、基準方向の補正値を算出するともに、基準方向の補正値の信頼度を算出する。例えば、ズレ検出部140は、検出された特徴点の数や特徴点マッチングの誤差を、シグモイド関数を用いて0.0~1.0の値域に正規化した値を、基準方向の補正値の信頼度として算出する。
 さらに、ズレ検出部140は、検出した撮像方向のズレに基づいて、撮像方向を補正する。例えば、ズレ検出部140は、現在の映像フレームに対応する撮像方向情報をバッファ134から取得する。ズレ検出部140は、検出した撮像方向のズレに基づいて、撮像方向情報に示されるカメラ11により検出された撮像方向を補正する。
 なお、例えば、ズレ検出部140は、特徴点マッチングの結果に基づいて、映像フレームの特徴点群(検出特徴点群)の特徴点マップにおける位置を検出することにより、ズレを補正した撮像方向を直接検出するようにしてもよい。
 ズレ検出部140は、基準方向の補正値、及び、その信頼度を示すデータをCPU52に供給する。ズレ検出部140は、補正した撮像方向を示すデータをカメラ投影情報生成部141に供給する。
 ステップS111において、カメラ投影情報生成部141は、ズレが補正された撮像方向に基づいて、カメラ投影情報を生成する。具体的には、カメラ投影情報生成部141は、現在の映像フレームに対応するレンズ情報をバッファ134から取得する。カメラ投影情報生成部141は、ズレ検出部140により補正された撮像方向、及び、取得したレンズ情報に含まれるレンズ22の焦点距離(すなわち、画角)に基づいて、カメラ投影行列を算出する。カメラ投影情報生成部141は、カメラ投影情報を特徴点マップ更新部142に供給する。
 なお、上述したステップS104では、カメラ11により検出され、ズレを含む撮像方向に基づいてカメラ投影情報が生成されるのに対し、ここでは、ズレが補正された撮像方向に基づいてカメラ投影情報が生成される。
 ステップS112において、特徴点マップ更新部142は、特徴点マップを更新する。具体的には、特徴点マップ更新部142は、特徴点マッチングの結果に基づいて、映像フレームにおいて検出された特徴点のうち、特徴点マップの特徴点と対応が取れなかった特徴点を抽出する。すなわち、特徴点マップ更新部142は、特徴点マップに登録されていない新たな特徴点を抽出する。特徴点マップ更新部142は、カメラ投影情報生成部141により生成されたカメラ投影行列を用いて、抽出した特徴点を球面S1に投影した場合の方向(緯度及び経度)を算出する。特徴点マップ更新部142は、抽出した特徴点の方向及び特徴量ベクトルを含む特徴点データを特徴点マップに追加することにより、特徴点マップを更新する。
 なお、特徴点マップ更新部142は、例えば、特徴点マップの特徴点の数が所定の閾値を超えた場合、特徴点を間引くようにしてもよい。この場合、特徴点マップ更新部142は、できるだけ特徴点が球面S1上に均等に分布するように、特徴点の密度が高い領域から特徴点を間引く。
 その後、処理はステップS101に戻り、ステップS101以降の処理が実行される。
 一方、ステップS108において、特徴点マッチング部139は、カメラ11及び映像フレームの少なくとも一方が撮像方向のズレの検出処理に適した状態でない場合、撮像方向のズレを検出できないと判定する。その後、処理はステップS101に戻り、ステップS101以降の処理が実行される。すなわち、この場合、撮像方向のズレの検出処理は行われない。
 以上のように、エンコーダ付きのような所定の機能を備える雲台等の器具を用いずに、映像フレームの画像処理のみを用いて、カメラ11の基準方向を補正し、撮像方向の検出精度を向上させることができる。
 また、カメラ11の状態や映像フレームの状態が、撮像方向のズレの検出処理に適していない場合、撮像方向のズレの検出処理が行われず、基準方向が補正されない。これにより、基準方向の補正処理の信頼度が向上し、カメラ11の撮像方向の検出精度がより向上する。
 さらに、所定の条件を満たした場合に、カメラ11の基準方向が徐々に滑らかに変化するように補正される。これにより、カメラ11の映像を見るユーザに違和感を与えることなく、基準方向を補正することができる。
 また、高速かつ即時に行われるモーションセンサ32を用いた撮像方向の検出処理が、カメラ11で行われる。一方、処理負荷、処理時間、及び、処理の周期が大きい画像処理が、CCU15で行われる。これにより、カメラ11を小型化したり、カメラ11の消費電力を低減したりすることができる。
 <<3.変形例>>
 以下、上述した本技術の実施の形態の変形例について説明する。
  <処理の分担に関する変形例>
 例えば、カメラ11とCCU15の処理の分担を変更することが可能である。例えば、カメラ11が、CCU15のCPU52及び情報処理部53の処理の一部又は全部を実行するようにしてもよい。
  <カメラ11が並進移動する場合の処理>
 以上の説明では、カメラ11が並進移動しないことを前提にした処理について説明した。一方、本技術は、カメラ11が、例えばクレーンに載せられたり、ワイヤで吊り下げられたりした状態で、並進移動する場合にも適用できる。
 カメラ11が並進移動する場合も、情報処理システム1の基本的な構成は、上述した構成と同様である。以下、主に上述した処理と異なる部分について説明する。
 例えば、カメラ11の撮像方向検出部72は、モーションセンサ32により検出される加速度に基づいて、カメラ11の並進方向の位置を検出する。具体的には、例えば、撮像方向検出部72は、モーションセンサ32により検出される加速度を累積計算し、カメラ11の起動時の位置を基準原点とする並進方向の移動量を累積計算することにより、並進方向の位置(以下、撮像位置と称する)を検出する。
 カメラ11のカメラメタデータ生成部73は、カメラ11の撮像方向情報及び撮像位置情報、並びに、レンズ情報を含むカメラメタデータを生成し、CCU15に出力する。
 ここで、モーションセンサ32により検出された加速度からカメラ11の並進方向の移動量を算出する場合、加速度が2回積分される(加速度→速度→距離)。従って、カメラ11の撮像位置もモーションセンサ32の誤差による累積誤差が発生する。この撮像位置の累積誤差により、基準原点のドリフトが発生する。
 これに対して、上述した基準方向の補正と同様に、基準原点の補正が行われる。
 この場合、上述した球面S1上の特徴点の位置により表される特徴点マップの代わりに、3次元空間における特徴点の位置により表される特徴点マップが用いられる。例えば、SLAM(Simultaneous Localization and Mapping)で用いられるような特徴点マップが用いられる。
 CCU15のズレ検出部140は、例えば、SLAMやSfM(Structure from Motion)で用いられるような並進と角度の両方を計算する方法、すなわち、三角測量と回転検出を同時に行う方法を用いる。これにより、ズレ検出部140は、カメラ11の撮像方向及び撮像位置を検出するとともに、撮像方向及び撮像位置のズレを検出する。
 CCU15の補正データ生成部102は、検出された撮像方向及び撮像位置のズレに基づいて、カメラ11の基準方向及び基準位置を補正するための補正データを生成する。
 カメラ11の撮像方向検出部72は、補正データに基づいて、カメラ11の基準方向及び基準位置を補正する。このとき、カメラ11は、図7のステップS3で用いた条件と同様の条件に基づいて、基準方向及び基準位置を補正する。また、撮像方向検出部72は、例えば、αブレンドを用いて、徐々に滑らかに変化するように基準方向及び基準位置を補正する。
 CCU15のカメラ投影情報生成部137は、カメラ11により検出された撮像方向及び撮像位置、並びに、レンズ22の焦点距離に基づいて、3次元空間の特徴点マップの特徴点を、カメラ11の視野に再投影するためのカメラ投影情報を生成する。
 CCU15のカメラ投影情報生成部141は、ズレ検出部140により補正された撮像方向及び撮像位置、並びに、レンズ22の焦点距離に基づいて、3次元空間の特徴点マップの特徴点を、カメラ11の視野に再投影するためのカメラ投影情報を生成する。
 他の処理は、上述した処理と同様である。例えば、撮像方向及び撮像位置のズレの検出処理を実行する条件となるカメラ11及び映像フレームの状態の判定条件も同様である。
  <補正データに関する変形例>
 例えば、CCU15の補正データ生成部102は、基準方向の補正値の代わりに、ズレ検出部140により検出された撮像方向のズレを示す補正データを生成し、カメラ11に出力するようにしてもよい。
 この場合、カメラ11の撮像方向検出部72は、検出された撮像方向に基づいて基準方向を補正する。また、例えば、CCU15のズレ検出部140は、基準方向の補正値の信頼度の代わりに、検出した撮像方向のズレの信頼度を算出し、CPU52に供給する。補正データ生成部102は、撮像方向のズレの信頼度に基づいて、補正データをカメラ11に出力するか否かを判定する。なお、基準方向の補正値の信頼度と、撮像方向のズレの信頼度とは、実質的に同じものである。
 例えば、補正データ生成部102が、ズレ検出部140により検出された撮像方向のズレに基づいて、基準方向の補正値を算出するようにしてもよい。
  <その他の変形例>
 例えば、出力部54が、付帯メタデータを出力信号に埋め込まずに、出力信号と対応付けて出力するようにしてもよい。
 例えば、付帯メタデータ生成部103は、基準方向及び基準位置の補正データを付帯メタデータに追加するようにしてもよい。そして、CCU15後段の装置が、補正データに基づいて、カメラ11により検出された撮像方向及び撮像位置を補正するようにしてもよい。
 <<4.その他>>
  <コンピュータの構成例>
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータ1000において、CPU(Central Processing Unit)1001,ROM(Read Only Memory)1002,RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
 バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及びドライブ1010が接続されている。
 入力部1006は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。
 以上のように構成されるコンピュータ1000では、CPU1001が、例えば、記録部1008に記録されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータ1000では、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
  <構成の組み合わせ例>
 本技術は、以下のような構成をとることもできる。
(1)
 撮像画像の撮像を行う撮像装置により検出され、前記撮像画像に対応付けられている前記撮像装置の撮像方向である第1の撮像方向のズレを、前記撮像画像に基づいて検出するズレ検出部を
 備える情報処理装置。
(2)
 検出された前記ズレに基づいて、前記第1の撮像方向の基準となる基準方向を補正するための補正データを生成する補正データ生成部を
 さらに備える前記(1)に記載の情報処理装置。
(3)
 前記補正データ生成部は、前記撮像装置に前記補正データを出力する
 前記(2)に記載の情報処理装置。
(4)
 前記補正データ生成部は、前記ズレが所定の閾値以上の場合、前記撮像装置に前記補正データを出力する
 前記(3)に記載の情報処理装置。
(5)
 前記ズレ検出部は、検出した前記ズレ又は前記ズレに基づく前記基準方向の補正値の信頼度を算出し、
 前記補正データ生成部は、前記信頼度が所定の閾値以上である場合、前記撮像装置に前記補正データを出力する
 前記(3)又は(4)に記載の情報処理装置。
(6)
 前記撮像画像を含む所定の出力信号を生成し、前記出力信号に含まれる前記撮像画像に前記補正データを対応付けて出力する出力部を
 さらに備える前記(2)乃至(5)のいずれかに記載の情報処理装置。
(7)
 前記第1の撮像方向は、前記基準方向を基準にして前記撮像装置の向きの変化量を積算することにより検出される
 前記(2)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記第1の撮像方向は、前記撮像装置から出力され、前記撮像画像に対応付けられているメタデータに含まれる
 前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
 前記メタデータは、前記撮像装置のレンズに関する情報であるレンズ情報をさらに含む
 前記(8)に記載の情報処理装置。
(10)
 前記メタデータに基づいて、前記撮像装置の状態を検出する撮像装置状態検出部を
 さらに備え、
 前記ズレ検出部は、前記撮像装置の状態が所定の条件を満たす場合、前記ズレの検出を行わない
 前記(9)に記載の情報処理装置。
(11)
 前記ズレ検出部は、前記第1の撮像方向の移動速度が所定の閾値以上である場合、前記撮像装置がズーム、フォーカス、若しくは、アイリスを変更中である場合、前記レンズの焦点距離が所定の閾値未満である場合、又は、前記レンズの被写界深度が所定の閾値未満である場合、前記ズレの検出を行わない
 前記(10)に記載の情報処理装置。
(12)
 前記ズレ検出部は、前記撮像画像が所定の条件を満たす場合、前記ズレの検出を行わない
 前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
 前記ズレ検出部は、前記撮像画像の特徴点の分布が偏っている場合、又は、前記撮像画像内の動物体の領域の比率が所定の閾値以上である場合、前記ズレの検出を行わない
 前記(12)に記載の情報処理装置。
(14)
 前記ズレ検出部は、前記第1の撮像方向と、前記撮像画像に基づいて検出される前記撮像装置の撮像方向である第2の撮像方向との差を前記ズレとして検出する
 前記(1)乃至(13)のいずれかに記載の情報処理装置。
(15)
 前記撮像画像の特徴点を検出する特徴点検出部と、
 前記撮像装置の周囲の特徴点の分布を示す特徴点マップの特徴点と前記撮像画像の特徴点とのマッチングを行う特徴点マッチング部と
 を備え、
 前記ズレ検出部は、前記特徴点マップの特徴点と、前記撮像画像の特徴点とをマッチングした結果に基づいて、前記ズレを検出する
 前記(14)に記載の情報処理装置。
(16)
 前記特徴点マッチング部は、前記第1の撮像方向に対応する前記特徴点マップの特徴点と、前記撮像画像の特徴点とのマッチングを行う
 前記(15)に記載の情報処理装置。
(17)
 前記特徴点マッチング部は、前記特徴点マップの特徴点と、前記撮像画像の特徴点のうち動物体の領域内の特徴点を除いた特徴点とのマッチングを行う
 前記(15)又は(16)に記載の情報処理装置。
(18)
 前記撮像画像の特徴点に基づいて、前記特徴点マップを更新する特徴点マップ更新部を
 さらに備える前記(15)乃至(17)のいずれかに記載の情報処理装置。
(19)
 前記ズレ検出部は、前記特徴点マップの特徴点と前記撮像画像の特徴点とをマッチングした結果に基づいて、前記第2の撮像方向を検出する
 前記(15)乃至(18)のいずれかに記載の情報処理装置。
(20)
 前記ズレ検出部は、前記撮像画像の撮像周期より長い周期で、前記ズレの検出処理を行う
 前記(1)乃至(19)のいずれかに記載の情報処理装置。
(21)
 情報処理装置が、
 撮像画像の撮像を行う撮像装置により検出され、前記撮像画像に対応付けられている前記撮像装置の撮像方向のズレを、前記撮像画像に基づいて検出する
 情報処理方法。
(22)
 撮像画像の撮像を行う撮像装置と、
 前記撮像装置の制御を行う情報処理装置と
 を備え、
 前記撮像装置は、
  前記撮像装置の撮像方向を検出する撮像方向検出部と、
  前記撮像方向検出部により検出された前記撮像方向を含むメタデータを生成し、前記メタデータを前記撮像画像に対応付けて前記情報処理装置に出力するメタデータ生成部と
 を備え、
 前記情報処理装置は、
  前記メタデータに含まれる前記撮像方向のズレを、前記撮像画像に基づいて検出するズレ検出部を
 備える
 情報処理システム。
(23)
 前記情報処理装置は、
  検出された前記ズレに基づいて、前記撮像方向の基準となる基準方向を補正するための補正データを生成し、前記撮像装置に出力する補正データ生成部を
 さらに備え、
 前記撮像方向検出部は、前記補正データに基づいて前記基準方向を補正する
 前記(22)に記載の情報処理システム。
(24)
 前記撮像方向検出部は、前記撮像方向の移動速度が所定の閾値以上である場合、前記基準方向を補正する
 前記(23)に記載の情報処理システム。
(25)
 前記撮像方向検出部は、複数回に分けて連続的に前記基準方向を補正する
 前記(23)又は(24)に記載の情報処理システム。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 1 情報処理システム, 11 カメラ, 15 CCU, 21 本体部, 22 レンズ, 31 信号処理部, 32 モーションセンサ, 33 CPU, 51 信号処理部, 52 CPU, 53 情報処理部, 54 出力部, 71 制御部, 72 撮像方向検出部, 73 カメラメタデータ生成部, 101 制御部, 102 補正データ生成部, 103 付帯メタデータ生成部, 131 特徴点検出部, 132 被写体・領域認識部, 133 特徴点選択部, 135 カメラ状態判定部, 136 映像状態判定部, 137 カメラ投影情報生成部, 138 再投影部, 139 特徴点マッチング部, 140 ズレ検出部, 141 カメラ投影情報生成部, 142 特徴点マップ更新部, 201 イメージセンサ

Claims (25)

  1.  撮像画像の撮像を行う撮像装置により検出され、前記撮像画像に対応付けられている前記撮像装置の撮像方向である第1の撮像方向のズレを、前記撮像画像に基づいて検出するズレ検出部を
     備える情報処理装置。
  2.  検出された前記ズレに基づいて、前記第1の撮像方向の基準となる基準方向を補正するための補正データを生成する補正データ生成部を
     さらに備える請求項1に記載の情報処理装置。
  3.  前記補正データ生成部は、前記撮像装置に前記補正データを出力する
     請求項2に記載の情報処理装置。
  4.  前記補正データ生成部は、前記ズレが所定の閾値以上の場合、前記撮像装置に前記補正データを出力する
     請求項3に記載の情報処理装置。
  5.  前記ズレ検出部は、検出した前記ズレ又は前記ズレに基づく前記基準方向の補正値の信頼度を算出し、
     前記補正データ生成部は、前記信頼度が所定の閾値以上である場合、前記撮像装置に前記補正データを出力する
     請求項3に記載の情報処理装置。
  6.  前記撮像画像を含む所定の出力信号を生成し、前記出力信号に含まれる前記撮像画像に前記補正データを対応付けて出力する出力部を
     さらに備える請求項2に記載の情報処理装置。
  7.  前記第1の撮像方向は、前記基準方向を基準にして前記撮像装置の向きの変化量を積算することにより検出される
     請求項2に記載の情報処理装置。
  8.  前記第1の撮像方向は、前記撮像装置から出力され、前記撮像画像に対応付けられているメタデータに含まれる
     請求項1に記載の情報処理装置。
  9.  前記メタデータは、前記撮像装置のレンズに関する情報であるレンズ情報をさらに含む
     請求項8に記載の情報処理装置。
  10.  前記メタデータに基づいて、前記撮像装置の状態を検出する撮像装置状態検出部を
     さらに備え、
     前記ズレ検出部は、前記撮像装置の状態が所定の条件を満たす場合、前記ズレの検出を行わない
     請求項9に記載の情報処理装置。
  11.  前記ズレ検出部は、前記第1の撮像方向の移動速度が所定の閾値以上である場合、前記撮像装置がズーム、フォーカス、若しくは、アイリスを変更中である場合、前記レンズの焦点距離が所定の閾値未満である場合、又は、前記レンズの被写界深度が所定の閾値未満である場合、前記ズレの検出を行わない
     請求項10に記載の情報処理装置。
  12.  前記ズレ検出部は、前記撮像画像が所定の条件を満たす場合、前記ズレの検出を行わない
     請求項1に記載の情報処理装置。
  13.  前記ズレ検出部は、前記撮像画像の特徴点の分布が偏っている場合、又は、前記撮像画像内の動物体の領域の比率が所定の閾値以上である場合、前記ズレの検出を行わない
     請求項12に記載の情報処理装置。
  14.  前記ズレ検出部は、前記第1の撮像方向と、前記撮像画像に基づいて検出される前記撮像装置の撮像方向である第2の撮像方向との差を前記ズレとして検出する
     請求項1に記載の情報処理装置。
  15.  前記撮像画像の特徴点を検出する特徴点検出部と、
     前記撮像装置の周囲の特徴点の分布を示す特徴点マップの特徴点と前記撮像画像の特徴点とのマッチングを行う特徴点マッチング部と
     を備え、
     前記ズレ検出部は、前記特徴点マップの特徴点と、前記撮像画像の特徴点とをマッチングした結果に基づいて、前記ズレを検出する
     請求項14に記載の情報処理装置。
  16.  前記特徴点マッチング部は、前記第1の撮像方向に対応する前記特徴点マップの特徴点と、前記撮像画像の特徴点とのマッチングを行う
     請求項15に記載の情報処理装置。
  17.  前記特徴点マッチング部は、前記特徴点マップの特徴点と、前記撮像画像の特徴点のうち動物体の領域内の特徴点を除いた特徴点とのマッチングを行う
     請求項15に記載の情報処理装置。
  18.  前記撮像画像の特徴点に基づいて、前記特徴点マップを更新する特徴点マップ更新部を
     さらに備える請求項15に記載の情報処理装置。
  19.  前記ズレ検出部は、前記特徴点マップの特徴点と前記撮像画像の特徴点とをマッチングした結果に基づいて、前記第2の撮像方向を検出する
     請求項15に記載の情報処理装置。
  20.  前記ズレ検出部は、前記撮像画像の撮像周期より長い周期で、前記ズレの検出処理を行う
     請求項1に記載の情報処理装置。
  21.  情報処理装置が、
     撮像画像の撮像を行う撮像装置により検出され、前記撮像画像に対応付けられている前記撮像装置の撮像方向のズレを、前記撮像画像に基づいて検出する
     情報処理方法。
  22.  撮像画像の撮像を行う撮像装置と、
     前記撮像装置の制御を行う情報処理装置と
     を備え、
     前記撮像装置は、
      前記撮像装置の撮像方向を検出する撮像方向検出部と、
      前記撮像方向検出部により検出された前記撮像方向を含むメタデータを生成し、前記メタデータを前記撮像画像に対応付けて前記情報処理装置に出力するメタデータ生成部と
     を備え、
     前記情報処理装置は、
      前記メタデータに含まれる前記撮像方向のズレを、前記撮像画像に基づいて検出するズレ検出部を
     備える
     情報処理システム。
  23.  前記情報処理装置は、
      検出された前記ズレに基づいて、前記撮像方向の基準となる基準方向を補正するための補正データを生成し、前記撮像装置に出力する補正データ生成部を
     さらに備え、
     前記撮像方向検出部は、前記補正データに基づいて前記基準方向を補正する
     請求項22に記載の情報処理システム。
  24.  前記撮像方向検出部は、前記撮像方向の移動速度が所定の閾値以上である場合、前記基準方向を補正する
     請求項23に記載の情報処理システム。
  25.  前記撮像方向検出部は、複数回に分けて連続的に前記基準方向を補正する
     請求項23に記載の情報処理システム。
PCT/JP2022/002503 2021-03-26 2022-01-25 情報処理装置、情報処理方法、及び、情報処理システム WO2022201825A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021053268 2021-03-26
JP2021-053268 2021-03-26

Publications (1)

Publication Number Publication Date
WO2022201825A1 true WO2022201825A1 (ja) 2022-09-29

Family

ID=83395332

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/002503 WO2022201825A1 (ja) 2021-03-26 2022-01-25 情報処理装置、情報処理方法、及び、情報処理システム

Country Status (1)

Country Link
WO (1) WO2022201825A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004312281A (ja) * 2003-04-04 2004-11-04 Sony Corp 映像編集装置,映像編集装置の処理方法
JP2010258801A (ja) * 2009-04-24 2010-11-11 Kyocera Corp 動き補正装置およびその方法
JP2019161444A (ja) * 2018-03-13 2019-09-19 シャープ株式会社 撮像装置およびそれを備えた自律走行装置、撮像方法
KR102219843B1 (ko) * 2020-11-10 2021-02-25 (주)뉴빌리티 자율주행을 위한 위치 추정 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004312281A (ja) * 2003-04-04 2004-11-04 Sony Corp 映像編集装置,映像編集装置の処理方法
JP2010258801A (ja) * 2009-04-24 2010-11-11 Kyocera Corp 動き補正装置およびその方法
JP2019161444A (ja) * 2018-03-13 2019-09-19 シャープ株式会社 撮像装置およびそれを備えた自律走行装置、撮像方法
KR102219843B1 (ko) * 2020-11-10 2021-02-25 (주)뉴빌리티 자율주행을 위한 위치 추정 장치 및 방법

Similar Documents

Publication Publication Date Title
CN107990899B (zh) 一种基于slam的定位方法和系统
US10506217B2 (en) Head-mounted display tracking system
US10594941B2 (en) Method and device of image processing and camera
US5706419A (en) Image capturing and processing apparatus and image capturing and processing method
US9729788B2 (en) Image generation apparatus and image generation method
WO2021227359A1 (zh) 一种无人机投影方法、装置、设备及存储介质
JP5769813B2 (ja) 画像生成装置および画像生成方法
JP2019536170A (ja) 仮想的に拡張された視覚的同時位置特定及びマッピングのシステム及び方法
US9894272B2 (en) Image generation apparatus and image generation method
US20210082149A1 (en) Real-time calibration of wide-baseline outside-in multi-camera systems
JP2019522851A (ja) 3次元空間内の姿勢推定
US11776142B2 (en) Structuring visual data
JPH11306363A (ja) 画像入力装置及び画像入力方法
WO2019171984A1 (ja) 信号処理装置、信号処理方法、及び、プログラム
CN110533719B (zh) 基于环境视觉特征点识别技术的增强现实定位方法及装置
JP2020053774A (ja) 撮像装置および画像記録方法
JPWO2018235300A1 (ja) 物体検知装置、物体検知方法、及びコンピュータ読み取り可能な記録媒体
CN112207821A (zh) 视觉机器人的目标搜寻方法及机器人
WO2020092051A1 (en) Rolling shutter rectification in images/videos using convolutional neural networks with applications to sfm/slam with rolling shutter images/videos
US10540809B2 (en) Methods and apparatus for tracking a light source in an environment surrounding a device
JP2019121945A (ja) 撮像装置、その制御方法及びプログラム
US20160127617A1 (en) System for tracking the position of the shooting camera for shooting video films
CN110036411B (zh) 生成电子三维漫游环境的装置和方法
WO2022201825A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
JP2008203991A (ja) 画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22774627

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022774627

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2022774627

Country of ref document: EP

Effective date: 20231026