JP6933072B2 - カメラ制御方法、カメラ制御装置およびカメラ制御プログラム - Google Patents

カメラ制御方法、カメラ制御装置およびカメラ制御プログラム Download PDF

Info

Publication number
JP6933072B2
JP6933072B2 JP2017181987A JP2017181987A JP6933072B2 JP 6933072 B2 JP6933072 B2 JP 6933072B2 JP 2017181987 A JP2017181987 A JP 2017181987A JP 2017181987 A JP2017181987 A JP 2017181987A JP 6933072 B2 JP6933072 B2 JP 6933072B2
Authority
JP
Japan
Prior art keywords
camera
image
characteristic information
images
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017181987A
Other languages
English (en)
Other versions
JP2019057864A (ja
Inventor
由樹雄 平井
由樹雄 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017181987A priority Critical patent/JP6933072B2/ja
Priority to US16/135,074 priority patent/US11037327B2/en
Publication of JP2019057864A publication Critical patent/JP2019057864A/ja
Application granted granted Critical
Publication of JP6933072B2 publication Critical patent/JP6933072B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/665Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Cameras In General (AREA)

Description

カメラ制御方法、カメラ制御装置およびカメラ制御プログラムに関する。
カメラによって撮影された画像から、画像に含まれる被写体(対象物)の実空間における位置を特定する技術が存在する。画像上の座標と実空間の位置(座標)との対応関係が特定されていれば、カメラによって撮影された対象物の画像から、画像の撮影時における対象物の実空間での位置を求めることができる。
画像上の座標と実空間の座標との対応関係が特定するためには、例えば、画像を取得するカメラについてキャリブレーション(校正)が行なわれる。
ここで、キャリブレーションとは、実空間における大きさと位置(座標)が既知である対象物をカメラで撮影し、取得された画像上の座標を特定することで、画像上の2次元座標を実空間の3次元座標(もしくはその逆)に変換するパラメータを取得する処理である。これにより、カメラの特性に関する情報が取得される。
例えば、カメラを実空間の所定の位置に固定した状態で、画像処理等によって画像から抽出可能な形状の対象物(以降、キャリブレーションパターンと記載する)をカメラで撮影する。このとき、カメラと対象物それぞれの実空間における位置(座標)が既知であり、撮影された対象物の画像上の座標を画像処理等によって特定すれば、画像上の座標と実空間の座標との対応関係が特定できる。
特開2011−101265号公報
ここで、カメラとして、広範囲の視野角を有するレンズ(例えば魚眼レンズなどと呼ばれる)を搭載したカメラが用いられることがある。
1つの画像でより広い実空間をカバーできることを長所としているが、レンズへの入射角が大きい領域(画像における外側に近い領域)になるほど、画像に歪みが生じる。入射角が大きい領域にキャリブレーションパターンが存在する場合、画像におけるキャリブレーションパターンの形状は、実物のキャリブレーションパターンに対して大きく変形する。このため、画像処理によってキャリブレーションパターンを認識できない、つまり撮影されたキャリブレーションパターンの画像上の座標が特定できない可能性がある。
そして、キャリブレーションパターンを認識できない領域については、キャブレーションが実行できない、または処理としては実行できたとしても、取得される情報(パラメータ)の精度が大幅に低下してしまう。
1つの側面では、画像の歪みを考慮したカメラ特性情報の取得精度の向上を図ることを目的とする。
1つの態様では、コンピュータが、第1のカメラにより撮影された1または複数の画像から、実空間における位置が異なる複数の所定パターンを検出する第1検出処理を行い、前記複数の所定パターンのうちで前記第1検出処理において検出に成功した1または複数の第1所定パターンに基づいて、前記第1のカメラについてのカメラ特性情報を取得し、取得した前記カメラ特性情報に基づいて前記1または複数の画像に対する補正処理を行い、前記補正処理が行なわれた前記1または複数の画像から、前記複数の所定パターンのうちで前記第1検出処理において検出に失敗した1または複数の第2所定パターンを検出する第2検出処理を行い、検出した前記第2所定パターンに基づいて前記カメラ特性情報を更新する。
1つの側面では、画像の歪みを考慮してカメラ特性情報の取得精度を向上させることができる。
本実施例による実施形態の概略図を示す。 情報処理装置1の機能的構成を示す機能ブロック図を示す。 カメラ2−1を用いて撮影する対象物の一例を示す。 キャリブレーション処理(第1段階)の一連の処理の流れを示すフローチャートを示す。 管理情報記憶部122に記憶されるデータの一例を示す。 図4に示す一連の処理が実行された場合の、管理情報記憶部122に記憶されるデータの例を示す。 画像の中央付近に平板300の全体が写っている画像の例を示す。 画像の外縁付近に平板300の全体が写っている画像の例を示す。 カメラ2−1、2−2の双方において平板300を視野内に写す場合の一例を示す。 キャリブレーション処理(第2段階)の一連の処理の流れを示すフローチャート(その1)を示す。 キャリブレーション処理(第2段階)の一連の処理の流れを示すフローチャート(その2)を示す。 図7Bの画像に対応する補正画像の一例を示す。 図9A、図9Bに示す一連の処理が実行された場合の、管理情報記憶部122に記憶されるデータの例を示す。 正距円筒図における赤道の設定についての変形例を示す。 図12を用いて説明した赤道の設定に基づいて生成した正距方位図の例を示す。 正距方位図を生成した場合に、平板300が画像上分断される一例を示す。 本実施例における情報処理装置1のハードウェア構成の一例を示す。
本発明を実施する実施例について、図面とともに説明をする。
〔概略〕
図1は、本実施例による実施形態の概略図である。図1には、情報処理装置1、カメラ2−1、2−2が示されている。
カメラ2−1、2−2のそれぞれは、魚眼レンズ21−1、21−2を搭載した撮像装置である。カメラ2−1、2−2それぞれの視野角が180度以上である場合、例えば、図1に示すように、魚眼レンズ21−1と魚眼レンズ21−2とが反対方向を向くようにカメラ2−1、2−2を設置することで、360度画像(全天球画像)を取得することもできる。
情報処理装置1は、有線または無線でカメラ2−1、2−2と通信可能に接続されたコンピュータであり、カメラ2−1、2−2を用いた画像取得の制御を実行する。情報処理装置1は、例えば、PC(Personal Computer)や、スマートフォン、PDA(Personal Digital Assistant)などの情報処理装置である。
なお、本実施例において説明する各種の処理は、情報処理装置1およびカメラ2−1、2−2の機能を有する一体の装置で実行されることとしても良い。
〔情報処理装置1の機能的構成〕
図2は、情報処理装置1の機能的構成を示す機能ブロック図である。情報処理装置1は、例えば、通信部101、入力部102、出力部103、処理部110、記憶部120を備える。
通信部101は、有線または無線で、カメラ2−1、2−2を含む他の装置との通信を実行することが可能である。通信部101は、例えば、情報処理装置1が備えるネットワークアダプタやNIC(Network Interface Controller)などの通信デバイスである。あるいは、通信部101は、USB(Universal Serial Bus)等の有線接続の通信ポートや、無線通信の送受信機である。
入力部102は、ユーザーからの情報入力や操作を受け付ける。入力部102は、ハードウェアとしては、例えば、例えばキーボードやマウス、タッチパッド等である。
出力部103は、例えば、カメラ2−1、2−2により取得された画像や、取得された画像を用いた画像処理の結果、後述するキャリブレーションの結果などを出力することが可能である。出力部103は、ハードウェアとしては、例えば、例えば液晶ディスプレイである。
処理部110は、撮影処理部111、検出部112、判定部113、キャリブレーション実行部114、補正処理部115を備える。
撮影処理部111は、カメラ2−1、2−2の少なくとも一方を用いた、画像の撮影を制御する。例えば、カメラ2−1、2−2を用いた全天球画像の撮影を行なう場合には、カメラ2−1、2−2の撮影のタイミングを同期させる制御などを実行する。
検出部112は、カメラ2−1、2−2により取得された画像から、キャリブレーションの処理に用いられる特徴点(詳細は後述する)の検出を実行する。
判定部113は、検出部112による特徴点の検出結果についての判定を行う。
キャリブレーション実行部114は、検出部112により検出された特徴点に基づいて、カメラ2−1、2−2の少なくとも一方についてのカメラキャリブレーションを実行する。キャリブレーションの結果、キャリブレーション実行部114はカメラパラメータ(後述する、カメラの内部パラメータ、外部パラメータ)を取得する。本願における取得部は、例えばキャリブレーション実行部114に対応する。
補正処理部115は、カメラ2−1またはカメラ2−2を用いて取得された画像に対する補正処理を実行する。
上述した各機能部の動作については、本実施例における一連の処理の流れとともに詳細を後述する。
記憶部120は、カメラ画像記憶部121、管理情報記憶部122、補正画像記憶部123、パラメータ情報記憶部124を備える。
カメラ画像記憶部121は、カメラ2−1、2−2を用いて撮影された画像のデータを記憶する。
管理情報記憶部122は、カメラ2−1、2−2を用いて撮影された画像についての情報を記憶する。
補正画像記憶部123は、補正処理部115により補正されたカメラ画像を記憶する。
パラメータ情報記憶部124は、キャリブレーション実行部114によるキャリブレーションの結果取得されたカメラパラメータを記憶する。カメラパラメータとは、カメラの特性を示す情報であり、例えば、カメラの内部パラメータ、外部パラメータを情報として含む。
なお、内部パラメータとは、実空間における座標とカメラ画像上の座標との間の座標の変換に関するパラメータである。また、内部パラメータは、カメラについての焦点距離や画像中心のずれ、レンズの歪み等を示すパラメータである。
また、外部パラメータとは、実空間におけるカメラの位置、姿勢を示すパラメータである。外部パラメータは、例えば、実空間上の所定の原点に対するカメラの相対位置(原点に対する回転、並進)として表される。
上述した各記憶部に記憶される情報については、本実施例における一連の処理の流れとともに詳細を後述する。
〔画像の取得〕
まず、本実施例におけるキャリブレーションに用いられる画像の取得(撮影)について説明する。例示として、まずカメラ2−1(1台のカメラ)について説明するが、カメラ2−2を用いる場合にも同様の処理とすることができる。
キャリブレーションにおいては、カメラ2−1を実空間の特定の位置に固定した状態で、実空間における大きさや位置が既知である対象物を撮影した画像を取得する。
図3は、カメラ2−1を用いて撮影する対象物の一例を示す図である。カメラ2−1を用いて撮影する対象物は、例えば、図3のような、市松模様が施された平板300とすることができる。なお、以降の説明では、平板300の市松模様を「格子パターン」と記載することがある。キャリブレーションに用いる特徴点は、例えば、市松模様に含まれる四角同士の接点(例えば、図3の点310)としてよい。なお、市松模様に含まれる四角同士の接点を特徴点とした場合、図3の平板300には、点310を含め、縦5×横19の合計95点の特徴点が含まれることとなる。
平板300を実空間におけるカメラ2−1の撮像範囲内に設置した状態で、撮影処理部画像を撮影することで、キャリブレーションに用いる特徴点を含むカメラ画像が取得される。なおこのとき、平板300の全体がカメラ2−1の撮像範囲内に含まれ、撮影時の実空間における平板300の位置、および格子パターンにおける四角の寸法(特徴点の相対的な位置関係)は予め特定されている必要がある。また、キャリブレーションの精度向上を考慮し、カメラ画像は、平板300の位置を異ならせて複数枚撮影されることが望ましい。
なお、平板300は、あくまで対象物の一例である。大きさが既知であり、パターンマッチング等の画像処理によって、カメラ画像から特徴点が検出可能な物体であれば、例示の態様に一意に限定される必要はない。
〔キャリブレーション処理(第1段階)〕
本実施例におけるキャリブレーションの処理について説明する。なお、以降の説明にあたり、前述した態様に基づいて、キャリブレーションに用いられる複数のカメラ画像が事前に取得されているものとする。また、以降の説明では、一旦、カメラ2−1、およびカメラ2−1を用いて撮影された画像に着目して説明する。
図4は、キャリブレーション処理(第1段階)の一連の処理の流れを示すフローチャートである。
まず、検出部112は、カメラ画像記憶部121に記憶された、カメラ2−1を用いて撮影された画像の中から、未処理の画像を1つ選択する(ステップS401)。ここで、未処理の画像とは、後述するステップS402の処理が実行されていない画像である。
図5は、管理情報記憶部122に記憶されるデータの一例を示す図である。管理情報記憶部122は、例えば、図5のように、撮影時刻1221、画像ID(identifier)(カメラ2−1)1222、結果情報(カメラ2−1)1223、画像ID(カメラ2−2)1224、結果情報カメラ(2−2)1225、実空間位置1226を関連付けて記憶する。
撮影時刻1211は、画像の撮影時刻を示す情報である。なお、図5では、撮影処理部111による同期制御によって、同一のタイミングで、カメラ2−1、2−2の2台のカメラで画像が撮影されたことを示している。これは、全天球画像を撮影するためのカメラキャリブレーションにおいて、対象物(平板300)が同一の実空間位置の場合の画像を用いる必要があるためである。ただし、カメラ2−1、2−2のそれぞれで、対象物が同一の実空間位置の場合の画像が取得でき、かつ実空間位置ごとに画像の対応付けが可能であれば、画像の撮影時刻が一致していることは必須ではない。
画像ID(カメラ2−1)1222は、カメラ2−1で撮影された画像のそれぞれを一意に識別するための識別情報である。図5では、便宜的に「1−0001」〜「1−0010」の値を用いているが、画像のそれぞれが一意に識別可能であれば、具体的な値は図5の態様と異なっても構わない。
結果情報(カメラ2−1)1223は、画像それぞれについての検出部112による特徴点の検出結果を示す情報である。本実施例において、結果情報(カメラ2−1)1223は、未処理、成功、失敗の3つのステータス(詳細は後述する)を取り得る。例えば図5では、未処理のステータスを「未処理」と示しており、これは後述するステップS402の処理が実行されていない画像であることを示す。ただし、それぞれのステータスが区別可能であれば、データの形式は図5の態様に限定される必要はなく、例えば数値形式やビット形式であっても良い。
画像ID(カメラ2−2)1224、カメラ2−2で撮影された画像のそれぞれを一意に識別するための識別情報である。図5では、便宜的に「2−0001」〜「2−0010」の値を用いているが、画像のそれぞれが一意に識別可能であれば、具体的な値は図5の態様と異なっても構わない。
結果情報カメラ(2−2)1225は、カメラ2−2を用いて取得された画像について、結果情報(カメラ2−1)1223と同様に、画像それぞれについての特徴点の検出結果を示す情報である。
実空間位置1226は、例えば、それぞれの画像の撮影時点における、対象物(平板300)の位置を示す実空間座標である。ここで実空間座標は、例えば、実空間内の所定の点を原点とする3次元座標、および平板300の姿勢(向き)として良い。ただし、座標の持ち方は一意に限定される必要はなく、格子パターンの寸法と合わせて、各特徴点の実空間位置が算出できるものであれば良い。
図5に示すデータにより、情報処理装置1は、本実施例におけるキャリブレーション処理の進行の制御、およびキャリブレーション処理の進行状況や結果の把握を行なうことができる。
図4の説明に戻ると、ステップS401の処理は、検出部112が、結果情報(カメラ2−1)1223の値が「未処理」の画像を1つ選択する処理とも言える。
その後、検出部112は、ステップS401で選択された画像から、格子パターンに対応する特徴点を検出する(ステップS402)。特徴点の検出は、例えば、格子パターンの形状に基づくパターンマッチング等の画像処理により実現可能であるが、具体的な手法はパターンマッチングに限定されなくとも良い。
そして、判定部113は、ステップS402で実行された特徴点の検出結果を判定する(ステップS403)。例えば、格子パターンに基づいて検出され得る数(図3の平板300であれば95点)と同一数の特徴点がステップS402で検出された場合、判定部113は検出が成功したと判定する。一方、ステップS402で検出された特徴点の数が、格子パターンに基づいて検出され得る数と一致しない(検出され得る数より少ない)場合、判定部113は、検出が失敗したと判定する。
検出が失敗したと判定された場合(ステップS403、NO)、判定部113は、ステップS401で選択された画像について、検出が失敗した旨の結果を記録する。具体的には、判定部113は、管理情報記憶部122に記憶される、ステップS401で選択された画像についての結果情報(カメラ2−1)1223の値を「失敗」に更新する(ステップS404)。これにより、ステップS401で選択された画像については検出が失敗した旨、およびステップS401で選択された画像が処理済(ステップS402の処理を実行済み)である旨が管理情報記憶部122に記憶されることとなる。
一方、検出が成功したと判定された場合(ステップS403、YES)、判定部113は、ステップS401で選択された画像について、検出が成功した旨の結果を記録する。具体的には、判定部113は、管理情報記憶部122に記憶される、ステップS401で選択された画像についての結果情報(カメラ2−1)1223の値を「成功」に更新する(ステップS405)。これにより、ステップS401で選択された画像については検出が成功した旨、およびステップS401で選択された画像が処理済(ステップS402の処理を実行済み)である旨が管理情報記憶部122に記憶されることとなる。
ステップS404またはS405の処理が実行された後、検出部112は、ステップS401で、対象となる全ての画像が処理済であるか否かを判定する(ステップS406)。未処理の画像が存在する(結果情報(カメラ2−1)1223のデータ列に「未処理」の値が存在する)場合(ステップS406、NO)、ステップS401に戻り、情報処理装置1は、未処理の画像を1つ選択して、上述した一連の処理を繰り返し実行する。
一方、対象となる全ての画像が処理済である場合(ステップS406、YES)、キャリブレーション実行部114は、特徴点の検出が成功した画像(結果情報(カメラ2−1)1223の値が「成功」である画像)を用いて、カメラ2−1についてのキャリブレーションを実行する(ステップS407)。キャリブレーションが実行されることにより、カメラ2−1についての内部パラメータと外部パラメータが取得される。キャリブレーション実行部114は、キャリブレーションによって取得された内部パラメータと外部パラメータを、パラメータ情報記憶部124に記憶する。なお、カメラキャリブレーションにおいては、導出されるカメラパラメータの精度を考慮すると、特徴点の検出が成功した画像が複数存在する(言い換えれば、キャリブレーションに利用可能な画像が複数パターン存在する)ことが望ましい。そこで、ステップS407の実行前に、キャリブレーション実行部114は、特徴点の検出が成功した画像の数が所定以上(例えば3つ以上)であるか否かを判定し、検出が成功した画像の数が所定以上である場合にキャリブレーションを実行することとしても良い。
ステップS407が実行された後、図4に示す一連の処理は終了する。
〔キャリブレーション処理(第1段階)における問題〕
図6は、図4に示す一連の処理(少なくともステップS406がYESの判定となる段階まで)が実行された場合の、管理情報記憶部122に記憶されるデータの例を示す図である。なお、図6においては、前述したカメラ2−1についての処理と同様の要領で、カメラ2−1についても、図4に示す一連の処理が実行されているものとする。
例えば、図6の結果情報(カメラ2−1)1223に着目すると、10画像中の3画像について、特徴点の検出が成功している。特徴点の検出が成功している画像が取得されているので、キャリブレーションによってカメラ2−1についてのカメラパラメータを取得するための最低限の要件は満たしている。
しかしながら、取得されるカメラパラメータの精度向上の観点では、より多く、より多岐にわたる実空間の位置において特徴点が検出されている方が精度の向上が期待できる。すなわち、特徴点の検出が成功した画像が多い方が、カメラパラメータの精度はより高められると考えられる。しかし、図6の場合では、3画像の成功に対して、7画像の検出が失敗しているため、カメラパラメータの精度が十分に確保できない恐れがある。
画像における特徴点の検出に失敗する理由としては、少なくとも2つの理由が考えられる。
1つ目の理由は、画像内にそもそも平板300が写っていないことである。例えば、カメラ2−1、2−2の2台のカメラを用いて全天球画像の撮影を行なう場合、キャリブレーションにおいて一方のカメラの視野の中央付近に平板300が写る場合には、他方のカメラにおいて平板300は視野外であることが考えられる。ただし、この場合においては、そもそも平板300がカメラの視野外であることに起因する失敗であり、平板300が視野内に写っているカメラの画像において特徴点の検出ができていれば問題にはならない。例えば、カメラ2−1について、図6における撮影時刻T3、T6、T10における特徴点検出の失敗は、1つ目の理由に起因する失敗と考えられる。
2つ目の理由は、画像内に平板300の全体は写っているものの検出ができない場合である。
図7A、図7Bは、いずれも画像内に平板300の全体が写っている画像の例である。魚眼レンズのような視野角の広いレンズを有するカメラで撮影した画像は、レンズへの入射角が大きい領域(画像における外側に近い領域)になるほど、画像に歪みが大きくなる特性を持つ。この特性のために、実空間における平板300が設置された領域の魚眼レンズ21−1に対する入射角、言い換えれば、実空間における平板300の設置位置に応じて、撮影された画像における平板300の変形(歪み)の度合いが大きく変動する。
図7Aの画像の場合、図7Bの画像よりも画像中の平板300の位置は画像の中央の領域に近い、すなわち魚眼レンズ21−1に対する入射角が小さい。この場合、画像における平板300の歪みは比較的小さく、パターンマッチング等の画像処理によって特徴点の検出が成功する見込みは高い。一方、図7Aの画像よりも画像中の平板300の位置が外側の領域になる、すなわち魚眼レンズ21−1に対する入射角が大きい図7Bでは、画像において平板300の形状が大きく変形している(ひずみが大きい)。この場合、画像上の平板300の形状が実際の平板300に対して大きく異なるため、特徴点の検出が困難となる。
したがって、平板300の位置が画像における外側の領域に位置する画像において特徴点の検出が失敗してしまう結果、特に画像における外側の領域に対応するキャリブレーションが十分に行なわれない事態が発生する。端的に言うと、キャリブレーションにより取得されるカメラパラメータの精度低下が生じる。
特に、カメラ2−1、2−2の2台のカメラを用いて全天球画像の撮影を行なう場合、上記の2つ目の理由による特徴点の検出失敗が問題になると考えられる。2つのカメラの双方において平板300を視野内に写そうとすると、図8に図示するように、2つのカメラのいずれにおいても平板300が画像における外側の領域に位置することとなってしまうためである。このとき、カメラ2−1、2−2の2台のカメラ双方において、カメラ画像に平板300が含まれているにも拘らず、画像の歪みのために特徴点の検出が失敗してしまう可能性が高い。例えば、カメラ2−1(およびカメラ2−2)について、図6における撮影時刻T2、T4、T7、T9における特徴点検出の失敗は、1つ目の理由に起因する失敗と考えられる。
上記の問題を鑑み、本実施例においては、後述するキャリブレーション処理(第2段階)が実行される。
〔キャリブレーション処理(第2段階)〕
図9Aおよび図9Bは、キャリブレーション処理(第2段階)の一連の処理の流れを示すフローチャートである。なお、説明においては、キャリブレーション処理(第1段階)の説明と同様に、一旦、カメラ2−1、およびカメラ2−1を用いて撮影された画像に着目して説明を行なう。
まず、検出部112は、結果情報(カメラ2−1)1223のデータ列中の「失敗」のデータ値を全て、「未処理」に更新(変更)する(ステップS901)。ただし、ステップS901の処理は、後述するステップS904の処理が実行されていない結果、データ値が「失敗」となっているケース(ケース1)と、ステップS904における検出結果が失敗であるためにデータ値が「失敗」となっているケース(ケース2)とを区別するための処理である。上記のケース1とケース2とが区別可能になるのであれば、ステップS901の処理は例示と異なる処理に代替されても構わない。また、キャリブレーション処理(第1段階)における特徴点検出の成功、失敗によらず、全ての画像についてキャリブレーション処理(第2段階)が実行されることとしても良い。その場合、ステップS901においては、検出部112は、結果情報(カメラ2−1)1223のデータ列中のデータ値を全て、「未処理」に更新する。
次に、検出部112は、カメラ画像記憶部121に記憶された、カメラ2−1を用いて撮影された画像の中から、未処理の画像を1つ選択する(ステップS902)。ここで、未処理の画像とは、後述するステップS904の処理が実行されていない画像である。ステップS902の処理は、検出部112が、結果情報(カメラ2−1)1223の値が「未処理」の画像を1つ選択する処理とも言える。
その後、補正処理部115は、ステップS902で選択された画像に対する補正処理を実行する(ステップS903)。補正処理とは、選択された画像における、画像の歪みを除去または低減させる処理である。補正処理は、例えば、ステップS902で選択された画像と、キャリブレーション処理(第1段階)において取得されたカメラ2−1の内部パラメータとを用いて正距円筒図を生成する処理である。なお、以降の説明では、正距円筒図を含め、補正処理の結果生成された画像を「補正画像」と記載することがある。
図10に、図7Bの画像に対応する補正画像の一例を示す。例えば、補正処理部115は、図7Bにおける直線701が正距円筒図における赤道となるように、図7Bの画像に対応する正距円筒図の画像(補正画像1000)を生成する。図7Bにおける直線701上の座標は、図10の直線1001(補正画像1000における赤道)上に位置する。なお、図10における網掛け部分の領域は、図7Bの画像の視野外となる領域であり、図7Bの画像においては撮影されていない領域である。
ここで、図7Bにおける直線701は、図7Bにおける画像の平板300の中央部分またはその近傍を通る直線である。補正処理部115が、直線701のようなカメラ画像中の平板300の中心を通るような直線を特定し、正距円筒図における赤道とすることで、平板300が赤道付近に位置するような正距方位図を生成することができる。正距方位図における赤道付近の領域は、特に画像の歪みを小さく抑えることができるため、補正処理の効果をより高めることができる。
カメラ画像(補正前)中の平板300の中心位置は、例えば、画像処理等によって、補正処理部115が、カメラ画像(補正前)中の平板300の概形を特定し、特定した概形の中心を平板300の中心位置と決定することとしても良い。ただし、この際に決定される中心位置は、厳密に平板300の中心であることは必須でなく、おおよその中心位置が特定可能であれば良い。正距方位図における平板300の画像の歪みを小さく抑えるという点においては、平板300の位置が赤道の近傍であれば、歪みの抑制効果が十分に期待できるためである。
図10に示されるように、補正画像1000における平板300は、図7Bにおける画像の平板300と比較して、画像の歪みが軽減されている。したがって、補正前の画像では検出されなかった特徴点が、補正後の画像では検出可能となる可能性が高い。特に、正距円筒図の生成による補正処理では、図7Bに示されるような平板300の湾曲的な歪みが大きく軽減されることが見込まれる。パターンマッチングによる特徴点検出においては、湾曲的な歪みの影響が大きい一方、ホモグラフィ変換等を用いることで縦横比の変動や直線的な変形には比較的頑健である。そのため、特徴点検出の可能性を大きく高めることができると考えられる。補正処理部115は、例えば、生成した補正画像を、以降の処理のために、補正画像記憶部123に記憶することとしても良い。
図9Aの説明に戻り、ステップS903の補正処理を実行後、検出部112は、補正画像から、格子パターンに対応する特徴点を検出する(ステップS904)。特徴点の検出は、例えば、格子パターンの形状に基づくパターンマッチング等の画像処理により実現可能であるが、具体的な手法はパターンマッチングに限定されなくとも良い。
そして、判定部113は、ステップS904で実行された特徴点の検出結果を判定する(ステップS905)。例えば、格子パターンに基づいて検出され得る数(図3の平板300であれば95点)と同一数の特徴点がステップS904で検出された場合、判定部113は検出が成功したと判定する。一方、ステップS904で検出された特徴点の数が、格子パターンに基づいて検出され得る数と一致しない(検出され得る数より少ない)場合、判定部113は、検出が失敗したと判定する。
検出が失敗したと判定された場合(ステップS905、NO)、判定部113は、ステップS902で選択された画像について、検出が失敗した旨の結果を記録する(ステップS906)。具体的には、判定部113は、管理情報記憶部122に記憶される、ステップS902で選択された画像についての結果情報(カメラ2−1)1223の値を「失敗」に更新する。これにより、ステップS902で選択された画像については検出が失敗した旨、およびステップS902で選択された画像が処理済(ステップS904の処理を実行済み)である旨が管理情報記憶部122に記憶されることとなる。
一方、検出が成功したと判定された場合(ステップS905、YES)、判定部113は、ステップS902で選択された画像について、検出が成功した旨の結果を記録する(ステップS907)。具体的には、判定部113は、管理情報記憶部122に記憶される、ステップS902で選択された画像についての結果情報(カメラ2−1)1223の値を「成功」に更新する。これにより、ステップS902で選択された画像については検出が成功した旨、およびステップS902で選択された画像が処理済(ステップS904の処理を実行済み)である旨が管理情報記憶部122に記憶されることとなる。
ステップS906またはS907の処理が実行された後、検出部112は、ステップS902で、対象となる全ての画像が処理済であるか否かを判定する(ステップS908)。未処理の画像が存在する(結果情報(カメラ2−1)1223のデータ列に「未処理」の値が存在する)場合(ステップS908、NO)、ステップS902に戻り、情報処理装置1は、未処理の画像を1つ選択して、上述した一連の処理を繰り返し実行する。
一方、対象となる全ての画像が処理済である場合(ステップS908、YES)、検出部112は、ステップS904において特徴点の検出が成功した補正画像中の特徴点に対応する、未補正画像上の座標を特定する(ステップS909、図においては図9Aから図9Bに移行)。ステップS903の処理の過程において、未補正画像上の座標と補正画像上の座標との対応関係は特定されており、かつ、可逆的な変換が可能である。したがって、補正画像において特徴点の座標が特定できれば、ステップS904の処理の逆変換に相当する処理によって、特徴点に対応する未補正画像上の座標が特定できる。
ステップS909の実行後、キャリブレーション実行部114は、特徴点の検出が成功した画像(結果情報(カメラ2−1)1223の値が「成功」である画像)を用いて、カメラ2−1についてのキャリブレーションを実行する(ステップS910)。なお、ステップS910においては、キャリブレーション処理(第1段階)で特徴点の検出が成功した画像と、キャリブレーション処理(第2段階)で特徴点の検出が成功した画像の両方を用いてカメラキャリブレーションが実行できる。
キャリブレーションが実行されることにより、カメラ2−1についての内部パラメータと外部パラメータが取得される。キャリブレーション実行部114は、キャリブレーションによって取得された内部パラメータと外部パラメータを、パラメータ情報記憶部124に記憶する。言い換えれば、キャリブレーション実行部114は、カメラ2−1についての内部パラメータと外部パラメータを更新しているとも言える。なお、キャリブレーション処理(第1段階)において取得された内部パラメータと外部パラメータは、ステップS910において、パラメータ情報記憶部124から消去(上書き)されることとしても良いし、ステップS910が実行された後、図4に示す一連の処理は終了する。
図11は、図9A、図9Bに示す一連の処理(少なくともステップS908がYESの判定となる段階まで)が実行された場合の、管理情報記憶部122に記憶されるデータの例を示す図である。なお、図11においては、前述したカメラ2−1についての処理と同様の要領で、カメラ2−1についても、図9A、図9Bに示す一連の処理が実行されているものとする。
図6と図11それぞれに示される状態の比較を行なうと、キャリブレーション処理(第2段階)により、例えば、撮影時刻T2、T4、T7、T9において失敗していた特徴点の検出が可能(成功)となっていることが分かる。つまり、カメラ画像の歪みに起因する(上述した2つ目の理由による)と考えられる特徴点検出の失敗が抑制されていることが分かる。
結果として、カメラ2−1、2−2それぞれについて、特徴点検出の成功率が、本実施例の例示においては30%から70%に上昇する。これにより、キャリブレーションにより取得されるカメラパラメータの精度を向上させることができる。
〔全天球画像の取得に関する技術的効果〕
図11の撮影時刻T2、T4、T7、T9のように、カメラ2−1、2−2の双方において特徴点の検出が可能となることは、全天球画像の取得のためのキャリブレーションにおいても技術的効果を有する。
全天球画像の取得においては、カメラ2−1、2−2それぞれで取得された画像の統合が必要となる。画像の統合のためには、カメラキャリブレーションの際に、カメラ2−1、2−2それぞれの位置関係を特定しておく必要がある。具体的には、下記の条件を満たすカメラ2−1で取得した画像とカメラ2−2で取得した画像の組を用いてカメラキャリブレーションを実行し、それぞれのカメラについての外部パラメータを取得する必要がある。
条件1:画像取得時における平板300の実空間における位置が同一である。
条件2:カメラ2−1で取得した画像とカメラ2−2で取得した画像の双方について、平板300(の全体)が視野内にある(画像に写っている)。
そして、取得されたカメラ2−1とカメラ2−2それぞれについての外部パラメータを元に、相対的な外部パラメータを求める必要がある。
上記の条件1、2を満たす画像においては、カメラ2−1とカメラ2−2の双方にとって、レンズへの入射角が大きい領域(画像における外側に近い領域)に平板300が位置することとなる。つまり、「キャリブレーション処理(第1段階)における問題」にて述べた2つ目の理由に起因して特徴点の検出に失敗する可能性の高い状態であると言える。
これに対して、本実施例において説明した処理によれば、上述の2つ目の理由に起因する特徴点検出の失敗が抑制可能である。そのため、本実施例で例示したような、魚眼レンズを搭載したカメラ2台に対して、カメラキャリブレーションを実行し、2台のカメラそれぞれの外部パラメータを取得することが可能となる。そして、このとき取得された2台のカメラの外部パラメータの差分によって、情報処理装置1は、実空間におけるカメラ2−1とカメラ2−2との、実空間における位置および姿勢(向き)の差分を特定することができる。つまり、情報処理装置1は、カメラ2−1とカメラ2−2との間の相対的な外部パラメータを取得することができる。
〔その他の変形例〕
本実施例で説明した態様については、種々の変形を採用することが可能である。
例えば、本実施例においては、カメラ2−1、カメラ2−2のそれぞれについて、キャリブレーション処理(第1段階)を実行することとしている。ただし、例えば、カメラ2−1、カメラ2−2の型番や型式が同一の場合、2台のカメラの内部パラメータは類似または同一となることが考えられる。そこで、例えば、情報処理装置1は、カメラ2−1→カメラ2−2の順でキャリブレーションを実行する場合は、カメラ2−2についてのキャリブレーション処理(第1段階)を省略しても良い。そして、情報処理装置1は、カメラ2−1についてのキャリブレーション処理(第1段階)で取得されたカメラパラメータ(内部パラメータ)を用いて、カメラ2−2についての画像の補正処理を実行することとしても良い。
また、例えば、本実施例においては、情報処理装置1が、キャリブレーション処理(第2段階)の補正処理に用いる内部パラメータを、キャリブレーション処理(第1段階)を実行することで取得することとしている。ただし、本実施例で使用されるカメラの型式、型番について、基準値となるパラメータ(カメラの個体差を考慮しない、パラメータの参考値など)が与えられていれば、基準値となるパラメータに含まれる内部パラメータを利用して、キャリブレーション処理(第2段階)の補正処理が実行されることとしても良い。
これらの変形例においては、複数台のカメラについてのキャリブレーション処理を実行に要する処理負荷の軽減を図ることができる。
本実施例において説明した補正処理も、画像の歪みを低減可能な可逆変換処理であれば、必ずしも正距円筒図を用いた補正処理に限定されなくとも良い。また、正距円筒図を用いた補正処理においても、種々の変形例が採用可能である。例えば、図12は、正距円筒図における赤道の設定についての変形例を示す図である。図12のように、平板300を通過する線1201が正距円筒図における赤道となるように設定することでも、平板300が赤道付近に位置するような正距方位図を生成することができる。
図13Aは、図12を用いて説明した赤道の設定に基づいて生成した正距方位図の例である。図13Aでは、図中の赤道1301の近傍に図13Aにおいてもまた、画像における平板300の歪みが図12よりも軽減されていることが分かる。なお、図10と同様に、図13Aにおける網掛け部分の領域は、図12の画像の視野外となる領域であり、図12の画像においては撮影されていない領域を示す。
また、このとき、例えば図12の直線1202を正距方位図における画像の中心の経度に対応する線(例えば、正距方位図における画像の両端を東経・西経180度とした場合の経度0度線)としてもよい。これにより、正距方位図を生成した場合に、平板300が図13Bのように、画像上分断されてしまうことを防ぐことができる。例として、正距方位図における画像の中心の経度に対応する線は、図12では直線1202、図13Aでは赤道1301で示されている。なお、これらの変形例においても、補正処理の目的が達成できる範囲において、正距方位図における赤道や画像の中心の経度に対応する線が、必ずしも平板300の中心を通らなくとも良い。
〔ハードウェア構成の例〕
図14は、本実施例における情報処理装置1のハードウェア構成の一例である。
情報処理装置1は、例えば、それぞれがバス1401で相互に接続された、CPU(Central Processing Unit)1402、メモリ1403、記憶装置1404、NIC1405、媒体読取装置1406、入力装置1407、表示装置1408、を備えるコンピュータである。
CPU1402は、情報処理装置1における種々の動作制御を行う。メモリ1403、記憶装置1404は、本実施例で説明した各種の処理を実行するプログラムや、各種の処理に利用される種々のデータを記憶する。記憶装置1404は、例えば、HDD(Hard Disk Drive)や、SSD(Solid State Drive)等の記憶媒体である。
CPU1402は、メモリ1403あるいは記憶装置1404に記憶されたプログラムを読み出して処理、制御を実行することで、図2に示す処理部110に含まれる各機能部が実現されても良い。また、メモリ1403、記憶装置1404のそれぞれは、例えば、図2に記載した記憶部120として機能することができる。なお、CPU1402は、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)などのハードウェア回路で代替されても良い。
NIC1405は、有線または無線のネットワークを介したデータの送受信に用いられるハードウェアである。NIC1405は、CPU1402の制御の下で、通信部101として機能することができる。
媒体読取装置1406は、記録媒体からデータを読み取るための装置であり、例えば、CD−ROMやDVD−ROM等のディスク媒体に記憶されたデータを読み取るディスクドライブや、メモリカードに記憶されたデータを読み取るカードスロット等である。前述した記憶部300に記憶されるデータの一部または全部は、媒体読取装置1406を用いて読み取り可能な記録媒体に記憶されることとしても良い。
入力装置1407は、ユーザー(システム管理者を含む)からの入力や指定を受け付ける装置である。入力装置1407の例としては、例えばキーボードやマウス、タッチパッドが挙げられる。表示装置1408は、CPU1402の制御の下で、種々の情報の表示を行う。表示装置1408は、例えば液晶ディスプレイである。
1 情報処理装置
2−1、2−2 カメラ
21−1、21−2 魚眼レンズ
1401 バス
1402 CPU
1403 メモリ
1404 記憶装置
1405 NIC
1406 媒体読取装置
1407 入力装置
1408 表示装置

Claims (11)

  1. コンピュータが、
    第1のカメラにより撮影された1または複数の画像から、実空間における位置が異なる複数の所定パターンを検出する第1検出処理を行い、
    前記複数の所定パターンのうちで前記第1検出処理において検出に成功した1または複数の第1所定パターンに基づいて、前記第1のカメラについてのカメラ特性情報を取得し、
    取得した前記カメラ特性情報に基づいて前記1または複数の画像に対する補正処理を行い、
    前記補正処理が行なわれた前記1または複数の画像から、前記複数の所定パターンのうちで前記第1検出処理において検出に失敗した1または複数の第2所定パターンを検出する第2検出処理を行い、
    検出した前記第2所定パターンに基づいて前記カメラ特性情報を更新する、
    処理を実行することを特徴とするカメラ制御方法。
  2. 前記カメラ特性情報はカメラの内部パラメータを含むことを特徴とする請求項1記載のカメラ制御方法。
  3. 前記補正処理は、取得した前記カメラ特性情報に基づいて、前記1または複数の画像のいずれかに対する、画像の歪みを補正する処理である、
    ことを特徴とする請求項1または2記載のカメラ制御方法。
  4. 前記第1のカメラは魚眼レンズを搭載したカメラであり、
    前記補正処理は、取得した前記カメラ特性情報に基づいて、前記魚眼レンズを用いて撮影された前記1または複数の画像のいずれかに対応する正距方位画像を生成することを含む、
    ことを特徴とする請求項1〜3のいずれか1項に記載のカメラ制御方法。
  5. 前記1または複数の画像のいずれかは、前記所定の特徴を有する対象物を含む画像であり、
    前記コンピュータは、前記1または複数の画像のいずれかにおける前記対象物を通過する直線を、前記1または複数の画像のいずれかの画像上から特定する処理を実行し、
    前記補正処理は、特定した前記直線を赤道とする正距方位画像を生成することを含む、
    ことを特徴とする請求項4記載のカメラ制御方法。
  6. 前記コンピュータは、
    前記第1所定パターンの前記画像における位置と、実空間における前記第1のカメラと前記第1所定パターンに対応する物体との位置関係と、に基づいて前記カメラ特性情報を取得し、
    前記第2所定パターンの前記画像における位置と、実空間における前記第1のカメラと前記第2所定パターンに対応する物体との位置関係と、に基づいて前記カメラ特性情報を更新する、
    ことを特徴とする請求項1〜5のいずれか1項に記載のカメラ制御方法。
  7. 前記カメラ特性情報はカメラの外部パラメータを含むことを特徴とする請求項1〜6のいずれか1項に記載のカメラ制御方法。
  8. 前記コンピュータは、
    前記1または複数の画像の撮影と同期して第2のカメラにより撮影された1または複数の画像のいずれかを用いて、前記第1検出処理、前記第2のカメラについての前記カメラ特性情報を取得する処理、前記補正処理、前記第2検出処理、前記カメラ特性情報を更新する処理を実行し、
    更新した前記カメラ特性情報に含まれる、前記第1のカメラの前記外部パラメータと、前記第2のカメラの前記外部パラメータとの差分を算出する、
    ことを特徴とする請求項7記載のカメラ制御方法。
  9. 前記コンピュータは、
    前記第1のカメラと前記第2のカメラの型式、型番が一致する場合、前記第1のカメラについて取得された前記カメラ特性情報に基づいて、第2のカメラにより撮影された1または複数の画像のいずれかについての前記補正処理を実行する、
    ことを特徴とする請求項8記載のカメラ制御方法。
  10. 第1のカメラにより撮影された1または複数の画像から、実空間における位置が異なる複数の所定パターンを検出する第1検出処理を実行する検出部と、
    前記複数の所定パターンのうちで前記第1検出処理において検出に成功した1または複数の第1所定パターンに基づいて、前記第1のカメラについてのカメラ特性情報を取得する取得部と、
    取得した前記カメラ特性情報に基づいて前記1または複数の画像に対する補正処理を実行する補正処理部と、
    を備え、
    前記検出部は、前記補正処理が行なわれた前記1または複数の画像から、前記複数の所定パターンのうちで前記第1検出処理において検出に失敗した1または複数の第2所定パターンを検出する第2検出処理を実行し、
    前記取得部は、検出した前記第2所定パターンに基づいて前記カメラ特性情報を更新する、
    ことを特徴とするカメラ制御装置。
  11. コンピュータに、
    第1のカメラにより撮影された1または複数の画像から、実空間における位置が異なる複数の所定パターンを検出する第1検出処理を行い、
    前記複数の所定パターンのうちで前記第1検出処理において検出に成功した1または複数の第1所定パターンに基づいて、前記第1のカメラについてのカメラ特性情報を取得し、
    取得した前記カメラ特性情報に基づいて前記1または複数の画像に対する補正処理を行い、
    前記補正処理が行なわれた前記1または複数の画像から、前記複数の所定パターンのうちで前記第1検出処理において検出に失敗した1または複数の第2所定パターンを検出する第2検出処理を行い、
    検出した前記第2所定パターンに基づいて前記カメラ特性情報を更新する、
    処理を実行させることを特徴とするカメラ制御プログラム。
JP2017181987A 2017-09-22 2017-09-22 カメラ制御方法、カメラ制御装置およびカメラ制御プログラム Active JP6933072B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017181987A JP6933072B2 (ja) 2017-09-22 2017-09-22 カメラ制御方法、カメラ制御装置およびカメラ制御プログラム
US16/135,074 US11037327B2 (en) 2017-09-22 2018-09-19 Camera control method, camera control device, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017181987A JP6933072B2 (ja) 2017-09-22 2017-09-22 カメラ制御方法、カメラ制御装置およびカメラ制御プログラム

Publications (2)

Publication Number Publication Date
JP2019057864A JP2019057864A (ja) 2019-04-11
JP6933072B2 true JP6933072B2 (ja) 2021-09-08

Family

ID=65807781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017181987A Active JP6933072B2 (ja) 2017-09-22 2017-09-22 カメラ制御方法、カメラ制御装置およびカメラ制御プログラム

Country Status (2)

Country Link
US (1) US11037327B2 (ja)
JP (1) JP6933072B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3557523B1 (de) * 2018-04-18 2021-07-28 B&R Industrial Automation GmbH Verfahren zur erzeugung eines korrekturmodells einer kamera zur korrektur eines abbildungsfehlers
US20230392135A1 (en) * 2020-10-14 2023-12-07 Pioneer Hi-Bred International, Inc. Engineered cas endonuclease variants for improved genome editing
JP2022149731A (ja) * 2021-03-25 2022-10-07 本田技研工業株式会社 制御装置、制御装置の動作方法及びプログラム
US20230007182A1 (en) * 2021-07-02 2023-01-05 Genesys Logic, Inc. Image controller, image processing system and image correcting method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256492A (ja) 2000-03-14 2001-09-21 Sanyo Electric Co Ltd 画像合成装置、画像合成方法、画像合成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5649269B2 (ja) * 2008-06-18 2015-01-07 昭和電工株式会社 カーボンナノファイバー、その製造方法及び用途
JP2011101265A (ja) 2009-11-06 2011-05-19 Nippon Seiki Co Ltd 較正情報算出方法、較正情報算出装置、及び広角画像処理装置
JP5652349B2 (ja) 2011-07-25 2015-01-14 株式会社リコー 広角レンズおよび全天球型撮像装置
JP2013211707A (ja) * 2012-03-30 2013-10-10 Clarion Co Ltd カメラキャリブレーション装置
JP6405891B2 (ja) * 2014-10-29 2018-10-17 富士通株式会社 位置・姿勢推定装置、位置・姿勢推定方法、及び、プログラム
JP6494313B2 (ja) * 2015-02-09 2019-04-03 キヤノン株式会社 画像処理方法、装置システム、プログラム、記憶媒体
JP2017130794A (ja) * 2016-01-20 2017-07-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、評価用チャート、評価システム、および性能評価方法
WO2018204746A1 (en) * 2017-05-04 2018-11-08 Second Spectrum, Inc. Method and apparatus for automatic intrinsic camera calibration using images of a planar calibration pattern

Also Published As

Publication number Publication date
US11037327B2 (en) 2021-06-15
JP2019057864A (ja) 2019-04-11
US20190096090A1 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
JP6933072B2 (ja) カメラ制御方法、カメラ制御装置およびカメラ制御プログラム
US9686539B1 (en) Camera pair calibration using non-standard calibration objects
JP5906028B2 (ja) 画像処理装置、画像処理方法
JP6677098B2 (ja) 全天球動画の撮影システム、及びプログラム
JP2019097178A (ja) 撮像装置、画像処理装置および方法
JP4566591B2 (ja) 画像変形推定方法および画像変形推定装置
CN105049673A (zh) 图像处理装置及图像处理方法
JP2017208619A (ja) 画像処理装置、画像処理方法、プログラム及び撮像システム
CN107409206A (zh) 用于多相机无线装置的实时校准
CN106355550A (zh) 图像拼接系统和图像拼接方法
US10404912B2 (en) Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium
JP6045523B2 (ja) 画像処理装置およびその制御方法
KR20170026591A (ko) 카메라 교정
WO2018216341A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2023236508A1 (zh) 一种基于亿像素阵列式相机的图像拼接方法及系统
JP2016201745A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム
JP2014042160A (ja) 表示端末、動体検知の対象領域の設定方法及びプログラム
JP2017092756A (ja) 画像処理装置、画像処理方法、画像投影システムおよびプログラム
KR20130077414A (ko) 영상 처리를 통한 광축 오차 보상 방법 및 시스템, 광축 오차 보상 기능이 구현된 줌 카메라
JP2017090420A (ja) 3次元情報復元装置及び3次元情報復元方法
JP2010258897A (ja) 判定プログラムおよびキャリブレーション装置
JP2015162817A (ja) 画像処理装置およびその制御方法
US11166005B2 (en) Three-dimensional information acquisition system using pitching practice, and method for calculating camera parameters
CN111353945A (zh) 鱼眼图像校正方法、装置及存储介质
JP7388084B2 (ja) 情報処理装置、方法および記録媒体

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20180528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210802

R150 Certificate of patent or registration of utility model

Ref document number: 6933072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150