JP7047306B2 - Information processing equipment, information processing methods, and programs - Google Patents

Information processing equipment, information processing methods, and programs Download PDF

Info

Publication number
JP7047306B2
JP7047306B2 JP2017185667A JP2017185667A JP7047306B2 JP 7047306 B2 JP7047306 B2 JP 7047306B2 JP 2017185667 A JP2017185667 A JP 2017185667A JP 2017185667 A JP2017185667 A JP 2017185667A JP 7047306 B2 JP7047306 B2 JP 7047306B2
Authority
JP
Japan
Prior art keywords
coordinates
captured image
bird
eye view
view map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017185667A
Other languages
Japanese (ja)
Other versions
JP2019061502A (en
Inventor
孝弘 渡辺
明利 塚本
孝宏 前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017185667A priority Critical patent/JP7047306B2/en
Publication of JP2019061502A publication Critical patent/JP2019061502A/en
Application granted granted Critical
Publication of JP7047306B2 publication Critical patent/JP7047306B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.

斜め上方から見下ろすように配置されたカメラにより撮像された撮像画像に含まれる物体の位置を、真上から俯瞰した画像(本明細書では俯瞰マップと呼ぶ)上へマッピングするためには、射影変換行列等の変換パラメータが用いられる。例えば複数の物体が俯瞰マップに対応する実空間上に設置された場合、変換パラメータは、当該複数の物体の撮像画像における位置座標と、当該複数の物体の俯瞰マップにおける位置座標との対応から特定することが可能である。このように変換パラメータを求めることはキャリブレーションと呼ばれている。 In order to map the position of an object included in an image captured by a camera arranged so as to look down from diagonally above onto an image (referred to as a bird's-eye view map in this specification) from directly above, a projective transformation is performed. Transformation parameters such as matrices are used. For example, when a plurality of objects are installed in a real space corresponding to a bird's-eye view map, the conversion parameter is specified from the correspondence between the position coordinates in the captured image of the plurality of objects and the position coordinates in the bird's-eye view map of the plurality of objects. It is possible to do. Obtaining conversion parameters in this way is called calibration.

上記のようなキャリブレーションは、カメラの配置が変更されない前提であれば、1回行えば十分である。また、下記特許文献1には、カメラの配置が変更された場合に、その前後に撮像された画像を用いてカメラパラメータをキャリブレーションする技術が開示されている。 It is sufficient to perform the above calibration once if the camera arrangement is not changed. Further, Patent Document 1 below discloses a technique for calibrating camera parameters using images captured before and after the camera arrangement when the camera arrangement is changed.

特開2017-78923号公報Japanese Unexamined Patent Publication No. 2017-78923

しかし、上記特許文献1に記載の技術は、カメラの姿勢(角度)変化をキャリブレーションの対象としており、カメラ位置の変化に対応することはできなかった。そのため、俯瞰マップ化する範囲を変更、または拡大する目的でカメラの配置変更やカメラの追加を行う場合、上述したように、複数の物体の撮像画像における位置座標と、当該複数の物体の俯瞰マップにおける位置座標との対応から再度キャリブレーションを行う必要がある。この際、当該複数の物体の俯瞰マップにおける位置座標を得るためには、実空間における計測、あるいは実空間の既定の位置への物体の設置等が必要となり、コストが大きかった。 However, the technique described in Patent Document 1 targets the change in the posture (angle) of the camera for calibration, and cannot cope with the change in the camera position. Therefore, when changing the position of the camera or adding a camera for the purpose of changing or enlarging the range to be converted into a bird's-eye view map, as described above, the position coordinates in the captured image of a plurality of objects and the bird's-eye view map of the plurality of objects. It is necessary to recalibrate from the correspondence with the position coordinates in. At this time, in order to obtain the position coordinates in the bird's-eye view map of the plurality of objects, it is necessary to measure in the real space or install the objects at the predetermined positions in the real space, which is costly.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、キャリブレーションに係るコストを抑制することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is a new and improved information processing apparatus and information processing capable of suppressing the cost related to calibration. To provide methods and programs.

上記課題を解決するために、本発明のある観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と、実空間に対応する俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、及び目標物体の前記撮像画像座標を特定する目標物体特定部、を備え、前記座標変換部は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における前記目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、前記キャリブレーション部は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定し、前記目標物体特定部は、前記撮像画像から目標物体候補の前記撮像画像座標を検出し、検出された前記目標物体候補の前記撮像画像座標を、操作者の決定に基づいて前記目標物体の前記撮像画像座標として特定する、が提供される。
In order to solve the above problems, according to a certain viewpoint of the present invention, the captured image coordinates which are the position coordinates in the captured image captured by the camera and the bird's-eye view map coordinates which are the position coordinates in the bird's-eye view map corresponding to the real space. Corresponding to the arrangement of the camera, the calibration unit for specifying the conversion parameter for converting the captured image coordinate to the bird's-eye view map coordinate, and the converted image are used to obtain the captured image coordinate. The coordinate conversion unit includes a coordinate conversion unit that converts the bird's-eye view map coordinates and a target object identification unit that specifies the captured image coordinates of the target object, and the coordinate conversion unit sets a first conversion parameter corresponding to the first camera arrangement. Using, the captured image coordinates of the target object in the first captured image captured by the first camera arrangement are converted into the bird's-eye view map coordinates of the target object in the bird's-eye view map, and the calibration unit is used. Correspondence between the captured image coordinates of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement and the bird's-eye view map coordinates of the target object in the bird's-eye view map. Based on this, the second conversion parameter corresponding to the second camera arrangement is specified , the target object identification unit detects the captured image coordinates of the target object candidate from the captured image, and the detected target object. Provided is to specify the candidate's captured image coordinates as the captured image coordinates of the target object based on the determination of the operator .

また、上記課題を解決するために、本発明の別の観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と、実空間に対応する俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、及び前記俯瞰マップ座標が既知である基準物体を用いて、前記キャリブレーション部により特定された前記変換パラメータの補正を行う補正部、を備え、前記座標変換部は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、前記キャリブレーション部は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定する、情報処理装置が提供される。
Further, in order to solve the above problems, according to another viewpoint of the present invention, the captured image coordinates which are the position coordinates in the captured image captured by the camera and the bird's-eye view which is the position coordinates in the bird's-eye view map corresponding to the real space. Based on the correspondence with the map coordinates, the calibration unit corresponding to the arrangement of the camera and specifying the conversion parameters for converting the captured image coordinates to the bird's-eye view map coordinates, the captured image using the conversion parameters. It is provided with a coordinate conversion unit that converts the coordinates into the bird's-eye view map coordinates, and a correction unit that corrects the conversion parameters specified by the calibration unit using a reference object whose bird's-eye view map coordinates are known. The coordinate conversion unit uses the first conversion parameter corresponding to the first camera arrangement to map the captured image coordinates of the target object in the first captured image captured by the first camera arrangement to the bird's-eye view map. Converted to the bird's-eye view map coordinates of the target object in the above, and the calibration unit is the captured image of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement. An information processing apparatus is provided that specifies a second conversion parameter corresponding to the second camera arrangement based on the correspondence between the coordinates and the bird's-eye view map coordinates of the target object in the bird's-eye view map.

前記情報処理装置は、前記俯瞰マップ座標が既知である基準物体を用いて、前記キャリブレーション部により特定された前記変換パラメータの補正を行う補正部をさらに備えてもよい。 The information processing apparatus may further include a correction unit that corrects the conversion parameter specified by the calibration unit using a reference object whose bird's-eye view map coordinates are known.

前記補正部は、前記基準物体の既知の前記俯瞰マップ座標である既知基準座標と、前記座標変換部が前記基準物体の前記撮像画像座標を変換することにより得られる前記基準物体の前記俯瞰マップ座標である変換基準座標と、の距離を特定する距離特定部を有し、前記距離に基づいて前記変換パラメータの補正を行ってもよい。 The correction unit has known reference coordinates that are known bird's-eye view map coordinates of the reference object, and the bird's-eye view map coordinates of the reference object obtained by the coordinate conversion unit converting the captured image coordinates of the reference object. It may have a distance specifying unit for specifying a distance from the conversion reference coordinates, and may correct the conversion parameter based on the distance.

前記補正部は、前記距離が所定の範囲内であるか否かの判定を行う判定部をさらに有し、前記判定部による前記判定の結果に応じて前記変換パラメータの補正を行ってもよい。 The correction unit may further include a determination unit for determining whether or not the distance is within a predetermined range, and may correct the conversion parameter according to the result of the determination by the determination unit.

前記補正部は、前記判定部により前記距離が前記所定の範囲内ではないと判定された場合に、前記既知基準座標と前記変換基準座標との差に基づいて前記目標物体の前記俯瞰マップ座標を補正する座標補正部をさらに有し、前記座標補正部により補正された前記目標物体の前記俯瞰マップ座標に基づいて前記変換パラメータの補正を行ってもよい。 When the determination unit determines that the distance is not within the predetermined range, the correction unit obtains the bird's-eye view map coordinates of the target object based on the difference between the known reference coordinates and the conversion reference coordinates. The coordinate correction unit for correction may be further provided, and the conversion parameter may be corrected based on the bird's-eye view map coordinates of the target object corrected by the coordinate correction unit.

前記補正部が前記変換パラメータの補正を行うために要する前記基準物体の数は、前記キャリブレーション部が前記第2の変換パラメータを特定するために要する前記目標物体の数よりも少なくてもよい。 The number of reference objects required for the correction unit to correct the conversion parameter may be less than the number of target objects required for the calibration unit to specify the second conversion parameter.

また、上記課題を解決するために、本発明の別の観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と、実空間に対応する俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、センサ情報管理部、前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、を備え、前記座標変換部は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、前記キャリブレーション部は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定し、前記センサ情報管理部は、前記第1の撮像画像と、前記第2の撮像画像との両方に含まれる前記目標物体の数が所定の閾値より少ない場合に、前記第1の撮像画像における第1の目標物体の前記撮像画像座標を変換することで得られた前記俯瞰マップにおける前記第1の目標物体の前記俯瞰マップ座標、位置センサのセンシングに基づいて得られる前記位置センサに対応したセンサ座標系における前記第1の目標物体の位置座標、及び、前記位置センサのセンシングに基づいて得られる前記センサ座標系における第2の目標物体の位置座標、に基づいて前記俯瞰マップにおける前記第2の目標物体の前記俯瞰マップ座標を取得し、前記キャリブレーション部は、前記第2の撮像画像における前記第2の目標物体の前記撮像画像座標と前記俯瞰マップにおける前記第2の目標物体の前記俯瞰マップ座標との対応に基づいて、第2の変換パラメータを特定する、情報処理装置が提供される。Further, in order to solve the above problem, according to another viewpoint of the present invention, the captured image coordinates which are the position coordinates in the captured image captured by the camera and the bird's-eye view which is the position coordinates in the bird's-eye view map corresponding to the real space. Based on the correspondence with the map coordinates, the calibration unit, the sensor information management unit, and the conversion parameters that correspond to the arrangement of the camera and specify the conversion parameters for converting the captured image coordinates to the bird's-eye view map coordinates are used. The coordinate conversion unit includes a coordinate conversion unit that converts the captured image coordinates into the bird's-eye view map coordinates, and the coordinate conversion unit uses the first conversion parameter corresponding to the first camera arrangement to arrange the first camera. The captured image coordinates of the target object in the first captured image captured in 1 are converted into the bird's-eye view map coordinates of the target object in the bird's-eye view map, and the calibration unit is different from the first camera arrangement. Based on the correspondence between the captured image coordinates of the target object in the second captured image captured by the second camera arrangement and the bird's-eye view map coordinates of the target object in the bird's-eye view map, the second camera arrangement is adopted. The corresponding second conversion parameter is specified, and the sensor information management unit determines that the number of the target objects included in both the first captured image and the second captured image is less than a predetermined threshold value. Based on the bird's-eye view map coordinates of the first target object and the sensing of the position sensor in the bird's-eye view map obtained by converting the captured image coordinates of the first target object in the first captured image. Based on the position coordinates of the first target object in the sensor coordinate system corresponding to the position sensor obtained and the position coordinates of the second target object in the sensor coordinate system obtained based on the sensing of the position sensor. Then, the bird's-eye view map coordinates of the second target object in the bird's-eye view map are acquired, and the calibration unit obtains the captured image coordinates of the second target object in the second captured image and the above-mentioned in the bird's-eye view map. An information processing apparatus is provided that specifies a second conversion parameter based on the correspondence of the second target object with the bird's-eye view map coordinates.

また、上記課題を解決するために、本発明の別の観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と、実空間に対応する俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、及び前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、を備え、前記座標変換部は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、前記キャリブレーション部は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定し、前記変換パラメータは、射影変換行列または透視投影変換行列を含む、情報処理装置が提供される。
Further, in order to solve the above problem, according to another viewpoint of the present invention, the captured image coordinates which are the position coordinates in the captured image captured by the camera and the bird's-eye view which is the position coordinates in the bird's-eye view map corresponding to the real space. Based on the correspondence with the map coordinates, the image pickup is performed by using the calibration unit that corresponds to the arrangement of the camera and specifies the conversion parameter for converting the captured image coordinates to the bird's-eye view map coordinates, and the conversion parameter. A coordinate conversion unit that converts image coordinates into the bird's-eye view map coordinates is provided, and the coordinate conversion unit is imaged with the first camera arrangement using the first conversion parameter corresponding to the first camera arrangement. The captured image coordinates of the target object in the first captured image are converted into the bird's-eye view map coordinates of the target object in the bird's-eye view map, and the calibration unit is a second camera different from the first camera arrangement. The second camera arrangement corresponds to the second camera arrangement based on the correspondence between the captured image coordinates of the target object in the second captured image captured by the arrangement and the bird's-eye view map coordinates of the target object in the bird's-eye view map. The transformation parameters are specified, and the transformation parameters are provided with an information processing apparatus including a projection transformation matrix or a perspective projection transformation matrix.

また、上記課題を解決するために、本発明の別の観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、及び目標物体の前記撮像画像座標を特定する目標物体特定部、を備える情報処理装置により実行される情報処理方法であって、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における前記目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換することと、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定することと、前記撮像画像から目標物体候補の前記撮像画像座標を検出し、検出された前記目標物体候補の前記撮像画像座標を、操作者の決定に基づいて前記目標物体の前記撮像画像座標として特定することと、を含む、情報処理方法が提供される。
Further, in order to solve the above problems, according to another viewpoint of the present invention, the correspondence between the captured image coordinates, which are the position coordinates in the captured image captured by the camera, and the bird's-eye view map coordinates, which are the position coordinates in the bird's-eye view map. Based on this, the calibration unit that specifies the conversion parameters for converting the captured image coordinates to the bird's-eye view map coordinates according to the arrangement of the cameras, and the converted image coordinates are converted to the bird's-eye view map coordinates by using the conversion parameters. A first information processing method executed by an information processing apparatus including a coordinate conversion unit for converting to a target object and a target object identification unit for specifying the captured image coordinates of the target object , the first one corresponding to the first camera arrangement. Using the conversion parameters, the captured image coordinates of the target object in the first captured image captured by the first camera arrangement are converted into the bird's-eye view map coordinates of the target object in the bird's-eye view map. Based on the correspondence between the captured image coordinates of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement and the bird's-eye view map coordinates of the target object in the bird's-eye view map. Then, the second conversion parameter corresponding to the second camera arrangement is specified, the captured image coordinates of the target object candidate are detected from the captured image, and the captured image coordinates of the detected target object candidate are detected. Is specified as the captured image coordinates of the target object based on the determination of the operator, and an information processing method is provided.

また、上記課題を解決するために、本発明の別の観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション機能、前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換機能、及び目標物体の前記撮像画像座標を特定する目標物体特定機能、をコンピュータに実現させるためのプログラムであって、前記座標変換機能は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における前記目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、前記キャリブレーション機能は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定し、前記目標物体特定機能は、前記撮像画像から目標物体候補の前記撮像画像座標を検出し、検出された前記目標物体候補の前記撮像画像座標を、操作者の決定に基づいて前記目標物体の前記撮像画像座標として特定する、プログラムが提供される。また、上記課題を解決するために、本発明の別の観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション機能、前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換機能、及び前記俯瞰マップ座標が既知である基準物体を用いて、前記キャリブレーション機能により特定された前記変換パラメータの補正を行う補正機能、をコンピュータに実現させるためのプログラムであって、前記座標変換機能は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、前記キャリブレーション機能は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定する、プログラムが提供される。また、上記課題を解決するために、本発明の別の観点によれば、カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション機能、及び前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換機能を、をコンピュータに実現させるためのプログラムであって、前記座標変換機能は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、前記キャリブレーション機能は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定し、前記変換パラメータは、射影変換行列または透視投影変換行列を含む、プログラムが提供される。
Further, in order to solve the above problems, according to another viewpoint of the present invention, the correspondence between the captured image coordinates, which are the position coordinates in the captured image captured by the camera, and the bird's-eye view map coordinates, which are the position coordinates in the bird's-eye view map. Based on the calibration function that specifies the conversion parameter for converting the captured image coordinates to the bird's-eye view map coordinates according to the arrangement of the cameras, the captured image coordinates are converted to the bird's-eye view map coordinates using the conversion parameters. It is a program for realizing a computer with a coordinate conversion function for converting to and a target object specifying function for specifying the captured image coordinates of the target object, and the coordinate conversion function corresponds to a first camera arrangement. Using the conversion parameter of 1, the captured image coordinates of the target object in the first captured image captured by the first camera arrangement are converted into the bird's-eye view map coordinates of the target object in the bird's-eye view map. The calibration function includes the captured image coordinates of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement, and the bird's-eye view map of the target object in the bird's-eye view map. The second conversion parameter corresponding to the second camera arrangement is specified based on the correspondence with the coordinates, and the target object identification function detects and detects the captured image coordinates of the target object candidate from the captured image. A program is provided that identifies the captured image coordinates of the target object candidate as the captured image coordinates of the target object based on the determination of the operator . Further, in order to solve the above problems, according to another viewpoint of the present invention, the correspondence between the captured image coordinates, which are the position coordinates in the captured image captured by the camera, and the bird's-eye view map coordinates, which are the position coordinates in the bird's-eye view map. Based on the calibration function that specifies the conversion parameter for converting the captured image coordinates to the bird's-eye view map coordinates according to the arrangement of the cameras, the captured image coordinates are converted to the bird's-eye view map coordinates using the conversion parameters. It is a program for realizing on a computer a coordinate conversion function for converting to a camera and a correction function for correcting the conversion parameter specified by the calibration function using a reference object whose bird's-eye view map coordinates are known. The coordinate conversion function uses the first conversion parameter corresponding to the first camera arrangement to obtain the captured image coordinates of the target object in the first captured image captured by the first camera arrangement. Converting to the bird's-eye view map coordinates of the target object in the bird's-eye view map, the calibration function of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement. A program is provided that identifies a second conversion parameter corresponding to the second camera arrangement based on the correspondence between the captured image coordinates and the bird's-eye view map coordinates of the target object in the bird's-eye view map. Further, in order to solve the above problems, according to another viewpoint of the present invention, the correspondence between the captured image coordinates, which are the position coordinates in the captured image captured by the camera, and the bird's-eye view map coordinates, which are the position coordinates in the bird's-eye view map. Based on this, the calibration function for specifying the conversion parameter for converting the captured image coordinates to the bird's-eye view map coordinates corresponding to the arrangement of the camera, and the conversion parameter are used to convert the captured image coordinates to the bird's-eye view map. It is a program for realizing a coordinate conversion function for converting into coordinates on a computer, and the coordinate conversion function uses the first conversion parameter corresponding to the first camera arrangement and the first camera arrangement. The captured image coordinates of the target object in the first captured image captured in 1 are converted into the bird's-eye view map coordinates of the target object in the bird's-eye view map, and the calibration function is different from the first camera arrangement. Based on the correspondence between the captured image coordinates of the target object in the second captured image captured by the second camera arrangement and the bird's-eye view map coordinates of the target object in the bird's-eye view map, the second camera arrangement is adopted. A corresponding second transformation parameter is specified, the transformation parameter being provided programmatically comprising a projection transformation matrix or a perspective projection transformation matrix.

以上説明したように本発明によれば、キャリブレーションに係るコストを抑制することが可能である。 As described above, according to the present invention, it is possible to suppress the cost related to calibration.

本発明の実施形態の比較例に係る情報処理装置8の構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing apparatus 8 which concerns on the comparative example of embodiment of this invention. 撮像画像座標と、俯瞰マップ座標との対応を得るための方法を説明するための説明図である。It is explanatory drawing for demonstrating the method for obtaining the correspondence between the captured image coordinate, and the bird's-eye view map coordinate. 本発明の第1の実施形態に係る情報処理装置1の構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing apparatus 1 which concerns on 1st Embodiment of this invention. 同実施形態に係る動作概要を示すフローチャート図である。It is a flowchart which shows the operation outline which concerns on the same embodiment. 初期キャリブレーションの詳細な動作を示すフローチャート図である。It is a flowchart which shows the detailed operation of the initial calibration. 初期キャリブレーションについて説明するための説明図である。It is explanatory drawing for demonstrating the initial calibration. 初期キャリブレーションについて説明するための説明図である。It is explanatory drawing for demonstrating the initial calibration. 同実施形態に係る再キャリブレーションの詳細な動作を示すフローチャート図である。It is a flowchart which shows the detailed operation of the recalibration which concerns on the same embodiment. 同実施形態に係る再キャリブレーションについて説明するための説明図である。It is explanatory drawing for demonstrating the recalibration which concerns on the embodiment. 同実施形態に係る再キャリブレーションについて説明するための説明図である。It is explanatory drawing for demonstrating the recalibration which concerns on the embodiment. 本発明の第2の実施形態に係る情報処理装置2の構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing apparatus 2 which concerns on 2nd Embodiment of this invention. 同実施形態に係る動作概要を示すフローチャート図である。It is a flowchart which shows the operation outline which concerns on the same embodiment. 変換パラメータの補正の詳細な動作を示すフローチャート図である。It is a flowchart which shows the detailed operation of the correction of a conversion parameter. 変換パラメータの補正について説明するための説明図である。It is explanatory drawing for demonstrating the correction of a conversion parameter. 変換パラメータの補正について説明するための説明図である。It is explanatory drawing for demonstrating the correction of a conversion parameter. 本発明の第3の実施形態に係る情報処理装置3の構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing apparatus 3 which concerns on 3rd Embodiment of this invention. 同実施形態に係る再キャリブレーションに係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation which concerns on the recalibration which concerns on the same embodiment. 同実施形態に係る再キャリブレーションについて説明するための説明図である。It is explanatory drawing for demonstrating the recalibration which concerns on the embodiment. 同実施形態に係る再キャリブレーションについて説明するための説明図である。It is explanatory drawing for demonstrating the recalibration which concerns on the embodiment. 本発明の実施形態に係る情報処理装置1000のハードウェア構成を示す説明図である。It is explanatory drawing which shows the hardware composition of the information processing apparatus 1000 which concerns on embodiment of this invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 Further, in the present specification and the drawings, a plurality of components having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numerals. However, if it is not necessary to particularly distinguish each of the plurality of components having substantially the same functional configuration, only the same reference numerals are given.

<<1.背景>>
本発明の実施形態についての説明に当たり、まず本発明の実施形態の創作に至った背景を説明する。
<< 1. Background >>
In explaining the embodiment of the present invention, first, the background leading to the creation of the embodiment of the present invention will be described.

工事現場や商業施設等において、カメラで撮像された撮像画像から、人物等の物体の位置を検出したり、位置を追跡したりすることが行われている。人間が見て把握したり、各種解析等に用いたりするためには、実空間に対応し、真上から俯瞰した俯瞰マップにおける位置座標を得ることが望ましい。しかし、真上から俯瞰するようにカメラを配置することは困難であるため、斜め上方から見下ろすように配置されたカメラが用いられることも多い。 At construction sites, commercial facilities, and the like, the position of an object such as a person is detected or tracked from an image captured by a camera. In order for humans to see and grasp it and use it for various analyzes, it is desirable to obtain the position coordinates in the bird's-eye view map that corresponds to the real space and is viewed from directly above. However, since it is difficult to arrange the camera so as to look down from directly above, a camera arranged so as to look down from diagonally above is often used.

そこで、このような斜め上方から見下ろすように配置されたカメラで撮像された撮像画像から得られた物体の位置座標を、俯瞰マップへマッピングする(俯瞰マップにおける位置座標に変換する)ことが行われている。このようなマッピングには射影変換行列や透視投影変換行列等の変換パラメータが用いられている。 Therefore, the position coordinates of the object obtained from the captured image captured by the camera arranged so as to look down from diagonally above are mapped to the bird's-eye view map (converted to the position coordinates in the bird's-eye view map). ing. Transformation parameters such as a projective transformation matrix and a perspective projection transformation matrix are used for such mapping.

例えば、撮像画像から俯瞰マップへの射影変換行列をH、撮像画像における位置座標をG(x,y)とすると、俯瞰マップにおける位置座標F(x,y)は次の式(1)により得ることが可能である。 For example, assuming that the projective transformation matrix from the captured image to the bird's-eye view map is H and the position coordinates in the captured image are G (x, y), the position coordinates F (x, y) in the bird's-eye view map are obtained by the following equation (1). It is possible.

Figure 0007047306000001
Figure 0007047306000001

撮像画像から俯瞰マップへの変換パラメータ(例えば射影変換行列)は、撮像画像における位置座標(以下、撮像画像座標と呼称する場合がある)と、俯瞰マップにおける位置座標(以下、俯瞰マップ座標と呼称する場合がある)との対応を複数用いることで求めることが可能である。このように撮像画像から俯瞰マップへの変換パラメータを求めることを以下では俯瞰マップキャリブレーション、あるいは単にキャリブレーションと呼ぶ。 The conversion parameters from the captured image to the bird's-eye view map (for example, the projective transformation matrix) are the position coordinates in the captured image (hereinafter, may be referred to as captured image coordinates) and the position coordinates in the bird's-eye view map (hereinafter referred to as bird's-eye view map coordinates). It can be obtained by using multiple correspondences with (may be). Obtaining the conversion parameters from the captured image to the bird's-eye view map in this way is hereinafter referred to as bird's-eye view map calibration, or simply calibration.

上述したように、キャリブレーションを行うためには、撮像画像座標と、俯瞰マップ座標との対応を複数用意する必要がある。そのため、例えば、俯瞰マップに対応する実空間に設置された複数の物体を用いて撮像画像座標と、俯瞰マップ座標との対応を複数用意して、キャリブレーションすることが行われている As described above, in order to perform calibration, it is necessary to prepare a plurality of correspondences between the captured image coordinates and the bird's-eye view map coordinates. Therefore, for example, using a plurality of objects installed in the real space corresponding to the bird's-eye view map, a plurality of correspondences between the captured image coordinates and the bird's-eye view map coordinates are prepared and calibrated.

以下、このようにキャリブレーションのために用いられる物体を目標物体と呼称する。なお、目標物体は、キャリブレーションのために新たに設置される物体に限定されず、例えば実空間に既に存在している物体を目標物体として用いることも可能である。 Hereinafter, the object used for calibration in this way is referred to as a target object. The target object is not limited to the object newly installed for calibration, and for example, an object that already exists in the real space can be used as the target object.

ここで、図1、図2を参照して、このように複数の目標物体を用いたキャリブレーションを行う情報処理装置の一例について、本発明の実施形態の比較例として説明する。 Here, with reference to FIGS. 1 and 2, an example of an information processing apparatus that performs calibration using a plurality of target objects in this way will be described as a comparative example of an embodiment of the present invention.

図1は、本比較例に係る情報処理装置8の構成例を示すブロック図である。本比較例に係る情報処理装置8は、図1に示すように、制御部810、画像取得部860、操作部870、出力部880、及び記憶部890を備える。本比較例に係る情報処理装置8は、撮像画像から俯瞰マップへの変換パラメータを求めるキャリブレーションを行い、当該射影変換行列を用いて、撮像画像に映る物体の俯瞰マップ座標を得る情報処理装置である。以下、情報処理装置8の概略構成を説明する。 FIG. 1 is a block diagram showing a configuration example of the information processing apparatus 8 according to this comparative example. As shown in FIG. 1, the information processing apparatus 8 according to this comparative example includes a control unit 810, an image acquisition unit 860, an operation unit 870, an output unit 880, and a storage unit 890. The information processing device 8 according to this comparative example is an information processing device that obtains the bird's-eye view map coordinates of an object reflected in the captured image by performing calibration for obtaining conversion parameters from the captured image to the bird's-eye view map and using the projective transformation matrix. be. Hereinafter, the schematic configuration of the information processing apparatus 8 will be described.

制御部810は、情報処理装置8の各構成を制御する。また、本比較例に係る制御部810は、図1に示すように、物体位置特定部811、キャリブレーション部813、及び座標変換部815としても機能する。 The control unit 810 controls each configuration of the information processing apparatus 8. Further, as shown in FIG. 1, the control unit 810 according to this comparative example also functions as an object position specifying unit 811, a calibration unit 813, and a coordinate conversion unit 815.

物体位置特定部811は、撮像画像を取得する画像取得部860から提供された撮像画像に映る物体の、撮像画像における位置座標(撮像画像座標)を特定する。物体位置特定部811による撮像画像座標の特定方法は特に限定されないが、例えば操作部870を用いたユーザ操作に基づいて撮像画像座標が特定されてもよいし、画像処理技術により撮像画像座標が特定されてもよい。 The object position specifying unit 811 specifies the position coordinates (captured image coordinates) of the object reflected in the captured image provided by the image acquisition unit 860 for acquiring the captured image in the captured image. The method of specifying the captured image coordinates by the object position specifying unit 811 is not particularly limited, but for example, the captured image coordinates may be specified based on the user operation using the operation unit 870, or the captured image coordinates are specified by the image processing technique. May be done.

物体位置特定部811は、撮像画像座標をキャリブレーション部813、または座標変換部815へ提供する。例えば、キャリブレーションに係る作業を行っている場合には、物体位置特定部811は、目標物体の撮像画像座標をキャリブレーション部813へ提供する。また、キャリブレーションが完了した後、撮像画像に映る物体の俯瞰マップ位置を得たい場合には、物体位置特定部811は、当該物体の撮像画像座標を座標変換部815へ提供する。 The object position specifying unit 811 provides the captured image coordinates to the calibration unit 813 or the coordinate conversion unit 815. For example, when the work related to the calibration is performed, the object position specifying unit 811 provides the captured image coordinates of the target object to the calibration unit 813. Further, when it is desired to obtain the bird's-eye view map position of the object reflected in the captured image after the calibration is completed, the object position specifying unit 811 provides the captured image coordinates of the object to the coordinate conversion unit 815.

キャリブレーション部813は、撮像画像座標と、俯瞰マップ座標との対応に基づいて、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータを特定する。例えば変換パラメータが射影変換行列である場合、4組以上の撮像画像座標と、俯瞰マップ座標との対応が得られれば、上記の式(1)を利用して射影変換行列を特定することが可能である。例えば、キャリブレーション部813は、4組以上の撮像画像座標と、俯瞰マップ座標との対応から得られる連立方程式を解くことにより、3×3の射影変換行列(変換パラメータの一例)を特定(算出)してもよい。 The calibration unit 813 specifies a conversion parameter for converting the captured image coordinates into the bird's-eye view map coordinates based on the correspondence between the captured image coordinates and the bird's-eye view map coordinates. For example, when the transformation parameter is a projective transformation matrix, it is possible to specify the projective transformation matrix using the above equation (1) if the correspondence between the four or more sets of captured image coordinates and the bird's-eye view map coordinates is obtained. Is. For example, the calibration unit 813 specifies (calculates) a 3 × 3 projective transformation matrix (an example of transformation parameters) by solving simultaneous equations obtained from the correspondence between four or more sets of captured image coordinates and the bird's-eye view map coordinates. ) May.

ここで撮像画像座標と、俯瞰マップ座標との対応を得るための方法について図2を参照して説明を行う。図2は、撮像画像座標と、俯瞰マップ座標との対応を得るための方法を説明するための説明図である。 Here, a method for obtaining a correspondence between the captured image coordinates and the bird's-eye view map coordinates will be described with reference to FIG. FIG. 2 is an explanatory diagram for explaining a method for obtaining a correspondence between the captured image coordinates and the bird's-eye view map coordinates.

図2には、真上から見た実空間R100が示されており、実空間にはカメラ9と目標物体T101~T104が設置されている。また、図2に示す通り、実空間R100には点Oを原点とした実空間座標系が設定されている。 FIG. 2 shows the real space R100 seen from directly above, and the camera 9 and the target objects T101 to T104 are installed in the real space. Further, as shown in FIG. 2, a real space coordinate system with the point OR as the origin is set in the real space R100 .

カメラ9により撮像される画像は例えば図2に示す撮像画像G100のようになる。撮像画像G100における目標物体T101~T104の位置座標(撮像画像座標)P101~P104は、上述したように、物体位置特定部811により特定される。 The image captured by the camera 9 is, for example, the captured image G100 shown in FIG. The position coordinates (captured image coordinates) P101 to P104 of the target objects T101 to T104 in the captured image G100 are specified by the object position specifying unit 811 as described above.

また、実空間R100に対応する俯瞰マップは図2に示す俯瞰マップM100のようになる。俯瞰マップM100は、実空間R100の原点Oと対応した原点Oを有し、所定の縮尺により実空間R100における各位置と俯瞰マップM100における各位置が対応している。そのため、目標物体T101~T104の俯瞰マップM100における位置座標(俯瞰マップ座標)を得るためには、例えば目標物体T101~T104の実空間位置がわかればよい。 Further, the bird's-eye view map corresponding to the real space R100 is like the bird's-eye view map M100 shown in FIG. The bird's-eye view map M100 has an origin OM corresponding to the origin OR of the real space R100, and each position in the real space R100 and each position in the bird's-eye view map M100 correspond to each other at a predetermined scale. Therefore, in order to obtain the position coordinates (overhead map coordinates) of the target objects T101 to T104 in the bird's-eye view map M100, for example, the real space positions of the target objects T101 to T104 may be known.

目標物体T101~T104は、例えば実空間位置が既知である既定の位置に設置されてもよい。あるいは、実空間位置が不明な位置に目標物体T101~T104が設置された場合、周知の測位方法により、目標物体T101~T104の実空間位置が測定されてもよい。係る測位方法は、例えば手動で行われる方法でもよいし、GPS受信機等の測位用の機器を用いた自動的な方法であってもよい。目標物体の実空間位置の情報は、不図示の通信部を介して入力されてもよいし、ユーザ(操作者)による操作部870の操作により入力されてもよい。 The target objects T101 to T104 may be installed at a predetermined position where the real space position is known, for example. Alternatively, when the target objects T101 to T104 are installed at positions where the real space position is unknown, the real space positions of the target objects T101 to T104 may be measured by a well-known positioning method. The positioning method may be, for example, a manual method or an automatic method using a positioning device such as a GPS receiver. Information on the real space position of the target object may be input via a communication unit (not shown), or may be input by an operation of the operation unit 870 by a user (operator).

このようにして得られた目標物体の実空間位置の情報がキャリブレーション部813へ提供され、キャリブレーション部813は、当該実空間位置に基づいて、目標物体T101~T104の俯瞰マップ座標F101~F104を得ることが可能である。なお、ユーザが実空間位置から俯瞰マップ座標を特定してもよく、係る場合、ユーザは操作部870を操作して俯瞰マップ座標を直接的に入力してもよい。 Information on the real space position of the target object thus obtained is provided to the calibration unit 813, and the calibration unit 813 has the bird's-eye view map coordinates F101 to F104 of the target objects T101 to T104 based on the real space position. Is possible. The user may specify the bird's-eye view map coordinates from the real space position, and in such a case, the user may operate the operation unit 870 to directly input the bird's-eye view map coordinates.

上記のようにして、キャリブレーション部813は、撮像画像座標P101~P104と、俯瞰マップ座標F101~F104の対応を、キャリブレーションに利用することが可能となる。キャリブレーション部813により特定された変換パラメータは、記憶部890に記憶される変換パラメータDB891に格納される。 As described above, the calibration unit 813 can use the correspondence between the captured image coordinates P101 to P104 and the bird's-eye view map coordinates F101 to F104 for calibration. The conversion parameter specified by the calibration unit 813 is stored in the conversion parameter DB891 stored in the storage unit 890.

図1に戻って説明を続ける。座標変換部815は、変換パラメータを用いて、物体位置特定部811から提供される撮像画像座標を俯瞰マップ座標に変換する座標変換を行う。座標変換部815は、記憶部890に記憶された変換パラメータDB891に格納された変換パラメータ、すなわち、上述したキャリブレーション部813のキャリブレーションにより得られた変換パラメータを用いて、係る座標変換を行ってもよい。座標変換部815の座標変換により得られた物体の俯瞰マップ座標は、例えば出力部880から出力される。 The explanation will be continued by returning to FIG. The coordinate conversion unit 815 performs coordinate conversion that converts the captured image coordinates provided by the object position specifying unit 811 into the bird's-eye view map coordinates by using the conversion parameters. The coordinate conversion unit 815 performs such coordinate conversion using the conversion parameters stored in the conversion parameter DB891 stored in the storage unit 890, that is, the conversion parameters obtained by the calibration of the calibration unit 813 described above. May be good. The bird's-eye view map coordinates of the object obtained by the coordinate conversion of the coordinate conversion unit 815 are output from, for example, the output unit 880.

以上、本比較例に係る情報処理装置8の概略構成を説明した。上述したように、情報処理装置8によりキャリブレーションを行うためには、撮像画像座標と、俯瞰マップ座標の対応を得る必要があり、俯瞰マップ座標を得るためには、目標物体の実空間位置を得る必要がある。 The schematic configuration of the information processing apparatus 8 according to this comparative example has been described above. As described above, in order to perform calibration by the information processing apparatus 8, it is necessary to obtain the correspondence between the captured image coordinates and the bird's-eye view map coordinates, and in order to obtain the bird's-eye view map coordinates, the real space position of the target object is determined. Need to get.

目標物体の実空間位置を得るためには、上述したように既定の位置に設置する、手動で測位する、あるいはGPS受信機等の測位用の機器を用いる等の必要がある。測位用の機器を用いた場合、目標物体の製造コストが増加する。また、屋内や地下等では測位用の機器を用いることが不可能な場合もあった。 In order to obtain the real space position of the target object, it is necessary to install it at a predetermined position as described above, perform manual positioning, or use a positioning device such as a GPS receiver. When a positioning device is used, the manufacturing cost of the target object increases. In some cases, it may not be possible to use positioning equipment indoors or underground.

一方、目標物体を既定の位置に設置したり、手動で測位したりすることは、キャリブレーションに係る作業コストの増加につながる。カメラの配置が変更されない前提であれば、1回キャリブレーションを行えば十分であるが、カメラの配置が変更されたり、新たなカメラが追加されたりすることも考えられる。例えば、工事現場では、工事範囲が移動する場合にカメラの配置変更を行ったり、工事範囲が広くなる場合にカメラの追加を行うことが考えられる。また、商業施設においても、フロアの状況等に応じて、カメラの配置変更やカメラの追加を行うことが考えられる。 On the other hand, setting the target object in a predetermined position or manually positioning the target object leads to an increase in the work cost related to calibration. Assuming that the camera arrangement is not changed, it is sufficient to perform calibration once, but it is also possible that the camera arrangement is changed or a new camera is added. For example, at a construction site, it is conceivable to change the arrangement of cameras when the construction range moves, or to add cameras when the construction range becomes wide. Also, in commercial facilities, it is conceivable to change the layout of cameras or add cameras depending on the floor conditions.

このようにカメラの配置変更やカメラの追加が行われる場合、カメラの配置変更、またはカメラの追加の度にキャリブレーションを行う必要がある。そのため、カメラの配置変更、またはカメラの追加の度に目標物体を既定の位置に設置したり、手動で測位したりすることは、作業コストを大きく増大させてしまう。 When the camera arrangement is changed or the camera is added in this way, it is necessary to calibrate each time the camera arrangement is changed or the camera is added. Therefore, setting the target object at a predetermined position or manually positioning the target object each time the camera is rearranged or added, greatly increases the work cost.

そこで、本件発明者は、上記事情を一着眼点にして本発明の実施形態を創作するに至った。以下に説明する本発明の各実施形態による情報処理装置は、キャリブレーション済みのカメラ配置において得られた目標物体の俯瞰マップ座標を記憶しておき、新たなカメラ配置におけるキャリブレーションに用いることでコストを抑制することが可能である。以下では、係る効果を実現する本発明の各実施形態について、順次詳細に説明する。 Therefore, the inventor of the present invention has come to create an embodiment of the present invention with the above circumstances as the first point of view. The information processing apparatus according to each embodiment of the present invention described below stores the bird's-eye view map coordinates of the target object obtained in the calibrated camera arrangement, and is used for calibration in the new camera arrangement. It is possible to suppress. Hereinafter, each embodiment of the present invention that realizes such an effect will be described in detail in sequence.

<<2.各実施形態の詳細な説明>>
<2-1.第1の実施形態>
(概要)
まず、本発明の第1の実施形態の概要を説明する。本実施形態に係る情報処理装置は、変換パラメータが特定された、つまりキャリブレーションが既に行われたカメラ配置(以下、第1のカメラ配置と呼ぶ場合がある)で撮像された撮像画像における目標物体の撮像画像座標を、俯瞰マップ座標に変換する。本実施形態に係る情報処理装置は、このようにして得られた俯瞰マップ座標を一旦記憶し、例えばカメラ配置の変更、またはカメラの追加を行う。そして、本実施形態に係る情報処理装置は、カメラ配置変更後、あるいはカメラ追加後のカメラ配置(以下、第2のカメラ配置と呼ぶ場合がある)で撮像された撮像画像における目標物体の撮像画像座標と、記憶された俯瞰マップ座標との対応に基づいて、キャリブレーションを行う。
<< 2. Detailed explanation of each embodiment >>
<2-1. First Embodiment>
(overview)
First, the outline of the first embodiment of the present invention will be described. The information processing apparatus according to the present embodiment is a target object in a captured image captured with a camera arrangement in which conversion parameters are specified, that is, a camera arrangement that has already been calibrated (hereinafter, may be referred to as a first camera arrangement). Converts the captured image coordinates of the above to the bird's-eye view map coordinates. The information processing apparatus according to the present embodiment temporarily stores the bird's-eye view map coordinates obtained in this way, and for example, changes the camera arrangement or adds a camera. The information processing apparatus according to the present embodiment is a captured image of a target object in a captured image captured by a camera arrangement after changing the camera arrangement or after adding a camera (hereinafter, may be referred to as a second camera arrangement). Calibration is performed based on the correspondence between the coordinates and the stored bird's-eye view map coordinates.

このようにキャリブレーションを行うことで、第2のカメラ配置におけるキャリブレーションに係るコストを抑制することが可能である。以下、このような本実施形態に係る情報処理装置の構成例について、図3を参照して説明を行う。 By performing the calibration in this way, it is possible to suppress the cost related to the calibration in the second camera arrangement. Hereinafter, a configuration example of the information processing apparatus according to the present embodiment will be described with reference to FIG.

(構成例)
図3は、本発明の第1の実施形態に係る情報処理装置1の構成例を示すブロック図である。本実施形態に係る情報処理装置1は、図3に示すように、制御部10、画像取得部60、操作部70、出力部80、及び記憶部90を備える。
(Configuration example)
FIG. 3 is a block diagram showing a configuration example of the information processing apparatus 1 according to the first embodiment of the present invention. As shown in FIG. 3, the information processing apparatus 1 according to the present embodiment includes a control unit 10, an image acquisition unit 60, an operation unit 70, an output unit 80, and a storage unit 90.

制御部10は、情報処理装置1の各構成を制御する。また、本実施形態に係る制御部10は、図3に示すように、物体位置特定部11、キャリブレーション部13、及び座標変換部15としても機能する。制御部10が有する物体位置特定部11、キャリブレーション部13、及び座標変換部15の機能については後述する。 The control unit 10 controls each configuration of the information processing device 1. Further, as shown in FIG. 3, the control unit 10 according to the present embodiment also functions as an object position specifying unit 11, a calibration unit 13, and a coordinate conversion unit 15. The functions of the object position specifying unit 11, the calibration unit 13, and the coordinate conversion unit 15 of the control unit 10 will be described later.

画像取得部60は、不図示のカメラと接続され、当該カメラにより撮像された撮像画像を取得するインタフェースである。なお、画像取得部60は、複数のカメラと接続されて、複数のカメラから撮像画像を取得してもよい。画像取得部60は、取得した撮像画像を制御部10へ提供する。 The image acquisition unit 60 is an interface that is connected to a camera (not shown) and acquires an image captured by the camera. The image acquisition unit 60 may be connected to a plurality of cameras to acquire captured images from the plurality of cameras. The image acquisition unit 60 provides the acquired captured image to the control unit 10.

なお、情報処理装置1自体がカメラを含んでもよい。係る場合には画像取得部60に代えて、または加えてCCD(Charge Coupled Device)あるいはCMOS(Complementary Metal Oxide Semiconductor)等を含む撮像部を情報処理装置1が備えてもよい。 The information processing device 1 itself may include a camera. In such a case, the information processing apparatus 1 may include an image pickup unit including a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like in place of or in addition to the image acquisition unit 60.

操作部70は、情報処理装置1のユーザ(操作者)による入力を受け付ける。例えば、操作部70は、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー、またはダイヤル等により実現されてもよい。 The operation unit 70 receives an input by a user (operator) of the information processing device 1. For example, the operation unit 70 may be realized by a mouse, a keyboard, a touch panel, a button, a switch, a lever, a dial, or the like.

出力部80は、例えばディスプレイであり、俯瞰マップにおける物体の位置等を目的に応じて表示出力する。例えば当該物体が静止していれば当該物体の位置を俯瞰マップ上に表示出力すればよいし、当該物体が移動していれば、その軌跡を各フレームの俯瞰マップ座標に基づいて表示出力すればよい。 The output unit 80 is, for example, a display, and displays and outputs the position of an object on the bird's-eye view map according to the purpose. For example, if the object is stationary, the position of the object may be displayed and output on the bird's-eye view map, and if the object is moving, its trajectory may be displayed and output based on the bird's-eye view map coordinates of each frame. good.

記憶部90は、情報処理装置1の動作に用いられるプログラム及びデータを記憶する。また、記憶部90は図3に示すように変換パラメータDB91、及び位置座標DB93を記憶する。 The storage unit 90 stores programs and data used for the operation of the information processing device 1. Further, the storage unit 90 stores the conversion parameter DB 91 and the position coordinate DB 93 as shown in FIG.

変換パラメータDB91には、後述するキャリブレーション部13から提供される、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータが格納される。また、位置座標DB93には、後述する座標変換部15から提供される、目標物体の俯瞰マップ座標が格納される。なお、本実施形態に係る記憶部90は、係る位置座標DB93を記憶する点で図1に示した記憶部890と異なる。 The conversion parameter DB 91 stores conversion parameters for converting the captured image coordinates into the bird's-eye view map coordinates provided by the calibration unit 13 described later. Further, the position coordinate DB 93 stores the bird's-eye view map coordinates of the target object provided by the coordinate conversion unit 15 described later. The storage unit 90 according to the present embodiment is different from the storage unit 890 shown in FIG. 1 in that the storage unit 90 according to the present embodiment stores the position coordinate DB 93.

以上、本実施形態に係る情報処理装置1の全体構成を説明した。続いて、情報処理装置1が備える制御部10が有する物体位置特定部11、キャリブレーション部13、及び座標変換部15の機能について説明する。 The overall configuration of the information processing apparatus 1 according to the present embodiment has been described above. Subsequently, the functions of the object position specifying unit 11, the calibration unit 13, and the coordinate conversion unit 15 of the control unit 10 included in the information processing device 1 will be described.

物体位置特定部11は、画像取得部60から提供された撮像画像に映る物体(目標物体を含む)の撮像画像座標を特定する。物体位置特定部11は、操作部870を用いたユーザ操作に基づいて物体の撮像画像座標を特定してもよいし、画像処理技術により撮像画像座標を特定してもよい。例えば、画像処理技術により撮像画像座標を特定する場合、物体位置特定部11は、テンプレートマッチング等の手法を用いて撮像画像から物体を検出し、撮像画像において当該物体の領域内で最も下の位置座標を当該物体の撮像画像座標として特定してもよい。 The object position specifying unit 11 specifies the captured image coordinates of an object (including a target object) reflected in the captured image provided by the image acquisition unit 60. The object position specifying unit 11 may specify the captured image coordinates of the object based on the user operation using the operation unit 870, or may specify the captured image coordinates by an image processing technique. For example, when specifying the captured image coordinates by image processing technology, the object position specifying unit 11 detects an object from the captured image by using a technique such as template matching, and the lowest position in the region of the object in the captured image. The coordinates may be specified as the captured image coordinates of the object.

また、物体位置特定部11は、撮像画像から目標物体候補の撮像画像座標を検出し、検出された目標物体候補の撮像画像座標を、出力部80に出力(例えば表示)させてもよい。出力部80の出力を確認したユーザ(操作者)は、操作部70を介して目標物体候補の中から目標物体の決定を行ってもよい。そして、物体位置特定部11は、操作部70を介した操作者の決定に基づいて、決定された目標物体候補の撮像画像座標を目標物体の撮像画像座標として特定してもよい。 Further, the object position specifying unit 11 may detect the captured image coordinates of the target object candidate from the captured image, and output (for example, display) the captured image coordinates of the detected target object candidate to the output unit 80. The user (operator) who has confirmed the output of the output unit 80 may determine the target object from the target object candidates via the operation unit 70. Then, the object position specifying unit 11 may specify the captured image coordinates of the determined target object candidate as the captured image coordinates of the target object based on the determination of the operator via the operation unit 70.

係る構成により、目標物体の撮像画像座標がより高精度に特定され得る。目標物体の撮像画像座標の特定に誤りがあると、キャリブレーション精度に大きな影響を及ぼす恐れがあるため、目標物体の撮像画像座標が高精度に特定されることで、キャリブレーション精度も向上し得る。 With such a configuration, the captured image coordinates of the target object can be specified with higher accuracy. If there is an error in specifying the captured image coordinates of the target object, the calibration accuracy may be significantly affected. Therefore, the calibration accuracy can be improved by specifying the captured image coordinates of the target object with high accuracy. ..

キャリブレーション部13は、撮像画像座標と、俯瞰マップ座標との対応に基づいて、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータを特定する。キャリブレーション部13が特定する変換パラメータは、例えば射影変換行列であってもよい。キャリブレーション部13は、例えば図1に示した比較例に係るキャリブレーション部813と同様に射影変換行列を特定し得る。 The calibration unit 13 specifies a conversion parameter for converting the captured image coordinates into the bird's-eye view map coordinates based on the correspondence between the captured image coordinates and the bird's-eye view map coordinates. The transformation parameter specified by the calibration unit 13 may be, for example, a projective transformation matrix. The calibration unit 13 can specify the projection transformation matrix, for example, in the same manner as the calibration unit 813 according to the comparative example shown in FIG.

最初にカメラが設置された際のカメラ配置において本実施形態に係るキャリブレーション部13がキャリブレーションを行う場合、例えば操作部70を介したユーザ操作により目標物体の実空間位置、または俯瞰マップ座標が入力されてもよい。 When the calibration unit 13 according to the present embodiment calibrates in the camera arrangement when the camera is first installed, for example, the real space position of the target object or the bird's-eye view map coordinates are obtained by the user operation via the operation unit 70. It may be entered.

ただし、記憶部90の位置座標DB93に目標物体の俯瞰マップ座標が格納されている場合、本実施形態に係るキャリブレーション部13は、位置座標DB93に格納された(記憶された)目標物体の俯瞰マップ座標を用いてキャリブレーションを行う。位置座標DB93に格納された目標物体の俯瞰マップ座標は、後述する座標変換部15が行う座標変換により得られる俯瞰マップ座標である。 However, when the bird's-eye view map coordinates of the target object are stored in the position coordinate DB 93 of the storage unit 90, the calibration unit 13 according to the present embodiment has a bird's-eye view of the target object stored (stored) in the position coordinate DB 93. Calibrate using map coordinates. The bird's-eye view map coordinates of the target object stored in the position coordinate DB 93 are the bird's-eye view map coordinates obtained by the coordinate conversion performed by the coordinate conversion unit 15 described later.

座標変換部15は、変換パラメータを用いて、物体位置特定部11から提供される撮像画像座標を俯瞰マップ座標に変換する座標変換を行う。座標変換部15は、記憶部90に記憶された変換パラメータDB91に格納された変換パラメータ、すなわち、上述したキャリブレーション部13のキャリブレーションにより得られた変換パラメータを用いて、係る座標変換を行ってもよい。座標変換部15の座標変換により得られた物体の俯瞰マップ座標は、例えば出力部80から出力される。 The coordinate conversion unit 15 performs coordinate conversion for converting the captured image coordinates provided by the object position specifying unit 11 into the bird's-eye view map coordinates by using the conversion parameters. The coordinate conversion unit 15 performs such coordinate conversion using the conversion parameters stored in the conversion parameter DB 91 stored in the storage unit 90, that is, the conversion parameters obtained by the calibration of the calibration unit 13 described above. May be good. The bird's-eye view map coordinates of the object obtained by the coordinate conversion of the coordinate conversion unit 15 are output from, for example, the output unit 80.

また、本実施形態に係る座標変換部15は、第1のカメラ配置に対応する第1の変換パラメータを用いて、当該第1のカメラ配置で撮像された第1の撮像画像における目標物体の撮像画像座標を、俯瞰マップにおける当該目標物体の俯瞰マップ座標に変換する。さらに、座標変換部15は、このようにして得た俯瞰マップ座標を記憶部90へ提供し、位置座標DB93に格納させる。 Further, the coordinate conversion unit 15 according to the present embodiment uses the first conversion parameter corresponding to the first camera arrangement to capture the target object in the first captured image captured by the first camera arrangement. The image coordinates are converted into the bird's-eye view map coordinates of the target object in the bird's-eye view map. Further, the coordinate conversion unit 15 provides the bird's-eye view map coordinates obtained in this way to the storage unit 90 and stores them in the position coordinate DB 93.

係る構成により、キャリブレーション部13は、第1のカメラ配置とは異なる第2のカメラ配置においてキャリブレーションを行う際に、上述したように位置座標DB93に格納された目標物体の俯瞰マップ座標を用いることが可能となる。つまりキャリブレーション部13は、第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における目標物体の撮像画像座標と、俯瞰マップにおける当該目標物体の俯瞰マップ座標との対応に基づいて、当該第2のカメラ配置に対応した第2の変換パラメータを特定することができる。 With this configuration, the calibration unit 13 uses the bird's-eye view map coordinates of the target object stored in the position coordinate DB 93 as described above when performing calibration in the second camera arrangement different from the first camera arrangement. It becomes possible. That is, the calibration unit 13 has the captured image coordinates of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement, and the bird's-eye view map coordinates of the target object in the bird's-eye view map. Based on the correspondence, the second conversion parameter corresponding to the second camera arrangement can be specified.

係る構成によれば、第2のカメラ配置においてキャリブレーションを行う際に、実空間において目標物体の測位を行わなくてもよいため、作業コストが抑制される。 According to this configuration, when the calibration is performed in the second camera arrangement, it is not necessary to perform the positioning of the target object in the real space, so that the work cost is suppressed.

(動作例)
以上、本実施形態に係る情報処理装置1の構成例について説明した。続いて、本実施形態の動作例について図4~図10を参照して説明する。
(Operation example)
The configuration example of the information processing apparatus 1 according to the present embodiment has been described above. Subsequently, an operation example of this embodiment will be described with reference to FIGS. 4 to 10.

図4は、本実施形態に係る動作概要を示すフローチャート図である。図4に示すように、まず、最初にカメラが設置された際のカメラ配置における変換パラメータを求めるためのキャリブレーション(以下、初期キャリブレーションと呼ぶ)が行われる(S10)。ステップS10の初期キャリブレーションの詳細については、図5~図7を参照して後述する。 FIG. 4 is a flowchart showing an outline of the operation according to the present embodiment. As shown in FIG. 4, first, calibration (hereinafter referred to as initial calibration) for obtaining conversion parameters in the camera arrangement when the camera is first installed is performed (S10). Details of the initial calibration in step S10 will be described later with reference to FIGS. 5 to 7.

続いて、カメラの配置変更、または追加を行う場合(S12においてYES)、カメラ配置変更後、あるいはカメラ追加後のカメラ配置における変換パラメータを求めるための
キャリブレーション(以下、再キャリブレーションと呼ぶ)が行われる(S14)。ステップS14の再キャリブレーションの詳細な動作については、図8~図10を参照して後述する。
Subsequently, when the camera arrangement is changed or added (YES in S12), the calibration for obtaining the conversion parameters in the camera arrangement after the camera arrangement is changed or after the camera is added (hereinafter referred to as recalibration) is performed. It is done (S14). The detailed operation of the recalibration in step S14 will be described later with reference to FIGS. 8 to 10.

一方、カメラの配置変更、追加のいずれも行われない場合(S12においてNO)、動作は終了する。なお、図示されていないが、ステップS10とステップS12の間には、上述したように、撮像画像に映る人物等の物体の位置を俯瞰マップ上に表示出力する処理等が含まれていてもよい。 On the other hand, when neither the camera arrangement is changed nor the addition is performed (NO in S12), the operation ends. Although not shown, between step S10 and step S12, as described above, a process of displaying and outputting the position of an object such as a person reflected in the captured image on the bird's-eye view map may be included. ..

以上、本実施形態に係る動作概要について説明した。続いて、図5~図7を参照して、図4に示したステップS10の初期キャリブレーションについてより詳細に説明する。図5は、初期キャリブレーションの詳細な動作を示すフローチャート図である。また、図6、図7は、初期キャリブレーションについて説明するための説明図である。 The outline of the operation according to the present embodiment has been described above. Subsequently, with reference to FIGS. 5 to 7, the initial calibration of step S10 shown in FIG. 4 will be described in more detail. FIG. 5 is a flowchart showing the detailed operation of the initial calibration. 6 and 7 are explanatory views for explaining the initial calibration.

図6には、実空間R1と、実空間R1に設置されたカメラ5Aにより撮像された撮像画像G1が示されている。また、図7には、実空間R1と、実空間R1に対応する俯瞰マップM1が示されている。なお、俯瞰マップM1のうち、領域MAは、カメラ5Aの撮像範囲に対応する領域を示している。また、図6に示される実空間R1は真上から見た平面図であり、図7に示される実空間R1は横から見た側面図である。 FIG. 6 shows the real space R1 and the captured image G1 captured by the camera 5A installed in the real space R1. Further, FIG. 7 shows a real space R1 and a bird's-eye view map M1 corresponding to the real space R1. In the bird's-eye view map M1, the area MA indicates an area corresponding to the imaging range of the camera 5A. Further, the real space R1 shown in FIG. 6 is a plan view seen from directly above, and the real space R1 shown in FIG. 7 is a side view seen from the side.

図5に示すように、まず、目標物体T1~T4が実空間R1に設置される(S100)。続いて、目標物体T1~T4の実空間位置が測定され、目標物体T1~T4の実空間位置にそれぞれ対応する俯瞰マップ座標F1~F4が、例えば操作部70を介したユーザ操作により入力される(S102)。 As shown in FIG. 5, first, the target objects T1 to T4 are installed in the real space R1 (S100). Subsequently, the real space positions of the target objects T1 to T4 are measured, and the bird's-eye view map coordinates F1 to F4 corresponding to the real space positions of the target objects T1 to T4 are input by user operation via, for example, the operation unit 70. (S102).

続いて、画像取得部60により、カメラ5Aにより撮像された撮像画像G1が取得される(S104)。なお、撮像画像G1が取得された後、目標物体T1~T4は撤去されてもよい。続いて、物体位置特定部11が、目標物体T1~T4の撮像画像座標P1~P4をそれぞれ特定する(S106)。 Subsequently, the image acquisition unit 60 acquires the captured image G1 captured by the camera 5A (S104). The target objects T1 to T4 may be removed after the captured image G1 is acquired. Subsequently, the object position specifying unit 11 identifies the captured image coordinates P1 to P4 of the target objects T1 to T4, respectively (S106).

続いて、キャリブレーション部13が、撮像画像座標P1~P4と俯瞰マップ座標F1~F4との対応に基づいて、変換パラメータを特定する(S108)。ステップS108で特定された変換パラメータは、記憶部90の変換パラメータDB91に格納(記憶)される(S110)。 Subsequently, the calibration unit 13 specifies the conversion parameter based on the correspondence between the captured image coordinates P1 to P4 and the bird's-eye view map coordinates F1 to F4 (S108). The conversion parameter specified in step S108 is stored (stored) in the conversion parameter DB 91 of the storage unit 90 (S110).

以上、ステップS10の初期キャリブレーションについて説明した。続いて、図8~図10を参照して、図4に示したステップS14の再キャリブレーションについてより詳細に説明する。図8は、本実施形態に係る再キャリブレーションの詳細な動作を示すフローチャート図である。また、図9、図10は、本実施形態に係る再キャリブレーションについて説明するための説明図である。 The initial calibration in step S10 has been described above. Subsequently, the recalibration of step S14 shown in FIG. 4 will be described in more detail with reference to FIGS. 8 to 10. FIG. 8 is a flowchart showing a detailed operation of the recalibration according to the present embodiment. 9 and 10 are explanatory views for explaining the recalibration according to the present embodiment.

なお、図9、及び図10は、初期キャリブレーションが行われた後、最初に再キャリブレーションが行われる場合の例、つまり、カメラの配置変更、または追加が最初に行われる場合の例を示している。カメラの配置変更が行われる場合、図9、及び図10に示されるカメラ5Aとカメラ5Bは同一のカメラ5であってもよく、カメラ5Aが、配置変更前のカメラ5を示し、カメラ5Bが、配置変更後のカメラ5を示していると解されてもよい。また、カメラの追加が行われる場合には、カメラ5Aとカメラ5Bは異なるカメラであり、カメラ5Bが追加されたカメラである。 Note that FIGS. 9 and 10 show an example in which the recalibration is performed first after the initial calibration is performed, that is, an example in which the camera arrangement is changed or added first. ing. When the camera arrangement is changed, the camera 5A and the camera 5B shown in FIGS. 9 and 10 may be the same camera 5, the camera 5A indicates the camera 5 before the arrangement change, and the camera 5B , It may be understood that it indicates the camera 5 after the arrangement change. Further, when a camera is added, the camera 5A and the camera 5B are different cameras, and the camera 5B is added.

カメラ5Aのカメラ配置におけるキャリブレーションは既にステップS10において完了しているため、カメラ5Aのカメラ配置を上述した第1のカメラ配置、カメラ5Bのカメラ配置を上述した第2のカメラ配置とそれぞれ呼称する。 Since the calibration in the camera arrangement of the camera 5A has already been completed in step S10, the camera arrangement of the camera 5A is referred to as the above-mentioned first camera arrangement, and the camera arrangement of the camera 5B is referred to as the above-mentioned second camera arrangement. ..

図9には、実空間R10と、実空間R10に設置されたカメラ5Aにより第1のカメラ配置で撮像された第1の撮像画像G11、及び実空間R10に設置されたカメラ5Bにより第2のカメラ配置で撮像された第2の撮像画像G12が示されている。また、図10には、実空間R10と、実空間R10に対応する俯瞰マップM11及び俯瞰マップM12が示されている。なお、俯瞰マップM11のうち、領域MAは、カメラ5Aの撮像範囲に対応する領域を示し、俯瞰マップM12のうち、領域MBは、カメラ5Bの撮像範囲に対応する領域を示している。また、図9に示される実空間R10は真上から見た平面図であり、図10に示される実空間R10は横から見た側面図である。また、図10に示す俯瞰マップM11、及び俯瞰マップM12は、図7に示した俯瞰マップM1と同一の座標系を有している。 In FIG. 9, the real space R10, the first captured image G11 captured by the camera 5A installed in the real space R10 in the first camera arrangement, and the second camera 5B installed in the real space R10 are shown. A second captured image G12 captured in the camera arrangement is shown. Further, FIG. 10 shows the real space R10, and the bird's-eye view map M11 and the bird's-eye view map M12 corresponding to the real space R10. In the bird's-eye view map M11, the area MA indicates the area corresponding to the image pickup range of the camera 5A, and the area MB in the bird's-eye view map M12 indicates the area corresponding to the image pickup range of the camera 5B. Further, the real space R10 shown in FIG. 9 is a plan view seen from directly above, and the real space R10 shown in FIG. 10 is a side view seen from the side. Further, the bird's-eye view map M11 and the bird's-eye view map M12 shown in FIG. 10 have the same coordinate system as the bird's-eye view map M1 shown in FIG. 7.

図8に示すように、まず、目標物体T11~T14が実空間R10に設置される(S140)。続いて、画像取得部60により、カメラ5Aにより第1のカメラ配置で撮像された第1の撮像画像G11が取得される(S142)。続いて、物体位置特定部11が、第1の撮像画像G11における目標物体T11~T14の撮像画像座標P111~P114をそれぞれ特定する(S144)。 As shown in FIG. 8, first, the target objects T11 to T14 are installed in the real space R10 (S140). Subsequently, the image acquisition unit 60 acquires the first captured image G11 captured by the camera 5A in the first camera arrangement (S142). Subsequently, the object position specifying unit 11 identifies the captured image coordinates P111 to P114 of the target objects T11 to T14 in the first captured image G11 (S144).

続いて、座標変換部15が、記憶部90の変換パラメータDB91に格納された(記憶された)第1の変換パラメータを用いて、撮像画像座標P111~P114を俯瞰マップ座標F11~F14にそれぞれ変換する(S146)。なお、ステップS146で用いられる第1の変換パラメータは、カメラ5Aのカメラ配置(第1のカメラ配置)に対応した変換パラメータであり、例えば図5に示したステップS110において記憶された変換パラメータであってもよい。 Subsequently, the coordinate conversion unit 15 converts the captured image coordinates P111 to P114 into the bird's-eye view map coordinates F11 to F14, respectively, using the first conversion parameter stored (stored) in the conversion parameter DB 91 of the storage unit 90. (S146). The first conversion parameter used in step S146 is a conversion parameter corresponding to the camera arrangement (first camera arrangement) of the camera 5A, and is, for example, the conversion parameter stored in step S110 shown in FIG. You may.

ステップS146で得られた俯瞰マップ座標F11~F14は、記憶部90の位置座標DB93に格納(記憶)される(S147)。 The bird's-eye view map coordinates F11 to F14 obtained in step S146 are stored (stored) in the position coordinate DB 93 of the storage unit 90 (S147).

続いて、カメラの配置変更、またはカメラの追加が行われる(S148)。続いて、画像取得部60により、カメラ5Bにより第2のカメラ配置で撮像された第2の撮像画像G12が取得される(S150)。続いて、物体位置特定部11が、第2の撮像画像G12における目標物体T11~T14の撮像画像座標P121~P124をそれぞれ特定する(S152)。 Subsequently, the arrangement of the cameras is changed or the cameras are added (S148). Subsequently, the image acquisition unit 60 acquires the second captured image G12 captured by the camera 5B in the second camera arrangement (S150). Subsequently, the object position specifying unit 11 identifies the captured image coordinates P121 to P124 of the target objects T11 to T14 in the second captured image G12 (S152).

続いて、キャリブレーション部13が、ステップS152で特定された撮像画像座標P121~P124と、ステップS147で位置座標DB93に格納された俯瞰マップ座標F11~F14との対応に基づいて、第2の変換パラメータを特定する(S154)。ステップS154で特定された第2の変換パラメータは、記憶部90の変換パラメータDB91に格納(記憶)される(S156)。 Subsequently, the calibration unit 13 performs a second conversion based on the correspondence between the captured image coordinates P121 to P124 specified in step S152 and the bird's-eye view map coordinates F11 to F14 stored in the position coordinates DB93 in step S147. Specify the parameter (S154). The second conversion parameter specified in step S154 is stored (stored) in the conversion parameter DB 91 of the storage unit 90 (S156).

以上、ステップS14の再キャリブレーションについて説明した。なお、図4を参照して説明したように、ステップS14の再キャリブレーションは、カメラの再配置、またはカメラの追加が行われなくなるまで繰り返される。したがって、図8~図10を参照して説明したカメラ5Bのカメラ配置(第2のカメラ配置)、及び特定された第2の変換パラメータは、次回、再キャリブレーションが行われる際には第1のカメラ配置、及び第1の変換パラメータとして扱われる。 The recalibration of step S14 has been described above. As described with reference to FIG. 4, the recalibration in step S14 is repeated until the cameras are not rearranged or the cameras are not added. Therefore, the camera arrangement (second camera arrangement) of the camera 5B described with reference to FIGS. 8 to 10 and the specified second conversion parameter will be the first when the recalibration is performed next time. It is treated as the camera arrangement and the first conversion parameter.

また、図10に示すように、上述した目標物体T11~T14は、カメラ5A、及びカメラ5Bの両方の撮像範囲に含まれるように配置される。図8に示したように目標物体T11~T14が配置された後にカメラの配置変更、あるはカメラの追加が行われる場合、カメラ5Bの撮像範囲に目標物体T11~T14が含まれるようにカメラ5Bの設置が行われればよい。 Further, as shown in FIG. 10, the above-mentioned target objects T11 to T14 are arranged so as to be included in the imaging range of both the camera 5A and the camera 5B. When the camera arrangement is changed or the camera is added after the target objects T11 to T14 are arranged as shown in FIG. 8, the camera 5B is included in the imaging range of the camera 5B. It suffices if the installation is done.

(補足)
以上、本発明の第1の実施形態について説明した。本実施形態によれば、キャリブレーション済みの第1のカメラ配置において得られた目標物体の俯瞰マップ座標を、第2のメラ配置におけるキャリブレーションに用いることで、第2のカメラ配置におけるキャリブレーションに係るコストを抑制することが可能である。なお、上記では目標物体の数が4である例を説明したが、目標物体の数は変換パラメータ、及び座標変換の手法に必要な数応じて異なってもよい。また、目標物体の数は、目標物体の数は変換パラメータ、及び座標変換の手法に必要な数よりも多くてもよく、係る構成により、より高精度なキャリブレーションが可能となり得る。
(supplement)
The first embodiment of the present invention has been described above. According to the present embodiment, the bird's-eye view map coordinates of the target object obtained in the calibrated first camera arrangement are used for the calibration in the second melody arrangement, so that the calibration in the second camera arrangement can be performed. It is possible to suppress such costs. Although the example in which the number of target objects is 4 has been described above, the number of target objects may differ depending on the conversion parameters and the number required for the coordinate conversion method. Further, the number of target objects may be larger than the number required for the conversion parameters and the coordinate conversion method, and such a configuration may enable more accurate calibration.

<2-2.第2の実施形態>
(概要)
上記第1の実施形態では、カメラの再配置、またはカメラの追加が行われる度に再キャリブレーションを繰り返し行う例を説明した。しかし、再キャリブレーションの繰り返し回数が増大すると、座標変換により得られる目標物体の俯瞰マップ座標と、目標物体の実空間位置に対応する俯瞰マップ座標との誤差が蓄積され、大きくなってしまう場合がある。
<2-2. Second embodiment>
(overview)
In the first embodiment described above, an example in which recalibration is repeatedly performed each time a camera is rearranged or a camera is added has been described. However, if the number of repetitions of recalibration increases, the error between the bird's-eye view map coordinates of the target object obtained by the coordinate conversion and the bird's-eye view map coordinates corresponding to the real space position of the target object may accumulate and become large. be.

そこで、実空間における位置が既知である、すなわち、俯瞰マップ座標が既知である物体(以下、基準物体と呼ぶ)を用いて補正を行う例を第2の実施形態として説明する。 Therefore, an example of performing correction using an object whose position in the real space is known, that is, an object whose bird's-eye view map coordinates are known (hereinafter referred to as a reference object) will be described as a second embodiment.

(構成例)
図11は、本発明の第2の実施形態に係る情報処理装置2の構成例を示すブロック図である。本実施形態に係る情報処理装置2は、図11に示すように、制御部20、画像取得部60、操作部70、出力部80、及び記憶部90を備える。なお、図11に示す構成要素のうち、図3に示した構成要素と実質的に同一の機能構成を有する構成要素については、同一の符号を付してあるため、説明を省略する。
(Configuration example)
FIG. 11 is a block diagram showing a configuration example of the information processing apparatus 2 according to the second embodiment of the present invention. As shown in FIG. 11, the information processing apparatus 2 according to the present embodiment includes a control unit 20, an image acquisition unit 60, an operation unit 70, an output unit 80, and a storage unit 90. Of the components shown in FIG. 11, the components having substantially the same functional configuration as those shown in FIG. 3 are designated by the same reference numerals, and thus the description thereof will be omitted.

制御部20は、情報処理装置2の各構成を制御する。また、本実施形態に係る制御部20は、図11に示すように、物体位置特定部21、キャリブレーション部23、座標変換部25、及び補正部27としても機能する。 The control unit 20 controls each configuration of the information processing device 2. Further, as shown in FIG. 11, the control unit 20 according to the present embodiment also functions as an object position specifying unit 21, a calibration unit 23, a coordinate conversion unit 25, and a correction unit 27.

物体位置特定部21は、図3を参照して説明した物体位置特定部11と同様に、画像取得部60から提供された撮像画像に映る物体の撮像画像座標を特定する。ただし、物体位置特定部21が特定する撮像画像座標は、基準物体の撮像画像座標を含む点で物体位置特定部21は物体位置特定部11と異なる。なお、物体位置特定部21は、目標物体の撮像画像座標の特定方法と同様の方法で基準物体の撮像画像座標を特定してもよい。 The object position specifying unit 21 specifies the captured image coordinates of the object reflected in the captured image provided by the image acquisition unit 60, similarly to the object position specifying unit 11 described with reference to FIG. However, the captured image coordinates specified by the object position specifying unit 21 are different from the object position specifying unit 11 in that the object position specifying unit 21 includes the captured image coordinates of the reference object. The object position specifying unit 21 may specify the captured image coordinates of the reference object by the same method as the method for specifying the captured image coordinates of the target object.

キャリブレーション部23は、図3を参照して説明したキャリブレーション部13と同様に、撮像画像座標と、俯瞰マップ座標との対応に基づいて、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータを特定する。ただし、キャリブレーション部23は、キャリブレーション部13の機能に加え、後述する補正部27により提供される、目標物体の補正された俯瞰マップ座標を用いて、補正候補となる変換パラメータを特定する機能を有する。 Similar to the calibration unit 13 described with reference to FIG. 3, the calibration unit 23 converts the captured image coordinates into the bird's-eye view map coordinates based on the correspondence between the captured image coordinates and the bird's-eye view map coordinates. Identify the parameters. However, in addition to the function of the calibration unit 13, the calibration unit 23 has a function of specifying conversion parameters as correction candidates by using the corrected bird's-eye view map coordinates of the target object provided by the correction unit 27 described later. Have.

座標変換部25は、図3を参照して説明した座標変換部15と同様に、変換パラメータを用いて、物体位置特定部21から提供される撮像画像座標を俯瞰マップ座標に変換する座標変換を行う機能を有する。ただし、座標変換部25は、座標変換部15の機能に加え、後述する補正部27の制御に従い、物体の撮像画像座標を、俯瞰マップ座標に変換する機能を有する。本実施形態に係る座標変換部25は後述する補正部27の制御に従い、変換パラメータDB91に格納された変換パラメータを用いて、基準物体の撮像画像座標を、俯瞰マップ座標に変換する。また、本実施形態に係る座標変換部25は後述する補正部27の制御に従い、補正候補となる変換パラメータを用いて、基準物体の撮像画像座標を、俯瞰マップ座標に変換する。 Similar to the coordinate conversion unit 15 described with reference to FIG. 3, the coordinate conversion unit 25 performs coordinate conversion for converting the captured image coordinates provided by the object position specifying unit 21 into the bird's-eye view map coordinates by using the conversion parameters. Has the function to do. However, in addition to the function of the coordinate conversion unit 15, the coordinate conversion unit 25 has a function of converting the captured image coordinates of the object into the bird's-eye view map coordinates according to the control of the correction unit 27 described later. The coordinate conversion unit 25 according to the present embodiment converts the captured image coordinates of the reference object into the bird's-eye view map coordinates by using the conversion parameters stored in the conversion parameter DB 91 under the control of the correction unit 27 described later. Further, the coordinate conversion unit 25 according to the present embodiment converts the captured image coordinates of the reference object into the bird's-eye view map coordinates by using the conversion parameters as correction candidates according to the control of the correction unit 27 described later.

補正部27は、俯瞰マップ座標が既知である基準物体を用いて、キャリブレーション部23により特定された変換パラメータの補正を行う。補正部27は、図11に示すように、距離特定部271、判定部273、座標補正部275、及び補正制御部277を有する。 The correction unit 27 corrects the conversion parameters specified by the calibration unit 23 using a reference object whose bird's-eye view map coordinates are known. As shown in FIG. 11, the correction unit 27 includes a distance specifying unit 271, a determination unit 273, a coordinate correction unit 275, and a correction control unit 277.

距離特定部271は、基準物体の既知の俯瞰マップ座標(以下、既知基準座標と呼ぶ)と、座標変換部25が基準物体の撮像画像座標を変換することにより得られる当該基準物体の俯瞰マップ座標(以下、変換基準座標と呼ぶ)との距離を特定する。距離特定部271が特定する距離は、例えば既知基準座標と変換基準座標との間のユークリッド距離であってもよい。ただし、距離特定部271が特定する距離はユークリッド距離に限定されるものではない。 The distance specifying unit 271 has known bird's-eye view map coordinates of the reference object (hereinafter referred to as known reference coordinates), and the coordinate conversion unit 25 converts the captured image coordinates of the reference object to obtain the bird's-eye view map coordinates of the reference object. Specify the distance to (hereinafter referred to as conversion reference coordinates). The distance specified by the distance specifying unit 271 may be, for example, the Euclidean distance between the known reference coordinates and the conversion reference coordinates. However, the distance specified by the distance specifying unit 271 is not limited to the Euclidean distance.

判定部273は、距離特定部271により特定された距離が所定の範囲内であるか否かの判定を行う。 The determination unit 273 determines whether or not the distance specified by the distance specifying unit 271 is within a predetermined range.

座標補正部275は、判定部273により、距離が所定の範囲内ではないと判定された場合に、既知基準座標と変換基準座標との差、つまり変換基準座標から既知基準座標へのベクトルに基づいて、目標物体の俯瞰マップ座標を補正する。例えば、座標補正部275は、目標物体の補正前の俯瞰マップ座標から補正後の俯瞰マップ座標へのベクトルが、変換基準座標から既知基準座標へのベクトルと同一あるいは略同一になるように、目標物体の俯瞰マップ座標の補正を行ってもよい。つまり、座標補正部275は既知基準座標と変換基準座標との差を、目標物体の補正前の俯瞰マップ座標に加えることで、目標物体の補正後の俯瞰マップ座標を得てもよい。 The coordinate correction unit 275 is based on the difference between the known reference coordinates and the conversion reference coordinates, that is, the vector from the conversion reference coordinates to the known reference coordinates when the determination unit 273 determines that the distance is not within a predetermined range. Then, the bird's-eye view map coordinates of the target object are corrected. For example, the coordinate correction unit 275 targets the target object so that the vector from the uncorrected bird's-eye view map coordinates to the corrected bird's-eye view map coordinates is the same as or substantially the same as the vector from the conversion reference coordinates to the known reference coordinates. The bird's-eye view map coordinates of the object may be corrected. That is, the coordinate correction unit 275 may obtain the corrected bird's-eye view map coordinates of the target object by adding the difference between the known reference coordinates and the conversion reference coordinates to the bird's-eye view map coordinates before the correction of the target object.

補正制御部277は、上述した距離特定部271、判定部273、及び座標補正部275の動作を制御する。また、補正制御部277は、変換パラメータの補正を行うため、キャリブレーション部23、及び座標変換部25の動作の一部を制御する。 The correction control unit 277 controls the operations of the distance specifying unit 271, the determination unit 273, and the coordinate correction unit 275 described above. Further, the correction control unit 277 controls a part of the operation of the calibration unit 23 and the coordinate conversion unit 25 in order to correct the conversion parameters.

例えば、補正制御部277は、座標変換部25を制御して、変換パラメータDB91に格納された変換パラメータを用いて基準物体の撮像画像座標を変換基準座標に変換させる。また、補正制御部277は、距離特定部271を制御し、座標変換部25により得られた変換基準座標を用いて、距離を特定させる。 For example, the correction control unit 277 controls the coordinate conversion unit 25 to convert the captured image coordinates of the reference object into the conversion reference coordinates using the conversion parameters stored in the conversion parameter DB 91. Further, the correction control unit 277 controls the distance specifying unit 271 and causes the distance to be specified by using the conversion reference coordinates obtained by the coordinate conversion unit 25.

さらに、補正制御部277は、判定部273を制御し、距離特定部271により特定された距離が所定の範囲内であるか否かの判定を行わせる。そして、補正制御部277は、判定部273の判定結果に応じて、変換パラメータの補正を行う。 Further, the correction control unit 277 controls the determination unit 273 to determine whether or not the distance specified by the distance specifying unit 271 is within a predetermined range. Then, the correction control unit 277 corrects the conversion parameter according to the determination result of the determination unit 273.

例えば、補正制御部277は、判定部273により、距離が所定の範囲内ではないと判定された場合に、座標補正部275を制御して、目標物体の俯瞰マップ座標を補正させる。さらに、座標補正部275により補正された目標物体の俯瞰マップ座標をキャリブレーション部23に提供し、補正候補となる変換パラメータの特定を行わせる。 For example, the correction control unit 277 controls the coordinate correction unit 275 to correct the bird's-eye view map coordinates of the target object when the determination unit 273 determines that the distance is not within a predetermined range. Further, the bird's-eye view map coordinates of the target object corrected by the coordinate correction unit 275 are provided to the calibration unit 23, and the conversion parameters to be correction candidates are specified.

なお、補正制御部277は、判定部273により、距離が所定の範囲内であると判定されるまで、上述した一連の処理を繰り返し、最終的に距離が所定の範囲内となるような補正候補となる変換パラメータを、補正された変換パラメータとして記憶部90の位置座標DB93へ格納させてもよい。 The correction control unit 277 repeats the above-mentioned series of processes until the determination unit 273 determines that the distance is within the predetermined range, and finally the correction candidate is such that the distance is within the predetermined range. The conversion parameter to be obtained may be stored in the position coordinate DB 93 of the storage unit 90 as the corrected conversion parameter.

なお、係る繰り返しにおいて、2回目以降の処理で座標変換部25が基準物体の撮像画像座標を変換基準座標に変換する場合には、変換パラメータとして、前回の処理でキャリブレーション部23によって特定された補正候補となる変換パラメータが用いられる。 In this repetition, when the coordinate conversion unit 25 converts the captured image coordinates of the reference object into the conversion reference coordinates in the second and subsequent processes, it is specified by the calibration unit 23 in the previous process as a conversion parameter. The conversion parameters that are candidates for correction are used.

また、基準物体の数は複数存在してもよい。基準物体の数が多い程、より高精度な補正を行うことが可能となり得る。ただし、少なくとも1以上の基準物体が存在すれば補正部27は上述した変換パラメータの補正を行うことが可能である。すなわち、補正部27が変換パラメータの補正を行うために要する基準物体の数は、キャリブレーション部23が第2の変換パラメータを特定するために要する目標物体の数(少なくとも4以上)よりも少なくてよい。したがって、全ての目標物体の俯瞰マップ座標を測位するよりも、少ない作業コストで、上述した補正を行うことが可能である。 Moreover, there may be a plurality of reference objects. As the number of reference objects increases, it may be possible to perform more accurate correction. However, if at least one reference object is present, the correction unit 27 can correct the conversion parameters described above. That is, the number of reference objects required for the correction unit 27 to correct the conversion parameter is smaller than the number of target objects (at least 4 or more) required for the calibration unit 23 to specify the second conversion parameter. good. Therefore, it is possible to perform the above-mentioned correction at a lower work cost than positioning the bird's-eye view map coordinates of all the target objects.

(動作例)
以上、本実施形態に係る情報処理装置2の構成例について説明した。続いて、本実施形態の動作例について図12~図15を参照して説明する。
(Operation example)
The configuration example of the information processing apparatus 2 according to the present embodiment has been described above. Subsequently, an operation example of this embodiment will be described with reference to FIGS. 12 to 15.

図12は、本実施形態に係る動作概要を示すフローチャート図である。図12に示すように、まず、最初にカメラが設置された際のカメラ配置における変換パラメータを求めるため初期キャリブレーションが行われる(S20)。ステップS20の初期キャリブレーションは、図5~図7を参照して説明した第1の実施形態における初期キャリブレーションと同様であるため、詳細な説明は省略する。 FIG. 12 is a flowchart showing an outline of the operation according to the present embodiment. As shown in FIG. 12, first, initial calibration is performed to obtain conversion parameters in the camera arrangement when the camera is first installed (S20). Since the initial calibration in step S20 is the same as the initial calibration in the first embodiment described with reference to FIGS. 5 to 7, detailed description thereof will be omitted.

続いて、カメラの配置変更、または追加を行う場合(S22においてYES)、カメラ配置変更後、あるいはカメラ追加後のカメラ配置における変換パラメータを求めるための
再キャリブレーションが行われる(S24)。ステップS24の再キャリブレーションは、図8~図10を参照して説明した第1の実施形態における再キャリブレーションと同様であるため、詳細な説明は省略する。
Subsequently, when the camera arrangement is changed or added (YES in S22), recalibration is performed to obtain the conversion parameters in the camera arrangement after the camera arrangement is changed or after the camera is added (S24). Since the recalibration in step S24 is the same as the recalibration in the first embodiment described with reference to FIGS. 8 to 10, detailed description thereof will be omitted.

続いて、ステップS26において、補正を行うか否かが判定される。補正を行うか否かの判定は、例えば操作部70を介したユーザ操作に基づいて行われてもよいし、所定の条件に基づいて自動的に行われてもよい。例えば、ステップS24の再キャリブレーションを行った際に基準物体が撮像画像に映っていた場合に補正を行ってもよいし、ステップS24の再キャリブレーションの繰り返し回数が所定の回数に達した場合に補正を行ってもよい。 Subsequently, in step S26, it is determined whether or not to perform the correction. The determination as to whether or not to perform the correction may be performed based on, for example, a user operation via the operation unit 70, or may be automatically performed based on a predetermined condition. For example, correction may be performed when the reference object is reflected in the captured image when the recalibration in step S24 is performed, or when the number of repetitions of the recalibration in step S24 reaches a predetermined number. Correction may be made.

補正を行わないと判定された場合(ステップS26においてNO)、処理はステップS22へ戻る。一方、補正を行うと判定された場合(ステップS26においてYES)、ステップS24の再キャリブレーションで得られた第2の変換パラメータを補正部27が補正する(S28)。ステップS28の詳細な動作については、図13~図15を参照して後述する。 If it is determined that the correction is not performed (NO in step S26), the process returns to step S22. On the other hand, when it is determined to perform correction (YES in step S26), the correction unit 27 corrects the second conversion parameter obtained by the recalibration in step S24 (S28). The detailed operation of step S28 will be described later with reference to FIGS. 13 to 15.

一方、カメラの配置変更、追加のいずれも行われない場合(S22においてNO)、動作は終了する。なお、図示されていないが、ステップS20とステップS22の間には、撮像画像に映る人物等の物体の位置を俯瞰マップ上に表示出力する処理等が含まれていてもよい。 On the other hand, when neither the arrangement of the cameras is changed nor the addition is performed (NO in S22), the operation ends. Although not shown, a process of displaying and outputting the position of an object such as a person reflected in the captured image on the bird's-eye view map may be included between steps S20 and S22.

以上、本実施形態に係る動作概要について説明した。続いて、図13~図15を参照して、図12に示したステップS28の補正についてより詳細に説明する。図13は、変換パラメータの補正の詳細な動作を示すフローチャート図である。また、図14、図15は、変換パラメータの補正について説明するための説明図である。 The outline of the operation according to the present embodiment has been described above. Subsequently, the correction of step S28 shown in FIG. 12 will be described in more detail with reference to FIGS. 13 to 15. FIG. 13 is a flowchart showing a detailed operation of correction of conversion parameters. 14 and 15 are explanatory diagrams for explaining the correction of conversion parameters.

なお、図14、及び図15において、カメラ5Aのカメラ配置を上述した第1のカメラ配置とし、カメラ5Bのカメラ配置を上述した第2のカメラ配置とする。また、ステップS20の再キャリブレーションにおいて、カメラの配置変更が行われた場合、図14、及び図15に示されるカメラ5Aとカメラ5Bは同一のカメラ5であってもよく、カメラ5Aが、配置変更前のカメラ5を示し、カメラ5Bが、配置変更後のカメラ5を示していると解されてもよい。また、ステップS20の再キャリブレーションにおいて、カメラの追加が行われた場合には、カメラ5Aとカメラ5Bは異なるカメラであり、カメラ5Bが追加されたカメラである。 In FIGS. 14 and 15, the camera arrangement of the camera 5A is the above-mentioned first camera arrangement, and the camera arrangement of the camera 5B is the above-mentioned second camera arrangement. Further, when the camera arrangement is changed in the recalibration in step S20, the camera 5A and the camera 5B shown in FIGS. 14 and 15 may be the same camera 5, and the camera 5A is arranged. It may be understood that the camera 5 before the change is shown and the camera 5B shows the camera 5 after the rearrangement change. Further, when a camera is added in the recalibration in step S20, the camera 5A and the camera 5B are different cameras, and the camera 5B is a camera to which the camera 5B is added.

図14には、実空間R20と、実空間R20に設置されたカメラ5Aにより第1のカメラ配置で撮像された撮像画像G21、及び実空間R20に設置されたカメラ5Bにより第2のカメラ配置で撮像された撮像画像G22が示されている。また、図15には、実空間R20と、実空間R20に対応する俯瞰マップM21及び俯瞰マップM22が示されている。なお、俯瞰マップM21のうち、領域MAは、カメラ5Aの撮像範囲に対応する領域を示し、俯瞰マップM22のうち、領域MBは、カメラ5Bの撮像範囲に対応する領域を示している。また、図14に示される実空間R20は真上から見た平面図であり、図15に示される実空間R20は横から見た側面図である。 FIG. 14 shows the real space R20, the captured image G21 captured by the camera 5A installed in the real space R20 in the first camera arrangement, and the second camera arrangement by the camera 5B installed in the real space R20. The captured image G22 captured is shown. Further, FIG. 15 shows the real space R20, and the bird's-eye view map M21 and the bird's-eye view map M22 corresponding to the real space R20. In the bird's-eye view map M21, the area MA indicates the area corresponding to the image pickup range of the camera 5A, and the area MB in the bird's-eye view map M22 indicates the area corresponding to the image pickup range of the camera 5B. Further, the real space R20 shown in FIG. 14 is a plan view seen from directly above, and the real space R20 shown in FIG. 15 is a side view seen from the side.

また、以下に説明するステップS28の動作が行われるより前の時点で、ステップS24の再キャリブレーションにおいて、目標物体T21~T24が既に配置されている。また、ステップS24の再キャリブレーションにおいて、撮像画像G21における目標物体T21~T24の撮像画像座標P211~P214、及び撮像画像G22における目標物体T21~T24の撮像画像座標P221~P224が既に特定されている。また、ステップS24の再キャリブレーションにおいて、第1の変換パラメータを用いた変換により、目標物体T21~T24の俯瞰マップ座標F21~F24も既に得られている。 Further, the target objects T21 to T24 have already been arranged in the recalibration of step S24 before the operation of step S28 described below is performed. Further, in the recalibration in step S24, the captured image coordinates P211 to P214 of the target objects T21 to T24 in the captured image G21 and the captured image coordinates P221 to P224 of the target objects T21 to T24 in the captured image G22 have already been specified. .. Further, in the recalibration in step S24, the bird's-eye view map coordinates F21 to F24 of the target objects T21 to T24 have already been obtained by the conversion using the first conversion parameter.

図13に示すように、まず、基準物体B20の実空間位置に対応する既知の俯瞰マップ座標C25(既知基準座標)が、例えば操作部70を介したユーザ操作により入力される(S282)。なお、既知基準座標は、予め記憶部90に記憶されていてもよい。 As shown in FIG. 13, first, the known bird's-eye view map coordinates C25 (known reference coordinates) corresponding to the real space position of the reference object B20 are input by a user operation via, for example, the operation unit 70 (S282). The known reference coordinates may be stored in the storage unit 90 in advance.

続いて、物体位置特定部21が、撮像画像G22における基準物体B20の撮像画像座標P220を特定する(S283)。 Subsequently, the object position specifying unit 21 identifies the captured image coordinates P220 of the reference object B20 in the captured image G22 (S283).

続いて、座標変換部25が、変換パラメータを用いて基準物体B20の撮像画像座標P220を俯瞰マップ座標F25(変換基準座標)に変換する(S284)。なお、ステップS284が最初に行われる場合には、座標変換部25は変換パラメータとして、記憶部90の変換パラメータDB91に格納された第2の変換パラメータを用いてもよい。また、ステップS284が2回目以降に行われる場合には、座標変換部25は変換パラメータとして、後述するステップS292で特定された補正候補となる変換パラメータを用いてもよい。 Subsequently, the coordinate conversion unit 25 converts the captured image coordinates P220 of the reference object B20 into the bird's-eye view map coordinates F25 (conversion reference coordinates) using the conversion parameters (S284). When step S284 is performed first, the coordinate conversion unit 25 may use the second conversion parameter stored in the conversion parameter DB 91 of the storage unit 90 as the conversion parameter. Further, when step S284 is performed for the second time or later, the coordinate conversion unit 25 may use a conversion parameter as a correction candidate specified in step S292 described later as a conversion parameter.

続いて、補正部27の距離特定部271が、入力された俯瞰マップ座標C25(既知基準座標)と、変換で得られた俯瞰マップ座標F25(変換基準座標)との距離を特定する(S286)。 Subsequently, the distance specifying unit 271 of the correction unit 27 specifies the distance between the input bird's-eye view map coordinates C25 (known reference coordinates) and the bird's-eye view map coordinates F25 (conversion reference coordinates) obtained by the conversion (S286). ..

続いて、補正部27の判定部273は、ステップS286で特定された距離が所定の範囲内であるか否かを判定する(S288)。 Subsequently, the determination unit 273 of the correction unit 27 determines whether or not the distance specified in step S286 is within a predetermined range (S288).

距離が所定の範囲内ではないと判定された場合(S288においてNO)、補正部27の座標補正部275が、目標物体T21~T24の俯瞰マップ座標F21~F24を補正する(S290)。例えば、ステップS290において座標補正部275は、補正前の俯瞰マップ座標F21~F24から補正後の俯瞰マップ座標C21~C25へのベクトルが、俯瞰マップ座標F25(変換基準座標)から俯瞰マップ座標C25(既知基準座標)へのベクトルと同一あるいは略同一になるように、目標物体の俯瞰マップ座標の補正を行ってもよい。 When it is determined that the distance is not within the predetermined range (NO in S288), the coordinate correction unit 275 of the correction unit 27 corrects the bird's-eye view map coordinates F21 to F24 of the target objects T21 to T24 (S290). For example, in step S290, in the coordinate correction unit 275, the vector from the bird's-eye view map coordinates F21 to F24 before the correction to the bird's-eye view map coordinates C21 to C25 after the correction is changed from the bird's-eye view map coordinates F25 (conversion reference coordinates) to the bird's-eye view map coordinates C25 ( The bird's-eye view map coordinates of the target object may be corrected so as to be the same as or substantially the same as the vector to the known reference coordinates).

続いて、キャリブレーション部23が、ステップS24で既に得られていた撮像画像座標P221~P224と、ステップS290で得られた補正後の俯瞰マップ座標C21~C25との対応に基づいて、補正候補となる変換パラメータを特定する(S292)。 Subsequently, the calibration unit 23 sets the correction candidate based on the correspondence between the captured image coordinates P221 to P224 already obtained in step S24 and the corrected bird's-eye view map coordinates C21 to C25 obtained in step S290. (S292).

補正部27の補正制御部277による制御に従い、ステップS288で距離が所定の範囲内であると判定されるまで、上述したステップS284~S292の処理は繰り返される。そして、距離が所定の範囲内であると判定された場合(S288においてYES)、補正制御部277は、その時点で最後に行われたステップS292で特定された補正候補となる変換パラメータを、補正された第2の変換パラメータとして、記憶部90の変換パラメータDB91に格納(記憶)させる(S294)。 According to the control by the correction control unit 277 of the correction unit 27, the above-mentioned processes of steps S284 to S292 are repeated until it is determined in step S288 that the distance is within a predetermined range. Then, when it is determined that the distance is within a predetermined range (YES in S288), the correction control unit 277 corrects the conversion parameter which is the correction candidate specified in the last step S292 performed at that time. As the second conversion parameter, it is stored (stored) in the conversion parameter DB 91 of the storage unit 90 (S294).

以上、ステップS28の変換パラメータの補正について説明した。なお、図14、図15に示した例では、カメラ5Aの撮像範囲に基準物体B20が含まれているが、基準物体B20は、カメラ5Bの撮像範囲に含まれていればよく、必ずしもカメラ5Aの撮像範囲に含まれていなくてもよい。 The correction of the conversion parameter in step S28 has been described above. In the examples shown in FIGS. 14 and 15, the reference object B20 is included in the image pickup range of the camera 5A, but the reference object B20 may be included in the image pickup range of the camera 5B and is not necessarily included in the camera 5A. It does not have to be included in the imaging range of.

(補足)
以上、本発明の第2の実施形態について説明した。本実施形態によれば、再キャリブレーションの繰り返しにより誤差が発生した場合であっても、目標物体の数より少ない数の基準物体を用いて変換パラメータの補正を行うことで、作業コストを抑制しつつ、高精度に変換パラメータを特定することが可能となる。
(supplement)
The second embodiment of the present invention has been described above. According to the present embodiment, even if an error occurs due to repeated recalibration, the work cost is suppressed by correcting the conversion parameters using a number of reference objects smaller than the number of target objects. At the same time, it is possible to specify the conversion parameters with high accuracy.

なお、上述した第2の実施形態において、補正制御部277は、補正を行うことが不可能であると判定した場合に、出力部80を制御して、ユーザに補正不可能であることを通知させてもよい。そして、補正不可能であることが通知された場合、図5~図7を参照して説明した初期キャリブレーションと同様の方法で、キャリブレーションが行われてもよい。 In the second embodiment described above, when the correction control unit 277 determines that the correction cannot be performed, the correction control unit 277 controls the output unit 80 to notify the user that the correction is not possible. You may let me. Then, when it is notified that the correction is impossible, the calibration may be performed by the same method as the initial calibration described with reference to FIGS. 5 to 7.

補正制御部277は、例えば、図13に示したステップS284~S292の処理を所定回数以上繰り返しても、ステップS288において距離が所定の範囲内であると判定されない場合に、補正を行うことが不可能であると判定してもよい。あるいは、補正制御部277は、距離特定部271により特定された距離が所定の範囲(図13に示したステップS288の判定において用いられる所定の範囲より大きい範囲)よりも大きい場合に補正を行うことが不可能であると判定してもよい。 For example, even if the processing of steps S284 to S292 shown in FIG. 13 is repeated a predetermined number of times or more, the correction control unit 277 cannot perform correction when it is not determined in step S288 that the distance is within the predetermined range. It may be determined that it is possible. Alternatively, the correction control unit 277 corrects when the distance specified by the distance specifying unit 271 is larger than a predetermined range (a range larger than the predetermined range used in the determination in step S288 shown in FIG. 13). May be determined to be impossible.

係る構成により、再キャリブレーションの繰り返しにより補正不可能な誤差が発生した場合であっても、ユーザにその旨通知することで、初期キャリブレーションと同様の方法で、キャリブレーションを行って、高精度な変換パラメータを特定することが可能となる。 With this configuration, even if an uncorrectable error occurs due to repeated recalibration, by notifying the user to that effect, calibration can be performed in the same way as the initial calibration with high accuracy. It is possible to specify various conversion parameters.

<2-3.第3の実施形態>
(概要)
上述した第1の実施形態、及び第2の実施形態では、第1のカメラ配置と第2のカメラ配置とで、共通の目標物体を用いていた。つまり、第1のカメラ配置で撮像された第1の撮像画像と、第2のカメラ配置で撮像された第2の撮像画像との両方に含まれる目標物体の数が、変換パラメータの特定に必要な数より少ない場合には、再キャリブレーションを行うことができなかった。したがって、例えば第1のカメラ配置における撮像範囲と第2のカメラ配置における撮像範囲に重なりが存在しなかったり、重なりが非常に小さい場合には、第1の実施形態、及び第2の実施形態のような再キャリブレーションを行うことはできなかった。
<2-3. Third Embodiment>
(overview)
In the first embodiment and the second embodiment described above, a common target object is used in the first camera arrangement and the second camera arrangement. That is, the number of target objects included in both the first captured image captured by the first camera arrangement and the second captured image captured by the second camera arrangement is required to specify the conversion parameter. If the number was less than the above, recalibration could not be performed. Therefore, for example, when there is no overlap between the image pickup range in the first camera arrangement and the image pickup range in the second camera arrangement, or when the overlap is very small, the first embodiment and the second embodiment It was not possible to perform such a recalibration.

そこで、以下では、第3の実施形態として、LiDAR(Light Detection and Ranging)等の位置センサを用いることで、第1のカメラ配置と第2のカメラ配置とで、共通の目標物体を用いることなく再キャリブレーションを行う例を説明する。 Therefore, in the following, as the third embodiment, by using a position sensor such as LiDAR (Light Detection and Ranging), the first camera arrangement and the second camera arrangement do not use a common target object. An example of performing recalibration will be described.

(構成例)
図16は、本発明の第3の実施形態に係る情報処理装置3の構成例を示すブロック図である。本実施形態に係る情報処理装置3は、図16に示すように、制御部30、センサ情報取得部50、画像取得部60、操作部70、出力部80、及び記憶部90を備える。なお、図16に示す構成要素のうち、図3に示した構成要素と実質的に同一の機能構成を有する構成要素については、同一の符号を付してあるため、説明を省略する。
(Configuration example)
FIG. 16 is a block diagram showing a configuration example of the information processing apparatus 3 according to the third embodiment of the present invention. As shown in FIG. 16, the information processing apparatus 3 according to the present embodiment includes a control unit 30, a sensor information acquisition unit 50, an image acquisition unit 60, an operation unit 70, an output unit 80, and a storage unit 90. Of the components shown in FIG. 16, the components having substantially the same functional configuration as those shown in FIG. 3 are designated by the same reference numerals, and thus the description thereof will be omitted.

制御部20は、情報処理装置3の各構成を制御する。また、本実施形態に係る制御部30は、図16に示すように、物体位置特定部31、キャリブレーション部33、座標変換部35、及びセンサ情報管理部39としても機能する。 The control unit 20 controls each configuration of the information processing device 3. Further, as shown in FIG. 16, the control unit 30 according to the present embodiment also functions as an object position specifying unit 31, a calibration unit 33, a coordinate conversion unit 35, and a sensor information management unit 39.

物体位置特定部31は、図3を参照して説明した物体位置特定部11と同様に、画像取得部60から提供された撮像画像に映る物体の撮像画像座標を特定する。ただし、物体位置特定部31は、物体位置特定部11の機能に加え、第1のカメラ配置で撮像された第1の撮像画像と、第2のカメラ配置で撮像された第2の撮像画像との両方に含まれる目標物体(以下、共通の目標物体と呼ぶ)の数を特定する機能を有する。例えば、共通の目標物体の数は、画像認識手法により特定されてもよいし、操作部70を介したユーザ操作により特定されてもよい。物体位置特定部31は、特定された共通の目標物体の数をセンサ情報管理部39へ通知する。 The object position specifying unit 31 specifies the captured image coordinates of the object reflected in the captured image provided by the image acquisition unit 60, similarly to the object position specifying unit 11 described with reference to FIG. However, in addition to the function of the object position specifying unit 11, the object position specifying unit 31 includes a first captured image captured by the first camera arrangement and a second captured image captured by the second camera arrangement. It has a function of specifying the number of target objects (hereinafter referred to as common target objects) included in both of them. For example, the number of common target objects may be specified by an image recognition method or by a user operation via the operation unit 70. The object position specifying unit 31 notifies the sensor information management unit 39 of the number of the specified common target objects.

キャリブレーション部33は、図3を参照して説明したキャリブレーション部13と同様に、撮像画像座標と、俯瞰マップ座標との対応に基づいて、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータを特定する。 Similar to the calibration unit 13 described with reference to FIG. 3, the calibration unit 33 converts the captured image coordinates into the bird's-eye view map coordinates based on the correspondence between the captured image coordinates and the bird's-eye view map coordinates. Identify the parameters.

ただし、キャリブレーション部33は、キャリブレーション部13の機能に加え、後述するセンサ情報管理部39の制御に従って変換パラメータを特定する機能を有する。 However, the calibration unit 33 has a function of specifying conversion parameters according to the control of the sensor information management unit 39, which will be described later, in addition to the function of the calibration unit 13.

例えば、キャリブレーション部33は、センサ情報管理部39の制御に従って位置センサに対応したセンサ座標系における位置座標(以下、センサ座標と呼ぶ)を俯瞰マップ座標に変換するための変換パラメータを特定する機能を有する。位置センサに対応したセンサ座標系は、例えば俯瞰マップの座標系と縮尺、及び水平方向(Z軸方向)の角度のみが異なる座標系である。そのため、2組以上のセンサ座標と俯瞰マップ座標との対応を用いて、センサ座標を俯瞰マップ座標に変換するための変換パラメータを特定することが可能である。キャリブレーション部33は、例えば第1の撮像画像に含まれる目標物体(以下、第1の目標物体と呼ぶ)の撮像画像座標を変換することで得られた俯瞰マップにおける俯瞰マップ座標と、第1の目標物体のセンサ座標との対応に基づいて係る変換パラメータを特定してもよい。なお、第1の目標物体の数は上述した条件から例えば2以上である。また、キャリブレーション部33は、センサ座標を俯瞰マップ座標に変換するための変換パラメータを記憶部90の変換パラメータDB91に格納(記憶)させてもよい。 For example, the calibration unit 33 has a function of specifying conversion parameters for converting position coordinates (hereinafter referred to as sensor coordinates) in the sensor coordinate system corresponding to the position sensor into bird's-eye view map coordinates under the control of the sensor information management unit 39. Has. The sensor coordinate system corresponding to the position sensor is, for example, a coordinate system that differs only from the coordinate system of the bird's-eye view map in scale and the angle in the horizontal direction (Z-axis direction). Therefore, it is possible to specify the conversion parameter for converting the sensor coordinates to the bird's-eye view map coordinates by using the correspondence between the two or more sets of sensor coordinates and the bird's-eye view map coordinates. The calibration unit 33 has, for example, the bird's-eye view map coordinates in the bird's-eye view map obtained by converting the captured image coordinates of the target object (hereinafter referred to as the first target object) included in the first captured image, and the first The conversion parameter may be specified based on the correspondence with the sensor coordinates of the target object. The number of the first target objects is, for example, 2 or more from the above-mentioned conditions. Further, the calibration unit 33 may store (store) the conversion parameters for converting the sensor coordinates into the bird's-eye view map coordinates in the conversion parameter DB 91 of the storage unit 90.

また、キャリブレーション部33は、センサ情報管理部39の制御に従って、第2の撮像画像に含まれる目標物体(以下、第2の目標物体と呼ぶ)の撮像画像座標と、俯瞰マップにおける第2の目標物体の俯瞰マップ座標との対応に基づいて、第2の変換パラメータを特定する。なお、変換パラメータが射影変換行列である場合、第2の目標物体の数は4以上である。 Further, the calibration unit 33 controls the captured image coordinates of the target object (hereinafter referred to as the second target object) included in the second captured image and the second in the bird's-eye view map under the control of the sensor information management unit 39. The second conversion parameter is specified based on the correspondence with the bird's-eye view map coordinates of the target object. When the transformation parameter is a projective transformation matrix, the number of second target objects is 4 or more.

座標変換部35は、図3を参照して説明した座標変換部15と同様に、変換パラメータを用いて、物体位置特定部21から提供される撮像画像座標を俯瞰マップ座標に変換する座標変換を行う機能を有する。ただし、座標変換部35は、座標変換部15の機能に加え、後述するセンサ情報管理部39の制御に従い、第2の撮像画像に含まれる第2の目標物体のセンサ座標を俯瞰マップ座標に変換し、センサ情報管理部39に提供する機能を有する。座標変換部35は、第2の目標物体のセンサ座標を俯瞰マップ座標に変換する際、キャリブレーション部33が特定し、変換パラメータDB91に格納された、センサ座標を俯瞰マップ座標に変換するための変換パラメータを用いてもよい。 Similar to the coordinate conversion unit 15 described with reference to FIG. 3, the coordinate conversion unit 35 performs coordinate conversion for converting the captured image coordinates provided by the object position specifying unit 21 into the bird's-eye view map coordinates by using the conversion parameters. Has the function to do. However, in addition to the function of the coordinate conversion unit 15, the coordinate conversion unit 35 converts the sensor coordinates of the second target object included in the second captured image into the bird's-eye view map coordinates according to the control of the sensor information management unit 39 described later. It also has a function to provide to the sensor information management unit 39. The coordinate conversion unit 35 converts the sensor coordinates of the second target object into the bird's-eye view map coordinates specified by the calibration unit 33 and stored in the conversion parameter DB 91 when the sensor coordinates of the second target object are converted into the bird's-eye view map coordinates. Conversion parameters may be used.

センサ情報管理部39は、後述するセンサ情報取得部50が位置センサから取得したセンサ情報を管理し、センサ情報に基づいた再キャリブレーションの実行を制御する。センサ情報には、例えば目標物体のセンサ座標が含まれる。目標物体のセンサ座標は、センサ情報取得部50により、位置センサから直接的に取得されてもよいし、位置センサから取得された情報に基づいて特定されてもよい。例えば、センサ情報取得部50が位置センサから取得したセンサ情報によりセンシングされた位置や形状の情報のみが含まれる場合、センサ情報管理部39は、センシング位置や形状の情報から、目標物体のセンサ座標を特定してもよい。なお、センサ情報管理部39は、出力部80にセンサ情報を出力させ、センサ情報を確認したユーザによる操作部70を介したユーザ操作に基づいて目標物体のセンサ座標を特定してもよい。 The sensor information management unit 39 manages the sensor information acquired from the position sensor by the sensor information acquisition unit 50, which will be described later, and controls the execution of recalibration based on the sensor information. The sensor information includes, for example, the sensor coordinates of the target object. The sensor coordinates of the target object may be directly acquired from the position sensor by the sensor information acquisition unit 50, or may be specified based on the information acquired from the position sensor. For example, when the sensor information acquisition unit 50 includes only the position and shape information sensed by the sensor information acquired from the position sensor, the sensor information management unit 39 uses the sensing position and shape information to obtain the sensor coordinates of the target object. May be specified. The sensor information management unit 39 may have the output unit 80 output the sensor information and specify the sensor coordinates of the target object based on the user operation via the operation unit 70 by the user who has confirmed the sensor information.

センサ情報管理部39は、物体位置特定部31から提供される共通の目標物体の数が閾値より少ない場合に、センサ情報に基づいた再キャリブレーションを実行させてもよい。所定の閾値は、例えばキャリブレーション部33が変換パラメータを特定するために必要な撮像画像座標と、俯瞰マップ座標との対応の組数であってもよい。例えば、キャリブレーション部33が特定する変換パラメータが射影変換行列であれば、所定の閾値は4であってもよい。 The sensor information management unit 39 may execute recalibration based on the sensor information when the number of common target objects provided by the object position specifying unit 31 is less than the threshold value. The predetermined threshold value may be, for example, the number of pairs of the captured image coordinates required for the calibration unit 33 to specify the conversion parameter and the bird's-eye view map coordinates. For example, if the transformation parameter specified by the calibration unit 33 is a projective transformation matrix, the predetermined threshold value may be 4.

センサ情報管理部39は、共通の目標物体の数が閾値より少ない場合に、キャリブレーション部33を制御し、センサ座標を俯瞰マップ座標に変換するための変換パラメータを特定させてもよい。さらに、センサ情報管理部39は、座標変換部35を制御し、当該変換パラメータを用いて第2の撮像画像に含まれる第2の目標物体のセンサ座標を俯瞰マップ座標に変換させ、当該俯瞰マップ座標を座標変換部35から取得してもよい。そして、センサ情報管理部39は、キャリブレーション部33を制御し、第2の目標物体の撮像画像座標と、第2の目標物体の俯瞰マップ座標との対応に基づいて、第2の変換パラメータを特定させてもよい。 When the number of common target objects is less than the threshold value, the sensor information management unit 39 may control the calibration unit 33 and specify conversion parameters for converting the sensor coordinates to the bird's-eye view map coordinates. Further, the sensor information management unit 39 controls the coordinate conversion unit 35 to convert the sensor coordinates of the second target object included in the second captured image into the bird's-eye view map coordinates by using the conversion parameter, and the bird's-eye view map. The coordinates may be acquired from the coordinate conversion unit 35. Then, the sensor information management unit 39 controls the calibration unit 33, and sets the second conversion parameter based on the correspondence between the captured image coordinates of the second target object and the bird's-eye view map coordinates of the second target object. It may be specified.

係る構成により、共通の目標物体が十分な数存在しない場合であっても、再キャリブレーションに係る作業コストを抑制することが可能となる。 With such a configuration, it is possible to suppress the work cost related to recalibration even when a sufficient number of common target objects do not exist.

センサ情報取得部50は、不図示の位置センサと接続され、当該位置センサのセンシングにより得られたセンサ情報を取得するインタフェースである。なお、センサ情報取得部50は、複数の位置センサと接続されて、複数の位置センサからセンサ情報を取得してもよい。センサ情報取得部50は、取得したセンサ情報を制御部30へ提供する。 The sensor information acquisition unit 50 is an interface that is connected to a position sensor (not shown) and acquires sensor information obtained by sensing the position sensor. The sensor information acquisition unit 50 may be connected to a plurality of position sensors to acquire sensor information from the plurality of position sensors. The sensor information acquisition unit 50 provides the acquired sensor information to the control unit 30.

なお、情報処理装置3自体が位置センサを含んでもよい。係る場合にはセンサ情報取得部50に代えて、または加えてLiDAR等の位置センサを情報処理装置3が備えてもよい。 The information processing device 3 itself may include a position sensor. In such a case, the information processing apparatus 3 may be provided with a position sensor such as LiDAR in place of or in addition to the sensor information acquisition unit 50.

(動作例)
以上、本実施形態に係る情報処理装置3の構成例について説明した。続いて、本実施形態の動作例に説明する。なお、本実施形態の動作概要は、図4を参照して説明した第1の実施形態の動作概要と実質的に同様であるため、本実施形態の動作概要についての説明は省略する。本実施形態の動作と第1の実施形態の動作との違いは、図4に示すステップS14に相当する再キャリブレーションに係る動作の違いである。そこで、以下では、本実施形態に係る再キャリブレーションに係る動作について、図17~図19を参照して説明する。
(Operation example)
The configuration example of the information processing apparatus 3 according to the present embodiment has been described above. Subsequently, an operation example of this embodiment will be described. Since the operation outline of the present embodiment is substantially the same as the operation outline of the first embodiment described with reference to FIG. 4, the description of the operation outline of the present embodiment will be omitted. The difference between the operation of the present embodiment and the operation of the first embodiment is the difference in the operation related to the recalibration corresponding to step S14 shown in FIG. Therefore, in the following, the operation related to the recalibration according to the present embodiment will be described with reference to FIGS. 17 to 19.

図17は、本実施形態に係る再キャリブレーションに係る動作の一例を示すフローチャートである。また、図18、図19は、本実施形態に係る再キャリブレーションについて説明するための説明図である。 FIG. 17 is a flowchart showing an example of the operation related to the recalibration according to the present embodiment. 18 and 19 are explanatory views for explaining the recalibration according to the present embodiment.

なお、カメラの配置変更が行われる場合、図18、図19に示されるカメラ5Aとカメラ5Bは同一のカメラ5であってもよく、カメラ5Aが、配置変更前のカメラ5を示し、カメラ5Bが、配置変更後のカメラ5を示していると解されてもよい。また、カメラの追加が行われる場合には、カメラ5Aとカメラ5Bは異なるカメラであり、カメラ5Bが追加されたカメラである。すなわち、カメラ5Aのカメラ配置が第1のカメラ配置であり、カメラ5Bのカメラ配置が第2のカメラ配置である。 When the camera arrangement is changed, the camera 5A and the camera 5B shown in FIGS. 18 and 19 may be the same camera 5, and the camera 5A indicates the camera 5 before the arrangement change, and the camera 5B is used. However, it may be understood that the camera 5 is shown after the arrangement is changed. Further, when a camera is added, the camera 5A and the camera 5B are different cameras, and the camera 5B is added. That is, the camera arrangement of the camera 5A is the first camera arrangement, and the camera arrangement of the camera 5B is the second camera arrangement.

図18には、実空間R30と、実空間R30に設置されたカメラ5Aにより第1のカメラ配置で撮像された第1の撮像画像G31、及び実空間R30に設置されたカメラ5Bにより第2のカメラ配置で撮像された第2の撮像画像G32が示されている。また、図19には、実空間R30と、実空間R30に対応する俯瞰マップM31及び俯瞰マップM32が示されている。なお、俯瞰マップM31のうち、領域MAは、カメラ5Aの撮像範囲に対応する領域を示し、俯瞰マップM32のうち、領域MBは、カメラ5Bの撮像範囲に対応する領域を示している。また、図18に示される実空間R30は真上から見た平面図であり、図19に示される実空間R30は横から見た側面図である。 In FIG. 18, a second image is taken by the real space R30, the first captured image G31 captured by the camera 5A installed in the real space R30 in the first camera arrangement, and the camera 5B installed in the real space R30. The second captured image G32 captured in the camera arrangement is shown. Further, FIG. 19 shows the real space R30, and the bird's-eye view map M31 and the bird's-eye view map M32 corresponding to the real space R30. In the bird's-eye view map M31, the area MA indicates the area corresponding to the image pickup range of the camera 5A, and the area MB in the bird's-eye view map M32 indicates the area corresponding to the image pickup range of the camera 5B. Further, the real space R30 shown in FIG. 18 is a plan view seen from directly above, and the real space R30 shown in FIG. 19 is a side view seen from the side.

また、図18に示すように、実空間R30には、位置センサ6が設置されている。位置センサ6は、LiDAR等により、実空間R30のうち、範囲D30に存在する物体の情報をセンシングし、情報処理装置3へ提供する。 Further, as shown in FIG. 18, a position sensor 6 is installed in the real space R30. The position sensor 6 senses information of an object existing in the range D30 in the real space R30 by LiDAR or the like, and provides the information to the information processing apparatus 3.

図17に示すように、まず、目標物体T31~T36が実空間R30に設置される(S302)。続いて、画像取得部60により、カメラ5Aにより第1のカメラ配置で撮像された第1の撮像画像G31が取得される(S304)。続いて、物体位置特定部31が、第1の撮像画像G31における第1の目標物体T31、T32の撮像画像座標P311、P312をそれぞれ特定する(S308)。 As shown in FIG. 17, first, the target objects T31 to T36 are installed in the real space R30 (S302). Subsequently, the image acquisition unit 60 acquires the first captured image G31 captured by the camera 5A in the first camera arrangement (S304). Subsequently, the object position specifying unit 31 identifies the captured image coordinates P311 and P312 of the first target objects T31 and T32 in the first captured image G31 (S308).

続いて、座標変換部35が、記憶部90の変換パラメータDB91に格納された(記憶された)第1の変換パラメータを用いて、撮像画像座標P311、P312を俯瞰マップ座標F31、F32にそれぞれ変換する(S312)。ステップS312で得られた俯瞰マップ座標F31、F32は、記憶部90の位置座標DB93に格納(記憶)される(S313)。 Subsequently, the coordinate conversion unit 35 converts the captured image coordinates P311 and P312 into the bird's-eye view map coordinates F31 and F32, respectively, using the first conversion parameter stored (stored) in the conversion parameter DB 91 of the storage unit 90. (S312). The bird's-eye view map coordinates F31 and F32 obtained in step S312 are stored (stored) in the position coordinate DB 93 of the storage unit 90 (S313).

続いて、カメラの配置変更、またはカメラの追加が行われる(S314)。続いて、画像取得部60により、カメラ5Bにより第2のカメラ配置で撮像された第2の撮像画像G32が取得される(S316)。続いて、物体位置特定部31が、第2の撮像画像G32における第2の目標物体T33~T36の撮像画像座標P323~P326をそれぞれ特定する(S318)。 Subsequently, the arrangement of the cameras is changed or the cameras are added (S314). Subsequently, the image acquisition unit 60 acquires the second captured image G32 captured by the camera 5B in the second camera arrangement (S316). Subsequently, the object position specifying unit 31 identifies the captured image coordinates P323 to P326 of the second target objects T33 to T36 in the second captured image G32 (S318).

続いて、第1の撮像画像G31と第2の撮像画像G32の両方に含まれている共通の目標物体の数が所定の閾値以上であるか否かが判定される(S320)。図18、図19に示す例では、共通の目標物体の数0であり、所定の閾値(上述した例では4)より少ない(S320においてNO)ため、処理はステップS322へ進む。 Subsequently, it is determined whether or not the number of common target objects included in both the first captured image G31 and the second captured image G32 is equal to or greater than a predetermined threshold value (S320). In the example shown in FIGS. 18 and 19, the number of common target objects is 0, which is less than a predetermined threshold value (4 in the above-mentioned example) (NO in S320), so the process proceeds to step S322.

ステップS322において、センサ情報取得部50が位置センサ6からセンサ情報を取得する(S322)。続いて、キャリブレーション部33が、センサ情報管理部39の制御に従い、第1の撮像画像に含まれる第1の目標物体T31、T32のセンサ座標と俯瞰マップ座標F31、F32との対応に基づき、センサ座標を俯瞰マップ座標に変換する変換パラメータを特定する(S324)。さらに、座標変換部35が、センサ情報管理部39の制御に従い、第2の撮像画像G32に含まれる第2の目標物体T33~T36のセンサ座標を俯瞰マップ座標F33~F36にそれぞれ変換する。 In step S322, the sensor information acquisition unit 50 acquires sensor information from the position sensor 6 (S322). Subsequently, the calibration unit 33 follows the control of the sensor information management unit 39, and based on the correspondence between the sensor coordinates of the first target objects T31 and T32 included in the first captured image and the bird's-eye view map coordinates F31 and F32. The conversion parameter for converting the sensor coordinates to the bird's-eye view map coordinates is specified (S324). Further, the coordinate conversion unit 35 converts the sensor coordinates of the second target objects T33 to T36 included in the second captured image G32 into the bird's-eye view map coordinates F33 to F36, respectively, under the control of the sensor information management unit 39.

続いて、キャリブレーション部33が、ステップS318で特定された撮像画像座標P323~P326と、ステップS326の座標変換により得られた俯瞰マップ座標F33~F36との対応に基づいて、第2の変換パラメータを特定する(S332)。ステップS332で特定された第2の変換パラメータは、記憶部90の変換パラメータDB91に格納(記憶)される(S334)。 Subsequently, the calibration unit 33 uses the second conversion parameter based on the correspondence between the captured image coordinates P323 to P326 specified in step S318 and the bird's-eye view map coordinates F33 to F36 obtained by the coordinate conversion in step S326. (S332). The second conversion parameter specified in step S332 is stored (stored) in the conversion parameter DB 91 of the storage unit 90 (S334).

なお、上記では、図18、図19に示した例に沿って説明を行ったが、ステップS320において、共通の目標物体の数が閾値より大きいと判定された場合、処理はステップS332へ進む。ステップS320において、共通の目標物体の数が閾値より大きいと判定された場合、図17に示す一連の処理は、ステップS320の判定処理を除いて、図8を参照して説明した第1の実施形態に係る再キャリブレーションの処理と同様である。 In the above description, the description has been given according to the examples shown in FIGS. 18 and 19, but if it is determined in step S320 that the number of common target objects is larger than the threshold value, the process proceeds to step S332. When it is determined in step S320 that the number of common target objects is larger than the threshold value, the series of processes shown in FIG. 17 is the first implementation described with reference to FIG. 8, except for the determination process in step S320. This is the same as the recalibration process related to the form.

(補足)
以上、本発明の第3の実施形態について説明した。本実施形態によれば、位置センサを用いることで、カメラの配置変更前後や既存のカメラと追加されたカメラとの間で、撮像画像に含まれる共通の目標物体が十分な数存在しない場合であっても、再キャリブレーションに係る作業コストを抑制することが可能となる。
(supplement)
The third embodiment of the present invention has been described above. According to the present embodiment, by using the position sensor, when there is not a sufficient number of common target objects included in the captured image before and after the camera arrangement is changed or between the existing camera and the added camera. Even if there is, it is possible to suppress the work cost related to the recalibration.

なお、上記では、共通の目標物体の数が閾値より少ない場合に、センサ情報に基づいた再キャリブレーションを行う例を説明したが、本実施形態は係る例に限定されない。例えば、常に上述したセンサ情報に基づいた再キャリブレーションを行ってもよいし、操作部70を介したユーザ操作により、センサ情報に基づいた再キャリブレーションを行うか否かを切替えてもよい。 In the above, an example of performing recalibration based on sensor information when the number of common target objects is less than the threshold value has been described, but the present embodiment is not limited to such an example. For example, recalibration based on the sensor information described above may always be performed, or whether or not recalibration based on the sensor information may be performed may be switched by user operation via the operation unit 70.

また、上述した第2の実施形態と、第3の実施形態を組み合わせることも可能である。 It is also possible to combine the above-mentioned second embodiment and the third embodiment.

<<3.ハードウェア構成>>
以上、本発明の各実施形態を説明した。上述した物体位置特定処理、キャリブレーション処理、座標変換処理等の情報処理は、ソフトウェアと、情報処理装置1、情報処理装置2、情報処理装置3のハードウェアとの協働により実現される。以下では、本発明の実施形態に係る情報処理装置である情報処理装置1、情報処理装置2、情報処理装置3のハードウェア構成例として、情報処理装置1000のハードウェア構成について説明する。
<< 3. Hardware configuration >>
Each embodiment of the present invention has been described above. Information processing such as the object position specifying process, the calibration process, and the coordinate conversion process described above is realized by the cooperation between the software and the hardware of the information processing device 1, the information processing device 2, and the information processing device 3. Hereinafter, the hardware configuration of the information processing apparatus 1000 will be described as an example of the hardware configuration of the information processing apparatus 1, the information processing apparatus 2, and the information processing apparatus 3 which are the information processing apparatus according to the embodiment of the present invention.

図20は、本発明の実施形態に係る情報処理装置1000のハードウェア構成を示す説明図である。図20に示したように、情報処理装置1000は、CPU(Central Processing Unit)1001と、ROM(Read Only Memory)1002と、RAM(Random Access Memory)1003と、入力装置1004と、出力装置1005と、ストレージ装置1006と、通信装置1007とを備える。 FIG. 20 is an explanatory diagram showing a hardware configuration of the information processing apparatus 1000 according to the embodiment of the present invention. As shown in FIG. 20, the information processing apparatus 1000 includes a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, a RAM (Random Access Memory) 1003, an input device 1004, and an output device 1005. , A storage device 1006 and a communication device 1007.

CPU1001は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置1000内の動作全般を制御する。また、CPU1001は、マイクロプロセッサであってもよい。ROM1002は、CPU1001が使用するプログラムや演算パラメータなどを記憶する。RAM1003は、CPU1001の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。主に、CPU1001、ROM1002及びRAM1003とソフトウェアとの協働により、例えば、制御部10、制御部20、制御部30等の機能が実現される。 The CPU 1001 functions as an arithmetic processing device and a control device, and controls the overall operation in the information processing device 1000 according to various programs. Further, the CPU 1001 may be a microprocessor. The ROM 1002 stores programs, calculation parameters, and the like used by the CPU 1001. The RAM 1003 temporarily stores a program used in the execution of the CPU 1001 and parameters that are appropriately changed in the execution. These are connected to each other by a host bus composed of a CPU bus or the like. Mainly, the functions of the control unit 10, the control unit 20, the control unit 30, and the like are realized by the cooperation between the CPU 1001, the ROM 1002, the RAM 1003, and the software.

入力装置1004は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU1001に出力する入力制御回路などから構成されている。情報処理装置1000のユーザは、該入力装置1004を操作することにより、情報処理装置1000に対して各種のデータを入力したり処理動作を指示したりすることができる。なお、入力装置1004は、操作部70に対応する。 The input device 1004 includes an input means for the user to input information such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 1001. It is composed of such things. By operating the input device 1004, the user of the information processing device 1000 can input various data to the information processing device 1000 and instruct the processing operation. The input device 1004 corresponds to the operation unit 70.

出力装置1005は、例えば、液晶ディスプレイ(LCD)装置、OLED装置及びランプなどの表示装置を含む。さらに、出力装置1005は、スピーカ及びヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データなどを音声に変換して出力する。なお、出力装置1005は、出力部80に対応する。 The output device 1005 includes, for example, a liquid crystal display (LCD) device, an OLED device, and a display device such as a lamp. Further, the output device 1005 includes an audio output device such as a speaker and headphones. For example, the display device displays an captured image, a generated image, or the like. On the other hand, the voice output device converts voice data and the like into voice and outputs it. The output device 1005 corresponds to the output unit 80.

ストレージ装置1006は、データ格納用の装置である。ストレージ装置1006は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置1006は、CPU1001が実行するプログラムや各種データを格納する。なお、ストレージ装置1006は、記憶部90に対応する。 The storage device 1006 is a device for storing data. The storage device 1006 may include a storage medium, a recording device for recording data on the storage medium, a reading device for reading data from the storage medium, a deleting device for deleting data recorded on the storage medium, and the like. The storage device 1006 stores programs and various data executed by the CPU 1001. The storage device 1006 corresponds to the storage unit 90.

通信装置1007は、例えば、通信網に接続するための通信デバイスなどで構成された通信インタフェースである。また、通信装置1007は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、有線による通信を行うワイヤー通信装置、またはブルートゥース(登録商標)通信装置を含んでもよい。 The communication device 1007 is a communication interface composed of, for example, a communication device for connecting to a communication network. Further, the communication device 1007 may include a wireless LAN (Local Area Network) compatible communication device, an LTE (Long Term Evolution) compatible communication device, a wire communication device for wired communication, or a Bluetooth (registered trademark) communication device.

<<4.むすび>>
以上説明したように、本発明の実施形態によれば、カメラの配置変更あるいはカメラの追加に伴うキャリブレーションに係るコストを抑制することが可能である。
<< 4. Conclusion >>
As described above, according to the embodiment of the present invention, it is possible to suppress the cost related to the calibration associated with the change of the camera arrangement or the addition of the camera.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to these examples. It is clear that a person having ordinary knowledge in the field of technology to which the present invention belongs can come up with various modifications or modifications within the scope of the technical ideas described in the claims. , These are also naturally understood to belong to the technical scope of the present invention.

例えば、上記実施形態では、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータが射影変換行列である例を主に説明したが、本発明はかかる例に限定されない。例えば、撮像画像座標を俯瞰マップ座標に変換するための変換パラメータは透視投影変換行列を含んでもよい。 For example, in the above embodiment, an example in which the transformation parameter for converting the captured image coordinates to the bird's-eye view map coordinates is a projective transformation matrix has been mainly described, but the present invention is not limited to such an example. For example, the conversion parameter for converting the captured image coordinates to the bird's-eye view map coordinates may include a perspective projection transformation matrix.

また、上記実施形態における各ステップは、必ずしもフローチャート図として記載された順序に沿って時系列に処理される必要はない。例えば、上記実施形態の処理における各ステップは、フローチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。 Further, each step in the above embodiment does not necessarily have to be processed in chronological order in the order described as a flowchart. For example, each step in the processing of the above embodiment may be processed in an order different from the order described in the flowchart, or may be processed in parallel.

また、上記実施形態によれば、CPU1001、ROM1002、及びRAM1003などのハードウェアを、上述した情報処理装置1、情報処理装置2、情報処理装置3の各構成と同様の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。 Further, according to the above embodiment, a computer for causing hardware such as the CPU 1001, ROM 1002, and RAM 1003 to exhibit the same functions as the configurations of the information processing device 1, the information processing device 2, and the information processing device 3 described above. Programs can also be provided. Also provided is a recording medium on which the computer program is recorded.

1、2、3 情報処理装置
5 カメラ
6 位置センサ
10、20、30 制御部
11、21、31 物体位置特定部
13、23、33 キャリブレーション部
15、25、35 座標変換部
27 補正部
39 センサ情報管理部
50 センサ情報取得部
60 画像取得部
70 操作部
80 出力部
90 記憶部
271 距離特定部
273 判定部
275 座標補正部
277 補正制御部
1, 2, 3 Information processing device 5 Camera 6 Position sensor 10, 20, 30 Control unit 11, 21, 31 Object position identification unit 13, 23, 33 Calibration unit 15, 25, 35 Coordinate conversion unit 27 Correction unit 39 Sensor Information management unit 50 Sensor information acquisition unit 60 Image acquisition unit 70 Operation unit 80 Output unit 90 Storage unit 271 Distance specification unit 273 Judgment unit 275 Coordinate correction unit 277 Correction control unit

Claims (12)

カメラにより撮像された撮像画像における位置座標である撮像画像座標と、実空間に対応する俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部
記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、及び
目標物体の前記撮像画像座標を特定する目標物体特定部、を備え、
前記座標変換部は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における前記目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、
前記キャリブレーション部は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定し、
前記目標物体特定部は、前記撮像画像から目標物体候補の前記撮像画像座標を検出し、検出された前記目標物体候補の前記撮像画像座標を、操作者の決定に基づいて前記目標物体の前記撮像画像座標として特定する、情報処理装置。
Based on the correspondence between the captured image coordinates, which are the position coordinates in the captured image captured by the camera, and the bird's-eye view map coordinates, which are the position coordinates in the bird's-eye view map corresponding to the real space, the captured image corresponds to the arrangement of the camera. A calibration unit that specifies conversion parameters for converting coordinates to the bird's-eye view map coordinates.
A coordinate conversion unit that converts the captured image coordinates to the bird's-eye view map coordinates using the conversion parameters, and
A target object identification unit that specifies the coordinates of the captured image of the target object is provided.
The coordinate conversion unit uses the first conversion parameter corresponding to the first camera arrangement to obtain the captured image coordinates of the target object in the first captured image captured by the first camera arrangement. Converted to the bird's-eye view map coordinates of the target object in the bird's-eye view map,
The calibration unit has the captured image coordinates of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement, and the bird's-eye view map of the target object in the bird's-eye view map. Based on the correspondence with the coordinates, the second conversion parameter corresponding to the second camera arrangement is specified .
The target object identification unit detects the captured image coordinates of the target object candidate from the captured image, and captures the captured image coordinates of the detected target object candidate based on the determination of the operator. An information processing device that specifies as image coordinates .
カメラにより撮像された撮像画像における位置座標である撮像画像座標と、実空間に対応する俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、及び
前記俯瞰マップ座標が既知である基準物体を用いて、前記キャリブレーション部により特定された前記変換パラメータの補正を行う補正部、を備え、
前記座標変換部は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、
前記キャリブレーション部は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定する、情報処理装置。
Based on the correspondence between the captured image coordinates, which are the position coordinates in the captured image captured by the camera, and the bird's-eye view map coordinates, which are the position coordinates in the bird's-eye view map corresponding to the real space, the captured image corresponds to the arrangement of the camera. A calibration unit that specifies conversion parameters for converting coordinates to the bird's-eye view map coordinates.
A coordinate conversion unit that converts the captured image coordinates to the bird's-eye view map coordinates using the conversion parameters, and
A correction unit for correcting the conversion parameter specified by the calibration unit using a reference object whose bird's-eye view map coordinates are known is provided.
The coordinate conversion unit uses the first conversion parameter corresponding to the first camera arrangement to obtain a bird's-eye view of the captured image coordinates of the target object in the first captured image captured by the first camera arrangement. Converted to the bird's-eye view map coordinates of the target object in the map,
The calibration unit has the captured image coordinates of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement, and the bird's-eye view map of the target object in the bird's-eye view map. An information processing apparatus that specifies a second conversion parameter corresponding to the second camera arrangement based on the correspondence with the coordinates.
前記補正部は、前記基準物体の既知の前記俯瞰マップ座標である既知基準座標と、前記座標変換部が前記基準物体の前記撮像画像座標を変換することにより得られる前記基準物体の前記俯瞰マップ座標である変換基準座標と、の距離を特定する距離特定部を有し、前記距離に基づいて前記変換パラメータの補正を行う、請求項2に記載の情報処理装置。 The correction unit has known reference coordinates that are known bird's-eye view map coordinates of the reference object, and the bird's-eye view map coordinates of the reference object obtained by the coordinate conversion unit converting the captured image coordinates of the reference object. The information processing apparatus according to claim 2 , further comprising a distance specifying unit for specifying a distance between the conversion reference coordinates and the conversion reference coordinates, and correcting the conversion parameters based on the distance. 前記補正部は、前記距離が所定の範囲内であるか否かの判定を行う判定部をさらに有し、前記判定部による前記判定の結果に応じて前記変換パラメータの補正を行う、請求項3に記載の情報処理装置。 3. The correction unit further includes a determination unit that determines whether or not the distance is within a predetermined range, and corrects the conversion parameter according to the result of the determination by the determination unit. The information processing device described in. 前記補正部は、前記判定部により前記距離が前記所定の範囲内ではないと判定された場合に、前記既知基準座標と前記変換基準座標との差に基づいて前記目標物体の前記俯瞰マップ座標を補正する座標補正部をさらに有し、前記座標補正部により補正された前記目標物体の前記俯瞰マップ座標に基づいて前記変換パラメータの補正を行う、請求項4に記載の情報処理装置。 When the determination unit determines that the distance is not within the predetermined range, the correction unit obtains the bird's-eye view map coordinates of the target object based on the difference between the known reference coordinates and the conversion reference coordinates. The information processing apparatus according to claim 4 , further comprising a coordinate correction unit for correction, and correcting the conversion parameters based on the bird's-eye view map coordinates of the target object corrected by the coordinate correction unit. 前記補正部が前記変換パラメータの補正を行うために要する前記基準物体の数は、前記キャリブレーション部が前記第2の変換パラメータを特定するために要する前記目標物体の数よりも少ない、請求項3~5のいずれか一項に記載の情報処理装置。 3. The number of reference objects required for the correction unit to correct the conversion parameter is smaller than the number of target objects required for the calibration unit to specify the second conversion parameter. The information processing apparatus according to any one of 5 to 5 . カメラにより撮像された撮像画像における位置座標である撮像画像座標と、実空間に対応する俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、
センサ情報管理部、
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、を備え、
前記座標変換部は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、
前記キャリブレーション部は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定し、
前記センサ情報管理部は、前記第1の撮像画像と、前記第2の撮像画像との両方に含まれる前記目標物体の数が所定の閾値より少ない場合に、前記第1の撮像画像における第1の目標物体の前記撮像画像座標を変換することで得られた前記俯瞰マップにおける前記第1の目標物体の前記俯瞰マップ座標、位置センサのセンシングに基づいて得られる前記位置センサに対応したセンサ座標系における前記第1の目標物体の位置座標、及び、前記位置センサのセンシングに基づいて得られる前記センサ座標系における第2の目標物体の位置座標、に基づいて前記俯瞰マップにおける前記第2の目標物体の前記俯瞰マップ座標を取得し、
前記キャリブレーション部は、前記第2の撮像画像における前記第2の目標物体の前記撮像画像座標と前記俯瞰マップにおける前記第2の目標物体の前記俯瞰マップ座標との対応に基づいて、第2の変換パラメータを特定する、情報処理装置。
Based on the correspondence between the captured image coordinates, which are the position coordinates in the captured image captured by the camera, and the bird's-eye view map coordinates, which are the position coordinates in the bird's-eye view map corresponding to the real space, the captured image corresponds to the arrangement of the camera. A calibration unit that specifies conversion parameters for converting coordinates to the bird's-eye view map coordinates.
Sensor information management department,
A coordinate conversion unit that converts the captured image coordinates into the bird's-eye view map coordinates using the conversion parameters is provided.
The coordinate conversion unit uses the first conversion parameter corresponding to the first camera arrangement to obtain a bird's-eye view of the captured image coordinates of the target object in the first captured image captured by the first camera arrangement. Converted to the bird's-eye view map coordinates of the target object in the map,
The calibration unit has the captured image coordinates of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement, and the bird's-eye view map of the target object in the bird's-eye view map. Based on the correspondence with the coordinates, the second conversion parameter corresponding to the second camera arrangement is specified.
The sensor information management unit is the first in the first captured image when the number of the target objects included in both the first captured image and the second captured image is less than a predetermined threshold. Sensor coordinate system corresponding to the position sensor obtained based on the bird's-eye view map coordinates of the first target object in the bird's-eye view map obtained by converting the captured image coordinates of the target object and the sensing of the position sensor. The second target object in the bird's-eye view map based on the position coordinates of the first target object in the above and the position coordinates of the second target object in the sensor coordinate system obtained based on the sensing of the position sensor. Obtain the above-mentioned bird's-eye view map coordinates of
The calibration unit is based on the correspondence between the captured image coordinates of the second target object in the second captured image and the bird's-eye view map coordinates of the second target object in the bird's-eye view map. An information processing device that specifies conversion parameters.
カメラにより撮像された撮像画像における位置座標である撮像画像座標と、実空間に対応する俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部、及び
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、を備え、
前記座標変換部は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、
前記キャリブレーション部は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定し、
前記変換パラメータは、射影変換行列または透視投影変換行列を含む、情報処理装置。
Based on the correspondence between the captured image coordinates, which are the position coordinates in the captured image captured by the camera, and the bird's-eye view map coordinates, which are the position coordinates in the bird's-eye view map corresponding to the real space, the captured image corresponds to the arrangement of the camera. A calibration unit that specifies conversion parameters for converting coordinates to the bird's-eye view map coordinates, and
A coordinate conversion unit that converts the captured image coordinates into the bird's-eye view map coordinates using the conversion parameters is provided.
The coordinate conversion unit uses the first conversion parameter corresponding to the first camera arrangement to obtain a bird's-eye view of the captured image coordinates of the target object in the first captured image captured by the first camera arrangement. Converted to the bird's-eye view map coordinates of the target object in the map,
The calibration unit has the captured image coordinates of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement, and the bird's-eye view map of the target object in the bird's-eye view map. Based on the correspondence with the coordinates, the second conversion parameter corresponding to the second camera arrangement is specified.
The transformation parameter is an information processing apparatus including a projection transformation matrix or a perspective projection transformation matrix.
カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション部
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換部、及び
目標物体の前記撮像画像座標を特定する目標物体特定部、を備える情報処理装置により実行される情報処理方法であって、
第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における前記目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換することと、
前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定することと、
前記撮像画像から目標物体候補の前記撮像画像座標を検出し、検出された前記目標物体候補の前記撮像画像座標を、操作者の決定に基づいて前記目標物体の前記撮像画像座標として特定することと、を含む、情報処理方法。
Based on the correspondence between the captured image coordinates, which are the position coordinates in the captured image captured by the camera, and the bird's-eye view map coordinates, which are the position coordinates in the bird's-eye view map, the captured image coordinates correspond to the camera arrangement, and the captured image coordinates are used as the bird's-eye view map coordinates. Calibration unit , which specifies the conversion parameters for conversion to
A coordinate conversion unit that converts the captured image coordinates to the bird's-eye view map coordinates using the conversion parameters, and
An information processing method executed by an information processing apparatus including a target object identification unit that specifies the captured image coordinates of the target object .
Using the first conversion parameter corresponding to the first camera arrangement, the captured image coordinates of the target object in the first captured image captured by the first camera arrangement are set to the target object in the bird's-eye view map. To convert to the above-mentioned bird's-eye view map coordinates,
Based on the correspondence between the captured image coordinates of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement and the bird's-eye view map coordinates of the target object in the bird's-eye view map. Then, to specify the second conversion parameter corresponding to the second camera arrangement,
The captured image coordinates of the target object candidate are detected from the captured image, and the detected captured image coordinates of the target object candidate are specified as the captured image coordinates of the target object based on the determination of the operator. , Including information processing methods.
カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション機能
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換機能、及び
目標物体の前記撮像画像座標を特定する目標物体特定機能、をコンピュータに実現させるためのプログラムであって、
前記座標変換機能は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における前記目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、
前記キャリブレーション機能は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定し、
前記目標物体特定機能は、前記撮像画像から目標物体候補の前記撮像画像座標を検出し、検出された前記目標物体候補の前記撮像画像座標を、操作者の決定に基づいて前記目標物体の前記撮像画像座標として特定する、プログラム。
Based on the correspondence between the captured image coordinates, which are the position coordinates in the captured image captured by the camera, and the bird's-eye view map coordinates, which are the position coordinates in the bird's-eye view map, the captured image coordinates correspond to the camera arrangement, and the captured image coordinates are used as the bird's-eye view map coordinates. Calibration function , which specifies conversion parameters for conversion to
A coordinate conversion function that converts the captured image coordinates to the bird's-eye view map coordinates using the conversion parameters, and
It is a program for realizing a computer with a target object identification function for specifying the captured image coordinates of the target object .
The coordinate conversion function uses the first conversion parameter corresponding to the first camera arrangement to obtain the captured image coordinates of the target object in the first captured image captured by the first camera arrangement. Converted to the bird's-eye view map coordinates of the target object in the bird's-eye view map,
The calibration function includes the captured image coordinates of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement and the bird's-eye view map of the target object in the bird's-eye view map. Based on the correspondence with the coordinates, the second conversion parameter corresponding to the second camera arrangement is specified .
The target object identification function detects the captured image coordinates of the target object candidate from the captured image, and captures the captured image coordinates of the detected target object candidate based on the determination of the operator. A program that identifies as image coordinates .
カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション機能、Based on the correspondence between the captured image coordinates, which are the position coordinates in the captured image captured by the camera, and the bird's-eye view map coordinates, which are the position coordinates in the bird's-eye view map, the captured image coordinates correspond to the camera arrangement, and the captured image coordinates are used as the bird's-eye view map coordinates. Calibration function, which specifies conversion parameters for conversion to
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換機能、及び A coordinate conversion function that converts the captured image coordinates to the bird's-eye view map coordinates using the conversion parameters, and
前記俯瞰マップ座標が既知である基準物体を用いて、前記キャリブレーション機能により特定された前記変換パラメータの補正を行う補正機能、をコンピュータに実現させるためのプログラムであって、 It is a program for realizing a correction function for correcting the conversion parameter specified by the calibration function by using a reference object whose bird's-eye view map coordinates are known.
前記座標変換機能は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、 The coordinate conversion function uses the first conversion parameter corresponding to the first camera arrangement to obtain a bird's-eye view of the captured image coordinates of the target object in the first captured image captured by the first camera arrangement. Converted to the bird's-eye view map coordinates of the target object in the map,
前記キャリブレーション機能は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定する、プログラム。 The calibration function includes the captured image coordinates of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement and the bird's-eye view map of the target object in the bird's-eye view map. A program that specifies a second conversion parameter corresponding to the second camera arrangement based on the correspondence with the coordinates.
カメラにより撮像された撮像画像における位置座標である撮像画像座標と俯瞰マップにおける位置座標である俯瞰マップ座標との対応に基づいて、前記カメラの配置に対応し、前記撮像画像座標を前記俯瞰マップ座標に変換するための変換パラメータを特定するキャリブレーション機能、及びBased on the correspondence between the captured image coordinates, which are the position coordinates in the captured image captured by the camera, and the bird's-eye view map coordinates, which are the position coordinates in the bird's-eye view map, the captured image coordinates correspond to the arrangement of the camera, and the captured image coordinates are used as the bird's-eye view map coordinates. Calibration function to specify conversion parameters for conversion to, and
前記変換パラメータを用いて、前記撮像画像座標を前記俯瞰マップ座標に変換する座標変換機能を、をコンピュータに実現させるためのプログラムであって、 It is a program for realizing a coordinate conversion function for converting the captured image coordinates into the bird's-eye view map coordinates by using the conversion parameters in a computer.
前記座標変換機能は、第1のカメラ配置に対応する第1の変換パラメータを用いて、前記第1のカメラ配置で撮像された第1の撮像画像における目標物体の前記撮像画像座標を、前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標に変換し、 The coordinate conversion function uses the first conversion parameter corresponding to the first camera arrangement to obtain a bird's-eye view of the captured image coordinates of the target object in the first captured image captured by the first camera arrangement. Converted to the bird's-eye view map coordinates of the target object in the map,
前記キャリブレーション機能は、前記第1のカメラ配置とは異なる第2のカメラ配置で撮像された第2の撮像画像における前記目標物体の前記撮像画像座標と前記俯瞰マップにおける前記目標物体の前記俯瞰マップ座標との対応に基づいて、前記第2のカメラ配置に対応した第2の変換パラメータを特定し、 The calibration function includes the captured image coordinates of the target object in the second captured image captured by the second camera arrangement different from the first camera arrangement and the bird's-eye view map of the target object in the bird's-eye view map. Based on the correspondence with the coordinates, the second conversion parameter corresponding to the second camera arrangement is specified.
前記変換パラメータは、射影変換行列または透視投影変換行列を含む、プログラム。 The transformation parameter is a program including a projective transformation matrix or a perspective projection transformation matrix.
JP2017185667A 2017-09-27 2017-09-27 Information processing equipment, information processing methods, and programs Active JP7047306B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017185667A JP7047306B2 (en) 2017-09-27 2017-09-27 Information processing equipment, information processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017185667A JP7047306B2 (en) 2017-09-27 2017-09-27 Information processing equipment, information processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019061502A JP2019061502A (en) 2019-04-18
JP7047306B2 true JP7047306B2 (en) 2022-04-05

Family

ID=66177468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017185667A Active JP7047306B2 (en) 2017-09-27 2017-09-27 Information processing equipment, information processing methods, and programs

Country Status (1)

Country Link
JP (1) JP7047306B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388957B2 (en) * 2020-03-16 2023-11-29 株式会社小松製作所 Method and system for calibration of work machines
CN113643384B (en) * 2021-10-12 2022-02-08 深圳荣耀智能机器有限公司 Coordinate system calibration method, automatic assembly method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002005625A (en) 2000-06-27 2002-01-09 Atr Media Integration & Communications Res Lab Automatic calibrating method of camera
JP2004178229A (en) 2002-11-26 2004-06-24 Matsushita Electric Works Ltd Location detector of personal, detection method and autonomous moving device using the detector
JP2008107087A (en) 2006-10-23 2008-05-08 Nippon Hoso Kyokai <Nhk> Apparatus for estimating light source location
WO2009110417A1 (en) 2008-03-03 2009-09-11 ティーオーエー株式会社 Device and method for specifying installment condition of rotatable camera and camera control system equipped with the installment condition specifying device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002005625A (en) 2000-06-27 2002-01-09 Atr Media Integration & Communications Res Lab Automatic calibrating method of camera
JP2004178229A (en) 2002-11-26 2004-06-24 Matsushita Electric Works Ltd Location detector of personal, detection method and autonomous moving device using the detector
JP2008107087A (en) 2006-10-23 2008-05-08 Nippon Hoso Kyokai <Nhk> Apparatus for estimating light source location
WO2009110417A1 (en) 2008-03-03 2009-09-11 ティーオーエー株式会社 Device and method for specifying installment condition of rotatable camera and camera control system equipped with the installment condition specifying device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
飯尾 太郎 他,広い視野を観測できる複数台カメラのキャリブレーション,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2004年02月13日,Vol.103 No.657,73~78

Also Published As

Publication number Publication date
JP2019061502A (en) 2019-04-18

Similar Documents

Publication Publication Date Title
US7821535B2 (en) Information processing method and apparatus
CN108961144B (en) Image processing system
KR101450782B1 (en) Image processing device and program
KR102111655B1 (en) Automatic calibration method and apparatus for robot vision system
JP7047306B2 (en) Information processing equipment, information processing methods, and programs
CN113409391B (en) Visual positioning method and related device, equipment and storage medium
JP5183152B2 (en) Image processing device
JP2940736B2 (en) Image processing apparatus and distortion correction method in the image processing apparatus
JP2004342067A (en) Image processing method, image processor and computer program
JP2019068272A (en) Circumference monitoring device and calibration method of the same
JP2019060742A (en) Position detector and program
JP2011155412A (en) Projection system and distortion correction method in the same
KR101245529B1 (en) Camera calibration method
JP2008092565A (en) Color matching method and image capturing device
JP2018173882A (en) Information processing device, method, and program
US20190313017A1 (en) Imaging adjustment information derivation apparatus, imaging apparatus, imaging adjustment information derivation method, control program, and recording medium
CN113137958A (en) Lofting control method and system for RTK host and storage medium
KR101683763B1 (en) Augmented Reality Robot Simulation System And Method Using 360 Degree Camera
KR20100001608A (en) Apparatus and method for correcting lens distortion
JP2974316B1 (en) Method for restoring two-dimensional position information of local coordinates from bird&#39;s-eye view photograph, system for restoring the two-dimensional position information, and computer-readable recording medium recording a program of the method
JP2017129942A (en) Information processing apparatus, information processing method, and program
KR102220173B1 (en) Automatic calibration method and apparatus for robot vision system
JP2019066327A (en) Vehicle periphery monitoring device, and periphery monitoring method
JP6579727B1 (en) Moving object detection device, moving object detection method, and moving object detection program
JP4523422B2 (en) Satellite image position correction device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R150 Certificate of patent or registration of utility model

Ref document number: 7047306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150