JP7183020B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP7183020B2
JP7183020B2 JP2018231826A JP2018231826A JP7183020B2 JP 7183020 B2 JP7183020 B2 JP 7183020B2 JP 2018231826 A JP2018231826 A JP 2018231826A JP 2018231826 A JP2018231826 A JP 2018231826A JP 7183020 B2 JP7183020 B2 JP 7183020B2
Authority
JP
Japan
Prior art keywords
marker
image processing
contour
calculated
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018231826A
Other languages
Japanese (ja)
Other versions
JP2020096254A5 (en
JP2020096254A (en
Inventor
公崇 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018231826A priority Critical patent/JP7183020B2/en
Publication of JP2020096254A publication Critical patent/JP2020096254A/en
Publication of JP2020096254A5 publication Critical patent/JP2020096254A5/ja
Application granted granted Critical
Publication of JP7183020B2 publication Critical patent/JP7183020B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、カメラ撮影時のカメラ位置合わせの補助を行う技術に関する。 TECHNICAL FIELD The present invention relates to a technique for assisting camera positioning when photographing with a camera.

近年、デジタルカメラの普及により、本来の用途である写真撮影以外でも利用される例が増えてきている。例えば、デジタルカメラでは2次元で色を取得することができるため、2次元測色器として利用する例や、何らかのマーカを立体物表面に取り付け、その撮影後にマーカの位置変化や大きさの変化から形状を算出する形状測定器として利用する例がある。このような立体物形状を有する被写体の計測では、複数の異なる観察角度からの見た目の色が変化する変角反射特性を計測することが求められる。この場合、デジタルカメラでの撮影において空間的な幾何条件を自動で制御することが望ましい。このような自動制御の技術として、例えば特許文献1には、ジャイロセンサーや加速度センサーを利用してカメラ姿勢を検出し、予め決められたカメラ姿勢と判断されると自動で撮影を行う技術が開示されている。 In recent years, due to the widespread use of digital cameras, there are increasing cases where digital cameras are used for purposes other than photography, which is their original purpose. For example, since a digital camera can acquire colors in two dimensions, it can be used as a two-dimensional colorimeter. There is an example of using it as a shape measuring instrument for calculating the shape. In the measurement of a subject having such a three-dimensional object shape, it is required to measure the variable angle reflection characteristics that change the apparent color from a plurality of different viewing angles. In this case, it is desirable to automatically control the spatial geometric conditions in photographing with a digital camera. As a technique for such automatic control, for example, Patent Document 1 discloses a technique for detecting the camera orientation using a gyro sensor or an acceleration sensor, and automatically taking a picture when it is determined that the camera orientation is predetermined. It is

特開2011-41050号公報Japanese Unexamined Patent Application Publication No. 2011-41050

特許文献1の記載の技術では、検出したカメラ姿勢が予め設定されたカメラ姿勢になったことを検出した時に撮影を行うことは可能である。しかしながら、予め設定した幾何条件に合うようにカメラの位置を移動させる際に、ユーザは、カメラ位置をどのように移動させれば良いのかを把握することが困難である。 With the technique described in Patent Document 1, it is possible to shoot when it is detected that the detected camera attitude has changed to a preset camera attitude. However, it is difficult for the user to grasp how to move the camera position when moving the camera position so as to meet preset geometric conditions.

そこで、本発明は、設定した幾何条件に合うようにカメラの位置を移動させる場合に、設定した幾何条件に対してユーザがカメラの位置を容易に合わせられるようにすることを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to enable a user to easily match the position of a camera with a set geometric condition when moving the position of the camera so as to meet the set geometric condition.

本発明の画像処理装置は、マーカが配置された対象物を計測する際の幾何条件と、前記幾何条件に対する許容範囲とを設定する設定手段と、前記対象物を撮像手段を用いて撮像して得られる画像データを取得する取得手段と、前記画像データを基に、前記対象物に配置された前記マーカの輪郭を抽出する抽出手段と、前記画像データと前記設定された幾何条件とを基に、前記撮像手段の移動方向をガイドするためのガイドマーカを算出する算出手段と、前記抽出されたマーカの輪郭と前記算出されたガイドマーカと前記許容範囲とを表示手段に表示させる表示制御手段と、を有することを特徴とする。 The image processing apparatus of the present invention includes setting means for setting a geometric condition and an allowable range for the geometric condition when measuring an object on which markers are arranged, and imaging the object using an imaging means. Acquisition means for acquiring obtained image data; Extraction means for extracting the outline of the marker arranged on the object based on the image data; and Based on the image data and the set geometric conditions a calculation means for calculating a guide marker for guiding the moving direction of the imaging means; and a display control means for displaying the outline of the extracted marker, the calculated guide marker, and the allowable range on a display means. , is characterized by having

本発明によれば、設定した幾何条件に合うようにカメラの位置を移動させる場合に、設定した幾何条件に対してユーザがカメラの位置を容易に合わせられるようになる。 According to the present invention, when moving the position of the camera so as to meet the set geometric conditions, the user can easily match the position of the camera with the set geometric conditions.

画像処理装置の構成例を示す図である。It is a figure which shows the structural example of an image processing apparatus. 画像処理装置の論理構成を示す図である。It is a figure which shows the logical structure of an image processing apparatus. 画像処理装置における処理フローチャートである。4 is a processing flowchart in the image processing apparatus; 第1の実施形態におけるUIの一例を示す図である。It is a figure which shows an example of UI in 1st Embodiment. 球面座標を示す図である。FIG. 4 is a diagram showing spherical coordinates; 第1の実施形態におけるUIの状態遷移を表す状態遷移図である。4 is a state transition diagram showing state transition of UI in the first embodiment. FIG. 形状法線算出部の論理構成を示すブロック図である。FIG. 4 is a block diagram showing the logical configuration of a shape normal calculation unit; マーカを説明する模式図である。It is a schematic diagram explaining a marker. マーカとメタデータの説明に用いる図である。FIG. 4 is a diagram used for explaining markers and metadata; 形状算出処理のフローチャートである。It is a flow chart of shape calculation processing. 法線算出処理のフローチャートである。6 is a flowchart of normal calculation processing; 輪郭抽出処理のフローチャートである。6 is a flowchart of contour extraction processing; 第1の実施形態の輪郭射影処理のフローチャートである。4 is a flowchart of contour projection processing according to the first embodiment; 第1の実施形態における輪郭表示のUIの一例を示す図である。FIG. 7 is a diagram showing an example of a UI for contour display in the first embodiment; 第2の実施形態におけるUIの一例を示す図である。It is a figure which shows an example of UI in 2nd Embodiment. 第2の実施形態におけるUIの状態遷移を表す状態遷移図である。FIG. 11 is a state transition diagram showing UI state transitions in the second embodiment. 第2の実施形態における輪郭射影処理のフローチャートである。9 is a flowchart of contour projection processing in the second embodiment; 第2の実施形態における輪郭表示のUIの一例を示す図である。FIG. 11 is a diagram illustrating an example of a UI for contour display in the second embodiment;

以下、本発明の好ましい実施の形態を添付の図面を参照して詳細に説明する。なお、以下に説明する実施形態は、本発明を具体的に実施した場合の一例を示すものであり、本発明は以下の実施形態に限定されるものではない。
本実施形態では、計測対象物である立体物の表面には後述するマーカが配されているとする。また本実施形態では、マーカとして、複数のポイントパターンを有するマーカを例に挙げており、その具体例については後述する。そして本実施形態では、計測対象物の被写体を撮像した撮像画像内のマーカと予め設定された計測幾何条件とから、その計測幾何条件と被写体とカメラ位置との関係をユーザにフィードバックし、計測幾何条件に対してユーザがカメラの位置を合わせ易くする。
Preferred embodiments of the present invention will now be described in detail with reference to the accompanying drawings. It should be noted that the embodiments described below are examples of specific implementations of the present invention, and the present invention is not limited to the following embodiments.
In this embodiment, it is assumed that a marker, which will be described later, is arranged on the surface of the three-dimensional object that is the object to be measured. Also, in this embodiment, a marker having a plurality of point patterns is taken as an example of the marker, and a specific example thereof will be described later. In this embodiment, the relationship between the measurement geometric condition, the subject, and the camera position is fed back to the user based on the marker in the captured image of the subject of the measurement object and the preset measurement geometric condition. To make it easier for a user to position a camera with respect to conditions.

<第1の実施形態>
図1は本発明に係る第1の実施形態の画像処理装置の概略構成を示すブロック図である。図1は、本実施形態の画像処理装置の一適用例として、コンピュータ11の構成を示している。
<First Embodiment>
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to the first embodiment of the invention. FIG. 1 shows the configuration of a computer 11 as an application example of the image processing apparatus of this embodiment.

CPU101は、RAM103をワークメモリとし、ROM102やハードディスクドライブ(HDD)17、各種記録メディア等に格納されているオペレーティングシステム(OS)や各種プログラムを実行し、システムバス107を介して各構成を制御する。なお、CPU101が実行するプログラムには、後述する本実施形態に係る処理フローを実行するプログラム(画像処理アプリケーション)が含まれる。なお、本実施形態に係る画像処理アプリケーションのプログラムは、各種記録メディアやネットワークを介して供給され、RAM103等に展開されることによりCPU101により実行可能となされる。 The CPU 101 uses the RAM 103 as a work memory, executes an operating system (OS) and various programs stored in the ROM 102, hard disk drive (HDD) 17, various recording media, etc., and controls each configuration via the system bus 107. . Note that the programs executed by the CPU 101 include a program (image processing application) that executes a processing flow according to this embodiment, which will be described later. Note that the image processing application program according to the present embodiment is supplied via various recording media or a network, and can be executed by the CPU 101 by being developed in the RAM 103 or the like.

汎用I/F104は、USBなどのシリアルバスインタフェイスであり、シリアルバス12を介して、マウスやキーボードなどの入力デバイス13やプリンタ14などが接続される。CPU101は、汎用I/F104を介して、入力デバイス13からのユーザ指示を含むユーザ入力を受信する。
SATAI/F105は、シリアルATA(SATA)のインタフェイスであり、HDD17や各種記録メディアの読み書きを行う汎用ドライブ18が接続される。CPU101は、SATAI/F105を介して、HDD17や汎用ドライブ18にマウントされた各種記録メディアをデータの格納場所として読み書きに利用する。
VC106は、ビデオインタフェイスのためのビデオカードであり、表示装置であるディスプレイ15が接続されている。CPU101は、プログラムが提供するユーザインタフェイス(UI)を、VC106を介してディスプレイ15に表示する。
A general-purpose I/F 104 is a serial bus interface such as USB, and is connected to an input device 13 such as a mouse and a keyboard, a printer 14 , and the like via the serial bus 12 . The CPU 101 receives user input including user instructions from the input device 13 via the general-purpose I/F 104 .
The SATA I/F 105 is a serial ATA (SATA) interface, and is connected to the HDD 17 and a general-purpose drive 18 that reads and writes various recording media. The CPU 101 uses various recording media mounted on the HDD 17 or the general-purpose drive 18 as data storage locations for reading and writing via the SATA I/F 105 .
VC 106 is a video card for video interface, and is connected to display 15, which is a display device. CPU 101 displays a user interface (UI) provided by the program on display 15 via VC 106 .

以下、図1に示した構成において、CPU101からの指令に基づき画像処理アプリケーションが、実行する処理について説明する。
図2は、本実施形態の画像処理アプリケーションの実行によりコンピュータ11において構成される、マーカ位置合わせガイド表示装置2の論理構成を示すブロック図である。なお、図2には計測対象物を撮像する撮像装置1も記載している。
図2に示すガイド表示装置2は、画像データ取得部21、形状法線算出部22、輪郭抽出部23、幾何条件設定部24、マーカ輪郭射影部25、輪郭表示部26を有して構成される。
Processing executed by the image processing application based on commands from the CPU 101 in the configuration shown in FIG. 1 will be described below.
FIG. 2 is a block diagram showing the logical configuration of the marker alignment guide display device 2 configured in the computer 11 by executing the image processing application of this embodiment. Note that FIG. 2 also shows an imaging device 1 for imaging the object to be measured.
The guide display device 2 shown in FIG. be.

画像データ取得部21は、撮像装置1が計測対象物の被写体を撮像した撮像画像データを取得する。画像データ取得部21により取得された撮像画像データは形状法線算出部22と輪郭抽出部23に送られる。 The image data acquisition unit 21 acquires captured image data obtained by capturing an image of the subject of the measurement object by the imaging device 1 . The captured image data acquired by the image data acquisition section 21 is sent to the shape normal calculation section 22 and the contour extraction section 23 .

形状法線算出部22は、画像データ取得部21が取得した撮像画像からマーカを抽出し、その抽出したマーカを基に法線方向、ならびに、カメラ(撮像装置1)の位置および角度を算出する。カメラの角度とは、カメラの光軸が向いている方位角と仰角である。マーカに基づく法線方向の算出処理、ならびに、カメラの位置および角度の算出処理の詳細は後述する。 The shape normal calculation unit 22 extracts markers from the captured image acquired by the image data acquisition unit 21, and calculates the normal direction and the position and angle of the camera (imaging device 1) based on the extracted markers. . Camera angles are the azimuth and elevation angles at which the optical axis of the camera is pointing. Details of the normal direction calculation processing based on the marker and the camera position and angle calculation processing will be described later.

輪郭抽出部23は、画像データ取得部21が取得した撮像画像から、形状法線算出部22にて抽出されたマーカの輪郭を抽出する。マーカの輪郭抽出処理の詳細は後述する。輪郭抽出部23が撮像画像から抽出したマーカ輪郭の情報は、輪郭表示部26に送られる。 The contour extraction unit 23 extracts the contour of the marker extracted by the shape normal calculation unit 22 from the captured image acquired by the image data acquisition unit 21 . The details of the marker contour extraction processing will be described later. Information on the marker contours extracted from the captured image by the contour extraction unit 23 is sent to the contour display unit 26 .

幾何条件設定部24は、入力デバイス13を介して入力されたユーザの指示に基づいて、計測する幾何条件を設定する。ユーザ指示に基づいて設定される幾何条件の詳細は後述する。幾何条件設定部24により設定された幾何条件の情報はマーカ輪郭射影部25に送られる。 The geometric condition setting unit 24 sets geometric conditions for measurement based on user instructions input via the input device 13 . Details of the geometric conditions set based on user instructions will be described later. Information on the geometric conditions set by the geometric condition setting unit 24 is sent to the marker contour projection unit 25 .

マーカ輪郭射影部25は、幾何条件設定部24にて設定された幾何条件と、形状法線算出部22により算出された法線方向ならびにカメラの位置および角度とに基づいて、プレビュー画面上の被写体(計測対象物)に射影するマーカ輪郭を算出する。マーカ輪郭射影部25におけるマーカ輪郭の射影算出処理の詳細は後述する。マーカ輪郭射影部25により算出されたマーカ輪郭の射影情報は輪郭表示部26に送られる。 The marker contour projection unit 25 projects the subject on the preview screen based on the geometric condition set by the geometric condition setting unit 24, the normal direction calculated by the shape normal calculation unit 22, and the position and angle of the camera. Calculate a marker contour projected onto (measurement object). The details of the marker contour projection calculation processing in the marker contour projection unit 25 will be described later. Projection information of the marker contour calculated by the marker contour projection unit 25 is sent to the contour display unit 26 .

輪郭表示部26は、輪郭抽出部23にて撮像画像から抽出されたマーカ輪郭と、マーカ輪郭射影部25にて算出された射影用のマーカ輪郭とを、ディスプレイ15に表示されているプレビュー画面上に重畳表示する。それらマーカ輪郭のプレビュー画面への重畳表示の詳細は後述する。 The contour display unit 26 displays the marker contour extracted from the captured image by the contour extraction unit 23 and the marker contour for projection calculated by the marker contour projection unit 25 on the preview screen displayed on the display 15. superimposed on the The details of the superimposed display of these marker contours on the preview screen will be described later.

なお図2にはコンピュータ11が画像処理アプリケーションを実行することによるソフトウェア構成を例に挙げたが、図2の各ブロックはハードウエア構成により実現されても良いし、一部がソフトウェア構成で残りがハードウエア構成により実現されても良い。 FIG. 2 shows an example of a software configuration in which the computer 11 executes an image processing application, but each block in FIG. 2 may be realized by a hardware configuration. It may be realized by a hardware configuration.

図3は、本実施形態のガイド表示装置2におけるガイド表示処理の流れを示すフローチャートである。なお、以下の説明では、図3のフローチャートの処理ステップS301~S305をそれぞれS301~S305のように略記する。このことは後述する他のフローチャートにおいても同様とする。図3のフローチャートの処理は、入力デバイス13を操作してユーザが所定の開始指示を入力することで開始する。 FIG. 3 is a flow chart showing the flow of guide display processing in the guide display device 2 of this embodiment. In the following description, processing steps S301 to S305 in the flowchart of FIG. 3 are abbreviated as S301 to S305, respectively. The same applies to other flowcharts to be described later. The processing of the flowchart of FIG. 3 is started when the user operates the input device 13 and inputs a predetermined start instruction.

先ずS301において、画像データ取得部21は撮像画像データを取得し、幾何条件設定部24はユーザにより設定された幾何条件を取得する。
次にS302において、形状法線算出部22は、後述する処理により、撮像画像からマーカの形状と、計測対象点の法線ならびにカメラの位置および角度とを算出する。
次にS303において、輪郭抽出部23は、後述する処理により、撮像画像からマーカの輪郭を抽出する。
次にS304において、マーカ輪郭射影部25は、後述する処理により、S301で取得された幾何条件を法線とする平面に対するマーカの射影を算出する。
そしてS305において、輪郭表示部26は、後述する処理により、二つのマーカ輪郭をUIとして表示する。
First, in S301, the image data acquisition unit 21 acquires captured image data, and the geometric condition setting unit 24 acquires geometric conditions set by the user.
Next, in S302, the shape normal line calculation unit 22 calculates the shape of the marker, the normal line of the measurement target point, and the position and angle of the camera from the captured image by processing to be described later.
Next, in S303, the contour extracting unit 23 extracts the contour of the marker from the captured image by processing described later.
Next, in S304, the marker contour projection unit 25 calculates the projection of the marker onto a plane whose normal is the geometric condition acquired in S301, by processing described later.
Then, in S305, the contour display unit 26 displays the two marker contours as a UI by the processing described later.

図4は、ディスプレイ15に表示されるUI画面4の一例を示した図である。
図4のUI例において、プレビューウィンドウ401は、カメラ(撮像装置1)により撮像されているプレビュー画像を表示するための表示領域である。+マーカ402は、被写体41における計測対象点を表すマーカである。テキストボックス403は幾何条件としてカメラの方位角を編集する際にユーザが角度の値等を入力するための入力領域である。テキストボックス404は幾何条件としてカメラの仰角を編集する際にユーザが角度の値等を入力するための入力領域である。実行ボタン405は、テキストボックス403とテキストボックス404への入力により設定された幾何条件に基づく計測を開始する際にユーザが指示する操作ボタンである。
FIG. 4 is a diagram showing an example of the UI screen 4 displayed on the display 15. As shown in FIG.
In the UI example of FIG. 4, a preview window 401 is a display area for displaying a preview image captured by the camera (imaging device 1). A + marker 402 is a marker representing a measurement target point on the subject 41 . A text box 403 is an input area for the user to input an angle value or the like when editing the azimuth angle of the camera as a geometric condition. A text box 404 is an input area for the user to input an angle value or the like when editing the elevation angle of the camera as a geometric condition. The execution button 405 is an operation button that the user instructs when starting measurement based on the geometric conditions set by the input in the text boxes 403 and 404 .

図5は、本実施形態において、設定された幾何条件の一例を示す図であり、球面座標系を用いた被写体ならびにカメラの位置関係と幾何条件(球面座標値)を模式的に表している。
ここでは、動径座標をrとし、z軸と動径とが成す角をθ(天頂角θ)、z軸に垂直な面にある別の軸(x軸)と動径の射影がなす角をψ(方位角ψ)とする。また、座標原点は計測対象点であり、その計測対対象点における法線とx軸は一致するものとする。なお、動径座標のrについては後述する。
FIG. 5 is a diagram showing an example of geometric conditions set in this embodiment, and schematically shows the positional relationship and geometric conditions (spherical coordinate values) between the subject and the camera using a spherical coordinate system.
Here, the radial coordinate is r, the angle formed by the z-axis and the radius is θ (zenith angle θ), and the angle formed by the projection of the radius and another axis (x-axis) on a plane perpendicular to the z-axis be ψ (azimuth angle ψ). It is also assumed that the coordinate origin is the measurement target point, and the normal line and the x-axis at the measurement target point are the same. Note that r of the radial coordinate will be described later.

図6は、ガイド表示装置2におけるUI画面4の表示とユーザ入力に応じた状態遷移図である。
図6において、ステート601では、初期データを読み込んだ後にUI画面をディスプレイ15に表示し、その後、ステート602へ遷移する。
ステート602ではユーザの入力待ちとなり、ユーザから指示によりプレビューウィンドウ401内に計測対象点が設定された場合にはステート603へ遷移する。方位角編集用のテキストボックス403に対してユーザ入力が行われた場合や、仰角編集用のテキストボックス404に対するユーザ入力が行われた場合にはステート604へ遷移する。またステート602において実行ボタン405が押下された場合にはステート605へ遷移する。
FIG. 6 is a state transition diagram according to the display of the UI screen 4 in the guide display device 2 and user input.
In FIG. 6 , in state 601 , the UI screen is displayed on the display 15 after initial data is read, and then transitions to state 602 .
State 602 waits for user input, and transitions to state 603 when a point to be measured is set in the preview window 401 by an instruction from the user. If a user input is made to the text box 403 for editing the azimuth angle or if a user input is made to the text box 404 for editing the elevation angle, the state transitions to state 604 . Also, when the execution button 405 is pressed in state 602 , the state transitions to state 605 .

ステート603に遷移し、計測対象点についてユーザによる設定がなされると、ステート602へ遷移する。
ステート604に遷移し、テキストボックス403,404に対して幾何条件の角度(方位角、仰角)についてユーザによる設定がなされると、ステート602へ遷移する。
そして、ステート602において実行ボタン405が押下されてステート605へ遷移すると、設定された計測対象点、設定された幾何条件とに基づく計測動作が開始される。
After the transition to state 603 and the setting of the measurement target point by the user, the transition to state 602 is made.
When the user sets the angles (azimuth, elevation) of the geometric conditions in the text boxes 403 and 404, the state 604 is entered.
When the execution button 405 is pressed in state 602 to transition to state 605, a measurement operation based on the set measurement target points and the set geometric conditions is started.

図7は、形状法線算出部22の論理構成を示したブロック図である。なお、図7にはライブビュー画像を取得する撮像装置1も記載している。
形状法線算出部22は、形状算出部701と法線算出部702を有して構成されている。
図7の形状法線算出部22における構成および処理の詳細を説明する前に、図8と図9を参照して、マーカの詳細と、そのマーカ802に対応したメタデータについて説明する。
FIG. 7 is a block diagram showing the logical configuration of the shape normal calculator 22. As shown in FIG. Note that FIG. 7 also shows an imaging device 1 that acquires a live view image.
The shape normal calculation unit 22 is configured by having a shape calculation unit 701 and a normal calculation unit 702 .
Before describing details of the configuration and processing in the shape normal calculation unit 22 of FIG. 7, details of the marker and metadata corresponding to the marker 802 will be described with reference to FIGS. 8 and 9. FIG.

図8は、撮像装置1により撮像される計測対象物8(被写体)、およびその計測対象物8に取り付けられたマーカ802の一例を示した図である。マーカ802は、撮像装置1の位置取得用の複数のポイントパターン801と、マーカ802に付与されたIDコードが記述されたIDコード領域803と、を有して形成されている。 FIG. 8 is a diagram showing an example of a measurement object 8 (subject) imaged by the imaging device 1 and a marker 802 attached to the measurement object 8. As shown in FIG. The marker 802 is formed having a plurality of point patterns 801 for position acquisition of the imaging device 1 and an ID code area 803 in which the ID code assigned to the marker 802 is described.

図9は、IDコード領域803のIDコードに対応したメタデータとして保持している情報と、マーカとの対応関係を説明する図である。図9(a)はメタデータとして記録される具体的な情報とその配列例を示した図であり、図9(b)は複数のポイントパターン801とIDコード領域803により構成されたマーカ802の一例を示した図である。 FIG. 9 is a diagram for explaining the correspondence relationship between information held as metadata corresponding to the ID code in the ID code area 803 and markers. FIG. 9(a) is a diagram showing specific information recorded as metadata and an example of its arrangement. It is the figure which showed an example.

ここで、図9(a)に示したメタデータの領域901は、図9(b)のマーカ802の各ポイントパターン801の中心点の紙面上における3次元(X,Y,Z)座標値を記録する領域であり、例えばNx×Ny行分が記録されている。例えば図9(b)のマーカ802の左上端のポイントパターン801の中心点を原点とし、その原点に対する他のポイントパターン801の中心点の紙面上における相対的な位置として、各ポイントパターン801の中心点の3次元座標値を記録している。 Here, in the metadata area 901 shown in FIG. 9A, the three-dimensional (X, Y, Z) coordinate values on the paper surface of the center point of each point pattern 801 of the marker 802 in FIG. This is a recording area, in which, for example, Nx×Ny rows are recorded. For example, the center point of the point pattern 801 at the upper left corner of the marker 802 in FIG. The three-dimensional coordinate values of points are recorded.

また、図9(a)のメタデータの領域902は、マーカ802の各ポイントパターン801の中心点の2次元(u,v)座標値を記録する領域であり、例えばNx×Ny行分が記録されている。例えば図9(b)のマーカ802の左上端のポイントパターン801の中心点を原点とし、その原点に対する画素単位の2次元座標値を記録している。 A metadata area 902 in FIG. 9A is an area for recording two-dimensional (u, v) coordinate values of the center point of each point pattern 801 of the marker 802. For example, Nx×Ny lines are recorded. It is For example, the center point of the point pattern 801 at the upper left corner of the marker 802 in FIG. 9B is set as the origin, and two-dimensional coordinate values in units of pixels are recorded with respect to the origin.

さらに、図9(a)のメタデータの領域903は、ポリゴンの情報を記録する領域である。本実施形態の場合、マーカ802内の幾つかのポイントパターン801の中心点を頂点として形成される形状により、ポリゴンが決められる。例えば図9(b)に示すように、四つのポイントパターン801のそれぞれの中心点を頂点とした矩形804がポリゴンとなされる。ポリゴン情報は、矩形の頂点の情報として、領域901の行番号と領域902の行番号との組を表すA/A(Aは同じ行番号である。)を、矩形の四つの頂点分、例えば反時計回りの矩形外周を回る順に記録する。なおポリゴンは、矩形に限らず、例えば矩形を対角線で半分にした3角形ポリゴンであってもよい。 Further, a metadata area 903 in FIG. 9A is an area for recording polygon information. In the case of this embodiment, a polygon is determined by a shape formed with the center points of several point patterns 801 within the marker 802 as vertices. For example, as shown in FIG. 9(b), rectangles 804 with the central points of the four point patterns 801 as vertices are polygons. The polygon information consists of A/A (A is the same line number) representing a set of the line number of the area 901 and the line number of the area 902 as the information of the vertices of the rectangle, and the four vertices of the rectangle, for example, Recording is performed in order of rotation around the counterclockwise circumference of the rectangle. Polygons are not limited to rectangles, and may be triangular polygons obtained by halving rectangles along diagonal lines.

以下、形状算出部701における処理の詳細を、図10に示したフローチャートを参照しながら説明する。
先ずS1001において、形状算出部701は、撮像装置1による撮像画像データを図1の画像データ取得部21を介して取得する。
次にS1002において、形状算出部701は、取得した撮像画像データからIDコード領域803を抽出し、その抽出したIDコード領域803の画像パターンからマーカ802のIDコードを読み取る。具体的には、形状算出部701は、先ず撮像画像の画素値を2値化する。この2値化処理は、所定の閾値以上の画素値を有する画素を白、所定の閾値未満の画素値を有する画素を黒とする2値化処理である。次に形状算出部701は、2値化処理後の撮像画像から、公知のキャニー法を用いてエッジ位置を抽出し、八つの近傍画素にエッジ位置がある画素を同一の輪郭とみなしてグループ化する輪郭抽出を行う。さらに形状算出部701は、抽出した複数の輪郭グループの中から四角形の輪郭を選択し、撮像画像から抽出したIDコード領域が実際のIDコード領域803の形状と同じになるように輪郭を変形する。そして、形状算出部701は、輪郭変形処理により得られたIDコード領域の内部のパターンを、8×8画素のブロックに分割し、各ブロックの濃淡に基づいてIDコードを読み取る。
さらにS1003において、形状算出部701は、S1002で読み取ったIDコードに対応するマーカ802のメタデータを取得する。
Details of the processing in the shape calculation unit 701 will be described below with reference to the flowchart shown in FIG.
First, in S1001, the shape calculation unit 701 acquires image data captured by the imaging device 1 via the image data acquisition unit 21 in FIG.
Next, in S<b>1002 , the shape calculation unit 701 extracts the ID code area 803 from the captured image data, and reads the ID code of the marker 802 from the image pattern of the extracted ID code area 803 . Specifically, the shape calculation unit 701 first binarizes the pixel values of the captured image. This binarization process is a binarization process in which a pixel having a pixel value equal to or greater than a predetermined threshold is rendered white, and a pixel having a pixel value less than the predetermined threshold is rendered black. Next, the shape calculation unit 701 extracts the edge position from the captured image after the binarization processing using the known Canny method, and groups the pixels having the edge position in the eight neighboring pixels as the same contour. contour extraction. Further, the shape calculation unit 701 selects a rectangular contour from among the plurality of extracted contour groups, and transforms the contour so that the ID code area extracted from the captured image has the same shape as the actual ID code area 803. . Then, the shape calculation unit 701 divides the pattern inside the ID code area obtained by the contour transformation process into blocks of 8×8 pixels, and reads the ID code based on the gradation of each block.
Furthermore, in S1003, the shape calculation unit 701 acquires metadata of the marker 802 corresponding to the ID code read in S1002.

次にS1004において、形状算出部701は、撮像画像データから、マーカ802の各ポイントパターン801のそれぞれのパターン領域の中心座標を算出する。ここで、形状算出部701は、先ずS1002と同様に輪郭抽出までの処理を行い、抽出された輪郭グループの中から円または楕円となる輪郭の候補を取得する。次に、形状算出部701は、輪郭候補として取得した円または楕円の輪郭により囲まれる面積を算出し、その算出した各輪郭候補の面積と予め設定されたポイントパターン801の面積との差に応じて輪郭候補の順位付けを行う。さらに形状算出部701は、例えば順位1~18の各輪郭候補のパターン領域の中心座標値を算出する。そして形状算出部701は、各輪郭候補の中心座標値の相対的な位置関係が、メタデータの領域902に記載されている座標値の相対的な位置関係と一致するように各輪郭候補の中心座標値をソートする。これにより、形状算出部701は、メタデータの領域903で定義される矩形およびその矩形の頂点となるポイントパターン801の中心座標との対応を容易にとることができ、撮像画像における各矩形の歪を特定でき、形状を取得できることになる。 Next, in S1004, the shape calculation unit 701 calculates center coordinates of each pattern region of each point pattern 801 of the marker 802 from the captured image data. Here, the shape calculation unit 701 first performs processing up to contour extraction in the same manner as in S1002, and acquires contour candidates that are circles or ellipses from the extracted contour group. Next, the shape calculation unit 701 calculates the area surrounded by the outlines of the circles or ellipses acquired as the outline candidates, and calculates the area according to the difference between the calculated area of each outline candidate and the area of the point pattern 801 set in advance. to rank the contour candidates. Further, the shape calculation unit 701 calculates the central coordinate values of the pattern areas of the contour candidates ranked 1 to 18, for example. Then, the shape calculation unit 701 calculates the center of each contour candidate so that the relative positional relationship of the center coordinate values of each contour candidate matches the relative positional relationship of the coordinate values described in the metadata area 902 . Sort coordinate values. As a result, the shape calculation unit 701 can easily determine the correspondence between the rectangle defined in the metadata area 903 and the center coordinates of the point pattern 801, which is the vertex of the rectangle, and the distortion of each rectangle in the captured image. can be identified and the shape can be obtained.

次に法線算出部702における法線方向算出処理について説明する。
法線算出部702は、形状算出部701により算出された座標値により決まる形状データから、各画素の法線方向(例えば3次元ベクトル)を算出する。
図11は、法線算出部702における法線方向算出処理の流れを示すフローチャートである。
Next, normal direction calculation processing in the normal calculation unit 702 will be described.
A normal line calculation unit 702 calculates a normal line direction (for example, a three-dimensional vector) of each pixel from the shape data determined by the coordinate values calculated by the shape calculation unit 701 .
FIG. 11 is a flowchart showing the flow of normal direction calculation processing in the normal calculation unit 702 .

先ずS1101において、法線算出部702は、メタデータから矩形804の頂点の3次元座標値を読み込む。具体的には、法線算出部702は、メタデータから、領域903に示したポリゴン情報の一行を読み取り、そのポリゴンの各頂点に対応する座標値を領域901から読み取る。 First, in S1101, the normal calculation unit 702 reads the three-dimensional coordinate values of the vertices of the rectangle 804 from the metadata. Specifically, the normal calculation unit 702 reads one line of polygon information shown in the area 903 from the metadata, and reads coordinate values corresponding to each vertex of the polygon from the area 901 .

次にS1102において、法線算出部702は、S1004で算出されたポイントパターン801の中心座標から、S1101で座標値を読み取った各頂点に対応する座標値を読み取る。ここで、ポイントパターン801の中心座標の順は、S1004において既に領域902に登録されている座標値の順と一致するようにソートされている。そのため、S1102においては、S1101と同様に、領域903に記載されている頂点の番号に対応する中心座標を抽出すればよい。 Next, in S1102, the normal calculation unit 702 reads the coordinate values corresponding to the vertices whose coordinate values were read in S1101 from the center coordinates of the point pattern 801 calculated in S1004. Here, the order of the center coordinates of the point pattern 801 is sorted so as to match the order of the coordinate values already registered in the area 902 in S1004. Therefore, in S1102, the center coordinates corresponding to the vertex numbers described in the area 903 may be extracted, as in S1101.

次にS1103において、法線算出部702は、下記の式(1)で示すr11~r33の係数からなる回転行列と、t1~t3の係数からなる並進ベクトルとを推定する。これにより、矩形804の平面に対する撮像装置1の位置、姿勢を知ることができることになる。 Next, in S1103, the normal calculation unit 702 estimates a rotation matrix made up of coefficients r11 to r33 and a translation vector made up of coefficients t1 to t3 shown in Equation (1) below. As a result, the position and orientation of the imaging device 1 with respect to the plane of the rectangle 804 can be known.

Figure 0007183020000001
Figure 0007183020000001

式(1)のfx,fyは撮像装置1の焦点距離、cx,czは撮像装置1の主点をそれぞれ意味しており、既知の値として保持されている。また、式(1)の(u,v)はS1002で読み取った撮像画像データのポイントパターン801の中心座標、(X,Y,Z)はS1003で取得したメタデータの対応する3次元座標値である。S1103では、ポリゴンの四つの頂点における(u,v)と(X,Y,Z)の対応から、回転行列と並進ベクトルを推定する。この推定手法は、例えばPnP(Perspective-n-Point)問題として公知であり、3点以上の(u,v)と(X,Y,Z)の対応から回転行列と並進ベクトルが推定可能である。 fx and fy in equation (1) denote the focal length of the imaging device 1, and cx and cz denote the principal points of the imaging device 1, respectively, and are held as known values. (u, v) in equation (1) are the center coordinates of the point pattern 801 of the captured image data read in S1002, and (X, Y, Z) are the three-dimensional coordinate values corresponding to the metadata acquired in S1003. be. In S1103, the rotation matrix and translation vector are estimated from the correspondence between (u, v) and (X, Y, Z) at the four vertices of the polygon. This estimation method is known as, for example, the PnP (Perspective-n-Point) problem, and the rotation matrix and translation vector can be estimated from the correspondence between (u, v) and (X, Y, Z) of three or more points. .

次にS1104において、法線算出部702は、撮像装置1を原点とする各頂点の3次元座標(x,y,z)と、各頂点を含む平面の法線ベクトルとを算出する。このときの法線算出部702は、次の式(2)により、先ず各頂点の3次元座標(x,y,z)を算出する。 Next, in S1104, the normal calculation unit 702 calculates the three-dimensional coordinates (x, y, z) of each vertex with the imaging device 1 as the origin, and the normal vector of the plane containing each vertex. The normal calculation unit 702 at this time first calculates the three-dimensional coordinates (x, y, z) of each vertex by the following equation (2).

Figure 0007183020000002
Figure 0007183020000002

式(2)のRは回転行列、tは並進ベクトルであり、S1003で算出したものである。また、(X,Y,Z)はS1001で読み取ったメタデータにおける各頂点の3次元座標値である。また、この処理では、ある頂点の(x,y,z)座標値を原点として他の二つの頂点の(x,y,z)座標値へのベクトルを算出し、それらの外積ベクトルが示す方向の単位ベクトルを法線ベクトルとして算出する。なお、各頂点の(X,Y,Z)座標値のZ値が同じ場合、回転行列の3列目のr13,r23,r33を成分とする単位ベクトルを法線ベクトルとすることもできる。 In Equation (2), R is a rotation matrix and t is a translation vector, which are calculated in S1003. (X, Y, Z) are the three-dimensional coordinate values of each vertex in the metadata read in S1001. In this process, the (x, y, z) coordinate value of one vertex is used as the origin to calculate a vector to the (x, y, z) coordinate values of the other two vertices, and the direction indicated by the outer product vector is calculated as the normal vector. If the (X, Y, Z) coordinate values of the vertices have the same Z value, the normal vector can be a unit vector whose components are r13, r23, and r33 in the third column of the rotation matrix.

法線算出部702は、前述したS1101からS1104の処理を全矩形に対して行い、撮像装置1を原点とする各矩形の頂点の3次元(x,y,z)座標値を取得する。これらの座標は、対象物8が例えば曲面であっても、各矩形が平面とみなせる間隔で配置されている場合であれば、対象物8自身の3次元座標値であるとみなすことができる。 The normal calculation unit 702 performs the above-described processing of S1101 to S1104 for all rectangles, and acquires the three-dimensional (x, y, z) coordinate values of the vertices of each rectangle with the imaging apparatus 1 as the origin. These coordinates can be regarded as the three-dimensional coordinate values of the object 8 itself, even if the object 8 is, for example, a curved surface, if the rectangles are arranged at intervals that can be regarded as a plane.

次にS1105において、法線算出部702は、位置取得用のポイントパターン801の中心の3次元(x,y,z)座標値を決定する。ここで、S1101~S1104の処理で算出した各矩形の頂点は隣接する矩形同士で重複している。そこで、法線算出部702は、重複した頂点の(x,y,z)座標値を再計算する。具体的には、法線算出部702は、先ず各矩形において、隣接する矩形と重複する頂点を含み、矩形の法線ベクトルを法線とする平面を算出する。そして、法線算出部702は、重複しない頂点の座標値と原点とを通る直線を算出し、その直線と平面との交点を新たな重複しない頂点の座標値とする処理を行う。このように座標値を再計算することで、各矩形の法線ベクトルを維持することが可能となる。なお、単純に重複する頂点の(x,y,z)座標値の平均値を対応するポイントパターン801の中心の3次元座標値としてもよい。 Next, in S1105, the normal line calculation unit 702 determines three-dimensional (x, y, z) coordinate values of the center of the point pattern 801 for position acquisition. Here, the vertices of the rectangles calculated in the processing of S1101 to S1104 overlap between adjacent rectangles. Therefore, the normal calculation unit 702 recalculates the (x, y, z) coordinate values of the overlapping vertices. Specifically, the normal calculation unit 702 first calculates, in each rectangle, a plane that includes vertices that overlap adjacent rectangles and whose normal is the normal vector of the rectangle. Then, the normal calculation unit 702 calculates a straight line passing through the coordinate values of the non-overlapping vertices and the origin, and sets the intersection of the straight line and the plane as the new coordinate values of the non-overlapping vertices. By recalculating the coordinate values in this way, it is possible to maintain the normal vector of each rectangle. Note that the three-dimensional coordinate value of the center of the corresponding point pattern 801 may simply be the average value of the (x, y, z) coordinate values of the overlapping vertices.

その後、S1106において、法線算出部702は、矩形ごとに算出した法線ベクトルから位置取得用の各ポイントパターン801の法線ベクトルを算出する。この処理は、例えば、各ポイントパターン801の中心を頂点とする全矩形の法線ベクトルの平均値を算出することによって行われる。 After that, in S1106, the normal calculation unit 702 calculates the normal vector of each point pattern 801 for position acquisition from the normal vector calculated for each rectangle. This process is performed, for example, by calculating the average value of normal vectors of all rectangles having the center of each point pattern 801 as a vertex.

以下、輪郭抽出部23においてプレビュー画像からマーカの輪郭抽出を行う処理について説明する。
図12は輪郭抽出部23におけるマーカの輪郭抽出処理の流れを示すフローチャートである。
先ずS1201において、輪郭抽出部23は、S1004で算出された画像平面におけるマーカの各ポイントパターンの中心座標と識別番号を取得する。ポイントパターンの識別番号は、一例としてマーカ内で反時計回りの順に割り当てられた番号であるとする。
Processing for extracting the outline of the marker from the preview image in the outline extracting section 23 will be described below.
FIG. 12 is a flow chart showing the flow of marker contour extraction processing in the contour extraction unit 23 .
First, in S1201, the outline extraction unit 23 acquires the center coordinates and the identification number of each point pattern of the marker on the image plane calculated in S1004. As an example, the point pattern identification numbers are numbers assigned in counterclockwise order within the marker.

次にS1202において、輪郭抽出部23は、識別番号iと識別番号i+1のポイントパターンの中心座標間を結ぶ実線を、プレビュー画像に追加する線として生成する。この実線の情報は輪郭表示部26に送られて表示されることにより、各ポイントパターンの中心座標間を結ぶ実線がプレビュー画像に重畳表示されることになる。 Next, in S1202, the outline extraction unit 23 generates a solid line connecting the center coordinates of the point patterns with the identification number i and the identification number i+1 as a line to be added to the preview image. The solid line information is sent to the outline display section 26 and displayed, whereby the solid line connecting the center coordinates of the point patterns is superimposed and displayed on the preview image.

次にS1203において、輪郭抽出部23は、全てのポイントパターンに対してS1202の処理を実施したか否かを判定し、実施していればS1204へ処理を進め、そうでなければS1202へ処理を戻す。
S1204に進むと、輪郭抽出部23は、識別番号N-1と識別番号0のポイントパターンの中心座標間を結ぶ実線をプレビュー画像に追加する線として生成する。なお、Nはマーカのポイントパターン総数を表す。この実線の情報は輪郭表示部26に送られて表示されることにより、各ポイントパターンの中心座標間を結ぶ実線がプレビュー画像に重畳表示されることになる。
Next, in S1203, the outline extraction unit 23 determines whether or not the processing of S1202 has been performed for all point patterns. return.
Proceeding to S1204, the contour extraction unit 23 generates a solid line connecting the central coordinates of the point patterns with the identification number N−1 and the identification number 0 as a line to be added to the preview image. Note that N represents the total number of marker point patterns. The solid line information is sent to the outline display section 26 and displayed, whereby the solid line connecting the center coordinates of the point patterns is superimposed and displayed on the preview image.

以下、マーカ輪郭射影部25においてマーカ輪郭を射影する処理について説明する。
図13は、マーカ輪郭射影部25において、プレビュー画像から、設定された幾何条件に対応したマーカ802の輪郭の射影を算出して、平面写像を行う処理の流れを示すフローチャートである。
先ずS1301において、マーカ輪郭射影部25は、S1004にて算出された3次元空間における各ポイントパターンの中心座標と識別番号、S1103にて算出された撮像装置1の位置を取得する。
Processing for projecting a marker contour in the marker contour projection unit 25 will be described below.
FIG. 13 is a flow chart showing the flow of the process of calculating the projection of the contour of the marker 802 corresponding to the set geometric conditions from the preview image in the marker contour projection unit 25 and performing planar mapping.
First, in S1301, the marker contour projection unit 25 acquires the central coordinates and identification number of each point pattern in the three-dimensional space calculated in S1004, and the position of the imaging device 1 calculated in S1103.

次にS1302において、マーカ輪郭射影部25は、S1103で説明した式(1)を用いて、識別番号iのポイントパターンの写像先の2次元座標(ui,vi)を算出する。
次にS1303において、マーカ輪郭射影部25は、全てのポイントパターンに対してS1302の処理を実施したか否かを判定し、実施していればS1304へ処理を進め、そうでなければ識別番号をインクリメントしてS1302へ処理を戻す。
Next, in S1302, the marker contour projection unit 25 calculates the two-dimensional coordinates (ui, vi) of the mapping destination of the point pattern with the identification number i using the equation (1) described in S1103.
Next, in S1303, the marker contour projection unit 25 determines whether or not the processing of S1302 has been performed for all point patterns. It is incremented and the process returns to S1302.

S1304に進むと、マーカ輪郭射影部25は、識別番号iと識別番号i+1のポイントパターンについて射影先座標間の破線を、プレビュー画像に追加する破線として生成する。この破線の情報は輪郭表示部26に送られて表示されることにより、各ポイントパターンの射影先座標間を結ぶ破線がプレビュー画像に重畳表示されることになる。 Proceeding to S1304, the marker contour projection unit 25 generates a dashed line between projection destination coordinates for the point patterns of identification number i and identification number i+1 as a dashed line to be added to the preview image. Information about the dashed lines is sent to the contour display unit 26 and displayed, whereby the dashed lines connecting the coordinates of the projection destinations of the point patterns are superimposed and displayed on the preview image.

次にS1305において、マーカ輪郭射影部25は、全てのポイントパターンに対してS1304の処理を実施したか否かを判定し、実施していればS1306へ処理を進め、そうでなければ識別番号をインクリメントしてS1304へ処理を戻す。
S1306に進むと、マーカ輪郭射影部25は、識別番号N-1と識別番号0の各ポイントパターンの中心座標間を結ぶ破線を、プレビュー画像に追加する破線として生成する。この破線の情報は輪郭表示部26に送られて表示されることにより、マーカの各ポイントパターンの中心座標間を結ぶ破線がプレビュー画像に重畳表示されることになる。
Next, in S1305, the marker contour projection unit 25 determines whether or not the processing of S1304 has been performed for all point patterns. It is incremented and the process returns to S1304.
Proceeding to S1306, the marker contour projection unit 25 generates a dashed line connecting the center coordinates of the point patterns with the identification number N−1 and the identification number 0 as a dashed line to be added to the preview image. Information about this dashed line is sent to the contour display unit 26 and displayed, whereby a dashed line connecting the center coordinates of each point pattern of the marker is superimposed and displayed on the preview image.

以下、輪郭表示部26によりディスプレイ15に表示されるUIについて詳細に説明する。図14(a)~図14(d)は、UIの一例を模式的に示す図であり、ウィンドウ401は前述した図4の例とプレビュー画像を表示する表示領域である。また図14(a)~図14(d)において、実線マーカ1401は撮影画像のマーカの輪郭を示すガイドマーカであり、破線マーカ1402は設定された幾何条件におけるマーカの輪郭の写像を示すガイドマーカである。頂点1403,1404,1405,1406はマーカ輪郭の四つの頂点である。頂点1403',1404',1405',1406'は正射影されたマーカ輪郭の四つの頂点である。+マーカ1407は被写体41における計測対象点を示すガイドマーカである。 The UI displayed on the display 15 by the contour display unit 26 will be described in detail below. 14(a) to 14(d) are diagrams schematically showing an example of the UI, and a window 401 is a display area for displaying the example shown in FIG. 4 and a preview image. 14(a) to 14(d), a solid line marker 1401 is a guide marker indicating the outline of the marker in the captured image, and a dashed line marker 1402 is a guide marker indicating the mapping of the outline of the marker under the set geometric conditions. is. Vertices 1403, 1404, 1405, 1406 are the four vertices of the marker contour. Vertices 1403', 1404', 1405', 1406' are the four vertices of the orthographically projected marker contour. A + marker 1407 is a guide marker indicating a measurement target point on the subject 41 .

図14(a)は、カメラの幾何条件と、設定された幾何条件とが一致している場合のマーカ表示例を示しており、図14(b)と図14(c)は、カメラの幾何条件と、設定された幾何条件とが一致していない場合のマーカ表示例を示している。また図14(d)は、計測対象点の+マーカ1407が画角中心と異なる場合の表示例を示している。
これら図14(a)~図14(d)の表示例によれば、ユーザは、カメラの幾何条件と、設定された幾何条件とが一致しているかどうか、計測対象点のマーカ1407が画角中心と一定しているかどうかを視覚的に容易に認識することができる。そして、ユーザは、実線マーカ1401と破線マーカ1402が合うように撮像装置1の位置や角度を変更することで、設定した幾何条件に合うように撮像装置1の位置や角度を合わせることができる。
FIG. 14(a) shows an example of marker display when the geometric conditions of the camera match the set geometric conditions, and FIGS. 14(b) and 14(c) show the It shows an example of marker display when the condition and the set geometric condition do not match. FIG. 14D shows a display example when the + marker 1407 of the measurement target point is different from the center of the angle of view.
According to the display examples of FIGS. 14A to 14D, the user can determine whether or not the geometric conditions of the camera match the set geometric conditions when the marker 1407 of the measurement target point is at the angle of view. It is easy to visually recognize whether the center is constant or not. By changing the position and angle of the imaging device 1 so that the solid-line marker 1401 and the dashed-line marker 1402 match, the user can adjust the position and angle of the imaging device 1 to match the set geometric conditions.

以上説明したように、第1の実施形態のガイド表示装置2においては、複数の計測幾何条件について指定された条件に従い計測順を決定し、設定した幾何条件と被写体とカメラの位置関係をユーザにフィードバックしている。これにより、第1の実施形態のガイド表示装置2によれば、ユーザは、カメラをどのように移動させれば良いかを容易に認識でき、設定した幾何条件に対しカメラ位置を容易に合わせることができるようになる。 As described above, in the guide display device 2 of the first embodiment, the order of measurement is determined according to specified conditions for a plurality of measurement geometric conditions, and the set geometric conditions and the positional relationship between the subject and the camera are displayed to the user. giving feedback. As a result, according to the guide display device 2 of the first embodiment, the user can easily recognize how to move the camera, and easily adjust the camera position to the set geometric conditions. will be able to

次に第2の実施形態について説明する。
第1の実施形態では、設定された幾何条件に対応したマーカ輪郭と、撮影されたマーカの輪郭とを表示してカメラの移動方向をガイドする例を挙げている。第2の実施形態では、カメラの移動方向をガイドする表示に合わせて、移動の許容範囲を表示することにより、設定された幾何条件に対し、ピクセルレベルでカメラの位置を合わせ易くする例について説明する。なお、第2の実施形態における構成は図1、図2、図7と同様であるためそれらの図示は省略する。
Next, a second embodiment will be described.
In the first embodiment, an example is given in which the marker contour corresponding to the set geometric condition and the contour of the photographed marker are displayed to guide the moving direction of the camera. In the second embodiment, an example will be described in which the permissible range of movement is displayed in accordance with the display that guides the movement direction of the camera, thereby facilitating the alignment of the camera with the set geometric conditions at the pixel level. do. The configuration of the second embodiment is the same as that shown in FIGS. 1, 2, and 7, so illustration thereof is omitted.

図15は、第2の実施形態におけるUI画面1500の一例を示している。
図15のUI画面1500において、ウィンドウ1501はプレビュー画像を表示するための表示領域であり、+マーカ1502は被写体41における計測対象点を表すマーカである。テキストボックス1503とテキストボックス1504、実行ボタン1506は、図4に示したテキストボックス403とテキストボックス404、実行ボタン405と同様のものである。テキストボックス1505は、ユーザが許容範囲の値等を入力するための入力領域である。本実施形態の場合、画素数(ピクセル数)により許容角度範囲の入力が可能になされているとする。
FIG. 15 shows an example of a UI screen 1500 according to the second embodiment.
In the UI screen 1500 of FIG. 15, a window 1501 is a display area for displaying a preview image, and a +marker 1502 is a marker representing a measurement target point on the subject 41 . The text boxes 1503 and 1504 and the execution button 1506 are similar to the text boxes 403 and 404 and the execution button 405 shown in FIG. A text box 1505 is an input area for the user to input a value within the allowable range. In the case of this embodiment, it is assumed that the allowable angle range can be input according to the number of pixels.

図16は、第2の実施形態にガイド表示装置2における図15に示したUI画面1500の表示とユーザ入力に応じた状態遷移図である。
図16において、ステート1601では、初期データを読み込んだ後にUIをディスプレイ15に表示し、その後、ステート1602へ遷移する。
ステート1602ではユーザの入力待ちとなり、ユーザからの指示がプレビューウィンドウ1501内に計測対象点を設定する指示である場合にはステート1603へ遷移する。また幾何条件における方位角編集用のテキストボックス1503、仰角編集用のテキストボックス1504に対するユーザ入力が行われる場合にはステート1604へ遷移する。またステート1602において実行ボタン1506が押下された場合にはステート1606へ遷移する。またステート1602において許容範囲編集用のテキストボックス1505に対するユーザ入力が行われる場合にはステート1605へ遷移する。
FIG. 16 is a state transition diagram according to the display of the UI screen 1500 shown in FIG. 15 and user input in the guide display device 2 according to the second embodiment.
In FIG. 16 , in state 1601 , the UI is displayed on the display 15 after initial data is read, and then transitions to state 1602 .
The state 1602 waits for the user's input, and if the user's instruction is to set the measurement target point in the preview window 1501, the state 1603 is entered. When user input is made in the text box 1503 for editing the azimuth angle and the text box 1504 for editing the elevation angle in the geometric condition, the state transitions to state 1604 . Also, if the execute button 1506 is pressed in state 1602 , the state transitions to state 1606 . Also, in state 1602 , when the user inputs to the text box 1505 for editing the allowable range, the process transitions to state 1605 .

ステート1603に遷移すると、計測対象点についてユーザによる設定が可能となり、計測対象点の設定がなされるとステート1602へ遷移する。
ステート1604に遷移すると、幾何条件の角度についてユーザによる設定が可能となり、テキストボックス1503,1504に対して角度の入力が行われた後にはステート1602へ遷移する。
ステート1605に遷移すると、許容範囲の角度についてユーザによる設定が可能となり、テキストボックス1505に対して入力が行われた後にはステート1602へ遷移する。
そして、ステート1602において実行ボタン1506が押下されてステート1606へ遷移すると、設定された計測対象点、設定された幾何条件に基づく計測動作が開始される。
When transitioning to state 1603, the user can set the measurement target point, and transition to state 1602 when the measurement target point is set.
When the transition to state 1604 is made, the angle of the geometric condition can be set by the user.
After transitioning to state 1605 , the user can set the allowable range of angles, and after input is made in the text box 1505 , transition is made to state 1602 .
Then, when the execution button 1506 is pressed in the state 1602 to transition to the state 1606, the measurement operation based on the set measurement target point and the set geometric condition is started.

以下、第2の実施形態のマーカ輪郭射影部25においてマーカ輪郭を射影する処理について説明する。
図17は、第2の実施形態のマーカ輪郭射影部25において、プレビュー画像に対し、設定された幾何条件に対応した平面写像を行う処理の流れを示すフローチャートである。S1701~S1706までの処理は、図13に示したS1301~S1306までの処理と同様であるため、それらの説明は省略する。
Processing for projecting a marker contour in the marker contour projection unit 25 of the second embodiment will be described below.
FIG. 17 is a flow chart showing the flow of processing for performing planar mapping corresponding to the set geometric conditions on the preview image in the marker contour projection unit 25 of the second embodiment. Since the processing from S1701 to S1706 is the same as the processing from S1301 to S1306 shown in FIG. 13, description thereof will be omitted.

S1706の後、S1707に進むと、マーカ輪郭射影部25は、S1704~1706にて描画した破線を構成する各画素P(x,y)について、テキストボックス1505に設定された画素数Bを用い、以下の条件を満たす領域に追加する斜線を生成する。 After S1706, when proceeding to S1707, the marker contour projection unit 25 uses the number of pixels B set in the text box 1505 for each pixel P (x, y) forming the dashed line drawn in S1704 to S1706, Generate diagonal lines that are added to areas that meet the following conditions:

x-B<斜線表示領域<x+B、且つ、y-B<斜線表示領域<y+B xB<shaded display area<x+B and yB<hatched display area<y+B

そして、その斜線の情報は輪郭表示部26に送られて表示されることにより、ポイントパターン間を結ぶ斜線がプレビュー画像に重畳表示されることになる。 Then, the slanted line information is sent to the outline display section 26 and displayed, whereby the slanted lines connecting the point patterns are superimposed and displayed on the preview image.

図18には、第2の実施形態において輪郭表示部26によりディスプレイ15に表示されるUI表示例を示す。図18(a)~図18(c)は、UIの一例を模式的に示す図であり、ウィンドウ401は図4の例とプレビュー画像を表示する表示領域である。また図18(a)~図18(c)において、実線マーカ1801は撮影画像のマーカの輪郭を表し、斜線マーカ1802は設定された幾何条件におけるマーカの輪郭の写像を表している。頂点1803,1804,1805,1806はマーカ輪郭の四つの頂点である。頂点1803',1804',1805',1806'は正射影されたマーカ輪郭の四つの頂点である。+マーカ1807は被写体41における計測対象点を示すマーカである。 FIG. 18 shows a UI display example displayed on the display 15 by the contour display unit 26 in the second embodiment. 18(a) to 18(c) are diagrams schematically showing an example of the UI, and a window 401 is a display area for displaying the example of FIG. 4 and a preview image. In FIGS. 18A to 18C, a solid line marker 1801 represents the contour of the marker in the captured image, and a diagonal line marker 1802 represents the map of the marker contour in the set geometric conditions. Vertices 1803, 1804, 1805, 1806 are the four vertices of the marker contour. Vertices 1803', 1804', 1805', 1806' are the four vertices of the orthographically projected marker contour. A + marker 1807 is a marker indicating a measurement target point on the subject 41 .

図18(a)はカメラの幾何条件と設定された幾何条件とが許容範囲内に収まっている場合のマーカ表示例を示しており、図18(b)と図18(c)はカメラの幾何条件と設定された幾何条件とが許容範囲内に収まっていない場合のマーカ表示例を示している。
これら図18(a)~図18(c)のUI表示例によれば、ユーザは、カメラの幾何条件と設定された幾何条件とが許容範囲内に収まっているかどうかを、視覚的に容易に認識することができる。そして、ユーザは、実線マーカ1801と斜線マーカ1802が合うように撮像装置1の位置や角度を変更することで、設定した幾何条件に合うように撮像装置1の位置や角度を合わせることができる。
FIG. 18(a) shows an example of marker display when the geometric conditions of the camera and the set geometric conditions are within the allowable range. It shows an example of marker display when the condition and the set geometric condition are not within the allowable range.
According to these UI display examples of FIGS. 18(a) to 18(c), the user can easily visually check whether the geometric conditions of the camera and the set geometric conditions are within the allowable range. can recognize. By changing the position and angle of the imaging device 1 so that the solid line marker 1801 and the oblique line marker 1802 match, the user can adjust the position and angle of the imaging device 1 to match the set geometric conditions.

以上説明したように、第2の実施形態のガイド表示装置2においては、設定した幾何条件に対する許容範囲を設定することにより、ユーザは、設定した幾何条件に対しカメラ位置を容易に合わせることができるようになる。 As described above, in the guide display device 2 of the second embodiment, by setting the allowable range for the set geometric condition, the user can easily match the camera position to the set geometric condition. become.

<他の実施形態>
なお、前述した実施形態では、計測幾何条件を表現する座標系として球面座標系を用いたが、計測対象点を原点とする直交座標系で表しても良い。その場合、x軸を計測対称点の法線と一致させた座標系が望ましい。また、前述の実施形態では、設定された幾何条件と法線とを基にマーカ輪郭の射影を算出したが、設定された幾何条件に基づくマーカ輪郭と撮像画像から抽出したマーカ輪郭とを比較した結果を基にマーカ輪郭の射影を算出しても良い。また、前述の実施形態では、カメラを移動させる方向のガイド表示としてはマーカの輪郭表示のみを用いたが、例えば上下左右前後等の文字や矢印等のガイドを合わせて表示しても良い。
<Other embodiments>
In the above-described embodiment, the spherical coordinate system is used as the coordinate system for expressing the measurement geometric condition, but it may be expressed by an orthogonal coordinate system with the measurement target point as the origin. In that case, it is desirable to use a coordinate system in which the x-axis coincides with the normal line of the point of measurement symmetry. In the above-described embodiment, the projection of the marker contour is calculated based on the set geometric conditions and the normal line. A projection of the marker contour may be calculated based on the result. In the above-described embodiment, only the contour display of the marker is used as a guide display for the direction in which the camera is to be moved.

前述した実施形態の撮像装置1はデジタル一眼レフカメラ、ミラーレス一眼カメラ、コンパクトデジタルカメラ等のデジタルカメラを想定しているが、撮像装置1は、カムコーダ、医療用カメラ、工業用カメラ等であってもよい。その他にも、撮像装置は、タブレット端末、PHS、スマートフォン、フィーチャフォン、携帯ゲーム機などの携帯情報端末に搭載されているカメラであっても良い。 The imaging device 1 of the above-described embodiment is assumed to be a digital camera such as a digital single-lens reflex camera, a mirrorless single-lens camera, or a compact digital camera, but the imaging device 1 may be a camcorder, a medical camera, an industrial camera, or the like. may Alternatively, the imaging device may be a camera installed in a portable information terminal such as a tablet terminal, PHS, smart phone, feature phone, or portable game machine.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 All of the above-described embodiments merely show specific examples for carrying out the present invention, and the technical scope of the present invention should not be construed to be limited by these. That is, the present invention can be embodied in various forms without departing from its technical concept or main features.

1:撮像装置、2:ガイド表示装置、21:画像データ取得部、22:形状法線算出部、23:輪郭抽出部、24:幾何条件設定部、25:マーカ輪郭射影部、26:輪郭表示部、11:コンピュータ、101:CPU 1: imaging device, 2: guide display device, 21: image data acquisition unit, 22: shape normal calculation unit, 23: contour extraction unit, 24: geometric condition setting unit, 25: marker contour projection unit, 26: contour display Part 11: Computer 101: CPU

Claims (11)

マーカが配置された対象物を計測する際の幾何条件と、前記幾何条件に対する許容範囲とを設定する設定手段と、
前記対象物を撮像手段を用いて撮像して得られる画像データを取得する取得手段と、
前記画像データを基に、前記対象物に配置された前記マーカの輪郭を抽出する抽出手段と、
前記画像データと前記設定された幾何条件とを基に、前記撮像手段の移動方向をガイドするためのガイドマーカを算出する算出手段と、
前記抽出されたマーカの輪郭と前記算出されたガイドマーカと前記許容範囲とを表示手段に表示させる表示制御手段と、
を有することを特徴とする画像処理装置。
setting means for setting a geometric condition for measuring an object on which the markers are arranged and an allowable range for the geometric condition ;
an acquisition means for acquiring image data obtained by imaging the object using an imaging means;
extracting means for extracting a contour of the marker placed on the object based on the image data;
calculation means for calculating a guide marker for guiding the movement direction of the imaging means based on the image data and the set geometric conditions;
display control means for displaying the extracted outline of the marker, the calculated guide marker, and the allowable range on a display means;
An image processing device comprising:
前記設定手段は、
前記マーカの計測対象点を設定する手段と、
前記幾何条件として、前記撮像手段の光軸が向かう方位角と仰角を設定する手段と、
を有することを特徴とする請求項1に記載の画像処理装置。
The setting means
means for setting a measurement target point of the marker;
means for setting an azimuth angle and an elevation angle toward which the optical axis of the imaging means faces as the geometric conditions;
2. The image processing apparatus according to claim 1, comprising:
前記表示制御手段は、前記マーカの計測対象点と、前記抽出されたマーカの輪郭と、前記算出されたガイドマーカとを、前記撮像手段により撮像されている画像に重畳表示させることを特徴とする請求項2に記載の画像処理装置。 The display control means is characterized in that the measurement target point of the marker, the extracted contour of the marker, and the calculated guide marker are superimposed on the image captured by the imaging means. The image processing apparatus according to claim 2. 前記表示制御手段は、前記マーカの計測対象点と、前記抽出されたマーカの輪郭と、前記算出されたガイドマーカと、前記許容範囲を表す輪郭とを、前記撮像手段により撮像されている画像に重畳表示させることを特徴とする請求項に記載の画像処理装置。 The display control means converts the measurement target point of the marker, the extracted contour of the marker, the calculated guide marker, and the contour representing the allowable range into an image captured by the imaging means. 3. The image processing apparatus according to claim 2 , wherein the image is displayed in a superimposed manner. 前記算出手段は、
前記画像データを基に、前記対象物に配置された前記マーカに対する法線を算出する手段と、
前記法線と前記設定された幾何条件とを基に、前記ガイドマーカを算出する手段と、
を有することを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
The calculation means is
means for calculating a normal to the marker placed on the object based on the image data;
means for calculating the guide marker based on the normal and the set geometric condition;
5. The image processing apparatus according to any one of claims 1 to 4 , comprising:
前記対象物に配置された前記マーカは、複数のポイントパターンと、前記マーカのIDコード領域とを有して形成されており、
前記算出手段は、前記画像データの前記複数のポイントパターンの位置を基に座標値を算出し、前記算出した座標値を基に前記法線を算出することを特徴とする請求項に記載の画像処理装置。
The marker placed on the object is formed with a plurality of point patterns and an ID code region of the marker,
6. The method according to claim 5 , wherein said calculating means calculates coordinate values based on positions of said plurality of point patterns of said image data, and calculates said normal line based on said calculated coordinate values. Image processing device.
前記算出手段は、前記算出した座標値を基にポリゴンの形状を取得することを特徴とする請求項に記載の画像処理装置。 7. The image processing apparatus according to claim 6 , wherein said calculating means acquires the shape of a polygon based on said calculated coordinate values. 前記算出手段は、
前記複数のポイントパターンの位置を基に算出した複数の座標値を、定義された座標値を基にソートし、
前記ソートした後の前記複数の座標値を基に前記ポリゴンの形状を算出することを特徴とする請求項に記載の画像処理装置。
The calculation means is
sorting a plurality of coordinate values calculated based on the positions of the plurality of point patterns based on defined coordinate values;
8. The image processing apparatus according to claim 7 , wherein the shape of said polygon is calculated based on said plurality of coordinate values after said sorting.
前記算出手段は、前記算出した形状の前記ポリゴンの法線を算出し、前記ポリゴンの法線を基に、前記ポリゴンの平面に対する前記撮像手段の位置と姿勢を取得することを特徴とする請求項に記載の画像処理装置。 3. The calculating means calculates a normal line of the polygon of the calculated shape, and acquires the position and orientation of the imaging means with respect to the plane of the polygon based on the normal line of the polygon. 9. The image processing device according to 8 . 画像処理装置が実行する画像処理方法であって、
マーカが配置された対象物を計測する際の幾何条件と、前記幾何条件に対する許容範囲とを設定する設定工程と、
前記対象物を撮像手段を用いて撮像して得られる画像データを取得する取得工程と、
前記画像データを基に、前記対象物に配置された前記マーカの輪郭を抽出する抽出工程と、
前記画像データと前記設定された幾何条件とを基に、前記撮像手段の移動方向をガイドするためのガイドマーカを算出する算出工程と、
前記抽出されたマーカの輪郭と前記算出されたガイドマーカと前記許容範囲とを表示手段に表示させる表示制御工程と、
を有することを特徴とする画像処理方法。
An image processing method executed by an image processing device,
a setting step of setting a geometric condition for measuring an object on which markers are arranged and an allowable range for the geometric condition ;
an acquisition step of acquiring image data obtained by imaging the object using imaging means;
an extracting step of extracting a contour of the marker arranged on the object based on the image data;
a calculation step of calculating a guide marker for guiding the moving direction of the imaging means based on the image data and the set geometric condition;
a display control step of displaying the extracted outline of the marker, the calculated guide marker, and the allowable range on a display;
An image processing method characterized by comprising:
コンピュータを、請求項1からのいずれか1項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 9 .
JP2018231826A 2018-12-11 2018-12-11 Image processing device, image processing method, and program Active JP7183020B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018231826A JP7183020B2 (en) 2018-12-11 2018-12-11 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018231826A JP7183020B2 (en) 2018-12-11 2018-12-11 Image processing device, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2020096254A JP2020096254A (en) 2020-06-18
JP2020096254A5 JP2020096254A5 (en) 2022-01-04
JP7183020B2 true JP7183020B2 (en) 2022-12-05

Family

ID=71084126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231826A Active JP7183020B2 (en) 2018-12-11 2018-12-11 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7183020B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7287379B2 (en) * 2020-12-10 2023-06-06 セイコーエプソン株式会社 DISPLAY METHOD, DETECTION DEVICE, AND PROGRAM
CN113610860B (en) * 2021-06-17 2023-12-15 阿波罗智能技术(北京)有限公司 High-precision map zebra crossing generation method and device and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010219825A (en) 2009-03-16 2010-09-30 Topcon Corp Photographing device for three-dimensional measurement
JP2013074376A (en) 2011-09-27 2013-04-22 Sony Corp Imaging guide apparatus, imaging apparatus, imaging guide method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010219825A (en) 2009-03-16 2010-09-30 Topcon Corp Photographing device for three-dimensional measurement
JP2013074376A (en) 2011-09-27 2013-04-22 Sony Corp Imaging guide apparatus, imaging apparatus, imaging guide method, and program

Also Published As

Publication number Publication date
JP2020096254A (en) 2020-06-18

Similar Documents

Publication Publication Date Title
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
JP6176598B2 (en) Dimension measurement program, dimension measurement apparatus, and dimension measurement method
JP6716996B2 (en) Image processing program, image processing apparatus, and image processing method
US20140047367A1 (en) Image processing apparatus, image processing method, and program
JP2017130146A (en) Image management apparatus, image management method and program
JP5468824B2 (en) Method and apparatus for determining shape match in three dimensions
EP3093822B1 (en) Displaying a target object imaged in a moving picture
CN111307039A (en) Object length identification method and device, terminal equipment and storage medium
JP2010287174A (en) Furniture simulation method, device, program, recording medium
KR101992044B1 (en) Information processing apparatus, method, and computer program
JP7183020B2 (en) Image processing device, image processing method, and program
US9979858B2 (en) Image processing apparatus, image processing method and program
CN113034347A (en) Oblique photographic image processing method, device, processing equipment and storage medium
KR101868740B1 (en) Apparatus and method for generating panorama image
JP7262927B2 (en) Image processing device, image processing method and program
KR101000859B1 (en) HDRI-Panorama image generation apparatus and method with fisheye lens
JP7298687B2 (en) Object recognition device and object recognition method
JP2006113832A (en) Stereoscopic image processor and program
JP7103412B2 (en) Dictionary learning device, information processing device, dictionary learning method and computer program
JP4688639B2 (en) Verification device, verification method and verification program
CN114066731A (en) Method and device for generating panorama, electronic equipment and storage medium
JP2005309717A (en) Marker processing method, marker processor, program and recording medium
JP5563390B2 (en) Image processing apparatus, control method therefor, and program
KR101541114B1 (en) Next viewing direction determining method for 3d scanner
JP7278761B2 (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221122

R151 Written notification of patent or utility model registration

Ref document number: 7183020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151