JP2019114968A - Information processing device, imaging guide display program, and imaging guide display method - Google Patents

Information processing device, imaging guide display program, and imaging guide display method Download PDF

Info

Publication number
JP2019114968A
JP2019114968A JP2017248073A JP2017248073A JP2019114968A JP 2019114968 A JP2019114968 A JP 2019114968A JP 2017248073 A JP2017248073 A JP 2017248073A JP 2017248073 A JP2017248073 A JP 2017248073A JP 2019114968 A JP2019114968 A JP 2019114968A
Authority
JP
Japan
Prior art keywords
image
partial
partial image
coincidence
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017248073A
Other languages
Japanese (ja)
Other versions
JP6933125B2 (en
Inventor
信之 伊東
Nobuyuki Ito
信之 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017248073A priority Critical patent/JP6933125B2/en
Publication of JP2019114968A publication Critical patent/JP2019114968A/en
Application granted granted Critical
Publication of JP6933125B2 publication Critical patent/JP6933125B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processing device capable of improving imaging accuracy of captured image, an imaging guide display program and an imaging guide display method.SOLUTION: When picking up an image with an imaging apparatus as a pick-up image to be matched against a template image, multiple partial images which are parts of the template image picked up at plurality of positions are generated (B1). In the pick-up image, a difference between the size of a subject included in a portion corresponding to the partial images and the size of the subject included in the partial image is calculated for each partial image (B2, B3). On the basis of the difference of each of the partial images, a movement direction of the imaging apparatus in which the difference decreases is estimated (B4, B5), and the movement direction is displayed on a display unit (B6).SELECTED DRAWING: Figure 8

Description

本発明は、撮像画像とテンプレート画像とのマッチング処理を実施する装置,プログラム,表示方法に関する。   The present invention relates to an apparatus, program, and display method for performing matching processing between a captured image and a template image.

従来、撮像装置で撮像された撮像画像とその原型となるテンプレート画像とを照合し、画像の類似度(マッチングの度合い)を評価する技術が知られている。例えば、人物の顔の画像をあらかじめ登録しておき、テンプレートマッチングの手法を用いて算出される撮像画像のスコア(顔情報の類似度)をその人物の個人認証に利用する技術が知られている。テンプレートマッチングでは、テンプレート画像に対応する被写体の一部分が撮像画像中のどこに位置しているのかが自動的に検索され、対応箇所とテンプレート画像との類似度や一致度が算出される。このような画像処理により、撮像画像とテンプレート画像との照合精度が向上しうる(特許文献1〜3参照)。   2. Description of the Related Art Conventionally, there is known a technique for comparing a captured image captured by an imaging device with a template image serving as a prototype thereof to evaluate the similarity (the degree of matching) of images. For example, there is known a technique in which an image of a person's face is registered in advance, and a score (similarity of face information) of a captured image calculated using a method of template matching is used for personal authentication of the person. . In template matching, it is automatically searched where in the captured image a part of the subject corresponding to the template image is located, and the degree of similarity and the degree of matching between the corresponding portion and the template image are calculated. Such image processing can improve the matching accuracy between the captured image and the template image (see Patent Documents 1 to 3).

特開2008-257329号公報JP 2008-257329 A 特開2010-219825号公報JP, 2010-219825, A 特開2006-114053号公報JP, 2006-114053, A

撮像画像が撮像された位置や方向,画角は、必ずしもテンプレート画像の撮像条件に一致しない。そのため、三次元の立体物を撮像対象とした場合には、撮像画像に含まれる被写体とテンプレート画像に含まれる被写体との大きさのずれが大きくなり、照合精度が低下しうる。このような課題に対し、撮像画像にアフィン変換やホモグラフィー変換などの幾何学的変換を施すことで、画像間のずれを小さくすることも考えられる。しかし、立体物の影や死角に入る部分(すなわち、撮像装置から見えない部分)の状態を幾何学的変換で再現することはできない。   The position, the direction, and the angle of view at which the captured image is captured do not necessarily match the capturing condition of the template image. Therefore, when a three-dimensional three-dimensional object is used as an imaging target, the size deviation between the subject included in the captured image and the subject included in the template image may be large, and the matching accuracy may be reduced. With respect to such problems, it is also conceivable to reduce the deviation between the images by performing geometrical transformation such as affine transformation or homography transformation on the captured image. However, it is not possible to reproduce the state of a portion of a three-dimensional object that falls in a shadow or a blind spot (that is, a portion that can not be seen from the imaging device) by geometrical transformation.

上述の通り、撮像状態によっては画像間のずれを適切に補正することができず、画像の照合精度が低下する。したがって、撮像画像とテンプレート画像との照合に際しては、照合に適した「良い」撮像画像、すなわち、テンプレート画像と同等の撮像位置,撮像方向,サイズ(画角)で撮像された撮像画像を取得することが望ましい。このような課題は、手持ちの撮像装置(例えば、小型ビデオカメラ,スマートフォン,タブレットなど)で撮像される立体物の撮像画像を用いたマッチング処理で顕著となる。   As described above, depending on the imaging state, the deviation between the images can not be properly corrected, and the image matching accuracy is reduced. Therefore, when matching a captured image with a template image, a “good” captured image suitable for matching, that is, a captured image captured at an imaging position, an imaging direction, and a size (field angle) equivalent to the template image is acquired. Is desirable. Such a subject becomes remarkable in the matching process using the captured image of the solid object imaged with a hand-held imaging device (for example, small video camera, a smart phone, a tablet etc.).

一つの側面では、撮像画像の撮像精度を向上させることを目的とする。   In one aspect, it is an object to improve the imaging accuracy of a captured image.

一つの実施形態では、情報処理装置は、テンプレート画像に照合される撮像画像の撮像装置での撮像に際し、前記テンプレート画像の一部分を複数の位置で切り出した複数の部分画像を生成する生成部を備える。また、前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出する算出部を備える。また、前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定する推定部と、前記移動方向を表示装置に表示させる表示部とを備える。   In one embodiment, the information processing apparatus includes a generation unit configured to generate a plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image. . The image processing apparatus further includes a calculator configured to calculate, for each of the partial images, a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image. The image processing apparatus further includes: an estimation unit that estimates a moving direction of the imaging device that reduces the difference based on the difference for each partial image; and a display unit that causes the display device to display the moving direction.

一つの側面では、撮像画像の撮像精度を向上させることができる。   In one aspect, the imaging accuracy of a captured image can be improved.

情報処理装置での画像検査の状態を示す斜視図である。It is a perspective view which shows the state of the image test | inspection in an information processing apparatus. 画像検査の流れを例示するフローチャートである。It is a flowchart which illustrates the flow of image inspection. 情報処理装置(タブレット)のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of an information processing apparatus (tablet). 撮影ガイド表示プログラムのソフトウェア構成を示す図である。It is a figure which shows the software configuration of a photography guide display program. (A),(B)はテンプレート画像、(C)〜(F)は部分画像である。(A) and (B) are template images, and (C) to (F) are partial images. (A),(B)は撮像画像である。(A) and (B) are captured images. 表示装置の表示画面例である。It is an example of a display screen of a display apparatus. 撮影ガイド表示方法を例示するフローチャートである。It is a flow chart which illustrates a photography guide display method. 移動方向の推定手法を例示するフローチャートである。5 is a flowchart illustrating an estimation method of a moving direction. 撮像位置,撮像方向,サイズを調整した後の表示画面例である。It is an example of a display screen after adjusting an imaging position, an imaging direction, and a size. 変形例としてのガイド表示を説明するための図である。It is a figure for demonstrating the guide display as a modification. 変形例としてのガイド表示を説明するための図である。It is a figure for demonstrating the guide display as a modification. ガイドの表示手法を例示するフローチャートである。It is a flowchart which illustrates the display method of a guide. 変形例としてのガイド表示を説明するための図である。It is a figure for demonstrating the guide display as a modification.

[1.概要]
以下、図面を参照して、実施形態としての情報処理装置,撮影ガイド表示プログラム,撮影ガイド表示方法を説明する。これらの情報処理装置,表示プログラム,表示方法は、テンプレート画像30に照合される撮像画像40の撮像装置での撮像に際し、照合に適した「良い」撮像画像40を取得するための案内を実施する撮影ガイド機能を提供する。ここでいう撮像画像40には、例えばシャッターボタンの操作によって、一枚の独立した静止画像として撮影された画像だけでなく、表示装置12(画面上のビューファインダー枠)に表示されている画像も含まれる。つまり、一般的な意味合いでの撮影画像だけでなく、動画中の一コマに相当する撮影画像についても、撮像画像40と呼ぶ。
[1. Overview]
Hereinafter, an information processing apparatus, a photographing guide display program, and a photographing guide display method according to an embodiment will be described with reference to the drawings. The information processing apparatus, the display program, and the display method perform guidance for acquiring a “good” captured image 40 suitable for matching when capturing the captured image 40 to be matched with the template image 30 with the imaging device. Provide a shooting guide function. The captured image 40 mentioned here includes not only an image captured as a single independent still image, for example, by the operation of the shutter button, but also an image displayed on the display device 12 (viewfinder frame on the screen) included. That is, not only the photographed image in a general sense but also the photographed image corresponding to one frame in the moving image is referred to as a photographed image 40.

また、ここでいう「良い」撮像画像40とは、撮像精度の高い撮像画像40を意味する。言い換えると、良い撮像画像40とは、撮像位置,撮像方向,サイズ(画角)が、照合対象となるテンプレート画像30に近い撮像画像40である。あるいは、撮像位置,撮像方向,サイズがテンプレート画像30と同等(より好ましくは、同一)の撮像画像40である。   Further, the “good” captured image 40 mentioned here means a captured image 40 with high imaging accuracy. In other words, a good captured image 40 is a captured image 40 whose imaging position, imaging direction, and size (angle of view) are close to the template image 30 to be compared. Alternatively, it is a captured image 40 having an imaging position, an imaging direction, and a size equal to (more preferably, the same as) that of the template image 30.

図1は、生産現場において撮影者が手持ちのタブレット10(情報端末)を使用して対象製品15(例えば大型計算機14のシステムボード)を撮像し、その撮像画像40とテンプレート画像30とを照合することで画像検査するシステムの模式図である。画像検査では、対象製品15の組み立て状態の確認や変形,キズなどの不良の有無をチェックするために、タブレット10に内蔵された撮像装置11(カメラ)が使用される。また、撮像画像40とテンプレート画像30との照合結果は、タブレット10に内蔵された表示装置12に表示される。   In FIG. 1, a photographer captures a target product 15 (for example, a system board of a large computer 14) using a tablet 10 (information terminal) on hand at a production site, and collates the captured image 40 with a template image 30. FIG. 1 is a schematic view of a system for image inspection. In the image inspection, an imaging device 11 (camera) built in the tablet 10 is used to check the assembled state of the target product 15 and check whether there is a defect such as a deformation or a flaw. Further, the collation result between the captured image 40 and the template image 30 is displayed on the display device 12 built in the tablet 10.

図2は、上記の画像検査の流れを例示するフローチャートである。まず、撮影者がタブレット10を手に持ち、テンプレート画像30を参照しながら対象製品15の撮像位置を調整する(ステップA1)。このとき、撮像画像40がテンプレート画像30との照合に適した「良い」撮像画像40になるように、撮像位置,撮像方向,サイズなどを撮影者に案内する。本実施形態では、タブレット10を移動させるべき移動方向が撮影者に提示される。また、その時点における撮像画像40とテンプレート画像30とを照合するとともに、画像全体の一致度を算出して撮影者に案内する。これを受けて撮影者は、案内に沿って一致度が高くなるようにタブレット10の位置や角度を変更し、撮像画像40を撮像する(ステップA2)。   FIG. 2 is a flowchart illustrating the flow of the above-mentioned image inspection. First, the photographer holds the tablet 10 and adjusts the imaging position of the target product 15 while referring to the template image 30 (step A1). At this time, the imaging position, imaging direction, size and the like are guided to the photographer so that the captured image 40 becomes a “good” captured image 40 suitable for matching with the template image 30. In the present embodiment, the moving direction in which the tablet 10 should be moved is presented to the photographer. In addition, the captured image 40 and the template image 30 at that time are collated with each other, and the matching degree of the entire image is calculated to guide the photographer. In response to this, the photographer changes the position and angle of the tablet 10 so as to increase the degree of coincidence along the guidance, and captures the captured image 40 (step A2).

撮像画像40には、アフィン変換やホモグラフィー変換などの幾何学的変換処理が施される(ステップA3)とともに、画像補正処理が施される(ステップA4)。幾何学的変換によって撮像画像40がよりテンプレート画像30に近い形状に変形し、被写体の画像間のずれが減少する。また、画像補正処理によって、撮像画像40の明度,色調,コントラスト,ヒストグラム,ノイズなどが補正され、テンプレート画像30に対する撮像画像40の照合精度が向上する。なお、幾何学的変換処理や画像補正処理の具体的な手法に関しては、公知の画像補正手法や画像変換手法を適用することができる。   Geometrical transformation processing such as affine transformation and homography transformation is applied to the captured image 40 (step A3) and image correction processing is applied (step A4). The geometrical transformation transforms the captured image 40 into a shape closer to the template image 30, and the deviation between the images of the subject is reduced. Further, the lightness, tone, contrast, histogram, noise and the like of the captured image 40 are corrected by the image correction processing, and the matching accuracy of the captured image 40 with the template image 30 is improved. A known image correction method or image conversion method can be applied to a specific method of geometric conversion processing or image correction processing.

また、テンプレート画像30と撮像画像40とを照合するマッチング処理が実施され、画像の一致度が計算される(ステップA5)。一致度を表す具体的な指標としては、テンプレート画像30及び撮像画像40の正規化相互相関(NCC,Normalized Cross Correlation)や零平均正規化相互相関(ZNCC,Zero means Normalized Cross Correlation)などの係数を用いることができる。その後、テンプレート画像30及び撮像画像40の一致度に基づいて対象製品15の良否が判定される。対象製品15の良否は、生産現場における管理者や撮影者によって判断される。なお、テンプレート画像30及び撮像画像40の一致度に応じて、自動的に対象製品15の良否が判定されるような制御構成としてもよい。   Further, a matching process of matching the template image 30 with the captured image 40 is performed, and the matching degree of the image is calculated (step A5). As a specific index representing the degree of coincidence, coefficients such as normalized cross correlation (NCC, Normalized Cross Correlation) of the template image 30 and the captured image 40 and zero mean normalized cross correlation (ZNCC) are used. It can be used. Thereafter, the quality of the target product 15 is determined based on the matching degree of the template image 30 and the captured image 40. The quality of the target product 15 is judged by a manager or a photographer at the production site. The control configuration may be such that the quality of the target product 15 is automatically determined in accordance with the degree of coincidence between the template image 30 and the captured image 40.

[2.ハードウェア構成]
図3は、タブレット10のハードウェア構成を例示するブロック図である。タブレット10には、撮像装置11,表示装置12,タッチパネル13,情報処理装置20(コンピューター)が内蔵される。撮像装置11は、タブレット10の背面に取り付けられたディジタルカメラであり、CCD(Charge-Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサ,レンズ,フィルターなどを含む。撮像装置11で撮像された映像や撮影された画像(撮像画像40)の情報は情報処理装置20に伝達される。
[2. Hardware configuration]
FIG. 3 is a block diagram illustrating the hardware configuration of the tablet 10. The tablet 10 incorporates an imaging device 11, a display device 12, a touch panel 13, and an information processing device 20 (computer). The imaging device 11 is a digital camera attached to the back of the tablet 10, and includes an image sensor such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), a lens, a filter, and the like. Information of an image captured by the imaging device 11 and information of a captured image (captured image 40) is transmitted to the information processing device 20.

表示装置12は、タブレット10の表面に取り付けられた出力デバイスの一つであり、例えば液晶ディスプレイ(Liquid Crystal Display,LCD)や有機ELディスプレイ(Organic Electro-Luminescence Display,OELD)である。表示装置12には、テンプレート画像30のほか、シャッターボタンの操作状態に関わらず撮像装置11の撮影範囲の映像が随時表示される。つまり、表示装置12は、撮像装置11のビューファインダーとしても機能する。また、タッチパネル13は、表示装置12の表面に重畳状態で取り付けられた入力デバイスの一つである。タブレット10に物理キーが設けられている場合には、その物理キーをタッチパネル13の代わりに用いてもよい。タッチパネル13は、撮像に関する情報の選択や入力に利用される。   The display device 12 is one of output devices attached to the surface of the tablet 10, and is, for example, a liquid crystal display (LCD) or an organic electro-luminescent display (OELD). In addition to the template image 30, an image of a shooting range of the imaging device 11 is displayed on the display device 12 at any time regardless of the operation state of the shutter button. That is, the display device 12 also functions as a viewfinder of the imaging device 11. The touch panel 13 is one of the input devices attached to the surface of the display device 12 in a superimposed state. When the tablet 10 is provided with a physical key, the physical key may be used instead of the touch panel 13. The touch panel 13 is used to select or input information related to imaging.

情報処理装置20には、プロセッサ21(中央処理装置),メモリ22(メインメモリ,主記憶装置),補助記憶装置23,インタフェース装置24,記録媒体ドライブ25などが内蔵され、内部バス26を介して互いに通信可能に接続される。プロセッサ21は、制御ユニット(制御回路)や演算ユニット(演算回路),キャッシュメモリ(レジスタ群)などを内蔵する中央処理装置である。また、メモリ22は、プログラムや作業中のデータが格納される記憶装置であり、例えばROM(Read Only Memory),RAM(Random Access Memory)がこれに含まれる。補助記憶装置23は、メモリ22よりも長期的に保持されるデータやファームウェアが格納されるメモリ装置であり、例えばフラッシュメモリやEEPROMなどの不揮発性メモリがこれに含まれる。   The information processing device 20 includes a processor 21 (central processing unit), a memory 22 (main memory, main storage device), an auxiliary storage device 23, an interface device 24, a recording medium drive 25, etc. They are communicably connected to each other. The processor 21 is a central processing unit including a control unit (control circuit), an operation unit (operation circuit), a cache memory (register group), and the like. The memory 22 is a storage device in which programs and data during work are stored, and includes, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory). The auxiliary storage device 23 is a memory device in which data and firmware held for a longer period of time than the memory 22 are stored, and includes, for example, non-volatile memory such as flash memory and EEPROM.

インタフェース装置24は、情報処理装置20と外部との間の入出力(Input and Output;I/O)を司るものである。情報処理装置20は、インタフェース装置24を介して、撮像装置11,表示装置12,タッチパネル13などに接続される。また、記録媒体ドライブ25は、光ディスクや半導体メモリ(Universal Serial Bus規格に準拠したポータブルフラッシュドライブ)などの記録媒体27(リムーバブルメディア)に記録,保存された情報を読み取る機能を持った読取装置(または読取・書込装置)である。情報処理装置20で実行されるプログラムは、メモリ22内に記録,保存してもよいし、補助記憶装置23や記録媒体27に記録,保存してもよい。   The interface device 24 is responsible for input and output (I / O) between the information processing device 20 and the outside. The information processing device 20 is connected to the imaging device 11, the display device 12, the touch panel 13 and the like via the interface device 24. Further, the recording medium drive 25 is a reading device (or a reading device (or a reading device) having a function of reading information recorded and stored in a recording medium 27 (removable medium) such as an optical disk or a semiconductor memory (portable flash drive conforming to Universal Serial Bus standard). Read / write device). The program executed by the information processing apparatus 20 may be recorded and stored in the memory 22 or may be recorded and stored in the auxiliary storage device 23 or the recording medium 27.

[3.ソフトウェア構成]
図4は、情報処理装置20で実行される撮影ガイド表示プログラム1の機能的構成を示すブロック図である。撮影ガイド表示プログラム1には、生成部2,照合部3,算出部4,推定部5,表示部6が設けられる。図4中の各要素は、撮影ガイド表示プログラム1の機能を便宜的に分類して示したものであり、個々の要素を独立したプログラムとして記述してもよいし、これらの機能を兼ね備えた複合プログラムとして記述してもよい。
[3. Software configuration]
FIG. 4 is a block diagram showing a functional configuration of the photographing guide display program 1 executed by the information processing apparatus 20. As shown in FIG. The photographing guide display program 1 is provided with a generation unit 2, a collation unit 3, a calculation unit 4, an estimation unit 5, and a display unit 6. Each element in FIG. 4 shows functions of the photographing guide display program 1 classified for convenience, and each element may be described as an independent program, or a compound having these functions. It may be written as a program.

撮影ガイド表示プログラム1は、メモリ22内や補助記憶装置23の内部に記録,保存される。あるいは、記録媒体27上に撮影ガイド表示プログラム1が記録,保存され、その記録媒体27に書き込まれている撮影ガイド表示プログラム1が記録媒体ドライブ25を介して情報処理装置20に読み込まれて実行される。撮影ガイド表示プログラム1は、少なくともテンプレート画像30に照合される撮像画像40を撮影者がタブレット10で撮影する際に実施される。本実施形態の撮影ガイド表示プログラム1は、図2中のステップA1で実行される。   The photographing guide display program 1 is recorded and stored in the memory 22 or in the auxiliary storage device 23. Alternatively, the photographing guide display program 1 is recorded and stored on the recording medium 27, and the photographing guide display program 1 written to the recording medium 27 is read into the information processing apparatus 20 via the recording medium drive 25 and executed. Ru. The photographing guide display program 1 is implemented when the photographer photographs the photographed image 40 to be collated with at least the template image 30 with the tablet 10. The photographing guide display program 1 of the present embodiment is executed at step A1 in FIG.

生成部2は、テンプレート画像30に照合される撮像画像40の撮像に際し、テンプレート画像30の一部分を複数の位置で切り出した複数の部分画像を生成するものである。生成部2は、少なくとも二つ以上の部分画像を生成し、好ましくは三つ以上の部分画像を生成する。例えば、第一画像,第二画像,第三画像を生成し、第二画像は上下方向の位置が第一画像とは異なるものとし、第三画像は左右方向の位置が第一画像とは異なるものとする。つまり、上下方向の位置が異なる部分画像のペア(第一画像,第二画像)と、左右方向の位置が異なる部分画像のペア(第一画像,第三画像)とを生成する。   The generation unit 2 generates a plurality of partial images in which a part of the template image 30 is cut out at a plurality of positions when the captured image 40 to be collated with the template image 30 is captured. The generation unit 2 generates at least two or more partial images, and preferably generates three or more partial images. For example, the first image, the second image, and the third image are generated, and the second image is different in position in the vertical direction from the first image, and the third image is different in position in the horizontal direction from the first image It shall be. That is, a pair of partial images (first image, second image) having different positions in the vertical direction and a pair of first partial images (first image, third image) having different positions in the horizontal direction are generated.

対象製品15のテンプレート画像30を図5(A)に例示する。本実施形態の生成部2は、テンプレート画像30の中心位置よりも上位置,下位置,右位置,左位置の四箇所に対応する部分画像を生成する。図5(B)中に破線の囲み枠で示す箇所の記号u,d,l,rはそれぞれ、上位置,下位置,左位置,右位置を表す。なお、上位置uの画像を第一画像とすれば、第二画像に相当するのは下位置d,左位置l,右位置rの画像であり、第三画像に相当するのは左位置l,右位置rの画像である。   The template image 30 of the target product 15 is illustrated in FIG. 5 (A). The generation unit 2 according to the present embodiment generates partial images corresponding to four positions of the upper position, the lower position, the right position, and the left position with respect to the center position of the template image 30. The symbols u, d, l and r in the portions indicated by the dashed box in FIG. 5B indicate the upper position, the lower position, the left position and the right position, respectively. If the image at the upper position u is the first image, the one corresponding to the second image is the image at the lower position d, the left position l and the right position r, and the one corresponding to the third image is the left position l , Right position r.

また、本実施形態の生成部2は、四箇所の部分画像のそれぞれを拡大変形させたものと縮小変形させたものとを生成する。例えば、図5(C)に示すように、テンプレート画像30の上位置uから切り出した上部分画像Nuを基準サイズとして、これを拡大(例えば+10%)した上拡大部分画像Buと、縮小(例えば-10%)した上縮小部分画像Suとを生成する。下位置d,左位置l,右位置rについても同様に、それぞれの部分画像を拡縮方向に変形させたものを生成する〔図5(D)〜(F)参照〕。このように、本実施形態の生成部2は、一つのテンプレート画像30から合計で十二枚の部分画像を生成する。   In addition, the generation unit 2 of the present embodiment generates an enlarged deformation of each of the four partial images and a reduced deformation. For example, as shown in FIG. 5C, with the upper partial image Nu cut out from the upper position u of the template image 30 as a reference size, it is enlarged (for example + 10%) to an enlarged partial image Bu and reduced ( For example, the reduced partial image Su is generated by −10%). Similarly, with respect to the lower position d, the left position l, and the right position r, those obtained by deforming the partial images in the enlargement / reduction direction are generated (see FIGS. 5D to 5F). Thus, the generation unit 2 of the present embodiment generates a total of twelve partial images from one template image 30.

照合部3は、生成部2で生成されたそれぞれの部分画像について、撮像画像40への一致度を算出するものである。ここで、撮像画像40を図6(A)に例示し、テンプレート画像30の上位置u,下位置d,左位置l,右位置rの四箇所に対応する位置を図6(B)中に破線の囲み枠で示す。本実施形態の照合部3は、十二枚の部分画像のそれぞれについて、撮像画像40の対応箇所に対する一致度を算出する。   The collation unit 3 calculates the degree of coincidence with the captured image 40 for each of the partial images generated by the generation unit 2. Here, the captured image 40 is illustrated in FIG. 6A, and positions corresponding to four positions of the upper position u, the lower position d, the left position l, and the right position r of the template image 30 are illustrated in FIG. Indicated by a dashed box. The collation unit 3 of the present embodiment calculates the degree of coincidence with the corresponding part of the captured image 40 for each of the twelve partial images.

例えば、上部分画像Nu,上拡大部分画像Bu,上縮小部分画像Suについては、図6(B)中の上位置Zuに対する一致度を算出する。同様に、下位置uに対応する三つの部分画像は、図6(B)中の下位置Zdに対する一致度を算出する。ここで算出される一致度は、前述のステップA5で計算される一致度と同様の手法を用いて算出することができる。一致度の指標として正規化相互相関を用いる場合には、以下の式1に従って正規化相互相関係数RNCCを算出すればよい。ここで算出される正規化相互相関係数RNCCの値域は-1≦RNCC≦1であり、正規化相互相関係数RNCCが1に近いほど(RNCCの値が大きいほど)、一致度が高いものと評価することができる。 For example, for the upper partial image Nu, the upper enlarged partial image Bu, and the upper reduced partial image Su, the coincidence with the upper position Zu in FIG. 6B is calculated. Similarly, the three partial images corresponding to the lower position u calculate the coincidence with the lower position Zd in FIG. 6 (B). The degree of coincidence calculated here can be calculated using the same method as the degree of coincidence calculated in step A5 described above. When the normalized cross correlation is used as an index of the degree of coincidence, the normalized cross correlation coefficient R NCC may be calculated according to the following equation 1. The value range of the normalized cross correlation coefficient R NCC calculated here is −1 ≦ R NCC ≦ 1, and the closer the normalized cross correlation coefficient R NCC is to 1 (the larger the value of R NCC ), the more consistent It can be evaluated that the degree is high.

Figure 2019114968
Figure 2019114968

また、零平均正規化相互相関を用いる場合には、以下の式2に従って正規化相互相関係数RZNCCを算出すればよい。正規化相互相関係数RZNCCの値域は-1≦RZNCC≦1であり、正規化相互相関係数RZNCCが1に近いほど(RZNCCの値が大きいほど)、一致度が高いものと評価することができる。 Further, in the case of using the zero mean normalized cross correlation, the normalized cross correlation coefficient R ZNCC may be calculated according to the following Equation 2. The range of the normalized cross correlation coefficient R ZNCC is −1 ≦ R ZNCC ≦ 1, and the closer the normalized cross correlation coefficient R ZNCC is to 1 (the larger the value of R ZNCC ), the higher the degree of coincidence It can be evaluated.

Figure 2019114968
Figure 2019114968

算出部4は、撮像画像40に含まれる被写体のサイズがテンプレート画像と比較してどのように異なっているのか(すなわち、大きいのか小さいのか、それとも丁度よいのか)を算出するものである。ここでは、撮像画像40のうち各部分画像に対応する部位に含まれる被写体の大きさとこれ対応する部分画像に含まれる被写体の大きさとの差(サイズ差)が、部分画像ごとに算出される。ここでいう「差」は、部分画像を拡縮方向に変形させたときに照合部3で算出される一致度の変化に基づいて算出することができる。   The calculation unit 4 calculates how the size of the subject included in the captured image 40 is different from that of the template image (that is, is it larger or smaller or is just right). Here, the difference (size difference) between the size of the subject included in the part corresponding to each partial image in the captured image 40 and the size of the subject included in the corresponding partial image is calculated for each partial image. The “difference” mentioned here can be calculated based on the change in the degree of matching calculated by the matching unit 3 when the partial image is deformed in the scaling direction.

例えば、上部分画像Nuを拡大変形させたときに撮像画像40の上位置Zuに対する一致度が上昇した場合には、上位置Zuに含まれる被写体のサイズが大きめであるがゆえに、タブレット10の上側からその被写体までの距離がやや近いと判断できる。逆に、上部分画像Nuを縮小変形させたときに撮像画像40の上位置Zuに対する一致度が上昇した場合には、上位置Zuに含まれる被写体のサイズが小さめであるがゆえに、タブレット10の上側からその被写体までの距離がやや遠いと判断できる。このような判断を撮像画像40の四箇所(Zu,Zd,Zl,Zr)について繰り返すことで、タブレット10の位置や傾きのずれが精度よく把握される。   For example, when the degree of coincidence with the upper position Zu of the captured image 40 is increased when the upper partial image Nu is enlarged and deformed, the size of the subject included in the upper position Zu is larger. It can be determined that the distance from the subject to the subject is rather short. Conversely, when the degree of coincidence with the upper position Zu of the captured image 40 is increased when the upper partial image Nu is reduced and deformed, the size of the subject included in the upper position Zu is smaller. It can be determined that the distance from the upper side to the subject is rather long. By repeating such a determination for four places (Zu, Zd, Zl, Zr) of the captured image 40, the deviation of the position or the inclination of the tablet 10 can be accurately grasped.

なお、部分画像を拡縮方向に変形させながら一致度を観察するには相当の演算能力が求められることから、あらかじめ用意された拡大部分画像や縮小部分画像を利用して一致度の変化を観察してもよい。例えば、図5(C)〜(F)に示すような部分画像,拡大部分画像,縮小部分画像のそれぞれの一致度を比較する。最も一致度の高いものが部分画像である場合、撮像装置11からその部分画像に含まれる被写体までの距離が適正であると判断する。一方、最も一致度の高いものが拡大部分画像である場合には、距離が近いものと判断し、最も一致度の高いものが縮小部分画像である場合には、距離が遠いものと判断する。   In order to observe the matching level while deforming the partial image in the enlargement / reduction direction, considerable computing power is required, so changes in the matching level are observed using the enlarged partial image and the reduced partial image prepared in advance. May be For example, the matching degree of each of the partial image, the enlarged partial image, and the reduced partial image as shown in FIGS. 5C to 5F is compared. If the partial image is the one with the highest degree of coincidence, it is determined that the distance from the imaging device 11 to the subject included in the partial image is appropriate. On the other hand, it is judged that the distance is short if the one with the highest degree of coincidence is the enlarged partial image, and it is judged that the distance is far when the one with the highest degree of coincidence is the reduced partial image.

本実施形態の算出部4は、生成部2で生成された十二枚の部分画像の一致度に基づいて、被写体の大きさとの差を算出する。例えば、上下方向の大きさの差に関して、テンプレート画像30の上位置uから生成された三つの部分画像Bu,Nu,Suのうち、最も一致度の高いものを選択する。また、下位置dから生成された三つの部分画像Bd,Nd,Sdのうち、最も一致度の高いものを選択する。ここで、最も一致度の高い組み合わせが以下の場合には、上下方向の大きさの差が0である(タブレット10から被写体までの距離が上下方向に均一である)と判断する。
・最も一致度の高い組み合わせがNuとNdである場合
・最も一致度の高い組み合わせがBuとBdである場合
・最も一致度の高い組み合わせがSuとSdである場合
The calculating unit 4 of the present embodiment calculates the difference between the size of the subject and the size of the subject based on the degree of coincidence of the twelve partial images generated by the generating unit 2. For example, among the three partial images Bu, Nu, and Su generated from the upper position u of the template image 30, the one with the highest degree of coincidence is selected with respect to the size difference in the vertical direction. Further, among the three partial images Bd, Nd, and Sd generated from the lower position d, the one with the highest degree of coincidence is selected. Here, when the combination with the highest degree of coincidence is the following, it is determined that the difference in size in the vertical direction is 0 (the distance from the tablet 10 to the subject is uniform in the vertical direction).
・ When the combination with the highest degree of coincidence is Nu and Nd ・ When the combination with the highest degree of coincidence is Bu and Bd ・ When the combination with the highest degree of coincidence is Su and Sd

一方、最も一致度の高い組み合わせが以下の場合には、撮像画像40の上側で被写体のサイズが大きく、下側で被写体のサイズが小さい(タブレット10の下側が被写体から遠ざかるように傾いている)と判断する。
・最も一致度の高い組み合わせがBuとNdである場合
・最も一致度の高い組み合わせがBuとSdである場合
・最も一致度の高い組み合わせがNuとSdである場合
On the other hand, when the combination with the highest degree of matching is the following, the size of the subject is large on the upper side of the captured image 40 and the size of the subject is small on the lower side (the lower side of the tablet 10 is inclined to move away from the subject) I will judge.
-When the combination with the highest degree of coincidence is Bu and Nd-When the combination with the highest degree of coincidence is Bu and Sd-When the combination with the highest degree of coincidence is Nu and Sd

上記の何れにも該当しない場合には、撮像画像40の上側で被写体のサイズが小さく、下側で被写体のサイズが大きい(タブレット10の上側が被写体から遠ざかるように傾いている)と判断する。上記の何れにも該当しない組み合わせは以下の通りである。
・最も一致度の高い組み合わせがNuとBdである場合
・最も一致度の高い組み合わせがSuとBdである場合
・最も一致度の高い組み合わせがSuとNdである場合
If none of the above applies, it is determined that the size of the subject is small on the upper side of the captured image 40 and the size of the subject is large on the lower side (the upper side of the tablet 10 is tilted away from the subject). The combinations which do not correspond to any of the above are as follows.
・ When the combination with the highest degree of match is Nu and Bd ・ When the combination with the highest degree of match is Su and Bd ・ When the combination with the highest degree of match is Su and Nd

左右方向の大きさの差に関しても同様である。左右方向の大きさの差が0である(タブレット10から被写体までの距離が左右方向に均一である)と判断するための条件は以下の通りである。
・最も一致度の高い組み合わせがNlとNrである場合
・最も一致度の高い組み合わせがBlとBrである場合
・最も一致度の高い組み合わせがSlとSrである場合
The same applies to the difference in size in the left and right direction. The conditions for determining that the difference in size in the left-right direction is 0 (the distance from the tablet 10 to the subject is uniform in the left-right direction) are as follows.
・ When the combination with the highest degree of coincidence is Nl and Nr ・ When the combination with the highest degree of coincidence is Bl and Br ・ When the combination with the highest degree of coincidence is Sl and Sr

一方、撮像画像40の左側で被写体のサイズが大きく、右側で被写体のサイズが小さい(タブレット10の右側が被写体から遠ざかるように傾いている)と判断するための条件は以下の通りである。
・最も一致度の高い組み合わせがBlとNrである場合
・最も一致度の高い組み合わせがBlとSrである場合
・最も一致度の高い組み合わせがNlとSrである場合
On the other hand, conditions for determining that the size of the subject is large on the left side of the captured image 40 and the size of the subject on the right side is small (the right side of the tablet 10 is inclined to move away from the subject) are as follows.
・ When the combination with the highest degree of coincidence is Bl and Nr ・ When the combination with the highest degree of coincidence is Bl and Sr ・ When the combination with the highest degree of coincidence is Nl and Sr

上記の何れにも該当しない場合には、撮像画像40の左側で被写体のサイズが小さく、右側で被写体のサイズが大きい(タブレット10の左側が被写体から遠ざかるように傾いている)と判断する。上記の何れにも該当しない組み合わせは以下の通りである。
・最も一致度の高い組み合わせがNlとBrである場合
・最も一致度の高い組み合わせがSlとBrである場合
・最も一致度の高い組み合わせがSlとNrである場合
If none of the above applies, it is determined that the size of the subject is small on the left side of the captured image 40 and the size of the subject is large on the right side (the left side of the tablet 10 is tilted away from the subject). The combinations which do not correspond to any of the above are as follows.
・ When the combination with the highest degree of agreement is Nl and Br ・ When the combination with the highest degree of agreement is Sl and Br ・ When the combination with the highest degree of agreement is Sl and Nr

また、算出部4は、テンプレート画像30に対する撮像画像40の全体的な一致度である「全体の一致度」を算出する。全体の一致度の指標として正規化相互相関を用いる場合、上述の式1や式2に従って正規化相互相関係数RNCC,RZNCCなどを算出してもよい。本実施形態の算出部4は、上位置Zu,下位置Zd,左位置Zl,右位置Zrのそれぞれで最も高い一致度に基づき、撮像画像40の全体の一致度を算出する。全体の一致度は、例えば四箇所の一致度の合計値や平均値などから算出することができる。ここで算出された全体の一致度は、表示部6によって表示装置12に随時表示される。 In addition, the calculation unit 4 calculates a “total match degree” that is the overall match degree of the captured image 40 with the template image 30. When the normalized cross correlation is used as an index of the overall degree of coincidence, the normalized cross correlation coefficients R NCC , R Z NCC and the like may be calculated according to the above-described Equation 1 and Equation 2. The calculation unit 4 of the present embodiment calculates the degree of coincidence of the entire captured image 40 based on the highest degree of coincidence at each of the upper position Zu, the lower position Zd, the left position Zl, and the right position Zr. The overall degree of coincidence can be calculated, for example, from the total value or the average value of the four degrees of coincidence. The overall matching degree calculated here is displayed on the display device 12 by the display unit 6 as needed.

推定部5は、算出部4で算出された部分画像ごとの差に基づき、その差を減少させるためのタブレット10の移動方向を推定するものである。ここでは、撮像位置や角度を変化させたときに、被写体までの距離が遠いと判断されていた部位が被写体に近づく方向が「タブレット10の移動方向」であると推定される。例えば、タブレット10の上側が被写体から遠いと判断されているときには、タブレット10を上側に移動させる(あるいは、タブレット10の上側が被写体に近づくように傾斜させる)ことで、被写体までの距離が均一となりうる。したがって、タブレット10の移動方向は「上方向」であると推定される。   The estimation unit 5 estimates the moving direction of the tablet 10 for reducing the difference based on the difference between the partial images calculated by the calculation unit 4. Here, when the imaging position and the angle are changed, it is estimated that the direction in which the part determined to be far from the subject is closer to the subject is the “moving direction of the tablet 10”. For example, when it is determined that the upper side of the tablet 10 is far from the subject, the distance to the subject becomes uniform by moving the tablet 10 upward (or tilting the upper side of the tablet 10 so as to approach the subject). sell. Therefore, the movement direction of the tablet 10 is estimated to be "upward".

本実施形態の推定部5は、算出部4での判断に基づき、撮像画像40の上下方向についての移動方向と左右方向についての移動方向とを推定する。例えば、タブレット10の上側が被写体から遠ざかるように傾いていると判断されている場合には、移動方向は「上方向」であると推定される。同様に、タブレット10の左側が被写体から遠ざかるように傾いていると判断されている場合には、移動方向は「左方向」であると推定される。   The estimation unit 5 of the present embodiment estimates the moving direction in the vertical direction of the captured image 40 and the moving direction in the horizontal direction based on the determination of the calculation unit 4. For example, when it is determined that the upper side of the tablet 10 is inclined to move away from the subject, the movement direction is estimated to be “upward”. Similarly, when it is determined that the left side of the tablet 10 is inclined to move away from the subject, the movement direction is estimated to be “left direction”.

表示部6は、推定部5で推定された移動方向を表示装置12に表示させるものである。ここでは、撮像画像40と、撮像装置11(タブレット10)の移動方向を表す形状や配置,色を持つマーク50と、全体の一致度を表す一致度情報51とが表示装置12に表示される。表示装置12の表示画面例を、図7に示す。この例では、画面中の左側にテンプレート画像30が表示され、右側に撮像画像40が表示されている。テンプレート画像30の上には、照合位置を表す囲み枠が重畳表示される。   The display unit 6 causes the display device 12 to display the moving direction estimated by the estimation unit 5. Here, the display device 12 displays the captured image 40, a mark 50 having a shape, an arrangement, and a color representing the moving direction of the imaging device 11 (tablet 10), and a degree of coincidence information 51 representing the overall degree of coincidence. . An example of a display screen of the display device 12 is shown in FIG. In this example, the template image 30 is displayed on the left side of the screen, and the captured image 40 is displayed on the right side. On the template image 30, an enclosing frame representing a matching position is superimposed and displayed.

撮像画像40の上には、テンプレート画像30に対する被写体のサイズ差に応じた大きさの囲み枠が重畳表示される。また、撮像画像40の右側にはくさび形(細長い三角形状)のイメージバーが表示される。このイメージバーの向きは、撮像画像40の上下方向についての移動方向(図7では上方向)を指し示す向きとされる。推定部5で推定された移動方向が「下方向」である場合には、先端を下方向に向けたイメージバーが表示される。同様に、撮像画像40の下側にもイメージバーが表示される。このイメージバーの向きは、撮像画像40の左右方向についての移動方向(図7では左方向)を指し示す向きとされる。なお、イメージバーの太さと被写体までの距離とを対応させて表示してもよい。   On the captured image 40, an enclosing frame having a size corresponding to the size difference of the subject with respect to the template image 30 is superimposed and displayed. Further, on the right side of the captured image 40, a wedge-shaped (long and narrow triangle shape) image bar is displayed. The direction of the image bar is set to point to the moving direction (upward in FIG. 7) in the vertical direction of the captured image 40. When the movement direction estimated by the estimation unit 5 is "downward", an image bar with the tip directed downward is displayed. Similarly, an image bar is also displayed below the captured image 40. The direction of the image bar is set to point to the moving direction (left direction in FIG. 7) in the left-right direction of the captured image 40. Note that the thickness of the image bar may be displayed in correspondence with the distance to the subject.

[4.フローチャート]
図8は、撮影ガイド表示プログラム1による撮影ガイド表示方法の手順を例示するフローチャートである。まず、テンプレート画像30の一部分を複数箇所で切り出した複数の部分画像を生成するとともに(ステップB1)、それぞれの部分画像を基準サイズとした拡大部分画像,縮小部分画像を生成する(ステップB2)。ここまでの工程は、画像検査が開始される前に実施しておくことができる。
[4. flowchart]
FIG. 8 is a flowchart illustrating the procedure of the photographing guide display method by the photographing guide display program 1. First, a plurality of partial images in which a portion of the template image 30 is cut out at a plurality of locations are generated (step B1), and enlarged partial images and reduced partial images are generated with each partial image as a reference size (step B2). The steps so far can be performed before the image inspection is started.

続いて、拡大部分画像,縮小部分画像を含むすべての部分画像について、撮像画像40の対応箇所に対する一致度を算出する(ステップB3)。また、ステップB1で部分画像が切り出された個々の位置について、部分画像,拡大部分画像,縮小部分画像のうち最も一致度の高いものが選択される(ステップB4)。これにより、ステップB1で部分画像が切り出された個々の位置における被写体のサイズ差が把握されることになる。その後、個々の位置における被写体のサイズ差に基づき、そのサイズ差を減少させるためのタブレット10の移動方向が推定され(ステップB5)、その移動方向を表すマーク50が表示装置12に表示される(ステップB6)。   Subsequently, for all partial images including the enlarged partial image and the reduced partial image, the coincidence with the corresponding part of the captured image 40 is calculated (step B3). Further, for each position at which the partial image is cut out in step B1, the one with the highest degree of coincidence is selected among the partial image, the enlarged partial image, and the reduced partial image (step B4). Thereby, the size difference of the subject at each position where the partial image is cut out in step B1 is grasped. Thereafter, based on the size difference of the subject at each position, the moving direction of the tablet 10 for reducing the size difference is estimated (step B5), and the mark 50 representing the moving direction is displayed on the display 12 Step B6).

図9は、ステップB5で推定される移動方向のうち、撮像画像40の上下方向についての移動方向を推定する手順を例示するフローチャートである。まず、上位置uから生成された三つの部分画像Bu,Nu,Suのうち、最も一致度の高いものが選択される(ステップC1)。同様に、下位置dから生成された三つの部分画像Bd,Nd,Sdのうち、最も一致度の高いものが選択される(ステップC2)。ステップC1で選択された部分画像とステップC2で選択された部分画像との組み合わせは9通りである。   FIG. 9 is a flowchart illustrating a procedure for estimating the moving direction of the captured image 40 in the vertical direction among the moving directions estimated in step B5. First, among the three partial images Bu, Nu, Su generated from the upper position u, the one with the highest degree of coincidence is selected (step C1). Similarly, among the three partial images Bd, Nd, and Sd generated from the lower position d, the one with the highest degree of coincidence is selected (step C2). There are nine combinations of the partial image selected in step C1 and the partial image selected in step C2.

ここで、最も一致度の高い組み合わせが「NuとNd」か「BuとBd」か「SuとSd」である場合には(ステップC3)、タブレット10から被写体までの距離が上下方向に均一であると判断され、上下方向の太さが一定のイメージバーが表示装置12に表示される(ステップC5)。一方、最も一致度の高い組み合わせが「BuとNd」か「BuとSd」か「NuとSd」である場合には(ステップC4)、タブレット10の下側が被写体から遠ざかるように傾いていると判断され、先端を下方向に向けたイメージバー(上端が太く下端が細いイメージバー)が表示装置12に表示される(ステップC6)。また、ステップC3,C4の条件が不成立の場合には、タブレット10の上側が被写体から遠ざかるように傾いていると判断され、先端を上方向に向けたイメージバー(下端が太く上端が細いイメージバー)が表示装置12に表示される(ステップC7)。   Here, when the combination with the highest degree of coincidence is “Nu and Nd” or “Bu and Bd” or “Su and Sd” (step C3), the distance from the tablet 10 to the subject is uniform in the vertical direction It is determined that there is an image bar having a constant thickness in the vertical direction is displayed on the display device 12 (step C5). On the other hand, if the combination with the highest degree of coincidence is “Bu and Nd” or “Bu and Sd” or “Nu and Sd” (step C4), it is assumed that the lower side of the tablet 10 is inclined away from the subject. It is judged, and an image bar (the upper end is thick and the lower end is thin) whose tip is directed downward is displayed on the display device 12 (step C6). If the conditions in steps C3 and C4 are not satisfied, it is determined that the upper side of the tablet 10 is inclined to move away from the subject, and the image bar with the tip directed upward (the image bar with a thick lower end and a thin upper end) Is displayed on the display unit 12 (step C7).

撮像画像40の左右方向についての移動方向に関しても、同様の手順でイメージバーの表示内容が制御される。タブレット10を手に持った撮影者は、イメージバーを見ながらタブレット10の位置や向きを調節し、イメージバーの太さが一定になるまで調節を続ける。その結果、図10に示すように、上下方向に延在するイメージバーと左右方向に延在するイメージバーとの双方が一定の太さとなる。このときの撮像位置,撮像方向,サイズは、テンプレート画像30と同等となる。したがって、シャッターボタンを操作して静止画像を撮影することで、撮像精度の高い撮像画像40を得ることができる。   The display contents of the image bar are also controlled in the same procedure with respect to the moving direction of the captured image 40 in the left and right direction. The photographer holding the tablet 10 adjusts the position and orientation of the tablet 10 while looking at the image bar, and continues adjustment until the thickness of the image bar becomes constant. As a result, as shown in FIG. 10, both the image bar extending in the vertical direction and the image bar extending in the lateral direction have a constant thickness. The imaging position, imaging direction, and size at this time are equal to those of the template image 30. Therefore, by capturing the still image by operating the shutter button, the captured image 40 with high imaging accuracy can be obtained.

[5.作用,効果]
(1)上述の実施形態では、部分画像ごとの被写体の大きさの差を減少させる撮像装置11(タブレット10)の移動方向が表示装置12に表示される。これにより、被写体に対する撮像装置11の撮像位置,撮像方向,サイズ(画角)のずれを撮影者が修正しやすくすることができる。つまり、テンプレート画像30との照合に適した良い撮像画像40を撮影しやすくすることができ、撮像画像40の撮像精度を向上させることができる。したがって、画像検査の検査精度,判定精度,信頼性を向上させることができる。また、撮像装置11の移動方向が表示装置12に随時表示されることから、良い撮像画像40を撮影する作業が容易となり、作業効率を改善することができる。
[5. Action, effect]
(1) In the above-described embodiment, the moving direction of the imaging device 11 (tablet 10) for reducing the difference in the size of the subject for each partial image is displayed on the display device 12. Thereby, the photographer can easily correct the deviation of the imaging position, imaging direction, and size (angle of view) of the imaging device 11 with respect to the subject. That is, a good captured image 40 suitable for matching with the template image 30 can be easily captured, and the imaging accuracy of the captured image 40 can be improved. Therefore, the inspection accuracy, the determination accuracy, and the reliability of the image inspection can be improved. In addition, since the moving direction of the imaging device 11 is displayed on the display device 12 as needed, the work of capturing a good captured image 40 becomes easy, and the work efficiency can be improved.

(2)上述の実施形態では、テンプレート画像30からの部分画像の切り出しに際し、上下方向の位置が異なるペアと左右方向の位置が異なるペアとが含まれるように切り出し位置が設定される。前者のペアは、上下方向で被写体の大きさがどのように変化しているのかを把握するのに使用され、後者のペアは、左右方向で被写体の大きさがどのように変化しているのかを把握するのに使用される。したがって、被写体に対する撮像画像40の全体的な傾きや位置ずれを精度よく把握することができ、撮像画像40の撮像精度をさらに向上させることができる。   (2) In the above embodiment, when the partial image is cut out from the template image 30, the cut-out position is set so that a pair having different vertical positions and a pair having different horizontal positions are included. The former pair is used to grasp how the size of the subject is changing in the vertical direction, and the latter pair is how the size of the subject is changing in the horizontal direction Used to figure out Therefore, the overall inclination and positional deviation of the captured image 40 with respect to the subject can be accurately grasped, and the imaging accuracy of the captured image 40 can be further improved.

(3)上述の実施形態では、生成部2で生成されたそれぞれの部分画像について、撮像画像40への一致度が照合部3で算出される。例えば、ある部分画像の一致度が高ければ、その部分画像が切り出された位置での被写体の大きさは、テンプレート画像30との関係で適正である(差が0である)とみなすことができる。一方、ある部分画像の一致度が低ければ、その位置には被写体の大きさの差がある(差が大きい)とみなすことができる。このように、一致度を指標として被写体の大きさの差を評価することができ、撮像画像40の撮像精度をさらに向上させることができる。   (3) In the above-described embodiment, the matching unit 3 calculates the degree of coincidence with the captured image 40 for each partial image generated by the generation unit 2. For example, if the matching degree of a partial image is high, the size of the subject at the position where the partial image is cut out can be regarded as appropriate (the difference is zero) in relation to the template image 30. . On the other hand, if the degree of coincidence of a partial image is low, it can be regarded that there is a difference in the size of the subject (the difference is large) at that position. Thus, the difference in the size of the subject can be evaluated using the degree of coincidence as an index, and the imaging accuracy of the captured image 40 can be further improved.

(4)式1,式2に示すように、テンプレート画像30の部分画像と撮像画像40との正規化相互相関係数RNCC,RZNCCを一致度の指標として用いた場合には、テンプレート画像30や撮像画像40の明るさの変動に対するロバスト性の高い一致度を算出することができる。例えば、タブレット10に内蔵された補助ライトの使用状態に関わらず、安定した一致度を算出することができる。したがって、撮像画像40の撮像精度をさらに向上させることができる。 (4) As shown in Equations 1 and 2, when the normalized cross correlation coefficients R NCC and R ZNCC between the partial image of the template image 30 and the captured image 40 are used as the index of the coincidence, the template image It is possible to calculate the degree of coincidence highly robust against the fluctuation of the brightness of the image 30 or the captured image 40. For example, regardless of the use state of the auxiliary light incorporated in the tablet 10, a stable degree of coincidence can be calculated. Therefore, the imaging accuracy of the captured image 40 can be further improved.

(5)また、部分画像を拡縮方向に変形させたときの一致度の変化を追跡することで、被写体の大きさの差を精度よく算出することができる。例えば、部分画像を拡大変形させたときに一致度が上昇したならば、拡大する前の部分画像に含まれる被写体が小さく、拡大後の部分画像に含まれる被写体のサイズが適正であると判断できる。反対に、部分画像を縮小変形させたときに一致度が上昇したならば、縮小する前の部分画像に含まれる被写体が大きく、縮小後の部分画像に含まれる被写体のサイズが適正であると判断できる。したがって、被写体の大きさの差を精度よく把握することができ、ひいては撮像画像40の撮像精度をさらに向上させることができる。   (5) Further, by tracking the change in the degree of coincidence when the partial image is deformed in the enlargement / reduction direction, it is possible to accurately calculate the difference in the size of the subject. For example, if the degree of coincidence increases when the partial image is enlarged and deformed, it is possible to determine that the subject included in the partial image before enlargement is small and the size of the subject included in the partial image after enlargement is appropriate. . Conversely, if the degree of coincidence increases when the partial image is reduced and deformed, it is determined that the subject included in the partial image before reduction is large and the size of the subject included in the reduced partial image is appropriate. it can. Therefore, the difference in the size of the subject can be accurately grasped, and the imaging accuracy of the captured image 40 can be further improved.

(6)上述の実施形態では、図5(A)〜(F)に示すように、四箇所の部分画像のそれぞれを拡大変形させた拡大部分画像と、縮小変形させた縮小部分画像とが作成される。それぞれの部分画像の一致度を比較することで、撮像装置11から被写体までの距離を精度よく評価することができ、被写体の大きさの差を精度よく把握することができる。したがって、撮像画像40の撮像精度をさらに向上させることができる。   (6) In the above embodiment, as shown in FIGS. 5A to 5F, enlarged partial images obtained by enlarging and deforming each of the four partial images and reduced partial images obtained by reducing and generating the partial images are created. Be done. By comparing the matching degree of each partial image, the distance from the imaging device 11 to the subject can be accurately evaluated, and the difference in the size of the subject can be accurately grasped. Therefore, the imaging accuracy of the captured image 40 can be further improved.

(7)上述の実施形態では、図7に示すように、撮像画像40とテンプレート画像30との全体的な一致度を表す一致度情報51が表示装置12に表示される。これにより、撮影者が撮像位置,撮像方向,サイズなどの変更の要否を容易に把握することができ、適正な位置,角度への撮像装置11の移動を促すことができる。したがって、撮像画像40の撮像精度をさらに向上させることができる。   (7) In the above-described embodiment, as shown in FIG. 7, the matching degree information 51 indicating the overall matching degree between the captured image 40 and the template image 30 is displayed on the display device 12. As a result, the photographer can easily grasp the necessity of changing the imaging position, imaging direction, size, and the like, and the movement of the imaging device 11 to an appropriate position and angle can be promoted. Therefore, the imaging accuracy of the captured image 40 can be further improved.

(8)上述の実施形態では、撮像装置11(タブレット10)の移動方向を表すマーク50が表示装置12に表示される。これにより撮影者は、撮像装置11(タブレット10)を移動させるべき方向を直感的に把握することができ、良い撮像画像40が期待できる方向へと容易に撮像装置11を移動させることができる。したがって、撮像画像40の撮像精度をさらに向上させることができる。   (8) In the embodiment described above, the mark 50 representing the moving direction of the imaging device 11 (tablet 10) is displayed on the display device 12. As a result, the photographer can intuitively grasp the direction in which the imaging device 11 (tablet 10) should be moved, and can easily move the imaging device 11 in the direction in which a good captured image 40 can be expected. Therefore, the imaging accuracy of the captured image 40 can be further improved.

[5.変形例]
本実施形態はあくまでも例示に過ぎず、上記の実施形態で明示しない種々の変形や技術の適用を排除する意図はない。すなわち、上記の実施形態をその趣旨を逸脱しない範囲で種々変形して(例えば、実施形態や変形例を組み合わせることによって)実施することが可能である。
[5. Modified example]
The present embodiment is merely an example, and there is no intention to exclude the application of various modifications and techniques not explicitly stated in the above embodiment. That is, it is possible to variously deform and implement the above-mentioned embodiment (for example, by combining an embodiment and a modification) in the range which does not deviate from the meaning.

例えば、上述の実施形態では、テンプレート画像30の中心位置よりも上位置u,下位置d,左位置l,右位置rの四箇所に対応する部分画像が生成されているが、部分画像の生成数や生成位置はこれに限定されない。少なくとも複数(二以上)の部分画像を生成することで、その部分画像に対応する部位に含まれる被写体の大きさを評価することができ、上述の実施形態と同様の効果を奏するものとなる。   For example, in the above-described embodiment, partial images corresponding to four positions of the upper position u, lower position d, left position l, and right position r than the center position of the template image 30 are generated. The number and generation position are not limited to this. By generating at least a plurality of (two or more) partial images, the size of the subject included in the part corresponding to the partial image can be evaluated, and the same effect as the above-described embodiment can be obtained.

上述の実施形態では、くさび形のイメージバーの向きで撮像装置11(タブレット10)の移動方向を表現しているが、撮影者に移動を促すための具体的なマーク50の形状,配置,色などはこれに限定されない。例えば、図11に示すように、撮像画像40の中央に破線円53を表示する。また、破線円53よりも直径が小さな円52を被写体の大きさの差に応じて決定される位置に表示する。さらに、上述の実施形態におけるタブレット10の移動方向を一本の矢印で表現し、矢印の起点を破線円53の中心に配置して、矢印の先端に円52を配置する。   In the above embodiment, the moving direction of the imaging device 11 (tablet 10) is expressed by the orientation of the wedge-shaped image bar, but the shape, arrangement, and color of specific marks 50 for prompting the photographer to move Etc. are not limited to this. For example, as shown in FIG. 11, a dashed circle 53 is displayed at the center of the captured image 40. Further, a circle 52 having a diameter smaller than that of the broken line circle 53 is displayed at a position determined according to the difference in size of the subject. Furthermore, the movement direction of the tablet 10 in the above-described embodiment is represented by a single arrow, the starting point of the arrow is disposed at the center of the dashed circle 53, and the circle 52 is disposed at the tip of the arrow.

つまり、円52の位置は、撮像画像40上において、その時点での被写体までの距離が遠い側に向かって偏った位置に設定する。このようなマーク50を用いることで、破線円53の中心と円52の中心とが合致するようにタブレット10を移動させて、撮像位置,撮像方向,サイズなどを容易に適正化することができる。また、タブレット10を傾斜させる方向が直感的に把握されるため、作業効率をさらに改善することができる。   That is, the position of the circle 52 is set to a position on the captured image 40 that is biased toward the side at which the distance to the subject at that time is far. By using such a mark 50, the tablet 10 can be moved so that the center of the dashed circle 53 and the center of the circle 52 coincide with each other, and the imaging position, imaging direction, size and the like can be easily optimized. . Further, since the direction in which the tablet 10 is inclined can be intuitively grasped, the work efficiency can be further improved.

図12に示すように、色や表示濃度の異なるガイドバー54を撮像画像40の周囲に配置してもよい。ガイドバー54は、撮像画像40の上端辺,下端辺,右端辺,左端辺のそれぞれに(すなわち、合計で四本のガイドバー54を)表示する。また、それぞれのガイドバー54の濃度(色)は、上位置u,下位置d,左位置l,右位置rの四箇所に対応する四つの部分画像についての一致度に応じて設定する。   As shown in FIG. 12, guide bars 54 having different colors and display densities may be arranged around the captured image 40. The guide bar 54 displays the upper end side, the lower end side, the right end side, and the left end side of the captured image 40 (that is, four guide bars 54 in total). Also, the density (color) of each guide bar 54 is set according to the degree of coincidence of the four partial images corresponding to the four positions of the upper position u, the lower position d, the left position l and the right position r.

ガイドバー54の濃度を設定するためのフローチャートを図13に例示する。このフローチャートは、それぞれのガイドバー54に対して独立して実行される。また、ガイドバー54の濃度の設定において参照される一致度は、そのガイドバー54の位置に対応する一つの部分画像の一致度とする。例えば、撮像画像40の上端辺のガイドバー54の濃度は、上位置uの部分画像の一致度に基づいて制御される。   A flowchart for setting the density of the guide bar 54 is illustrated in FIG. This flowchart is performed independently for each guide bar 54. The degree of coincidence referred to in setting the density of the guide bar 54 is the degree of coincidence of one partial image corresponding to the position of the guide bar 54. For example, the density of the guide bar 54 on the upper end side of the captured image 40 is controlled based on the matching degree of the partial image of the upper position u.

まず、上位置uの部分画像の一致度が算出され(ステップD1)、一致度が80%を超えるか否かが判定される(ステップD2)。この条件が成立する場合、上端辺のガイドバー54の濃度は最も薄い濃度(距離が適正距離であることを示す)に設定される(ステップD4)。一方、この条件が不成立の場合には、一致度が50%を超えるか否かが判定される(ステップD3)。この条件が成立する場合には、やや濃い濃度(距離が適正距離と少し違うことを示す)が設定される(ステップD5)。また、この条件が不成立であれば、一致度が50%未満であることになるため、最も濃い濃度(距離が適正距離とかなり違うことを示す)が設定される(ステップD6)。   First, the degree of coincidence of the partial image at the upper position u is calculated (step D1), and it is determined whether the degree of coincidence exceeds 80% (step D2). If this condition is satisfied, the density of the guide bar 54 on the upper end side is set to the lightest density (indicating that the distance is an appropriate distance) (step D4). On the other hand, if this condition is not satisfied, it is determined whether the degree of coincidence exceeds 50% (step D3). If this condition is satisfied, a slightly dark density (indicating that the distance is slightly different from the appropriate distance) is set (step D5). If this condition is not satisfied, the degree of coincidence is less than 50%, so the darkest density (indicating that the distance is considerably different from the appropriate distance) is set (step D6).

このように、一致度に応じた濃度でガイドバー54を表示することで、撮影者はガイドバー54が全体的に薄い濃度となるようにタブレット10の位置や向きを調節することができ、テンプレート画像30と同等の撮像位置,撮像方向,サイズを模索することができる。また、全てのガイドバー54が薄い濃度となった状態でシャッターボタンを操作して静止画像を撮影することで、撮像精度の高い撮像画像40を得ることができる。   As described above, by displaying the guide bar 54 with the density corresponding to the degree of coincidence, the photographer can adjust the position and the orientation of the tablet 10 so that the density of the guide bar 54 becomes generally thin, and the template The same imaging position, imaging direction, and size as those of the image 30 can be searched. Further, by capturing the still image by operating the shutter button in a state in which all the guide bars 54 have a low density, it is possible to obtain a captured image 40 with high imaging accuracy.

なお、図12に示す例では、被写体までの距離と適正距離との大小関係が表示装置12に表示されない。そこで、撮像画像40に半透明の部分画像を重畳表示してもよい。最もシンプルな重畳表示手法は、上述の実施形態における上部分画像Nu,下部分画像Nd,左部分画像Nl,右部分画像Nrを半透明化し、撮像画像40に重ねて表示することである。この場合、タブレット10の位置や向きを調整するための目安となる画像を撮影者に提供することができ、作業効率をさらに改善することができる。   In the example shown in FIG. 12, the magnitude relationship between the distance to the subject and the appropriate distance is not displayed on the display device 12. Therefore, a semi-transparent partial image may be superimposed on the captured image 40. The simplest superimposed display method is to semi-transparent the upper partial image Nu, the lower partial image Nd, the left partial image Nl, and the right partial image Nr in the above-described embodiment, and superimpose them on the captured image 40 for display. In this case, it is possible to provide the photographer with an image serving as a guide for adjusting the position and orientation of the tablet 10, and the work efficiency can be further improved.

また、図14に示すように、上位置u,下位置d,左位置l,右位置rの四箇所に対応する位置を破線の囲み枠で表示するとともに、それぞれの位置で最も一致度の高い部分画像(部分画像,拡大部分画像,縮小部分画像のいずれか)を半透明化し、撮像画像40に重ねて表示してもよい。この場合、撮影者は撮像画像40の囲み枠内が半透明の部分画像に一致するようにタブレット10の位置や向きを調整すればよく、作業効率をさらに改善することができる。   Further, as shown in FIG. 14, the positions corresponding to the four positions of the upper position u, the lower position d, the left position l, and the right position r are displayed by a dashed box, and the highest matching rate is obtained at each position. The partial image (one of the partial image, the enlarged partial image, and the reduced partial image) may be translucent and displayed so as to be superimposed on the captured image 40. In this case, the photographer may adjust the position and orientation of the tablet 10 so that the inside of the frame of the captured image 40 matches the semi-transparent partial image, and the working efficiency can be further improved.

[6.付記]
上記の変形例を含む実施形態に関し、以下の付記を開示する。
(付記1〜8:情報処理装置)
(付記1)
テンプレート画像に照合される撮像画像の撮像装置での撮像に際し、前記テンプレート画像の一部分を複数の位置で切り出した複数の部分画像を生成する生成部と、
前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出する算出部と、
前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定する推定部と、
前記移動方向を表示装置に表示させる表示部と、
を備えることを特徴とする、情報処理装置。
[6. Appendix]
The following appendices will be disclosed regarding the embodiment including the above-described modified example.
(Appendix 1 to 8: information processing apparatus)
(Supplementary Note 1)
A generation unit configured to generate a plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image;
A calculator configured to calculate, for each of the partial images, a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image;
An estimation unit configured to estimate a moving direction of the imaging device to reduce the difference based on the difference for each partial image;
A display unit for displaying the moving direction on a display device;
An information processing apparatus comprising:

(付記2)
前記生成部が、第一画像と、上下方向の位置が前記第一画像とは異なる第二画像と、左右方向の位置が前記第一画像とは異なる第三画像と、を含む前記複数の部分画像を生成する
ことを特徴とする、付記1記載の情報処理装置。
(Supplementary Note 2)
The plurality of portions including the first image, the second image whose vertical position is different from the first image, and the third image whose horizontal position is different from the first image. The information processing apparatus according to appendix 1, wherein an image is generated.

(付記3)
それぞれの前記部分画像についての前記撮像画像への一致度を算出する照合部を備える
ことを特徴とする、付記1または2記載の情報処理装置。
(Supplementary Note 3)
The information processing apparatus according to any one of appendices 1 or 2, further comprising a collating unit that calculates a degree of coincidence of each of the partial images with the captured image.

(付記4)
前記照合部が、前記一致度に相当する前記部分画像及び前記撮像画像の正規化相互相関を算出する
ことを特徴とする、付記3記載の情報処理装置。
(Supplementary Note 4)
The information processing apparatus according to claim 3, wherein the matching unit calculates a normalized cross correlation between the partial image corresponding to the degree of coincidence and the captured image.

(付記5)
前記算出部が、前記部分画像を拡縮方向に変形させたときに前記照合部で算出される前記一致度の変化に基づき、前記差を算出する
ことを特徴とする、付記3または4のいずれか1項に記載の情報処理装置。
(Supplementary Note 5)
The above-mentioned difference is characterized by calculating the above-mentioned difference based on change of the above-mentioned degree of coincidence computed by the above-mentioned collation part, when the above-mentioned calculation part is made to deform the above-mentioned partial image in the expansion and contraction direction. An information processing apparatus according to item 1.

(付記6)
前記生成部が、それぞれの前記部分画像について、当該部分画像を拡大変形させた拡大部分画像と、当該部分画像を縮小変形させた縮小部分画像とを生成し、
前記照合部が、前記部分画像,前記拡大部分画像,前記縮小部分画像のそれぞれの前記一致度を算出し、
前記算出部が、前記部分画像,前記拡大部分画像,前記縮小部分画像のうち、
最も前記一致度の高いものが前記部分画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が適正であると判断し、
最も前記一致度の高いものが前記拡大部分画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が近いものと判断し、
最も前記一致度の高いものが前記縮小画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が遠いものと判断する
ことを特徴とする、付記3〜5のいずれか1項に記載の情報処理装置。
(Supplementary Note 6)
The generation unit generates, for each of the partial images, an enlarged partial image obtained by enlarging and deforming the partial image and a reduced partial image obtained by reducing and deforming the partial image;
The matching unit calculates the matching degree of each of the partial image, the enlarged partial image, and the reduced partial image;
Among the partial image, the enlarged partial image, and the reduced partial image, the calculation unit
When the partial image is the one with the highest degree of coincidence, it is determined that the distance from the imaging device to the subject included in the partial image is appropriate;
When the one with the highest degree of coincidence is the enlarged partial image, it is determined that the distance from the imaging device to the subject included in the partial image is short.
The system according to any one of appendices 3 to 5, wherein it is determined that the distance from the imaging device to the subject included in the partial image is long when the reduced image is the one with the highest degree of coincidence. The information processing apparatus according to claim 1.

(付記7)
前記表示部が、それぞれの前記部分画像についての一致度に基づいて算出される、前記撮像画像と前記テンプレート画像との全体の一致度を前記表示装置に表示させる
ことを特徴とする、付記3〜6のいずれか1項に記載の情報処理装置。
(Appendix 7)
Appendix 3. The display device causes the display device to display the overall matching score between the captured image and the template image, which is calculated based on the matching score for each of the partial images. The information processing apparatus according to any one of 6.

(付記8)
前記表示部が、前記移動方向を表す形状または配置または色を持つマークと前記撮像画像とを前記表示装置に表示させる
ことを特徴とする、付記1〜7のいずれか1項に記載の情報処理装置。
(Supplementary Note 8)
The information processing according to any one of Appendices 1 to 7, wherein the display unit causes the display device to display a mark having a shape, an arrangement, or a color representing the movement direction and the captured image. apparatus.

(付記9〜16:撮影ガイド表示プログラム)
(付記9)
テンプレート画像に照合される撮像画像の撮像装置での撮像に際し、前記テンプレート画像の一部分を複数の位置で切り出した複数の部分画像を生成し、
前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出し、
前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定し、
前記移動方向を表示装置に表示させる
処理をコンピュータに実行させる、撮影ガイド表示プログラム。
(Appendix 9 to 16: Shooting guide display program)
(Appendix 9)
A plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image;
Calculating a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image for each of the partial images;
Estimating the moving direction of the imaging device to reduce the difference based on the difference for each partial image;
The imaging | photography guide display program which makes a computer perform the process which displays the said moving direction on a display apparatus.

(付記10)
第一画像と、上下方向の位置が前記第一画像とは異なる第二画像と、左右方向の位置が前記第一画像とは異なる第三画像と、を含む前記複数の部分画像を生成する
処理をコンピュータに実行させる、付記9記載の撮影ガイド表示プログラム。
(Supplementary Note 10)
A process of generating the plurality of partial images including a first image, a second image whose position in the vertical direction is different from the first image, and a third image whose position in the horizontal direction is different from the first image The imaging guide display program according to appendix 9, causing the computer to execute.

(付記11)
それぞれの前記部分画像についての前記撮像画像への一致度を算出する
処理をコンピュータに実行させる、付記9または10記載の撮影ガイド表示プログラム。
(Supplementary Note 11)
The imaging guide display program according to supplementary note 9 or 10, causing the computer to execute a process of calculating the degree of coincidence with the captured image for each of the partial images.

(付記12)
前記一致度に相当する前記部分画像及び前記撮像画像の正規化相互相関を算出する
処理をコンピュータに実行させる、付記11記載の撮影ガイド表示プログラム。
(Supplementary Note 12)
The imaging guide display program according to appendix 11, causing a computer to execute processing of calculating normalized cross-correlation of the partial image and the captured image corresponding to the degree of coincidence.

(付記13)
前記部分画像を拡縮方向に変形させたときに前記照合部で算出される前記一致度の変化に基づき、前記差を算出する
処理をコンピュータに実行させる、付記11または12のいずれか1項に記載の撮影ガイド表示プログラム。
(Supplementary Note 13)
The computer according to any one of Appendices 11 or 12, causing the computer to execute the process of calculating the difference based on a change in the matching degree calculated by the matching unit when the partial image is deformed in the enlargement / reduction direction. Shooting guide display program.

(付記14)
それぞれの前記部分画像について、当該部分画像を拡大変形させた拡大部分画像と、当該部分画像を縮小変形させた縮小部分画像とを生成し、
前記部分画像,前記拡大部分画像,前記縮小部分画像のそれぞれの前記一致度を算出し、
前記部分画像,前記拡大部分画像,前記縮小部分画像のうち、
最も前記一致度の高いものが前記部分画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が適正であると判断し、
最も前記一致度の高いものが前記拡大部分画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が近いものと判断し、
最も前記一致度の高いものが前記縮小画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が遠いものと判断する
処理をコンピュータに実行させる、付記11〜13のいずれか1項に記載の撮影ガイド表示プログラム。
(Supplementary Note 14)
Generating an enlarged partial image obtained by enlarging and deforming the partial image and a reduced partial image obtained by reducing and deforming the partial image for each of the partial images;
Calculating the matching degree of each of the partial image, the enlarged partial image, and the reduced partial image;
Of the partial image, the enlarged partial image, and the reduced partial image,
When the partial image is the one with the highest degree of coincidence, it is determined that the distance from the imaging device to the subject included in the partial image is appropriate;
When the one with the highest degree of coincidence is the enlarged partial image, it is determined that the distance from the imaging device to the subject included in the partial image is short.
The computer executes processing for determining that the distance from the imaging device to the subject included in the partial image is long when the reduced image is the one with the highest degree of coincidence, any one of appendices 11 to 13. The shooting guide display program described in the section.

(付記15)
それぞれの前記部分画像についての一致度に基づいて算出される、前記撮像画像と前記テンプレート画像との全体の一致度を前記表示装置に表示させる
処理をコンピュータに実行させる、付記11〜14のいずれか1項に記載の撮影ガイド表示プログラム。
(Supplementary Note 15)
The computer according to any one of Appendices 11 to 14, causing the display device to display the overall matching score between the captured image and the template image, which is calculated based on the matching score for each of the partial images. The shooting guide display program described in item 1.

(付記16)
前記移動方向を表す形状または配置または色を持つマークと前記撮像画像とを前記表示装置に表示させる
処理をコンピュータに実行させる、付記9〜15のいずれか1項に記載の撮影ガイド表示プログラム。
(Supplementary Note 16)
The imaging guide display program according to any one of appendices 9 to 15, causing a computer to execute a process of causing the display device to display a mark having a shape, an arrangement, or a color representing the moving direction and the captured image.

(付記17〜24:撮影ガイド表示方法)
(付記17)
テンプレート画像に照合される撮像画像の撮像装置での撮像に際し、前記テンプレート画像の一部分を複数の位置で切り出した複数の部分画像を生成し、
前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出し、
前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定し、
前記移動方向を表示装置に表示させる
ことを特徴とする、撮影ガイド表示方法。
(Appendix 17 to 24: Display method of shooting guide)
(Supplementary Note 17)
A plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image;
Calculating a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image for each of the partial images;
Estimating the moving direction of the imaging device to reduce the difference based on the difference for each partial image;
And displaying the moving direction on a display device.

(付記18)
第一画像と、上下方向の位置が前記第一画像とは異なる第二画像と、左右方向の位置が前記第一画像とは異なる第三画像と、を含む前記複数の部分画像を生成する
ことを特徴とする、付記17記載の撮影ガイド表示方法。
(Appendix 18)
Generating a plurality of partial images including a first image, a second image whose position in the vertical direction is different from the first image, and a third image whose position in the horizontal direction is different from the first image The photographing guide display method according to appendix 17, characterized in that:

(付記19)
それぞれの前記部分画像についての前記撮像画像への一致度を算出する
ことを特徴とする、付記17または18記載の撮影ガイド表示方法。
(Appendix 19)
The photographing guide display method according to appendix 17 or 18, characterized in that the degree of coincidence with the captured image for each of the partial images is calculated.

(付記20)
前記一致度に相当する前記部分画像及び前記撮像画像の正規化相互相関を算出する
ことを特徴とする、付記19記載の撮影ガイド表示方法。
(Supplementary Note 20)
24. The photographing guide display method according to appendix 19, wherein normalized cross correlation between the partial image corresponding to the degree of coincidence and the captured image is calculated.

(付記21)
前記部分画像を拡縮方向に変形させたときに前記照合部で算出される前記一致度の変化に基づき、前記差を算出する
ことを特徴とする、付記19または20のいずれか1項に記載の撮影ガイド表示方法。
(Supplementary Note 21)
20. The difference according to any one of appendices 19 or 20, wherein the difference is calculated based on a change in the matching degree calculated by the matching unit when the partial image is deformed in the enlargement / reduction direction. Shooting guide display method.

(付記22)
それぞれの前記部分画像について、当該部分画像を拡大変形させた拡大部分画像と、当該部分画像を縮小変形させた縮小部分画像とを生成し、
前記部分画像,前記拡大部分画像,前記縮小部分画像のそれぞれの前記一致度を算出し、
前記部分画像,前記拡大部分画像,前記縮小部分画像のうち、
最も前記一致度の高いものが前記部分画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が適正であると判断し、
最も前記一致度の高いものが前記拡大部分画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が近いものと判断し、
最も前記一致度の高いものが前記縮小画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が遠いものと判断する
ことを特徴とする、付記19〜21のいずれか1項に記載の撮影ガイド表示方法。
(Supplementary Note 22)
Generating an enlarged partial image obtained by enlarging and deforming the partial image and a reduced partial image obtained by reducing and deforming the partial image for each of the partial images;
Calculating the matching degree of each of the partial image, the enlarged partial image, and the reduced partial image;
Of the partial image, the enlarged partial image, and the reduced partial image,
When the partial image is the one with the highest degree of coincidence, it is determined that the distance from the imaging device to the subject included in the partial image is appropriate;
When the one with the highest degree of coincidence is the enlarged partial image, it is determined that the distance from the imaging device to the subject included in the partial image is short.
Supplementary note 19 to 21, wherein it is determined that the distance from the imaging device to the subject included in the partial image is long when the reduced image is the one with the highest degree of coincidence. The shooting guide display method described in.

(付記23)
それぞれの前記部分画像についての一致度に基づいて算出される、前記撮像画像と前記テンプレート画像との全体の一致度を前記表示装置に表示させる
ことを特徴とする、付記19〜22のいずれか1項に記載の撮影ガイド表示方法。
(Supplementary Note 23)
Supplementary note 19 to 22, wherein the overall degree of coincidence between the captured image and the template image, which is calculated based on the degree of coincidence for each of the partial images, is displayed on the display device. Method of displaying a shooting guide described in the section.

(付記24)
前記移動方向を表す形状または配置または色を持つマークと前記撮像画像とを前記表示装置に表示させる
ことを特徴とする、付記17〜23のいずれか1項に記載の撮影ガイド表示方法。
(Supplementary Note 24)
The photographing guide display method according to any one of appendices 17 to 23, characterized in that the display device displays the mark having a shape, an arrangement, or a color representing the movement direction and the captured image.

1 撮影ガイド表示プログラム
2 生成部
3 照合部
4 算出部
5 推定部
6 表示部
10 タブレット
11 撮像装置
12 表示装置
20 情報処理装置(コンピューター)
30 テンプレート画像
40 撮像画像
DESCRIPTION OF SYMBOLS 1 photography guide display program 2 generation part 3 collation part 4 calculation part 5 estimation part 6 display part 10 tablet 11 imaging device 12 display device 20 information processing device (computer)
30 template image 40 captured image

Claims (10)

テンプレート画像に照合される撮像画像の撮像装置での撮像に際し、前記テンプレート画像の一部分を複数の位置で切り出した複数の部分画像を生成する生成部と、
前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出する算出部と、
前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定する推定部と、
前記移動方向を表示装置に表示させる表示部と、
を備えることを特徴とする、情報処理装置。
A generation unit configured to generate a plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image;
A calculator configured to calculate, for each of the partial images, a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image;
An estimation unit configured to estimate a moving direction of the imaging device to reduce the difference based on the difference for each partial image;
A display unit for displaying the moving direction on a display device;
An information processing apparatus comprising:
前記生成部が、第一画像と、上下方向の位置が前記第一画像とは異なる第二画像と、左右方向の位置が前記第一画像とは異なる第三画像と、を含む前記複数の部分画像を生成する
ことを特徴とする、請求項1記載の情報処理装置。
The plurality of portions including the first image, the second image whose vertical position is different from the first image, and the third image whose horizontal position is different from the first image. The information processing apparatus according to claim 1, which generates an image.
それぞれの前記部分画像についての前記撮像画像への一致度を算出する照合部を備える
ことを特徴とする、請求項1または2記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising a collating unit that calculates a degree of coincidence of the partial images with the captured image.
前記照合部が、前記一致度に相当する前記部分画像及び前記撮像画像の正規化相互相関を算出する
ことを特徴とする、請求項3記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the matching unit calculates a normalized cross correlation between the partial image corresponding to the degree of coincidence and the captured image.
前記算出部が、前記部分画像を拡縮方向に変形させたときに前記照合部で算出される前記一致度の変化に基づき、前記差を算出する
ことを特徴とする、請求項3または4のいずれか1項に記載の情報処理装置。
5. The method according to claim 3, wherein the calculation unit calculates the difference based on a change in the matching degree calculated by the matching unit when the partial image is deformed in a scaling direction. An information processing apparatus according to any one of the preceding items.
前記生成部が、それぞれの前記部分画像について、当該部分画像を拡大変形させた拡大部分画像と、当該部分画像を縮小変形させた縮小部分画像とを生成し、
前記照合部が、前記部分画像,前記拡大部分画像,前記縮小部分画像のそれぞれの前記一致度を算出し、
前記算出部が、前記部分画像,前記拡大部分画像,前記縮小部分画像のうち、
最も前記一致度の高いものが前記部分画像である場合に、前記撮像装置から当該部分画像に含まれる被写体までの距離が適正であると判断し、
最も前記一致度の高いものが前記拡大部分画像である場合に、前記撮像装置から当該部分画像に含まれる被写体までの距離が近いものと判断し、
最も前記一致度の高いものが前記縮小部分画像である場合に、前記撮像装置から当該部分画像に含まれる被写体までの距離が遠いものと判断する
ことを特徴とする、請求項3〜5のいずれか1項に記載の情報処理装置。
The generation unit generates, for each of the partial images, an enlarged partial image obtained by enlarging and deforming the partial image and a reduced partial image obtained by reducing and deforming the partial image;
The matching unit calculates the matching degree of each of the partial image, the enlarged partial image, and the reduced partial image;
Among the partial image, the enlarged partial image, and the reduced partial image, the calculation unit
When the partial image is the one with the highest degree of coincidence, it is determined that the distance from the imaging device to the subject included in the partial image is appropriate;
When the one with the highest degree of coincidence is the enlarged partial image, it is determined that the distance from the imaging device to the subject included in the partial image is short,
The method according to any one of claims 3 to 5, characterized in that when the reduced partial image is the one with the highest degree of coincidence, it is determined that the distance from the imaging device to the subject included in the partial image is long. An information processing apparatus according to any one of the preceding items.
前記表示部が、それぞれの前記部分画像についての一致度に基づいて算出される、前記撮像画像と前記テンプレート画像との全体の一致度を前記表示装置に表示させる
ことを特徴とする、請求項3〜6のいずれか1項に記載の情報処理装置。
4. The display device according to claim 3, wherein the display unit displays, on the display device, the overall degree of coincidence between the captured image and the template image, which is calculated based on the degree of coincidence for each of the partial images. The information processing apparatus according to any one of to 6.
前記表示部が、前記移動方向を表す形状または配置または色を持つマークと前記撮像画像とを前記表示装置に表示させる
ことを特徴とする、請求項1〜7のいずれか1項に記載の情報処理装置。
The information according to any one of claims 1 to 7, wherein the display unit causes the display device to display a mark having a shape, an arrangement, or a color representing the movement direction and the captured image. Processing unit.
テンプレート画像に照合される撮像画像の撮像装置での撮像に際し、前記テンプレート画像の一部分を複数の位置で切り出した複数の部分画像を生成し、
前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出し、
前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定し、
前記移動方向を表示装置に表示させる
処理をコンピュータに実行させる、撮影ガイド表示プログラム。
A plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image;
Calculating a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image for each of the partial images;
Estimating the moving direction of the imaging device to reduce the difference based on the difference for each partial image;
The imaging | photography guide display program which makes a computer perform the process which displays the said moving direction on a display apparatus.
テンプレート画像に照合される撮像画像の撮像装置での撮像に際し、前記テンプレート画像の一部分を複数の位置で切り出した複数の部分画像を生成し、
前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出し、
前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定し、
前記移動方向を表示装置に表示させる
ことを特徴とする、撮影ガイド表示方法。
A plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image;
Calculating a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image for each of the partial images;
Estimating the moving direction of the imaging device to reduce the difference based on the difference for each partial image;
And displaying the moving direction on a display device.
JP2017248073A 2017-12-25 2017-12-25 Information processing device, shooting guide display program, shooting guide display method Active JP6933125B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017248073A JP6933125B2 (en) 2017-12-25 2017-12-25 Information processing device, shooting guide display program, shooting guide display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017248073A JP6933125B2 (en) 2017-12-25 2017-12-25 Information processing device, shooting guide display program, shooting guide display method

Publications (2)

Publication Number Publication Date
JP2019114968A true JP2019114968A (en) 2019-07-11
JP6933125B2 JP6933125B2 (en) 2021-09-08

Family

ID=67223838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017248073A Active JP6933125B2 (en) 2017-12-25 2017-12-25 Information processing device, shooting guide display program, shooting guide display method

Country Status (1)

Country Link
JP (1) JP6933125B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074376A (en) * 2011-09-27 2013-04-22 Sony Corp Imaging guide apparatus, imaging apparatus, imaging guide method, and program
JP2015082830A (en) * 2013-10-24 2015-04-27 富士通株式会社 Guide method, information processing apparatus, and guide program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074376A (en) * 2011-09-27 2013-04-22 Sony Corp Imaging guide apparatus, imaging apparatus, imaging guide method, and program
JP2015082830A (en) * 2013-10-24 2015-04-27 富士通株式会社 Guide method, information processing apparatus, and guide program

Also Published As

Publication number Publication date
JP6933125B2 (en) 2021-09-08

Similar Documents

Publication Publication Date Title
JP4207980B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
TWI451750B (en) Image capture apparatus, computer readable recording medium and control method
JP5720275B2 (en) Imaging apparatus and imaging method
US9807299B2 (en) Image capture methods and systems with positioning and angling assistance
CN105072315B (en) Electron camera and camera shooting control method
JP5652886B2 (en) Face authentication device, authentication method and program, information device
US8189942B2 (en) Method for discriminating focus quality of image pickup device
CN101998048A (en) Digital image signal processing method, medium for recording the method, digital image signal pocessing apparatus
CN107787463B (en) The capture of optimization focusing storehouse
CN107209345A (en) Focusing control apparatus, camera device, focusing control method and focusing control program
US9361704B2 (en) Image processing device, image processing method, image device, electronic equipment, and program
CN103685911A (en) Image processing apparatus for image processing method
JP2009141475A (en) Camera
JP2018046337A (en) Information processing device, program and control method
JP2008282031A (en) Imaging apparatus and imaging apparatus control method, and computer program
CN103685837A (en) Image processing apparatus and image processing method
JP4565273B2 (en) Subject tracking device and camera
WO2013187282A1 (en) Image pick-up image display device, image pick-up image display method, and storage medium
JP2021131737A (en) Data registration device, biometric authentication device, and data registration program
JP6933125B2 (en) Information processing device, shooting guide display program, shooting guide display method
JP4632417B2 (en) Imaging apparatus and control method thereof
JP5239991B2 (en) Image processing apparatus and image processing system
JP7321772B2 (en) Image processing device, image processing method, and program
JP2009042900A (en) Imaging device and image selection device
JP5029647B2 (en) Subject tracking device and camera

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210802

R150 Certificate of patent or registration of utility model

Ref document number: 6933125

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150