JP2019114968A - Information processing device, imaging guide display program, and imaging guide display method - Google Patents
Information processing device, imaging guide display program, and imaging guide display method Download PDFInfo
- Publication number
- JP2019114968A JP2019114968A JP2017248073A JP2017248073A JP2019114968A JP 2019114968 A JP2019114968 A JP 2019114968A JP 2017248073 A JP2017248073 A JP 2017248073A JP 2017248073 A JP2017248073 A JP 2017248073A JP 2019114968 A JP2019114968 A JP 2019114968A
- Authority
- JP
- Japan
- Prior art keywords
- image
- partial
- partial image
- coincidence
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮像画像とテンプレート画像とのマッチング処理を実施する装置,プログラム,表示方法に関する。 The present invention relates to an apparatus, program, and display method for performing matching processing between a captured image and a template image.
従来、撮像装置で撮像された撮像画像とその原型となるテンプレート画像とを照合し、画像の類似度(マッチングの度合い)を評価する技術が知られている。例えば、人物の顔の画像をあらかじめ登録しておき、テンプレートマッチングの手法を用いて算出される撮像画像のスコア(顔情報の類似度)をその人物の個人認証に利用する技術が知られている。テンプレートマッチングでは、テンプレート画像に対応する被写体の一部分が撮像画像中のどこに位置しているのかが自動的に検索され、対応箇所とテンプレート画像との類似度や一致度が算出される。このような画像処理により、撮像画像とテンプレート画像との照合精度が向上しうる(特許文献1〜3参照)。
2. Description of the Related Art Conventionally, there is known a technique for comparing a captured image captured by an imaging device with a template image serving as a prototype thereof to evaluate the similarity (the degree of matching) of images. For example, there is known a technique in which an image of a person's face is registered in advance, and a score (similarity of face information) of a captured image calculated using a method of template matching is used for personal authentication of the person. . In template matching, it is automatically searched where in the captured image a part of the subject corresponding to the template image is located, and the degree of similarity and the degree of matching between the corresponding portion and the template image are calculated. Such image processing can improve the matching accuracy between the captured image and the template image (see
撮像画像が撮像された位置や方向,画角は、必ずしもテンプレート画像の撮像条件に一致しない。そのため、三次元の立体物を撮像対象とした場合には、撮像画像に含まれる被写体とテンプレート画像に含まれる被写体との大きさのずれが大きくなり、照合精度が低下しうる。このような課題に対し、撮像画像にアフィン変換やホモグラフィー変換などの幾何学的変換を施すことで、画像間のずれを小さくすることも考えられる。しかし、立体物の影や死角に入る部分(すなわち、撮像装置から見えない部分)の状態を幾何学的変換で再現することはできない。 The position, the direction, and the angle of view at which the captured image is captured do not necessarily match the capturing condition of the template image. Therefore, when a three-dimensional three-dimensional object is used as an imaging target, the size deviation between the subject included in the captured image and the subject included in the template image may be large, and the matching accuracy may be reduced. With respect to such problems, it is also conceivable to reduce the deviation between the images by performing geometrical transformation such as affine transformation or homography transformation on the captured image. However, it is not possible to reproduce the state of a portion of a three-dimensional object that falls in a shadow or a blind spot (that is, a portion that can not be seen from the imaging device) by geometrical transformation.
上述の通り、撮像状態によっては画像間のずれを適切に補正することができず、画像の照合精度が低下する。したがって、撮像画像とテンプレート画像との照合に際しては、照合に適した「良い」撮像画像、すなわち、テンプレート画像と同等の撮像位置,撮像方向,サイズ(画角)で撮像された撮像画像を取得することが望ましい。このような課題は、手持ちの撮像装置(例えば、小型ビデオカメラ,スマートフォン,タブレットなど)で撮像される立体物の撮像画像を用いたマッチング処理で顕著となる。 As described above, depending on the imaging state, the deviation between the images can not be properly corrected, and the image matching accuracy is reduced. Therefore, when matching a captured image with a template image, a “good” captured image suitable for matching, that is, a captured image captured at an imaging position, an imaging direction, and a size (field angle) equivalent to the template image is acquired. Is desirable. Such a subject becomes remarkable in the matching process using the captured image of the solid object imaged with a hand-held imaging device (for example, small video camera, a smart phone, a tablet etc.).
一つの側面では、撮像画像の撮像精度を向上させることを目的とする。 In one aspect, it is an object to improve the imaging accuracy of a captured image.
一つの実施形態では、情報処理装置は、テンプレート画像に照合される撮像画像の撮像装置での撮像に際し、前記テンプレート画像の一部分を複数の位置で切り出した複数の部分画像を生成する生成部を備える。また、前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出する算出部を備える。また、前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定する推定部と、前記移動方向を表示装置に表示させる表示部とを備える。 In one embodiment, the information processing apparatus includes a generation unit configured to generate a plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image. . The image processing apparatus further includes a calculator configured to calculate, for each of the partial images, a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image. The image processing apparatus further includes: an estimation unit that estimates a moving direction of the imaging device that reduces the difference based on the difference for each partial image; and a display unit that causes the display device to display the moving direction.
一つの側面では、撮像画像の撮像精度を向上させることができる。 In one aspect, the imaging accuracy of a captured image can be improved.
[1.概要]
以下、図面を参照して、実施形態としての情報処理装置,撮影ガイド表示プログラム,撮影ガイド表示方法を説明する。これらの情報処理装置,表示プログラム,表示方法は、テンプレート画像30に照合される撮像画像40の撮像装置での撮像に際し、照合に適した「良い」撮像画像40を取得するための案内を実施する撮影ガイド機能を提供する。ここでいう撮像画像40には、例えばシャッターボタンの操作によって、一枚の独立した静止画像として撮影された画像だけでなく、表示装置12(画面上のビューファインダー枠)に表示されている画像も含まれる。つまり、一般的な意味合いでの撮影画像だけでなく、動画中の一コマに相当する撮影画像についても、撮像画像40と呼ぶ。
[1. Overview]
Hereinafter, an information processing apparatus, a photographing guide display program, and a photographing guide display method according to an embodiment will be described with reference to the drawings. The information processing apparatus, the display program, and the display method perform guidance for acquiring a “good” captured
また、ここでいう「良い」撮像画像40とは、撮像精度の高い撮像画像40を意味する。言い換えると、良い撮像画像40とは、撮像位置,撮像方向,サイズ(画角)が、照合対象となるテンプレート画像30に近い撮像画像40である。あるいは、撮像位置,撮像方向,サイズがテンプレート画像30と同等(より好ましくは、同一)の撮像画像40である。
Further, the “good” captured
図1は、生産現場において撮影者が手持ちのタブレット10(情報端末)を使用して対象製品15(例えば大型計算機14のシステムボード)を撮像し、その撮像画像40とテンプレート画像30とを照合することで画像検査するシステムの模式図である。画像検査では、対象製品15の組み立て状態の確認や変形,キズなどの不良の有無をチェックするために、タブレット10に内蔵された撮像装置11(カメラ)が使用される。また、撮像画像40とテンプレート画像30との照合結果は、タブレット10に内蔵された表示装置12に表示される。
In FIG. 1, a photographer captures a target product 15 (for example, a system board of a large computer 14) using a tablet 10 (information terminal) on hand at a production site, and collates the captured
図2は、上記の画像検査の流れを例示するフローチャートである。まず、撮影者がタブレット10を手に持ち、テンプレート画像30を参照しながら対象製品15の撮像位置を調整する(ステップA1)。このとき、撮像画像40がテンプレート画像30との照合に適した「良い」撮像画像40になるように、撮像位置,撮像方向,サイズなどを撮影者に案内する。本実施形態では、タブレット10を移動させるべき移動方向が撮影者に提示される。また、その時点における撮像画像40とテンプレート画像30とを照合するとともに、画像全体の一致度を算出して撮影者に案内する。これを受けて撮影者は、案内に沿って一致度が高くなるようにタブレット10の位置や角度を変更し、撮像画像40を撮像する(ステップA2)。
FIG. 2 is a flowchart illustrating the flow of the above-mentioned image inspection. First, the photographer holds the
撮像画像40には、アフィン変換やホモグラフィー変換などの幾何学的変換処理が施される(ステップA3)とともに、画像補正処理が施される(ステップA4)。幾何学的変換によって撮像画像40がよりテンプレート画像30に近い形状に変形し、被写体の画像間のずれが減少する。また、画像補正処理によって、撮像画像40の明度,色調,コントラスト,ヒストグラム,ノイズなどが補正され、テンプレート画像30に対する撮像画像40の照合精度が向上する。なお、幾何学的変換処理や画像補正処理の具体的な手法に関しては、公知の画像補正手法や画像変換手法を適用することができる。
Geometrical transformation processing such as affine transformation and homography transformation is applied to the captured image 40 (step A3) and image correction processing is applied (step A4). The geometrical transformation transforms the captured
また、テンプレート画像30と撮像画像40とを照合するマッチング処理が実施され、画像の一致度が計算される(ステップA5)。一致度を表す具体的な指標としては、テンプレート画像30及び撮像画像40の正規化相互相関(NCC,Normalized Cross Correlation)や零平均正規化相互相関(ZNCC,Zero means Normalized Cross Correlation)などの係数を用いることができる。その後、テンプレート画像30及び撮像画像40の一致度に基づいて対象製品15の良否が判定される。対象製品15の良否は、生産現場における管理者や撮影者によって判断される。なお、テンプレート画像30及び撮像画像40の一致度に応じて、自動的に対象製品15の良否が判定されるような制御構成としてもよい。
Further, a matching process of matching the
[2.ハードウェア構成]
図3は、タブレット10のハードウェア構成を例示するブロック図である。タブレット10には、撮像装置11,表示装置12,タッチパネル13,情報処理装置20(コンピューター)が内蔵される。撮像装置11は、タブレット10の背面に取り付けられたディジタルカメラであり、CCD(Charge-Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサ,レンズ,フィルターなどを含む。撮像装置11で撮像された映像や撮影された画像(撮像画像40)の情報は情報処理装置20に伝達される。
[2. Hardware configuration]
FIG. 3 is a block diagram illustrating the hardware configuration of the
表示装置12は、タブレット10の表面に取り付けられた出力デバイスの一つであり、例えば液晶ディスプレイ(Liquid Crystal Display,LCD)や有機ELディスプレイ(Organic Electro-Luminescence Display,OELD)である。表示装置12には、テンプレート画像30のほか、シャッターボタンの操作状態に関わらず撮像装置11の撮影範囲の映像が随時表示される。つまり、表示装置12は、撮像装置11のビューファインダーとしても機能する。また、タッチパネル13は、表示装置12の表面に重畳状態で取り付けられた入力デバイスの一つである。タブレット10に物理キーが設けられている場合には、その物理キーをタッチパネル13の代わりに用いてもよい。タッチパネル13は、撮像に関する情報の選択や入力に利用される。
The
情報処理装置20には、プロセッサ21(中央処理装置),メモリ22(メインメモリ,主記憶装置),補助記憶装置23,インタフェース装置24,記録媒体ドライブ25などが内蔵され、内部バス26を介して互いに通信可能に接続される。プロセッサ21は、制御ユニット(制御回路)や演算ユニット(演算回路),キャッシュメモリ(レジスタ群)などを内蔵する中央処理装置である。また、メモリ22は、プログラムや作業中のデータが格納される記憶装置であり、例えばROM(Read Only Memory),RAM(Random Access Memory)がこれに含まれる。補助記憶装置23は、メモリ22よりも長期的に保持されるデータやファームウェアが格納されるメモリ装置であり、例えばフラッシュメモリやEEPROMなどの不揮発性メモリがこれに含まれる。
The information processing device 20 includes a processor 21 (central processing unit), a memory 22 (main memory, main storage device), an
インタフェース装置24は、情報処理装置20と外部との間の入出力(Input and Output;I/O)を司るものである。情報処理装置20は、インタフェース装置24を介して、撮像装置11,表示装置12,タッチパネル13などに接続される。また、記録媒体ドライブ25は、光ディスクや半導体メモリ(Universal Serial Bus規格に準拠したポータブルフラッシュドライブ)などの記録媒体27(リムーバブルメディア)に記録,保存された情報を読み取る機能を持った読取装置(または読取・書込装置)である。情報処理装置20で実行されるプログラムは、メモリ22内に記録,保存してもよいし、補助記憶装置23や記録媒体27に記録,保存してもよい。
The
[3.ソフトウェア構成]
図4は、情報処理装置20で実行される撮影ガイド表示プログラム1の機能的構成を示すブロック図である。撮影ガイド表示プログラム1には、生成部2,照合部3,算出部4,推定部5,表示部6が設けられる。図4中の各要素は、撮影ガイド表示プログラム1の機能を便宜的に分類して示したものであり、個々の要素を独立したプログラムとして記述してもよいし、これらの機能を兼ね備えた複合プログラムとして記述してもよい。
[3. Software configuration]
FIG. 4 is a block diagram showing a functional configuration of the photographing
撮影ガイド表示プログラム1は、メモリ22内や補助記憶装置23の内部に記録,保存される。あるいは、記録媒体27上に撮影ガイド表示プログラム1が記録,保存され、その記録媒体27に書き込まれている撮影ガイド表示プログラム1が記録媒体ドライブ25を介して情報処理装置20に読み込まれて実行される。撮影ガイド表示プログラム1は、少なくともテンプレート画像30に照合される撮像画像40を撮影者がタブレット10で撮影する際に実施される。本実施形態の撮影ガイド表示プログラム1は、図2中のステップA1で実行される。
The photographing
生成部2は、テンプレート画像30に照合される撮像画像40の撮像に際し、テンプレート画像30の一部分を複数の位置で切り出した複数の部分画像を生成するものである。生成部2は、少なくとも二つ以上の部分画像を生成し、好ましくは三つ以上の部分画像を生成する。例えば、第一画像,第二画像,第三画像を生成し、第二画像は上下方向の位置が第一画像とは異なるものとし、第三画像は左右方向の位置が第一画像とは異なるものとする。つまり、上下方向の位置が異なる部分画像のペア(第一画像,第二画像)と、左右方向の位置が異なる部分画像のペア(第一画像,第三画像)とを生成する。
The
対象製品15のテンプレート画像30を図5(A)に例示する。本実施形態の生成部2は、テンプレート画像30の中心位置よりも上位置,下位置,右位置,左位置の四箇所に対応する部分画像を生成する。図5(B)中に破線の囲み枠で示す箇所の記号u,d,l,rはそれぞれ、上位置,下位置,左位置,右位置を表す。なお、上位置uの画像を第一画像とすれば、第二画像に相当するのは下位置d,左位置l,右位置rの画像であり、第三画像に相当するのは左位置l,右位置rの画像である。
The
また、本実施形態の生成部2は、四箇所の部分画像のそれぞれを拡大変形させたものと縮小変形させたものとを生成する。例えば、図5(C)に示すように、テンプレート画像30の上位置uから切り出した上部分画像Nuを基準サイズとして、これを拡大(例えば+10%)した上拡大部分画像Buと、縮小(例えば-10%)した上縮小部分画像Suとを生成する。下位置d,左位置l,右位置rについても同様に、それぞれの部分画像を拡縮方向に変形させたものを生成する〔図5(D)〜(F)参照〕。このように、本実施形態の生成部2は、一つのテンプレート画像30から合計で十二枚の部分画像を生成する。
In addition, the
照合部3は、生成部2で生成されたそれぞれの部分画像について、撮像画像40への一致度を算出するものである。ここで、撮像画像40を図6(A)に例示し、テンプレート画像30の上位置u,下位置d,左位置l,右位置rの四箇所に対応する位置を図6(B)中に破線の囲み枠で示す。本実施形態の照合部3は、十二枚の部分画像のそれぞれについて、撮像画像40の対応箇所に対する一致度を算出する。
The
例えば、上部分画像Nu,上拡大部分画像Bu,上縮小部分画像Suについては、図6(B)中の上位置Zuに対する一致度を算出する。同様に、下位置uに対応する三つの部分画像は、図6(B)中の下位置Zdに対する一致度を算出する。ここで算出される一致度は、前述のステップA5で計算される一致度と同様の手法を用いて算出することができる。一致度の指標として正規化相互相関を用いる場合には、以下の式1に従って正規化相互相関係数RNCCを算出すればよい。ここで算出される正規化相互相関係数RNCCの値域は-1≦RNCC≦1であり、正規化相互相関係数RNCCが1に近いほど(RNCCの値が大きいほど)、一致度が高いものと評価することができる。
For example, for the upper partial image Nu, the upper enlarged partial image Bu, and the upper reduced partial image Su, the coincidence with the upper position Zu in FIG. 6B is calculated. Similarly, the three partial images corresponding to the lower position u calculate the coincidence with the lower position Zd in FIG. 6 (B). The degree of coincidence calculated here can be calculated using the same method as the degree of coincidence calculated in step A5 described above. When the normalized cross correlation is used as an index of the degree of coincidence, the normalized cross correlation coefficient R NCC may be calculated according to the
また、零平均正規化相互相関を用いる場合には、以下の式2に従って正規化相互相関係数RZNCCを算出すればよい。正規化相互相関係数RZNCCの値域は-1≦RZNCC≦1であり、正規化相互相関係数RZNCCが1に近いほど(RZNCCの値が大きいほど)、一致度が高いものと評価することができる。
Further, in the case of using the zero mean normalized cross correlation, the normalized cross correlation coefficient R ZNCC may be calculated according to the following
算出部4は、撮像画像40に含まれる被写体のサイズがテンプレート画像と比較してどのように異なっているのか(すなわち、大きいのか小さいのか、それとも丁度よいのか)を算出するものである。ここでは、撮像画像40のうち各部分画像に対応する部位に含まれる被写体の大きさとこれ対応する部分画像に含まれる被写体の大きさとの差(サイズ差)が、部分画像ごとに算出される。ここでいう「差」は、部分画像を拡縮方向に変形させたときに照合部3で算出される一致度の変化に基づいて算出することができる。
The
例えば、上部分画像Nuを拡大変形させたときに撮像画像40の上位置Zuに対する一致度が上昇した場合には、上位置Zuに含まれる被写体のサイズが大きめであるがゆえに、タブレット10の上側からその被写体までの距離がやや近いと判断できる。逆に、上部分画像Nuを縮小変形させたときに撮像画像40の上位置Zuに対する一致度が上昇した場合には、上位置Zuに含まれる被写体のサイズが小さめであるがゆえに、タブレット10の上側からその被写体までの距離がやや遠いと判断できる。このような判断を撮像画像40の四箇所(Zu,Zd,Zl,Zr)について繰り返すことで、タブレット10の位置や傾きのずれが精度よく把握される。
For example, when the degree of coincidence with the upper position Zu of the captured
なお、部分画像を拡縮方向に変形させながら一致度を観察するには相当の演算能力が求められることから、あらかじめ用意された拡大部分画像や縮小部分画像を利用して一致度の変化を観察してもよい。例えば、図5(C)〜(F)に示すような部分画像,拡大部分画像,縮小部分画像のそれぞれの一致度を比較する。最も一致度の高いものが部分画像である場合、撮像装置11からその部分画像に含まれる被写体までの距離が適正であると判断する。一方、最も一致度の高いものが拡大部分画像である場合には、距離が近いものと判断し、最も一致度の高いものが縮小部分画像である場合には、距離が遠いものと判断する。
In order to observe the matching level while deforming the partial image in the enlargement / reduction direction, considerable computing power is required, so changes in the matching level are observed using the enlarged partial image and the reduced partial image prepared in advance. May be For example, the matching degree of each of the partial image, the enlarged partial image, and the reduced partial image as shown in FIGS. 5C to 5F is compared. If the partial image is the one with the highest degree of coincidence, it is determined that the distance from the
本実施形態の算出部4は、生成部2で生成された十二枚の部分画像の一致度に基づいて、被写体の大きさとの差を算出する。例えば、上下方向の大きさの差に関して、テンプレート画像30の上位置uから生成された三つの部分画像Bu,Nu,Suのうち、最も一致度の高いものを選択する。また、下位置dから生成された三つの部分画像Bd,Nd,Sdのうち、最も一致度の高いものを選択する。ここで、最も一致度の高い組み合わせが以下の場合には、上下方向の大きさの差が0である(タブレット10から被写体までの距離が上下方向に均一である)と判断する。
・最も一致度の高い組み合わせがNuとNdである場合
・最も一致度の高い組み合わせがBuとBdである場合
・最も一致度の高い組み合わせがSuとSdである場合
The calculating
・ When the combination with the highest degree of coincidence is Nu and Nd ・ When the combination with the highest degree of coincidence is Bu and Bd ・ When the combination with the highest degree of coincidence is Su and Sd
一方、最も一致度の高い組み合わせが以下の場合には、撮像画像40の上側で被写体のサイズが大きく、下側で被写体のサイズが小さい(タブレット10の下側が被写体から遠ざかるように傾いている)と判断する。
・最も一致度の高い組み合わせがBuとNdである場合
・最も一致度の高い組み合わせがBuとSdである場合
・最も一致度の高い組み合わせがNuとSdである場合
On the other hand, when the combination with the highest degree of matching is the following, the size of the subject is large on the upper side of the captured
-When the combination with the highest degree of coincidence is Bu and Nd-When the combination with the highest degree of coincidence is Bu and Sd-When the combination with the highest degree of coincidence is Nu and Sd
上記の何れにも該当しない場合には、撮像画像40の上側で被写体のサイズが小さく、下側で被写体のサイズが大きい(タブレット10の上側が被写体から遠ざかるように傾いている)と判断する。上記の何れにも該当しない組み合わせは以下の通りである。
・最も一致度の高い組み合わせがNuとBdである場合
・最も一致度の高い組み合わせがSuとBdである場合
・最も一致度の高い組み合わせがSuとNdである場合
If none of the above applies, it is determined that the size of the subject is small on the upper side of the captured
・ When the combination with the highest degree of match is Nu and Bd ・ When the combination with the highest degree of match is Su and Bd ・ When the combination with the highest degree of match is Su and Nd
左右方向の大きさの差に関しても同様である。左右方向の大きさの差が0である(タブレット10から被写体までの距離が左右方向に均一である)と判断するための条件は以下の通りである。
・最も一致度の高い組み合わせがNlとNrである場合
・最も一致度の高い組み合わせがBlとBrである場合
・最も一致度の高い組み合わせがSlとSrである場合
The same applies to the difference in size in the left and right direction. The conditions for determining that the difference in size in the left-right direction is 0 (the distance from the
・ When the combination with the highest degree of coincidence is Nl and Nr ・ When the combination with the highest degree of coincidence is Bl and Br ・ When the combination with the highest degree of coincidence is Sl and Sr
一方、撮像画像40の左側で被写体のサイズが大きく、右側で被写体のサイズが小さい(タブレット10の右側が被写体から遠ざかるように傾いている)と判断するための条件は以下の通りである。
・最も一致度の高い組み合わせがBlとNrである場合
・最も一致度の高い組み合わせがBlとSrである場合
・最も一致度の高い組み合わせがNlとSrである場合
On the other hand, conditions for determining that the size of the subject is large on the left side of the captured
・ When the combination with the highest degree of coincidence is Bl and Nr ・ When the combination with the highest degree of coincidence is Bl and Sr ・ When the combination with the highest degree of coincidence is Nl and Sr
上記の何れにも該当しない場合には、撮像画像40の左側で被写体のサイズが小さく、右側で被写体のサイズが大きい(タブレット10の左側が被写体から遠ざかるように傾いている)と判断する。上記の何れにも該当しない組み合わせは以下の通りである。
・最も一致度の高い組み合わせがNlとBrである場合
・最も一致度の高い組み合わせがSlとBrである場合
・最も一致度の高い組み合わせがSlとNrである場合
If none of the above applies, it is determined that the size of the subject is small on the left side of the captured
・ When the combination with the highest degree of agreement is Nl and Br ・ When the combination with the highest degree of agreement is Sl and Br ・ When the combination with the highest degree of agreement is Sl and Nr
また、算出部4は、テンプレート画像30に対する撮像画像40の全体的な一致度である「全体の一致度」を算出する。全体の一致度の指標として正規化相互相関を用いる場合、上述の式1や式2に従って正規化相互相関係数RNCC,RZNCCなどを算出してもよい。本実施形態の算出部4は、上位置Zu,下位置Zd,左位置Zl,右位置Zrのそれぞれで最も高い一致度に基づき、撮像画像40の全体の一致度を算出する。全体の一致度は、例えば四箇所の一致度の合計値や平均値などから算出することができる。ここで算出された全体の一致度は、表示部6によって表示装置12に随時表示される。
In addition, the
推定部5は、算出部4で算出された部分画像ごとの差に基づき、その差を減少させるためのタブレット10の移動方向を推定するものである。ここでは、撮像位置や角度を変化させたときに、被写体までの距離が遠いと判断されていた部位が被写体に近づく方向が「タブレット10の移動方向」であると推定される。例えば、タブレット10の上側が被写体から遠いと判断されているときには、タブレット10を上側に移動させる(あるいは、タブレット10の上側が被写体に近づくように傾斜させる)ことで、被写体までの距離が均一となりうる。したがって、タブレット10の移動方向は「上方向」であると推定される。
The
本実施形態の推定部5は、算出部4での判断に基づき、撮像画像40の上下方向についての移動方向と左右方向についての移動方向とを推定する。例えば、タブレット10の上側が被写体から遠ざかるように傾いていると判断されている場合には、移動方向は「上方向」であると推定される。同様に、タブレット10の左側が被写体から遠ざかるように傾いていると判断されている場合には、移動方向は「左方向」であると推定される。
The
表示部6は、推定部5で推定された移動方向を表示装置12に表示させるものである。ここでは、撮像画像40と、撮像装置11(タブレット10)の移動方向を表す形状や配置,色を持つマーク50と、全体の一致度を表す一致度情報51とが表示装置12に表示される。表示装置12の表示画面例を、図7に示す。この例では、画面中の左側にテンプレート画像30が表示され、右側に撮像画像40が表示されている。テンプレート画像30の上には、照合位置を表す囲み枠が重畳表示される。
The
撮像画像40の上には、テンプレート画像30に対する被写体のサイズ差に応じた大きさの囲み枠が重畳表示される。また、撮像画像40の右側にはくさび形(細長い三角形状)のイメージバーが表示される。このイメージバーの向きは、撮像画像40の上下方向についての移動方向(図7では上方向)を指し示す向きとされる。推定部5で推定された移動方向が「下方向」である場合には、先端を下方向に向けたイメージバーが表示される。同様に、撮像画像40の下側にもイメージバーが表示される。このイメージバーの向きは、撮像画像40の左右方向についての移動方向(図7では左方向)を指し示す向きとされる。なお、イメージバーの太さと被写体までの距離とを対応させて表示してもよい。
On the captured
[4.フローチャート]
図8は、撮影ガイド表示プログラム1による撮影ガイド表示方法の手順を例示するフローチャートである。まず、テンプレート画像30の一部分を複数箇所で切り出した複数の部分画像を生成するとともに(ステップB1)、それぞれの部分画像を基準サイズとした拡大部分画像,縮小部分画像を生成する(ステップB2)。ここまでの工程は、画像検査が開始される前に実施しておくことができる。
[4. flowchart]
FIG. 8 is a flowchart illustrating the procedure of the photographing guide display method by the photographing
続いて、拡大部分画像,縮小部分画像を含むすべての部分画像について、撮像画像40の対応箇所に対する一致度を算出する(ステップB3)。また、ステップB1で部分画像が切り出された個々の位置について、部分画像,拡大部分画像,縮小部分画像のうち最も一致度の高いものが選択される(ステップB4)。これにより、ステップB1で部分画像が切り出された個々の位置における被写体のサイズ差が把握されることになる。その後、個々の位置における被写体のサイズ差に基づき、そのサイズ差を減少させるためのタブレット10の移動方向が推定され(ステップB5)、その移動方向を表すマーク50が表示装置12に表示される(ステップB6)。
Subsequently, for all partial images including the enlarged partial image and the reduced partial image, the coincidence with the corresponding part of the captured
図9は、ステップB5で推定される移動方向のうち、撮像画像40の上下方向についての移動方向を推定する手順を例示するフローチャートである。まず、上位置uから生成された三つの部分画像Bu,Nu,Suのうち、最も一致度の高いものが選択される(ステップC1)。同様に、下位置dから生成された三つの部分画像Bd,Nd,Sdのうち、最も一致度の高いものが選択される(ステップC2)。ステップC1で選択された部分画像とステップC2で選択された部分画像との組み合わせは9通りである。
FIG. 9 is a flowchart illustrating a procedure for estimating the moving direction of the captured
ここで、最も一致度の高い組み合わせが「NuとNd」か「BuとBd」か「SuとSd」である場合には(ステップC3)、タブレット10から被写体までの距離が上下方向に均一であると判断され、上下方向の太さが一定のイメージバーが表示装置12に表示される(ステップC5)。一方、最も一致度の高い組み合わせが「BuとNd」か「BuとSd」か「NuとSd」である場合には(ステップC4)、タブレット10の下側が被写体から遠ざかるように傾いていると判断され、先端を下方向に向けたイメージバー(上端が太く下端が細いイメージバー)が表示装置12に表示される(ステップC6)。また、ステップC3,C4の条件が不成立の場合には、タブレット10の上側が被写体から遠ざかるように傾いていると判断され、先端を上方向に向けたイメージバー(下端が太く上端が細いイメージバー)が表示装置12に表示される(ステップC7)。
Here, when the combination with the highest degree of coincidence is “Nu and Nd” or “Bu and Bd” or “Su and Sd” (step C3), the distance from the
撮像画像40の左右方向についての移動方向に関しても、同様の手順でイメージバーの表示内容が制御される。タブレット10を手に持った撮影者は、イメージバーを見ながらタブレット10の位置や向きを調節し、イメージバーの太さが一定になるまで調節を続ける。その結果、図10に示すように、上下方向に延在するイメージバーと左右方向に延在するイメージバーとの双方が一定の太さとなる。このときの撮像位置,撮像方向,サイズは、テンプレート画像30と同等となる。したがって、シャッターボタンを操作して静止画像を撮影することで、撮像精度の高い撮像画像40を得ることができる。
The display contents of the image bar are also controlled in the same procedure with respect to the moving direction of the captured
[5.作用,効果]
(1)上述の実施形態では、部分画像ごとの被写体の大きさの差を減少させる撮像装置11(タブレット10)の移動方向が表示装置12に表示される。これにより、被写体に対する撮像装置11の撮像位置,撮像方向,サイズ(画角)のずれを撮影者が修正しやすくすることができる。つまり、テンプレート画像30との照合に適した良い撮像画像40を撮影しやすくすることができ、撮像画像40の撮像精度を向上させることができる。したがって、画像検査の検査精度,判定精度,信頼性を向上させることができる。また、撮像装置11の移動方向が表示装置12に随時表示されることから、良い撮像画像40を撮影する作業が容易となり、作業効率を改善することができる。
[5. Action, effect]
(1) In the above-described embodiment, the moving direction of the imaging device 11 (tablet 10) for reducing the difference in the size of the subject for each partial image is displayed on the
(2)上述の実施形態では、テンプレート画像30からの部分画像の切り出しに際し、上下方向の位置が異なるペアと左右方向の位置が異なるペアとが含まれるように切り出し位置が設定される。前者のペアは、上下方向で被写体の大きさがどのように変化しているのかを把握するのに使用され、後者のペアは、左右方向で被写体の大きさがどのように変化しているのかを把握するのに使用される。したがって、被写体に対する撮像画像40の全体的な傾きや位置ずれを精度よく把握することができ、撮像画像40の撮像精度をさらに向上させることができる。
(2) In the above embodiment, when the partial image is cut out from the
(3)上述の実施形態では、生成部2で生成されたそれぞれの部分画像について、撮像画像40への一致度が照合部3で算出される。例えば、ある部分画像の一致度が高ければ、その部分画像が切り出された位置での被写体の大きさは、テンプレート画像30との関係で適正である(差が0である)とみなすことができる。一方、ある部分画像の一致度が低ければ、その位置には被写体の大きさの差がある(差が大きい)とみなすことができる。このように、一致度を指標として被写体の大きさの差を評価することができ、撮像画像40の撮像精度をさらに向上させることができる。
(3) In the above-described embodiment, the
(4)式1,式2に示すように、テンプレート画像30の部分画像と撮像画像40との正規化相互相関係数RNCC,RZNCCを一致度の指標として用いた場合には、テンプレート画像30や撮像画像40の明るさの変動に対するロバスト性の高い一致度を算出することができる。例えば、タブレット10に内蔵された補助ライトの使用状態に関わらず、安定した一致度を算出することができる。したがって、撮像画像40の撮像精度をさらに向上させることができる。
(4) As shown in
(5)また、部分画像を拡縮方向に変形させたときの一致度の変化を追跡することで、被写体の大きさの差を精度よく算出することができる。例えば、部分画像を拡大変形させたときに一致度が上昇したならば、拡大する前の部分画像に含まれる被写体が小さく、拡大後の部分画像に含まれる被写体のサイズが適正であると判断できる。反対に、部分画像を縮小変形させたときに一致度が上昇したならば、縮小する前の部分画像に含まれる被写体が大きく、縮小後の部分画像に含まれる被写体のサイズが適正であると判断できる。したがって、被写体の大きさの差を精度よく把握することができ、ひいては撮像画像40の撮像精度をさらに向上させることができる。
(5) Further, by tracking the change in the degree of coincidence when the partial image is deformed in the enlargement / reduction direction, it is possible to accurately calculate the difference in the size of the subject. For example, if the degree of coincidence increases when the partial image is enlarged and deformed, it is possible to determine that the subject included in the partial image before enlargement is small and the size of the subject included in the partial image after enlargement is appropriate. . Conversely, if the degree of coincidence increases when the partial image is reduced and deformed, it is determined that the subject included in the partial image before reduction is large and the size of the subject included in the reduced partial image is appropriate. it can. Therefore, the difference in the size of the subject can be accurately grasped, and the imaging accuracy of the captured
(6)上述の実施形態では、図5(A)〜(F)に示すように、四箇所の部分画像のそれぞれを拡大変形させた拡大部分画像と、縮小変形させた縮小部分画像とが作成される。それぞれの部分画像の一致度を比較することで、撮像装置11から被写体までの距離を精度よく評価することができ、被写体の大きさの差を精度よく把握することができる。したがって、撮像画像40の撮像精度をさらに向上させることができる。
(6) In the above embodiment, as shown in FIGS. 5A to 5F, enlarged partial images obtained by enlarging and deforming each of the four partial images and reduced partial images obtained by reducing and generating the partial images are created. Be done. By comparing the matching degree of each partial image, the distance from the
(7)上述の実施形態では、図7に示すように、撮像画像40とテンプレート画像30との全体的な一致度を表す一致度情報51が表示装置12に表示される。これにより、撮影者が撮像位置,撮像方向,サイズなどの変更の要否を容易に把握することができ、適正な位置,角度への撮像装置11の移動を促すことができる。したがって、撮像画像40の撮像精度をさらに向上させることができる。
(7) In the above-described embodiment, as shown in FIG. 7, the
(8)上述の実施形態では、撮像装置11(タブレット10)の移動方向を表すマーク50が表示装置12に表示される。これにより撮影者は、撮像装置11(タブレット10)を移動させるべき方向を直感的に把握することができ、良い撮像画像40が期待できる方向へと容易に撮像装置11を移動させることができる。したがって、撮像画像40の撮像精度をさらに向上させることができる。
(8) In the embodiment described above, the
[5.変形例]
本実施形態はあくまでも例示に過ぎず、上記の実施形態で明示しない種々の変形や技術の適用を排除する意図はない。すなわち、上記の実施形態をその趣旨を逸脱しない範囲で種々変形して(例えば、実施形態や変形例を組み合わせることによって)実施することが可能である。
[5. Modified example]
The present embodiment is merely an example, and there is no intention to exclude the application of various modifications and techniques not explicitly stated in the above embodiment. That is, it is possible to variously deform and implement the above-mentioned embodiment (for example, by combining an embodiment and a modification) in the range which does not deviate from the meaning.
例えば、上述の実施形態では、テンプレート画像30の中心位置よりも上位置u,下位置d,左位置l,右位置rの四箇所に対応する部分画像が生成されているが、部分画像の生成数や生成位置はこれに限定されない。少なくとも複数(二以上)の部分画像を生成することで、その部分画像に対応する部位に含まれる被写体の大きさを評価することができ、上述の実施形態と同様の効果を奏するものとなる。
For example, in the above-described embodiment, partial images corresponding to four positions of the upper position u, lower position d, left position l, and right position r than the center position of the
上述の実施形態では、くさび形のイメージバーの向きで撮像装置11(タブレット10)の移動方向を表現しているが、撮影者に移動を促すための具体的なマーク50の形状,配置,色などはこれに限定されない。例えば、図11に示すように、撮像画像40の中央に破線円53を表示する。また、破線円53よりも直径が小さな円52を被写体の大きさの差に応じて決定される位置に表示する。さらに、上述の実施形態におけるタブレット10の移動方向を一本の矢印で表現し、矢印の起点を破線円53の中心に配置して、矢印の先端に円52を配置する。
In the above embodiment, the moving direction of the imaging device 11 (tablet 10) is expressed by the orientation of the wedge-shaped image bar, but the shape, arrangement, and color of
つまり、円52の位置は、撮像画像40上において、その時点での被写体までの距離が遠い側に向かって偏った位置に設定する。このようなマーク50を用いることで、破線円53の中心と円52の中心とが合致するようにタブレット10を移動させて、撮像位置,撮像方向,サイズなどを容易に適正化することができる。また、タブレット10を傾斜させる方向が直感的に把握されるため、作業効率をさらに改善することができる。
That is, the position of the
図12に示すように、色や表示濃度の異なるガイドバー54を撮像画像40の周囲に配置してもよい。ガイドバー54は、撮像画像40の上端辺,下端辺,右端辺,左端辺のそれぞれに(すなわち、合計で四本のガイドバー54を)表示する。また、それぞれのガイドバー54の濃度(色)は、上位置u,下位置d,左位置l,右位置rの四箇所に対応する四つの部分画像についての一致度に応じて設定する。
As shown in FIG. 12, guide bars 54 having different colors and display densities may be arranged around the captured
ガイドバー54の濃度を設定するためのフローチャートを図13に例示する。このフローチャートは、それぞれのガイドバー54に対して独立して実行される。また、ガイドバー54の濃度の設定において参照される一致度は、そのガイドバー54の位置に対応する一つの部分画像の一致度とする。例えば、撮像画像40の上端辺のガイドバー54の濃度は、上位置uの部分画像の一致度に基づいて制御される。
A flowchart for setting the density of the
まず、上位置uの部分画像の一致度が算出され(ステップD1)、一致度が80%を超えるか否かが判定される(ステップD2)。この条件が成立する場合、上端辺のガイドバー54の濃度は最も薄い濃度(距離が適正距離であることを示す)に設定される(ステップD4)。一方、この条件が不成立の場合には、一致度が50%を超えるか否かが判定される(ステップD3)。この条件が成立する場合には、やや濃い濃度(距離が適正距離と少し違うことを示す)が設定される(ステップD5)。また、この条件が不成立であれば、一致度が50%未満であることになるため、最も濃い濃度(距離が適正距離とかなり違うことを示す)が設定される(ステップD6)。
First, the degree of coincidence of the partial image at the upper position u is calculated (step D1), and it is determined whether the degree of coincidence exceeds 80% (step D2). If this condition is satisfied, the density of the
このように、一致度に応じた濃度でガイドバー54を表示することで、撮影者はガイドバー54が全体的に薄い濃度となるようにタブレット10の位置や向きを調節することができ、テンプレート画像30と同等の撮像位置,撮像方向,サイズを模索することができる。また、全てのガイドバー54が薄い濃度となった状態でシャッターボタンを操作して静止画像を撮影することで、撮像精度の高い撮像画像40を得ることができる。
As described above, by displaying the
なお、図12に示す例では、被写体までの距離と適正距離との大小関係が表示装置12に表示されない。そこで、撮像画像40に半透明の部分画像を重畳表示してもよい。最もシンプルな重畳表示手法は、上述の実施形態における上部分画像Nu,下部分画像Nd,左部分画像Nl,右部分画像Nrを半透明化し、撮像画像40に重ねて表示することである。この場合、タブレット10の位置や向きを調整するための目安となる画像を撮影者に提供することができ、作業効率をさらに改善することができる。
In the example shown in FIG. 12, the magnitude relationship between the distance to the subject and the appropriate distance is not displayed on the
また、図14に示すように、上位置u,下位置d,左位置l,右位置rの四箇所に対応する位置を破線の囲み枠で表示するとともに、それぞれの位置で最も一致度の高い部分画像(部分画像,拡大部分画像,縮小部分画像のいずれか)を半透明化し、撮像画像40に重ねて表示してもよい。この場合、撮影者は撮像画像40の囲み枠内が半透明の部分画像に一致するようにタブレット10の位置や向きを調整すればよく、作業効率をさらに改善することができる。
Further, as shown in FIG. 14, the positions corresponding to the four positions of the upper position u, the lower position d, the left position l, and the right position r are displayed by a dashed box, and the highest matching rate is obtained at each position. The partial image (one of the partial image, the enlarged partial image, and the reduced partial image) may be translucent and displayed so as to be superimposed on the captured
[6.付記]
上記の変形例を含む実施形態に関し、以下の付記を開示する。
(付記1〜8:情報処理装置)
(付記1)
テンプレート画像に照合される撮像画像の撮像装置での撮像に際し、前記テンプレート画像の一部分を複数の位置で切り出した複数の部分画像を生成する生成部と、
前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出する算出部と、
前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定する推定部と、
前記移動方向を表示装置に表示させる表示部と、
を備えることを特徴とする、情報処理装置。
[6. Appendix]
The following appendices will be disclosed regarding the embodiment including the above-described modified example.
(
(Supplementary Note 1)
A generation unit configured to generate a plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image;
A calculator configured to calculate, for each of the partial images, a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image;
An estimation unit configured to estimate a moving direction of the imaging device to reduce the difference based on the difference for each partial image;
A display unit for displaying the moving direction on a display device;
An information processing apparatus comprising:
(付記2)
前記生成部が、第一画像と、上下方向の位置が前記第一画像とは異なる第二画像と、左右方向の位置が前記第一画像とは異なる第三画像と、を含む前記複数の部分画像を生成する
ことを特徴とする、付記1記載の情報処理装置。
(Supplementary Note 2)
The plurality of portions including the first image, the second image whose vertical position is different from the first image, and the third image whose horizontal position is different from the first image. The information processing apparatus according to
(付記3)
それぞれの前記部分画像についての前記撮像画像への一致度を算出する照合部を備える
ことを特徴とする、付記1または2記載の情報処理装置。
(Supplementary Note 3)
The information processing apparatus according to any one of
(付記4)
前記照合部が、前記一致度に相当する前記部分画像及び前記撮像画像の正規化相互相関を算出する
ことを特徴とする、付記3記載の情報処理装置。
(Supplementary Note 4)
The information processing apparatus according to
(付記5)
前記算出部が、前記部分画像を拡縮方向に変形させたときに前記照合部で算出される前記一致度の変化に基づき、前記差を算出する
ことを特徴とする、付記3または4のいずれか1項に記載の情報処理装置。
(Supplementary Note 5)
The above-mentioned difference is characterized by calculating the above-mentioned difference based on change of the above-mentioned degree of coincidence computed by the above-mentioned collation part, when the above-mentioned calculation part is made to deform the above-mentioned partial image in the expansion and contraction direction. An information processing apparatus according to
(付記6)
前記生成部が、それぞれの前記部分画像について、当該部分画像を拡大変形させた拡大部分画像と、当該部分画像を縮小変形させた縮小部分画像とを生成し、
前記照合部が、前記部分画像,前記拡大部分画像,前記縮小部分画像のそれぞれの前記一致度を算出し、
前記算出部が、前記部分画像,前記拡大部分画像,前記縮小部分画像のうち、
最も前記一致度の高いものが前記部分画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が適正であると判断し、
最も前記一致度の高いものが前記拡大部分画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が近いものと判断し、
最も前記一致度の高いものが前記縮小画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が遠いものと判断する
ことを特徴とする、付記3〜5のいずれか1項に記載の情報処理装置。
(Supplementary Note 6)
The generation unit generates, for each of the partial images, an enlarged partial image obtained by enlarging and deforming the partial image and a reduced partial image obtained by reducing and deforming the partial image;
The matching unit calculates the matching degree of each of the partial image, the enlarged partial image, and the reduced partial image;
Among the partial image, the enlarged partial image, and the reduced partial image, the calculation unit
When the partial image is the one with the highest degree of coincidence, it is determined that the distance from the imaging device to the subject included in the partial image is appropriate;
When the one with the highest degree of coincidence is the enlarged partial image, it is determined that the distance from the imaging device to the subject included in the partial image is short.
The system according to any one of
(付記7)
前記表示部が、それぞれの前記部分画像についての一致度に基づいて算出される、前記撮像画像と前記テンプレート画像との全体の一致度を前記表示装置に表示させる
ことを特徴とする、付記3〜6のいずれか1項に記載の情報処理装置。
(Appendix 7)
(付記8)
前記表示部が、前記移動方向を表す形状または配置または色を持つマークと前記撮像画像とを前記表示装置に表示させる
ことを特徴とする、付記1〜7のいずれか1項に記載の情報処理装置。
(Supplementary Note 8)
The information processing according to any one of
(付記9〜16:撮影ガイド表示プログラム)
(付記9)
テンプレート画像に照合される撮像画像の撮像装置での撮像に際し、前記テンプレート画像の一部分を複数の位置で切り出した複数の部分画像を生成し、
前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出し、
前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定し、
前記移動方向を表示装置に表示させる
処理をコンピュータに実行させる、撮影ガイド表示プログラム。
(Appendix 9 to 16: Shooting guide display program)
(Appendix 9)
A plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image;
Calculating a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image for each of the partial images;
Estimating the moving direction of the imaging device to reduce the difference based on the difference for each partial image;
The imaging | photography guide display program which makes a computer perform the process which displays the said moving direction on a display apparatus.
(付記10)
第一画像と、上下方向の位置が前記第一画像とは異なる第二画像と、左右方向の位置が前記第一画像とは異なる第三画像と、を含む前記複数の部分画像を生成する
処理をコンピュータに実行させる、付記9記載の撮影ガイド表示プログラム。
(Supplementary Note 10)
A process of generating the plurality of partial images including a first image, a second image whose position in the vertical direction is different from the first image, and a third image whose position in the horizontal direction is different from the first image The imaging guide display program according to appendix 9, causing the computer to execute.
(付記11)
それぞれの前記部分画像についての前記撮像画像への一致度を算出する
処理をコンピュータに実行させる、付記9または10記載の撮影ガイド表示プログラム。
(Supplementary Note 11)
The imaging guide display program according to
(付記12)
前記一致度に相当する前記部分画像及び前記撮像画像の正規化相互相関を算出する
処理をコンピュータに実行させる、付記11記載の撮影ガイド表示プログラム。
(Supplementary Note 12)
The imaging guide display program according to
(付記13)
前記部分画像を拡縮方向に変形させたときに前記照合部で算出される前記一致度の変化に基づき、前記差を算出する
処理をコンピュータに実行させる、付記11または12のいずれか1項に記載の撮影ガイド表示プログラム。
(Supplementary Note 13)
The computer according to any one of
(付記14)
それぞれの前記部分画像について、当該部分画像を拡大変形させた拡大部分画像と、当該部分画像を縮小変形させた縮小部分画像とを生成し、
前記部分画像,前記拡大部分画像,前記縮小部分画像のそれぞれの前記一致度を算出し、
前記部分画像,前記拡大部分画像,前記縮小部分画像のうち、
最も前記一致度の高いものが前記部分画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が適正であると判断し、
最も前記一致度の高いものが前記拡大部分画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が近いものと判断し、
最も前記一致度の高いものが前記縮小画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が遠いものと判断する
処理をコンピュータに実行させる、付記11〜13のいずれか1項に記載の撮影ガイド表示プログラム。
(Supplementary Note 14)
Generating an enlarged partial image obtained by enlarging and deforming the partial image and a reduced partial image obtained by reducing and deforming the partial image for each of the partial images;
Calculating the matching degree of each of the partial image, the enlarged partial image, and the reduced partial image;
Of the partial image, the enlarged partial image, and the reduced partial image,
When the partial image is the one with the highest degree of coincidence, it is determined that the distance from the imaging device to the subject included in the partial image is appropriate;
When the one with the highest degree of coincidence is the enlarged partial image, it is determined that the distance from the imaging device to the subject included in the partial image is short.
The computer executes processing for determining that the distance from the imaging device to the subject included in the partial image is long when the reduced image is the one with the highest degree of coincidence, any one of
(付記15)
それぞれの前記部分画像についての一致度に基づいて算出される、前記撮像画像と前記テンプレート画像との全体の一致度を前記表示装置に表示させる
処理をコンピュータに実行させる、付記11〜14のいずれか1項に記載の撮影ガイド表示プログラム。
(Supplementary Note 15)
The computer according to any one of
(付記16)
前記移動方向を表す形状または配置または色を持つマークと前記撮像画像とを前記表示装置に表示させる
処理をコンピュータに実行させる、付記9〜15のいずれか1項に記載の撮影ガイド表示プログラム。
(Supplementary Note 16)
The imaging guide display program according to any one of appendices 9 to 15, causing a computer to execute a process of causing the display device to display a mark having a shape, an arrangement, or a color representing the moving direction and the captured image.
(付記17〜24:撮影ガイド表示方法)
(付記17)
テンプレート画像に照合される撮像画像の撮像装置での撮像に際し、前記テンプレート画像の一部分を複数の位置で切り出した複数の部分画像を生成し、
前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出し、
前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定し、
前記移動方向を表示装置に表示させる
ことを特徴とする、撮影ガイド表示方法。
(Appendix 17 to 24: Display method of shooting guide)
(Supplementary Note 17)
A plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image;
Calculating a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image for each of the partial images;
Estimating the moving direction of the imaging device to reduce the difference based on the difference for each partial image;
And displaying the moving direction on a display device.
(付記18)
第一画像と、上下方向の位置が前記第一画像とは異なる第二画像と、左右方向の位置が前記第一画像とは異なる第三画像と、を含む前記複数の部分画像を生成する
ことを特徴とする、付記17記載の撮影ガイド表示方法。
(Appendix 18)
Generating a plurality of partial images including a first image, a second image whose position in the vertical direction is different from the first image, and a third image whose position in the horizontal direction is different from the first image The photographing guide display method according to appendix 17, characterized in that:
(付記19)
それぞれの前記部分画像についての前記撮像画像への一致度を算出する
ことを特徴とする、付記17または18記載の撮影ガイド表示方法。
(Appendix 19)
The photographing guide display method according to appendix 17 or 18, characterized in that the degree of coincidence with the captured image for each of the partial images is calculated.
(付記20)
前記一致度に相当する前記部分画像及び前記撮像画像の正規化相互相関を算出する
ことを特徴とする、付記19記載の撮影ガイド表示方法。
(Supplementary Note 20)
24. The photographing guide display method according to appendix 19, wherein normalized cross correlation between the partial image corresponding to the degree of coincidence and the captured image is calculated.
(付記21)
前記部分画像を拡縮方向に変形させたときに前記照合部で算出される前記一致度の変化に基づき、前記差を算出する
ことを特徴とする、付記19または20のいずれか1項に記載の撮影ガイド表示方法。
(Supplementary Note 21)
20. The difference according to any one of appendices 19 or 20, wherein the difference is calculated based on a change in the matching degree calculated by the matching unit when the partial image is deformed in the enlargement / reduction direction. Shooting guide display method.
(付記22)
それぞれの前記部分画像について、当該部分画像を拡大変形させた拡大部分画像と、当該部分画像を縮小変形させた縮小部分画像とを生成し、
前記部分画像,前記拡大部分画像,前記縮小部分画像のそれぞれの前記一致度を算出し、
前記部分画像,前記拡大部分画像,前記縮小部分画像のうち、
最も前記一致度の高いものが前記部分画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が適正であると判断し、
最も前記一致度の高いものが前記拡大部分画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が近いものと判断し、
最も前記一致度の高いものが前記縮小画像である場合に、前記撮像装置から当該部分画像含まれる被写体までの距離が遠いものと判断する
ことを特徴とする、付記19〜21のいずれか1項に記載の撮影ガイド表示方法。
(Supplementary Note 22)
Generating an enlarged partial image obtained by enlarging and deforming the partial image and a reduced partial image obtained by reducing and deforming the partial image for each of the partial images;
Calculating the matching degree of each of the partial image, the enlarged partial image, and the reduced partial image;
Of the partial image, the enlarged partial image, and the reduced partial image,
When the partial image is the one with the highest degree of coincidence, it is determined that the distance from the imaging device to the subject included in the partial image is appropriate;
When the one with the highest degree of coincidence is the enlarged partial image, it is determined that the distance from the imaging device to the subject included in the partial image is short.
Supplementary note 19 to 21, wherein it is determined that the distance from the imaging device to the subject included in the partial image is long when the reduced image is the one with the highest degree of coincidence. The shooting guide display method described in.
(付記23)
それぞれの前記部分画像についての一致度に基づいて算出される、前記撮像画像と前記テンプレート画像との全体の一致度を前記表示装置に表示させる
ことを特徴とする、付記19〜22のいずれか1項に記載の撮影ガイド表示方法。
(Supplementary Note 23)
Supplementary note 19 to 22, wherein the overall degree of coincidence between the captured image and the template image, which is calculated based on the degree of coincidence for each of the partial images, is displayed on the display device. Method of displaying a shooting guide described in the section.
(付記24)
前記移動方向を表す形状または配置または色を持つマークと前記撮像画像とを前記表示装置に表示させる
ことを特徴とする、付記17〜23のいずれか1項に記載の撮影ガイド表示方法。
(Supplementary Note 24)
The photographing guide display method according to any one of appendices 17 to 23, characterized in that the display device displays the mark having a shape, an arrangement, or a color representing the movement direction and the captured image.
1 撮影ガイド表示プログラム
2 生成部
3 照合部
4 算出部
5 推定部
6 表示部
10 タブレット
11 撮像装置
12 表示装置
20 情報処理装置(コンピューター)
30 テンプレート画像
40 撮像画像
DESCRIPTION OF
30
Claims (10)
前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出する算出部と、
前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定する推定部と、
前記移動方向を表示装置に表示させる表示部と、
を備えることを特徴とする、情報処理装置。 A generation unit configured to generate a plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image;
A calculator configured to calculate, for each of the partial images, a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image;
An estimation unit configured to estimate a moving direction of the imaging device to reduce the difference based on the difference for each partial image;
A display unit for displaying the moving direction on a display device;
An information processing apparatus comprising:
ことを特徴とする、請求項1記載の情報処理装置。 The plurality of portions including the first image, the second image whose vertical position is different from the first image, and the third image whose horizontal position is different from the first image. The information processing apparatus according to claim 1, which generates an image.
ことを特徴とする、請求項1または2記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising a collating unit that calculates a degree of coincidence of the partial images with the captured image.
ことを特徴とする、請求項3記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the matching unit calculates a normalized cross correlation between the partial image corresponding to the degree of coincidence and the captured image.
ことを特徴とする、請求項3または4のいずれか1項に記載の情報処理装置。 5. The method according to claim 3, wherein the calculation unit calculates the difference based on a change in the matching degree calculated by the matching unit when the partial image is deformed in a scaling direction. An information processing apparatus according to any one of the preceding items.
前記照合部が、前記部分画像,前記拡大部分画像,前記縮小部分画像のそれぞれの前記一致度を算出し、
前記算出部が、前記部分画像,前記拡大部分画像,前記縮小部分画像のうち、
最も前記一致度の高いものが前記部分画像である場合に、前記撮像装置から当該部分画像に含まれる被写体までの距離が適正であると判断し、
最も前記一致度の高いものが前記拡大部分画像である場合に、前記撮像装置から当該部分画像に含まれる被写体までの距離が近いものと判断し、
最も前記一致度の高いものが前記縮小部分画像である場合に、前記撮像装置から当該部分画像に含まれる被写体までの距離が遠いものと判断する
ことを特徴とする、請求項3〜5のいずれか1項に記載の情報処理装置。 The generation unit generates, for each of the partial images, an enlarged partial image obtained by enlarging and deforming the partial image and a reduced partial image obtained by reducing and deforming the partial image;
The matching unit calculates the matching degree of each of the partial image, the enlarged partial image, and the reduced partial image;
Among the partial image, the enlarged partial image, and the reduced partial image, the calculation unit
When the partial image is the one with the highest degree of coincidence, it is determined that the distance from the imaging device to the subject included in the partial image is appropriate;
When the one with the highest degree of coincidence is the enlarged partial image, it is determined that the distance from the imaging device to the subject included in the partial image is short,
The method according to any one of claims 3 to 5, characterized in that when the reduced partial image is the one with the highest degree of coincidence, it is determined that the distance from the imaging device to the subject included in the partial image is long. An information processing apparatus according to any one of the preceding items.
ことを特徴とする、請求項3〜6のいずれか1項に記載の情報処理装置。 4. The display device according to claim 3, wherein the display unit displays, on the display device, the overall degree of coincidence between the captured image and the template image, which is calculated based on the degree of coincidence for each of the partial images. The information processing apparatus according to any one of to 6.
ことを特徴とする、請求項1〜7のいずれか1項に記載の情報処理装置。 The information according to any one of claims 1 to 7, wherein the display unit causes the display device to display a mark having a shape, an arrangement, or a color representing the movement direction and the captured image. Processing unit.
前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出し、
前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定し、
前記移動方向を表示装置に表示させる
処理をコンピュータに実行させる、撮影ガイド表示プログラム。 A plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image;
Calculating a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image for each of the partial images;
Estimating the moving direction of the imaging device to reduce the difference based on the difference for each partial image;
The imaging | photography guide display program which makes a computer perform the process which displays the said moving direction on a display apparatus.
前記撮像画像のうち前記部分画像に対応する部位に含まれる被写体の大きさと当該部分画像に含まれる被写体の大きさとの差を当該部分画像ごとに算出し、
前記部分画像ごとの前記差に基づき、前記差を減少させる前記撮像装置の移動方向を推定し、
前記移動方向を表示装置に表示させる
ことを特徴とする、撮影ガイド表示方法。 A plurality of partial images in which a part of the template image is cut out at a plurality of positions when the imaging device captures an imaged image to be compared with the template image;
Calculating a difference between the size of the subject included in the part corresponding to the partial image in the captured image and the size of the subject included in the partial image for each of the partial images;
Estimating the moving direction of the imaging device to reduce the difference based on the difference for each partial image;
And displaying the moving direction on a display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017248073A JP6933125B2 (en) | 2017-12-25 | 2017-12-25 | Information processing device, shooting guide display program, shooting guide display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017248073A JP6933125B2 (en) | 2017-12-25 | 2017-12-25 | Information processing device, shooting guide display program, shooting guide display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019114968A true JP2019114968A (en) | 2019-07-11 |
JP6933125B2 JP6933125B2 (en) | 2021-09-08 |
Family
ID=67223838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017248073A Active JP6933125B2 (en) | 2017-12-25 | 2017-12-25 | Information processing device, shooting guide display program, shooting guide display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6933125B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013074376A (en) * | 2011-09-27 | 2013-04-22 | Sony Corp | Imaging guide apparatus, imaging apparatus, imaging guide method, and program |
JP2015082830A (en) * | 2013-10-24 | 2015-04-27 | 富士通株式会社 | Guide method, information processing apparatus, and guide program |
-
2017
- 2017-12-25 JP JP2017248073A patent/JP6933125B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013074376A (en) * | 2011-09-27 | 2013-04-22 | Sony Corp | Imaging guide apparatus, imaging apparatus, imaging guide method, and program |
JP2015082830A (en) * | 2013-10-24 | 2015-04-27 | 富士通株式会社 | Guide method, information processing apparatus, and guide program |
Also Published As
Publication number | Publication date |
---|---|
JP6933125B2 (en) | 2021-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4207980B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
TWI451750B (en) | Image capture apparatus, computer readable recording medium and control method | |
JP5720275B2 (en) | Imaging apparatus and imaging method | |
US9807299B2 (en) | Image capture methods and systems with positioning and angling assistance | |
CN105072315B (en) | Electron camera and camera shooting control method | |
JP5652886B2 (en) | Face authentication device, authentication method and program, information device | |
US8189942B2 (en) | Method for discriminating focus quality of image pickup device | |
CN101998048A (en) | Digital image signal processing method, medium for recording the method, digital image signal pocessing apparatus | |
CN107787463B (en) | The capture of optimization focusing storehouse | |
CN107209345A (en) | Focusing control apparatus, camera device, focusing control method and focusing control program | |
US9361704B2 (en) | Image processing device, image processing method, image device, electronic equipment, and program | |
CN103685911A (en) | Image processing apparatus for image processing method | |
JP2009141475A (en) | Camera | |
JP2018046337A (en) | Information processing device, program and control method | |
JP2008282031A (en) | Imaging apparatus and imaging apparatus control method, and computer program | |
CN103685837A (en) | Image processing apparatus and image processing method | |
JP4565273B2 (en) | Subject tracking device and camera | |
WO2013187282A1 (en) | Image pick-up image display device, image pick-up image display method, and storage medium | |
JP2021131737A (en) | Data registration device, biometric authentication device, and data registration program | |
JP6933125B2 (en) | Information processing device, shooting guide display program, shooting guide display method | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP5239991B2 (en) | Image processing apparatus and image processing system | |
JP7321772B2 (en) | Image processing device, image processing method, and program | |
JP2009042900A (en) | Imaging device and image selection device | |
JP5029647B2 (en) | Subject tracking device and camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190607 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210720 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6933125 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |