JP2008205774A - System, method and program for guiding photographing work - Google Patents

System, method and program for guiding photographing work Download PDF

Info

Publication number
JP2008205774A
JP2008205774A JP2007038977A JP2007038977A JP2008205774A JP 2008205774 A JP2008205774 A JP 2008205774A JP 2007038977 A JP2007038977 A JP 2007038977A JP 2007038977 A JP2007038977 A JP 2007038977A JP 2008205774 A JP2008205774 A JP 2008205774A
Authority
JP
Japan
Prior art keywords
recognition
image data
image quality
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007038977A
Other languages
Japanese (ja)
Inventor
Tetsuo Ishita
哲夫 井下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2007038977A priority Critical patent/JP2008205774A/en
Publication of JP2008205774A publication Critical patent/JP2008205774A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To photograph an image easy to conduct a recognition by a recognition application without requiring the labor of a cameraman. <P>SOLUTION: An index for judging the propriety of the recognition is obtained by analyzing the image. A recognition-propriety discriminating means 122 refers to a recognition-propriety discriminating-parameter storage section 132 on the basis of the analyzed index, and judges a recognition propriety. A camera parameter is set when the recognition is enabled. A changing camera parameter for enabling the recognition is computed when the recognition is unable. A screen display means 124 superposes an induction display to image data and outputs the data on the basis of the changing camera parameter. The cameraman conducts a working according to the guiding display, and can obtain the image easy to conduct the recognition only by photographing an object. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮影操作誘導システム、撮影操作誘導方法および撮影操作誘導プログラムに関し、特に認識しやすい画像を撮影するための、撮影操作誘導システム、撮影操作誘導方法および撮影操作誘導プログラムに関する。   The present invention relates to a photographing operation guidance system, a photographing manipulation guidance method, and a photographing manipulation guidance program, and particularly relates to a photographing manipulation guidance system, a photographing manipulation guidance method, and a photographing manipulation guidance program for photographing an easily recognizable image.

これまで、カメラ付き携帯電話のようなカメラ付き携帯端末は、風景や人物の撮影といった用途で使われてきた。近年、カメラ付き携帯端末における情報処理能力の高性能化、高機能化等は目覚しく、こうした端末が、OCR(Optical Character Recognition)やバーコード読み取りなど(以下、認識アプリケーションと呼ぶ)の画像認識処理用途にも使われつつある。   Until now, camera-equipped mobile terminals such as camera-equipped mobile phones have been used for shooting landscapes and people. In recent years, high-performance and high-performance information processing capabilities have been remarkable in mobile terminals with cameras. These terminals can be used for image recognition processing such as OCR (Optical Character Recognition) and barcode reading (hereinafter referred to as recognition applications). Also being used.

これらの認識アプリケーションが画像認識処理をするために必要とする入力画像の要件は、撮影者に意識されることが無いのが一般的であり、撮影者は、勘や経験等に基づいて、端末の位置等の撮影条件(カメラパラメータ)を調整し、利用する認識アプリケーションが必要とする要件を満たす入力画像を撮影していた。   The requirements of input images required for image recognition processing by these recognition applications are generally not conscious of the photographer, and the photographer can use the terminal based on intuition, experience, etc. The shooting conditions (camera parameters) such as the position of the camera are adjusted, and an input image that satisfies the requirements required by the recognition application to be used is shot.

所望の画像を得るためには、端末の備えるカメラの機械的構造を改良し、撮影時のカメラパラメータを所望のものへと制御するアプローチもあるが、端末の小型化という制約条件の元では、機械的構造の複雑化というアプローチは敬遠されやすい。   In order to obtain the desired image, there is an approach to improve the mechanical structure of the camera provided in the terminal and control the camera parameters at the time of shooting to the desired one, but under the constraint of miniaturization of the terminal, The approach of complicating mechanical structures is often avoided.

こうした状況の下、文字認識に対する入力画像として要件を満たす画像を撮影者に撮影させるため、撮影された画像中の所定の領域の大きさに基づいて撮影操作を誘導する手法が提案されている。   Under such circumstances, a method for guiding a photographing operation based on the size of a predetermined area in a photographed image has been proposed in order to cause a photographer to photograph an image satisfying the requirements as an input image for character recognition.

例えば、特許文献1には、文字認識の対象となる画像の入力にあたり、入力されるべき文字のサイズを撮影者に表示する手法が記載されている。また、特許文献2では、OCRをするための対象領域を文字の連結成分の大きさから判定し、ガイド情報を表示することにより、撮影操作をサポートするガイド表示機能を実現している。   For example, Patent Document 1 describes a technique for displaying the size of a character to be input to a photographer when inputting an image to be character-recognized. Further, in Patent Document 2, a guide display function that supports a photographing operation is realized by determining a target region for OCR from the size of a connected component of characters and displaying guide information.

一方、入力画像の要件として、合焦状態が着目されており、例えば、特許文献3には、「撮影者の操作によりピント調整された」撮影画像から微分画像データを作成し、その高域成分を示す画素値に応じて、所定の色を割り当てて表示する手段を備え、色の違いにより合焦状態を知らせる装置が記載されている。また、特許文献4には、「撮影者の操作によるピント調整」の合焦状態の表示を視覚的又は聴覚的に行う表示手段を備え、例えば、合焦状態を棒グラフやレベルメータ、数値、図形の個数、LEDの点滅ピッチ、音で示す方法が記載されている。

特開平11−110536号公報 (0014段落〜0015段落、図2等) 特開2004−213215号公報 特開2002−196225号公報 特開2006−166451号公報
On the other hand, the in-focus state is attracting attention as a requirement of the input image. For example, in Patent Document 3, differential image data is created from a photographed image “focused by the photographer's operation”, and its high-frequency component There is described an apparatus that includes means for allocating and displaying a predetermined color in accordance with a pixel value that indicates the in-focus state by a difference in color. Further, Patent Document 4 includes a display unit that visually or audibly displays a focus state of “focus adjustment by a photographer's operation”. For example, the focus state is indicated by a bar graph, a level meter, a numerical value, and a graphic. , The blinking pitch of the LED, and a method of indicating by sound.

JP 11-110536 A (paragraphs 0014 to 0015, FIG. 2 etc.) JP 2004-213215 A JP 2002-196225 A JP 2006-166451 A

第1の問題点は、撮影された画像が領域の大きさや合焦状態を満たすものであっても、必ずしも撮影された画像は認識できる要件を満たすわけではないことである。   The first problem is that the captured image does not necessarily satisfy the recognizable requirement even if the captured image satisfies the size of the region and the in-focus state.

例えば、特許文献3、4に記載の画像の高域成分量で判断する合焦状態の場合、高域成分が増加し続けていても合焦状態と判断されるが、高域成分が増加するにつれ、画像には高周波ノイズが付加される場合がある。その結果、高周波ノイズの影響で画質が乱れ、認識不可の原因になり得る。また、入力画像の画像解像度の不足や、コントラストの不十分、位置合わせ、その他の要因によって認識できないことがある。   For example, in the case of the in-focus state that is determined by the high-frequency component amount of the image described in Patent Documents 3 and 4, the in-focus state is determined even if the high-frequency component continues to increase but the high-frequency component increases. As a result, high-frequency noise may be added to the image. As a result, the image quality is disturbed due to the influence of high frequency noise, which may cause recognition failure. Further, the input image may not be recognized due to insufficient image resolution, insufficient contrast, alignment, or other factors.

第2の問題点は、認識アプリケーションが認識できる要件を満たす画像を撮影するための具体的な撮影操作を、撮影者が分からないことである。   The second problem is that the photographer does not know a specific photographing operation for photographing an image that satisfies the requirements that can be recognized by the recognition application.

特許文献3、4に記載の、色の違いによる合焦状態の表示や、棒グラフや音による合焦状態を確認するだけでは、撮影者が撮影端末をどの位置までどのくらい動かせばよいか分からないので、経験則的に上下左右に端末を動かさなければならない。また、特許文献2は、認識できない場合の判定結果をガイド情報として提示しているのみであり、撮影者に具体的な撮影操作を誘導するための誘導表示を提示しているわけではない。
[発明の目的]
本発明は、このような課題に鑑みてなされたものであって、認識アプリケーションの認識処理の要件を満たす画像を撮影するための操作を、撮影者が、容易に把握することのできる撮影操作誘導システムを提供することにある。
Since the photographer does not know how much the camera terminal should be moved to by just checking the focus state display according to the difference in color described in Patent Documents 3 and 4 and the focus state by a bar graph or sound. As a rule of thumb, you have to move your device up, down, left and right. In addition, Patent Document 2 only presents the determination result when it cannot be recognized as guide information, and does not present a guidance display for guiding a specific photographing operation to the photographer.
[Object of invention]
The present invention has been made in view of the above problems, and guides a photographing operation that allows a photographer to easily grasp an operation for photographing an image that satisfies the recognition processing requirements of a recognition application. To provide a system.

本発明の他の目的は、要件を満たす画像を撮影するための操作を簡易化する撮影操作誘導システムを提供することにある。   Another object of the present invention is to provide a photographing operation guidance system that simplifies an operation for photographing an image that satisfies requirements.

上記課題を解決するべく本願に開示される発明は、撮影操作誘導システムであって、画像データに対し画像処理を行い所定の指標を出力する解析手段と、前記指標とカメラパラメータと画像データを認識できるか否かを示す認識の可否とを対応付けて記憶する認識可否パラメータ記憶手段と、前記認識可否パラメータ記憶手段から前記指標に対応するカメラパラメータと認識の可否を読み出し、認識できない場合に、認識できるためのカメラパラメータを出力する認識可否判別手段と、前記出力されたカメラパラメータに基づいて操作を誘導するための誘導表示を行う表示手段と、を備えることを特徴とする。   In order to solve the above problems, the invention disclosed in the present application is a photographing operation guidance system, which performs image processing on image data and outputs a predetermined index, and recognizes the index, camera parameter, and image data A recognizable parameter storage means for storing the recognizability indicating whether it is possible or not, and the camera parameter corresponding to the index and the recognizability are read from the recognizable parameter storage means, and the recognition is performed. A recognition enable / disable determining unit that outputs a camera parameter to be able to perform, and a display unit that performs guidance display for guiding an operation based on the output camera parameter.

また、上記課題を解決するべく本願に開示される発明は、プログラムであって、情報処理装置に、画像データに対し画像処理を行い所定の指標を出力する解析処理と、前記指標とカメラパラメータと画像データを認識できるか否かを示す認識の可否とを対応付けて記憶する認識可否パラメータ記憶処理と、前記認識可否パラメータ記憶手段から前記指標に対応するカメラパラメータと認識の可否を読み出し、認識できない場合に、認識できるためのカメラパラメータを出力する認識可否判別処理と、前記出力されたカメラパラメータに基づいて操作を誘導するための誘導表示を行う表示処理と、を実行させることを特徴とする。   Further, the invention disclosed in the present application to solve the above-described problem is a program, an analysis process for performing image processing on image data and outputting a predetermined index to the information processing apparatus, the index and the camera parameter, Recognition / rejectability parameter storage processing for storing the recognition availability indicating whether or not the image data can be recognized in association with each other, and reading the camera parameter corresponding to the index and the recognition availability from the recognition availability parameter storage means, and the recognition is not possible In this case, a recognition possibility determination process for outputting a camera parameter for recognizing and a display process for performing a guidance display for guiding an operation based on the output camera parameter are executed.

第1の効果は、撮影者が、認識アプリケーションにおける入力画像の要件を意識することなく、該要件を満たす画像を撮影するための撮影操作を把握しやすいことである。   The first effect is that the photographer can easily grasp the photographing operation for photographing an image that satisfies the requirement without being aware of the requirement of the input image in the recognition application.

その理由は、撮影した画像データを解析することに得られる指標とカメラパラメータとに基づいて画像データが認識可能かを判別し、認識できない場合は、認識しやすい画像データを得るためのカメラパラメータを算出し、前記カメラパラメータを実現するための撮影操作を端末画面に表示するからである。   The reason is to determine whether the image data is recognizable based on the index obtained by analyzing the captured image data and the camera parameter. If the image data cannot be recognized, the camera parameter for obtaining easy-to-recognize image data is determined. This is because the photographing operation for calculating and realizing the camera parameters is displayed on the terminal screen.

第2の効果は、要件を満たす画像を撮影するための撮影者による操作が容易となる点にある。その理由は、内部機構を制御することによってカメラパラメータの再設定が可能な場合には、撮影者による操作を要することなく認識可能な画像を撮影できる状態となるからである。   The second effect is that an operation by a photographer for photographing an image satisfying the requirements is facilitated. The reason is that when the camera parameters can be reset by controlling the internal mechanism, a recognizable image can be captured without requiring an operation by the photographer.

[第1の実施の形態]
次に、図1を参照して本発明を実施するための第1の実施の形態の構成について詳細に説明する。
[First Embodiment]
Next, the configuration of the first embodiment for carrying out the present invention will be described in detail with reference to FIG.

本発明を実施するための第1の実施の形態は、画像を認識できるか否かを判定するための指標として、画像データの合焦状態を解析することにより得られるぼけ量を用いる。   The first embodiment for carrying out the present invention uses the amount of blur obtained by analyzing the in-focus state of image data as an index for determining whether or not an image can be recognized.

図1を参照すると、本発明を実施するための第1の実施の形態は、撮像装置110とデータ処理装置120とデータ記憶装置130と表示装置140とから構成される。   Referring to FIG. 1, the first embodiment for implementing the present invention includes an imaging device 110, a data processing device 120, a data storage device 130, and a display device 140.

撮像装置110は、対象を撮影することにより画像データを出力する。   The imaging device 110 outputs image data by photographing a target.

データ記憶装置130は、カメラパラメータ記憶部131と認識可否判別パラメータ記憶部132とから構成される。データ記憶装置130は、たとえば半導体メモリや磁気記憶装置等により実現される。半導体メモリは、予め上述のように構成されていても良いし、読み込まれたプログラム等が動作する際に半導体メモリ内にカメラパラメータ記憶部131と認識可否判別パラメータ記憶部132とを構成しても良い。   The data storage device 130 includes a camera parameter storage unit 131 and a recognition possibility determination parameter storage unit 132. The data storage device 130 is realized by, for example, a semiconductor memory or a magnetic storage device. The semiconductor memory may be configured in advance as described above, or the camera parameter storage unit 131 and the recognition possibility determination parameter storage unit 132 may be configured in the semiconductor memory when a read program or the like operates. good.

カメラパラメータ記憶部131は、撮像装置110による画像データの撮影時のカメラパラメータを記憶する。カメラパラメータとしては、被写体との距離、撮像装置の姿勢、F値、画像データの解像度、ズーム値等がある。   The camera parameter storage unit 131 stores camera parameters when image data is captured by the imaging device 110. The camera parameters include the distance to the subject, the attitude of the imaging device, the F value, the resolution of image data, the zoom value, and the like.

認識可否判別パラメータ記憶部132は、画像データを解析することにより得られる指標と、カメラパラメータと、認識できるか否かを示す認識の可否とを対応付けて記憶する。本実施の形態では、指標として、合焦状態を解析した結果として得られるぼけ量を用いる。図4は、認識可否判別パラメータ記憶部132に記憶される、ぼけ量と、カメラパラメータと、認識の可否との対応付けの一例を示す図である。この図では、理解を容易にするために、ぼけ量と、カメラパラメータの一部である被写体との距離とが対応付けられる様子を示している。具体的には、ぼけ量を縦軸に、カメラパラメータの一部である被写体との距離を横軸にとり、対応付けられた両者の関係が所定のグラフ形状で示されている。また、ぼけ量と被写体との距離の関係において、認識できる範囲を、所定の形状(図4の例では矩形形状)として記憶している。上記記憶の態様は一例であり、このような手法に限られない。   The recognition possibility determination parameter storage unit 132 stores the index obtained by analyzing the image data, the camera parameter, and the recognition possibility indicating whether or not the recognition is possible. In this embodiment, the blur amount obtained as a result of analyzing the in-focus state is used as an index. FIG. 4 is a diagram illustrating an example of correspondence between the blur amount, the camera parameter, and the recognition possibility stored in the recognition possibility determination parameter storage unit 132. In this figure, in order to facilitate understanding, the amount of blur and the distance to the subject, which is a part of the camera parameters, are shown associated with each other. More specifically, the vertical axis indicates the amount of blur and the horizontal axis indicates the distance to the subject that is a part of the camera parameter, and the relationship between the two is shown in a predetermined graph shape. In addition, a recognizable range is stored as a predetermined shape (rectangular shape in the example of FIG. 4) in the relationship between the amount of blur and the distance between the subject. The above-described storage mode is an example and is not limited to such a method.

データ処理装置120は、入力された画像データを処理し、表示装置に出力するための表示データを生成する装置である。具体的には、半導体集積回路等により実現される。   The data processing device 120 is a device that processes input image data and generates display data for output to a display device. Specifically, it is realized by a semiconductor integrated circuit or the like.

データ処理装置120は、合焦状態解析手段121と認識可否判別手段122と画面表示手段123とを備える。予めこのように構成されていた半導体集積回路として実現しても良いし、半導体集積回路が読み込まれたプログラム等を解釈実行することにより上記各手段をそなえるものとして動作するよう構成しても良い。   The data processing device 120 includes an in-focus state analysis unit 121, a recognition possibility determination unit 122, and a screen display unit 123. It may be realized as a semiconductor integrated circuit configured in advance as described above, or may be configured to operate as having the above-mentioned means by interpreting and executing a program read by the semiconductor integrated circuit.

合焦状態解析手段121は、画像データを入力とし、画像を認識できるか否かを判定するための指標を得るために画像データを解析し、解析結果を出力する。本実施の形態では、画像を認識できるか否かを判定するための指標としてぼけ量を用いる。よって、本実施の形態における合焦状態解析手段121は、具体的には、画像データの合焦状態を解析し、ぼけ量を出力する。合焦状態の解析は、例えば、エッジの滑らかさや、中間色の占める割合等を求めることにより行う。合焦状態の解析処理の方法の例は後述される。   The in-focus state analyzing unit 121 receives the image data, analyzes the image data to obtain an index for determining whether or not the image can be recognized, and outputs the analysis result. In this embodiment, the blur amount is used as an index for determining whether or not an image can be recognized. Therefore, the focusing state analysis unit 121 in the present embodiment specifically analyzes the focusing state of the image data and outputs the amount of blur. The analysis of the in-focus state is performed, for example, by obtaining the smoothness of the edge, the proportion of intermediate colors, and the like. An example of a focused state analysis processing method will be described later.

認識可否判別手段122は、画像を認識できるか否かを判定するための指標を入力とし、カメラパラメータ記憶部131からカメラパラメータを読み出し、前記指標と前記カメラパラメータに対応付けられた認識の可否を読み出す。そして、認識可否判別手段122は、、認識不可を読み出した場合には、認識可能とするために変更するカメラパラメータ(以下、変更カメラパラメータと記す)を出力する。本実施の形態では、指標としてぼけ量を用いるので、認識可否判別手段122は、ぼけ量を入力とし、読み出したカメラパラメータとともに認識可否判別パラメータ記憶部132を読み出し、対応付けられた認識の可否を読み出す。認識可否判別手段122は、認識不可を読み出した場合には、認識可能とするためのカメラパラメータ、例えば、F値や、被写体との距離等を算出し、変更カメラパラメータとして出力する。   The recognizability determining means 122 receives an index for determining whether or not an image can be recognized, reads a camera parameter from the camera parameter storage unit 131, and determines whether or not recognition is associated with the index and the camera parameter. read out. When the recognition failure is read out, the recognition enable / disable determining unit 122 outputs a camera parameter to be changed to enable recognition (hereinafter referred to as a changed camera parameter). In this embodiment, since the blur amount is used as an index, the recognition possibility determining unit 122 receives the blur amount as an input, reads the recognition possibility determination parameter storage unit 132 together with the read camera parameter, and determines whether or not the associated recognition is possible. read out. When the recognition failure determination unit 122 reads that recognition is not possible, the camera parameter for enabling recognition, for example, an F value, a distance to the subject, and the like are calculated and output as a changed camera parameter.

認識可否判別手段122は、変更カメラパラメータとして、例えば、認識可能であるカメラパラメータに対応付けられた指標と入力された指標との差が最小であり、また、変更の前後におけるカメラパラメータの差分が最小となるカメラパラメータを出力することができる。上記のようなカメラパラメータの出力方法は一例であり、上記手法に限られない。   The recognizability determining means 122 has, for example, a difference between the index associated with the camera parameter that can be recognized and the input index as the changed camera parameter, and the difference between the camera parameters before and after the change. The smallest camera parameter can be output. The camera parameter output method as described above is an example, and is not limited to the above method.

また、認識可否判別手段122は、カメラパラメータのうち、内部機構に関するもの(絞り値、F値等)については、変更してカメラパラメータ記憶部131に記憶させ、内部機構に関しない他のカメラパラメータ(被写体との距離、撮像装置の姿勢など)を変更カメラパラメータとして出力するようにしても良い。このようにすれば、内部機構に関するカメラパラメータの変更が自動化されるので、撮影者による操作を軽減することが出来る。   Further, the recognizability judging means 122 changes the camera parameters related to the internal mechanism (aperture value, F value, etc.) and stores them in the camera parameter storage unit 131, and other camera parameters not related to the internal mechanism ( The distance from the subject, the attitude of the imaging device, etc.) may be output as the changed camera parameters. In this way, the change of the camera parameter relating to the internal mechanism is automated, so that the operation by the photographer can be reduced.

本実施の形態のように、前記指標から認識の可否を直接的に求めることが出来る場合には、カメラパラメータ記憶部131からのカメラパラメータの読み出しを省略しても良い。このようにすれば、読み出し処理を省略できるから、処理を高速かつ軽量にすることが出来る。   When it is possible to directly determine whether or not recognition is possible from the index as in the present embodiment, reading of camera parameters from the camera parameter storage unit 131 may be omitted. In this way, since the reading process can be omitted, the process can be performed at high speed and light weight.

画面表示手段123は、画像データと変更カメラパラメータを入力とし、カメラパラメータの変更を実現するための操作を誘導する所定のメッセージや図形等を、画像データに重畳することにより表示データを出力する手段である。画面表示手段123は、例えば、変更カメラパラメータによるカメラパラメータの変更が、被写体との距離を延長するものである場合には、“もう少しはなれて下さい”等の文字列を表示データに埋め込むことにより、表示データを生成する。あるいは、画面表示手段123は、画像データ内の所定の領域と比較して小さい領域を示す枠状の図形を当該領域の中心点近辺に重畳して表示データを生成してもよい。変更カメラパラメータによるカメラパラメータの変更が、撮像装置の姿勢を変更するものである場合には、画面表示手段123は、“下に向けてください”等の文字列を表示データに埋め込んでも良いし、下方向を示す矢印状の図形を表示データに埋め込んでも良い。画面表示手段123によって埋め込まれる文字列は、図示しないが、変更カメラパラメータの要素と対応付けられて予めデータ記憶装置に記憶されていてもよい。   The screen display means 123 receives image data and changed camera parameters as input, and outputs display data by superimposing a predetermined message or figure for guiding an operation for realizing the change of the camera parameters on the image data. It is. For example, when the change of the camera parameter by the changed camera parameter extends the distance from the subject, the screen display unit 123 embeds a character string such as “please get away more” in the display data, Generate display data. Alternatively, the screen display unit 123 may generate display data by superimposing a frame-like figure indicating a smaller area than a predetermined area in the image data near the center point of the area. When the change of the camera parameter by the changed camera parameter is to change the attitude of the imaging device, the screen display means 123 may embed a character string such as “Please turn downward” in the display data, An arrow-shaped figure indicating the downward direction may be embedded in the display data. Although not shown, the character string embedded by the screen display unit 123 may be stored in advance in the data storage device in association with the changed camera parameter element.

表示装置140は、表示データを入力とし、入力された表示データを表示する。表示装置140は、具体的には液晶ディスプレイ等によって実現される。   The display device 140 receives display data and displays the input display data. Specifically, the display device 140 is realized by a liquid crystal display or the like.

次に、図面を参照して、本発明を実施するための第1の実施の形態の動作を説明する。   Next, operations of the first embodiment for carrying out the present invention will be described with reference to the drawings.

撮像装置110は、カメラパラメータ記憶部131で保持しているカメラパラメータを元に撮影を行う。そして、撮像装置110は、撮影した画像データを合焦状態解析手段121に送信する(ステップA1)。   The imaging device 110 performs imaging based on the camera parameters stored in the camera parameter storage unit 131. Then, the imaging apparatus 110 transmits the captured image data to the in-focus state analyzing unit 121 (Step A1).

合焦状態解析手段121は、画像データの合焦状態の解析を行う(ステップA2)。   The in-focus state analyzing unit 121 analyzes the in-focus state of the image data (step A2).

合焦状態解析手段121は、例えば、エッジの滑らかさを解析し、ぼけ量として出力することが出来る。非合焦状態では、エッジは滑らかになるのでこの滑らかの長さをぼけ量とする(図5)。他の例として、合焦状態解析手段121は、中間色の占める割合をぼけ量として出力することが出来る(図6)。撮影対象が2値画像(白黒画像)の場合、合焦状態であれば、白画素と黒画素の2種類に分かれるが、非合焦状態の場合、滑らかになっている画素値は白と黒の中間色になる(図6(b)の斜線部分)。したがって、対象領域に対する中間色の割合をぼけ量とすることができる。   For example, the in-focus state analyzing unit 121 can analyze the smoothness of the edge and output the amount of blur. In the out-of-focus state, the edge becomes smooth, and this smooth length is taken as the amount of blur (FIG. 5). As another example, the in-focus state analyzing unit 121 can output the proportion of the intermediate color as a blur amount (FIG. 6). When the object to be photographed is a binary image (monochrome image), if it is in focus, it is divided into two types: white pixels and black pixels, but in the out-of-focus state, the smoothed pixel values are white and black. (The hatched portion in FIG. 6B). Therefore, the ratio of the intermediate color to the target area can be set as the blur amount.

なお、合焦状態解析手段121による解析の対象領域は、あらかじめ画像中心付近の矩形領域と定めてもよいし、画像データから認識対象となる領域を抽出した領域でもよい。   Note that the analysis target area by the in-focus state analysis unit 121 may be determined in advance as a rectangular area near the center of the image, or may be an area obtained by extracting a recognition target area from the image data.

合焦状態解析手段121は、合焦状態の解析を終了すると、解析の結果得られるぼけ量の値を認識可否判別手段122に入力する。   When the in-focus state analysis ends, the in-focus state analysis unit 121 inputs a blur amount value obtained as a result of the analysis to the recognition possibility determination unit 122.

次に、認識可否判別手段122は、合焦状態の解析結果を受け取り、認識可否判別パラメータ記憶部132を参照し、解析結果が認識可能かを確認する(ステップA3)。   Next, the recognition enable / disable determining unit 122 receives the analysis result of the in-focus state, refers to the recognition enable / disable determination parameter storage unit 132, and confirms whether the analysis result can be recognized (step A3).

認識可否判別手段122は、入力されたぼけ量とカメラパラメータ記憶部131に記憶されたカメラパラメータとに対応付けられた認識の可否を、認識可否判別パラメータ記憶部132から読み出す。認識不可である場合、認識可否判別手段122は、内部機構を制御することにより変更できるカメラパラメータを変更することにより認識可能とすることが出来るか否かを判断する(ステップA4)。例えば、F値は、内部機構である絞りを制御することにより変更するカメラパラメータであり、ぼけ量は、F値を変更することによって制御することが可能である。認識可否判別手段122は、F値を変更することにより変更されるぼけ量とカメラパラメータとに対応付けられた認識の可否を確認しながら、認識可能であるF値を昇順あるいは降順に検索する。認識可能であるF値が検索された場合には、認識可否判別手段122は、カメラパラメータの再設定が可能であると判断し(ステップA4のYes)、カメラパラメータ記憶部131に記憶させるとともに、カメラパラメータの設定を行い(ステップA5)、再設定された条件で撮影を行う。   The recognition enable / disable determining unit 122 reads from the recognition enable / disable determining parameter storage unit 132 the recognition enable / disable associated with the input blur amount and the camera parameter stored in the camera parameter storage unit 131. When the recognition is impossible, the recognition possibility determination unit 122 determines whether or not the recognition is possible by changing the camera parameter that can be changed by controlling the internal mechanism (step A4). For example, the F value is a camera parameter that is changed by controlling an aperture that is an internal mechanism, and the blur amount can be controlled by changing the F value. The recognizability determining means 122 searches the recognizable F values in ascending or descending order while confirming whether or not the recognition is associated with the blur amount changed by changing the F value and the camera parameter. When a recognizable F value is searched, the recognition possibility determination unit 122 determines that the camera parameter can be reset (Yes in step A4), and stores it in the camera parameter storage unit 131. Camera parameters are set (step A5), and shooting is performed under the reset conditions.

認識可否判別手段122は、パラメータ設定が可能でないと判断する場合(ステップA4のNo)、認識可能な画像データを撮影するための変更カメラパラメータを出力する。認識可否判別手段122は、例えば、認識可能な目標ぼけ量を定め、定められた目標ぼけ量を満たすための変更カメラパラメータのうち、現在のカメラパラメータと変更カメラパラメータの差分とが最小となるものを変更カメラパラメータとして出力することが出来る。   When it is determined that parameter setting is not possible (No in step A4), the recognition possibility determination unit 122 outputs a changed camera parameter for capturing recognizable image data. For example, the recognizability determining unit 122 determines a recognizable target blur amount, and among the changed camera parameters for satisfying the determined target blur amount, the difference between the current camera parameter and the changed camera parameter is minimized. Can be output as a changed camera parameter.

認識可否判別手段122は、認識可能な目標ぼけ量を、認識可否判別パラメータ記憶部132に記憶されたレコードから選択することにより定めてもよい。この場合において、認識可否判別手段は、解析されたぼけ量と、目標ぼけ量との差分が最小となるものを選択しても良い。このようにすれば、変更の前後におけるカメラパラメータの差分が小さくなるため、撮影者による操作を微細に抑えることが出来る。   The recognition possibility determination unit 122 may determine the target blur amount that can be recognized by selecting from the records stored in the recognition possibility determination parameter storage unit 132. In this case, the recognition enable / disable determining unit may select one that minimizes the difference between the analyzed blur amount and the target blur amount. In this way, since the difference between the camera parameters before and after the change becomes small, the operation by the photographer can be suppressed finely.

上記のような認識可否判別手段122による処理方法は、一例であり、上記手法に限られない。   The processing method by the recognition possibility determination unit 122 as described above is an example, and is not limited to the above method.

次に、画面表示手段123は、認識可否判別手段122から変更カメラパラメータを受け取ると、変更カメラパラメータを満たすために、操作を誘導するための表示データの生成を行う(ステップA6)。   Next, when receiving the changed camera parameter from the recognition enable / disable determining unit 122, the screen display unit 123 generates display data for guiding an operation in order to satisfy the changed camera parameter (step A6).

変更カメラパラメータとして、撮影距離が入力された場合には、画面表示手段123は、例えば、操作を誘導するための表示データを、画像データ内の所定の領域を、該領域の輪郭を拡大/縮小した図形と重畳することにより作成することができる。この場合、画像表示手段123は、入力された撮影距離を元に、画像データ内の所定の領域を変更後の撮影距離で撮影した場合における変更後の領域の大きさを計算する。例えば、距離が2倍になると画角も2倍になるカメラの場合(図8)、撮影距離が2倍になると、画像データにおける所定領域の大きさは1/2になる(図9)から、変更後の領域の大きさを、現画像データにおける所定領域の1/2の大きさとして算出する。画像表示手段123は、このように計算した領域の大きさを表示する枠状の図形を、画像データに重畳することにより表示データを作成し、表示装置140に送信する。また、他の例として、画像表示手段123は、予め変更パラメータと対応付けられた所定のメッセージを画像データに重畳することにより、表示データを生成しても良い。   When the shooting distance is input as the changed camera parameter, the screen display unit 123 enlarges / reduces the display data for guiding the operation, a predetermined area in the image data, and the outline of the area, for example. It can be created by superimposing on the figure. In this case, the image display unit 123 calculates the size of the changed area when a predetermined area in the image data is imaged at the changed imaging distance based on the input imaging distance. For example, in the case of a camera that doubles the angle of view when the distance is doubled (FIG. 8), the size of the predetermined area in the image data is halved (FIG. 9) when the shooting distance is doubled. Then, the size of the changed area is calculated as a half size of the predetermined area in the current image data. The image display unit 123 creates display data by superimposing a frame-like figure that displays the size of the calculated area on the image data, and transmits the display data to the display device 140. As another example, the image display unit 123 may generate display data by superimposing a predetermined message previously associated with the change parameter on the image data.

表示装置140は、入力された表示データを液晶ディスプレイ等の画面に表示する(ステップA7)。   The display device 140 displays the input display data on a screen such as a liquid crystal display (step A7).

次に、本発明を実施するための第1の実施の形態の効果について説明する。   Next, the effect of the first embodiment for carrying out the present invention will be described.

本発明の第1の実施の形態では、認識アプリケーションにおける入力画像の要件を意識することなく、撮影者は、該要件を満たす画像を撮影することが出来る。本発明の第1の実施の形態は、撮影画像の合焦状態を解析した結果を元に認識可否判別処理を行い、認識不可の場合には、認識可能な合焦状態の画像を撮影するためのカメラパラメータを再設定または再設定を行うための誘導表示を行うからである。   In the first embodiment of the present invention, the photographer can take an image that satisfies the requirement without being aware of the requirement of the input image in the recognition application. In the first embodiment of the present invention, the recognition possibility determination process is performed based on the result of analyzing the in-focus state of a photographed image. When the recognition is impossible, a recognizable in-focus state image is photographed. This is because guidance display for resetting or resetting the camera parameters is performed.

また、本発明の第1の実施の形態では、要件を満たす画像を撮影するための撮影者による操作が容易となる。その理由は、内部機構を制御することによってはカメラパラメータの再設定が不可能な場合であっても、認識可能な画像を撮影するためのカメラパラメータへと誘導する誘導表示を行うからである。誘導表示は、画面等の表示装置により表示されるため、利用者は、当該表示を見ながら具体的なカメラの操作方法(カメラをどの方向にどのくらい動かせばよいか等)を知ることができ、認識アプリケーションにおける入力画像の要件を満たす画像を撮影するための撮影条件を撮影者が実現しやすい。   In the first embodiment of the present invention, an operation by a photographer for photographing an image that satisfies the requirements is facilitated. The reason is that even if it is impossible to reset the camera parameters by controlling the internal mechanism, a guidance display for guiding to the camera parameters for taking a recognizable image is performed. Since the guidance display is displayed on a display device such as a screen, the user can know the specific camera operation method (how much and in what direction the camera should be moved) while viewing the display, It is easy for the photographer to realize photographing conditions for photographing an image that satisfies the requirements of the input image in the recognition application.

また、本発明の第1の実施の形態によれば、要件を満たす画像を撮影するための撮影者による操作が容易となる。その理由は、内部機構の制御によるカメラパラメータの再設定が可能な場合には、撮影者による操作を要することなく認識可能な画像を撮影できる状態となるからである。
[実施例]
次に、本発明の第1の実施例を、図面を参照して説明する。かかる実施例は本発明を実施するための第1の実施の形態に対応するものである。
Further, according to the first embodiment of the present invention, an operation by a photographer for photographing an image that satisfies the requirements is facilitated. The reason is that when the camera parameters can be reset by the control of the internal mechanism, a recognizable image can be captured without requiring an operation by the photographer.
[Example]
Next, a first embodiment of the present invention will be described with reference to the drawings. This example corresponds to the first embodiment for carrying out the present invention.

本実施例は、撮像装置としてカメラ付き携帯電話を、データ処理装置として前記カメラ付き携帯電話に内蔵された小型コンピュータを、データ記憶装置として前記カメラ付き携帯電話に内蔵されたRAMを、出力装置として前記カメラ付き携帯電話のディスプレイを備えている。   In this embodiment, a camera-equipped cellular phone is used as an imaging device, a small computer built in the camera-equipped cellular phone is used as a data processing device, and a RAM built in the camera-equipped cellular phone is used as a data storage device as an output device. The camera-equipped mobile phone display is provided.

小型コンピュータは、合焦状態解析手段121、認識可否判別手段122、画面表示手段123として機能する中央演算処理装置を有しており、またRAMには、カメラパラメータと、認識可否判別パラメータが記憶されている。   The small computer has a central processing unit that functions as an in-focus state analyzing unit 121, a recognition enable / disable determining unit 122, and a screen display unit 123, and a camera parameter and a recognition enable / disable determining parameter are stored in the RAM. ing.

カメラパラメータ記憶部には、図3に示すように、例えば解像度は”1280x1024”、F値は”4.0”、ズーム段階は”2”が予め定められている。また、認識可否判別パラメータ記憶部には、図4に示すように、合焦状態を示す量(以下ぼけ量と呼ぶ)と撮影距離との認識可否の関係に対して、認識できる範囲を示したパラメータが予め定められている。   As shown in FIG. 3, for example, the resolution is “1280 × 1024”, the F value is “4.0”, and the zoom level is “2” as shown in FIG. Further, as shown in FIG. 4, the recognizable / unrecognizable parameter storage unit shows a recognizable range with respect to the recognizable relationship between the amount indicating the focus state (hereinafter referred to as a blur amount) and the shooting distance. Parameters are predetermined.

今、カメラパラメータ記憶部で定められたパラメータで画像を撮影し、合焦状態解析手段121に入力されたとする。   Now, it is assumed that an image is captured with parameters determined by the camera parameter storage unit and input to the in-focus state analysis unit 121.

合焦状態解析手段121では中央演算処理装置により、画像の合焦状態の解析を行う。合焦状態の解析は、エッジの滑らかさをぼけ量とする方法や、中間色の占める割合をぼけ量とする方法がある。合焦状態の解析が終了した後、合焦状態解析手段121は、ぼけ量の値を認識可否判別手段122に供給する。   The in-focus state analyzing unit 121 analyzes the in-focus state of the image by the central processing unit. The in-focus state analysis includes a method in which the smoothness of the edge is used as a blur amount and a method in which the proportion of the intermediate color is used as a blur amount. After the in-focus state analysis is completed, the in-focus state analyzing unit 121 supplies the blur amount value to the recognition possibility determining unit 122.

認識可否判別手段122は、入力されたぼけ量を認識可否判別パラメータと比較する。認識不可と判別された場合、パラメータ設定が可能かを判断した後、可能であればパラメータ設定を行う。ぼけ量を改善するパラメータはF値であるので、F値のパラメータを例えば、F4.0からF5.6に変更することになる。パラメータ設定が可能でない場合、認識可批判別手段122は、認識可能な目標ぼけ量の計算を行い、理想的な撮影距離を変更カメラパラメータとして画面表示手段123へ出力する。   The recognition enable / disable determining unit 122 compares the input blur amount with the recognition enable / disable determining parameter. If it is determined that recognition is impossible, it is determined whether parameter setting is possible, and then parameter setting is performed if possible. Since the parameter for improving the blur amount is the F value, the F value parameter is changed from, for example, F4.0 to F5.6. If the parameter setting is not possible, the recognizable / criminalizing means 122 calculates a recognizable target blur amount and outputs the ideal shooting distance to the screen display means 123 as a changed camera parameter.

例えば、合焦状態解析手段121によって出力されたぼけ量が100であったとする。この場合において、認識可否判別手段122が認識可否判別パラメータ記憶部132からぼけ量100と対応付けられた撮影距離と認識の可否を読み出すと、ぼけ量100は図7のAに配置されるから、撮影距離は5cmで認識不可と判断される。認識可能範囲にマッピング位置を移動させるには、目標ぼけ量の50まで、ぼけ量を低減させる必要がある(図7のB)。目標ぼけ量から、理想撮影距離は10cmなので、現在の位置から5cm離れて撮影すればよい。認識可否判別手段122は、変更後カメラパラメータとして理想撮影距離10cmなる情報を出力する。   For example, it is assumed that the amount of blur output by the in-focus state analyzing unit 121 is 100. In this case, when the recognition possibility determination unit 122 reads out the shooting distance associated with the blur amount 100 and the recognition possibility from the recognition possibility determination parameter storage unit 132, the blur amount 100 is arranged in A of FIG. The shooting distance is 5 cm and it is determined that recognition is impossible. In order to move the mapping position to the recognizable range, it is necessary to reduce the blur amount to the target blur amount of 50 (B in FIG. 7). Since the ideal shooting distance is 10 cm from the target blur amount, it is sufficient to shoot at a distance of 5 cm from the current position. The recognition enable / disable determining unit 122 outputs information indicating an ideal shooting distance of 10 cm as the changed camera parameter.

画面表示手段123は、前記出力された理想撮影距離を元に、現在表示している対象領域をどのくらいの大きさで表示すればよいかを計算する。例えば距離が2倍になると画角も2倍になるカメラの場合(図8)、撮影距離が2倍になると、撮影対象は1/2になる(図9)。これにより、対象領域は現在の対象領域の1/2の大きさに設定する。このように計算した対象領域の大きさを作成し、表示装置140に送信する。   The screen display means 123 calculates how large the target area currently displayed should be displayed based on the output ideal shooting distance. For example, in the case of a camera that doubles the angle of view when the distance is doubled (FIG. 8), when the shooting distance is doubled, the object to be photographed is halved (FIG. 9). As a result, the target area is set to half the current target area. The size of the target area calculated in this way is created and transmitted to the display device 140.

表示装置140は、画面表示手段123で生成した対象領域を表示する。   The display device 140 displays the target area generated by the screen display unit 123.

以下に、図10及び図11を参照しながら、画面表示手段123で生成する対象例について具体的に説明する。画面表示手段123は、予めこれらの表示を行うことができるように設定されているものとする。   Hereinafter, an example of a target generated by the screen display unit 123 will be described in detail with reference to FIGS. 10 and 11. The screen display unit 123 is set in advance so that these displays can be performed.

図10において表示画面1には、誘導表示として矩形が表示されており、理想撮影距離に応じて、矩形領域が拡大することを示している(図10(a))。矩形領域が小さくなる場合は、「カメラを引いてください」や、矩形領域が大きくなる場合は、「カメラを近づけて撮影してください」という文言を表示してもよい(図10(b))。   In FIG. 10, a rectangle is displayed on the display screen 1 as a guide display, and indicates that the rectangular area is enlarged according to the ideal shooting distance (FIG. 10A). When the rectangular area is small, the words "Please pull the camera" may be displayed, and when the rectangular area becomes large, the words "Please shoot with the camera close" may be displayed (Fig. 10 (b)). .

図11において表示画面2には、誘導表示として撮影対象物体の輪郭が表示されており、理想撮影距離に応じて、輪郭が拡大・縮小することを示している(図11(a))。輪郭が小さくなる場合は、「カメラを引いて撮影してください」や、輪郭が大きくなる場合は、「カメラを近づけて撮影してください」という文言を表示してもよい(図11(b))。ここで、撮影対象物体の輪郭は、従来手法である2次微分による輪郭抽出処理や、「新編 画像解析ハンドブック」(高木幹雄・下田陽久監修、日本、2004年、253〜254頁)に記載のsnakeを用いた輪郭抽出処理を用いることにより抽出することが出来る。   In FIG. 11, the outline of the object to be imaged is displayed on the display screen 2 as a guide display, indicating that the outline is enlarged or reduced in accordance with the ideal shooting distance (FIG. 11 (a)). When the contour becomes smaller, the words “Please pull the camera to shoot” and when the contour becomes larger, the words “Please shoot with the camera closer” may be displayed (FIG. 11B). ). Here, the contour of the object to be photographed is described in the conventional method of contour extraction by quadratic differentiation or “New Image Analysis Handbook” (supervised by Mikio Takagi and Yoshihisa Shimoda, Japan, 2004, pages 253 to 254). It can be extracted by using a contour extraction process using snake.

このような誘導表示により、撮影者は、画面を見ながらカメラをどの方向にどのくらい動かせばよいかがわかる。
[第2の実施の形態]
次に、本発明の第2の実施の形態について図面を参照して説明する。
Such guidance display allows the photographer to know how much and in what direction the camera should be moved while looking at the screen.
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to the drawings.

第1の実施の形態は、画像を認識できるか否かを判定するための指標として、画像データの合焦状態を解析することにより得られるぼけ量を用いたが、本発明を実施するための第2の実施の形態は、画像を認識できるか否かを判定するための指標として、画像データの解像度状態を解析することにより得られる解像度状態値を用いる点で、第1の実施の形態と異なる。すなわち、第2の実施の形態は、解像度低下による認識付加原因を把握し、解像度低下を防ぐためのカメラパラメータ設定を行うことを特徴とする。   In the first embodiment, the blur amount obtained by analyzing the in-focus state of the image data is used as an index for determining whether or not the image can be recognized. The second embodiment is different from the first embodiment in that a resolution state value obtained by analyzing a resolution state of image data is used as an index for determining whether or not an image can be recognized. Different. That is, the second embodiment is characterized in that the cause of recognition addition due to a decrease in resolution is grasped, and camera parameter setting is performed to prevent the decrease in resolution.

図12は、第2の実施の形態の構成を示す図である。図12を参照すると、本発明の第2の実施の形態では、合焦状態解析手段121に代えて解像度解析手段124を備える点認識可否判別パラメータ記憶部132に代えて認識可否判別パラメータ記憶部133を備える点、及び認識可否判別手段122に変えて認識可否判別手段125を備える点で第1の実施の形態と異なる。第1の実施の形態と同様の構成要素については同一の番号を付し説明を省略する。   FIG. 12 is a diagram illustrating the configuration of the second embodiment. Referring to FIG. 12, in the second embodiment of the present invention, a recognition possibility determination parameter storage unit 133 is provided instead of the point recognition possibility determination parameter storage unit 132 provided with a resolution analysis unit 124 instead of the in-focus state analysis unit 121. And a point different from the first embodiment in that a recognition availability determination unit 125 is provided instead of the recognition availability determination unit 122. Constituent elements similar to those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.

解像度解析手段124は、画像データを入力とし、画像を認識できるか否かを判定するための指標を得るために、画像データから解像度状態を解析し、解像度状態値を出力する。解像度状態の解析は、例えば、画像データ中の対象物体の大きさを解像度状態値として計測したり、2次元バーコードの型番情報を読み取ったりすること等により行うことが出来る。解像度状態の解析処理の方法の例は後述される。   The resolution analysis unit 124 receives the image data, analyzes the resolution state from the image data and outputs a resolution state value in order to obtain an index for determining whether or not the image can be recognized. The analysis of the resolution state can be performed, for example, by measuring the size of the target object in the image data as the resolution state value or reading the model number information of the two-dimensional barcode. An example of the resolution state analysis processing method will be described later.

認識可否判別パラメータ記憶部133は、画像データを解析することにより得られる指標として解像度状態値を用いる点で認識可否判別パラメータ記憶部132と異なる。すなわち、認識可否判別パラメータ記憶部133は、解像度状態値と、カメラパラメータと、認識できるか否かを示す認識の可否とを対応付けて記憶する。図15は、認識可否判別パラメータ記憶部133に記憶される、解像度状態値と、カメラパラメータと、認識の可否との対応付けの一例を示す図である。この図では、理解を容易にするために、解像度状態値と、カメラパラメータの一部であるカメラ解像度との対応付けをグラフの形状で示している。具体的には、カメラ解像度を縦軸に、解像度状態値を横軸にとり、対応付けられた両者の関係が所定のグラフ形状で示されている。また、カメラ解像度と解像度状態値とのの関係において、認識できる範囲を、所定の領域(図15の例では所定の直線の下部である三角形状の領域)として記憶している。上記記憶の態様は一例であり、このような手法に限られない。   The recognition enable / disable determination parameter storage unit 133 is different from the recognition enable / disable determination parameter storage unit 132 in that a resolution state value is used as an index obtained by analyzing image data. That is, the recognition possibility determination parameter storage unit 133 stores the resolution state value, the camera parameter, and the recognition possibility indicating whether recognition is possible in association with each other. FIG. 15 is a diagram illustrating an example of correspondence between resolution state values, camera parameters, and recognition availability, which is stored in the recognition possibility determination parameter storage unit 133. In this figure, for easy understanding, the correspondence between the resolution state value and the camera resolution which is a part of the camera parameter is shown in the shape of a graph. Specifically, the vertical axis represents the camera resolution and the horizontal axis represents the resolution state value, and the relationship between the two is shown in a predetermined graph shape. Further, in the relationship between the camera resolution and the resolution state value, a recognizable range is stored as a predetermined area (a triangular area that is a lower part of a predetermined straight line in the example of FIG. 15). The above-described storage mode is an example and is not limited to such a method.

認識可否判別手段125は、画像を認識できるか否かを判定するための指標として解像度状態値を用いる点で、認識可否判別手段122と異なる。認識可否判別手段125は、カメラパラメータ記憶部131からカメラパラメータを読み出し、入力された解像度状態値と前記カメラパラメータに対応付けられた認識の可否を読み出し、認識不可の場合には、認識可能となるための変更カメラパラメータ算出し、カメラパラメータ記憶部131に設定する手段である。   The recognition availability determination unit 125 is different from the recognition availability determination unit 122 in that the resolution state value is used as an index for determining whether or not an image can be recognized. The recognition possibility determination unit 125 reads the camera parameter from the camera parameter storage unit 131, reads the input resolution state value and the recognition possibility associated with the camera parameter, and can recognize if the recognition is impossible. This is a means for calculating a changed camera parameter and setting it in the camera parameter storage unit 131.

次に、図12と図13のフローチャートを参照して、本実施の形態の動作について詳細に説明する。なお、第1の実施の形態と同様の動作には、同一の符号が付され、説明は省略される。   Next, the operation of the present embodiment will be described in detail with reference to the flowcharts of FIGS. In addition, the same code | symbol is attached | subjected to the operation | movement similar to 1st Embodiment, and description is abbreviate | omitted.

解像度状態解析手段124は、画像データの解像度状態の解析を行う(ステップB2)。   The resolution state analysis unit 124 analyzes the resolution state of the image data (step B2).

解像度状態の解析を終えると、解像度状態解析手段124は、解像度状態値を解析結果として認識可否判別手段125に送信する。   When the analysis of the resolution state is finished, the resolution state analysis unit 124 transmits the resolution state value to the recognition availability determination unit 125 as an analysis result.

解像度状態解析手段124は、例えば、画像データ中の対象物体の大きさを計測し、その大きさを解像度状態値とする方法により、解像度状態を解析することができる。画像データ中の対象物体の大きさを計測する方法としては、「新編 画像解析ハンドブック」(高木幹雄・下田陽久監修、日本、2004年、1823〜1824頁)に記載のレイアウト解析で基本の処理となる投影法を用いることができる。投影方向については、縦方向、横方向の2種類について行い、投影量の間隔を解像度状態値とする。   The resolution state analysis unit 124 can analyze the resolution state by, for example, a method of measuring the size of the target object in the image data and setting the size as the resolution state value. As a method of measuring the size of the target object in the image data, the basic processing and the layout analysis described in “New Image Analysis Handbook” (supervised by Mikio Takagi and Yoshihisa Shimoda, Japan, 2004, pages 1823-1824) Can be used. The projection direction is performed in two types, the vertical direction and the horizontal direction, and the interval between the projection amounts is set as the resolution state value.

画像データに2次元バーコードが撮影されている場合には、解像度状態解析手段124は、例えば、2次元バーコードの型番情報を読み取ることにより、2次元バーコードにおける解像度状態の解析を行っても良い。この型番情報は、2次元バーコードの1辺がいくつのモジュール数から構成されているかが記載されている(JIS X 0510 2次元コードシンボル−QRコード−基本仕様、2004年、5頁、7.3章)。解像度状態解析手段124は、モジュール数と2次元バーコードの画像上の1辺の長さ(画素数)から、1モジュールが何画素から構成されているかを計算し、その値を解像度状態値として用いることができる。例えば、撮影した2次元バーコードの1辺の長さが300画素だとすると、解像度状態解析手段124は、型番情報から1辺が54個のモジュールから構成されていると読み取った場合、1モジュールあたりの画素数は300÷54=5.56となることから、解像度状態値を5.56とする(図14)。   When a two-dimensional barcode is captured in the image data, the resolution state analyzing unit 124 may analyze the resolution state in the two-dimensional barcode by reading the model number information of the two-dimensional barcode, for example. good. This model number information describes how many modules each side of a two-dimensional barcode is composed of (JIS X 0510 two-dimensional code symbol-QR code-basic specification, 2004, page 5, 7. Chapter 3). The resolution state analysis means 124 calculates how many pixels each module is composed of from the number of modules and the length of one side (number of pixels) on the image of the two-dimensional barcode, and uses the value as the resolution state value. Can be used. For example, assuming that the length of one side of the photographed two-dimensional barcode is 300 pixels, the resolution state analyzing unit 124 reads from the model number information that one side is composed of 54 modules, Since the number of pixels is 300 ÷ 54 = 5.56, the resolution state value is set to 5.56 (FIG. 14).

上記のような画像データの解像度状態の解析手法はその一例を示すものであり、上記手法に限られない。   The above-described analysis method of the resolution state of the image data is an example, and is not limited to the above method.

次に、認識可否判別手段125では、解像度状態値を受け取り、認識可否判別パラメータ記憶部に格納されている、認識可否判別パラメータと照合し、解析結果が認識可能であるかを確認する(ステップB3)。認識可否判別手段125は、例えば、カメラパラメータ記憶部131から読み出したカメラパラメータと、受け取った解像度状態値とに対応付けられた認識の可否を読み出し、認識可能か否かを判断する。   Next, the recognition possibility determination unit 125 receives the resolution state value, compares it with the recognition possibility determination parameter stored in the recognition permission determination parameter storage unit, and confirms whether the analysis result is recognizable (step B3). ). The recognition possibility determination unit 125 reads, for example, the recognition possibility associated with the camera parameter read from the camera parameter storage unit 131 and the received resolution state value, and determines whether the recognition is possible.

認識可能である場合、後の処理は行われない(ステップB3のYes)。認識不可能である場合(ステップB3のNo)、認識可否判別手段125は、認識可否判別パラメータ記憶部134から認識できるためのカメラパラメータを求め、カメラパラメータの再設定が可能かを判断した後(ステップB4)、カメラパラメータ記憶部131に再設定し(ステップB5)、再撮影するとともに、画面表示手段123に変更カメラパラメータを出力する。。   If it can be recognized, the subsequent processing is not performed (Yes in step B3). If it is not recognizable (No in step B3), the recognizability determining unit 125 obtains a camera parameter that can be recognized from the recognizability determining parameter storage unit 134, and after determining whether the camera parameter can be reset ( Step B4), the camera parameter storage unit 131 is reset (step B5), the image is taken again, and the changed camera parameter is output to the screen display means 123. .

認識可否判別手段125は、例えば、カメラの撮像解像度(図15に示すカメラ解像度)を変更することにより、認識できるカメラパラメータを設定することが出来る。つまり、撮影時の解像度よりも更に高い解像度での撮影が可能な場合に、カメラパラメータ記憶部131に対して撮影時の解像度を高くするカメラパラメータを設定する。例えば、カメラ解像度が1280x1024、解像度状態値が5.56、ズーム段階が2の場合、かかる点は、図15の点Aに配置される。ここでカメラ解像度を1616x1212にすると、点Aは点Bに移動し、認識可能領域に配置される。カメラ解像度を1616x1212に変更することで認識可能になることから、認識可否判別手段125は、カメラ解像度を1616x1212とする変更カメラパラメータをカメラパラメータ記憶部131に設定し、撮像装置110は設定されたカメラパラメータで再撮影する。   The recognizability determining means 125 can set a recognizable camera parameter by changing the imaging resolution of the camera (camera resolution shown in FIG. 15), for example. That is, when shooting at a higher resolution than that at the time of shooting is possible, camera parameters for increasing the resolution at the time of shooting are set in the camera parameter storage unit 131. For example, when the camera resolution is 1280 × 1024, the resolution state value is 5.56, and the zoom level is 2, this point is arranged at point A in FIG. Here, when the camera resolution is 1616 × 1212, the point A moves to the point B and is arranged in the recognizable area. Since the camera can be recognized by changing the camera resolution to 1616 × 1212, the recognition possibility determination unit 125 sets the changed camera parameter for setting the camera resolution to 1616 × 1212 in the camera parameter storage unit 131, and the imaging device 110 sets the set camera. Re-shoot with parameters.

他の例として、認識可否判別手段125は、例えば、カメラのズーム機能を使用することにより、認識できるカメラパラメータを設定することが出来る。すなわち、撮影時のズーム段階を上げることで、撮影対象を大きく写し解像度を上げる。例えば、カメラ解像度が1280x1024、解像度状態値が5.56、ズーム段階が2の場合、かかる点は、図15の点Aに配置される。ここで、ズーム段階を2倍の4にすると、解像度状態値は2倍となり、5.56x2=11.12となる(点C)。ズーム段階を2倍にすることで、点Aは点Cに移動し、認識可能領域に配置される。ズーム段階を2倍の4に変更することで認識可能になることから、認識可否判別手段125は、ズーム段階を4とする変更カメラパラメータをカメラパラメータ記憶部131に設定し、撮像装置110は設定されたカメラパラメータで再撮影する。   As another example, the recognition possibility determination unit 125 can set a recognizable camera parameter by using, for example, a zoom function of the camera. In other words, by raising the zoom stage at the time of shooting, the object to be shot is enlarged to increase the resolution. For example, when the camera resolution is 1280 × 1024, the resolution state value is 5.56, and the zoom level is 2, this point is arranged at point A in FIG. Here, when the zoom stage is doubled to 4, the resolution state value is doubled and 5.56 × 2 = 11.12 (point C). By doubling the zoom stage, point A moves to point C and is placed in the recognizable area. Since it becomes possible to recognize by changing the zoom level to 2 × 4, the recognition possibility determination unit 125 sets the changed camera parameter for setting the zoom level to 4 in the camera parameter storage unit 131, and the imaging apparatus 110 sets it. Reshoot with the specified camera parameters.

また、認識可否判別手段125は、カメラの撮像解像度の変更と、カメラのズーム機能の使用とを併用しても良い。   Further, the recognition possibility determination unit 125 may use both the change of the imaging resolution of the camera and the use of the zoom function of the camera.

画面表示手段123は、カメラパラメータ記憶部131の内容が設定された場合に、その旨を表示装置140に送信するようにしても良い。この場合、画面表示手段123は再設定されたカメラパラメータを埋め込んだ画像データを生成して表示装置140に送信し、表示装置140は、該内容を表示装置に表示しても良い。このようにすれば、撮影者はカメラパラメータが再設定されたことを理解できる。また、この再設定した旨の通知・非通知は切り替えられるようにしてもよい。   When the content of the camera parameter storage unit 131 is set, the screen display unit 123 may transmit that fact to the display device 140. In this case, the screen display unit 123 may generate image data in which the reset camera parameters are embedded and transmit the image data to the display device 140, and the display device 140 may display the contents on the display device. In this way, the photographer can understand that the camera parameters have been reset. Further, notification / non-notification of the resetting may be switched.

次に、本発明を実施するための第2の実施の形態の効果について説明する。   Next, the effect of the second embodiment for carrying out the present invention will be described.

本発明を実施するための第2の実施の形態では、解像度状態を解析する手段が加えられているため、解像度不足による認識可否を判別することができる。認識不可の場合、理想的な解像度状態を撮影するためのカメラパラメータを再設定するので、認識しやすい画像を撮影することができる。   In the second embodiment for carrying out the present invention, since a means for analyzing the resolution state is added, it is possible to determine whether or not recognition is possible due to insufficient resolution. If the recognition is impossible, the camera parameters for photographing the ideal resolution state are reset, so that an image that is easy to recognize can be photographed.

第2の実施の形態として、第1の実施の形態の合焦状態解析手段121に解像度解析手段124を有する構成を説明したが、他の実施の形態として、合成状態解析手段121と解像度解析手段124との双方を有するように構成しても良い。そのような構成によれば、詳細な入力画像の要件を満たすための操作を誘導することができる。
[第3の実施の形態]
次に、本発明の第3の実施の形態について図面を参照して説明する。
As the second embodiment, the configuration in which the in-focus state analysis unit 121 of the first embodiment includes the resolution analysis unit 124 has been described. However, as another embodiment, the composite state analysis unit 121 and the resolution analysis unit are included. 124 may be provided. According to such a configuration, an operation for satisfying the requirement of a detailed input image can be guided.
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to the drawings.

図16は、第3の実施の形態の構成を示すブロック図である。図16を参照すると、本発明の第3の実施の形態は、画質状態解析手段126と画質調整手段127と認識可否判別手段128をさらに備える点、及び認識可否判別パラメータ記憶部132に代えて認識可否判別パラメータ記憶部134を備える点で第1の実施の形態と異なる。第3の実施の形態はこれらを有することにより、画質低下による認識不可要因を把握し、画質低下を防ぐための画像処理、パラメータ設定を行うことを特徴とする。   FIG. 16 is a block diagram illustrating the configuration of the third embodiment. Referring to FIG. 16, the third embodiment of the present invention further includes an image quality state analysis unit 126, an image quality adjustment unit 127, and a recognition enable / disable determining unit 128, and recognizes instead of the recognition enable / disable determination parameter storage unit 132. This is different from the first embodiment in that an availability determination parameter storage unit 134 is provided. The third embodiment is characterized in that, by having these, an unrecognizable factor due to image quality degradation is grasped, and image processing and parameter setting are performed to prevent image quality degradation.

画質状態解析手段126は、画像データを入力とし、画像を認識できるか否かを判定するための指標を得るために、画像データから画質状態を解析し、解析結果として画質状態値を出力する。画質状態の解析は、例えば、画像のコントラストを解析し、コントラスト値を画質状態値として用いることが出来る。画質状態の解析方法は、後述される。   The image quality state analyzing unit 126 receives the image data, analyzes the image quality state from the image data, and outputs an image quality state value as an analysis result in order to obtain an index for determining whether or not the image can be recognized. In the analysis of the image quality state, for example, the contrast of the image can be analyzed and the contrast value can be used as the image quality state value. A method of analyzing the image quality state will be described later.

認識可否判別パラメータ記憶部134は、認識可否判別パラメータ記憶部132の記憶する内容に加えて、画質状態値と認識の可否とが対応付けられて記憶する。   The recognition possibility determination parameter storage unit 134 stores, in addition to the contents stored in the recognition possibility determination parameter storage unit 132, the image quality state value and the recognition possibility in association with each other.

認識可否判別手段128は、画質状態値を入力とし、認識可否判別パラメータ記憶部134から、画質状態値に対応付けられた認識の可否を読み出し、認識可能か否かを判断するとともに、認識不可の場合には、認識可能とするために目標となる画質状態値を読み出して出力する。   The recognition possibility determination unit 128 receives the image quality state value as input, reads out the recognition possibility associated with the image quality state value from the recognition permission determination parameter storage unit 134, determines whether or not recognition is possible, and does not recognize it. In this case, a target image quality state value is read and output so as to be recognizable.

画質状態調整手段127は、目標とする画質状態値を入力とし、目標とする画質状態値への調整が可能か否かを判断し、調整可能な場合には所定の画像処理を行う手段である。調整不可能である場合には、予め定められた文字列を画面表示手段に出力する。   The image quality state adjustment unit 127 is a unit that receives a target image quality state value as input, determines whether adjustment to the target image quality state value is possible, and performs predetermined image processing if adjustment is possible. . If adjustment is impossible, a predetermined character string is output to the screen display means.

次に、図16と図17のフローチャートを参照して、本実施の形態の動作について詳細に説明する。   Next, the operation of the present embodiment will be described in detail with reference to the flowcharts of FIGS. 16 and 17.

撮像装置110は、カメラパラメータ記憶部131で保持しているカメラパラメータに基づいて撮影した画像データを画質状態解析手段126に送信する(ステップC1)。画質状態解析手段126は、画像データの画質状態の解析を行う(ステップC2)。画質状態の解析結果は認識可否判別手段128に送信される。   The imaging device 110 transmits the image data captured based on the camera parameters held in the camera parameter storage unit 131 to the image quality state analysis unit 126 (step C1). The image quality state analyzing unit 126 analyzes the image quality state of the image data (step C2). The analysis result of the image quality state is transmitted to the recognition possibility determination unit 128.

画質状態解析手段126による撮影画像の画質状態の解析内容としては、例えば、画像のコントラストがある。コントラストを画像中の最大輝度値と最小輝度値の大きさと定義すると、画像中の輝度値のヒストグラム図18では、最大輝度値245、最小輝度値5で、コントラスト値は240になる。コントラスト値が大きいほど画像ははっきりと写り、認識しやすい画像といえる。このような例によれば、画質状態解析手段126は、コントラスト値を解析結果とする。   The analysis content of the image quality state of the captured image by the image quality state analysis unit 126 includes, for example, image contrast. When the contrast is defined as the maximum luminance value and the minimum luminance value in the image, the maximum luminance value 245 and the minimum luminance value 5 in the histogram of luminance values in the image in FIG. The larger the contrast value, the clearer the image, and the easier it is to recognize. According to such an example, the image quality state analyzing unit 126 uses the contrast value as the analysis result.

次に、認識可否判別手段122では、画質状態の解析結果を受け取り、認識可否判別パラメータ記憶部に格納されている、認識可否判別パラメータと照合し、解析結果が認識可能かを確認する(ステップC3)。認識可能である場合、後の処理は行われない。認識不可能である場合、認識可否判別手段128は、認識可否判別パラメータ記憶部から認識可能な画質状態値と認識の可否とを読み出し、画質調整手段127に出力する。その後、画質調整手段127は、受け取った画質状態値と認識の可否とから、画質調整可能かを判断する(ステップC4)。画質調整可能である場合、画質調整手段127は、受け取った画質状態値に基づいて画像処理を行う(ステップC6)。画質調整不可能である場合、画質調整手段127は、予め定められた文言を表示装置140に表示する(ステップC5)。   Next, the recognition possibility determination means 122 receives the analysis result of the image quality state, compares it with the recognition permission determination parameter stored in the recognition permission determination parameter storage unit, and confirms whether the analysis result can be recognized (step C3). ). If it can be recognized, no further processing is performed. When the recognition is impossible, the recognition availability determination unit 128 reads the recognizable image quality state value and the recognition availability from the recognition availability determination parameter storage unit, and outputs them to the image quality adjustment unit 127. Thereafter, the image quality adjustment unit 127 determines whether the image quality can be adjusted based on the received image quality state value and the recognition possibility (step C4). If the image quality adjustment is possible, the image quality adjustment unit 127 performs image processing based on the received image quality state value (step C6). If the image quality adjustment is impossible, the image quality adjustment unit 127 displays a predetermined word on the display device 140 (step C5).

画質状態値としてコントラスト値を用いる例で説明すると、例えば、認識可否判別パラメータ記憶部は、認識可能コンラトスト値として200を、認識不可コントラスト値として100を記憶するようにして、コントラスト値と認識の可否とが対応付けて記憶される。すなわち、この場合、認識可能なコントラスト値は200以上、認識不可コントラストは100以下となる。   To explain using an example in which a contrast value is used as the image quality state value, for example, the recognizable / unrecognizable determination parameter storage unit stores 200 as a recognizable contrast value and 100 as a nonrecognizable contrast value. Are stored in association with each other. That is, in this case, the recognizable contrast value is 200 or more and the unrecognizable contrast is 100 or less.

認識可否判別パラメータ記憶部が上述の情報を記憶している場合の例で、例えば、画質状態解析手段126による画質状態の解析により、コントラスト値が150と解析され、認識可否判別手段128が受け取った例を説明する。この場合、認識可否判別手段は、コントラスト値150と対応付けられた認識の可否を読み出す。コントラスト値150は、認識可能なコントラスト値と認識不可能なコントラストの間にあるコントラスト値であり、対応付けられる認識の可否は、認識可能コントラストでも認識不可コントラストでもない。認識可否判別手段128はかかる結果を画質調整手段127へ出力する。また、認識可否判別手段128は、認識の可否が認識可能コントラストで無い場合には、認識の可否と併せて、認識可能なコントラスト値を目標画質状態値として出力してもよい。   In the example in which the recognition possibility determination parameter storage unit stores the above-described information, for example, the image quality state analysis is performed by the image quality state analysis unit 126, and the contrast value is analyzed as 150. An example will be described. In this case, the recognition enable / disable determining unit reads the recognition enable / disable associated with the contrast value 150. The contrast value 150 is a contrast value between the recognizable contrast value and the unrecognizable contrast, and the recognition possibility associated with the contrast value is neither a recognizable contrast nor a non-recognizable contrast. The recognition possibility determination unit 128 outputs the result to the image quality adjustment unit 127. Further, if the recognition possibility is not the recognizable contrast, the recognition possibility determination unit 128 may output a recognizable contrast value as the target image quality state value together with the recognition possibility.

画質調整手段127はかかる結果を受け取り、認識不可コントラストではないことから、調整可能と判断する。前記判断の後、画質調整手段127は、コントラストに関する画像処理を行い、画質の調整された画像データを出力する。コントラストを調整する方法は、例えば、「新編 画像解析ハンドブック」(高木幹雄・下田陽久監修、日本、2004年)の1171〜1176頁に記載されている方法を用いることができる。画質調整手段127は、コントラストを調整する値を決定する際に、認識可否判別パラメータ部に記憶されている認識可能コントラスト値を参考にしてもよい。また、認識可否判別手段128から受け取った目標画質状態値を参考にしてもよい。   The image quality adjusting unit 127 receives the result and determines that the adjustment is possible because the contrast is not unrecognizable. After the determination, the image quality adjusting unit 127 performs image processing relating to contrast and outputs image data with adjusted image quality. As a method for adjusting the contrast, for example, the method described on pages 1171 to 1176 of “New Edition Image Analysis Handbook” (supervised by Mikio Takagi and Yoshihisa Shimoda, Japan, 2004) can be used. The image quality adjusting unit 127 may refer to the recognizable contrast value stored in the recognizable determination parameter unit when determining the value for adjusting the contrast. Further, the target image quality state value received from the recognition availability determination unit 128 may be referred to.

また、画質状態解析手段によりコントラスト値が50と解析された場合は、認識可否判別手段128は、かかるコントラスト値を認識不可コントラストであるとして画質調整手段126に出力する。この場合、画質調整手段127は、受け取ったコントラスト値が認識不可コントラストであることから、調整できないと判断する。画質調整手段127は前記判断と共に、「ライトを付けてください」「明るい場所で撮影してください」などの予め定められた文字列を画面表示手段123に出力しても良い(図19に表示された態様の一例)。なお、画質状態解析手段126により解析されたコントラスト値が200以上の場合は、認識可能コントラストとして画質調整手段127に通知されるので、画質調整手段126は画質調整を行わない。   When the contrast value is analyzed as 50 by the image quality state analyzing unit, the recognition possibility determining unit 128 outputs the contrast value as the unrecognizable contrast to the image quality adjusting unit 126. In this case, the image quality adjustment unit 127 determines that adjustment is impossible because the received contrast value is unrecognizable contrast. The image quality adjusting means 127 may output a predetermined character string such as “Please turn on the light” and “Please shoot in a bright place” to the screen display means 123 together with the above determination (displayed in FIG. 19). Example of the embodiment). If the contrast value analyzed by the image quality state analyzing unit 126 is 200 or more, the image quality adjusting unit 126 is notified as a recognizable contrast, and the image quality adjusting unit 126 does not adjust the image quality.

次に、合焦状態解析手段121は、画質調整後の画像データを入力とし、合焦状態の解析を行う(ステップA2)。その後、合焦状態解析手段121は、解析結果を認識可否判別手段122に送信する。   Next, the in-focus state analyzing unit 121 receives the image data after the image quality adjustment, and analyzes the in-focus state (step A2). Thereafter, the in-focus state analyzing unit 121 transmits the analysis result to the recognition possibility determining unit 122.

以降の動作は、第1の実施の形態と同様である。   Subsequent operations are the same as those in the first embodiment.

次に、本発明を実施するための第3の実施の形態の効果について説明する。   Next, the effect of the third embodiment for carrying out the present invention will be described.

本発明を実施するための第3の実施の形態では、画質状態を解析する手段と、画質を調整する手段が加えられており、合焦状態を解析する前に画質状態を解析し、画質を調整する。このため、撮影された画像データが認識アプリケーションにおける画質の要件を満たすかどうかを判別することが出来る。具体的には、画質低下による認識可否を判別することができる。   In the third embodiment for carrying out the present invention, means for analyzing the image quality state and means for adjusting the image quality are added, and the image quality state is analyzed before analyzing the in-focus state. adjust. For this reason, it is possible to determine whether the captured image data satisfies the image quality requirement in the recognition application. Specifically, it is possible to determine whether or not recognition is possible due to image quality degradation.

また、本発明を実施するための第3の実施の形態は、撮影された画像データが認識できない場合であって、認識可能な画質へと調整できる場合には画質の調整を行う。このため、所定の場合には、撮影条件等を変更することなく、認識アプリケーション処理にとって認識しやすい画像データを生成することができる。   The third embodiment for carrying out the present invention adjusts the image quality when the captured image data cannot be recognized and can be adjusted to a recognizable image quality. Therefore, in a predetermined case, it is possible to generate image data that is easy to recognize for the recognition application process without changing the shooting conditions and the like.

また、本発明を実施するための第3の実施の形態では、要件を満たす画像を撮影するための撮影者による操作が容易となる。その理由は、内部機構を制御することによってはカメラパラメータを再設定できない場合であっても、認識可能な合焦状態になるカメラパラメータへと誘導する誘導表示を行うからである。誘導表示は、画面等の表示装置により表示されるため、撮影者は、当該表示を見ながら具体的なカメラの操作方法(カメラをどの方向にどのくらい動かせばよいか等)を知ることができ、認識アプリケーションにおける入力画像の要件を満たす画像を撮影するための撮影条件を撮影者が実現しやすい。   Further, in the third embodiment for carrying out the present invention, an operation by a photographer for photographing an image satisfying the requirements becomes easy. The reason is that even if the camera parameters cannot be reset by controlling the internal mechanism, guidance display is performed to guide the camera parameters to a recognizable in-focus state. Since the guidance display is displayed by a display device such as a screen, the photographer can know the specific camera operation method (how much the camera should be moved in which direction, etc.) while viewing the display. It is easy for the photographer to realize photographing conditions for photographing an image that satisfies the requirements of the input image in the recognition application.

また、本発明の各実施の形態における各構成要素は、その機能をハードウェア的に実現することはもちろん、コンピュータとプログラムとで実現することができる。プログラムは、磁気ディスクや半導体メモリ等のコンピュータ可読記録媒体に記録されて提供され、コンピュータの立ち上げ時などにコンピュータに読み取られ、そのコンピュータの動作を制御することにより、そのコンピュータを前述した各実施の形態における構成要素として機能させる。
[産業上の利用可能性]
本発明によれば、最適な画質で撮影するための撮影操作誘導装置や、撮影操作誘導装置をコンピュータに実現するためのプログラムといった用途に適用できる。また、顔認識や指紋認証を備えているデジタルカメラやデジタルビデオカメラに搭載されている、画質調整機能といった用途にも適用できる。
In addition, each component in each embodiment of the present invention can be realized by a computer and a program as well as its function in hardware. The program is provided by being recorded on a computer-readable recording medium such as a magnetic disk or a semiconductor memory, and is read by the computer at the time of starting up the computer, etc. It functions as a component in the form.
[Industrial applicability]
INDUSTRIAL APPLICABILITY According to the present invention, the present invention can be applied to uses such as a shooting operation guiding device for shooting with an optimum image quality and a program for realizing a shooting operation guiding device on a computer. It can also be applied to applications such as an image quality adjustment function installed in digital cameras and digital video cameras equipped with face recognition and fingerprint authentication.

本発明の第1の実施の形態の構成を示すブロック図。The block diagram which shows the structure of the 1st Embodiment of this invention. 本発明の第1の実施の形態の動作を示すフローチャートThe flowchart which shows operation | movement of the 1st Embodiment of this invention. カメラパラメータの例を示す説明図Explanatory diagram showing examples of camera parameters ぼけ量と撮影距離の関係から認識可能範囲を示す説明図Explanatory diagram showing the recognizable range from the relationship between blur amount and shooting distance 合焦状態と非合焦状態におけるぼけ量の関係を1次元で説明した図A one-dimensional illustration of the relationship between the amount of blur in the in-focus state and the out-of-focus state 合焦状態と非合焦状態におけるぼけ量の関係を2次元平面で説明した図A diagram illustrating the relationship between the amount of blur in the in-focus state and the out-of-focus state on a two-dimensional plane 計測したぼけ量と目標ぼけ量と各々の撮影距離を説明した図Diagram explaining the measured blur amount, target blur amount, and each shooting distance 撮影距離と画角の例を示す説明図Explanatory drawing showing examples of shooting distance and angle of view 撮影距離と撮影対象の大きさを示す説明図Explanatory drawing showing the shooting distance and the size of the shooting target 誘導表示を矩形として表示画面上に表示した例を示す説明図Explanatory drawing which shows the example which displayed the guidance display on the display screen as a rectangle 誘導表示を撮影対象の輪郭として表示画面上に表示した例を示す説明図Explanatory drawing which shows the example which displayed the guidance display on the display screen as the outline of the photographing object 本発明の第2の実施の形態の構成を示すブロック図The block diagram which shows the structure of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の動作を示すフローチャートThe flowchart which shows the operation | movement of the 2nd Embodiment of this invention. 2次元バーコードの解像度状態値の計算例を示す説明図Explanatory drawing which shows the example of calculation of the resolution state value of a two-dimensional barcode 解像度状態とズーム段階変更による効果を示す説明図Explanatory diagram showing the effect of changing the resolution state and zoom level 本発明の第3の実施の形態の構成を示すブロック図The block diagram which shows the structure of the 3rd Embodiment of this invention. 本発明の第4の実施の形態の動作を示すフローチャートThe flowchart which shows the operation | movement of the 4th Embodiment of this invention. コントラストの例を示す説明図Explanatory drawing showing an example of contrast 誘導表示を文言として表示画面上に表示した例を示す説明図Explanatory drawing which shows the example which displayed the guidance display on the display screen as words

符号の説明Explanation of symbols

110 撮像装置
120 データ処理装置
121 合焦状態解析手段
122 認識可否判別手段
123 画面表示手段
124 解像度解析手段
125 認識可否判別手段
126 画質状態解析手段
127 画質調整手段
128 認識可否判別手段
130 データ記憶装置
131 カメラパラメータ記憶部
132 認識可否判別パラメータ記憶部
133 認識可否判別パラメータ記憶部
134 認識可否判別パラメータ記憶部
140 表示装置
DESCRIPTION OF SYMBOLS 110 Image pick-up device 120 Data processing device 121 Focus state analysis means 122 Recognizability judgment means 123 Screen display means 124 Resolution analysis means 125 Recognizability judgment means 126 Image quality state analysis means 127 Image quality adjustment means 128 Recognizability judgment means 130 Data storage device 131 Camera parameter storage unit 132 Recognition enable / disable determination parameter storage unit 133 Recognition enable / disable determination parameter storage unit 134 Recognition enable / disable determination parameter storage unit 140 Display device

Claims (8)

画像データに対し画像処理を行い所定の指標を出力する解析手段と、
前記指標とカメラパラメータと画像データを認識できるか否かを示す認識の可否とを対応付けて記憶する認識可否パラメータ記憶手段と、
前記認識可否パラメータ記憶手段から前記指標に対応するカメラパラメータと認識の可否を読み出し、認識できない場合に、認識できるためのカメラパラメータを出力する認識可否判別手段と、
前記出力されたカメラパラメータに基づいて操作を誘導するための誘導表示を行う表示手段と、
を備えることを特徴とする撮影操作誘導システム。
Analysis means for performing image processing on the image data and outputting a predetermined index;
Recognizability parameter storage means for storing the index, camera parameter, and recognizability indicating whether or not image data can be recognized;
Recognizability determining means for reading out the camera parameter corresponding to the index and the recognition enable / disable from the recognition enable / disable parameter storage means, and outputting a camera parameter for recognizing when the recognition is impossible
Display means for performing guidance display for guiding operations based on the output camera parameters;
An imaging operation guidance system comprising:
前記解析手段は、画像データの合焦状態を解析しぼけ量を出力する合焦状態解析手段であり、
前記認識可否パラメータ記憶手段は、ぼけ量と、被写体との距離と、画像データを認識できるか否かを示す認識の可否とを対応付けて記憶する、
ことを特徴とする請求項1に記載の撮影操作誘導システム。
The analysis unit is a focus state analysis unit that analyzes a focus state of image data and outputs a blur amount,
The recognizability parameter storage means associates and stores a blur amount, a distance to a subject, and a recognition possibility indicating whether image data can be recognized;
The photographing operation guiding system according to claim 1.
前記解析手段は、画像データの解像度状態を解析し解像度状態値を出力する解像度状態解析手段であり、
前記認識可否パラメータ記憶手段は、解像度状態値と、カメラ解像度と、画像データを認識できるか否かを示す認識の可否とを対応付けて記憶する、
ことを特徴とする請求項1に記載の撮影操作誘導システム。
The analysis unit is a resolution state analysis unit that analyzes a resolution state of image data and outputs a resolution state value,
The recognition possibility parameter storage means stores a resolution state value, a camera resolution, and a recognition possibility indicating whether or not image data can be recognized in association with each other.
The photographing operation guiding system according to claim 1.
前記認識可否パラメータ記憶手段は、画像データの画質の状態を示す画質状態値と画像データを認識できるか否かを示す認識の可否をさらに記憶し、
画質状態値を入力とし、前記認識可否パラメータ記憶手段から入力された画質状態値に対応する認識の可否を読み出し、画質状態値と認識の可否とを出力する第2の認識可否判別手段と、
画像データから画質状態値を算出する画質解析手段と、
画像データと認識の可否と画質状態値とを受け取り、画質を調整可能か否か判断し、調整可能な場合に、受け取った画像データの画質を調整した画像データを出力する画質調整手段と、
をさらに備え、
前記解析手段は、前記画質調整手段から出力される画像データを入力とする
ることを特徴とする請求項2または3に記載の撮影操作誘導システム。
The recognizability parameter storage means further stores an image quality state value indicating the image quality state of the image data and a recognition availability indicating whether the image data can be recognized,
A second recognition enable / disable determining unit that receives an image quality state value as input, reads out the recognition enable / disable corresponding to the image quality state value input from the recognition enable / disable parameter storage unit, and outputs the image quality state value and the recognition enable / disable;
An image quality analysis means for calculating an image quality state value from the image data;
An image quality adjusting means for receiving image data, recognition availability and image quality state value, determining whether the image quality can be adjusted, and, if adjustable, outputting image data obtained by adjusting the image quality of the received image data;
Further comprising
4. The photographing operation guiding system according to claim 2, wherein the analyzing unit receives image data output from the image quality adjusting unit.
情報処理装置に、
画像データに対し画像処理を行い所定の指標を出力する解析処理と、
前記指標とカメラパラメータと画像データを認識できるか否かを示す認識の可否とを対応付けて記憶する認識可否パラメータ記憶処理と、
前記認識可否パラメータ記憶手段から前記指標に対応するカメラパラメータと認識の可否を読み出し、認識できない場合に、認識できるためのカメラパラメータを出力する認識可否判別処理と、
前記出力されたカメラパラメータに基づいて操作を誘導するための誘導表示を行う表示処理と、
を実行させることを特徴とするプログラム。
In the information processing device,
An analysis process for performing image processing on the image data and outputting a predetermined index;
Recognizability parameter storage processing for storing the index, camera parameter, and recognizability indicating whether or not image data can be recognized;
A recognition / non-recognition determining process for reading out a camera parameter corresponding to the index and recognition / non-recognition from the recognition / non-recognition parameter storage unit, and outputting a camera parameter for recognition when the recognition is impossible.
Display processing for performing guidance display for guiding an operation based on the output camera parameters;
A program characterized by having executed.
前記解析処理は、画像データの合焦状態を解析しぼけ量を出力する合焦状態解析処理であり、
前記認識可否パラメータ記憶処理は、ぼけ量と、被写体との距離と、画像データを認識できるか否かを示す認識の可否とを対応付けて記憶する、
ことを特徴とする請求項5に記載のプログラム。
The analysis process is a focus state analysis process for analyzing a focus state of image data and outputting a blur amount;
The recognizability parameter storage process stores a blur amount, a distance to a subject, and a recognition possibility indicating whether or not image data can be recognized in association with each other.
The program according to claim 5.
前記解析処理は、画像データの解像度状態を解析し解像度状態値を出力する解像度状態解析処理であり、
前記認識可否パラメータ記憶処理は、解像度状態値と、カメラ解像度と、画像データを認識できるか否かを示す認識の可否とを対応付けて記憶する、
ことを特徴とする請求項5に記載のプログラム。
The analysis process is a resolution state analysis process for analyzing a resolution state of image data and outputting a resolution state value;
The recognizability parameter storage process stores a resolution state value, a camera resolution, and a recognition possibility indicating whether or not image data can be recognized in association with each other.
The program according to claim 5.
前記認識可否パラメータ記憶処理は、画像データの画質の状態を示す画質状態値と画像データを認識できるか否かを示す認識の可否をさらに記憶する処理であり、
画質状態値を入力とし、前記認識可否パラメータ記憶手段から入力された画質状態値に対応する認識の可否を読み出し、画質状態値と認識の可否とを出力する第2の認識可否判別処理と、
画像データから画質状態値を算出する画質解析処理と、
画像データと認識の可否と画質状態値とを受け取り、画質を調整可能か否か判断し、調整可能な場合に、受け取った画像データの画質を調整した画像データを出力する画質調整処理と、
をさらに実行させる、
前記解析処理は、前記画質調整処理から出力される画像データを入力とする
ることを特徴とする請求項6または7に記載のプログラム。
The recognizability parameter storage process is a process of further storing an image quality state value indicating the image quality state of the image data and a recognition possibility indicating whether the image data can be recognized,
A second recognition enable / disable determination process for receiving an image quality state value as input, reading out the recognition possibility corresponding to the image quality state value input from the recognition enable / disable parameter storage means, and outputting the image quality state value and the recognition enable / disable;
Image quality analysis processing for calculating image quality state values from image data;
An image quality adjustment process for receiving image data, recognition possibility and image quality state value, determining whether the image quality can be adjusted, and outputting image data in which the image quality of the received image data is adjusted when the image data can be adjusted;
To run further,
The program according to claim 6 or 7, wherein the analysis process receives image data output from the image quality adjustment process.
JP2007038977A 2007-02-20 2007-02-20 System, method and program for guiding photographing work Withdrawn JP2008205774A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007038977A JP2008205774A (en) 2007-02-20 2007-02-20 System, method and program for guiding photographing work

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007038977A JP2008205774A (en) 2007-02-20 2007-02-20 System, method and program for guiding photographing work

Publications (1)

Publication Number Publication Date
JP2008205774A true JP2008205774A (en) 2008-09-04

Family

ID=39782798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007038977A Withdrawn JP2008205774A (en) 2007-02-20 2007-02-20 System, method and program for guiding photographing work

Country Status (1)

Country Link
JP (1) JP2008205774A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092403A (en) * 2008-10-10 2010-04-22 Hitachi Automotive Systems Ltd Road marking recognition system
JP2011186950A (en) * 2010-03-10 2011-09-22 Toshiba Tec Corp Code reader and program
JP2013196281A (en) * 2012-03-19 2013-09-30 Fujitsu Ltd Code image reading device, operation method for code image reading device and code image reading program
JP2014507037A (en) * 2011-02-28 2014-03-20 データロジック・アイピー・テック・エス・エール・エル Optical identification method for moving objects
JP2015136083A (en) * 2014-01-20 2015-07-27 カシオ計算機株式会社 Information acquisition device, information acquisition method, and information acquisition program
JP2016033788A (en) * 2014-07-31 2016-03-10 株式会社キーエンス Optical information reading device, optical information reading method, and program
JP2017229093A (en) * 2017-09-01 2017-12-28 日本電気株式会社 Portable terminal, imaging method and program
KR101832372B1 (en) * 2011-09-02 2018-02-27 엘지전자 주식회사 Mobile terminal and control method therof
JP2018045735A (en) * 2017-12-27 2018-03-22 株式会社キーエンス Optical information reading device, optical information reading method, and program
WO2019084179A1 (en) * 2017-10-24 2019-05-02 Nike Innovate C.V. Image recognition system
JP2022059013A (en) * 2014-08-27 2022-04-12 日本電気株式会社 Information processing apparatus, recognition support method, and computer program
WO2023181108A1 (en) * 2022-03-22 2023-09-28 日本電気株式会社 Camera control device, control method, and non-transitory computer-readable medium

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092403A (en) * 2008-10-10 2010-04-22 Hitachi Automotive Systems Ltd Road marking recognition system
JP2011186950A (en) * 2010-03-10 2011-09-22 Toshiba Tec Corp Code reader and program
US8439259B2 (en) 2010-03-10 2013-05-14 Toshiba Tec Kabushiki Kaisha Code reading apparatus, sales registration processing apparatus, and code reading method
JP2014507037A (en) * 2011-02-28 2014-03-20 データロジック・アイピー・テック・エス・エール・エル Optical identification method for moving objects
KR101832372B1 (en) * 2011-09-02 2018-02-27 엘지전자 주식회사 Mobile terminal and control method therof
JP2013196281A (en) * 2012-03-19 2013-09-30 Fujitsu Ltd Code image reading device, operation method for code image reading device and code image reading program
US9305200B2 (en) 2014-01-20 2016-04-05 Casio Computer Co., Ltd Information acquisition apparatus, information acquisition method, and non-transitory recording medium
JP2015136083A (en) * 2014-01-20 2015-07-27 カシオ計算機株式会社 Information acquisition device, information acquisition method, and information acquisition program
JP2016033788A (en) * 2014-07-31 2016-03-10 株式会社キーエンス Optical information reading device, optical information reading method, and program
JP2022059013A (en) * 2014-08-27 2022-04-12 日本電気株式会社 Information processing apparatus, recognition support method, and computer program
JP7480882B2 (en) 2014-08-27 2024-05-10 日本電気株式会社 Information processing device, recognition assistance method, and computer program
US11915516B2 (en) 2014-08-27 2024-02-27 Nec Corporation Information processing device and recognition support method
JP7255718B2 (en) 2014-08-27 2023-04-11 日本電気株式会社 Information processing device, recognition support method, and computer program
JP2017229093A (en) * 2017-09-01 2017-12-28 日本電気株式会社 Portable terminal, imaging method and program
US11127157B2 (en) 2017-10-24 2021-09-21 Nike, Inc. Image recognition system
US11810344B2 (en) 2017-10-24 2023-11-07 Nike, Inc. Image recognition system
WO2019084179A1 (en) * 2017-10-24 2019-05-02 Nike Innovate C.V. Image recognition system
JP2018045735A (en) * 2017-12-27 2018-03-22 株式会社キーエンス Optical information reading device, optical information reading method, and program
WO2023181108A1 (en) * 2022-03-22 2023-09-28 日本電気株式会社 Camera control device, control method, and non-transitory computer-readable medium

Similar Documents

Publication Publication Date Title
JP2008205774A (en) System, method and program for guiding photographing work
US7787693B2 (en) Text detection on mobile communications devices
US20060045374A1 (en) Method and apparatus for processing document image captured by camera
US9503629B2 (en) Image processing apparatus, image processing method, and computer-readable device having instructions for generating focused image
US8582891B2 (en) Method and apparatus for guiding user with suitable composition, and digital photographing apparatus
US20100157107A1 (en) Image Apparatus And Electronic Apparatus
US20100157085A1 (en) Image pickup device, flash image generating method, and computer-readable memory medium
JP6863284B2 (en) Detection device, detection method, detection program and imaging device
JP5825172B2 (en) Image determination apparatus, image determination method, and computer program for image determination
JP2009110486A (en) Unit, method and program for image processing, imaging unit, and control method for imaging unit
US10455163B2 (en) Image processing apparatus that generates a combined image, control method, and storage medium
JP2006094082A (en) Image photographing device, and program
WO2018196854A1 (en) Photographing method, photographing apparatus and mobile terminal
KR20070085795A (en) Image correction device and image correction method
EP2200275B1 (en) Method and apparatus of displaying portrait on a display
JP2008211534A (en) Face detecting device
US8643730B2 (en) Imaging device and image capturing method
JP2008181439A (en) Face detection device and method, and imaging apparatus
JP6016546B2 (en) Imaging device, control method thereof, and control program
US7956911B2 (en) Digital photographing apparatus, and method and program for controlling the same
JP2008098739A (en) Imaging apparatus, image processing method used for imaging apparatus and program making computer execute same image processing method
JP2020086216A (en) Imaging control device, imaging apparatus and imaging control program
US12063432B2 (en) Information processing apparatus, information processing method, and storage medium
JP7020387B2 (en) Imaging control device, imaging device and imaging control program
JP2009302830A (en) Imaging apparatus

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20080613

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20090513

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100511