JP2011227692A - Size measurement device - Google Patents

Size measurement device Download PDF

Info

Publication number
JP2011227692A
JP2011227692A JP2010096620A JP2010096620A JP2011227692A JP 2011227692 A JP2011227692 A JP 2011227692A JP 2010096620 A JP2010096620 A JP 2010096620A JP 2010096620 A JP2010096620 A JP 2010096620A JP 2011227692 A JP2011227692 A JP 2011227692A
Authority
JP
Japan
Prior art keywords
size
capturing
measuring
scene image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010096620A
Other languages
Japanese (ja)
Inventor
渉 ▲高▼柳
Wataru Takayanagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010096620A priority Critical patent/JP2011227692A/en
Publication of JP2011227692A publication Critical patent/JP2011227692A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a size measurement device capable of easily measuring the size of a desired object.SOLUTION: In the size measurement device, an image sensor 16 repeatedly outputs a subject field image generated by an imaging surface that captures a subject field. A CPU 34 repeatedly conducts a process of searching for a specified object image based on the subject field image output by the image sensor 16 with the use of multiple reference specified object images each of which displays different postures, and detects the number of the specified objects that exist in the subject field on the basis of the results of the search. In addition, the CPU 34 repeatedly judges whether each of the specified objects of the detected number satisfies a posture condition or not on the basis of the results of the search, and records the subject field image output by the image sensor 16 when the result of the judge turns from negative to positive.

Description

この発明は、サイズ測定装置に関し、特に電子カメラに用いられ、被写界像に現れた所定の物体のサイズを測定する、サイズ測定装置に関する。   The present invention relates to a size measuring apparatus, and more particularly to a size measuring apparatus that is used in an electronic camera and measures the size of a predetermined object appearing in an object scene image.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、スルー表示されている画像中の被写体人物の輪郭が抽出され、被写体人物の身長がCCD中で占める高さが抽出された輪郭に基づいて求められる。人物に対する焦点距離は、求められた高さと認識データベースに登録されている被写体人物の実際の身長とに基づいて算出される。   An example of this type of device is disclosed in Patent Document 1. According to this background art, the contour of the subject person in the through-displayed image is extracted, and the height occupied by the height of the subject person in the CCD is obtained based on the extracted contour. The focal length with respect to the person is calculated based on the calculated height and the actual height of the subject person registered in the recognition database.

特開2007−249132号公報JP 2007-249132 A

しかし、背景技術では、登録された人物と異なる被写体がサイズ測定の対象とされることはなく、特にこのような被写体の実際のサイズが測定されることはない。したがって、背景技術では、サイズ測定性能に限界がある。   However, in the background art, a subject different from the registered person is not subjected to size measurement, and in particular, the actual size of such a subject is not measured. Therefore, the size measurement performance is limited in the background art.

それゆえに、この発明の主たる目的は、所望の物体のサイズを簡便に測定することができる、サイズ測定装置を提供することである。   Therefore, a main object of the present invention is to provide a size measuring device that can easily measure the size of a desired object.

この発明に従うサイズ測定装置(10:実施例で相当する参照符号。以下同じ)は、指定人物の全身像が現れた被写界像を取り込む第1取り込み手段(S3, S21, S27, S29, S111, S113)、指定人物の身長を入力する入力操作を第1取り込み手段の取り込み処理に関連して受け付ける受け付け手段(S35, S37)、第1取り込み手段によって取り込まれた被写界像と入力操作によって入力された身長とに基づいて指定人物の特定部位のサイズを測定する第1測定手段(S33, S39, S41)、指定人物の特定部位と所望の物体とが現れた被写界像を取り込む第2取り込み手段(S1, S3, S69, S81~S87, S93, S95, S121~S125)、および第2取り込み手段によって取り込まれた被写界像と第1測定手段によって測定されたサイズとに基づいて所望の物体のサイズを測定する第2測定手段(S71~S75, S99~S103)を備える。   The size measuring device according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) includes first capturing means (S3, S21, S27, S29, S111) for capturing a scene image in which a whole body image of a designated person appears. , S113), accepting means (S35, S37) for accepting an input operation for inputting the height of the designated person in relation to the capturing process of the first capturing means, and the object scene image captured by the first capturing means and the input operation First measurement means (S33, S39, S41) for measuring the size of the specific part of the designated person based on the input height, and capturing a scene image in which the specific part of the designated person and the desired object appear. 2 based on the capture means (S1, S3, S69, S81 to S87, S93, S95, S121 to S125) and the object scene image captured by the second capture means and the size measured by the first measurement means Second measuring means (S71 to S75, S99 to S103) for measuring the size of the desired object That.

好ましくは、特定部位は顔を形成する部位に相当し、第1測定手段は被写界像から顔画像を探索する探索手段(36)を含む。   Preferably, the specific part corresponds to a part forming a face, and the first measurement means includes search means (36) for searching for a face image from the object scene image.

好ましくは、被写界を捉える撮像面を有して被写界像を繰り返し出力する撮像手段(16)をさらに備え、第1取り込み手段は撮像手段から出力された被写界像の一部を取り込む。   Preferably, the image pickup device further includes an image pickup means (16) having an image pickup surface for capturing the object scene and repeatedly outputting the object scene image, and the first capturing means receives a part of the object scene image output from the image pickup means. take in.

さらに好ましくは、撮像手段から出力された被写界像をモニタに再現する第1再現手段(26, 28)、および指定人物の全身像の位置決めを支援するグラフィック画像を第1取り込み手段の取り込み処理に関連してモニタに再現する第2再現手段(34, S7)をさらに備える。   More preferably, the first reproduction means (26, 28) for reproducing the object scene image output from the imaging means on the monitor, and the graphic image for supporting the positioning of the whole body image of the designated person by the first acquisition means In addition, second reproduction means (34, S7) for reproducing on a monitor is further provided.

好ましくは、第2取り込み手段によって取り込まれた被写界像をモニタ画面に再現する第3再現手段(26, 28)、および所望の物体の再現範囲をモニタ画面上で指定する指定操作を第3再現手段の再現処理に関連して受け付ける第2受け付け手段(S61, S89)をさらに備え、第2測定手段は指定操作によって指定された再現範囲を指定人物の特定部位の位置で光軸に直交する平面に投影することで定義される範囲のサイズを第2取り込み手段によって取り込まれた被写界像と第1測定手段によって測定されたサイズとに基づいて測定する。   Preferably, the third reproduction means (26, 28) for reproducing the object scene image captured by the second capture means on the monitor screen, and the designation operation for designating the reproduction range of the desired object on the monitor screen are the third. Second receiving means (S61, S89) for receiving in relation to the reproduction processing of the reproducing means is further provided, and the second measuring means makes the reproduction range designated by the designation operation orthogonal to the optical axis at the position of the specific part of the designated person. The size of the range defined by projecting onto the plane is measured based on the object scene image captured by the second capturing unit and the size measured by the first measuring unit.

好ましくは、第2取り込み手段は、被写界像から特定部位を特徴付ける特徴情報を検出する検出手段(S121)、および検出手段によって検出された特徴情報が指定人物の特定部位の特徴情報と符合するか否かを判別する判別手段(S123, S125)を含み、第2測定手段は判別手段の判別結果が肯定的であるときに測定処理を実行する。   Preferably, the second capturing means detects the characteristic information characterizing the specific part from the object scene image (S121), and the characteristic information detected by the detection means matches the characteristic information of the specific part of the designated person. Determination means (S123, S125) for determining whether or not, the second measurement means executes the measurement process when the determination result of the determination means is affirmative.

好ましくは、被写界像が記録された記録媒体にアクセスするアクセス手段(30)をさらに備え、第2取り込み手段はアクセス手段によって記録媒体から再生された被写界像を取り込む。   Preferably, an access means (30) for accessing the recording medium on which the object scene image is recorded is further provided, and the second capturing means captures the object scene image reproduced from the recording medium by the access means.

好ましくは、所望の物体は撮像面から指定人物の特定部位までの距離に相当する位置に存在する物体である。   Preferably, the desired object is an object that exists at a position corresponding to the distance from the imaging surface to the specific part of the designated person.

この発明によれば、指定人物の身長を入力し、かつ指定人物の全身像が現れた被写界像を取り込めば、指定人物の特定部位のサイズが測定される。その後に、指定人物の特定部位と所望の物体とが現れた被写界像を取り込めば、所望の物体のサイズが測定される。これによって、所望の物体のサイズを簡便に測定することができる。   According to the present invention, if the height of the designated person is input and the object scene image in which the whole body image of the designated person appears is taken in, the size of the specific part of the designated person is measured. After that, if the object scene image in which the specific part of the designated person and the desired object appear is taken in, the size of the desired object is measured. Thereby, the size of a desired object can be easily measured.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. サイズ算出タスクにおいて参照されるレジスタの一例を示す図解図である。It is an illustration figure which shows an example of the register referred in a size calculation task. (A)はガイドラインが画面に表示された状態の一例を示す図解図であり、(B)は人物の両目間のサイズを算出する状態の一例を示す図解図である。(A) is an illustration figure which shows an example of the state by which the guideline was displayed on the screen, (B) is an illustration figure which shows an example of the state which calculates the size between the eyes of a person. 顔検出回路の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of a face detection circuit. 探索処理の一例を示す図解図である。It is an illustration figure which shows an example of a search process. 撮像面において両目間の画素数を検出する状態の一例を示す図解図である。It is an illustration figure which shows an example of the state which detects the pixel count between both eyes in an imaging surface. 物体のサイズを算出する状態の一例を示す図解図である。It is an illustration figure which shows an example of the state which calculates the size of an object. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 他の実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to another Example. 図14実施例に適用されるCPUの動作の他の一部を示すフロー図である。FIG. 15 is a flowchart showing another portion of behavior of the CPU applied to the embodiment in FIG. 14. その他の実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to another Example. 図16実施例に適用されるCPUの動作の他の一部を示すフロー図である。FIG. 17 is a flowchart showing another portion of behavior of the CPU applied to the embodiment in FIG. 16;

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この発明のサイズ測定装置は、基本的に次のように構成される。第1取り込み手段1は、指定人物の全身像が現れた被写界像を取り込む。受け付け手段2は、指定人物の身長を入力する入力操作を第1取り込み手段の取り込み処理に関連して受け付ける。第1測定手段3は、第1取り込み手段によって取り込まれた被写界像と入力操作によって入力された身長とに基づいて指定人物の特定部位のサイズを測定する。第2取り込み手段4は、指定人物の特定部位と所望の物体とが現れた被写界像を取り込む。第2測定手段5は、第2取り込み手段によって取り込まれた被写界像と第1測定手段によって測定されたサイズとに基づいて所望の物体のサイズを測定する。   Referring to FIG. 1, the size measuring apparatus of the present invention is basically configured as follows. The first capturing means 1 captures an object scene image in which a whole body image of a designated person appears. The accepting means 2 accepts an input operation for inputting the height of the designated person in relation to the capturing process of the first capturing means. The first measuring unit 3 measures the size of the specific part of the designated person based on the object scene image captured by the first capturing unit and the height input by the input operation. The second capturing means 4 captures an object scene image in which a specific part of a designated person and a desired object appear. The second measuring unit 5 measures the size of a desired object based on the object scene image captured by the second capturing unit and the size measured by the first measuring unit.

指定人物の身長を入力し、かつ指定人物の全身像が現れた被写界像を取り込めば、指定人物の特定部位のサイズが測定される。その後に、指定人物の特定部位と所望の物体とが現れた被写界像を取り込めば、所望の物体のサイズが測定される。これによって、所望の物体のサイズを簡便に測定することができる。
[実施例]
If the height of the designated person is input and an object scene image in which the whole body image of the designated person appears is taken in, the size of the specific part of the designated person is measured. After that, if the object scene image in which the specific part of the designated person and the desired object appear is taken in, the size of the desired object is measured. Thereby, the size of a desired object can be easily measured.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。被写界の光学像は、これらの部材を通してイメージセンサ16の撮像面に照射される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a focus lens 12 and an aperture unit 14 driven by drivers 18a and 18b, respectively. The optical image of the object scene is irradiated onto the imaging surface of the image sensor 16 through these members.

キー入力装置38に設けられたモード切り換えスイッチ38mdによってカメラモードが選択されると、CPU40は、撮像タスクの下で動画取り込み処理を実行するべく、ドライバ18cを起動する。ドライバ18cは、1/60秒毎に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、撮像面で生成された電荷をラスタ走査態様で読み出す。イメージセンサ16からは、被写界を表す生画像データが60fpsのフレームレートで出力される。   When the camera mode is selected by the mode changeover switch 38md provided in the key input device 38, the CPU 40 activates the driver 18c to execute the moving image capturing process under the imaging task. In response to the vertical synchronization signal Vsync generated every 1/60 seconds, the driver 18c exposes the imaging surface and reads out the charges generated on the imaging surface in a raster scanning manner. From the image sensor 16, raw image data representing the object scene is output at a frame rate of 60 fps.

信号処理回路20は、イメージセンサ16からの生画像データに色分離,白バランス調整,YUV変換などの処理を施し、YUV形式の画像データを作成する。作成された画像データは、メモリ制御回路22を通してSDRAM24に書き込まれる。   The signal processing circuit 20 performs processing such as color separation, white balance adjustment, and YUV conversion on the raw image data from the image sensor 16 to create image data in YUV format. The created image data is written into the SDRAM 24 through the memory control circuit 22.

LCDドライバ26は、SDRAM24に格納された画像データをメモリ制御回路22を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ28を駆動する。この結果、被写界を表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 26 repeatedly reads out the image data stored in the SDRAM 24 through the memory control circuit 22 and drives the LCD monitor 28 based on the read image data. As a result, a real-time moving image (through image) representing the scene is displayed on the monitor screen.

信号処理回路20はまた、YUV変換によって生成されたYデータをCPU40に与える。CPU40は、Yデータに簡易AE処理を施し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間はドライバ18bおよび18cにそれぞれ設定され、これによってスルー画像の明るさが適度に調整される。   The signal processing circuit 20 also supplies the CPU 40 with Y data generated by YUV conversion. The CPU 40 performs simple AE processing on the Y data and calculates an appropriate EV value. The aperture amount and the exposure time that define the calculated appropriate EV value are set in the drivers 18b and 18c, respectively, and thereby the brightness of the through image is appropriately adjusted.

シャッタボタン38sが半押しされると、CPU40は、信号処理回路20から与えられたYデータに厳格なAE処理を施し、最適EV値を算出する。算出された最適EV値を定義する絞り量および露光時間は、上述と同様、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像の明るさが厳格に調整される。   When the shutter button 38s is half-pressed, the CPU 40 performs strict AE processing on the Y data given from the signal processing circuit 20, and calculates the optimum EV value. The aperture amount and the exposure time that define the calculated optimal EV value are set in the drivers 18b and 18c, respectively, as described above. As a result, the brightness of the through image is adjusted strictly.

CPU40は続いて、信号処理回路20から与えられたYデータの高周波成分にAF処理を施す。フォーカスレンズ12はドライバ18aによって光軸方向に移動し、合焦点に配置される。この結果、スルー画像の鮮鋭度が向上する。   Subsequently, the CPU 40 performs AF processing on the high frequency component of the Y data given from the signal processing circuit 20. The focus lens 12 is moved in the optical axis direction by the driver 18a, and is arranged at the focal point. As a result, the sharpness of the through image is improved.

シャッタボタン38sが全押しされると、CPU40は、静止画取り込み処理を実行する。シャッタボタン38sが全押しされた時点の被写界を表す画像データは、SDRAM24に形成されたワークエリア(図示せず)に退避される。   When the shutter button 38s is fully pressed, the CPU 40 executes a still image capturing process. Image data representing the object scene when the shutter button 38s is fully pressed is saved in a work area (not shown) formed in the SDRAM 24.

CPU40はその後、記録処理を実行するべく、I/F30を起動する。I/F30は、ワークエリアに退避された画像データをメモリ制御回路22を通して読み出し、読み出された画像データをファイル形式で記録媒体32に記録する。記録処理が完了すると、スルー画像の表示が再開される。   Thereafter, the CPU 40 activates the I / F 30 in order to execute the recording process. The I / F 30 reads the image data saved in the work area through the memory control circuit 22 and records the read image data on the recording medium 32 in a file format. When the recording process is completed, the display of the through image is resumed.

キー入力装置38に設けられたモード切り換えスイッチ38mdによって再生モードが選択されると、CPU40は、再生タスクの下で以下の処理を実行する。CPU40はまず、記録媒体32に記録された最新の画像ファイルを再生画像ファイルとして指定し、指定画像ファイルに注目した再生処理の実行をI/F30およびLCDドライバ26に命令する。   When the playback mode is selected by the mode changeover switch 38md provided in the key input device 38, the CPU 40 executes the following processing under the playback task. First, the CPU 40 designates the latest image file recorded on the recording medium 32 as a reproduction image file, and instructs the I / F 30 and the LCD driver 26 to execute reproduction processing focusing on the designated image file.

I/F30は、指定された画像ファイルの画像データを記録媒体32から読み出し、読み出された画像データをメモリ制御回路22を通してSDRAM24に書き込む。LCDドライバ26は、SDRAM24に格納された画像データをメモリ制御回路22を通して読み出し、読み出された画像データに対応する光学像を生成する。この結果、生成された光学像は、LCDモニタ28に表示される。   The I / F 30 reads the image data of the designated image file from the recording medium 32 and writes the read image data to the SDRAM 24 through the memory control circuit 22. The LCD driver 26 reads the image data stored in the SDRAM 24 through the memory control circuit 22 and generates an optical image corresponding to the read image data. As a result, the generated optical image is displayed on the LCD monitor 28.

操作者によるキー入力装置38の操作によって、CPU40は、後続の画像ファイルまたは先行する画像ファイルを再生画像ファイルとして指定する。指定画像ファイルは上述と同様の再生処理を施され、この結果、LCDモニタ28の表示が更新される。   By the operation of the key input device 38 by the operator, the CPU 40 designates a subsequent image file or a preceding image file as a reproduction image file. The designated image file is subjected to a reproduction process similar to that described above, and as a result, the display on the LCD monitor 28 is updated.

ディジタルカメラ10の動作モードとして、撮像面が捉えた人物の両目間のサイズを算出するための処理を行うサイズ設定モードが準備される。サイズ設定モードにおける処理のために、図3に示すレジスタRGSTが設けられる。   As an operation mode of the digital camera 10, a size setting mode is prepared for performing processing for calculating the size between both eyes of a person captured by the imaging surface. A register RGST shown in FIG. 3 is provided for processing in the size setting mode.

操作者によるキー入力装置38の操作によってサイズ設定モードが選択されると、グラフィックジェネレータ34は、カーソルCS1を表すグラフィックデータおよびカーソルCS2を表すグラフィックデータをLCDドライバ26に向けて出力する。   When the size setting mode is selected by the operation of the key input device 38 by the operator, the graphic generator 34 outputs graphic data representing the cursor CS1 and graphic data representing the cursor CS2 to the LCD driver 26.

この結果、カーソルCS1およびカーソルCS2からなるガイドラインGL1が、LCDモニタ28の画面に表示される。図4(A)を参照して、カーソルCS1およびカーソルCS2は、各々が水平線分で構成される。また、カーソルCS1は画面の中央上部に表示され、カーソルCS2は画面の中央下部に表示される。なお、カーソルCS1およびカーソルCS2の間の画素数は、HT1で表される。   As a result, the guide line GL1 including the cursor CS1 and the cursor CS2 is displayed on the screen of the LCD monitor 28. Referring to FIG. 4A, cursor CS1 and cursor CS2 are each composed of a horizontal line segment. The cursor CS1 is displayed at the upper center of the screen, and the cursor CS2 is displayed at the lower center of the screen. Note that the number of pixels between the cursor CS1 and the cursor CS2 is represented by HT1.

ディジタルカメラ10の操作者は、LCDモニタ28の表示を見ながら、自らの立ち位置を調整して、撮像面に現れた人物HBの全身像がガイドラインGL1にちょうど収まるようにする(図4(B)参照)。すなわち、人物HBの頭頂部がカーソルCS1と接し、かつ足元がカーソルCS2と接するように、調整する。このように調整することによって、撮像面に現れた人物HBの身長は、カーソルCS1およびカーソルCS2の間の画素数HT1で表すことができる。   The operator of the digital camera 10 adjusts his / her standing position while observing the display on the LCD monitor 28 so that the whole body image of the person HB appearing on the imaging surface fits in the guideline GL1 (FIG. 4B )reference). That is, adjustment is performed so that the top of the person HB is in contact with the cursor CS1 and the foot is in contact with the cursor CS2. By adjusting in this way, the height of the person HB appearing on the imaging surface can be represented by the number of pixels HT1 between the cursor CS1 and the cursor CS2.

顔検出回路36は、図5に示すように構成される。顔検出回路36は、照合枠FDをSDRAM24に格納された被写界像の先頭位置から末尾位置に向けてラスタ走査態様で移動させ、照合枠FDに属する一部の画像を辞書36dに登録された顔画像と照合する。   The face detection circuit 36 is configured as shown in FIG. The face detection circuit 36 moves the verification frame FD from the start position to the end position of the object scene image stored in the SDRAM 24 in a raster scanning manner, and some images belonging to the verification frame FD are registered in the dictionary 36d. Check against the face image.

探索エリアはまず、評価エリアEVAの全域を覆うように設定される。また、顔検出枠FDは、“200”〜“20”の範囲で変化するサイズを有して、図6に示す要領で評価エリアEVA上をラスタ方向に走査される。   First, the search area is set so as to cover the entire evaluation area EVA. Further, the face detection frame FD has a size that changes in the range of “200” to “20”, and is scanned in the raster direction on the evaluation area EVA in the manner shown in FIG.

照合枠FDの画像が登録された顔画像と符合すると、顔検出回路36は、現時点の照合枠FDのサイズおよび位置をレジスタ36eに登録する。照合枠FDは、末尾位置に到達する毎に縮小され、その後に先頭位置に再度設定される。最小サイズの照合枠FDが末尾位置に到達すると、探索終了通知が顔検出回路36からCPU40に向けて返送される。   When the image of the verification frame FD matches the registered face image, the face detection circuit 36 registers the current size and position of the verification frame FD in the register 36e. The collation frame FD is reduced every time it reaches the end position, and then set again at the start position. When the minimum size collation frame FD reaches the end position, a search end notification is returned from the face detection circuit 36 to the CPU 40.

サイズ設定モードが選択された状態でシャッタボタン38sが全押しされると、CPU40は、顔検出回路36から返送された探索終了通知に応答して、人物HBの顔の探索に成功したか否かを判別する。少なくとも1つの照合枠FDがレジスタ36eに登録されていれば、顔画像の探索に成功したと判別される。これに対して、照合枠FDがレジスタ36eに登録されていなければ、顔画像の探索に失敗したと判別される。   When the shutter button 38s is fully pressed in the state where the size setting mode is selected, the CPU 40 responds to the search end notification returned from the face detection circuit 36 and determines whether or not the search for the face of the person HB has succeeded. Is determined. If at least one matching frame FD is registered in the register 36e, it is determined that the face image search has been successful. On the other hand, if the matching frame FD is not registered in the register 36e, it is determined that the face image search has failed.

顔画像の探索に失敗した場合は、CPU40は、両目間のサイズ算出が不能である旨を操作者に向けて報知する。   When the face image search fails, the CPU 40 notifies the operator that the size calculation between both eyes is impossible.

顔画像の探索に成功した場合は、照合枠FDの位置が、人物HBの顔があると予想される許容範囲内、例えばカーソルCS1の直下周辺であるか否かを判別する。照合枠FDの位置すなわち人物HBの顔位置が画面中央部や下部であると、カーソルCS1およびカーソルCS2の間の画素数HT1が、撮像面に現れた人物HBの身長と一致しないからである。   When the search for the face image is successful, it is determined whether or not the position of the matching frame FD is within an allowable range where the face of the person HB is expected, for example, immediately below the cursor CS1. This is because the number of pixels HT1 between the cursor CS1 and the cursor CS2 does not match the height of the person HB appearing on the imaging surface when the position of the matching frame FD, that is, the face position of the person HB is at the center or lower part of the screen.

許容範囲内にあれば、CPU40は、レジスタ36eに設定された照合枠FDの画像において、人物HBの両目の黒目の部分をそれぞれ検出して、その間の画素数WD_ey1を検出する(図7参照)。   If it is within the allowable range, the CPU 40 detects the black-eye portions of both eyes of the person HB in the image of the verification frame FD set in the register 36e, and detects the number of pixels WD_ey1 therebetween (see FIG. 7). .

CPU40は次に、人物HBの身長を入力するように促すメッセージを、LCDモニタ28に表示させる。   Next, the CPU 40 causes the LCD monitor 28 to display a message prompting the user to input the height of the person HB.

前述のように、撮像面に現れた人物HBの身長は、画素数HT1で表すことができる。よって、人物HBの実際の両目間のサイズWD_ey0は、人物HBの実際の身長HT0、撮像面に現れた人物HBの両目間のサイズWD_ey1、および撮像面に現れた人物HBの身長HT1を用いて、以下の数1に示す式で求めることができる。

Figure 2011227692
As described above, the height of the person HB appearing on the imaging surface can be represented by the number of pixels HT1. Therefore, the size WD_ey0 between the actual eyes of the person HB is obtained by using the actual height HT0 of the person HB, the size WD_ey1 between the eyes of the person HB appearing on the imaging surface, and the height HT1 of the person HB appearing on the imaging surface. The following equation 1 can be used.
Figure 2011227692

操作者がキー入力装置38を通じて人物HBの身長を入力すると、CPU34は、両目間のサイズWD_ey0を算出し、算出した両目間のサイズWD_ey0をレジスタRGSTに設定する。   When the operator inputs the height of the person HB through the key input device 38, the CPU 34 calculates the size WD_ey0 between the eyes, and sets the calculated size WD_ey0 between the eyes in the register RGST.

上述した撮像タスクと並行して、CPU40は、所望の物体のサイズを、サイズ算出タスクの下で測定する。   In parallel with the imaging task described above, the CPU 40 measures the size of the desired object under the size calculation task.

レジスタRGSTへの両目間のサイズWD_ey0の設定が完了すると、所望の物体のサイズを測定することができる。はじめに、サイズを測定したい物体と人物HBとを、各々がディジタルカメラ10から等距離となるように、並べて配置する。ディジタルカメラ10の操作者は、LCDモニタ28のスルー画像の表示を見ながら、物体と人物HBの顔とが同一の画角に収まっていることを確認する。例えば、魚FSのサイズを測定したい場合、図7を参照して、人物HBが魚FSを両手で持ち、それを顔の横で抱え上げているような状態が考えられる。以下、図7の例を用いて物体のサイズを測定する処理の詳細を説明する。   When the setting of the size WD_ey0 between both eyes in the register RGST is completed, the size of a desired object can be measured. First, the object whose size is to be measured and the person HB are arranged side by side so as to be equidistant from the digital camera 10. The operator of the digital camera 10 confirms that the object and the face of the person HB are within the same angle of view while watching the through image display on the LCD monitor 28. For example, when it is desired to measure the size of the fish FS, with reference to FIG. 7, a state where the person HB holds the fish FS with both hands and holds it next to the face can be considered. The details of the process of measuring the size of the object will be described below using the example of FIG.

スルー画像がLCDモニタ28に表示されている状態でモニタ画面に対するタッチ操作が行われると、タッチ位置がタッチセンサ38によって検知され、検知結果がCPU40に与えられる。   When a touch operation is performed on the monitor screen while the through image is displayed on the LCD monitor 28, the touch position is detected by the touch sensor 38 and the detection result is given to the CPU 40.

操作者が撮像面に現れた魚FSの水平方向の両端をそれぞれタッチすると、レジスタRGSTに両目間のサイズWD_ey0が設定されているか否かが判別される。設定されていなければ、CPU40は、物体のサイズ測定が不能である旨を操作者に向けて報知する。   When the operator touches both ends in the horizontal direction of the fish FS appearing on the imaging surface, it is determined whether or not the size WD_ey0 between the eyes is set in the register RGST. If not set, the CPU 40 notifies the operator that the object size cannot be measured.

両目間のサイズWD_ey0が設定されていれば、グラフィックジェネレータ34は、カーソルCS3を表すグラフィックデータおよびカーソルCS4を表すグラフィックデータをLCDドライバ26に向けて出力する。   If the size WD_ey0 between the eyes is set, the graphic generator 34 outputs graphic data representing the cursor CS3 and graphic data representing the cursor CS4 to the LCD driver 26.

この結果、カーソルCS3およびカーソルCS4からなるガイドラインGL2が、LCDモニタ28の画面に表示される。図8を参照して、カーソルCS3およびカーソルCS4は、各々が垂直線分で構成される。また、カーソルCS3およびカーソルCS4は、操作者がタッチした箇所すなわち撮像面に現れた魚FSの両端に各々表示される。なお、カーソルCS3およびカーソルCS4の間の画素数は、WD_obj1で表される。   As a result, the guide line GL2 including the cursor CS3 and the cursor CS4 is displayed on the screen of the LCD monitor 28. Referring to FIG. 8, cursor CS3 and cursor CS4 are each composed of a vertical line segment. In addition, the cursor CS3 and the cursor CS4 are respectively displayed at the ends touched by the operator, that is, at both ends of the fish FS appearing on the imaging surface. Note that the number of pixels between the cursor CS3 and the cursor CS4 is represented by WD_obj1.

顔検出回路36は、サイズ設定モードでの処理と同様に、LCD28に表示されている画像において人物HBの顔画像を探索する。顔画像の探索に失敗した場合は、CPU40は、物体のサイズ測定が不能である旨を操作者に向けて報知する。   The face detection circuit 36 searches for the face image of the person HB in the image displayed on the LCD 28 as in the processing in the size setting mode. If the face image search fails, the CPU 40 notifies the operator that the object size cannot be measured.

顔画像の探索に成功すれば、CPU40は、サイズ設定モードでの処理と同様に、照合枠FDの画像において、人物HBの両目の黒目の部分をそれぞれ検出して、その間の画素数WD_ey2を検出する。   If the search for the face image is successful, the CPU 40 detects the black eye portions of both eyes of the person HB in the image of the matching frame FD and detects the number of pixels WD_ey2 between them, as in the processing in the size setting mode. To do.

ガイドラインGL2は撮像面に現れた魚FSの両端を示しているので、人物HBの顔と並んで配置された実際の魚FSの両端は、ガイドラインGL2を人物HBの顔位置でディジタルカメラ10の光軸に直交する平面に投影したものと一致する。   Since the guide line GL2 indicates both ends of the fish FS appearing on the imaging surface, both ends of the actual fish FS arranged side by side with the face of the person HB have the guide line GL2 at the face position of the person HB and the light of the digital camera 10. It corresponds to what was projected on the plane orthogonal to the axis.

よって、魚FSの実際のサイズWD_obj0は、カーソルCS3およびカーソルCS4を人物HBの顔位置でディジタルカメラ10の光軸に直交する平面に各々投影したものの間の距離を求めることによって、算出できる。   Therefore, the actual size WD_obj0 of the fish FS can be calculated by obtaining the distance between the cursor CS3 and the cursor CS4 projected on the plane perpendicular to the optical axis of the digital camera 10 at the face position of the person HB.

したがって、魚FSの実際のサイズWD_obj0は、レジスタRGSTに設定された人物HBの両目間の実際のサイズWD_ey0、撮像面に現れた人物HBの両目間のサイズWD_ey2、およびカーソルCS3およびカーソルCS4の間の画素数WD_obj1を用いて、以下の数2に示す式で求めることができる。

Figure 2011227692
Therefore, the actual size WD_obj0 of the fish FS is the actual size WD_ey0 between the eyes of the person HB set in the register RGST, the size WD_ey2 between the eyes of the person HB appearing on the imaging surface, and between the cursor CS3 and the cursor CS4. Can be obtained by the following equation (2) using the number of pixels WD_obj1.
Figure 2011227692

CPU40は、このようにして求められた魚FSのサイズWD_obj0を、LCDモニタ28に表示させる。   The CPU 40 displays on the LCD monitor 28 the size WD_obj0 of the fish FS obtained in this way.

CPU40は、図8〜10に示す撮像タスク、図11に示す再生タスク、および図12に示すサイズ算出タスクを含む複数のタスクを実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。   The CPU 40 executes a plurality of tasks including an imaging task shown in FIGS. 8 to 10, a reproduction task shown in FIG. 11, and a size calculation task shown in FIG. Note that control programs corresponding to these tasks are stored in the flash memory 44.

図8を参照して、ステップS1では動画取り込み処理を開始し、ステップS3では顔検出回路36を起動する。ステップS5ではサイズ設定モードが選択されているか否かを判別し、判別結果がNOであればステップS9に進み、YESであればステップS7でガイドラインGL1をLCDモニタ28に表示する。   Referring to FIG. 8, in step S1, the moving image capturing process is started, and in step S3, the face detection circuit 36 is activated. In step S5, it is determined whether or not the size setting mode is selected. If the determination result is NO, the process proceeds to step S9. If YES, the guideline GL1 is displayed on the LCD monitor 28 in step S7.

ステップS9ではシャッタボタン38sが半押しされた否かを判別し、判別結果がNOである限り、ステップS11で簡易AE処理を繰り返し実行する。スルー画像の明るさは、簡易AE処理によって適度に調整される。   In step S9, it is determined whether or not the shutter button 38s is half-pressed. As long as the determination result is NO, the simple AE process is repeatedly executed in step S11. The brightness of the through image is appropriately adjusted by the simple AE process.

判別結果がNOからYESに更新されると、ステップS13では厳格AE処理を実行し、ステップS15ではAF処理を実行する。厳格AE処理およびAF処理の結果、スルー画像の明るさおよびフォーカスが厳格に調整される。   When the determination result is updated from NO to YES, a strict AE process is executed in step S13, and an AF process is executed in step S15. As a result of the strict AE process and the AF process, the brightness and focus of the through image are strictly adjusted.

ステップS17ではシャッタボタン38sが全押しされた否かを判別し、判別結果がNOであればステップS19に進み、YESであればステップS21に進む。   In step S17, it is determined whether or not the shutter button 38s is fully pressed. If the determination result is NO, the process proceeds to step S19, and if YES, the process proceeds to step S21.

ステップS19ではシャッタボタン38sが解除されたか否かを判別し、判別結果がYESであればステップS5に戻り、NOであればステップS17に戻る。   In step S19, it is determined whether or not the shutter button 38s has been released. If the determination result is YES, the process returns to step S5, and if NO, the process returns to step S17.

ステップS21では静止画取り込み処理を実行する。ステップS23では動作モードがサイズ設定モードか否かを判別し、判別結果がNOであればステップS25で記録処理を実行し、その後にステップS5に戻る。   In step S21, a still image capturing process is executed. In step S23, it is determined whether or not the operation mode is the size setting mode. If the determination result is NO, the recording process is executed in step S25, and then the process returns to step S5.

ステップS23の判別結果がYESであれば、ステップS27で顔検出回路36から返送された探索終了通知に応答して人物HBの顔の探索に成功したか否かを判別する。ステップS27の判別結果がYESであればステップS29に進み、NOであればステップS31で両目間のサイズ算出が不能である旨を操作者に向けて報知する。   If the determination result of step S23 is YES, it will be determined whether the search of the face of the person HB was successful in response to the search end notification returned from the face detection circuit 36 in step S27. If the determination result of step S27 is YES, it will progress to step S29, and if it is NO, it will alert | report to an operator that the size calculation between both eyes is impossible in step S31.

ステップS29では照合枠FDの位置が照合枠FDの位置が人物HBの顔があると予想される許容範囲内にあるか否かを判別し、判別結果がNOであればステップS31に進み、YESであればステップS33に進む。   In step S29, it is determined whether or not the position of the verification frame FD is within an allowable range in which the position of the verification frame FD is expected to be the face of the person HB. If the determination result is NO, the process proceeds to step S31, YES If so, the process proceeds to step S33.

ステップS33では人物HBの両目の黒目の部分を各々検出してその間の画素数WD_ey1を検出し、ステップS35では人物HBの身長を入力するように促すメッセージをLCDモニタ28に表示させる。   In step S33, the black eyes of both eyes of the person HB are detected to detect the number of pixels WD_ey1 therebetween, and in step S35, a message prompting the user to input the height of the person HB is displayed on the LCD monitor 28.

ステップS37では操作者がキー入力装置38を通じて人物HBの身長を入力したか否かを繰り返し判別する。判別結果がNOからYESに更新されると、ステップS39に進む。   In step S37, it is repeatedly determined whether or not the operator has input the height of the person HB through the key input device. When the determination result is updated from NO to YES, the process proceeds to Step S39.

ステップS39では、人物HBの実際の身長HT0、撮像面に現れた両目間のサイズWD_ey1、および撮像面に現れた人物HBの身長HT1を用いて、人物HBの両目間のサイズWD_ey0を算出する。ステップS41では算出した両目間のサイズWD_ey0をレジスタRGSTに設定し、その後にステップS5に戻る。   In step S39, the size WD_ey0 between the eyes of the person HB is calculated using the actual height HT0 of the person HB, the size WD_ey1 between the eyes appearing on the imaging surface, and the height HT1 of the person HB appearing on the imaging surface. In step S41, the calculated size WD_ey0 between the eyes is set in the register RGST, and then the process returns to step S5.

図11を参照して、ステップS51では変数Kに最新の画像ファイルを示す番号を設定し、ステップS53では記録媒体32に記録されているK番目のフレームの画像ファイルを再生する。   Referring to FIG. 11, in step S51, a number indicating the latest image file is set in variable K, and in step S53, the image file of the Kth frame recorded on recording medium 32 is reproduced.

ステップS55では操作者による再生ファイルを更新する操作があったか否かを繰り返し判別し、判別結果がNOからYESに更新されると、ステップS57で変数Kをインクリメントまたはデクリメントして、ステップS83に戻る。   In step S55, it is repeatedly determined whether or not the operator has performed an operation to update the reproduction file. When the determination result is updated from NO to YES, the variable K is incremented or decremented in step S57, and the process returns to step S83.

図12を参照して、ステップS61では操作者がモニタ画面へのタッチにより物体を指定する操作を行ったか否かを繰り返し判別し、判別結果がNOからYESに更新されると、ステップS63でレジスタRGSTに人物HBの両目間のサイズWD_ey0が設定されているか否かを判別する。   Referring to FIG. 12, in step S61, it is repeatedly determined whether or not the operator has performed an operation of designating an object by touching the monitor screen. If the determination result is updated from NO to YES, the register is updated in step S63. It is determined whether or not the size WD_ey0 between both eyes of the person HB is set in RGST.

ステップS63の判別結果がNOであれば、ステップS65で物体のサイズ測定が不能である旨を操作者に向けて報知し、ステップS61に戻る。YESであれば、ステップS67でガイドラインGL2を操作者がタッチした箇所に表示する。   If the decision result in the step S63 is NO, it notifies the operator that the object size cannot be measured in a step S65, and the process returns to the step S61. If YES, the guideline GL2 is displayed at the location touched by the operator in step S67.

ステップS69では顔検出回路36から返送された探索終了通知に応答して人物HBの顔の探索に成功したか否かを判別し、判別結果がNOであればステップS65に進み、YESであれば、ステップS71で撮像面に現れた人物HBの両目の黒目の部分をそれぞれ検出してその間の画素数WD_ey2を検出する。ステップS73では、カーソルCS3およびカーソルCS4の間の画素数WD_obj1を検出する。   In step S69, it is determined whether or not the search for the face of the person HB has been successful in response to the search end notification returned from the face detection circuit 36. If the determination result is NO, the process proceeds to step S65. In step S71, the black eye portions of both eyes of the person HB appearing on the imaging surface are detected, and the number of pixels WD_ey2 between them is detected. In step S73, the number of pixels WD_obj1 between the cursor CS3 and the cursor CS4 is detected.

ステップS75では、レジスタRGSTに設定された人物HBの両目間の実際のサイズWD_ey0、撮像面に現れた両目間のサイズWD_ey2、およびカーソルCS3およびカーソルCS4の間の画素数WD_obj1を用いて、指定された物体の実際のサイズWD_obj0を算出する。ステップS77では算出した物体の実際のサイズWD_obj0をLCDモニタ28に表示させ、その後にステップS61に戻る。   In step S75, the actual size WD_ey0 between both eyes of the person HB set in the register RGST, the size WD_ey2 between both eyes appearing on the imaging surface, and the number of pixels WD_obj1 between the cursor CS3 and the cursor CS4 are designated. The actual size WD_obj0 of the detected object is calculated. In step S77, the calculated actual size WD_obj0 of the object is displayed on the LCD monitor 28, and then the process returns to step S61.

以上の説明から分かるように、CPU40は、指定人物の全身像が現れた被写界像を取り込み(S3, S21, S27, S29, S111, S113)、指定人物の身長を入力する入力操作を取り込み処理に関連して受け付ける(S35, S37)。また、CPUは、取り込まれた被写界像と入力操作によって入力された身長とに基づいて指定人物の特定部位のサイズを測定し(S33, S39, S41)、指定人物の特定部位と所望の物体とが現れた被写界像を取り込む(S1, S3, S69)。さらに、CPUは、取り込まれた被写界像と測定されたサイズとに基づいて所望の物体のサイズを測定する(S71~S75)。   As can be seen from the above description, the CPU 40 captures an object scene image in which the whole body image of the designated person appears (S3, S21, S27, S29, S111, S113), and captures an input operation for inputting the height of the designated person. Accepted in connection with processing (S35, S37). Further, the CPU measures the size of the specific part of the designated person based on the captured object scene image and the height input by the input operation (S33, S39, S41), and the specific part of the designated person and the desired part are measured. The object scene image in which the object appears is captured (S1, S3, S69). Further, the CPU measures the size of a desired object based on the captured object scene image and the measured size (S71 to S75).

指定人物の身長を入力し、かつ指定人物の全身像が現れた被写界像を取り込めば、指定人物の特定部位のサイズが測定される。その後に、指定人物の特定部位と所望の物体とが現れた被写界像を取り込めば、所望の物体のサイズが測定される。これによって、所望の物体のサイズを簡便に測定することができる。   If the height of the designated person is input and an object scene image in which the whole body image of the designated person appears is taken in, the size of the specific part of the designated person is measured. After that, if the object scene image in which the specific part of the designated person and the desired object appear is taken in, the size of the desired object is measured. Thereby, the size of a desired object can be easily measured.

なお、この実施例では、物体のサイズの算出をスルー画像のLCDモニタ28への表示中に行っているが、記録媒体32に記録された画像の中の物体について、その再生中に行うようにしてもよい。この場合、図11に示す再生タスクおよび図12に示すサイズ算出タスクに代えて、図13および図14に示す再生タスクが実行される。なお、図13のステップS81〜S87は、図11のステップS51〜S57と同様の処理である。ステップS89、S91、およびS95〜S105は、図12のステップS61、S67、S69、S65、およびS71〜S77と同様の処理である。ステップS93は図8のステップS3と同様の処理である。   In this embodiment, the object size is calculated while the through image is displayed on the LCD monitor 28. However, the object in the image recorded on the recording medium 32 is calculated during the reproduction. May be. In this case, the reproduction task shown in FIGS. 13 and 14 is executed instead of the reproduction task shown in FIG. 11 and the size calculation task shown in FIG. Note that steps S81 to S87 in FIG. 13 are the same processes as steps S51 to S57 in FIG. Steps S89, S91, and S95 to S105 are the same processes as steps S61, S67, S69, S65, and S71 to S77 in FIG. Step S93 is the same process as step S3 of FIG.

また、この実施例では、人物の実際の両目間のサイズを算出して物体のサイズの測定に用いたが、人物の他の部位のサイズを算出して用いてもよい。例えば、顔の幅であってもよいし、両鼻孔間のサイズであってもよい。   In this embodiment, the actual size between both eyes of a person is calculated and used to measure the size of the object. However, the size of another part of the person may be calculated and used. For example, it may be the width of the face or the size between both nostrils.

また、この実施例では、レジスタに人物の両目間のサイズが設定されていれば、それを用いて物体のサイズを算出している。しかし、両目間のサイズの設定時に人物の顔の特徴情報も併せてフラッシュメモリ等に記憶させておき、物体のサイズの測定時に、新たに検出された顔と設定されている顔とが一致するか否かを、記憶された特徴情報を用いて判別するようにしてもよい。そして、判別結果で顔が一致するときにのみ、物体のサイズを算出すればよい。ただし、この場合は、図10に示すステップS29とステップS33との間に図15に示すステップS111、S113の処理を実行し、図12に示すステップS69とステップS71との間に図16に示すステップS121〜S125の処理を実行する必要がある。   In this embodiment, if the size between the eyes of the person is set in the register, the size of the object is calculated using the size. However, when setting the size between the eyes, the feature information of the person's face is also stored in a flash memory or the like, and the newly detected face matches the set face when measuring the size of the object. It may be determined using stored feature information. Then, it is only necessary to calculate the size of the object only when the faces match in the discrimination result. However, in this case, the processing of steps S111 and S113 shown in FIG. 15 is executed between steps S29 and S33 shown in FIG. 10, and the processing shown in FIG. 16 is performed between steps S69 and S71 shown in FIG. It is necessary to execute the processes of steps S121 to S125.

図15を参照して、ステップS111では人物HBの顔の特徴情報を検出し、ステップS113では検出した特徴情報をフラッシュメモリ44に記憶させる。また、図16を参照して、ステップS121では人物HBの顔の特徴情報を検出し、ステップS123では新たに検出された顔の特徴情報とフラッシュメモリ44に記憶されている顔の特徴情報とを照合する。ステップS125では照合結果が基準度REFを上回るか否かを判別し、判別結果がNOであればステップS65に進み、YESであればステップS71に進む。   Referring to FIG. 15, the feature information of the face of person HB is detected in step S <b> 111, and the detected feature information is stored in flash memory 44 in step S <b> 113. Referring to FIG. 16, in step S121, the facial feature information of the person HB is detected, and in step S123, the newly detected facial feature information and the facial feature information stored in the flash memory 44 are obtained. Match. In step S125, it is determined whether or not the collation result exceeds the reference level REF. If the determination result is NO, the process proceeds to step S65, and if YES, the process proceeds to step S71.

また、この実施例では、ディジタルカメラ10に対して人物が正面を向いている状態を一例として説明したが、人物の顔として検出できる状態であれば斜め横や真横を向いていてもよい。この場合、辞書36dに正面向き以外の顔向きパターンの画像も登録しておき、これらと照合することによって、撮像面の人物の顔向きを特定することができる。さらに、算出された両目間のサイズに、顔向きに従って補正を施すことによって、両目間のサイズおよび物体のサイズをより正確に算出することができる。   In this embodiment, the state in which the person is facing the front with respect to the digital camera 10 has been described as an example. However, as long as the face can be detected as a person's face, the person may face to the side or the side. In this case, an image of a face orientation pattern other than the front orientation is also registered in the dictionary 36d, and the face orientation of the person on the imaging surface can be specified by collating these images. Furthermore, by correcting the calculated size between both eyes according to the face direction, the size between both eyes and the size of the object can be calculated more accurately.

また、この実施例では、ディジタルスチルカメラを用いて説明したが、本発明は、ディジタルビデオカメラにも適用することができる。   In this embodiment, the digital still camera has been described. However, the present invention can also be applied to a digital video camera.

10 … ディジタルカメラ
16 … イメージセンサ
26 … LCDドライバ
28 … LCDモニタ
30 … I/F
32 … 記録媒体
34 … グラフィックジェネレータ
36 … 顔検出回路
38 … キー入力装置
40 … CPU
42 … タッチセンサ
RGST … レジスタ
DESCRIPTION OF SYMBOLS 10 ... Digital camera 16 ... Image sensor 26 ... LCD driver 28 ... LCD monitor 30 ... I / F
32 ... Recording medium 34 ... Graphic generator 36 ... Face detection circuit 38 ... Key input device 40 ... CPU
42… Touch sensor RGST… Register

Claims (10)

指定人物の全身像が現れた被写界像を取り込む第1取り込み手段、
前記指定人物の身長を入力する入力操作を前記第1取り込み手段の取り込み処理に関連して受け付ける受け付け手段、
前記第1取り込み手段によって取り込まれた被写界像と前記入力操作によって入力された身長とに基づいて前記指定人物の特定部位のサイズを測定する第1測定手段、
前記指定人物の特定部位と所望の物体とが現れた被写界像を取り込む第2取り込み手段、および
前記第2取り込み手段によって取り込まれた被写界像と前記第1測定手段によって測定されたサイズとに基づいて前記所望の物体のサイズを測定する第2測定手段を備える、サイズ測定装置。
First capturing means for capturing an object scene image in which a full-length image of a designated person appears;
Accepting means for accepting an input operation for inputting the height of the designated person in relation to the capturing process of the first capturing means;
First measuring means for measuring the size of the specific part of the designated person based on the object scene image captured by the first capturing means and the height input by the input operation;
A second capturing unit that captures an object scene image in which a specific part of the designated person and a desired object appear, and an object scene image captured by the second capturing unit and a size measured by the first measuring unit; And a second measuring means for measuring the size of the desired object based on the above.
前記特定部位は顔を形成する部位に相当し、
前記第1測定手段は前記被写界像から顔画像を探索する探索手段を含む、請求項1記載のサイズ測定装置。
The specific part corresponds to a part forming a face,
The size measuring apparatus according to claim 1, wherein the first measuring unit includes a searching unit that searches for a face image from the object scene image.
被写界を捉える撮像面を有して被写界像を繰り返し出力する撮像手段をさらに備え、
前記第1取り込み手段は前記撮像手段から出力された被写界像の一部を取り込む、請求項1または2記載のサイズ測定装置。
It further comprises an imaging means having an imaging surface for capturing the scene and repeatedly outputting the scene image,
The size measuring apparatus according to claim 1, wherein the first capturing unit captures a part of the object scene image output from the imaging unit.
前記撮像手段から出力された被写界像をモニタ画面に再現する第1再現手段、および
前記指定人物の全身像の位置決めを支援するグラフィック画像を前記第1取り込み手段の取り込み処理に関連して前記モニタ画面に再現する第2再現手段をさらに備える、請求項3記載のサイズ測定装置。
First reproduction means for reproducing the object scene image output from the imaging means on a monitor screen, and a graphic image for supporting positioning of the whole body image of the designated person in association with the capture processing of the first capture means. The size measurement apparatus according to claim 3, further comprising second reproduction means for reproducing on a monitor screen.
前記第2取り込み手段によって取り込まれた被写界像をモニタ画面に再現する第3再現手段、および
前記所望の物体の再現範囲を前記モニタ画面上で指定する指定操作を前記第3再現手段の再現処理に関連して受け付ける第2受け付け手段をさらに備え、
前記第2測定手段は前記指定操作によって指定された再現範囲を前記指定人物の特定部位の位置で光軸に直交する平面に投影することで定義される範囲のサイズを前記第2取り込み手段によって取り込まれた被写界像と前記第1測定手段によって測定されたサイズとに基づいて測定する、請求項1ないし4のいずれかに記載のサイズ測定装置。
Third reproduction means for reproducing the object scene image captured by the second capture means on a monitor screen, and designation operation for designating the reproduction range of the desired object on the monitor screen is reproduced by the third reproduction means. A second accepting means for accepting the process;
The second measuring unit captures the size of the range defined by projecting the reproduction range specified by the specifying operation onto a plane orthogonal to the optical axis at the position of the specific part of the specified person by the second capturing unit. The size measuring apparatus according to claim 1, wherein the size is measured based on the measured object scene image and the size measured by the first measuring means.
前記第2取り込み手段は、前記被写界像から前記特定部位を特徴付ける特徴情報を検出する検出手段、および前記検出手段によって検出された特徴情報が前記指定人物の特定部位の特徴情報と符合するか否かを判別する判別手段を含み、
前記第2測定手段は前記判別手段の判別結果が肯定的であるときに測定処理を実行する、請求項1ないし5のいずれかに記載のサイズ測定装置。
The second capturing means detects a characteristic information that characterizes the specific part from the object scene image, and whether the characteristic information detected by the detection means matches the characteristic information of the specific part of the designated person A determination means for determining whether or not,
The size measuring apparatus according to claim 1, wherein the second measuring unit executes a measurement process when a determination result of the determining unit is affirmative.
被写界像が記録された記録媒体にアクセスするアクセス手段をさらに備え、
前記第2取り込み手段は前記アクセス手段によって前記記録媒体から再生された被写界像を取り込む、請求項1ないし6のいずれかに記載のサイズ測定装置。
An access means for accessing a recording medium on which the object scene image is recorded;
7. The size measuring apparatus according to claim 1, wherein the second capturing unit captures an object scene image reproduced from the recording medium by the access unit.
前記所望の物体は前記撮像面から前記指定人物の特定部位までの距離に相当する位置に存在する物体である、請求項1ないし7のいずれかに記載のサイズ測定装置。 The size measuring apparatus according to claim 1, wherein the desired object is an object that exists at a position corresponding to a distance from the imaging surface to a specific part of the designated person. サイズ測定装置のプロセッサに、
指定人物の全身像が現れた被写界像を取り込む第1取り込みステップ、
前記指定人物の身長を入力する入力操作を前記第1取り込みステップの取り込み処理に関連して受け付ける受け付けステップ、
前記第1取り込みステップによって取り込まれた被写界像と前記入力操作によって入力された身長とに基づいて前記指定人物の特定部位のサイズを測定する第1測定ステップ、
前記指定人物の特定部位と所望の物体とが現れた被写界像を取り込む第2取り込みステップ、および
前記第2取り込みステップによって取り込まれた被写界像と前記第1測定ステップによって測定されたサイズとに基づいて前記所望の物体のサイズを測定する第2測定ステップを実行させるための、サイズ測定プログラム。
In the processor of the size measuring device,
A first capturing step for capturing a scene image in which a full body image of a designated person appears;
An accepting step of accepting an input operation for inputting the height of the designated person in relation to the capturing process of the first capturing step;
A first measurement step of measuring a size of the specific part of the designated person based on the object scene image captured by the first capture step and the height input by the input operation;
A second capturing step for capturing an object scene image in which a specific part of the designated person and a desired object appear, and an object field image captured by the second capturing step and a size measured by the first measuring step; A size measurement program for executing a second measurement step of measuring the size of the desired object based on
サイズ測定装置によって実行されるサイズ測定方法であって、
指定人物の全身像が現れた被写界像を取り込む第1取り込みステップ、
前記指定人物の身長を入力する入力操作を前記第1取り込みステップの取り込み処理に関連して受け付ける受け付けステップ、
前記第1取り込みステップによって取り込まれた被写界像と前記入力操作によって入力された身長とに基づいて前記指定人物の特定部位のサイズを測定する第1測定ステップ、
前記指定人物の特定部位と所望の物体とが現れた被写界像を取り込む第2取り込みステップ、および
前記第2取り込みステップによって取り込まれた被写界像と前記第1測定ステップによって測定されたサイズとに基づいて前記所望の物体のサイズを測定する第2測定ステップを備える、サイズ測定方法。
A size measuring method executed by a size measuring device,
A first capturing step for capturing a scene image in which a full body image of a designated person appears;
An accepting step of accepting an input operation for inputting the height of the designated person in relation to the capturing process of the first capturing step;
A first measurement step of measuring a size of the specific part of the designated person based on the object scene image captured by the first capture step and the height input by the input operation;
A second capturing step for capturing an object scene image in which a specific part of the designated person and a desired object appear, and an object field image captured by the second capturing step and a size measured by the first measuring step; A size measurement method comprising: a second measurement step of measuring a size of the desired object based on:
JP2010096620A 2010-04-20 2010-04-20 Size measurement device Pending JP2011227692A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010096620A JP2011227692A (en) 2010-04-20 2010-04-20 Size measurement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010096620A JP2011227692A (en) 2010-04-20 2010-04-20 Size measurement device

Publications (1)

Publication Number Publication Date
JP2011227692A true JP2011227692A (en) 2011-11-10

Family

ID=45042966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010096620A Pending JP2011227692A (en) 2010-04-20 2010-04-20 Size measurement device

Country Status (1)

Country Link
JP (1) JP2011227692A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013134186A (en) * 2011-12-27 2013-07-08 Sumitomo Electric Ind Ltd Camera parameter measuring apparatus, camera parameter measuring method, and program
CN105444678A (en) * 2015-11-09 2016-03-30 佛山绿怡信息科技有限公司 Handset size measurement method and system
JP2020085805A (en) * 2018-11-30 2020-06-04 Arithmer株式会社 Dimension data calculation device, program, method, product manufacturing device, and product manufacturing system
WO2020111269A1 (en) * 2018-11-30 2020-06-04 Arithmer株式会社 Dimensional data calculation device, product manufacturing device, information processing device, silhouette image generating device, and terminal device
US11922649B2 (en) 2018-11-30 2024-03-05 Arithmer Inc. Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013134186A (en) * 2011-12-27 2013-07-08 Sumitomo Electric Ind Ltd Camera parameter measuring apparatus, camera parameter measuring method, and program
CN105444678A (en) * 2015-11-09 2016-03-30 佛山绿怡信息科技有限公司 Handset size measurement method and system
JP2020085805A (en) * 2018-11-30 2020-06-04 Arithmer株式会社 Dimension data calculation device, program, method, product manufacturing device, and product manufacturing system
WO2020111269A1 (en) * 2018-11-30 2020-06-04 Arithmer株式会社 Dimensional data calculation device, product manufacturing device, information processing device, silhouette image generating device, and terminal device
US11922649B2 (en) 2018-11-30 2024-03-05 Arithmer Inc. Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus

Similar Documents

Publication Publication Date Title
JP5251215B2 (en) Digital camera
CN103024265B (en) The image capture method of camera head and camera head
JP5373229B1 (en) IMAGING DEVICE, IMAGING METHOD THEREOF, AND STORAGE MEDIUM FOR STORING TRACKING PROGRAM PROCESSABLE BY COMPUTER
US9761013B2 (en) Information notification apparatus that notifies information of motion of a subject
TWI390453B (en) Image processing apparatus, image processing method, and storage medium for storing program
JP5699432B2 (en) Image processing device
US10237466B2 (en) Recognition of degree of focus of an image
US20140334681A1 (en) Image processing apparatus, image processing method, and program
JP2013214858A (en) Imaging apparatus, imaging apparatus control method, and computer program
JP5771461B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP2011227692A (en) Size measurement device
KR101949218B1 (en) Method and apparatus for photographing in portable terminal
JP2009141475A (en) Camera
JP5441799B2 (en) Electronic camera
JP6525809B2 (en) Focus detection apparatus and control method thereof
CN112738388B (en) Photographing processing method and system, electronic device and storage medium
JP6677900B2 (en) Image processing apparatus, image processing method, and program
JP2013183185A (en) Imaging apparatus, and imaging control method and program
JP2007049631A (en) Imaging apparatus
US8866934B2 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
JP6310597B2 (en) Imaging apparatus and object confirmation method
JP2012070222A (en) Imaging device, imaging method, and imaging program
JP2005284203A (en) Digital still camera and its control method
JP2010166132A (en) Imaging apparatus, operation control method, and program
JP2017174094A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130521

A072 Dismissal of procedure

Free format text: JAPANESE INTERMEDIATE CODE: A072

Effective date: 20130903