JP2007299339A - Image reproducing device, method and program - Google Patents

Image reproducing device, method and program Download PDF

Info

Publication number
JP2007299339A
JP2007299339A JP2006128819A JP2006128819A JP2007299339A JP 2007299339 A JP2007299339 A JP 2007299339A JP 2006128819 A JP2006128819 A JP 2006128819A JP 2006128819 A JP2006128819 A JP 2006128819A JP 2007299339 A JP2007299339 A JP 2007299339A
Authority
JP
Japan
Prior art keywords
image
face
face area
priority
reproduced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2006128819A
Other languages
Japanese (ja)
Inventor
Koji Sakae
幸治 寒河江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006128819A priority Critical patent/JP2007299339A/en
Publication of JP2007299339A publication Critical patent/JP2007299339A/en
Abandoned legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To automatically reproduce an image more preferably by using information of the position of a face included in the image. <P>SOLUTION: A plurality of images including a face image to which face position information representing the position of a face region and priority information representing face priorities are attached are sequentially reproduced. In this case, a reproducing part 82 detects face region images corresponding to the face region from the face image on the basis of the face position information about the face image. Then, the reproducing part 82 reproduces the detected face region images in order of priorities on the basis of the priority information. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、複数の画像、とくに顔を含む顔画像を順次再生する画像再生装置および方法並びに画像再生方法をコンピュータに実行させるためのプログラムに関するものである。   The present invention relates to an image reproducing apparatus and method for sequentially reproducing a plurality of images, particularly a face image including a face, and a program for causing a computer to execute the image reproducing method.

画像から顔を抽出するための各種手法が提案されているが、画像において抽出した顔の位置を特定する情報を記憶しておき、画像において所定の顔が指定されたときに、記憶された情報を用いて顔を含む領域を抽出し、抽出した領域を拡大あるいは縮小して表示する手法が提案されている(特許文献1参照)。このように、特許文献1に記載された手法によれば、画像において指定された顔を個別に表示することができる。
特開2004−320286号公報
Various methods for extracting a face from an image have been proposed, but information for specifying the position of the extracted face in the image is stored, and the stored information when a predetermined face is specified in the image A method has been proposed in which an area including a face is extracted by using and the extracted area is enlarged or reduced and displayed (see Patent Document 1). As described above, according to the technique described in Patent Document 1, it is possible to individually display faces designated in an image.
JP 2004-320286 A

しかしながら、上記特許文献1に記載された手法においては、所望とされる顔を指定しなければ顔を含む領域を抽出して再生することができない。このため、とくに複数の画像を自動で再生する場合においては、顔を含む領域のみを再生することはできない。   However, in the method described in Patent Document 1, an area including a face cannot be extracted and reproduced unless a desired face is designated. For this reason, especially when a plurality of images are automatically reproduced, it is not possible to reproduce only the region including the face.

本発明は、上記事情に鑑みなされたものであり、画像において抽出した顔の位置の情報を用いて、より好ましく画像を自動で再生できるようにすることを目的とする。   The present invention has been made in view of the above circumstances, and it is an object of the present invention to more preferably allow an image to be automatically reproduced by using information on a face position extracted from the image.

本発明による画像再生装置は、顔を含み、該顔を含む顔領域の位置を表す顔位置情報および該顔の優先度を表す優先度情報が付与された顔画像を含む複数の画像を順次再生する画像再生装置において、
前記顔画像については、前記顔位置情報に基づいて該顔画像から前記顔領域に対応する顔領域画像を検出し、該顔領域画像を前記優先度情報に基づいて優先度順に再生する再生制御手段を備えたことを特徴とするものである。
An image reproduction device according to the present invention sequentially reproduces a plurality of images including a face and face images to which face position information indicating the position of the face area including the face and priority information indicating the priority of the face are given. In the image reproducing apparatus to
For the face image, reproduction control means for detecting a face area image corresponding to the face area from the face image based on the face position information, and reproducing the face area image in order of priority based on the priority information. It is characterized by comprising.

ここで、顔画像に顔が1つのみしか含まれない場合には、その1つの顔領域画像に対して最も高い優先度を表す優先度情報が付与される。   Here, when only one face is included in the face image, priority information indicating the highest priority is assigned to the one face area image.

なお、本発明による画像再生装置においては、前記再生制御手段を、前記顔領域画像を再生する際に、該再生する顔領域画像の前記顔画像上における位置を表すナビゲーション画像を前記顔領域画像に重畳させて表示する手段としてもよい。   In the image reproduction apparatus according to the present invention, when the reproduction control unit reproduces the face area image, a navigation image representing a position of the face area image to be reproduced on the face image is used as the face area image. It is good also as a means to superimpose and display.

また、本発明による画像再生装置を、デジタルカメラに設けられてなるものとしてもよい。   Further, the image reproducing apparatus according to the present invention may be provided in a digital camera.

本発明による画像再生方法は、顔を含み、該顔を含む顔領域の位置を表す顔位置情報および該顔の優先度を表す優先度情報が付与された顔画像を含む複数の画像を順次再生する画像再生方法において、
前記顔画像については、前記顔位置情報に基づいて該顔画像から前記顔領域に対応する顔領域画像を検出し、
該顔領域画像を前記優先度情報に基づいて優先度順に再生することを特徴とするものである。
The image reproduction method according to the present invention sequentially reproduces a plurality of images including a face and face images to which face position information indicating the position of the face area including the face and priority information indicating the priority of the face are given. In the image playback method to
For the face image, a face area image corresponding to the face area is detected from the face image based on the face position information,
The face area images are reproduced in order of priority based on the priority information.

なお、本発明による画像再生方法をコンピュータに実行させるためのプログラムとして提供してもよい。   The image reproduction method according to the present invention may be provided as a program for causing a computer to execute the image reproduction method.

本発明によれば、顔画像については、付与されている顔位置情報に基づいて顔画像から顔領域画像が抽出され、抽出された顔領域画像が優先度情報に基づいて優先度順に表示される。このため、画像に含まれる顔の位置の情報を用いて、見る者が楽しめるように複数の画像を順次再生することができる。   According to the present invention, for a face image, a face area image is extracted from the face image based on the assigned face position information, and the extracted face area images are displayed in order of priority based on the priority information. . For this reason, it is possible to sequentially reproduce a plurality of images so as to be enjoyed by a viewer, using information on the position of the face included in the images.

また、顔領域画像を再生する際に、顔領域画像の顔画像上における位置を表すナビゲーション画像を顔領域画像に重畳させて再生することにより、再生中の顔領域画像の顔画像上における位置を容易に確認することができる。   In addition, when a face area image is reproduced, a navigation image representing the position of the face area image on the face image is superimposed and reproduced on the face area image, so that the position of the face area image being reproduced on the face image is determined. It can be easily confirmed.

以下、図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による画像再生装置を適用したデジタルカメラ1の背面を中心とする斜視図である。図1に示すように、このデジタルカメラ1の背面には、撮影者による操作のためのインターフェースとして、動作モードスイッチ11、メニュー/OKボタン12、ズーム/上下矢印レバー13、左右矢印ボタン14、Back(戻る)ボタン15、表示切替ボタン16を有している他、ファインダ17、液晶モニタ18を有している。また、上面には、レリーズボタン19を有している。図2は第1の実施形態によるデジタルカメラ1の前面を中心とする斜視図である。図2に示すように、前面には、レンズ20、レンズカバー21、電源スイッチ22、ファインダ窓23、フラッシュ24、セルフタイマーランプ25を有している。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a perspective view centering on the back surface of a digital camera 1 to which an image reproducing apparatus according to a first embodiment of the present invention is applied. As shown in FIG. 1, an operation mode switch 11, a menu / OK button 12, a zoom / up / down arrow lever 13, a left / right arrow button 14, a back are provided on the back of the digital camera 1 as an interface for operations by a photographer. In addition to having a (return) button 15 and a display switching button 16, it has a finder 17 and a liquid crystal monitor 18. A release button 19 is provided on the upper surface. FIG. 2 is a perspective view centering on the front surface of the digital camera 1 according to the first embodiment. As shown in FIG. 2, a lens 20, a lens cover 21, a power switch 22, a finder window 23, a flash 24, and a self-timer lamp 25 are provided on the front surface.

動作モードスイッチ11は、静止画撮影モード、動画撮影モード、および再生モードの各動作モードを切り替えるためのスライドスイッチである。   The operation mode switch 11 is a slide switch for switching operation modes of a still image shooting mode, a moving image shooting mode, and a playback mode.

メニュー/OKボタン12は、押下することによって、撮影モード、フラッシュ発光モード、オートプレイ、記録画素数や感度等の設定を行うための各種メニューを液晶モニタ18に表示させたり、液晶モニタ18に表示されたメニューに基づく選択・設定を確定させたりするためのボタンである。   Pressing the menu / OK button 12 causes the liquid crystal monitor 18 to display various menus for setting the shooting mode, the flash emission mode, auto play, the number of recording pixels, the sensitivity, and the like. This is a button for confirming selection / setting based on the menu.

ズーム/上下矢印レバー13は、上下方向にレバーを倒すことによって、撮影時は望遠/広角の調整を行い、各種設定時は液晶モニタ18に表示されるメニュー画面中のカーソルを上下に移動させるためのレバーである。   The zoom / up / down arrow lever 13 is used to adjust the telephoto / wide angle during shooting by tilting the lever in the vertical direction, and to move the cursor in the menu screen displayed on the liquid crystal monitor 18 up and down during various settings. The lever.

左右矢印ボタン14は、各種設定時に液晶モニタ18に表示されるメニュー画面中のカーソルを左右に移動させるためのボタンである。   The left and right arrow buttons 14 are buttons for moving the cursor in the menu screen displayed on the liquid crystal monitor 18 to the left and right at various settings.

Back(戻る)ボタン15は、押下することによって各種設定操作を中止し、1つ前の画面に戻るためのボタンである。   The Back button 15 is a button for stopping various setting operations when pressed and returning to the previous screen.

表示切替ボタン16は、押下することによって、液晶モニタ18の表示のON/OFF、各種ガイド表示、文字表示のON/OFF等を切り替えるためのボタンである。   The display switching button 16 is a button for switching ON / OFF of the display of the liquid crystal monitor 18, various guide displays, ON / OFF of character display, and the like when pressed.

各ボタン、レバーの操作によって設定された内容は、液晶モニタ18中の表示や、ファインダ内のランプ、スライドレバーの位置等によって確認できるようになっている。   The contents set by the operation of each button and lever can be confirmed by the display on the liquid crystal monitor 18, the position of the lamp in the viewfinder, the slide lever, and the like.

液晶モニタ18は、撮影の際に被写体確認用のスルー画を表示することにより、電子ビューファインダとして機能する他、撮影後の静止画や動画の再生表示、各種設定メニューの表示を行う。   The liquid crystal monitor 18 displays a through image for confirming a subject at the time of shooting, thereby functioning as an electronic viewfinder, displaying a still image and a moving image after shooting, and displaying various setting menus.

図3は上記デジタルカメラの構成を示す概略ブロック図である。図3に示すデジタルカメラ1は、撮影により取得した画像データを、Exif形式の画像ファイルに変換して、本体に着脱可能な記録メディア70へ記録するものである。   FIG. 3 is a schematic block diagram showing the configuration of the digital camera. The digital camera 1 shown in FIG. 3 converts image data acquired by shooting into an Exif format image file and records it on a recording medium 70 that can be attached to and detached from the main body.

このデジタルカメラの操作系としては、前述の動作モードスイッチ11、メニュー/OKボタン12、ズーム/上下矢印レバー13、左右矢印ボタン14、Back(戻る)ボタン15、表示切替ボタン16、レリーズボタン19、電源スイッチ22と、これらのスイッチ類の操作内容をCPU75に伝えるためのインターフェース部分である操作系制御部74とを有している。   The operation system of this digital camera includes the above-described operation mode switch 11, menu / OK button 12, zoom / up / down arrow lever 13, left / right arrow button 14, Back button 15, display switch button 16, release button 19, The power switch 22 and an operation system control unit 74 which is an interface part for transmitting the operation contents of these switches to the CPU 75 are provided.

光学系としては、フォーカスレンズ20aおよびズームレンズ20bを有している。各々のレンズは、モータとモータドライバとからなるフォーカスレンズ駆動部51およびズームレンズ駆動部52によって光軸方向に移動可能である。フォーカスレンズ駆動部51はAF処理部62から出力されるフォーカス駆動量データに基づいて、ズームレンズ駆動部52はズーム/上下矢印レバー13の操作量データに基づいて、各々のレンズの移動を制御する。   The optical system includes a focus lens 20a and a zoom lens 20b. Each lens can be moved in the optical axis direction by a focus lens driving unit 51 and a zoom lens driving unit 52 including a motor and a motor driver. The focus lens driving unit 51 controls the movement of each lens based on the focus driving amount data output from the AF processing unit 62 and the zoom lens driving unit 52 based on the operation amount data of the zoom / up / down arrow lever 13. .

また、絞り54は、モータとモータドライバとからなる絞り駆動部55によって駆動される。この絞り駆動部55は、AE/AWB処理部63から出力される絞り値データに基づいて絞り径の調整を行う。   The diaphragm 54 is driven by a diaphragm driving unit 55 including a motor and a motor driver. The aperture driver 55 adjusts the aperture diameter based on aperture value data output from the AE / AWB processor 63.

シャッタ56は、メカニカルシャッタであり、モータとモータドライバとからなるシャッタ駆動部57によって駆動される。シャッタ駆動部57は、レリーズボタン19の押下により発生する信号と、AE/AWB処理部63から出力されるシャッタスピードデータとに応じて、シャッタ56の開閉の制御を行う。   The shutter 56 is a mechanical shutter and is driven by a shutter drive unit 57 including a motor and a motor driver. The shutter drive unit 57 controls the opening / closing of the shutter 56 in accordance with a signal generated by pressing the release button 19 and the shutter speed data output from the AE / AWB processing unit 63.

光学系の後方には、撮像素子であるCCD58を有している。CCD58は、多数の受光素子を2次元的に配列した光電面を有しており、光学系を通過した被写体光がこの光電面に結像し、光電変換される。光電面の前方には、各画素に光を集光するためのマイクロレンズアレイと、R,G,B各色のフィルタが規則的に配列されたカラーフィルタアレイとが配置されている。CCD58は、CCD制御部59から供給される垂直転送クロックおよび水平転送クロックに同期して、画素毎に蓄積された電荷を1ラインずつシリアルなアナログ撮影信号として出力する。各画素において電荷を蓄積する時間、すなわち、露出時間は、CCD制御部59から与えられる電子シャッタ駆動信号によって決定される。また、CCD58はCCD制御部59により、あらかじめ定められた大きさのアナログ撮像信号が得られるように、ゲインが調整されている。   A CCD 58, which is an image sensor, is provided behind the optical system. The CCD 58 has a photoelectric surface in which a large number of light receiving elements are two-dimensionally arranged, and subject light that has passed through the optical system forms an image on the photoelectric surface and is subjected to photoelectric conversion. In front of the photocathode, a microlens array for condensing light on each pixel and a color filter array in which filters of R, G, and B colors are regularly arranged are arranged. The CCD 58 outputs the charges accumulated for each pixel as a serial analog photographing signal line by line in synchronization with the vertical transfer clock and horizontal transfer clock supplied from the CCD controller 59. The time for accumulating charges in each pixel, that is, the exposure time is determined by an electronic shutter drive signal given from the CCD controller 59. The gain of the CCD 58 is adjusted by the CCD control unit 59 so that an analog imaging signal having a predetermined size can be obtained.

CCD58から取り込まれたアナログ撮影信号は、アナログ信号処理部60に入力される。アナログ信号処理部60は、アナログ信号のノイズを除去する相関2重サンプリング回路(CDS)と、アナログ信号のゲインを調節するオートゲインコントローラ(AGC)と、アナログ信号をデジタル信号に変換するA/Dコンバータ(ADC)とからなる。このデジタル信号に変換された画像データは、画素毎にR,G,Bの濃度値を持つCCD−RAWデータである。   The analog photographing signal captured from the CCD 58 is input to the analog signal processing unit 60. The analog signal processing unit 60 includes a correlated double sampling circuit (CDS) that removes noise from the analog signal, an auto gain controller (AGC) that adjusts the gain of the analog signal, and an A / D that converts the analog signal into a digital signal. It consists of a converter (ADC). The image data converted into the digital signal is CCD-RAW data having R, G, and B density values for each pixel.

タイミングジェネレータ72は、タイミング信号を発生させるものであり、このタイミング信号をシャッタ駆動部57、CCD制御部59、アナログ信号処理部60に供給することにより、レリーズボタン19の操作、シャッタ56の開閉、CCD58の電荷の取込み、およびアナログ信号処理部60の処理の同期を取っている。   The timing generator 72 generates a timing signal. By supplying this timing signal to the shutter drive unit 57, the CCD control unit 59, and the analog signal processing unit 60, the operation of the release button 19, the opening and closing of the shutter 56, The charge taking of the CCD 58 and the processing of the analog signal processing unit 60 are synchronized.

フラッシュ制御部73は、撮影時にフラッシュ24を発光させる。具体的には、フラッシュ発光モードがフラッシュオンとされている場合、およびフラッシュ発光モードがオートモードである場合において後述するプレ画像が所定の明るさにない場合にフラッシュ24をオンとして、撮影時にフラッシュ24を発光させる。一方、フラッシュ発光モードがフラッシュオフとされている場合、撮影時にフラッシュ24の発光を禁止する。   The flash control unit 73 causes the flash 24 to emit light during shooting. Specifically, when the flash emission mode is set to flash on, and when the flash emission mode is the auto mode, the flash 24 is turned on when a pre-image to be described later is not at a predetermined brightness, and the flash is set at the time of shooting. 24 is caused to emit light. On the other hand, when the flash emission mode is set to flash off, the flash 24 is prohibited from emitting light during shooting.

画像入力コントローラ61は、アナログ信号処理部60から入力されたCCD−RAWデータをフレームメモリ66に書き込む。   The image input controller 61 writes the CCD-RAW data input from the analog signal processing unit 60 in the frame memory 66.

フレームメモリ66は、画像データに対して後述の各種デジタル画像処理(信号処理)を行う際に使用する作業用メモリであり、例えば、一定周期のバスクロック信号に同期してデータ転送を行うSDRAM(Synchronous Dynamic Random Access Memory)が使用される。   The frame memory 66 is a working memory used when various digital image processing (signal processing) described later is performed on image data. For example, an SDRAM (data transfer device that performs data transfer in synchronization with a bus clock signal having a fixed period. Synchronous Dynamic Random Access Memory) is used.

表示制御部71は、フレームメモリ66に格納された画像データをスルー画像として液晶モニタ18に表示させたり、再生モード時に記録メディア70に保存されている画像データを液晶モニタ18に表示させたりするためのものである。なお、スルー画像は、撮影モードが選択されている間、所定間隔でCCD58により撮影される。   The display control unit 71 displays the image data stored in the frame memory 66 on the liquid crystal monitor 18 as a through image, or displays the image data stored on the recording medium 70 in the playback mode on the liquid crystal monitor 18. belongs to. The through image is taken by the CCD 58 at a predetermined interval while the shooting mode is selected.

AF処理部62およびAE/AWB処理部63は、プレ画像に基づいて撮影条件を決定する。このプレ画像とは、レリーズボタン19が半押しされることによって発生する半押し信号を検出したCPU75がCCD58にプレ撮影を実行させた結果、フレームメモリ66に格納された画像データにより表される画像である。   The AF processing unit 62 and the AE / AWB processing unit 63 determine shooting conditions based on the pre-image. This pre-image is an image represented by image data stored in the frame memory 66 as a result of the CPU 75 having detected a half-press signal generated by half-pressing the release button 19 causing the CCD 58 to perform pre-photographing. It is.

AF処理部62は、プレ画像に基づいて焦点位置を検出し、フォーカス駆動量データを出力する(AF処理)。焦点位置の検出方式としては、例えば、ピントが合った状態では画像のコントラストが高くなるという特徴を利用して合焦位置を検出するパッシブ方式が考えられる。   The AF processing unit 62 detects the focal position based on the pre-image and outputs focus drive amount data (AF processing). As a focus position detection method, for example, a passive method that detects a focus position using a feature that the contrast of an image increases in a focused state can be considered.

AE/AWB処理部63は、プレ画像に基づいて被写体輝度を測定し、測定した被写体輝度に基づいて絞り値、シャッタスピード等を決定し、絞り値データおよびシャッタスピードデータを露出設定値として決定するとともに(AE処理)、撮影時のホワイトバランスを自動調整する(AWB)。なお、露出およびホワイトバランスについては、撮影モードがマニュアルモードに設定されている場合には、デジタルカメラ1のユーザがマニュアル操作により設定可能である。また、露出およびホワイトバランスが自動で設定された場合にも、ユーザがメニュー/OKボタン12等の操作系から指示を行うことにより、露出およびホワイトバランスをマニュアル調整することが可能である。   The AE / AWB processing unit 63 measures subject brightness based on the pre-image, determines an aperture value, shutter speed, etc. based on the measured subject brightness, and determines aperture value data and shutter speed data as exposure setting values. At the same time (AE processing), white balance at the time of shooting is automatically adjusted (AWB). The exposure and white balance can be set manually by the user of the digital camera 1 when the shooting mode is set to the manual mode. Even when the exposure and white balance are set automatically, the user can manually adjust the exposure and white balance by giving an instruction from the operation system such as the menu / OK button 12.

画像処理部64は、本画像の画像データに対して、ガンマ補正、シャープネス補正、コントラスト補正等の画質補正処理、CCD−RAWデータを輝度信号であるYデータと、青色色差信号であるCbデータおよび赤色色差信号であるCrデータとからなるYCデータに変換するYC処理を行う。この本画像とは、レリーズボタン19が全押しされることによって実行される本撮影においてCCD58から取り込まれ、アナログ信号処理部60、画像入力コントローラ61経由でフレームメモリ66に格納された画像データによる画像である。本画像の画素数の上限は、CCD58の画素数によって決定されるが、例えば、ファイン、ノーマル等の設定により、記録画素数を変更することができる。一方、スルー画像およびプレ画像の画像数は、本画像よりも少なく、例えば、本画像の1/16程度の画素数で取り込まれる。   The image processing unit 64 performs image quality correction processing such as gamma correction, sharpness correction, and contrast correction on the image data of the main image, CCD-RAW data as Y data that is a luminance signal, Cb data that is a blue color difference signal, and YC processing is performed for conversion to YC data composed of Cr data which is a red color difference signal. The main image is an image based on image data that is captured from the CCD 58 in the main photographing executed when the release button 19 is fully pressed and stored in the frame memory 66 via the analog signal processing unit 60 and the image input controller 61. It is. The upper limit of the number of pixels of the main image is determined by the number of pixels of the CCD 58. For example, the number of recorded pixels can be changed by setting such as fine and normal. On the other hand, the number of images of the through image and the pre-image is smaller than that of the main image.

圧縮/伸長処理部65は、画像処理部64によって補正・変換処理が行われた本画像の画像データに対して、例えば、JPEG等の圧縮形式で圧縮処理を行い、画像ファイルを生成する。この画像ファイルには、Exifフォーマット等に基づいて、撮影日時等の付帯情報が格納されたタグが付加される。また、圧縮/伸長処理部65は、再生モードの場合には、記録メディア70から圧縮された画像ファイルを読み出し、伸張処理を行う。伸長後の画像データは液晶モニタ18に出力される。   The compression / decompression processing unit 65 performs compression processing on the image data of the main image that has been corrected and converted by the image processing unit 64 in a compression format such as JPEG, and generates an image file. A tag storing incidental information such as shooting date and time is added to the image file based on the Exif format or the like. In the playback mode, the compression / decompression processing unit 65 reads a compressed image file from the recording medium 70 and performs decompression processing. The decompressed image data is output to the liquid crystal monitor 18.

メディア制御部67は、記録メディア70にアクセスして画像ファイルの書き込みと読み込みの制御を行う。   The media control unit 67 accesses the recording medium 70 and controls writing and reading of the image file.

内部メモリ68は、デジタルカメラ1において設定される各種定数、およびCPU75が実行するプログラム等を格納する。   The internal memory 68 stores various constants set in the digital camera 1, programs executed by the CPU 75, and the like.

顔検出部80は、本画像から人物の顔を含む顔領域を検出する。具体的には、まず画像に含まれる顔の特徴を有する領域(例えば肌色を有する、目を有する、顔の形状を有する等)を検出する。なお、この顔の特徴を有する領域(以下、顔領域とする)の検出は、これらに限定されるものではない。さらに、顔検出部80は、検出した顔領域を含み、本画像のアスペクト比と同一のアスペクト比を有する領域を顔領域画像として検出し、検出した顔領域画像の左上隅の本画像上における座標値および顔領域画像の画像サイズを、顔位置情報として算出する。なお、顔領域画像は顔領域がその中央に位置するように検出される。   The face detection unit 80 detects a face area including a human face from the main image. Specifically, first, an area having facial features (for example, having a skin color, having eyes, or having a facial shape) included in the image is detected. The detection of the area having the facial features (hereinafter referred to as a face area) is not limited to these. Further, the face detection unit 80 detects an area including the detected face area and having the same aspect ratio as that of the main image as a face area image, and coordinates on the main image at the upper left corner of the detected face area image. The value and the image size of the face area image are calculated as face position information. Note that the face area image is detected such that the face area is located at the center thereof.

さらに、顔検出部80は、1つの本画像に複数の顔が含まれる場合には複数の顔領域画像を検出し、そのそれぞれについて顔位置情報を算出し、検出した顔領域のサイズが大きい順に優先度を表す優先度情報を算出する。例えば、図4に示すように3つの顔が含まれる画像90については、3つの顔領域画像90A〜90Cが検出されるが、含まれる顔のサイズは、90C,90C,90Aの順であるため、顔領域画像90Cから順に高い優先度情報を算出する。なお、優先度の順序は顔のサイズ順に限定されるものではない。また、優先度情報としては、優先度が高い順に1,2,3…の値を用いるものとする。また、検出した顔領域画像が1つのみの場合には優先度情報として1の値が用いられる。   Furthermore, when a plurality of faces are included in one main image, the face detection unit 80 detects a plurality of face area images, calculates face position information for each of them, and determines the size of the detected face area in descending order. Priority information representing priority is calculated. For example, as shown in FIG. 4, for an image 90 including three faces, three face area images 90A to 90C are detected, but the sizes of the included faces are in the order of 90C, 90C, and 90A. The priority information is calculated in order from the face area image 90C. Note that the priority order is not limited to the order of face sizes. As priority information, values 1, 2, 3,... Are used in descending order of priority. If only one face area image is detected, a value of 1 is used as priority information.

さらに、顔検出部80は、顔位置情報および優先度情報を本画像のタグに記述することにより、顔位置情報および優先度情報を本画像に付与する。図5は顔位置情報および優先度情報がタグに記述された本画像のファイル構造を示す図である。図5に示すように、本画像の画像ファイル100は、タグ101およびデータ本体102とからなる。タグ101には、ファイル名、撮影日時、顔位置情報および優先度情報を含む各種情報が記述されている。ここで、顔位置情報は、上述したように検出した顔領域の左上隅の本画像上における座標値および画像サイズとなる。優先度情報は優先度を表す数値となる。また、複数の顔が含まれる場合には、顔位置情報1,2というように顔位置情報に番号が付与される。   Further, the face detection unit 80 gives the face position information and the priority information to the main image by describing the face position information and the priority information in the tag of the main image. FIG. 5 is a diagram showing a file structure of a main image in which face position information and priority information are described in a tag. As shown in FIG. 5, the image file 100 of the main image includes a tag 101 and a data body 102. The tag 101 describes various information including a file name, shooting date / time, face position information, and priority information. Here, the face position information is a coordinate value and an image size on the main image at the upper left corner of the face area detected as described above. The priority information is a numerical value indicating the priority. When a plurality of faces are included, numbers are assigned to the face position information such as face position information 1 and 2.

再生部82は、記録メディア70に記録された複数の画像に対して、オートプレイの指示がなされた場合に、各画像のタグに記述された顔位置情報および優先度情報を用いて、後述するように複数の画像をファイル名順に再生する。   When an auto play instruction is given to a plurality of images recorded on the recording medium 70, the playback unit 82 uses the face position information and priority information described in the tag of each image to be described later. A plurality of images are reproduced in the order of file names.

CPU75は、動作モードスイッチ11等の操作系やAF処理部62等の各種処理部からの信号に応じてデジタルカメラ1の本体各部を制御する。   The CPU 75 controls each part of the main body of the digital camera 1 according to signals from the operation system such as the operation mode switch 11 and various processing units such as the AF processing unit 62.

データバス76は、画像入力コントローラ61、各種処理部62〜65、フレームメモリ66、メディア制御部67、内部メモリ68、表示制御部71、顔検出部80、再生部82およびCPU75に接続されており、デジタル画像データ等のやり取りを行う。   The data bus 76 is connected to the image input controller 61, various processing units 62 to 65, a frame memory 66, a media control unit 67, an internal memory 68, a display control unit 71, a face detection unit 80, a playback unit 82, and a CPU 75. And exchange digital image data.

次いで、以上の構成のデジタルカメラ1においてオートプレイの指示がなされた場合に行われる処理について説明する。図6は第1の実施形態において行われる処理を示すフローチャートである。なお、以降の説明においては、記録メディア70に記録されているのは本画像のみであるため、本画像を単に画像と称するものとする。記録メディア70に記録された複数の画像についてのオートプレイの指示がなされることによりCPU75が処理を開始し、再生部82が複数の画像のうちファイル名が先頭の画像を再生対象画像に設定し(ステップST1)、再生対象画像を液晶モニタ18に再生する(ステップST2)。さらに、再生部82は、再生対象画像に顔位置情報および優先度情報が付与されているか否かを判定する(ステップST3)。   Next, a process performed when an auto play instruction is given in the digital camera 1 having the above configuration will be described. FIG. 6 is a flowchart showing processing performed in the first embodiment. In the following description, since only the main image is recorded on the recording medium 70, the main image is simply referred to as an image. The CPU 75 starts processing by instructing auto play for a plurality of images recorded on the recording medium 70, and the playback unit 82 sets the image with the first file name among the plurality of images as a playback target image. (Step ST1), the reproduction target image is reproduced on the liquid crystal monitor 18 (step ST2). Furthermore, the playback unit 82 determines whether face position information and priority information are given to the playback target image (step ST3).

ステップST3が肯定されると、再生対象画像の優先度情報を参照して、トリミングする顔領域画像を最も優先度が高い顔領域画像に設定し(ステップST4)、設定した優先度の顔位置情報により表される顔領域画像をトリミングし(ステップST5)、トリミングした顔領域画像のサイズを液晶モニタ18のサイズに適合するように変更して再生する(ステップST6)。なお、ステップST3が否定されると、後述するステップST9に進む。   If the determination in step ST3 is affirmative, the face area image to be trimmed is set to the face area image having the highest priority with reference to the priority information of the reproduction target image (step ST4), and the face position information of the set priority is set. Is trimmed (step ST5), and the size of the trimmed face area image is changed to match the size of the liquid crystal monitor 18 and reproduced (step ST6). If step ST3 is negative, the process proceeds to step ST9 described later.

そして、再生対象画像に他の顔位置情報および優先度情報が付与されているか否かを判定し(ステップST7)、ステップST7が肯定されると、トリミングする顔領域画像を次に優先度が高い顔領域画像に設定し(ステップST8)、ステップST5に戻り、ステップST5以降の処理を繰り返す。   Then, it is determined whether other face position information and priority information is given to the reproduction target image (step ST7). If step ST7 is affirmed, the face area image to be trimmed has the next highest priority. The face area image is set (step ST8), the process returns to step ST5, and the processes after step ST5 are repeated.

ステップST7が否定されると、記録メディア70に記録されたすべての画像の再生を終了したか否かを判定し(ステップST9)、ステップST8が否定されると、ファイル名が次の画像を再生対象画像に設定し(ステップST10)、ステップST2に戻り、ステップST2以降の処理を繰り返す。ステップST9が肯定されると処理を終了する。   If step ST7 is negative, it is determined whether or not the reproduction of all the images recorded on the recording medium 70 has been completed (step ST9). If step ST8 is negative, the next image with the file name is reproduced. The target image is set (step ST10), the process returns to step ST2, and the processes after step ST2 are repeated. If step ST9 is affirmed, the process ends.

これにより、記録メディア70に記録されたすべての画像がファイル名順に順次液晶モニタ18に再生されるが、顔領域が検出された画像については、画像の全体が再生され、次いで、優先度情報により表される優先度順に、検出された顔領域画像が再生され、すべての顔領域画像が再生されると、ファイル名が次の画像が再生されることとなる。具体的には、図4に示す3つの顔を含む画像90の場合、図7に示すようにまず画像90の全体が再生され、次いで、優先度が最も高い顔領域画像90Cが再生され、以下、顔領域画像90B、顔領域画像90Aの順にて顔領域画像が再生される。   As a result, all the images recorded on the recording medium 70 are sequentially reproduced on the liquid crystal monitor 18 in the order of the file names. However, with respect to the image in which the face area is detected, the entire image is reproduced, and then the priority information is used. When the detected face area images are reproduced in the order of priority expressed, and all the face area images are reproduced, the next image with the file name is reproduced. Specifically, in the case of the image 90 including the three faces shown in FIG. 4, the entire image 90 is first reproduced as shown in FIG. 7, and then the face area image 90C having the highest priority is reproduced. The face area images are reproduced in the order of the face area image 90B and the face area image 90A.

このように、第1の実施形態においては、画像に付与されている顔位置情報に基づいて顔領域画像をトリミングし、トリミングした顔領域画像を優先度情報に基づいて優先度順に再生するようにしたものである。このため、画像に含まれる顔の位置の情報を用いて、見る者が楽しめるように複数の画像を順次再生することができる。   As described above, in the first embodiment, the face area image is trimmed based on the face position information given to the image, and the trimmed face area image is reproduced in order of priority based on the priority information. It is a thing. For this reason, it is possible to sequentially reproduce a plurality of images so as to be enjoyed by a viewer, using information on the position of the face included in the images.

なお、上記第1の実施形態においては、トリミングした顔領域画像を再生する際に、再生する顔領域画像に重畳して、顔領域画像の再生対象画像上における位置を表すナビゲーション画像を再生してもよい。以下、これを第2の実施形態として説明する。   In the first embodiment, when the trimmed face area image is reproduced, the navigation image representing the position of the face area image on the reproduction target image is reproduced by superimposing the face area image to be reproduced. Also good. Hereinafter, this will be described as a second embodiment.

図8は第2の実施形態において行われる処理を示すフローチャートである。記録メディア70に記録された複数の画像についてのオートプレイの指示がなされることによりCPU75が処理を開始し、再生部82が、複数の画像のうちファイル名が先頭の画像を再生対象画像に設定し(ステップST21)、再生対象画像を液晶モニタ18に再生する(ステップST22)。さらに、再生部82は、再生対象画像に顔位置情報および優先度情報が付与されているか否かを判定する(ステップST23)。   FIG. 8 is a flowchart showing processing performed in the second embodiment. The CPU 75 starts the process when an auto play instruction is given for a plurality of images recorded on the recording medium 70, and the playback unit 82 sets the image with the first file name among the plurality of images as a playback target image. Then, the reproduction target image is reproduced on the liquid crystal monitor 18 (step ST22). Furthermore, the playback unit 82 determines whether face position information and priority information are given to the playback target image (step ST23).

ステップST23が肯定されると、再生対象画像の優先度情報を参照して、トリミングする顔領域画像を最も優先度が高い顔領域画像に設定し(ステップST24)、設定した優先度の顔位置情報により表される顔領域画像をトリミングし(ステップST25)、トリミングした顔領域画像のサイズを液晶モニタ18のサイズに適合するように変更して再生するとともに、ナビゲーション画像を顔領域画像に重畳して再生する(ステップST26)。なお、ステップST23が否定されると、後述するステップST29に進む。   When step ST23 is affirmed, the priority information of the reproduction target image is referred to, the face area image to be trimmed is set as the face area image with the highest priority (step ST24), and the face position information of the set priority is set. Is trimmed (step ST25), the size of the trimmed face area image is changed to match the size of the liquid crystal monitor 18, and the navigation image is superimposed on the face area image. Playback is performed (step ST26). In addition, when step ST23 is denied, it will progress to step ST29 mentioned later.

そして、再生対象画像に他の顔位置情報および優先度情報が付与されているか否かを判定し(ステップST27)、ステップST27が肯定されると、トリミングする顔領域画像を次に優先度が高い顔領域画像に設定し(ステップST28)、ステップST25に戻り、ステップST25以降の処理を繰り返す。   Then, it is determined whether other face position information and priority information is given to the reproduction target image (step ST27). If step ST27 is affirmed, the face area image to be trimmed has the next highest priority. The face area image is set (step ST28), the process returns to step ST25, and the processes after step ST25 are repeated.

ステップST27が否定されると、記録メディア70に記録されたすべての画像の再生を終了したか否かを判定し(ステップST29)、ステップST29が否定されると、ファイル名が次の画像を再生対象画像に設定して(ステップST30)、ステップST22に戻り、ステップST22以降の処理を繰り返す。ステップST29が肯定されると処理を終了する。   If step ST27 is negative, it is determined whether or not the reproduction of all the images recorded on the recording medium 70 has been completed (step ST29). If step ST29 is negative, the next image with the file name is reproduced. It sets to a target image (step ST30), returns to step ST22, and repeats the process after step ST22. If step ST29 is affirmed, the process ends.

これにより、記録メディア70に記録された画像がファイル名順に順次液晶モニタ18に再生されるが、顔領域が検出された画像については、画像の全体が再生され、次いで、優先度情報により表される優先度順に、検出された顔領域画像がナビゲーション画像とともに再生され、すべての顔領域画像が再生されると、ファイル名が次の画像が再生されることとなる。具体的には、図4に示す3つの顔を含む画像90の場合、図9に示すようにまず画像90の全体が再生され、次いで、優先度が最も高い顔領域画像90Cがナビゲーション画像92とともに再生され、以下、顔領域画像90B、顔領域画像90Aの順にて顔領域画像がナビゲーション画像92とともに再生される。   As a result, the images recorded on the recording medium 70 are sequentially reproduced on the liquid crystal monitor 18 in the order of the file names. However, with respect to the image in which the face area is detected, the entire image is reproduced and then represented by the priority information. When the detected face area images are reproduced together with the navigation image in order of priority, and all the face area images are reproduced, the next image with the file name is reproduced. Specifically, in the case of the image 90 including three faces shown in FIG. 4, the entire image 90 is first reproduced as shown in FIG. 9, and then the face area image 90 </ b> C having the highest priority is displayed together with the navigation image 92. Thereafter, the face area image is reproduced together with the navigation image 92 in the order of the face area image 90B and the face area image 90A.

ここで、ナビゲーション画像92は、再生対象画像に対応する形状を有する単色または透明の画像であり、その内部に表示される枠92Aが画像における現在再生中の顔領域の位置を表すものとなっている。なお、枠92Aの内部をナビゲーション画像全体の色と異なるようにしてもよい。   Here, the navigation image 92 is a single color or transparent image having a shape corresponding to the reproduction target image, and a frame 92A displayed in the navigation image 92 represents the position of the currently reproduced face area in the image. Yes. The inside of the frame 92A may be different from the color of the entire navigation image.

このように、第2の実施形態においては、顔領域画像の画像上における位置を表すナビゲーション画像を顔領域画像に重畳させて再生するようにしたため、再生中の顔領域画像の再生対象画像上における位置を容易に確認することができる。   As described above, in the second embodiment, the navigation image representing the position of the face area image on the image is reproduced while being superimposed on the face area image, so that the face area image being reproduced on the reproduction target image is reproduced. The position can be easily confirmed.

なお、上記第2の実施形態においては、ナビゲーション画像92として単色の画像を用いているが、再生対象画像を縮小した画像をナビゲーション画像92として用いてもよい。   In the second embodiment, a monochromatic image is used as the navigation image 92. However, an image obtained by reducing the reproduction target image may be used as the navigation image 92.

また、上記実施形態においては、顔位置情報および優先度情報を画像のタグに記述することにより顔位置情報および優先度情報を画像に付与しているが、顔位置情報および優先度情報をテキストファイルに記述し、対応する画像ファイルと拡張子のみが異なる同一ファイル名とする、あるいは同一のフォルダに格納する等、顔位置情報および優先度情報と画像とが一体不可分となるように記録メディア70に記録することにより、顔位置情報および優先度情報を画像に付与してもよい。   In the above embodiment, the face position information and the priority information are given to the image by describing the face position information and the priority information in the tag of the image. In the recording medium 70, the face position information, the priority information, and the image are inseparable from each other, such as having the same file name that differs only in extension from the corresponding image file, or storing in the same folder. By recording, face position information and priority information may be added to the image.

以上、本発明の実施形態に係るデジタルカメラについて説明したが、コンピュータを、上記の顔検出部80および再生部82に対応する手段として機能させ、図6および図8に示すような処理を行わせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体も、本発明の実施形態の1つである。   As described above, the digital camera according to the embodiment of the present invention has been described. However, the computer is caused to function as a unit corresponding to the face detection unit 80 and the reproduction unit 82, and the processes shown in FIGS. 6 and 8 are performed. A program is also one embodiment of the present invention. A computer-readable recording medium that records such a program is also one embodiment of the present invention.

本発明の第1の実施形態による画像再生装置を適用したデジタルカメラの背面を中心とする斜視図The perspective view centering on the back surface of the digital camera to which the image reproducing apparatus according to the first embodiment of the present invention is applied. 本発明の第1の実施形態による画像再生装置を適用したデジタルカメラの前面を中心とする斜視図1 is a perspective view centered on the front surface of a digital camera to which an image reproducing apparatus according to a first embodiment of the present invention is applied. 本発明の第1の実施形態による画像再生装置を適用したデジタルカメラの構成を示す概略ブロック図1 is a schematic block diagram showing the configuration of a digital camera to which an image playback device according to a first embodiment of the present invention is applied. 3つの顔が含まれる画像を示す図A diagram showing an image containing three faces 画像のファイル構造を示す図Diagram showing image file structure 第1の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 1st Embodiment. 第1の実施形態において画像が再生される状態を説明するための図The figure for demonstrating the state in which an image is reproduced | regenerated in 1st Embodiment. 第2の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 2nd Embodiment. 第2の実施形態において画像が再生される状態を説明するための図The figure for demonstrating the state in which an image is reproduced | regenerated in 2nd Embodiment.

符号の説明Explanation of symbols

1 デジタルカメラ
18 液晶モニタ
58 CCD
59 CCD制御部
70 記録メディア
71 表示制御部
73 フラッシュ制御部
75 CPU
80 顔検出部
82 再生部
1 Digital camera 18 LCD monitor 58 CCD
59 CCD control unit 70 Recording medium 71 Display control unit 73 Flash control unit 75 CPU
80 Face detection unit 82 Playback unit

Claims (5)

顔を含み、該顔を含む顔領域の位置を表す顔位置情報および該顔の優先度を表す優先度情報が付与された顔画像を含む複数の画像を順次再生する画像再生装置において、
前記顔画像については、前記顔位置情報に基づいて該顔画像から前記顔領域に対応する顔領域画像を検出し、該顔領域画像を前記優先度情報に基づいて優先度順に再生する再生制御手段を備えたことを特徴とする画像再生装置。
In an image reproduction apparatus that sequentially reproduces a plurality of images including a face and face image information including face position information indicating the position of the face region including the face and priority information indicating priority of the face.
For the face image, reproduction control means for detecting a face area image corresponding to the face area from the face image based on the face position information, and reproducing the face area image in order of priority based on the priority information. An image reproducing apparatus comprising:
前記再生制御手段は、前記顔領域画像を再生する際に、該再生する顔領域画像の前記顔画像上における位置を表すナビゲーション画像を前記顔領域画像に重畳させて表示する手段であることを特徴とする請求項1記載の画像再生装置。   The reproduction control means is a means for displaying a navigation image representing a position of the face area image to be reproduced on the face image superimposed on the face area image when reproducing the face area image. The image reproducing apparatus according to claim 1. デジタルカメラに設けられてなることを特徴とする請求項1または2記載の画像再生装置。   3. The image reproducing apparatus according to claim 1, wherein the image reproducing apparatus is provided in a digital camera. 顔を含み、該顔を含む顔領域の位置を表す顔位置情報および該顔の優先度を表す優先度情報が付与された顔画像を含む複数の画像を順次再生する画像再生方法において、
前記顔画像については、前記顔位置情報に基づいて該顔画像から前記顔領域に対応する顔領域画像を検出し、
該顔領域画像を前記優先度情報に基づいて優先度順に再生することを特徴とする画像再生方法。
In an image reproduction method for sequentially reproducing a plurality of images including a face and face image information including face position information indicating the position of the face area including the face and priority information indicating priority of the face,
For the face image, a face area image corresponding to the face area is detected from the face image based on the face position information,
An image reproduction method, wherein the face area images are reproduced in order of priority based on the priority information.
顔を含み、該顔を含む顔領域の位置を表す顔位置情報および該顔の優先度を表す優先度情報が付与された顔画像を含む複数の画像を順次再生する画像再生方法をコンピュータに実行させるためのプログラムにおいて、
前記顔画像については、前記顔位置情報に基づいて該顔画像から前記顔領域に対応する顔領域画像を検出する手順と、
該顔領域画像を前記優先度情報に基づいて優先度順に再生する手順とを有することを特徴とするプログラム。
A computer executes an image reproduction method for sequentially reproducing a plurality of images including a face and face image information including face position information indicating the position of the face area including the face and priority information indicating the priority of the face. In the program to let
For the face image, a procedure for detecting a face area image corresponding to the face area from the face image based on the face position information;
A program for reproducing the face area image in order of priority based on the priority information.
JP2006128819A 2006-05-08 2006-05-08 Image reproducing device, method and program Abandoned JP2007299339A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006128819A JP2007299339A (en) 2006-05-08 2006-05-08 Image reproducing device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006128819A JP2007299339A (en) 2006-05-08 2006-05-08 Image reproducing device, method and program

Publications (1)

Publication Number Publication Date
JP2007299339A true JP2007299339A (en) 2007-11-15

Family

ID=38768757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006128819A Abandoned JP2007299339A (en) 2006-05-08 2006-05-08 Image reproducing device, method and program

Country Status (1)

Country Link
JP (1) JP2007299339A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010161581A (en) * 2009-01-07 2010-07-22 Olympus Imaging Corp Imaging device and program for imaging apparatus
JP2010163104A (en) * 2009-01-16 2010-07-29 Denso Corp Vehicular display apparatus and vehicular peripheral visual field display system having the same
JP2010193476A (en) * 2010-03-19 2010-09-02 Sanyo Electric Co Ltd Imaging device and image reproducing device
JP2013051615A (en) * 2011-08-31 2013-03-14 Toshiba Corp Video processing apparatus and video processing method
US8477200B2 (en) 2007-12-14 2013-07-02 Sanyo Electric Co., Ltd. Imaging device and image reproduction device for correcting images
US8803895B2 (en) 2010-07-23 2014-08-12 Olympus Imaging Corp. Display device and image display method
WO2016002228A1 (en) * 2014-07-04 2016-01-07 パナソニックIpマネジメント株式会社 Image-capturing device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002354299A (en) * 2001-05-22 2002-12-06 Nikon Corp Digital still camera
JP2004193933A (en) * 2002-12-11 2004-07-08 Canon Inc Image enlargement display method, its apparatus, and medium program
JP2005102175A (en) * 2003-08-25 2005-04-14 Fuji Photo Film Co Ltd Digital camera
JP2005182196A (en) * 2003-12-16 2005-07-07 Canon Inc Image display method and image display device
JP2005269563A (en) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd Image processor and image reproducing apparatus
JP2005269473A (en) * 2004-03-22 2005-09-29 Mitsubishi Electric Corp Monitoring system
JP2006261711A (en) * 2005-03-15 2006-09-28 Seiko Epson Corp Image generating apparatus
JP2007079894A (en) * 2005-09-14 2007-03-29 Sony Corp Image processor, processing method and program
JP2009514266A (en) * 2005-11-02 2009-04-02 オリンパス株式会社 Image processing apparatus, image processing method of the apparatus, electronic camera, and image processing program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002354299A (en) * 2001-05-22 2002-12-06 Nikon Corp Digital still camera
JP2004193933A (en) * 2002-12-11 2004-07-08 Canon Inc Image enlargement display method, its apparatus, and medium program
JP2005102175A (en) * 2003-08-25 2005-04-14 Fuji Photo Film Co Ltd Digital camera
JP2005182196A (en) * 2003-12-16 2005-07-07 Canon Inc Image display method and image display device
JP2005269563A (en) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd Image processor and image reproducing apparatus
JP2005269473A (en) * 2004-03-22 2005-09-29 Mitsubishi Electric Corp Monitoring system
JP2006261711A (en) * 2005-03-15 2006-09-28 Seiko Epson Corp Image generating apparatus
JP2007079894A (en) * 2005-09-14 2007-03-29 Sony Corp Image processor, processing method and program
JP2009514266A (en) * 2005-11-02 2009-04-02 オリンパス株式会社 Image processing apparatus, image processing method of the apparatus, electronic camera, and image processing program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8477200B2 (en) 2007-12-14 2013-07-02 Sanyo Electric Co., Ltd. Imaging device and image reproduction device for correcting images
JP2010161581A (en) * 2009-01-07 2010-07-22 Olympus Imaging Corp Imaging device and program for imaging apparatus
JP2010163104A (en) * 2009-01-16 2010-07-29 Denso Corp Vehicular display apparatus and vehicular peripheral visual field display system having the same
JP2010193476A (en) * 2010-03-19 2010-09-02 Sanyo Electric Co Ltd Imaging device and image reproducing device
US8803895B2 (en) 2010-07-23 2014-08-12 Olympus Imaging Corp. Display device and image display method
JP2013051615A (en) * 2011-08-31 2013-03-14 Toshiba Corp Video processing apparatus and video processing method
WO2016002228A1 (en) * 2014-07-04 2016-01-07 パナソニックIpマネジメント株式会社 Image-capturing device
JP2016027704A (en) * 2014-07-04 2016-02-18 パナソニックIpマネジメント株式会社 Imaging device
JP2016154356A (en) * 2014-07-04 2016-08-25 パナソニックIpマネジメント株式会社 Imaging apparatus
US9830947B2 (en) 2014-07-04 2017-11-28 Panasonic Intellectual Property Management Co., Ltd. Image-capturing device

Similar Documents

Publication Publication Date Title
JP5025532B2 (en) Imaging apparatus, imaging apparatus control method, and imaging apparatus control program
JP4787180B2 (en) Imaging apparatus and imaging method
JP4730553B2 (en) Imaging apparatus and exposure control method
JP4697606B2 (en) Imaging apparatus and focus control method
JP2008017166A (en) Photographing device and method, and program
JP4657960B2 (en) Imaging method and apparatus
JP2007264196A (en) Strobe control unit and method
JP2007311861A (en) Photographic apparatus and method
JP5180349B2 (en) Imaging apparatus, method, and program
JP2007221284A (en) Photographing apparatus and method, and program
JP4818999B2 (en) Imaging apparatus, method, and program
JP4799501B2 (en) Image capturing apparatus, image capturing apparatus control method, and program
JP4796007B2 (en) Imaging device
JP2007299339A (en) Image reproducing device, method and program
KR101690261B1 (en) Digital image processing apparatus and controlling method thereof
JP2007257465A (en) Image display device, method, and program
JP2008263478A (en) Imaging apparatus
JP2010141609A (en) Imaging apparatus
JP2007116372A (en) Digital camera
JP2009077143A (en) Automatic photographing apparatus
JP2007208355A (en) Photographing device, method, and program
JP2008072412A (en) Photographing device and method, and program
JP2011135502A (en) Image display program, image display device and digital camera
JP2008028956A (en) Imaging apparatus and method for generating image signal for detecting target therein
JP5027055B2 (en) Image processing apparatus and method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20110228