JP2015095082A - Image display device, control method therefor, and control program - Google Patents

Image display device, control method therefor, and control program Download PDF

Info

Publication number
JP2015095082A
JP2015095082A JP2013233884A JP2013233884A JP2015095082A JP 2015095082 A JP2015095082 A JP 2015095082A JP 2013233884 A JP2013233884 A JP 2013233884A JP 2013233884 A JP2013233884 A JP 2013233884A JP 2015095082 A JP2015095082 A JP 2015095082A
Authority
JP
Japan
Prior art keywords
image
user
recording medium
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013233884A
Other languages
Japanese (ja)
Inventor
小山 潤
Jun Koyama
潤 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013233884A priority Critical patent/JP2015095082A/en
Publication of JP2015095082A publication Critical patent/JP2015095082A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

PROBLEM TO BE SOLVED: To take owner's privacy into consideration and further to reduce restrictions on an object to be browsed as much as possible.SOLUTION: Property information representing properties of an image is recorded on a recording medium 200 incidentally to the image, and a camera part 90 images a user who browses the image. A system control unit 50 extracts a feature quantity of a subject as a subject feature quantity from the image saved in the recording medium and detects a feature quantity as a user feature quantity from the user image obtained through the imaging by camera part imaging means, and obtains a first retrieved image by retrieving an image having the same subject feature quantity as the user feature quantity from the recording medium and also obtains a second retrieved image by retrieving an image having the same property information with the first retrieved image from the recording medium. The system control unit displays the first retrieved image and the second retrieved image at a display unit so that the retrieved images can be browsed.

Description

本発明は、画像表示装置、その制御方法、および制御プログラムに関し、特に、記録媒体に記録されている画像データを画像として表示部に表示する際、画像を閲覧する人物に応じて閲覧可能な画像を制限する手法に関する。   The present invention relates to an image display device, a control method thereof, and a control program, and in particular, an image that can be browsed according to a person viewing the image when displaying image data recorded on a recording medium as an image on a display unit. It is related with the technique which restricts.

近年、デジタルカメラ、携帯電話機、およびスマートフォンなどの撮像装置の普及によって、例えば、旅先で撮影した画像を友人達と共有する機会が増加している。この際、撮像装置を所有するユーザが撮像装置を友達などの他人に渡して多数の人と撮影の結果得られた画像を共有すると、撮像装置に備えられた記録媒体に保存された全ての画像を閲覧されてしまう可能性がある。   In recent years, with the widespread use of imaging devices such as digital cameras, mobile phones, and smartphones, for example, opportunities to share images taken on the road with friends have increased. At this time, if the user who owns the imaging device passes the imaging device to another person such as a friend and shares an image obtained as a result of shooting with a large number of people, all images stored in the recording medium provided in the imaging device May be viewed.

このような問題に対して、例えば、撮像装置を使用している人物の顔を検出して、当該検出した顔と記録媒体に記録された画像に存在する顔画像とのマッチング処理を行って、マッチングした画像のみを閲覧対象とするように撮像装置がある(特許文献1参照)。   For such a problem, for example, the face of a person using the imaging device is detected, and the detected face is matched with a face image present in the image recorded on the recording medium, There is an imaging device so that only matched images are viewed (see Patent Document 1).

特開2006−318352号公報JP 2006-318352 A

ところが、特許文献1に記載野手法においては、撮像装置を使用する人物が写っている画像のみが閲覧対象となる。この結果、撮像装置を使用する人物が写っていない画像、例えば、友人達を撮影した画像、風景又は建物を撮影した画像を閲覧することができなくなってしまう。このため、撮像装置を使用する人物が閲覧したい画像が閲覧できなくなってしまうという課題がある。   However, in the field method described in Patent Document 1, only an image in which a person who uses the imaging device is shown is to be browsed. As a result, it is impossible to view an image in which a person using the imaging device is not captured, for example, an image in which friends are photographed, an image in which a landscape or a building is photographed. For this reason, there is a problem that an image that a person using the imaging apparatus wants to browse cannot be browsed.

従って、本発明の目的は、所有者のプライバシーを考慮して、しかも閲覧対象の制限を可能な限り低減することのできる画像表示装置、その制御方法、および制御プログラムを提供することにある。   Accordingly, it is an object of the present invention to provide an image display apparatus, a control method thereof, and a control program that can reduce the restriction of the browsing object as much as possible in consideration of the privacy of the owner.

上記の目的を達成するため、本発明による画像表示装置は、記録媒体に保存された画像を再生して表示部に表示する画像表示装置であって、前記表示部に表示される画像を閲覧するユーザを撮像する撮像手段と、前記記録媒体に保存された画像から、前記撮像手段により撮影したユーザが含まれる画像と、前記ユーザが含まれる画像と同一の属性情報を有する画像とを検索して前記表示部に表示する表示制御手段と、を有することを特徴とする。   In order to achieve the above object, an image display device according to the present invention is an image display device that reproduces an image stored in a recording medium and displays the image on a display unit, and browses the image displayed on the display unit. An image capturing unit that captures an image of the user and an image stored in the recording medium are searched for an image including the user captured by the image capturing unit and an image having the same attribute information as the image including the user. Display control means for displaying on the display unit.

本発明による制御方法は、記録媒体に保存された画像を再生して表示部に表示する画像表示装置の制御方法であって、カメラ部によって前記表示部に表示される画像を閲覧するユーザを撮像する撮像ステップと、前記記録媒体に保存された画像から、前記撮像ステップで得られたユーザが含まれる画像と、前記ユーザが含まれる画像と同一の属性情報を有する画像とを検索して前記表示部に表示する表示制御ステップと、を有することを特徴とする。   A control method according to the present invention is a control method of an image display device that reproduces an image stored in a recording medium and displays the image on a display unit, and captures a user who views the image displayed on the display unit by a camera unit An image including the user obtained in the image capturing step and an image having the same attribute information as the image including the user from the image stored in the recording medium. And a display control step for displaying on the screen.

本発明による制御プログラムは、記録媒体に保存された画像を再生して表示部に表示する画像表示装置で用いられる制御プログラムであって、前記画像表示装置が備えるコンピュータに、カメラ部によって前記表示部に表示される画像を閲覧するユーザを撮像する撮像ステップと、前記記録媒体に保存された画像から、前記撮像ステップで得られたユーザが含まれる画像と、前記ユーザが含まれる画像と同一の属性情報を有する画像とを検索して前記表示部に表示する表示制御ステップと、を実行させることを特徴とする。   A control program according to the present invention is a control program used in an image display device that reproduces an image stored in a recording medium and displays the image on a display unit, and the display unit includes a computer unit included in the image display device. An image capturing step for capturing a user viewing an image displayed on the image, an image including the user obtained in the image capturing step from an image stored in the recording medium, and the same attribute as the image including the user A display control step of searching for an image having information and displaying the image on the display unit.

本発明によれば、記録媒体に保存された画像から、ユーザが含まれる画像と、ユーザが含まれる画像と同一の属性情報を有する画像とを検索して表示部に表示するようにしたので、所有者のプライバシーを考慮して、しかも閲覧対象の制限を可能な限り低減することができる。   According to the present invention, an image including the user and an image having the same attribute information as the image including the user are retrieved from the image stored in the recording medium and displayed on the display unit. Considering the privacy of the owner, it is possible to reduce the restriction of the browsing object as much as possible.

本発明の第1の実施形態による画像表示装置を備える撮像装置の一例についてその外観を示す斜視図である。1 is a perspective view showing an appearance of an example of an imaging apparatus including an image display device according to a first embodiment of the present invention. 図1に示すカメラの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the camera shown in FIG. 図1に示すカメラにおける使用者の検出を説明するための図である。It is a figure for demonstrating the detection of the user in the camera shown in FIG. 図2に示すカメラで行われる再生モード処理を説明するためのフローチャートである。3 is a flowchart for explaining a playback mode process performed by the camera shown in FIG. 2. 図2に示す記録媒体に記録された画像イメージについてその一例を示す図である。It is a figure which shows the example about the image image recorded on the recording medium shown in FIG. 図5に示す画像ファイルについて各人物が閲覧可能な撮影日を示す図である。It is a figure which shows the imaging | photography date which each person can browse about the image file shown in FIG. 図5に示す画像ファイルについて各人物が閲覧可能な画像ファイルを示す図である。It is a figure which shows the image file which each person can browse about the image file shown in FIG. 図4で説明した再生モードに係る処理を行った際に表示部に表示されるサムネイル画像の一例を示す図であり、(a)はカメラの所有者が閲覧者である場合のサムネイル画像を示す図、(b)はカメラの所有者以外の人物が閲覧者である場合のサムネイル画像を示す図である。FIG. 5A is a diagram illustrating an example of a thumbnail image displayed on the display unit when processing related to the playback mode described in FIG. 4 is performed, and FIG. 5A illustrates a thumbnail image when the camera owner is a viewer. FIG. 4B is a diagram showing a thumbnail image when a person other than the camera owner is a viewer. 本発明の第2の実施形態による画像表示装置を備えるカメラにおいて記録媒体に記録された画像イメージについてその一例を示す図である。It is a figure which shows the example about the image image recorded on the recording medium in the camera provided with the image display apparatus by the 2nd Embodiment of this invention. 本発明の第3の実施形態による画像表示装置を備えるカメラにおいて記録媒体に記録された画像イメージについてその一例を示す図である。It is a figure which shows the example about the image image recorded on the recording medium in the camera provided with the image display apparatus by the 3rd Embodiment of this invention. 本発明の第4の実施形態による画像表示装置を備えるカメラにおいて記録媒体に記録された画像イメージについてその一例を示す図である。It is a figure which shows the example about the image image recorded on the recording medium in the camera provided with the image display apparatus by the 4th Embodiment of this invention. 本発明の第5の実施形態による画像表示装置を備えるカメラで行われる撮影モード処理を説明するためのフローチャートである。It is a flowchart for demonstrating the imaging | photography mode process performed with the camera provided with the image display apparatus by the 5th Embodiment of this invention. 本発明の第5の実施形態に係るカメラにおいて再生の際に表示されるサムネイル画像と撮影の結果として表示部に表示される画像とを説明するための図であり、(a)はサムネイル画像を示す図、(b)は撮影の結果得られた画像を示す図である。It is a figure for demonstrating the thumbnail image displayed at the time of reproduction | regeneration in the camera which concerns on the 5th Embodiment of this invention, and the image displayed on a display part as a result of imaging | photography, (a) is a thumbnail image. FIG. 4B is a diagram illustrating an image obtained as a result of photographing.

以下、本発明の実施の形態による画像表示装置を備える撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus including an image display apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による画像表示装置を備える撮像装置の一例についてその外観を示す斜視図である。
[First Embodiment]
FIG. 1 is a perspective view illustrating an appearance of an example of an imaging apparatus including the image display apparatus according to the first embodiment of the present invention.

図示の撮像装置は、所謂デジタルカメラ(以下単にカメラと呼ぶ)であり、少なくとも静止画の撮影を行うことができる。カメラ100はその背面側に表示部28が配置されており、この表示部28には画像および各種情報が表示される。   The illustrated imaging apparatus is a so-called digital camera (hereinafter simply referred to as a camera), and can capture at least a still image. The display unit 28 is disposed on the back side of the camera 100, and images and various types of information are displayed on the display unit 28.

カメラ100の上面には電源オンおよび電源オフを切り替える電源スイッチ72が配置されるとともに、シャッターボタン61が配置されている。表示部28の右側には、各種モードを切り替えるモードダイアル(モード切替スイッチともいう)60が配置されるとともに、ユーザからの各種操作を受け付ける操作部70が配置されている。また、表示部28の上側直近には背面方向に向けられたカメラ部90が配置されている。   On the upper surface of the camera 100, a power switch 72 for switching between power on and power off is disposed, and a shutter button 61 is disposed. On the right side of the display unit 28, a mode dial (also referred to as a mode switch) 60 for switching various modes and an operation unit 70 for receiving various operations from the user are disposed. In addition, a camera unit 90 oriented in the back direction is disposed immediately above the display unit 28.

操作部70にはユーザからの各種操作を受け付けるための各種スイッチ、ボタン、タッチパネルおよびなどが備えられている。さらに、操作部70にはコントローラホイール73が備えられており、このコントローラホイール73は回転操作に応じた指令を送出する。   The operation unit 70 includes various switches, buttons, a touch panel, and the like for receiving various operations from the user. Further, the operation unit 70 is provided with a controller wheel 73, and the controller wheel 73 sends out a command corresponding to the rotation operation.

図示の例では、カメラ100には、カメラ100と外部機器(図示せず)とを接続するための接続ケーブル111が接続されている。この接続ケーブル111はコネクタ112によってカメラ100に接続される。   In the illustrated example, the camera 100 is connected with a connection cable 111 for connecting the camera 100 and an external device (not shown). This connection cable 111 is connected to the camera 100 by a connector 112.

カメラ100には記録媒体スロット201が形成されており、この記録媒体スロット201にはメモリカード又はハードディスクなどの記録媒体200が収納される。記録媒体スロット201に記録媒体200を収納する際には、カメラ100に設けられた蓋部202を開いて、記録媒体スロット201に記録媒体200を収納する。   A recording medium slot 201 is formed in the camera 100, and a recording medium 200 such as a memory card or a hard disk is stored in the recording medium slot 201. When storing the recording medium 200 in the recording medium slot 201, the lid 202 provided in the camera 100 is opened, and the recording medium 200 is stored in the recording medium slot 201.

図2は、図1に示すカメラ100の構成の一例を示すブロック図である。   FIG. 2 is a block diagram showing an example of the configuration of the camera 100 shown in FIG.

図2において、カメラ100は撮影レンズユニット(以下単に撮影レンズと呼ぶ)103を備えており、撮影レンズ103には、少なくともズームレンズおよびフォーカスレンズが備えられている。   In FIG. 2, the camera 100 includes a photographic lens unit (hereinafter simply referred to as a photographic lens) 103, and the photographic lens 103 includes at least a zoom lens and a focus lens.

撮影レンズ103の後段には絞り機能を備えるシャッター101が配置されている。そして、シャッター101の後側には、光学像を電気信号(アナログ信号)に変換するCCD又はCMOS素子を有する撮像部22が配置されている。撮像部22の出力であるアナログ信号はA/D変換器23によってデジタル信号(画像データ)に変換される。   A shutter 101 having an aperture function is disposed at the rear stage of the photographing lens 103. On the rear side of the shutter 101, an imaging unit 22 having a CCD or CMOS element that converts an optical image into an electrical signal (analog signal) is disposed. The analog signal that is the output of the imaging unit 22 is converted into a digital signal (image data) by the A / D converter 23.

なお、撮影レンズ103の前面側にはバリア102が配置されており、このバリア102は撮影レンズ103、シャッター101、および撮像部22などを覆って、汚れおよび破損を防止するためのものである。   A barrier 102 is disposed on the front side of the photographic lens 103. The barrier 102 covers the photographic lens 103, the shutter 101, the imaging unit 22, and the like to prevent dirt and damage.

画像処理部24はA/D変換器23の出力である画像データ、又はメモリ制御部15から画像データを受けて、所定の画素補間および縮小などのリサイズ処理と色変換処理とを行う。また、画像処理部24は撮像の結果得られた画像データを用いて所定の演算処理を行う。そして、システム制御部50は当該演算結果に基づいて露光制御および測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、およびEF(フラッシュプリ発光)処理が行われる。   The image processing unit 24 receives the image data that is the output of the A / D converter 23 or the image data from the memory control unit 15 and performs a resizing process such as predetermined pixel interpolation and reduction and a color conversion process. Further, the image processing unit 24 performs a predetermined calculation process using image data obtained as a result of imaging. The system control unit 50 performs exposure control and distance measurement control based on the calculation result. As a result, TTL (through the lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing are performed.

さらに、画像処理部24は撮像の結果得られた画像データを用いて所定の演算処理を行って、当該演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。   Further, the image processing unit 24 performs predetermined calculation processing using image data obtained as a result of imaging, and performs TTL AWB (auto white balance) processing based on the calculation result.

A/D変換器23からの出力である画像データは、画像処理部24およびメモリ制御部15を介して、或いは直接メモリ制御部15を介して、メモリ32に書き込まれる。このメモリ32は、所定枚数の静止画像又は所定時間の動画像および音声を格納するための十分な記憶容量を備えている。   The image data output from the A / D converter 23 is written into the memory 32 via the image processing unit 24 and the memory control unit 15 or directly via the memory control unit 15. The memory 32 has a sufficient storage capacity for storing a predetermined number of still images or moving images and sound for a predetermined time.

図示のメモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねており、メモリ32に書き込まれた表示用の画像データはD/A変換器13を介して表示部28に与えられて、画像として表示される。   The illustrated memory 32 also serves as an image display memory (video memory). The display image data written in the memory 32 is given to the display unit 28 via the D / A converter 13 and is displayed as an image. Is displayed.

なお、表示部28は、例えば、LCDである。また、メモリ32に蓄積された画像データをD/A変換器13においてD/A変換して表示部28に逐次転送して表示すれば、表示部28は電子ビューファインダとして機能しスルー画像表示を行うことができる。   The display unit 28 is, for example, an LCD. Further, if the image data stored in the memory 32 is D / A converted by the D / A converter 13 and sequentially transferred and displayed on the display unit 28, the display unit 28 functions as an electronic viewfinder and displays a through image display. It can be carried out.

システム制御部50はカメラ100全体の制御を司る。不揮発性メモリ56にはシステム制御部50の動作用の定数、変数、およびプログラムなどが格納されている。このプログラムには、後述する各種フローチャートを実行するためのプログラムが含まれる。不揮発性メモリ56は電気的に消去・記録可能なメモリであって、例えば、EEPROMが用いられる。   The system control unit 50 controls the entire camera 100. The nonvolatile memory 56 stores constants, variables, programs, and the like for operating the system control unit 50. This program includes a program for executing various flowcharts to be described later. The nonvolatile memory 56 is an electrically erasable / recordable memory, and for example, an EEPROM is used.

システムメモリ52は、例えば、RAMであり、システム制御部50は不揮発性メモリ56から動作用の定数、変数、およびプログラムなどを読み出して、システムメモリ52に展開する。なお、メモリ32に書き込まれた画像データは、システム制御部50においてファイル化されて、インターフェース(I/F)18を介して記録媒体200に記録される。   The system memory 52 is, for example, a RAM, and the system control unit 50 reads operation constants, variables, programs, and the like from the nonvolatile memory 56 and develops them in the system memory 52. The image data written in the memory 32 is filed in the system control unit 50 and recorded on the recording medium 200 via the interface (I / F) 18.

システム制御部50にはシステムタイマー53が接続されており、システムタイマー52はシステム制御部50による各種制御で用いる時間を計測してシステム制御部50に与える。   A system timer 53 is connected to the system control unit 50, and the system timer 52 measures the time used for various controls by the system control unit 50 and gives it to the system control unit 50.

前述のモード切替スイッチ60は、例えば、システム制御部50の動作モードを静止画記録モード、動画記録モード、および再生モードなどのいずれかに切り替えるためのスイッチである。   The above-described mode changeover switch 60 is a switch for switching the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image recording mode, a reproduction mode, and the like, for example.

上記の静止画記録モードには、例えば、オート撮影モード、オートシーン判別モード、マニュアルモード、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、およびカスタムモードがある。モード切り替えスイッチ60を用いれば、これらのモードのいずれかに直接切り替えることができる。   The still image recording mode includes, for example, an auto shooting mode, an auto scene discrimination mode, a manual mode, various scene modes for shooting settings for each shooting scene, a program AE mode, and a custom mode. If the mode switch 60 is used, it is possible to directly switch to any of these modes.

また、モード切り替えスイッチ60によって静止画記録モードに一旦切り換えた後、上記のモードのいずれかに操作部70を用いて切り替えるようにしてもよい。同様に、動画記録モードにも複数のモードが含まれている。   In addition, after the mode changeover switch 60 temporarily switches to the still image recording mode, the operation unit 70 may be used to switch to any of the above modes. Similarly, the moving image recording mode includes a plurality of modes.

シャッターボタン61が操作途中(半押し:撮影準備指示)であると、第1のシャッタースイッチ(図示せず)がオンとなって、第1のシャッタースイッチ信号SW1がシステム制御部50に与えられる。これによって、システム制御部50はAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、およびEF(フラッシュプリ発光)処理などの動作を開始する。   When the shutter button 61 is in the middle of operation (half-pressed: photographing preparation instruction), a first shutter switch (not shown) is turned on, and the first shutter switch signal SW1 is given to the system control unit 50. Accordingly, the system control unit 50 starts operations such as AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash preflash) processing.

シャッターボタン61が操作完了(全押し)になると、第2のシャッタースイッチ(図示せず)がオンとなって、第2のシャッタースイッチ信号SW2がシステム制御部50に与えられる。これによって、システム制御部50は撮像部22の信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮像処理の動作を開始する。   When the operation of the shutter button 61 is completed (fully pressed), a second shutter switch (not shown) is turned on and a second shutter switch signal SW2 is given to the system control unit 50. Accordingly, the system control unit 50 starts a series of imaging processing operations from reading the signal of the imaging unit 22 to writing the image data on the recording medium 200.

表示部28に表示される種々の機能アイコンを選択操作すると、場面(シーン)毎に適宜機能が割り当てられて、操作部70は各種機能ボタンとして作用する。機能ボタンとして、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、および属性変更ボタンがある。   When various function icons displayed on the display unit 28 are selected and operated, functions are appropriately assigned to each scene, and the operation unit 70 functions as various function buttons. Examples of the function buttons include an end button, a return button, an image advance button, a jump button, a narrowing button, and an attribute change button.

操作部70においてメニューボタンが操作されると、システム制御部50は各種設定を行うためのメニュー画面を表示部28に表示する。ユーザは表示部28に表示されたメニュー画面を見て、4方向キーおよびSETボタンを用いて直感的に各種設定を行うことができる。   When the menu button is operated on the operation unit 70, the system control unit 50 displays a menu screen for performing various settings on the display unit 28. The user can intuitively make various settings using the four-way key and the SET button by looking at the menu screen displayed on the display unit 28.

図1に示すコントローラホイール73は方向ボタンとともに選択項目を指示する際などに用いられる。コントローラホイール73を回転操作すると、操作量に応じた電気的なパルス信号が発生する。システム制御部50は当該パルス信号に基づいてカメラ100を制御する。システム制御部50はパルス信号によってコントローラホイール73が回転操作された角度およびその回転数を知ることができる。   The controller wheel 73 shown in FIG. 1 is used when a selection item is designated together with a direction button. When the controller wheel 73 is rotated, an electrical pulse signal corresponding to the operation amount is generated. The system control unit 50 controls the camera 100 based on the pulse signal. The system control unit 50 can know the angle at which the controller wheel 73 is rotated by the pulse signal and the number of rotations thereof.

なお、コントローラホイール73は回転操作が検出できる操作部材であればどのようなものでもよい。例えば、コントローラホイール73はユーザの回転操作に応じてパルス信号を発生するダイヤル操作部材であってもよい。また、コントローラホイール73は回転することなく、タッチセンサよりなる操作部材であってユーザの指の回転動作などを検出するものであってもよい(所謂タッチホイール)。   The controller wheel 73 may be any operation member that can detect a rotation operation. For example, the controller wheel 73 may be a dial operation member that generates a pulse signal in response to a user's rotation operation. Further, the controller wheel 73 may be an operation member made of a touch sensor without rotating, and may detect a rotation operation of the user's finger (so-called touch wheel).

電源制御部80は電池検出回路、DC−DCコンバータ、および通電するブロックを切り替えるスイッチ回路などを備えている。そして、電源制御部80は電池の装着の有無、電池の種類、および電池残量の検出を行う。また、電源制御部80は上記の検出結果およびシステム制御部50の指示に基づいてDC−DCコンバータを制御して、所定の電圧を必要な期間の間、記録媒体200を含むカメラ100の各部に供給する。   The power supply control unit 80 includes a battery detection circuit, a DC-DC converter, and a switch circuit that switches blocks to be energized. Then, the power control unit 80 detects the presence / absence of a battery, the type of battery, and the remaining battery level. Further, the power supply control unit 80 controls the DC-DC converter based on the detection result and the instruction from the system control unit 50, and applies a predetermined voltage to each part of the camera 100 including the recording medium 200 for a necessary period. Supply.

電源制御部80には電源部30が接続されている。電池部30はアルカリ電池又はリチウム電池などの一次電池、又はNiCd電池、NiMH電池、又はLi電池などの二次電池を備えるとともに、ACアダプターなどを有している。   The power supply unit 30 is connected to the power supply control unit 80. The battery unit 30 includes a primary battery such as an alkaline battery or a lithium battery, or a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, and an AC adapter.

記録媒体I/F18は、メモリカード又はハードディスクなどの記録媒体200とのインターフェースであり、記録媒体200には撮影の結果得られた画像データが記録される。この記録媒体200は、例えば、半導体メモリ又は磁気ディスクから構成される。   The recording medium I / F 18 is an interface with a recording medium 200 such as a memory card or a hard disk, and image data obtained as a result of photographing is recorded on the recording medium 200. The recording medium 200 is composed of, for example, a semiconductor memory or a magnetic disk.

ところで、カメラ100においては所謂中央1点AFおよび顔AFを用いた撮影を行うことが可能である。中央1点AFとは撮影画面内の中央位置1点に対してAFを行うことである。顔AFとは顔検出機能によって検出された顔に対してAFを行うことである。   By the way, in the camera 100, it is possible to perform photographing using so-called center single point AF and face AF. Central one-point AF is to perform AF on one central position in the shooting screen. Face AF is to perform AF on the face detected by the face detection function.

ここで、顔検出機能について説明する。   Here, the face detection function will be described.

システム制御部50は顔検出対象の画像データを画像処理部24に送る。システム制御部50の制御下で画像処理部24は、当該画像データに対して水平方向バンドパスフィルタ処理を行う。そして、システム制御部50の制御下で画像処理部24は、水平方向バンドパスフィルタ処理された画像データに垂直方向バンドパスフィルタ処理を行う。これら水平および垂直方向バンドパスフィルタ処理によって、画像データからエッジ成分が検出される。   The system control unit 50 sends the face detection target image data to the image processing unit 24. Under the control of the system control unit 50, the image processing unit 24 performs horizontal bandpass filter processing on the image data. Then, under the control of the system control unit 50, the image processing unit 24 performs vertical bandpass filter processing on the image data that has been subjected to horizontal bandpass filter processing. By these horizontal and vertical band pass filter processes, edge components are detected from the image data.

その後、システム制御部50は、検出されたエッジ成分についてパターンマッチング処理を行って、目および鼻、口、耳の候補群を抽出する。そして、システム制御部50は、抽出された目の候補群から予め設定された条件(例えば、2つの目の距離および傾きなど)を満たす候補を、目の対と判断して目の対があるもののみ目の候補群(絞込み目の候補群)として絞り込みを行う。   Thereafter, the system control unit 50 performs a pattern matching process on the detected edge component to extract a candidate group of eyes, nose, mouth, and ears. Then, the system control unit 50 determines that a candidate that satisfies a preset condition (for example, the distance and inclination of two eyes) from the extracted eye candidate group is an eye pair and has an eye pair. Narrowing is performed as a candidate group of only eyes (candidate group of narrowing eyes).

システム制御部50は、絞込み目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応づけて、予め設定した非顔条件フィルタ処理を行って顔(顔領域)を検出する。システム制御部50は、顔の検出結果に応じて顔情報を出力して処理を終了する。この際、システム制御部50は顔の数などの特徴量をシステムメモリ52に記憶する。   The system control unit 50 associates a candidate group for narrowing eyes with other parts (nose, mouth, ears) that form a face corresponding thereto, and performs a preset non-face condition filtering process to perform a face (face region). Is detected. The system control unit 50 outputs face information according to the face detection result and ends the process. At this time, the system control unit 50 stores feature quantities such as the number of faces in the system memory 52.

このようにして、ライブビュー表示又は再生表示される画像データを画像解析して、画像データの特徴量を抽出すれば被写体情報(ここでは、顔情報)を得ることができる。なお、ここでは、顔情報を例に挙げて説明したが、被写体情報には他にも赤目判定結果、目の検出結果、目つむり検出結果、および笑顔検出結果などの様々な情報がある。   In this way, subject image information (here, face information) can be obtained by analyzing the image data displayed in live view or reproduced and extracting the feature amount of the image data. Although the face information has been described as an example here, the subject information includes various information such as a red-eye determination result, an eye detection result, an eyelid detection result, and a smile detection result.

上述の顔AFとともに、カメラ100では顔AE,顔FE、および顔WBを行うことができる。顔AEとは検出された顔の明るさに合わせて、画面全体の露出を最適化する処理である。また、顔FEとは検出された顔を中心としてフラッシュの調光を行う処理である。さらに、顔WBとは検出された顔の色に合わせて画面全体のWBを最適化する処理である。   In addition to the above-described face AF, the camera 100 can perform the face AE, the face FE, and the face WB. The face AE is a process for optimizing the exposure of the entire screen in accordance with the brightness of the detected face. The face FE is a process for performing flash light control around the detected face. Furthermore, the face WB is a process of optimizing the WB of the entire screen according to the detected face color.

図3は、図2に示すカメラ100における使用者の検出を説明するための図である。
方法について説明をする。
FIG. 3 is a diagram for explaining user detection in the camera 100 shown in FIG. 2.
The method will be described.

使用者がモード切替スイッチ60によって再生モードを選択すると、システム制御部50は、記録媒体200から画像データを読み出して表示部28に画像として表示する。この際、システム制御部50は、カメラ部90を動作させて、使用者601、つまり、ここでは閲覧者の顔を撮像する。なお、図示はしないが、カメラ部90は、少なくとも撮影レンズ、撮像素子、およびA/D変換器が備えられている。カメラ部90で撮影された画像は、システム制御部50に与えられて、システム制御部50は当該画像について、前述したようにして顔領域(つまり、ユーザ特徴量)の検出を行う。   When the user selects the playback mode with the mode switch 60, the system control unit 50 reads out the image data from the recording medium 200 and displays it on the display unit 28 as an image. At this time, the system control unit 50 operates the camera unit 90 to image the user 601, that is, the viewer's face here. Although not shown, the camera unit 90 includes at least a photographic lens, an image sensor, and an A / D converter. An image photographed by the camera unit 90 is given to the system control unit 50, and the system control unit 50 detects a face area (that is, user feature amount) for the image as described above.

なお、カメラ部90で得られた画像について顔領域の検出を行う際には、使用者301は記録媒体200から読み出された画像を表示部28で確認している。この際、カメラ部90を所謂インカメラとすれば、使用者301は顔を検出するためカメラ100を顔に向ける必要がなくなって、より自然な形態でカメラ100を使用することができる。   Note that when detecting the face area of the image obtained by the camera unit 90, the user 301 confirms the image read from the recording medium 200 on the display unit 28. At this time, if the camera unit 90 is a so-called in-camera, the user 301 does not need to point the camera 100 toward the face in order to detect the face, and can use the camera 100 in a more natural form.

図4は、図2に示すカメラ100で行われる再生モード処理を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、システム制御部50が不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することによって行われる。   FIG. 4 is a flowchart for explaining playback mode processing performed by the camera 100 shown in FIG. Note that the processing according to the flowchart shown in the drawing is performed by the system control unit 50 expanding and executing a program stored in the nonvolatile memory 56 in the system memory 52.

図2に示す記録媒体200に保存された画像データには属性情報として画像が撮影された撮影日時が付加されているものとする。   Assume that the image data stored in the recording medium 200 shown in FIG. 2 is added with the shooting date and time when the image was shot as attribute information.

使用者である画像閲覧者がモード切替スイッチ60によって再生モードに切り替えると、システム制御部50は、図1に示すカメラ部90を制御してカメラ部90で撮影された画像閲覧者に係る画像データ(以下閲覧者画像又はユーザ画像と呼ぶ)をメモリ制御部15を介してメモリ32に書き込む(撮像処理:ステップS101)。   When the image viewer who is the user switches to the reproduction mode by the mode change switch 60, the system control unit 50 controls the camera unit 90 shown in FIG. (Hereinafter referred to as a viewer image or a user image) is written into the memory 32 via the memory control unit 15 (imaging process: step S101).

続いて、システム制御部50は、メモリ32に書き込まれた閲覧者画像において閲覧者の顔領域(つまり、ユーザ特徴量)を検出する顔検出処理を行う(ステップS102)。そして、システム制御部50は閲覧者の顔領域が検出されたか否かを判定する(ステップS103)。   Subsequently, the system control unit 50 performs a face detection process of detecting the viewer's face area (that is, user feature amount) in the viewer image written in the memory 32 (step S102). Then, the system control unit 50 determines whether or not the viewer's face area is detected (step S103).

顔領域の検出ができないと(ステップS103において、NO)、システム制御部50はメモリ制御部15を制御して閲覧者に対して顔の検出が正常に行えなかった旨を伝えるメッセージを表示部28に表示する(ステップS104)。そして、システム制御部50はステップS102の処理に戻る。   If the face area cannot be detected (NO in step S103), the system control unit 50 controls the memory control unit 15 to display a message notifying the viewer that the face has not been detected normally. (Step S104). Then, the system control unit 50 returns to the process of step S102.

一方、閲覧者の顔領域が検出されると(ステップS103において、YES)、システム制御部50は当該顔領域がカメラ100の所有者であるか否かの判定を行う(ステップS105)。そして、システム制御部50は閲覧者の顔領域が予め登録された所有者の顔領域であるか否かを調べてカメラ所有者を検出したか否かを判定する(ステップS106)。なお、所有者の顔領域を示す顔画像は、例えば、不揮発性メモリ56に格納されている。   On the other hand, when the viewer's face area is detected (YES in step S103), the system control unit 50 determines whether or not the face area is the owner of the camera 100 (step S105). Then, the system control unit 50 determines whether or not the camera owner is detected by checking whether or not the viewer's face area is a previously registered owner's face area (step S106). The face image indicating the owner's face area is stored in, for example, the nonvolatile memory 56.

カメラ所有者を検出しないと、つまり、閲覧者の顔領域がカメラ所有者ではないと(ステップS106において、NO)、システム制御部50は記録媒体200に保存された画像と閲覧者の顔領域を示す顔画像とのマッチング処理を行う(ステップS107)。   If the camera owner is not detected, that is, if the viewer's face area is not the camera owner (NO in step S106), the system control unit 50 displays the image stored in the recording medium 200 and the viewer's face area. A matching process with the face image shown is performed (step S107).

なお、ステップS103において検出された顔領域の数が複数ある場合には、システム制御部50は全ての顔についてマッチング処理を行うことになる。また、複数の顔領域が検出された場合には、ステップS106において、システム制御部50はカメラ所有者を検出しないと判定することになる。   When there are a plurality of face areas detected in step S103, the system control unit 50 performs matching processing for all faces. If a plurality of face areas are detected, the system control unit 50 determines in step S106 that the camera owner is not detected.

続いて、システム制御部50はマッチング処理の結果、閲覧者の顔領域のいずれかが記録媒体200に保存された画像から検出されるか否かを判定する(ステップS108)。ここでは、システム制御部50は、記録媒体200に保存された画像において閲覧者の顔領域と一致する被写体の顔領域(つまり、被写体特徴量)が存在するか否かを判定することになる。閲覧者の顔領域にマッチングする画像が1枚も存在しない場合には(ステップS108において、NO)、システム制御部50は閲覧者に対して記録媒体200に保存されている画像うち最も日付(日時)の新しい画像を閲覧する閲覧権限を与える(ステップS109)。   Subsequently, as a result of the matching process, the system control unit 50 determines whether any one of the viewer's face areas is detected from the image stored in the recording medium 200 (step S108). Here, the system control unit 50 determines whether or not there is a subject face area (that is, a subject feature amount) that matches the face area of the viewer in the image stored in the recording medium 200. If there is no image matching the face area of the viewer (NO in step S108), the system control unit 50 displays the date (date and time) among the images stored in the recording medium 200 for the viewer. ) Is given viewing authority to browse the new image (step S109).

一方、閲覧者の顔領域にマッチングする画像(つまり、第1の検索画像)が存在すると(ステップ108において、YES)、システム制御部50はマッチングした画像と同一の属性情報を有する画像(つまり、第2の検索画像)を記録媒体200から抽出する(ステップS110)。そして、システム制御部50は閲覧者に対して、抽出した画像(ここでは、第1の検索画像および第2の検索画像)について閲覧権限を与える(ステップS111)。   On the other hand, if there is an image (that is, the first search image) that matches the viewer's face area (YES in step 108), the system control unit 50 has an image having the same attribute information as the matched image (that is, the first search image). The second search image) is extracted from the recording medium 200 (step S110). Then, the system control unit 50 gives the browsing authority for the extracted images (here, the first search image and the second search image) to the viewer (step S111).

ステップS106において、カメラ所有者を検出すると(ステップS106において、YES)、システム制御部50は閲覧者に対して記録媒体200に保存された全ての画像について閲覧権限を与える(ステップS112)。   In step S106, when the camera owner is detected (YES in step S106), the system control unit 50 gives the browsing authority to all images stored in the recording medium 200 to the viewer (step S112).

ステップS109、S111、又はS112に続いて、システム制御部50はカメラ100で画像の閲覧を行っている閲覧者(つまり、カメラ使用者)が別の人物に替わったか否か、つまり、使用者に変更があったか否かを判定する(ステップS113)。ここでは、システム制御部50は所定の間隔でカメラ部90を用いて撮像を行い、メモリ32に書き込まれた閲覧者画像において検出される顔領域の変化の有無に応じてカメラ100の使用者が替わったか否かを判定する。   Subsequent to step S109, S111, or S112, the system control unit 50 determines whether the viewer (that is, the camera user) who browses the image with the camera 100 has been replaced with another person, that is, the user. It is determined whether or not there has been a change (step S113). Here, the system control unit 50 performs imaging using the camera unit 90 at a predetermined interval, and the user of the camera 100 determines whether there is a change in the face area detected in the viewer image written in the memory 32. It is determined whether or not it has been changed.

使用者が替わると(ステップS113において、YES)、システム制御部50はステップS101の処理に戻って、カメラ部90を用いて撮像処理を行う。一方、使用者が替わらないと(ステップS113において、NO)、システム制御部50は現在の閲覧権限で再生モードを行い、操作部70の操作によって再生モードが終了操作されたか否かを判定する(ステップS114)。   When the user is changed (YES in step S113), the system control unit 50 returns to the process of step S101 and performs an imaging process using the camera unit 90. On the other hand, if the user is not changed (NO in step S113), the system control unit 50 performs the reproduction mode with the current viewing authority, and determines whether or not the reproduction mode is terminated by the operation of the operation unit 70 ( Step S114).

再生モードの終了操作が行われないと、つまり、再生モードが継続していると(ステップS114において、YES)、システム制御部50はステップS113の処理に戻る。一方、再生モードの終了操作が行われると(ステップS114において、NO)、システム制御部50は再生モードを終了する。   If the end operation of the playback mode is not performed, that is, if the playback mode is continued (YES in step S114), system control unit 50 returns to the process of step S113. On the other hand, when the end operation of the playback mode is performed (NO in step S114), system control unit 50 ends the playback mode.

図5は、図2に示す記録媒体200に記録された画像イメージについてその一例を示す図である。   FIG. 5 is a diagram showing an example of the image image recorded on the recording medium 200 shown in FIG.

図5に示す例では、記録媒体200には、画像ファイル(つまり、画像データ)に付随して、撮影日(つまり、撮影日情報)、撮影時間(つまり、撮影時間情報)、撮影場所(つまり、撮影場所情報)、および画像ファイルに写っている人物が記録されている。ここでは、人物”A”、人物”B”、および人物”C”が写っている人物とされている。   In the example illustrated in FIG. 5, the recording medium 200 is accompanied by an image file (that is, image data), a shooting date (that is, shooting date information), a shooting time (that is, shooting time information), and a shooting location (that is, shooting data). , Shooting location information), and the person in the image file are recorded. Here, it is assumed that the person “A”, the person “B”, and the person “C” are shown.

図6は、図5に示す画像ファイルについて各人物が閲覧可能な撮影日を示す図である。   FIG. 6 is a diagram showing a shooting date that each person can view for the image file shown in FIG. 5.

図7は、図5に示す画像ファイルについて各人物が閲覧可能な画像ファイルを示す図である。   FIG. 7 is a diagram illustrating an image file that can be viewed by each person with respect to the image file illustrated in FIG. 5.

図5に示すように、人物”B”が撮影された撮影日は、「1月1日および1月15日」2日間である。図示の例では、前述のように、属性情報として画像データの撮影日が考慮される。画像ファイルIMG0003およびIMG0006には人物”B”は写っていないが、これら画像ファイルIMG0003およびIMG0006は人物”B”が写っている画像ファイルIMG0001、IMG0002、IMG0005、およびIMG0007と撮影された日付が同一である。   As shown in FIG. 5, the shooting date when the person “B” was shot is “January 1 and January 15” for two days. In the illustrated example, as described above, the shooting date of the image data is considered as the attribute information. The image files IMG0003 and IMG0006 do not show the person “B”, but the image files IMG0003 and IMG0006 have the same shooting date as the image files IMG0001, IMG0002, IMG0005, and IMG0007 that contain the person “B”. is there.

よって、画像ファイルIMG0003およびIMG0006は画像ファイルIMG0001、IMG0002、IMG0005、およびIMG0007と同一の属性情報を有する画像ファイルである。この結果、ステップS108で人物”B”の顔領域にマッチングする画像が記録媒体200に存在するので、人物”B”は人物”B”が写っていない画像ファイルIMG0003およびIMG0006を閲覧することができる。   Therefore, the image files IMG0003 and IMG0006 are image files having the same attribute information as the image files IMG0001, IMG0002, IMG0005, and IMG0007. As a result, since an image matching the face area of the person “B” exists in the recording medium 200 in step S108, the person “B” can browse the image files IMG0003 and IMG0006 in which the person “B” is not captured. .

人物”C”については、人物”C”が写っている画像ファイルの撮影日として1月1日が存在する。この結果、人物”C”が閲覧可能な画像ファイルは同一の属性情報を有する画像ファイルIMG0001、IMG0002、およびIMG0003の計3枚となる。   For the person “C”, there is January 1 as the shooting date of the image file in which the person “C” is shown. As a result, a total of three image files IMG0001, IMG0002, and IMG0003 having the same attribute information can be viewed by the person “C”.

この結果、人物”A”〜”C”が閲覧可能な撮影日はそれぞれ図6に示すカレンダー300〜302において丸印を付した日付となり、そして、人物”A”〜”C”の各々が閲覧可能な画像ファイルは、図7に示す画像ファイルとなる。   As a result, the photographing dates on which the persons “A” to “C” can browse are dates marked with circles in the calendars 300 to 302 shown in FIG. 6, respectively, and each of the persons “A” to “C” browses. Possible image files are the image files shown in FIG.

図8は、図4で説明した再生モードに係る処理を行った際に表示部28に表示されるサムネイル画像の一例を示す図である。そして、図8(a)はカメラの所有者が閲覧者である場合のサムネイル画像を示す図であり、図8(b)はカメラの所有者以外の人物が閲覧者である場合のサムネイル画像を示す図である。   FIG. 8 is a diagram illustrating an example of a thumbnail image displayed on the display unit 28 when the process related to the playback mode described in FIG. 4 is performed. FIG. 8A shows a thumbnail image when the camera owner is a viewer, and FIG. 8B shows a thumbnail image when a person other than the camera owner is a viewer. FIG.

なお、図8においては、説明の便宜上、サムネイル画像の各々はその撮影日で示されており、ここでは、記録媒体200には、9枚の画像ファイルが記録され、これら画像ファイルの各々には人物”A”〜”C”の少なくとも1つの写っているものとする。そして、ここでは、カメラ100の所有者は人物”A”であるとする。   In FIG. 8, for convenience of explanation, each thumbnail image is shown by its shooting date. Here, nine image files are recorded on the recording medium 200, and each of these image files is recorded in each image file. Assume that at least one of the persons “A” to “C” is captured. Here, it is assumed that the owner of the camera 100 is the person “A”.

人物”A”が閲覧者である場合には、表示部28に表示される画面401には、記録媒体200に記録された画像ファイルの全て(つまり、9枚の画像)が表示部28に表示されることになる。一方、ここでは、所有者以外の人物”B”が閲覧者である場合には、属性情報である撮影日をキーとして、表示部28に表示される画面402には閲覧権限のある6枚の画像のみが表示される。   When the person “A” is a viewer, the screen 401 displayed on the display unit 28 displays all of the image files recorded on the recording medium 200 (that is, nine images) on the display unit 28. Will be. On the other hand, here, when the person “B” other than the owner is a viewer, the screen 402 displayed on the display unit 28 has six images with viewing authority using the shooting date as attribute information as a key. Only the image is displayed.

図8(b)において、人物”B”については属性情報である撮影日によって閲覧可能な画像が制限されているが、システム制御部50は閲覧制限について明示的に表示部28に表示しない。これによって、人物”B”は閲覧可能な画像が制限されていることに気づかずに閲覧することになって、人物”B”が不快感を抱くことが軽減される。   In FIG. 8B, for the person “B”, images that can be browsed are limited by the shooting date that is the attribute information, but the system control unit 50 does not explicitly display the browsing limitation on the display unit 28. As a result, the person “B” browses without noticing that the viewable images are limited, and the person “B” is less likely to feel uncomfortable.

このように、本発明の第1の実施形態では、カメラ100を使用している人物が検出された画像と同一の属性情報を有する画像のみを閲覧可能とするので、当該使用者に関わりのない画像の閲覧を防止することができる。その結果、所有者のプライバシーを考慮して、しかも閲覧対象の制限を可能な限り低減することができる。   As described above, in the first embodiment of the present invention, only an image having the same attribute information as that of the image in which the person using the camera 100 is detected can be browsed. Browsing of images can be prevented. As a result, in consideration of the privacy of the owner, it is possible to reduce the restriction of the browsing target as much as possible.

第1の実施形態では、例えば、カメラ100を使用している当日に撮影したイベントに係る画像については、当該画像を撮影した全ての人物と共有することできるものの、それ以外の関係のない画像については閲覧を制限されることになる。   In the first embodiment, for example, an image related to an event photographed on the day of using the camera 100 can be shared with all the persons who photographed the image, but there are other unrelated images. Will be restricted from viewing.

[第2の実施形態]
続いて、本発明の第2の実施形態による画像表示装置を備えるカメラについて説明する。なお、第2の実施形態に係るカメラの構成は図1および図2に示すカメラと同様であり、さらに、再生モードの際の処理は図4で説明したフローチャートに応じて行われる。但し、第2の実施形態では、記録媒体200に保存された画像データに係る属性情報として、画像が撮影された日付に加えて、画像を撮影した場所(撮影位置)とカメラの現在位置との距離を示す距離情報が用いられる。
[Second Embodiment]
Next, a camera including an image display device according to the second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIGS. 1 and 2, and the processing in the playback mode is performed according to the flowchart described in FIG. However, in the second embodiment, as attribute information related to image data stored in the recording medium 200, in addition to the date when the image was captured, the location where the image was captured (capturing position) and the current position of the camera Distance information indicating the distance is used.

図9は、本発明の第2の実施形態による画像表示装置を備えるカメラにおいて記録媒体に記録された画像イメージについてその一例を示す図である。   FIG. 9 is a diagram illustrating an example of an image image recorded on a recording medium in a camera including an image display device according to the second embodiment of the present invention.

図9に示す例では、記録媒体200には、画像ファイルに付随して、撮影日、撮影時間、撮影場所、および画像ファイルに写っている人物が記録されている。ここでは、人物”A”、人物”B”、人物”C”、人物”D”、および人物”E”が写っている人物とされている。   In the example shown in FIG. 9, the recording medium 200 records a shooting date, a shooting time, a shooting location, and a person shown in the image file in association with the image file. Here, the person “A”, the person “B”, the person “C”, the person “D”, and the person “E” are taken.

図9に示すように、人物”D”が写っている画像ファイルは、画像ファイルIMG0004、IMG0005、およびIMG0006の計3枚である。第1の実施形態で説明したように、属性情報として撮影日のみを考慮すると、画像ファイルIMG0001、IMG0002、およびIMG0003の撮影日と画像ファイルIMG0004、IMG0005、およびIMG0006の撮影日が同一である。よって、人物”D”は画像ファイルIMG0001、IMG0002、IMG0003、IMG0004、IMG0005、およびIMG0006の計6枚を閲覧することができることになる。   As shown in FIG. 9, there are a total of three image files including the image files IMG0004, IMG0005, and IMG0006 in which the person “D” is shown. As described in the first embodiment, when only the shooting date is considered as attribute information, the shooting dates of the image files IMG0001, IMG0002, and IMG0003 are the same as the shooting dates of the image files IMG0004, IMG0005, and IMG0006. Therefore, the person “D” can view a total of six image files IMG0001, IMG0002, IMG0003, IMG0004, IMG0005, and IMG0006.

ところが、図9に示すように、北海道で撮影した画像と東京で撮影した画像に写っている人物は全く異なる人物である。従って、プライバシー保護のためには、人物”D”が閲覧できる画像ファイルはIMG0004、IMG0005、およびIMG0006の3枚であることが望ましい。   However, as shown in FIG. 9, the person shown in the image taken in Hokkaido and the image taken in Tokyo are completely different persons. Therefore, in order to protect privacy, it is desirable that the number of image files that can be browsed by the person “D” is IMG0004, IMG0005, and IMG0006.

従って、第2の実施形態においては、図示はしないが、GPS受信機などの位置情報取得部によって、システム制御部50はカメラ100の現在位置(使用場所)を取得する。そして、システム制御部50は、各画像ファイルの撮影場所とカメラ100の使用場所との距離を求めて距離情報を得る。距離情報が示す距離が所定の距離閾値を超えると、システム制御部50は同一の撮影日に係る画像ファイルであってもその閲覧を制限する。   Therefore, in the second embodiment, although not shown, the system control unit 50 acquires the current position (use location) of the camera 100 by a position information acquisition unit such as a GPS receiver. Then, the system control unit 50 obtains distance information by obtaining the distance between the shooting location of each image file and the usage location of the camera 100. When the distance indicated by the distance information exceeds a predetermined distance threshold, the system control unit 50 restricts browsing of image files related to the same shooting date.

例えば、図9に示す例において、カメラ100の使用場所が東京であって、東京から北海道までの距離が同一の属性情報には含まれないほどの距離であったとすると、人物”D”が閲覧できる画像ファイルはIMG0004、IMG0005、およびIMG0006の3枚に制限されることになる。   For example, in the example shown in FIG. 9, if the place where the camera 100 is used is Tokyo and the distance from Tokyo to Hokkaido is not included in the same attribute information, the person “D” browses. The possible image files are limited to three files, IMG0004, IMG0005, and IMG0006.

このように、本発明の第2の実施形態では、カメラ100の所有者は、記録媒体200に保存された画像ファイルにおいて、カメラ100の使用者(つまり、閲覧者)が検出されない日付の画像とカメラ100の使用場所から所定の距離を超えた撮影場所で撮影された画像を他の人物に閲覧されることがなくなる。   As described above, according to the second embodiment of the present invention, the owner of the camera 100 selects an image having a date on which the user (that is, the viewer) of the camera 100 is not detected in the image file stored in the recording medium 200. An image shot at a shooting location that exceeds a predetermined distance from the usage location of the camera 100 is not viewed by another person.

例えば、カメラ100の所有者が日帰りで家族と旅行に行った際に旅行から帰って友人と会うケースにおいては、画像ファイルの属性情報として撮影日のみを用いると、友人に家族といった旅行の画像まで見られてしまうことがある。一方、上述のようにして距離情報を考慮すると、友人に対して関係のない画像の閲覧を制限することができる。   For example, in the case where the owner of the camera 100 visits a family on a day trip and returns from the trip and meets a friend, if only the shooting date is used as attribute information of the image file, the image of the trip of the family to the friend can be obtained. It may be seen. On the other hand, when distance information is considered as described above, browsing of images that are not relevant to a friend can be restricted.

[第3の実施形態]
次に、本発明の第3の実施形態による画像表示装置を備えるカメラについて説明する。なお、第3の実施形態に係るカメラの構成は図1および図2に示すカメラと同様であり、さらに、再生モードの際の処理は図4で説明したフローチャートに応じて行われる。但し、第3の実施形態では、記録媒体200に保存された画像データに係る属性情報として、画像が撮影された日付に加えて、画像を撮影した時刻が用いられる。
[Third Embodiment]
Next, a camera provided with an image display device according to a third embodiment of the present invention will be described. The configuration of the camera according to the third embodiment is the same as that of the camera shown in FIGS. 1 and 2, and the processing in the playback mode is performed according to the flowchart described in FIG. However, in the third embodiment, as the attribute information related to the image data stored in the recording medium 200, the time when the image was captured is used in addition to the date when the image was captured.

図10は、本発明の第3の実施形態による画像表示装置を備えるカメラにおいて記録媒体に記録された画像イメージについてその一例を示す図である。   FIG. 10 is a diagram illustrating an example of an image image recorded on a recording medium in a camera including an image display device according to the third embodiment of the present invention.

図10に示す例では、記録媒体200には、画像ファイルに付随して、撮影日、撮影時間、撮影場所、および画像ファイルに写っている人物が記録されている。ここでは、人物”A”、人物”B”、人物”C”、人物”D”、および人物”E”が写っている人物とされている。   In the example shown in FIG. 10, the recording medium 200 records the shooting date, the shooting time, the shooting location, and the person shown in the image file in association with the image file. Here, the person “A”, the person “B”, the person “C”, the person “D”, and the person “E” are taken.

図10に示すように、人物”D”が写っている画像ファイルは、MG0004、IMG0005、およびIMG0006の計3枚である。第1の実施形態で説明したように、属性情報として撮影日のみを考慮すると、画像ファイルIMG0001、IMG0002、およびIMG0003の撮影日と画像ファイルIMG0004、IMG0005、およびIMG0006の撮影日が同一である。よって、人物”D”は画像ファイルIMG0001、IMG0002、IMG0003、IMG0004、IMG0005、およびIMG0006の計6枚を閲覧することができることになる。   As shown in FIG. 10, there are a total of three image files, MG0004, IMG0005, and IMG0006, in which the person “D” is shown. As described in the first embodiment, when only the shooting date is considered as attribute information, the shooting dates of the image files IMG0001, IMG0002, and IMG0003 are the same as the shooting dates of the image files IMG0004, IMG0005, and IMG0006. Therefore, the person “D” can view a total of six image files IMG0001, IMG0002, IMG0003, IMG0004, IMG0005, and IMG0006.

ところが、図10に示すように、画像ファイルIMG0001、IMG0002、およびIMG0003と画像ファイルIMG0004、IMG0005、およびIMG0006に写っている人物は全く異なる人物である。従って、プライバシー保護のためには、人物”D”が閲覧できる画像ファイルはIMG0004、IMG0005、およびIMG0006の3枚であることが望ましい。   However, as shown in FIG. 10, the persons shown in the image files IMG0001, IMG0002, and IMG0003 and the image files IMG0004, IMG0005, and IMG0006 are completely different persons. Therefore, in order to protect privacy, it is desirable that the number of image files that can be browsed by the person “D” is IMG0004, IMG0005, and IMG0006.

従って、第2の実施形態においては、属性情報として画像の撮影時刻も考慮して、システム制御部50は画像の撮影時刻の間に所定の時間を超える差が存在すると、画像を同一の属性として扱わないようにする。図示の例では、画像ファイルIMG0001、IMG0002、およびIMG0003と画像ファイルIMG0004、IMG0005、およびIMG0006の撮影時刻の間に所定の時間を超える差が存在するので、システム制御部50はこれら画像ファイルが異なる属性情報を有すると判定する。その結果、システム制御部50は人物”D”が閲覧可能な画像ファイルをIMG0004、IMG0005、およびING0006の3枚に制限する。   Therefore, in the second embodiment, considering the image shooting time as attribute information, the system control unit 50 sets the image as the same attribute if there is a difference exceeding a predetermined time between the image shooting times. Do not handle. In the illustrated example, since there is a difference exceeding a predetermined time between the image files IMG0001, IMG0002, and IMG0003 and the shooting times of the image files IMG0004, IMG0005, and IMG0006, the system control unit 50 determines that these image files have different attributes. Determine that it has information. As a result, the system control unit 50 limits the number of image files that the person “D” can view to IMG0004, IMG0005, and ING0006.

このように、本発明の第3の実施形態では、記録媒体200に保存された画像ファイルにおいて、撮影日が同一であっても使用者が検出されない画像と使用者が検出された画像との撮影時刻に所定の時間を超える差が存在すると画像の閲覧を制限する。よって、カメラ100の所有者は撮影時刻に所定の時間を超える差が存在する画像を他の人物に閲覧されることがなくなる。   As described above, in the third embodiment of the present invention, in an image file stored in the recording medium 200, an image of an image in which the user is not detected and an image in which the user is detected is detected even if the shooting date is the same. If there is a difference in time that exceeds a predetermined time, image browsing is restricted. Therefore, the owner of the camera 100 does not view an image in which there is a difference exceeding a predetermined time in the shooting time by another person.

[第4の実施形態]
続いて、本発明の第4の実施形態による画像表示装置を備えるカメラについて説明する。なお、第4の実施形態に係るカメラの構成は図1および図2に示すカメラと同様であり、さらに、再生モードの際の処理は図4で説明したフローチャートに応じて行われる。但し、第4の実施形態では、図4に示すステップS103において複数の顔領域が検出されたものとする。
[Fourth Embodiment]
Next, a camera provided with an image display device according to a fourth embodiment of the present invention will be described. The configuration of the camera according to the fourth embodiment is the same as that of the camera shown in FIGS. 1 and 2, and the processing in the playback mode is performed according to the flowchart described in FIG. However, in the fourth embodiment, it is assumed that a plurality of face regions are detected in step S103 shown in FIG.

図11は、本発明の第4の実施形態による画像表示装置を備えるカメラにおいて記録媒体に記録された画像イメージについてその一例を示す図である。   FIG. 11 is a diagram illustrating an example of an image image recorded on a recording medium in a camera including an image display device according to the fourth embodiment of the present invention.

ここでは、第1の実施形態で説明したように、属性情報として撮影日のみ用いるものとすれば、人物”B”が閲覧可能な画像ファイルはIMG0001、IMG0002、IMG0004、およびIMG0006であり、人物”C”が閲覧可能な画像ファイルはIMG0001、IMG0003、およびIMG0005である。   Here, as described in the first embodiment, if only the shooting date is used as attribute information, the image files that can be viewed by the person “B” are IMG0001, IMG0002, IMG0004, and IMG0006, and the person “B” Image files that can be browsed by C ″ are IMG0001, IMG0003, and IMG0005.

図4で説明したステップS103おいて、システム制御部50は複数の顔領域を検出すると、ステップS106においてカメラ所有者を検出しないと判定する。この結果、システム制御部50はステップS107においてマッチング処理を行って、当該マッチング処理によって、人物”B”について画像ファイルIMG0001、IMG0002、IMG0004、およびIMG0006を閲覧可能とし、人物”C”について画像ファイルIMG0001、IMG0003、およびIMG0005を閲覧可能とする。   In step S103 described with reference to FIG. 4, when the system control unit 50 detects a plurality of face areas, it determines that the camera owner is not detected in step S106. As a result, the system control unit 50 performs a matching process in step S107, and enables the browsing of the image files IMG0001, IMG0002, IMG0004, and IMG0006 for the person “B” by the matching process, and the image file IMG0001 for the person “C”. , IMG0003, and IMG0005.

この際、複数の人物”B”および”C”について顔領域が検出されているので、システム制御部50は画像ファイルIMG0001、IMG0002、IMG0003、IMG0004、IMG0005、およびIMG0006の計6枚を閲覧可能とする。   At this time, since face areas are detected for a plurality of persons “B” and “C”, the system control unit 50 can view a total of six image files IMG0001, IMG0002, IMG0003, IMG0004, IMG0005, and IMG0006. To do.

このように、本発明の第4の実施形態では、記録媒体200に保存された画像を複数の人物で閲覧する際には、カメラ100を使用する特定の人物一人が写っている画像と同一の属性情報を有する画像のみを表示することなく、カメラ100を使用する人物が写っている全ての画像と同一の属性情報を有する画像が表示される。この結果、複数の人物で画像を閲覧する際には、各人物に関連する画像を複数の人物が閲覧することができる。   As described above, in the fourth embodiment of the present invention, when viewing an image stored in the recording medium 200 with a plurality of persons, the same image as that of a specific person using the camera 100 is shown. An image having the same attribute information as all images in which a person using the camera 100 is captured is displayed without displaying only images having attribute information. As a result, when an image is browsed by a plurality of persons, the plurality of persons can browse an image related to each person.

[第5の実施形態]
次に、本発明の第5の実施形態による画像表示装置を備えるカメラについて説明する。なお、第5の実施形態に係るカメラの構成は図1および図2に示すカメラと同様である。
[Fifth Embodiment]
Next, a camera provided with an image display device according to a fifth embodiment of the present invention will be described. The configuration of the camera according to the fifth embodiment is the same as that of the camera shown in FIGS.

第5の実施形態では、所有者以外の人物がカメラ100の使用している際に、記録媒体200の空き容量がなくなって、撮影の結果得られた画像が記録できない場合の処理について説明する。なお、ここでは、撮影の際において、カメラ部90によって使用者が撮像されて当該撮像の結果得られた画像がメモリ32に格納されるものとする。   In the fifth embodiment, a process will be described when a person other than the owner uses the camera 100 and the recording medium 200 runs out of space and an image obtained as a result of shooting cannot be recorded. Here, it is assumed that a user is imaged by the camera unit 90 and an image obtained as a result of the imaging is stored in the memory 32 at the time of shooting.

図12は、本発明の第5の実施形態による画像表示装置を備えるカメラで行われる撮影モード処理を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、システム制御部50が不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することによって行われる。   FIG. 12 is a flowchart for explaining a shooting mode process performed by a camera including an image display device according to the fifth embodiment of the present invention. Note that the processing according to the flowchart shown in the drawing is performed by the system control unit 50 expanding and executing a program stored in the nonvolatile memory 56 in the system memory 52.

使用者である撮影者がモード切替スイッチ60によって撮影モードに切り替えると、システム制御部50はメモリ32に記録された画像(つまり、使用者画像)について人物の顔領域が検出されたか否かを判定する(ステップS201)。顔領域が検出されないと(ステップS201において、NO)、システム制御部50は人物の顔領域が検出されるまでステップS201の処理を行う。つまり、システム制御部50は人物の顔領域が検出されるまで、次のステップに進まず、撮影が行えないようにする。   When the photographer who is the user switches to the photographing mode by the mode change switch 60, the system control unit 50 determines whether or not a person's face area is detected for the image recorded in the memory 32 (that is, the user image). (Step S201). If the face area is not detected (NO in step S201), the system control unit 50 performs the process of step S201 until the face area of the person is detected. In other words, the system control unit 50 does not proceed to the next step until the person's face area is detected, and prevents shooting.

一方、人物の顔領域が検出されると(ステップS201において、YES)、システム制御部50はシャッターボタン61が操作されたか否かを判定する(ステップS202)。所定の時間が経過してもシャッターボタン61が操作されないと(ステップS202において、NO)、システム制御部50はシャッターボタンが操作されるまで待機する。シャッターボタン61が操作されると(ステップS202において、YES)、システム制御部50は、図2に関連して説明したようにして、被写体の撮像を行って画像データ(被写体画像)を得る(ステップS203)。   On the other hand, when a human face area is detected (YES in step S201), the system control unit 50 determines whether or not the shutter button 61 has been operated (step S202). If the shutter button 61 is not operated even after the predetermined time has elapsed (NO in step S202), the system control unit 50 waits until the shutter button is operated. When the shutter button 61 is operated (YES in step S202), the system control unit 50 captures the subject and obtains image data (subject image) as described with reference to FIG. S203).

続いて、システム制御部50は撮像の結果得られた被写体画像データを記録することができる空き容量が記録媒体200に存在するか否かを判定する(ステップS204)。記録媒体200に空き容量が存在すると(ステップS204において、YES)、システム制御部50は撮像の結果得られた被写体画像データを記録媒体200に記録する(ステップS205)。そして、システム制御部50は使用者の操作によって撮影モードが終了したか否かを判定する(ステップS206)。   Subsequently, the system control unit 50 determines whether or not the recording medium 200 has a free space capable of recording subject image data obtained as a result of imaging (step S204). If there is free space in the recording medium 200 (YES in step S204), the system control unit 50 records subject image data obtained as a result of imaging on the recording medium 200 (step S205). Then, the system control unit 50 determines whether or not the shooting mode is ended by the user's operation (step S206).

撮影モードの終了操作が行われると(ステップS206において、YES)、システム制御部50は撮影モード処理を終了する。一方、撮影モードの終了操作が行われないと(ステップS206において、NO)、システム制御部50はステップS202の処理に戻る。   When the shooting mode end operation is performed (YES in step S206), system control unit 50 ends the shooting mode process. On the other hand, if the photographing mode end operation is not performed (NO in step S206), system control unit 50 returns to the process of step S202.

記録媒体200に空き容量が存在しないと(ステップS204において、YES)、システム制御部50は記録媒体207の空き容量が不足する旨を表示部28に表示する(ステップS207)。そして、システム制御部50はステップS206の処理に進む。   If there is no free space in recording medium 200 (YES in step S204), system control unit 50 displays on display unit 28 that the free space of recording medium 207 is insufficient (step S207). Then, the system control unit 50 proceeds to the process of step S206.

図13は、本発明の第5の実施形態に係るカメラにおいて再生の際に表示されるサムネイル画像と撮影の結果として表示部28に表示される画像とを説明するための図である。そして、図13(a)はサムネイル画像を示す図であり、図13(b)は撮影の結果得られた画像を示す図である。   FIG. 13 is a diagram for explaining a thumbnail image displayed during playback and an image displayed on the display unit 28 as a result of shooting in the camera according to the fifth embodiment of the present invention. FIG. 13A shows a thumbnail image, and FIG. 13B shows an image obtained as a result of shooting.

いま、撮影を行った使用者が、記録媒体200に保存された画像を閲覧しようとした際、前述の第1〜第3の実施形態のいずれかで説明した手法によって、表示部28に画面501が表示されて、当該画面501に複数のサムネイル画像が表示されたとする(図13(b)において、2枚のサムネイル画像のみが示されている)。   Now, when a user who has taken an image tries to view an image stored in the recording medium 200, the screen 501 is displayed on the display unit 28 by the method described in any of the first to third embodiments. Is displayed and a plurality of thumbnail images are displayed on the screen 501 (only two thumbnail images are shown in FIG. 13B).

一方、図12で説明したようにして、使用者がカメラ100を用いて撮影を行った際、表示部28には確認のための画面502が表示され、ここには、今回の撮影で撮影可能な枚数503が表示される。   On the other hand, as described with reference to FIG. 12, when the user takes a picture using the camera 100, a confirmation screen 502 is displayed on the display unit 28. The correct number 503 is displayed.

ここでは、表示部28に閲覧可能な画像の枚数と撮影可能な画像の枚数とに不整合が生じることがある。そして、記録媒体200に保存された画像の大部分を閲覧することができない使用者は、図13に示す不整合に疑問を持つ可能性がある。このため、システム制御部50は、使用者が閲覧可能な画像に制限があることに気づくことなく、カメラ100の使用が可能であることを優先させ、閲覧可能な画像に制限がある旨を通知しない。   Here, there may be a mismatch between the number of images that can be viewed on the display unit 28 and the number of images that can be taken. Then, a user who cannot view most of the images stored in the recording medium 200 may have doubts about the inconsistency shown in FIG. For this reason, the system control unit 50 gives priority to the use of the camera 100 without noticing that there are restrictions on the images that can be viewed by the user, and notifies that there are restrictions on the images that can be viewed. do not do.

このように、本発明の第5の実施形態では、撮影の結果得られた画像データを保存するための空き容量が不足する際、画像再生の際に表示部28に表示される画像数と撮影の際に表示部28に表示される撮影可能枚数との不一致を考慮することなく、記録媒体200の空き容量が不足していることを通知する。これによって、使用者は使用者が閲覧可能な画像に制限があるにも拘らず、カメラ100を使用することができる。   As described above, in the fifth embodiment of the present invention, when there is not enough free space for storing image data obtained as a result of shooting, the number of images displayed on the display unit 28 and shooting when the image is reproduced. In this case, it is notified that the free space of the recording medium 200 is insufficient without considering the discrepancy with the number of shootable images displayed on the display unit 28. Thus, the user can use the camera 100 even though the images that can be viewed by the user are limited.

上述の説明から明らかなように、図2に示す例では、カメラ部90が撮像手段として機能し、画像処理部24、システム制御部50、およびメモリ制御部15が表示制御手段として機能する。また、画像処理部24およびシステム制御部50は抽出手段および検索手段として機能し、システム制御部50およびメモリ制御部15は表示手段として機能する。   As is clear from the above description, in the example shown in FIG. 2, the camera unit 90 functions as an imaging unit, and the image processing unit 24, the system control unit 50, and the memory control unit 15 function as display control units. The image processing unit 24 and the system control unit 50 function as an extraction unit and a search unit, and the system control unit 50 and the memory control unit 15 function as a display unit.

なお、図1に示す例では、少なくとも操作部70、モード切替スイッチ60、システム制御部50、メモリ32、メモリ制御部15、画像処理部24、D/A変換器13、表示部28、およびカメラ部90が画像表示装置を構成する。   In the example shown in FIG. 1, at least the operation unit 70, the mode changeover switch 60, the system control unit 50, the memory 32, the memory control unit 15, the image processing unit 24, the D / A converter 13, the display unit 28, and the camera The unit 90 constitutes an image display device.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像表示装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像表示装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and the control method may be executed by the image display apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the image display apparatus. The control program is recorded on a computer-readable recording medium, for example.

上記の制御方法および制御プログラムの各々は、少なくとも撮像ステップおよび表示制御ステップを有している。   Each of the above control method and control program has at least an imaging step and a display control step.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.

15 メモリ制御部
22 撮像部
24 画像処理部
28 表示部
32 メモリ
50 システム制御部
61 シャッターボタン
70 操作部
90 カメラ部
200 記録媒体
DESCRIPTION OF SYMBOLS 15 Memory control part 22 Image pick-up part 24 Image processing part 28 Display part 32 Memory 50 System control part 61 Shutter button 70 Operation part 90 Camera part 200 Recording medium

Claims (13)

記録媒体に保存された画像を再生して表示部に表示する画像表示装置であって、
前記表示部に表示される画像を閲覧するユーザを撮像する撮像手段と、
前記記録媒体に保存された画像から、前記撮像手段により撮影したユーザが含まれる画像と、前記ユーザが含まれる画像と同一の属性情報を有する画像とを検索して前記表示部に表示する表示制御手段と、
を有することを特徴とする画像表示装置。
An image display device that reproduces an image stored in a recording medium and displays the image on a display unit,
Imaging means for imaging a user viewing an image displayed on the display unit;
Display control for retrieving an image including the user photographed by the imaging unit and an image having the same attribute information as the image including the user from the image stored in the recording medium and displaying the retrieved image on the display unit Means,
An image display device comprising:
前記記録媒体には前記画像に付随して前記属性情報が記録されており、
前記表示制御手段は、前記記録媒体に保存された画像において被写体の特徴量を被写体特徴量として抽出する抽出手段と、
前記撮像手段による撮像の結果得られた前記ユーザが含まれるユーザ画像においてその特徴量をユーザ特徴量として検出して、当該ユーザ特徴量と同一の前記被写体特徴量を有する画像を前記記録媒体から検索して前記ユーザが含まれる画像である第1の検索画像を得て、さらに当該第1の検索画像とその属性情報が同一である画像を前記記録媒体から検索して第2の検索画像を得る検索手段と、
前記第1の検索画像および前記第2の検索画像を閲覧可能として前記表示部に表示する表示手段とを有することを特徴とする請求項1に記載の画像表示装置。
The attribute information is recorded along with the image on the recording medium,
The display control means, extracting means for extracting a feature amount of a subject as a subject feature amount in an image stored in the recording medium;
A feature quantity is detected as a user feature quantity in a user image including the user obtained as a result of imaging by the imaging means, and an image having the same subject feature quantity as the user feature quantity is searched from the recording medium. Then, a first search image that is an image including the user is obtained, and an image having the same attribute information as the first search image is further searched from the recording medium to obtain a second search image. Search means;
The image display apparatus according to claim 1, further comprising: a display unit configured to display the first search image and the second search image on the display unit so as to be browseable.
前記被写体特徴量および前記ユーザ特徴量の各々は人物の顔領域を示す情報であることを特徴とする請求項2に記載の画像表示装置。   The image display apparatus according to claim 2, wherein each of the subject feature amount and the user feature amount is information indicating a face area of a person. 前記属性情報は前記記録媒体に保存された画像を撮影した撮影日を示す撮影日情報であることを特徴とする請求項1〜3のいずれか1項に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the attribute information is shooting date information indicating a shooting date when the image stored in the recording medium is shot. 前記属性情報は、前記記録媒体に保存された画像を撮影した撮影日を示す撮影日情報と前記画像を撮影した場所を示す撮影場所情報であることを特徴とする請求項1〜3のいずれか1項に記載の画像表示装置。   4. The attribute information includes shooting date information indicating a shooting date when an image stored in the recording medium is shot and shooting location information indicating a place where the image is shot. The image display device according to item 1. 前記表示制御手段は、前記ユーザが含まれる画像とその撮影日が同一であっても、前記撮影場所と前記画像表示装置を使用する場所との距離が所定の距離を超えると、前記ユーザが含まれる画像と同一の属性情報を有する画像の閲覧を制限することを特徴とする請求項5に記載の画像表示装置。   The display control means includes the user when the distance between the shooting location and the location where the image display device is used exceeds a predetermined distance even if the shooting date is the same as the image including the user. 6. The image display apparatus according to claim 5, wherein browsing of an image having the same attribute information as the image to be viewed is restricted. 前記ユーザが含まれる画像が前記記録媒体に存在しないと、前記表示制御手段は、前記記録媒体に保存された画像のうち最もその撮影日が新しい画像のみを閲覧可能して前記表示部に表示することを特徴とする請求項5に記載の画像表示装置。   When the image including the user does not exist on the recording medium, the display control unit can view only the image having the latest shooting date among the images stored in the recording medium and display the image on the display unit. The image display device according to claim 5. 前記属性情報は、前記記録媒体に保存された画像を撮影した撮影日を示す撮影日情報と前記画像を撮影した時刻を示す撮影時間情報であることを特徴とする請求項1〜3のいずれか1項に記載の画像表示装置。   The attribute information is shooting date information indicating a shooting date when an image stored in the recording medium is shot, and shooting time information indicating a time when the image is shot. The image display device according to item 1. 前記表示制御手段は、前記ユーザが含まれる画像とその撮影日が同一であっても、前記撮影時間情報が示す時刻と前記画像表示装置で画像を閲覧する時刻との差が所定の時間を超えると、前記ユーザが含まれる画像と同一の属性情報を有する画像の閲覧を制限することを特徴とする請求項8に記載の画像表示装置。   The display control means has a difference between a time indicated by the shooting time information and a time when the image is viewed on the image display device exceeds a predetermined time even if the shooting date is the same as the image including the user. The image display apparatus according to claim 8, wherein browsing of an image having the same attribute information as an image including the user is restricted. 前記ユーザ画像において複数の顔領域が検出されると、前記検索手段は、前記顔領域の各々について前記記録媒体に記録された画像の検索を行うことを特徴とする請求項3に記載の画像表示装置。   The image display according to claim 3, wherein when a plurality of face areas are detected in the user image, the search unit searches for an image recorded on the recording medium for each of the face areas. apparatus. 前記ユーザ画像において検出された顔領域が予め登録された前記画像表示装置の所有者であると、前記表示制御手段は前記記録媒体に存在された画像の全てを閲覧可能とすることを特徴とする請求項3に記載の画像表示装置。   When the face area detected in the user image is an owner of the image display apparatus registered in advance, the display control means can browse all the images existing on the recording medium. The image display device according to claim 3. 記録媒体に保存された画像を再生して表示部に表示する画像表示装置の制御方法であって、
カメラ部によって前記表示部に表示される画像を閲覧するユーザを撮像する撮像ステップと、
前記記録媒体に保存された画像から、前記撮像ステップで得られたユーザが含まれる画像と、前記ユーザが含まれる画像と同一の属性情報を有する画像とを検索して前記表示部に表示する表示制御ステップと、
を有することを特徴とする制御方法。
A method for controlling an image display device that reproduces an image stored in a recording medium and displays the image on a display unit,
An imaging step of imaging a user viewing an image displayed on the display unit by the camera unit;
Display that searches the image stored in the recording medium for the image including the user obtained in the imaging step and the image having the same attribute information as the image including the user and displays the image on the display unit Control steps;
A control method characterized by comprising:
記録媒体に保存された画像を再生して表示部に表示する画像表示装置で用いられる制御プログラムであって、
前記画像表示装置が備えるコンピュータに、
カメラ部によって前記表示部に表示される画像を閲覧するユーザを撮像する撮像ステップと、
前記記録媒体に保存された画像から、前記撮像ステップで得られたユーザが含まれる画像と、前記ユーザが含まれる画像と同一の属性情報を有する画像とを検索して前記表示部に表示する表示制御ステップと、
を実行させることを特徴とする制御プログラム。
A control program used in an image display device that reproduces an image stored in a recording medium and displays the image on a display unit,
A computer provided in the image display device,
An imaging step of imaging a user viewing an image displayed on the display unit by the camera unit;
Display that searches the image stored in the recording medium for the image including the user obtained in the imaging step and the image having the same attribute information as the image including the user and displays the image on the display unit Control steps;
A control program characterized by causing
JP2013233884A 2013-11-12 2013-11-12 Image display device, control method therefor, and control program Pending JP2015095082A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013233884A JP2015095082A (en) 2013-11-12 2013-11-12 Image display device, control method therefor, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013233884A JP2015095082A (en) 2013-11-12 2013-11-12 Image display device, control method therefor, and control program

Publications (1)

Publication Number Publication Date
JP2015095082A true JP2015095082A (en) 2015-05-18

Family

ID=53197443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013233884A Pending JP2015095082A (en) 2013-11-12 2013-11-12 Image display device, control method therefor, and control program

Country Status (1)

Country Link
JP (1) JP2015095082A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018034002A1 (en) * 2016-08-19 2018-02-22 富士通株式会社 Image display device, image display control device, image display control program, and image display control method
JP2018128958A (en) * 2017-02-10 2018-08-16 富士通株式会社 Terminal device, information processing method, information processing program, and information processor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018034002A1 (en) * 2016-08-19 2018-02-22 富士通株式会社 Image display device, image display control device, image display control program, and image display control method
JPWO2018034002A1 (en) * 2016-08-19 2019-06-13 富士通コネクテッドテクノロジーズ株式会社 IMAGE DISPLAY DEVICE, IMAGE DISPLAY CONTROL DEVICE, IMAGE DISPLAY CONTROL PROGRAM, AND IMAGE DISPLAY CONTROL METHOD
US20190180042A1 (en) * 2016-08-19 2019-06-13 Fujitsu Connected Technologies Limited Image display device, image display control device, and image display control method
JP2018128958A (en) * 2017-02-10 2018-08-16 富士通株式会社 Terminal device, information processing method, information processing program, and information processor

Similar Documents

Publication Publication Date Title
US9667888B2 (en) Image capturing apparatus and control method thereof
US9848159B2 (en) Image reproducing apparatus and method for controlling same
US9041832B2 (en) Imaging apparatus and method for controlling the same
JP5388611B2 (en) Imaging apparatus, control method therefor, and program
JP2014228629A (en) Imaging apparatus, control method and program thereof, and storage medium
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP6180285B2 (en) Imaging apparatus, imaging method, and program
JP5826026B2 (en) Imaging apparatus and control method thereof
JP6312423B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2015095082A (en) Image display device, control method therefor, and control program
US9232133B2 (en) Image capturing apparatus for prioritizing shooting parameter settings and control method thereof
US9270967B2 (en) Display control apparatus and display control method
JP2018067802A (en) Imaging control apparatus, control method of imaging apparatus, and program
JP6257310B2 (en) Imaging apparatus, imaging control method, and program
JP6200194B2 (en) Imaging apparatus, control method therefor, and program
JP2015126243A (en) Imaging device, method of controlling display control device, and method of controlling recording device
JP6071441B2 (en) Imaging apparatus, control method therefor, and program
JP6124658B2 (en) Image processing apparatus and image processing apparatus control method
JP5963441B2 (en) Display control apparatus and method
JP2013229696A (en) Imaging apparatus
JP6278702B2 (en) Imaging apparatus, control method therefor, and program
JP2014216800A (en) Image processor
JP2017085430A (en) Imaging apparatus
JP2016012845A (en) Imaging apparatus, method for controlling the same, and control program
JP2016010079A (en) Display control apparatus