JP2011193275A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2011193275A
JP2011193275A JP2010058251A JP2010058251A JP2011193275A JP 2011193275 A JP2011193275 A JP 2011193275A JP 2010058251 A JP2010058251 A JP 2010058251A JP 2010058251 A JP2010058251 A JP 2010058251A JP 2011193275 A JP2011193275 A JP 2011193275A
Authority
JP
Japan
Prior art keywords
image
display
emotion
unit
photographer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010058251A
Other languages
Japanese (ja)
Inventor
Motoyuki Kuboi
基之 久保井
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010058251A priority Critical patent/JP2011193275A/en
Publication of JP2011193275A publication Critical patent/JP2011193275A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem: although understanding the feeling of a photographing person in photographing enables a viewer who views a photographed image to more greatly enjoy the image, a conventional device cannot give such enjoy to the viewer. <P>SOLUTION: This display device includes an input section for inputting biological information of a photographing person when photographing an image, a display section for displaying the image, and a processing section for estimating the photographing person's feeling in photographing from the biological information of the photographing person, and processing an image to be displayed on the display section on the basis of the estimated feeling. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、表示装置に関する。   The present invention relates to a display device.

撮影者の生体情報を検出して撮影者の感情を推定し、推定された感情に基づいて撮影操作を支援する撮像装置が知られている。例えば、感情の高ぶりに応じて手振れ補正ゲインを調整し、補正レンズの追従特性を改善している。
[先行技術文献]
[特許文献]
[特許文献1]特開2009−210992号公報
2. Description of the Related Art An imaging device that detects a photographer's biological information, estimates a photographer's emotion, and supports a photographing operation based on the estimated emotion is known. For example, the camera shake correction gain is adjusted in accordance with the height of emotion to improve the tracking characteristic of the correction lens.
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Unexamined Patent Application Publication No. 2009-210992

撮影者が被写体に対峙して撮影するときに抱く思い入れ、高揚感、不安、失望感などの感情は千差万別である。しかし、撮影時のこのような感情を被写体画像そのものに表現することは一般的に困難である。場合によっては、撮影者は被写体画像に自らの感情を表出させないように努めることもある。一方で、撮影された画像を鑑賞する鑑賞者は、撮影時における撮影者の感情が理解できれば、より深く撮影画像を楽しむことができる。   Emotions such as feelings of sensation, uplifting, anxiety, and disappointment that a photographer has when shooting while facing the subject are all different. However, it is generally difficult to express such feelings at the time of shooting in the subject image itself. In some cases, the photographer may try not to express his / her emotion in the subject image. On the other hand, a viewer who appreciates a photographed image can enjoy the photographed image more deeply if he / she understands the photographer's emotion at the time of photographing.

同様に、撮影者が自ら撮影した画像を鑑賞者に鑑賞させるときに、いかなる感情を抱いて鑑賞させるのかは、やはり鑑賞者にとって撮影画像を楽しむ一助となる。被写体となった人物が画像を他人に鑑賞させるときも、いかなる感情により鑑賞者に鑑賞させているかも、鑑賞者にとっては興味深い。   Similarly, what kind of emotions are held when an image is photographed by the photographer is also helpful for the viewer to enjoy the photographed image. It is also interesting for the viewers to see what emotions the viewers have when they make the subject see the images.

しかしながら、このような画像の楽しみ方は、従来の装置では実現できなかった。   However, such a way of enjoying an image cannot be realized by a conventional apparatus.

上記課題を解決するために、本発明の第1の態様における表示装置は、画像を撮影した時の撮影者の生体情報を入力する入力部と、画像を表示する表示部と、撮影者の生体情報から撮影時の感情を推定し、推定した感情に基づいて表示部に表示する画像を加工する加工部とを備える。   In order to solve the above-described problem, a display device according to a first aspect of the present invention includes an input unit that inputs a photographer's biological information when an image is captured, a display unit that displays an image, and a biological image of the photographer. A processing unit that estimates an emotion at the time of shooting from the information and processes an image to be displayed on the display unit based on the estimated emotion.

また、上記課題を解決するために、本発明の第2の態様における表示装置は、画像を観察者に表示する表示部と、表示部の操作に応じて、観察者の生体情報を入力する入力部と、観察者の生体情報から画像観察時の感情を推定し、推定した感情に基づいて表示部に表示する画像を加工する加工部とを備える。   Moreover, in order to solve the said subject, the display apparatus in the 2nd aspect of this invention is the input which inputs an observer's biometric information according to operation of a display part which displays an image to an observer, and a display part And a processing unit that estimates an emotion during image observation from the biological information of the observer and processes an image displayed on the display unit based on the estimated emotion.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

第1実施形態に係るカメラシステムの要部断面図である。It is principal part sectional drawing of the camera system which concerns on 1st Embodiment. カメラシステムの上部概観図である。It is an upper general view of a camera system. 撮影レンズを左手により把持した第1の状態を示す図である。It is a figure which shows the 1st state which hold | gripped the imaging lens with the left hand. 撮影レンズを左手により把持した第2の状態を示す図である。It is a figure which shows the 2nd state which hold | gripped the imaging lens with the left hand. カメラ本体に設けられたカメラ本体側生体センサ部を示す図である。It is a figure which shows the camera main body side biological sensor part provided in the camera main body. 心拍数検出装置と脈波検出装置の構成を示す図である。It is a figure which shows the structure of a heart rate detection apparatus and a pulse wave detection apparatus. カメラシステムのブロック図である。It is a block diagram of a camera system. 第1実施形態に係る撮影モード時の動作フロー図である。It is an operation | movement flowchart at the time of the imaging | photography mode which concerns on 1st Embodiment. 第1実施形態に係る再生モード時の動作フロー図である。It is an operation | movement flowchart at the time of the reproduction | regeneration mode concerning 1st Embodiment. キャラクタの例を示す図である。It is a figure which shows the example of a character. 表示状態の例を示す図である。It is a figure which shows the example of a display state. 第2実施形態に係る液晶ディスプレイの外観図である。It is an external view of the liquid crystal display which concerns on 2nd Embodiment. 液晶ディスプレイのブロック図である。It is a block diagram of a liquid crystal display.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

(第1実施形態)
図1は、第1実施形態に係るカメラシステム1の要部断面図である。本実施形態では、表示装置の一例として、カメラシステム1について説明する。カメラシステム1は、カメラ本体2と交換可能な撮影レンズ3を組み合わせて撮像装置として機能する、レンズ交換式一眼レフカメラである。カメラシステム1は表示装置を内蔵する。
(First embodiment)
FIG. 1 is a cross-sectional view of a main part of a camera system 1 according to the first embodiment. In the present embodiment, a camera system 1 will be described as an example of a display device. The camera system 1 is a lens-interchangeable single-lens reflex camera that functions as an imaging device by combining a camera body 2 and a replaceable photographing lens 3. The camera system 1 includes a display device.

撮影レンズ3は、フォーカスレンズ、ズームレンズおよび防振レンズを含むレンズ群4、絞り5、カメラシステム1の振れを検出する角速度センサ6、レンズ群4を駆動する不図示の駆動装置等を備える。角速度センサ6は、少なくとも光軸に直交する2軸周りの角速度を検出する。駆動装置は、例えば振動波モータ、VCMにより構成される複数のモータを有し、フォーカスレンズを光軸方向に駆動し、防振レンズを光軸方向とは異なる方向に駆動する。   The photographic lens 3 includes a lens group 4 including a focus lens, a zoom lens, and an anti-vibration lens, an aperture 5, an angular velocity sensor 6 that detects shake of the camera system 1, a driving device (not shown) that drives the lens group 4, and the like. The angular velocity sensor 6 detects an angular velocity around at least two axes orthogonal to the optical axis. The drive device has a plurality of motors composed of, for example, a vibration wave motor and a VCM, drives the focus lens in the optical axis direction, and drives the anti-vibration lens in a direction different from the optical axis direction.

また、撮影レンズ3は、撮影レンズ3の全体を制御すると共に、カメラ本体2と協働するレンズCPU7を有し、撮影者の心拍数、血流量、血圧、発汗量、体温および撮影レンズ3を把持する圧力等を検出するレンズ側生体センサ部8を有する。   The photographic lens 3 has a lens CPU 7 that controls the entire photographic lens 3 and cooperates with the camera body 2, and controls the photographer's heart rate, blood flow, blood pressure, sweating, body temperature, and photographic lens 3. It has a lens-side biosensor unit 8 that detects a gripping pressure and the like.

カメラ本体2は、撮影レンズ3からの光束を反射してファインダー光学系26に導く反射位置と、撮影レンズ3からの光束がCCDまたはCMOSなどから構成される撮像素子27に入射するように退避する退避位置とで揺動するメインミラー28を備える。メインミラー28の一部の領域は半透過領域となっており、カメラ本体2は、この半透過領域を透過した光束を焦点検出センサ29へ反射するサブミラー30を備える。サブミラー30は、メインミラー28に連動して揺動し、メインミラー28が退避位置をとるときには、サブミラー30も光束から退避する。なお、焦点検出センサ29は、位相差方式により入射する光束の焦点状態を検出する。   The camera body 2 retreats so that the light beam from the photographic lens 3 is reflected and guided to the finder optical system 26 and the light beam from the photographic lens 3 is incident on an image sensor 27 composed of a CCD or a CMOS. A main mirror 28 that swings at the retracted position is provided. A partial area of the main mirror 28 is a semi-transmissive area, and the camera body 2 includes a sub-mirror 30 that reflects the light beam transmitted through the semi-transmissive area to the focus detection sensor 29. The sub mirror 30 swings in conjunction with the main mirror 28, and when the main mirror 28 takes the retracted position, the sub mirror 30 also retracts from the light flux. The focus detection sensor 29 detects the focus state of the incident light beam by the phase difference method.

反射位置にあるメインミラー28で反射された光束は、焦点板31、ペンタプリズム32を介してファインダー光学系26へ導かれる。ファインダー光学系26は、複数のレンズから構成されており、撮影者はファインダー光学系26により被写界を確認することができる。   The light beam reflected by the main mirror 28 at the reflection position is guided to the finder optical system 26 via the focusing screen 31 and the pentaprism 32. The finder optical system 26 is composed of a plurality of lenses, and the photographer can check the object field with the finder optical system 26.

ペンタプリズム32を透過する光束の一部は測光センサ40に導かれる。測光センサ40は、撮影レンズ3へ入射する光束を複数の領域ごとに測光することにより、被写界の輝度分布を計測する。また、ペンタプリズム32の上方にはGPS(Global Positioning System:全地球測位システム)モジュール41を備えており、GPS衛星からの信号を受信して、カメラシステム1が存在している位置情報を取得する。さらに、カメラ本体2は、撮影レンズ3のマウント部近傍で撮影レンズ3と干渉しない位置に、被写界の音を取り込むマイク42と、ファインダー光学系26の近傍にスピーカ43を備える。   A part of the light beam passing through the pentaprism 32 is guided to the photometric sensor 40. The photometric sensor 40 measures the luminance distribution of the object scene by measuring the light beam incident on the photographing lens 3 for each of a plurality of regions. In addition, a GPS (Global Positioning System) module 41 is provided above the pentaprism 32 and receives signals from GPS satellites to acquire position information where the camera system 1 exists. . Further, the camera body 2 includes a microphone 42 that captures the sound of the object scene at a position that does not interfere with the photographic lens 3 in the vicinity of the mount portion of the photographic lens 3, and a speaker 43 near the finder optical system 26.

メインミラー28が退避位置にあるときには、撮影レンズ3からの光束は、ローパスフィルタ33を介して撮像素子27に入射する。撮像素子27の近傍には撮像基板34が設けられており、撮像基板34の後方には外部に面して背面モニタ37が設けられている。背面モニタ37は表示装置を構成する。   When the main mirror 28 is at the retracted position, the light beam from the photographing lens 3 enters the image sensor 27 via the low-pass filter 33. An imaging board 34 is provided in the vicinity of the imaging element 27, and a rear monitor 37 is provided behind the imaging board 34 so as to face the outside. The rear monitor 37 constitutes a display device.

カメラ本体2には、撮影者の右の手指が触れる位置に、撮影者の心拍数、血流量、血圧、発汗量、体温およびカメラ本体2を把持する圧力などを検出するカメラ本体側生体センサ部16を有している。カメラ本体側生体センサ部16の具体的な構成および配置につては後述する。   A camera body side biosensor unit that detects the photographer's heart rate, blood flow, blood pressure, sweating volume, body temperature, pressure for gripping the camera body 2, and the like at the position where the photographer's right finger touches the camera body 2 16. The specific configuration and arrangement of the camera body side biosensor unit 16 will be described later.

図2は、本実施形態に係るカメラシステム1の上部概観図である。具体的には、操作者が右手でカメラ本体2を把持すると共に左手で撮影レンズ3を把持している状態を示す図である。撮影レンズ3は、上述のように、撮影者の心拍数、血流量、血圧、発汗量、体温および撮影レンズ3を把持する圧力等を検出するレンズ側生体センサ部8を有するが、レンズ側生体センサ部8は、撮影者の左手の指または掌が触れる位置に配設されている。   FIG. 2 is an upper schematic view of the camera system 1 according to the present embodiment. Specifically, it is a diagram showing a state where the operator holds the camera body 2 with the right hand and holds the photographing lens 3 with the left hand. As described above, the photographing lens 3 includes the lens-side biological sensor unit 8 that detects the photographer's heart rate, blood flow, blood pressure, sweating volume, body temperature, pressure for grasping the photographing lens 3, and the like. The sensor unit 8 is disposed at a position where the finger or palm of the left hand of the photographer touches.

図においては、レンズ側生体センサ部8の一部として、心拍数検出装置9と脈波検出装置12が設けられている様子を示す。心拍数検出装置9は、基準電極9aと検出電極9bから構成される互いに分離した複数の電極部を有し、撮影者の心拍数を検出する。脈波検出装置12は、複数の発光部12a(12a〜12a)とこれらに対応する受光部12b(12b〜12b)が交互に配置されて構成され、撮影者の脈派を検出する。脈波検出装置12は、後述するように撮影者の血流量、血圧を測定するために用いられる。 In the figure, a state in which a heart rate detection device 9 and a pulse wave detection device 12 are provided as part of the lens-side biosensor unit 8 is shown. The heart rate detection device 9 has a plurality of electrode parts separated from each other, each composed of a reference electrode 9a and a detection electrode 9b, and detects the heart rate of the photographer. Pulse-wave detecting device 12 has a plurality of light emitting portions 12a (12a 1 ~12a 4) and a light receiving portion 12b corresponding to these (12b 1 ~12b 4) are alternately arranged, the photographer's pulse wave detection To do. The pulse wave detection device 12 is used to measure the blood flow and blood pressure of the photographer as will be described later.

上述のように、カメラ本体2は、撮影者の右の手指が触れる位置にカメラ本体側生体センサ部16を有している。撮影者がカメラ本体2を把持するとき、右手の親指がカメラ本体2の背面に位置し、人差し指がレリーズSW24の近傍に位置するので、グリップ部に位置する他の3本の指と離れてしまう。このため、カメラ本体側生体センサ部16は、右手の親指に対応するカメラ背面位置と、人差し指に対応するレリーズSW24の近傍位置と、他の3本の指に対応するグリップ部近傍のカメラ前面位置とに離間して設けられている。なお、人差し指に対応するカメラ本体側生体センサ部16は、レリーズSW24の表面に設けられていても良い。   As described above, the camera main body 2 has the camera main body side biosensor unit 16 at a position where the right finger of the photographer touches. When the photographer holds the camera body 2, the thumb of the right hand is located on the back of the camera body 2, and the index finger is located in the vicinity of the release SW 24, so that it is separated from the other three fingers located on the grip portion. . For this reason, the camera body-side biosensor unit 16 has a camera rear surface position corresponding to the thumb of the right hand, a position near the release SW 24 corresponding to the index finger, and a camera front position near the grip section corresponding to the other three fingers. And spaced apart from each other. In addition, the camera main body side biosensor unit 16 corresponding to the index finger may be provided on the surface of the release SW 24.

なお、カメラ本体2においては、右手の親指と人差し指以外の3本の指がカメラ本体2を把持するカメラ前面位置と、右手の親指に対応したカメラ背面位置との少なくとも一方が、カメラ本体2を把持する把持部である。また、カメラ本体2の背面には、いくつかの操作SWが設けられており、これらの操作SWは右手親指で操作される。また、カメラ本体2の上面には撮影モードを設定する撮影モードSW25が設けられている。   In the camera body 2, at least one of the camera front surface position where the three fingers other than the thumb and index finger of the right hand hold the camera body 2 and the camera rear surface position corresponding to the thumb of the right hand determines the camera body 2. It is a holding part to hold. In addition, a number of operations SW are provided on the back of the camera body 2, and these operations SW are operated with the right thumb. A shooting mode SW 25 for setting a shooting mode is provided on the upper surface of the camera body 2.

図3は、撮影レンズ3を左手により把持した第1の状態を示す図である。第1の状態は、左手の甲が下側に位置して撮影レンズ3を把持した状態である。図4は、撮影レンズ3を左手により把持した第2の状態を示す図である。第2の状態は、左手の甲が左側に位置して撮影レンズ3を把持した状態である。   FIG. 3 is a diagram illustrating a first state in which the photographing lens 3 is held with the left hand. The first state is a state in which the back of the left hand is positioned on the lower side and the photographing lens 3 is gripped. FIG. 4 is a diagram illustrating a second state in which the photographing lens 3 is held with the left hand. The second state is a state where the back of the left hand is positioned on the left side and the photographing lens 3 is gripped.

撮影者が撮影レンズ3を把持しつつズーム操作、マニュアルフォーカス操作を行う場合においては、左手の親指が他の指とは離れてしまう。また、異なる撮影者、異なる撮影状況(例えば、横位置撮影および縦位置撮影)によっても撮影レンズの把持の仕方は変化する。そこで、撮影レンズ3の円周上には、複数のレンズ側生体センサ部8(8A〜8D)が設けられている。   When the photographer performs a zoom operation or a manual focus operation while holding the photographing lens 3, the thumb of the left hand is separated from the other fingers. Also, the manner of holding the photographic lens varies depending on different photographers and different photographing situations (for example, horizontal position photographing and vertical position photographing). Therefore, a plurality of lens-side biosensor units 8 (8A to 8D) are provided on the circumference of the photographing lens 3.

具体的には、レンズ側生体センサ部8は、ズーム操作位置とマニュアルフォーカス操作位置との少なくとも一方の位置で、かつ、左手の親指に対応する位置と、親指以外の指に対応する位置とに離間して設けられる。より具体的には、レンズ側生体センサ部8は、ズーム操作用ゴム、フォーカス操作用ゴムが設けられた位置であって、左手に接触するように、または、左手と対向するように設けられている。   Specifically, the lens-side biosensor unit 8 is at least one of a zoom operation position and a manual focus operation position, a position corresponding to the thumb of the left hand, and a position corresponding to a finger other than the thumb. They are spaced apart. More specifically, the lens-side biosensor unit 8 is provided at a position where the zoom operation rubber and the focus operation rubber are provided so as to contact the left hand or to face the left hand. Yes.

レンズ側生体センサ部8Aは、上述の心拍数検出装置9、脈波検出装置12の他に、撮影者の発汗量を検出する発汗センサ13、撮影者の体温を検出する温度センサ14、および撮影者が撮影レンズ3を把持する圧力を検出する圧力センサ15を備える。   In addition to the above-described heart rate detection device 9 and pulse wave detection device 12, the lens-side biological sensor unit 8A includes a sweating sensor 13 that detects the amount of sweating of the photographer, a temperature sensor 14 that detects the body temperature of the photographer, and imaging. A pressure sensor 15 is provided for detecting the pressure with which the person holds the photographing lens 3.

レンズ側生体センサ部8B〜8Dは、レンズ側生体センサ部8Aと同様に、心拍数検出装置9、脈波検出装置12、発汗センサ13、温度センサ14および圧力センサ15をそれぞれ備える。このように、撮影レンズ3の円周上に複数のレンズ側生体センサ部8(8A〜8D)を設けることにより左手の掌からも生体情報を検出することができる。   Similarly to the lens-side biosensor unit 8A, the lens-side biosensor units 8B to 8D each include a heart rate detection device 9, a pulse wave detection device 12, a sweat sensor 13, a temperature sensor 14, and a pressure sensor 15. In this way, by providing a plurality of lens-side biosensors 8 (8A to 8D) on the circumference of the photographing lens 3, it is possible to detect biometric information from the palm of the left hand.

なお、本実施形態では、ズーム操作位置、マニュアルフォーカス操作位置等に応じて複数のレンズ側生体センサ部8(8A〜8D)を設けているが、撮影者、撮影状態等に応じて撮影レンズ3の把持の仕方が変った場合においても生体情報を検出できる位置であれば、複数のレンズ側生体センサ部8を上述の位置以外の位置に設けてもよい。また、左手の親指が撮影レンズ3を把持する力はあまり大きくないので、レンズ側生体センサ部8B、8Cにおいては、左手の親指に対応する圧力センサ15を省略してもよい。同様に、レンズ側生体センサ部8に高い検出精度が要求されない場合には、左手の親指に対応する位置のセンサを適宜省略することにより、撮影レンズ3の部品点数を抑えることができる。また、レンズCPU7は、脈波検出装置12の発光部12aに手指がかかっているときだけ発光するように制御してもよい。   In the present embodiment, a plurality of lens-side biosensors 8 (8A to 8D) are provided according to the zoom operation position, the manual focus operation position, and the like. The plurality of lens-side biosensor units 8 may be provided at positions other than the above-described positions as long as the biometric information can be detected even when the gripping method is changed. Further, since the force with which the thumb of the left hand grips the taking lens 3 is not so large, the pressure sensor 15 corresponding to the thumb of the left hand may be omitted in the lens side biosensor units 8B and 8C. Similarly, when high detection accuracy is not required for the lens-side biological sensor unit 8, the number of parts of the photographing lens 3 can be suppressed by appropriately omitting the sensor at the position corresponding to the thumb of the left hand. Further, the lens CPU 7 may be controlled to emit light only when a finger is applied to the light emitting unit 12a of the pulse wave detecting device 12.

図5は、カメラ本体2のレリーズSW24の近傍に設けられたカメラ本体側生体センサ部16を示す図である。図示すように、カメラ本体側生体センサ部16は、心拍数検出装置9と同様の構成を有する心拍数検出装置17と、脈波検出装置12と同様の構成を有する脈波検出装置20とを有している。また、カメラ本体側生体センサ部16は、撮影者の発汗量を検出する発汗センサ21、撮影者の体温を検出する温度センサ22、および撮影者がカメラ本体2を把持する圧力を検出する圧力センサ23を備えている。なお、上述のように、カメラ本体側生体センサ部16は、図示する右手人差し指に対応する位置以外に、親指に対応するカメラ背面位置と、他の3本の指に対応するカメラ前面位置にも設けられているが、それぞれ同様の構成を有する。   FIG. 5 is a view showing the camera body-side biosensor unit 16 provided in the vicinity of the release SW 24 of the camera body 2. As shown in the drawing, the camera body side biosensor unit 16 includes a heart rate detection device 17 having the same configuration as the heart rate detection device 9 and a pulse wave detection device 20 having the same configuration as the pulse wave detection device 12. Have. The camera body-side biosensor unit 16 includes a sweat sensor 21 that detects the amount of sweat of the photographer, a temperature sensor 22 that detects the body temperature of the photographer, and a pressure sensor that detects the pressure at which the photographer holds the camera body 2. 23. As described above, the camera body-side biosensor unit 16 is not limited to the position corresponding to the right index finger shown in the figure, but also to the camera back position corresponding to the thumb and the camera front position corresponding to the other three fingers. Although provided, each has the same configuration.

図6は、カメラ本体側生体センサ部16が備える心拍数検出装置17と脈波検出装置20の構成を示す図である。図6(a)に示すように、心拍数検出装置17は、基準電極17aと検出電極17bから構成される互いに分離した複数の電極部を有し、撮影者の心拍数を検出する。また、図6(b)に示すように、脈波検出装置20は、複数の発光部20a(20a1〜20a4)とこれらに対応する受光部20b(20b1〜20b4)が交互に配置されて構成され、撮影者の脈派を検出する。   FIG. 6 is a diagram illustrating a configuration of the heart rate detection device 17 and the pulse wave detection device 20 included in the camera body-side biosensor unit 16. As shown in FIG. 6 (a), the heart rate detection device 17 has a plurality of electrode parts separated from each other, each composed of a reference electrode 17a and a detection electrode 17b, and detects the heart rate of the photographer. Further, as shown in FIG. 6B, the pulse wave detection device 20 is configured by alternately arranging a plurality of light emitting units 20a (20a1 to 20a4) and light receiving units 20b (20b1 to 20b4) corresponding thereto. Detect the photographer's pulse.

図7は、本実施形態に係るカメラシステム1のブロック図である。撮像基板34は、撮像素子27を駆動する駆動回路10、撮像素子27の出力をデジタル信号に変換するA/D変換回路11、ASICで構成される画像処理制御回路18および撮像素子27からの信号の高周波成分を抽出するコントラストAF回路19などを有している。   FIG. 7 is a block diagram of the camera system 1 according to the present embodiment. The image pickup substrate 34 includes a drive circuit 10 that drives the image pickup device 27, an A / D conversion circuit 11 that converts the output of the image pickup device 27 into a digital signal, an image processing control circuit 18 including an ASIC, and signals from the image pickup device 27 A contrast AF circuit 19 for extracting the high-frequency component of the.

画像処理制御回路18は、デジタル信号に変換された画像信号に対してホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を施すと共に、JPEGなどの画像圧縮を行って画像ファイルを生成する。画像ファイルは、画像に関する情報をメタ情報として記憶する領域を有する。例えば、JPEGファイルではEXIF情報として、様々な情報を追加的に付加することができる。具体的には後述するが、本実施形態においては、撮影時の撮影者の生体情報をEXIF情報として記述する。生成された画像ファイルは、画像記録媒体35に記憶される。画像記録媒体35は、カメラ本体2に対して着脱可能なフラッシュメモリなどの記録媒体であっても良いし、カメラ本体2に内蔵されるSSD(Solid State Drive)などの記録媒体であっても良い。   The image processing control circuit 18 performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the image signal converted into the digital signal, and also performs image compression such as JPEG to generate an image file. Generate. The image file has an area for storing information about the image as meta information. For example, various information can be additionally added as EXIF information in a JPEG file. Although specifically described later, in the present embodiment, the biological information of the photographer at the time of photographing is described as EXIF information. The generated image file is stored in the image recording medium 35. The image recording medium 35 may be a recording medium such as a flash memory that is detachable from the camera body 2, or may be a recording medium such as an SSD (Solid State Drive) built in the camera body 2. .

画像処理を施された画像信号は、背面モニタ制御回路36の制御により、背面モニタ37に表示される。撮影直後に撮影された画像信号を所定時間表示すれば、画像記録媒体35に記録された画像ファイルに対応する画像を撮影者に視認させるレックレビュー表示を実現できる。また、撮像素子27が連続的に光電変換する被写界像を、画像記録媒体35に記録することなく背面モニタ37に逐次表示すればライブビュー表示を実現できる。さらに、撮像素子27が連続的に光電変換する被写界像を、例えばMPEG、H.264などの動画圧縮処理を画像処理制御回路18で施して画像記録媒体35に記録すれば、動画撮影を実現することができる。このとき、マイク42で収集した被写界の音声も圧縮処理して、動画データに同期させて記録する。生成される動画像のフレームレートは、例えば30fpsなど、複数のフレームレートから選択されて設定される。   The image signal subjected to the image processing is displayed on the rear monitor 37 under the control of the rear monitor control circuit 36. If the image signal captured immediately after the image capture is displayed for a predetermined time, a REC review display that allows the photographer to visually recognize an image corresponding to the image file recorded on the image recording medium 35 can be realized. Further, live view display can be realized by sequentially displaying an object scene image, which is continuously photoelectrically converted by the image sensor 27, on the rear monitor 37 without being recorded on the image recording medium 35. Further, an object scene image that is continuously photoelectrically converted by the image sensor 27 is converted into, for example, MPEG, H.264, or the like. If moving image compression processing such as H.264 is performed by the image processing control circuit 18 and recorded in the image recording medium 35, moving image shooting can be realized. At this time, the sound of the object scene collected by the microphone 42 is also compressed and recorded in synchronization with the moving image data. The frame rate of the generated moving image is selected and set from a plurality of frame rates such as 30 fps, for example.

また、撮影者により再生モードが選択されたときには、背面モニタ制御回路36の制御により、撮影後の画像ファイルを背面モニタ37に表示することができる。このとき、画像記録媒体35に記録された画像ファイルは、カメラ本体CPU46により読み出されて画像処理制御回路19により展開される。撮影者が操作部材の操作により別画像ファイルの表示指示を行ったときには、カメラ本体CPU46は、指示された画像ファイルを展開して背面モニタ37に表示する。具体的な表示フローについては後述する。   Further, when the reproduction mode is selected by the photographer, the image file after photographing can be displayed on the rear monitor 37 under the control of the rear monitor control circuit 36. At this time, the image file recorded on the image recording medium 35 is read by the camera body CPU 46 and developed by the image processing control circuit 19. When the photographer gives an instruction to display another image file by operating the operation member, the camera body CPU 46 develops the indicated image file and displays it on the rear monitor 37. A specific display flow will be described later.

コントラストAF回路19は、撮像素子27からの撮像信号の高周波成分を抽出してAF評価値信号を生成し、これが最大になるフォーカスレンズ位置を検出する。具体的には、画像処理制御回路18から入力される画像信号から、バンドパスフィルタを用いて所定の高周波成分を抽出し、ピークホールド、積分等の検波処理を行ってAF評価値信号を生成する。生成したAF評価値信号は、カメラ本体CPU46に出力する。   The contrast AF circuit 19 extracts a high-frequency component of the image signal from the image sensor 27 to generate an AF evaluation value signal, and detects a focus lens position where this becomes the maximum. Specifically, a predetermined high-frequency component is extracted from the image signal input from the image processing control circuit 18 using a bandpass filter, and detection processing such as peak hold and integration is performed to generate an AF evaluation value signal. . The generated AF evaluation value signal is output to the camera body CPU 46.

レンズCPU7は、角速度センサ6で検出した手振れをキャンセルするように、撮影レンズ3内の防振レンズを光軸方向とは異なる方向に駆動して光学式手振れ補正を実現している。手振れ補正はこのような光学式手振れ補正に限らず、撮像素子27に駆動機構を付与して、光軸方向とは異なる方向に駆動して手振れをキャンセルする撮像素子駆動式手振れ補正を採用することもできる。さらには、画像処理制御回路18から出力された複数枚の画像間の動きベクトルを算出し、算出した画像間の動きベクトルをキャンセルするように画像読み出し位置を制御して手振れをキャンセルする電子式手振れ補正を採用することもできる。光学式手振れ補正および撮像素子駆動式手振れ補正は特に静止画撮影に好適であり、動画撮影にも適用される。電子式手振れ補正は動画撮影に好適である。これらの方式は、選択的、追加的に採用され得る。   The lens CPU 7 drives the anti-vibration lens in the photographing lens 3 in a direction different from the optical axis direction so as to cancel the camera shake detected by the angular velocity sensor 6 to realize optical camera shake correction. Camera shake correction is not limited to such optical camera shake correction, and a drive mechanism is provided to the image sensor 27, and image sensor drive-type camera shake correction that cancels camera shake by driving in a direction different from the optical axis direction is adopted. You can also. Furthermore, an electronic camera shake that calculates a motion vector between a plurality of images output from the image processing control circuit 18 and cancels camera shake by controlling an image reading position so as to cancel the calculated motion vector between images. Corrections can also be employed. Optical camera shake correction and image sensor-driven camera shake correction are particularly suitable for still image shooting and are also applied to moving image shooting. Electronic camera shake correction is suitable for moving image shooting. These methods can be selectively and additionally employed.

測光センサ40は、上述のように、撮影レンズ3へ入射する光束を複数の領域ごとに測光することにより被写界の輝度分布を計測するが、計測結果はカメラ本体CPU46に出力する。カメラ本体CPU46では、選択された測光モードに応じて露出値を算出する。測光モードとしては、明るい部分と暗い部分のバランスを取る分割測光モード、画面中央を適正露出とする中央重点測光モード、選択したフォーカスポイントの狭領域を適正露出とするスポット測光モードなどが選択され得る。   As described above, the photometric sensor 40 measures the luminance distribution of the object scene by measuring the luminous flux incident on the photographing lens 3 for each of a plurality of areas, and outputs the measurement result to the camera body CPU 46. The camera body CPU 46 calculates an exposure value according to the selected photometry mode. As a metering mode, a split metering mode that balances bright and dark parts, a center-weighted metering mode that properly exposes the center of the screen, a spot metering mode that properly exposes a narrow area of the selected focus point, and the like can be selected. .

カレンダー部38は、水晶発振子、計時用集積回路等を有しており、年月日時分秒といったカレンダー情報を保持する。カメラ本体CPU46は、カレンダー部38から時間に関する情報を適宜検出することができる。GPSモジュール41は、GPS衛星からの信号を受信してカメラ本体2が存在している緯度、経度、高度情報を取得する。カメラ本体CPU46は、GPSモジュール41からカメラ本体2が存在している位置に関する情報を適宜検出することができる。   The calendar unit 38 includes a crystal oscillator, a timekeeping integrated circuit, and the like, and holds calendar information such as year / month / day / hour / minute / second. The camera body CPU 46 can appropriately detect information related to time from the calendar unit 38. The GPS module 41 receives a signal from a GPS satellite and acquires latitude, longitude, and altitude information where the camera body 2 exists. The camera body CPU 46 can appropriately detect information regarding the position where the camera body 2 is present from the GPS module 41.

フラッシュROM39は、EEPROM(登録商標)であり、カメラシステム1を動作させるプログラムのほか、各種調整値、設定値を記憶する記憶装置である。具体的には、AF調整データ、AE調整データ、製造時の年月日時間データ、設定SWの設定履歴などを記憶している。また、フラッシュROM39には、撮影者の平常時の生体情報値も記憶されている。本実施形態においては、フラッシュROM39は生体情報値として心拍数、血流量、血圧、体温、カメラ本体2を把持する圧力、撮影レンズ3を把持する圧力を記憶している。   The flash ROM 39 is an EEPROM (registered trademark) and is a storage device that stores various adjustment values and setting values in addition to a program for operating the camera system 1. Specifically, AF adjustment data, AE adjustment data, manufacturing date / time data, setting SW setting history, and the like are stored. The flash ROM 39 also stores the normal biological information value of the photographer. In the present embodiment, the flash ROM 39 stores a heart rate, a blood flow rate, a blood pressure, a body temperature, a pressure for gripping the camera body 2, and a pressure for gripping the photographing lens 3 as biometric information values.

RAM44は、フラッシュROM39に記憶されたプログラムが展開され、カメラ本体CPU46が高速にアクセスできるDRAMなどの高速RAMである。特に頻繁に参照される各種調整値、設定値などもフラッシュROM39からコピーされ、カメラ本体CPU46からのアクセスを容易にする。キャラクタROM45は、背面モニタ37に撮影画像を表示するときに、重畳して表示するキャラクタを複数記憶している。詳細については後述する。   The RAM 44 is a high-speed RAM such as a DRAM in which a program stored in the flash ROM 39 is expanded and the camera body CPU 46 can access at high speed. In particular, various adjustment values and setting values that are frequently referred to are also copied from the flash ROM 39 to facilitate access from the camera body CPU 46. The character ROM 45 stores a plurality of characters to be displayed in a superimposed manner when a captured image is displayed on the rear monitor 37. Details will be described later.

レリーズSW24は、2段式のスイッチである。撮影者がレリーズSW24を半押しすると、カメラ本体CPU46は、オートフォーカス、測光などの撮影準備動作を行う。さらに撮影者がレリーズSW24を全押しすると、カメラ本体CPU46は、レンズ側生体センサ部8およびカメラ本体側生体センサ部16を用いて撮影者の生体情報の検出を開始すると共に、静止画、動画の撮影動作を開始する。   The release SW 24 is a two-stage switch. When the photographer presses the release SW 24 halfway, the camera body CPU 46 performs photographing preparation operations such as autofocus and photometry. Further, when the photographer fully presses the release SW 24, the camera body CPU 46 starts detecting the photographer's biological information using the lens-side biosensor unit 8 and the camera body-side biosensor unit 16, and also captures still images and moving images. Start shooting operation.

カメラ本体CPU46は、レンズCPU7と協働してカメラシステム1の全体を制御する。特に本実施形態では、カメラ本体CPU46は、撮影モードにおいては、レンズ側生体センサ部8およびカメラ本体側生体センサ部16の出力に基づいて撮影者の生体情報を取得し、撮影画像のメタ情報として画像ファイルに記録する。また、再生モードにおいては、メタ情報から生体情報を読み出して撮影時における撮影者の感情を判断し、読み出した撮影画像を判断した感情に基づいて加工した上で、背面モニタ37に表示する。または、撮影画像を表示した時の生体情報を取得して感情を判断し、表示する撮影画像を判断した感情に基づいて加工した上で、背面モニタ37に再度表示する。ここではまず、レンズ側生体センサ部8およびカメラ本体側生体センサ部16による撮影者の生体情報の取得について説明する。   The camera body CPU 46 controls the entire camera system 1 in cooperation with the lens CPU 7. In particular, in the present embodiment, the camera body CPU 46 acquires the photographer's biological information based on the outputs of the lens-side biosensor unit 8 and the camera-body side biosensor unit 16 in the photographing mode, and uses it as meta information of the photographed image. Record in an image file. In the playback mode, the biometric information is read from the meta information, the emotion of the photographer at the time of shooting is determined, the read shot image is processed based on the determined emotion, and then displayed on the rear monitor 37. Alternatively, biometric information when the captured image is displayed is acquired to determine the emotion, and the captured image to be displayed is processed based on the determined emotion, and then displayed on the rear monitor 37 again. Here, first, acquisition of the biometric information of the photographer by the lens side biosensor unit 8 and the camera body side biosensor unit 16 will be described.

はじめに、心拍数測定について説明する。上述のように、撮影者が左手で撮影レンズ3を把持する位置には心拍数検出装置9の基準電極9aおよび検出電極9bが設けられており、撮影者が右手でカメラ本体を把持する位置には心拍数検出装置17の基準電極17aおよび検出電極17bが設けられている。検出電極9b、16bからの検出電位は、不図示の差動増幅器で電位差が増幅されてカメラ本体CPU46へ出力される。カメラ本体CPU46は、検出電極9b、16bの電位差に基づいて、撮影者の心拍数を演算する。   First, heart rate measurement will be described. As described above, the reference electrode 9a and the detection electrode 9b of the heart rate detection device 9 are provided at a position where the photographer holds the photographing lens 3 with the left hand, and the photographer grasps the camera body with the right hand. Are provided with a reference electrode 17a and a detection electrode 17b of the heart rate detection device 17. The detection potential from the detection electrodes 9b and 16b is output to the camera body CPU 46 after the potential difference is amplified by a differential amplifier (not shown). The camera body CPU 46 calculates the photographer's heart rate based on the potential difference between the detection electrodes 9b and 16b.

なお、例えば撮影者が撮影レンズ3を把持していない場合には、撮影者の左手が基準電極9a、検出電極9bに触れていないので、基準電極9aと検出電極9bとの間がオープンとなる。レンズCPU7は、基準電極9aと検出電極9bとの間がオープンの場合には、撮影者が撮影レンズ3を把持していないと判断する。同様に、カメラ本体CPU46は、心拍数検出装置の基準電極17aと検出電極17bとの間がオープンの場合には、撮影者がカメラ本体2を把持していないと判断する。   For example, when the photographer does not hold the photographing lens 3, since the left hand of the photographer does not touch the reference electrode 9a and the detection electrode 9b, the space between the reference electrode 9a and the detection electrode 9b is open. . When the gap between the reference electrode 9a and the detection electrode 9b is open, the lens CPU 7 determines that the photographer is not holding the photographing lens 3. Similarly, the camera body CPU 46 determines that the photographer is not holding the camera body 2 when the reference electrode 17a and the detection electrode 17b of the heart rate detection device are open.

次に、血圧測定について説明する。脈波検出装置12および20は、撮影者の血圧を測定する。なお、脈波検出装置12と脈波検出装置20は同様の構成を有するので、脈波検出装置12を例に説明する。脈波検出装置12は、発光部12aから例えば赤外線を射出し、この赤外線が指の動脈で反射され、反射された赤外線を赤外線センサである受光部12bで受光することにより手の指部の脈波を検出する。つまり、末梢血管の血流量を検出する。カメラ本体CPU46は、脈波検出装置12からの脈波に基づいて撮影者の血圧を演算する。レンズCPU7は、心拍数検出装置9の基準電極9aと検出電極9bとの出力から、例えば小指など撮影者のある指が撮影レンズ3に触れていないと判断した場合に、その指に対応して配置された発光部12aの発光を禁止するようにすれば、無駄な発光を防止すると共に、被写界に迷光を射出することもない。同様に、カメラ本体CPU46は、心拍数検出装置17の基準電極17aと検出電極17bとの出力に基づいて、例えば撮影者の親指がカメラ本体2に触れていないときに、脈波検出装置20の発光部20aの発光を禁止してもよい。   Next, blood pressure measurement will be described. The pulse wave detection devices 12 and 20 measure the blood pressure of the photographer. Since pulse wave detection device 12 and pulse wave detection device 20 have the same configuration, pulse wave detection device 12 will be described as an example. The pulse wave detection device 12 emits, for example, infrared rays from the light emitting unit 12a, the infrared rays are reflected by the finger arteries, and the reflected infrared rays are received by the light receiving unit 12b which is an infrared sensor, whereby the pulse of the finger part of the hand is received. Detect waves. That is, the blood flow rate of the peripheral blood vessel is detected. The camera body CPU 46 calculates the blood pressure of the photographer based on the pulse wave from the pulse wave detection device 12. When the lens CPU 7 determines from the outputs of the reference electrode 9a and the detection electrode 9b of the heart rate detection device 9 that a finger of the photographer such as a little finger is not touching the photographing lens 3, the lens CPU 7 responds to the finger. By prohibiting the light emission of the arranged light emitting unit 12a, useless light emission is prevented and stray light is not emitted to the object scene. Similarly, the camera body CPU 46 determines that the pulse wave detection device 20 does not touch the camera body 2 based on the outputs of the reference electrode 17 a and the detection electrode 17 b of the heart rate detection device 17, for example. You may prohibit the light emission of the light emission part 20a.

次に、発汗測定について説明する。発汗は手のインピーダンスを測定することにより検出できる。発汗センサ13、21は、複数の電極を有して発汗を検出する。なお、複数の電極の一部として基準電極9a、基準電極17aを兼用してもよい。発汗センサ13は、レンズ側生体センサ部8A〜8Dのそれぞれに設けられているが、感動、興奮、緊張といったような精神性発汗は、発汗量が少なく、発汗時間も短いので、指よりも発汗量が多い中手の掌側に位置するレンズ側生体センサ部8B、Cだけに設けてもよい。   Next, perspiration measurement will be described. Sweating can be detected by measuring hand impedance. The perspiration sensors 13 and 21 have a plurality of electrodes and detect perspiration. The reference electrode 9a and the reference electrode 17a may be used as a part of the plurality of electrodes. The sweat sensor 13 is provided in each of the lens-side biosensors 8A to 8D. However, mental sweat such as impression, excitement, and tension has less sweat amount and shorter sweat time. You may provide only in the lens side biosensor part 8B and C located in the palm side of a middle hand with much quantity.

次に、温度測定について説明する。温度センサ14、22は、熱により抵抗値が変化するサーミスタ方式を用いている。発汗には上述の精神性発汗と、体温調節のための温熱性発汗とがあり、精神性発汗と温熱性発汗とは相互干渉している。このため、カメラ本体CPU46は発汗センサ13、21の出力と、温度センサ14、22の出力とに基づいて撮影者の発汗が精神性発汗か温熱性発汗かを判断することができる。例えば、カメラ本体CPU46は、温度センサ22により検出した温度が高く、発汗センサ21からの発汗信号が常時検出される場合には温熱性発汗と判断することができる。また、カメラ本体CPU46は、発汗センサ21からの発汗信号が不規則に出力される場合に精神性発汗と判断して、撮影者が感動、興奮、緊張といった状態であることを検出できる。なお、温度センサ14、22を省略した場合には、本体CPU44は、GPSモジュール41の位置情報、カレンダー部38からの時間情報などに基づいて、発汗センサ13、21からの発汗信号が精神性発汗か温熱性発汗かを判断してもよい。更に、レンズCPU7が発汗センサ13、温度センサ14の出力に基づいて、左手の汗が精神性発汗か温熱性発汗かを判断することもできる。   Next, temperature measurement will be described. The temperature sensors 14 and 22 use a thermistor method in which the resistance value changes due to heat. Sweating includes the above-described mental sweating and thermal sweating for body temperature regulation, and mental sweating and thermal sweating interfere with each other. For this reason, the camera body CPU 46 can determine whether the photographer's sweating is mental sweating or thermal sweating based on the outputs of the sweating sensors 13 and 21 and the outputs of the temperature sensors 14 and 22. For example, if the temperature detected by the temperature sensor 22 is high and the sweat signal from the sweat sensor 21 is always detected, the camera body CPU 46 can determine that the sweat is thermal. Further, the camera main body CPU 46 can determine that the photographer is in a state of emotion, excitement, tension, etc., when the sweat signal from the sweat sensor 21 is output irregularly and is determined to be mental sweating. When the temperature sensors 14 and 22 are omitted, the main body CPU 44 determines that the sweat signal from the sweat sensors 13 and 21 is based on the positional information of the GPS module 41, the time information from the calendar unit 38, and the like. Or thermal sweating may be determined. Further, the lens CPU 7 can determine whether the sweat of the left hand is mental sweating or thermal sweating based on the outputs of the sweating sensor 13 and the temperature sensor 14.

次に、圧力測定について説明する。圧力センサ15は、静電容量型のセンサであり、撮影者が撮影レンズ3を把持したときの押圧力による変形量を測定する。本実施形態において圧力センサ15は、操作ゴムの下方に設けられている。圧力センサ23も同様の静電容量型のセンサであり、撮影者がカメラ本体2を把持したときの押圧力による変形量を測定する。なお、圧力センサ15、23として歪ゲージ、電歪素子などを用いてもよい。   Next, pressure measurement will be described. The pressure sensor 15 is a capacitance type sensor, and measures the amount of deformation caused by the pressing force when the photographer holds the photographing lens 3. In the present embodiment, the pressure sensor 15 is provided below the operation rubber. The pressure sensor 23 is a similar capacitance type sensor, and measures the amount of deformation caused by the pressing force when the photographer holds the camera body 2. A strain gauge, an electrostrictive element, or the like may be used as the pressure sensors 15 and 23.

上述のように、カメラ本体CPU46は、レンズCPU7と協働して、レンズ側生体センサ部8およびカメラ本体側生体センサ部16の出力に基づいて撮影者の生体情報を取得する。以下に、カメラシステム1の制御フローについて具体的に説明する。   As described above, the camera body CPU 46 cooperates with the lens CPU 7 to acquire the photographer's biological information based on the outputs of the lens side biological sensor unit 8 and the camera body side biological sensor unit 16. Hereinafter, the control flow of the camera system 1 will be specifically described.

図8は、第1実施形態に係る撮影モード時の動作フロー図である。フローは、カメラシステム1の電源がONにされて撮影者からの撮影指示を待つ状態から開始する。カメラ本体CPU46は、ステップS101で、レリーズSW24の半押しであるSW1がONになるまで待機する。SW1が撮影者によりONにされると、カメラ本体CPU46は、撮影準備動作を実行する。具体的には、測光センサ40の出力により露出値を決定し、焦点検出センサ29を用いた位相差方式によりオートフォーカスを行う。オートフォーカスは、コントラストAF回路19を用いたコントラスト方式であっても良い。   FIG. 8 is an operation flowchart in the shooting mode according to the first embodiment. The flow starts from a state in which the camera system 1 is turned on and waits for a shooting instruction from the photographer. In step S101, the camera body CPU 46 waits until SW1, which is a half-press of the release SW 24, is turned on. When SW1 is turned on by the photographer, the camera body CPU 46 executes a shooting preparation operation. Specifically, the exposure value is determined by the output of the photometric sensor 40, and autofocus is performed by a phase difference method using the focus detection sensor 29. The auto focus may be a contrast method using a contrast AF circuit 19.

そして、カメラ本体CPU46は、ステップS103で、レリーズSW24の全押しであるSW2がONになるまで待機する。カメラ本体CPU46は、所定の時間内にSW2がONにならなければ、ステップS101へ戻る。カメラ本体CPU46は、SW2がONになれば、ステップS104へ進み、カメラ本体側生体センサ部16およびレンズ側生体センサ部8の少なくとも一方から撮影者の生体情報を取得する。さらに、カメラ本体CPU46は、ステップS105で本撮影動作を実行する。本撮影動作では、ステップS102で決定された露出値に従って、レンズCPU7は絞り5を動作させ、カメラ本体CPU46はフォーカルプレーンシャッタを走行させて、被写体光束を撮像素子27に導く。さらにカメラ本体CPU46は、決定された撮像感度に従って撮像素子27の出力に所定のゲインを掛けて電荷読み出しを行う。なお、ステップS104とステップS105の順序はこれに限らず、逆の順序であっても良いし、両者が並行して処理されても良い。   In step S103, the camera body CPU 46 waits until SW2, which is the full press of the release SW 24, is turned on. If the SW 2 is not turned on within a predetermined time, the camera body CPU 46 returns to step S101. If SW2 is turned on, the camera main body CPU 46 proceeds to step S104, and acquires the photographer's biometric information from at least one of the camera main body side biosensor unit 16 and the lens side biosensor unit 8. Further, the camera body CPU 46 executes the main photographing operation in step S105. In the actual photographing operation, the lens CPU 7 operates the diaphragm 5 according to the exposure value determined in step S102, and the camera body CPU 46 causes the focal plane shutter to travel to guide the subject light flux to the image sensor 27. Further, the camera body CPU 46 performs charge reading by multiplying the output of the image sensor 27 by a predetermined gain according to the determined imaging sensitivity. In addition, the order of step S104 and step S105 is not restricted to this, A reverse order may be sufficient and both may be processed in parallel.

ステップS106では、画像処理制御回路18は、このように生成された画像信号に、画像処理および圧縮処理を施して画像ファイルを生成する。このとき、カメラ本体CPU46は、ステップS104で取得した生体情報を、画像ファイルのメタ情報に記録する。さらに、ステップS107でカメラ本体CPU46は、取得した生体情報から撮影者の感情を推定して、推定した感情に基づいて画像ファイルのレイティングを行う。レイティングとは、撮影画像の重要度に応じた等級分けであり、例えば1から5の5段階の等級が割り当てられる。一般的には撮影者が撮影画像を視認しながら等級を付与するが、本実施形態においては、推定した感情から画像の重要度を判定して自動的に等級を付与する。感情の分類例は後述するが、例えば、推定された感情が「愛情」、「喜び」等のポジティブな感情であれば重要度の高い5、4を付与する。また、推定された感情が「平常」であれば平均値である3を付与し、「無関心」、「怒り」、「苦痛」等のネガティブな感情に対しては重要度の低い2、1を付与する。   In step S106, the image processing control circuit 18 performs image processing and compression processing on the image signal thus generated to generate an image file. At this time, the camera body CPU 46 records the biometric information acquired in step S104 in the meta information of the image file. Further, in step S107, the camera body CPU 46 estimates the photographer's emotion from the acquired biometric information, and performs image file rating based on the estimated emotion. Rating is a grading according to the importance of a captured image. For example, 5 levels of 1 to 5 are assigned. In general, a photographer assigns a grade while visually recognizing a photographed image. However, in the present embodiment, the importance of an image is determined from the estimated emotion and the grade is automatically assigned. Examples of emotion classification will be described later. For example, if the estimated emotion is a positive emotion such as “love” or “joy”, 5 or 4 having high importance is assigned. Also, if the estimated emotion is “normal”, the average value of 3 is given, and 2 and 1, which are less important for negative emotions such as “indifference”, “anger”, “pain”, etc. Give.

上述のように、レンズ側生体センサ部8およびカメラ本体側生体センサ部16は、さまざまなセンサの集合体として構成されており、それぞれのセンサが異なる種類の生体情報を出力する。これらの出力を単独で、あるいは組み合わせて判断することにより、撮影者の感情を推定することができる。例えば、高い心拍数および精神性発汗が検出されるときには、撮影者は「焦り」を感じていると推定できる。センサの出力と感情の対応関係は検証的に求められており、対応関係を示すテーブルをフラッシュROM39に記憶させておくことができる。そこで、感情判定においては、取得された生体情報が、テーブルに記述された特定の感情パターンと一致するかを判断する。   As described above, the lens-side biosensor unit 8 and the camera body-side biosensor unit 16 are configured as a collection of various sensors, and each sensor outputs different types of biometric information. By judging these outputs alone or in combination, the photographer's emotion can be estimated. For example, when a high heart rate and mental sweating are detected, it can be estimated that the photographer feels “impression”. The correspondence between the sensor output and the emotion is obtained in a verification manner, and a table indicating the correspondence can be stored in the flash ROM 39. Therefore, in emotion determination, it is determined whether the acquired biometric information matches a specific emotion pattern described in the table.

カメラ本体CPU46は、ステップS107でレイティングを行い、等級を画像ファイルのメタ情報に記録したら、ステップS108へ進み、生成した画像ファイルを画像記録媒体35に記録する。以上により、撮影モード時の一連の動作フローを終了する。なお、カメラ本体CPU46は、撮影者が操作SWにより撮影した画像の削除指示をしたときに、レイティングが4または5の画像が含まれていた場合に、再度撮影者に削除の確認表示を行ったり、レイティングが4または5の画像を削除を禁止したりしてもよい。これにより、撮影者が誤ってレイティングの高い画像を削除することを防止することができる。   When the camera body CPU 46 performs rating in step S107 and records the grade in the meta information of the image file, the camera body CPU 46 proceeds to step S108 and records the generated image file in the image recording medium 35. Thus, a series of operation flow in the shooting mode is completed. Note that the camera main body CPU 46 displays the confirmation of deletion again for the photographer when the photographer instructs to delete the image photographed by the operation SW and the rating is 4 or 5 is included. , Deletion of images with a rating of 4 or 5 may be prohibited. Thus, it is possible to prevent the photographer from deleting an image with a high rating by mistake.

次に、再生モードについて説明する。図9は、第1実施形態に係る再生モード時動作フロー図である。再生モードは、撮影者が操作部材の操作により再生モードを選択したときに開始する。なお、再生モードは、画像の撮影者ではなく、他の観察者であっても操作できる。   Next, the playback mode will be described. FIG. 9 is an operation flowchart in the reproduction mode according to the first embodiment. The playback mode starts when the photographer selects the playback mode by operating the operation member. Note that the playback mode can be operated even by another observer, not the photographer of the image.

撮影者により再生モードが選択されると、カメラ本体CPU46は、ステップS201で現在の再生モードが撮影時モードに設定されているか、表示時モードに設定されているかを判断する。撮影時モードとは、撮影者の撮影時における感情を推定し、この感情に基づいて撮影画像を加工して表示するモードである。一方、表示時モードとは、再生モード時においてカメラシステム1を操作する観察者の、撮影画像の表示時における感情を推定し、この感情に基づいて撮影画像を加工して再表示するモードである。   When the playback mode is selected by the photographer, the camera body CPU 46 determines whether the current playback mode is set to the shooting mode or the display mode in step S201. The shooting mode is a mode in which a photographer's emotion at the time of shooting is estimated and a captured image is processed and displayed based on the emotion. On the other hand, the display mode is a mode in which an emotion of the observer operating the camera system 1 in the playback mode is estimated when the captured image is displayed, and the captured image is processed and redisplayed based on the emotion. .

まず、撮影時モードについて説明する。ステップS201で撮影時モードが設定されていると判断すると、カメラ本体CPU46は、ステップS301で対象となる最初の画像ファイルを画像記録媒体35から画像処理制御回路18を用いて読み出し、RAM44の作業メモリ上に展開する。続いてステップS302において、対象画像ファイルのメタ情報から、撮影時に付加された撮影者の生体情報を読み出す。カメラ本体CPU46は、ステップS303で、読み出した生体情報から撮影者の感情を推定する。生体情報から撮影者の感情の推定は、上述のように、フラッシュROM39に記憶された生体情報と感情パターンの対応関係を示すテーブルを参照し、読み出した生体情報がテーブルに記述された特定の感情パターンと一致するかを判断して行う。   First, the shooting mode will be described. If it is determined in step S201 that the shooting mode is set, the camera body CPU 46 reads out the first target image file from the image recording medium 35 using the image processing control circuit 18 in step S301, and the work memory of the RAM 44. Expand on top. Subsequently, in step S302, the biometric information of the photographer added at the time of photographing is read out from the meta information of the target image file. In step S303, the camera body CPU 46 estimates the photographer's emotion from the read biological information. As described above, the photographer's emotion is estimated from the biological information by referring to the table indicating the correspondence between the biological information stored in the flash ROM 39 and the emotion pattern, and the specific emotion in which the read biological information is described in the table. Determine if it matches the pattern.

ステップS303で感情を推定したら、ステップS304で、カメラ本体CPU46は画像処理回路18を用いて、RAM44の作業メモリ上に展開した撮影画像を、推定した感情に基づいて加工する。具体的な加工例については後述するが、例えば、推定した感情に対応するキャラクタをキャラクタROM45から読み出して、これを撮影画像に合成する加工を行う。   If the emotion is estimated in step S303, in step S304, the camera main body CPU 46 uses the image processing circuit 18 to process the captured image developed on the work memory of the RAM 44 based on the estimated emotion. Although a specific processing example will be described later, for example, a character corresponding to the estimated emotion is read from the character ROM 45 and is combined with a captured image.

このように推定した感情に基づいて加工された撮影画像は、ステップS305で、背面モニタ制御回路36により表示用信号に変換されて背面モニタ37に表示される。そして、一定時間内に次画像の表示指示があれば、再びステップS301へ戻って次画像に対して同様の表示処理を繰り返す。次画像の表示指示は、撮影者による操作部材の操作であっても良いし、スライドショーモード等の自動再生指示であっても良い。一定時間内に次画像の表示指示が無ければ再生モードを終了する。このように、背面モニタ37を取り囲んで鑑賞する鑑賞者に、撮影時における撮影者の感情が認識されれば、撮影画像をより楽しむことができる。   The captured image processed based on the estimated emotion is converted into a display signal by the rear monitor control circuit 36 and displayed on the rear monitor 37 in step S305. If there is an instruction to display the next image within a certain time, the process returns to step S301 again and the same display processing is repeated for the next image. The next image display instruction may be an operation of the operation member by the photographer or an automatic reproduction instruction such as a slide show mode. If there is no instruction to display the next image within a certain time, the playback mode is terminated. In this way, if the viewer who surrounds and appreciates the rear monitor 37 recognizes the emotion of the photographer at the time of photographing, the photographed image can be enjoyed more.

次に、表示時モードについて説明する。ステップS201で表示時モードが設定されていると判断すると、カメラ本体CPU46は、ステップS401で対象となる最初の画像ファイルを画像記録媒体35から画像処理制御回路18を用いて読み出し、RAM44の作業メモリ上に展開する。続いてステップS402においてカメラ本体CPU46は、RAM44の作業メモリ上に展開した撮影画像を、背面モニタ制御回路36を用いて背面モニタ37に表示する。   Next, the display mode will be described. If it is determined in step S201 that the display mode is set, the camera body CPU 46 reads out the first target image file from the image recording medium 35 using the image processing control circuit 18 in step S401, and stores the work memory in the RAM 44. Expand on top. Subsequently, in step S <b> 402, the camera body CPU 46 displays the photographed image developed on the work memory of the RAM 44 on the rear monitor 37 using the rear monitor control circuit 36.

対象画像を表示して観察者に視認させたら、カメラ本体CPU46はステップS403で、レンズ側生体センサ部8およびカメラ本体側生体センサ部16の出力に基づいて、カメラシステム1を操作する観察者の生体情報を取得する。そして、ステップS404で、取得された生体情報から観察者の感情を推定する。   When the target image is displayed and viewed by the observer, the camera main body CPU 46 performs the operation of the observer who operates the camera system 1 based on the outputs of the lens side biosensor unit 8 and the camera main body side biosensor unit 16 in step S403. Obtain biometric information. In step S404, the observer's emotion is estimated from the acquired biological information.

ステップS404で感情を推定したら、ステップS405で、カメラ本体CPU46は画像処理回路18を用いて、RAM44の作業メモリ上に展開されている撮影画像を、ステップS304と同様に、推定した感情に基づいて加工する。このように推定した感情に基づいて加工された撮影画像は、ステップS406で、背面モニタ制御回路36によりすでに表示されている加工前の撮影画像に置き換えられて背面モニタ37に表示される。そして、一定時間内に次画像の表示指示があれば、再びステップS401へ戻って次画像に対して同様の表示処理を繰り返す。次画像の表示指示は、撮影者による操作部材の操作であっても良いし、スライドショーモード等の自動再生指示であっても良い。一定時間内に次画像の表示指示が無ければ再生モードを終了する。このように、背面モニタ37を取り囲んで鑑賞する鑑賞者に、表示時における操作者の感情が認識されれば、撮影画像をより楽しむことができる。   After the emotion is estimated in step S404, in step S405, the camera body CPU 46 uses the image processing circuit 18 to convert the photographed image developed on the work memory of the RAM 44 based on the estimated emotion as in step S304. Process. The captured image processed based on the emotion estimated in this way is displayed on the rear monitor 37 in step S406 by being replaced with the pre-processed captured image already displayed by the rear monitor control circuit 36. If there is an instruction to display the next image within a predetermined time, the process returns to step S401 again and the same display processing is repeated for the next image. The next image display instruction may be an operation of the operation member by the photographer or an automatic reproduction instruction such as a slide show mode. If there is no instruction to display the next image within a certain time, the playback mode is terminated. In this way, if a viewer who surrounds and appreciates the rear monitor 37 recognizes the emotion of the operator at the time of display, the photographed image can be enjoyed more.

なお、再生モードによる撮影画像の再生は、上述のような画像の加工を伴うものの他に、記録された画像ファイルをそのまま展開して再生する通常の再生も選択し得る。再生モードにおける表示方法は、メニュー選択等により選択されて設定される。   Note that the reproduction of the captured image in the reproduction mode can select normal reproduction in which the recorded image file is expanded and reproduced in addition to the above-described image processing. The display method in the playback mode is selected and set by menu selection or the like.

推定した感情を撮影画像に反映させるべく、撮影画像を加工して表現する手法は様々である。例えば、カメラ本体CPU46は、表示させる撮影画像の大きさを変更することができる。取得した生体情報から「羞恥」の感情が推定される場合は、撮影画像を小さく加工して表示する。逆に「喜び」の感情が推定される場合は、ズーミングするように徐々に拡大して表示する。この際に、カメラ本体CPU46は、「羞恥」の感情が推定される場合の表示時間を標準再生時間より短めにしたり、「喜び」の感情が推定される場合の表示時間を標準再生時間より長めにしたりしてもよい。   There are various methods for processing and expressing a photographed image in order to reflect the estimated emotion in the photographed image. For example, the camera body CPU 46 can change the size of the captured image to be displayed. When the feeling of “shame” is estimated from the acquired biometric information, the captured image is processed to be small and displayed. On the contrary, when the emotion of “joy” is estimated, it is gradually enlarged and displayed so as to zoom. At this time, the camera body CPU 46 shortens the display time when the feeling of “shame” is estimated to be shorter than the standard reproduction time, or lengthens the display time when the feeling of “joy” is estimated longer than the standard reproduction time. Or you may.

さらに、カメラ本体CPU46は、表示する撮影画像の輝度、再度および色相の少なくとも1つを変更する加工を施すこともできる。取得した生体情報から「愛情」の感情が推定される場合は、撮影画像を暖色系に寄せる加工を施す。一方、「絶望」の感情が推定される場合は、撮影画像全体を暗く加工して表示する。   Furthermore, the camera main body CPU 46 can perform processing for changing at least one of the luminance, the hue, and the hue of the captured image to be displayed. When the emotion of “love” is estimated from the acquired biometric information, a process for bringing the captured image to a warm color system is performed. On the other hand, when the feeling of “despair” is estimated, the entire captured image is processed and displayed dark.

または、スライドショーモード等の自動再生時には、連続して表示される撮影画像の、画像ごとの表示時間を変更することもできる。取得した生体情報から「焦り」の感情が推定される場合は、一枚あたりの表示時間を短くして表示する。   Or at the time of automatic reproduction in the slide show mode or the like, it is possible to change the display time of each continuously displayed captured image. When the feeling of “impression” is estimated from the acquired biometric information, the display time per sheet is shortened and displayed.

別の例としては、感情に対応するキャラクタをキャラクタROM45から読み出して、撮影画像に合成する加工を施しても良い。図10は、感情に対応するキャラクタの例を示す図である。図示するように、「平常」「喜び」「愛情」「羞恥」「焦り」「苦痛」「驚き」「困惑」「無関心」「悲しみ」「怒り」「絶望」といった様々な感情に対応するキャラクタがキャラクタROM45に記憶されている。キャラクタの合成は、画像に直接埋め込んで画像信号を生成しても良いし、背面モニタ制御回路36により撮影画像上にレイヤー状に重畳して画像信号を生成しても良い。また、背面モニタ37の撮影画像を表示する領域とは別の空き領域にキャラクタを表示するように表示信号を生成しても良い。   As another example, the character corresponding to the emotion may be read from the character ROM 45 and combined with the captured image. FIG. 10 is a diagram illustrating an example of a character corresponding to an emotion. As shown in the figure, characters corresponding to various emotions such as "normal", "joy", "affection", "shame", "impression", "pain", "surprise", "confidence", "indifference", "sadness", "anger", "despair" It is stored in the character ROM 45. For character synthesis, an image signal may be generated by being directly embedded in an image, or an image signal may be generated by superimposing a layered image on a captured image by the rear monitor control circuit 36. Further, the display signal may be generated so that the character is displayed in a free area different from the area where the captured image of the rear monitor 37 is displayed.

図10では、それぞれの感情に対応するキャラクタを示すが、一つの感情に対して、その度合いに応じて複数のキャラクタを用意してもよい。生体情報からは、例えば「焦り」の感情の中でも、より強い焦りを感じているのか、わずかな焦りを感じているのかを判断することができる。そこで、同じ「焦り」を示すキャラクタでも、そのデザインから「焦り」の度合いがわかるように複数のキャラクタを用意する。そして、判断した感情とその度合いから、これに対応するキャラクタを選択して加工、表示する。また、感情の度合いは、キャラクタの大きさ、色、数、表示時間、アニメーションの動きによっても表現できる。例えば、カメラ本体CPU46は、レイティングの等級数とキャラクタの数とを同じにして表示するようにしてもよく、レイティングの等級数が少ないときにはキャラクタの色を暗めの色(灰色や黒)にしたり、レイティングの等級数が多いときには明るめの色(赤やスカイブルー)にしてもよい。また、カメラ本体CPU46は、判断した感情(もしくは生体情報)とその度合いから、読み出したキャラクタ自体を加工、変更して表示してもよい。例えば、カメラ本体CPU46は、撮影者の心拍数に応じてキャラクタを点滅させてもよく、また、撮影画像を心拍数に合わせて大きくしたり、小さくしたりしてもよく、また、点滅させてもよい。   Although FIG. 10 shows characters corresponding to each emotion, a plurality of characters may be prepared for one emotion depending on the degree. From the biometric information, for example, it can be determined whether the person feels more intense or slightly impatient in the feeling of “impression”. Therefore, a plurality of characters are prepared so that the character showing the same “impression” can understand the degree of “impression” from the design. Then, a character corresponding to the selected emotion and its degree is selected, processed, and displayed. The degree of emotion can also be expressed by the character size, color, number, display time, and animation movement. For example, the camera body CPU 46 may display the rating grade and the number of characters the same, and when the rating grade is small, the character color of the character is made darker (gray or black), When the rating grade is large, a lighter color (red or sky blue) may be used. The camera body CPU 46 may process and change the read character itself based on the determined emotion (or biological information) and the degree thereof. For example, the camera body CPU 46 may blink the character in accordance with the photographer's heart rate, and may enlarge or reduce the photographed image according to the heart rate. Also good.

図11は、キャラクタを組み合わせて表示する表示状態の例を示す図である。図は、「喜び」を表す喜びキャラクタ47が、撮影画像に重畳されて動き回る様子を表している。背面モニタ37には、キャラクタが合成された撮影画像の表示の他に、ファイル名表示48、前述の5段階のレイティング結果を示す等級アイコン表示49が行われる。なお、カメラ本体CPU46は、撮影画像に加えてキャラクタを合成して、等級アイコン表示49の表示を割愛してもよく、その逆の表示を行うようにしてもよい。   FIG. 11 is a diagram illustrating an example of a display state in which characters are combined and displayed. The figure shows a state in which a joy character 47 representing “joy” moves around superimposed on a captured image. On the rear monitor 37, in addition to the display of the photographed image in which the characters are combined, a file name display 48 and a grade icon display 49 indicating the above-described five-step rating results are performed. The camera body CPU 46 may synthesize a character in addition to the photographed image and omit the display of the grade icon display 49, or the reverse display.

また、全ての画像にキャラクタを合成する必要はなく、感情の起伏が大きいと推定される画像のみにキャラクタを合成してもよく、画像にキャラクタ合成を行う枚数を設定してもよい(デフォルトで5枚もしくは全撮像画像の1割と設定してもよい)。更に、再生画増が動画の場合には、動画撮影中の撮影者の感情の起伏が大きい場面にキャラクタ合成を行うようにしてもよい。   In addition, it is not necessary to synthesize a character for all images, a character may be synthesized only to an image that is estimated to have a large emotional undulation, and the number of characters to be synthesized may be set on the image (by default) 5 or 10% of all captured images). Furthermore, when the playback image increase is a moving image, character composition may be performed in a scene where the undulation of the photographer's emotion during moving image shooting is large.

なお、推定した感情の撮影画像への反映は、上述の1つの加工に限らない。もちろん組み合わせて加工を行っても良いし、他の表現手法を用いて感情を撮影画像に反映しても良い。なお、第1実施形態としてデジタル一眼レフカメラを例示したが、コンパクトカメラ、ミラーレス一眼カメラ、ビデオカメラおよび携帯電話等にも適用できることはいうまでもない。   Note that the reflection of the estimated emotion in the captured image is not limited to the one processing described above. Of course, processing may be performed in combination, or emotion may be reflected in the captured image using other expression methods. In addition, although the digital single-lens reflex camera was illustrated as 1st Embodiment, it cannot be overemphasized that it is applicable also to a compact camera, a mirrorless single-lens camera, a video camera, a mobile phone, etc.

(第2実施形態)
次に、第2実施形態に係るディスプレイについて説明する。図12は、第2実施形態に係る液晶ディスプレイ51の外観図である。表示装置としてのディスプレイは、液晶ディスプレイ51に限らず、プラズマディスプレイ、有機ELディスプレイ、プロジェクタ等であっても良い。本実施形態における基本的な概念は第1実施形態と同様である。すなわち、本実施形態においても、生体情報に基づいて感情を推定し、推定した感情に基づいて表示する画像を加工してから液晶ディスプレイ51に表示する。なお、液晶ディスプレイ51は、パソコン、テレビ、デジタルフォトフレームなどが含まれる。
(Second Embodiment)
Next, a display according to the second embodiment will be described. FIG. 12 is an external view of a liquid crystal display 51 according to the second embodiment. The display as a display device is not limited to the liquid crystal display 51 but may be a plasma display, an organic EL display, a projector, or the like. The basic concept in this embodiment is the same as that in the first embodiment. That is, also in this embodiment, an emotion is estimated based on biological information, and an image displayed based on the estimated emotion is processed and then displayed on the liquid crystal display 51. The liquid crystal display 51 includes a personal computer, a television, a digital photo frame, and the like.

図12に示すように、液晶ディスプレイ51は、ディスプレイ本体52と、観察者により操作されるリモコン53を主な構成要素とする。リモコン53には、レンズ側生体センサ部8およびカメラ本体側生体センサ部16と同様の構成を成す生体センサ部54が設置されている。   As shown in FIG. 12, the liquid crystal display 51 includes a display main body 52 and a remote controller 53 operated by an observer as main components. The remote controller 53 is provided with a biosensor unit 54 having the same configuration as the lens-side biosensor unit 8 and the camera body-side biosensor unit 16.

リモコン53は観察者によって把持されるので、把持する掌から観察者の生体情報が取得されるように構成されている。取得された生体情報は、観察者の操作指令と共に、例えば赤外線通信によりディスプレイ本体52へ送信される。   Since the remote controller 53 is grasped by the observer, the biological information of the observer is acquired from the grasped palm. The acquired biological information is transmitted to the display main body 52 together with the operation command of the observer, for example, by infrared communication.

ディスプレイ本体52は、撮影画像ファイルが記憶された画像記録媒体55を受容するスロット56を備えている。なお、この画像記録媒体55を第1実施形態の画像記録媒体35として、EXIF情報として記録された撮影者の撮影時の生体情報やレイティングの等級数をディスプレイ本体52に受け渡すようにしてもよい。外部からの撮影画像ファイルの取り込みは、着脱式の画像記録媒体55に限らず、LAN等を用いた通信手段によっても実現しうる。   The display main body 52 includes a slot 56 that receives an image recording medium 55 in which a photographed image file is stored. Note that this image recording medium 55 may be used as the image recording medium 35 of the first embodiment, and the biological information and rating grades of the photographer recorded as EXIF information may be transferred to the display main body 52. . Capture of the captured image file from the outside is not limited to the removable image recording medium 55, but can be realized by a communication means using a LAN or the like.

読み出された撮影画像は、表示画面57の画像表示領域58に表示される。同時に、情報表示領域59には、画像ファイル名および等級に対応する等級アイコンが表示される。なお図では、「愛情」を表す愛情キャラクタ60が、撮影画像に重畳されて動き回る様子を表している。なお、取り込む画像ファイルはカメラシステム1によって生成された撮影画像ファイルに限らず、対応するフォーマットの画像ファイルであれば、いかなる画像ファイルであっても良い。   The read captured image is displayed in the image display area 58 of the display screen 57. At the same time, a grade icon corresponding to the image file name and grade is displayed in the information display area 59. In the figure, the affection character 60 representing “affection” is shown moving around superimposed on the captured image. Note that the image file to be captured is not limited to the captured image file generated by the camera system 1 and may be any image file as long as the image file has a corresponding format.

図13は、液晶ディスプレイ51のブロック図である。リモコン53は、リモコン53の制御を司るリモコンCPU61、リモコン53を操作する鑑賞者の生体情報を取得する生体センサ部54、鑑賞者の指示を操作部材の入力により受け付ける操作受付部62、およびディスプレイ本体52へ取得された生体情報と観察者の操作指令信号を送信するリモコン送信部63を備える。また、ディスプレイ本体52は、ディスプレイ本体52の制御を司るディスプレイCPU64、リモコン送信部63からの生体情報と操作指令信号とを受信するリモコン受信部65、および画像記録媒体55から画像ファイルを取り込むIF(Interface)66を備える。   FIG. 13 is a block diagram of the liquid crystal display 51. The remote controller 53 includes a remote controller CPU 61 that controls the remote controller 53, a biosensor unit 54 that acquires biometric information of a viewer who operates the remote controller 53, an operation reception unit 62 that receives an instruction from the viewer by input of an operation member, and a display body 52 includes a remote control transmission unit 63 that transmits the biological information acquired to 52 and the operation command signal of the observer. The display main body 52 also includes a display CPU 64 that controls the display main body 52, a remote control receiving unit 65 that receives biological information and an operation command signal from the remote control transmission unit 63, and an IF ( Interface) 66 is provided.

さらに、液晶ディスプレイ51は、取り込んだ画像ファイルに付加されている生体情報、またはリモコン送信部より送信される観察者の生体情報から対応する感情を判定する感情判定部68を備える。また、液晶ディスプレイ51を動作させるプログラムのほか、各種調整値、設定値を記憶する記憶装置であるフラッシュROM69、およびフラッシュROM69に記憶されたプログラム等が展開されるRAM70を備える。RAM70は、作業メモリとしての役割も担う。キャラクタROM71は、上述のキャラクタを複数記憶している。そして、読み出され、画像処理制御回路67で加工された画像は、ディスプレイ駆動回路72により、表示画面57の画像表示領域58に表示される。   Furthermore, the liquid crystal display 51 includes an emotion determination unit 68 that determines the corresponding emotion from the biological information added to the captured image file or the observer's biological information transmitted from the remote control transmission unit. In addition to a program for operating the liquid crystal display 51, a flash ROM 69 that is a storage device that stores various adjustment values and setting values, and a RAM 70 in which a program stored in the flash ROM 69 is expanded. The RAM 70 also serves as a working memory. The character ROM 71 stores a plurality of the above characters. The image read out and processed by the image processing control circuit 67 is displayed in the image display area 58 of the display screen 57 by the display drive circuit 72.

液晶ディスプレイ51の表示制御は、図9を用いて説明した第1実施形態に係る再生モード時動作フローと同様である。すなわち、取り込んだ画像ファイルが撮影時における撮影者の生体情報を有していれば撮影時モードを選択でき、観察者は表示画面57に表示される、撮影者の感情に基づいて加工された撮影画像を楽しむことができる。表示時モードが選択されていれば、リモコン53を操作する観察者の生体情報を取り込んで、その感情に基づいて加工された撮影画像を楽しむことができる。なお、取り込んだ画像ファイルが撮影時における撮影者の生体情報を有していなければ、自動的に表示時モードが選択される。   The display control of the liquid crystal display 51 is the same as the operation flow in the reproduction mode according to the first embodiment described with reference to FIG. That is, if the captured image file has the biometric information of the photographer at the time of photographing, the photographing mode can be selected, and the observer can perform photographing based on the photographer's emotion displayed on the display screen 57. You can enjoy images. If the display mode is selected, it is possible to capture the biological information of the observer who operates the remote controller 53 and enjoy a photographed image processed based on the emotion. If the captured image file does not have the photographer's biometric information at the time of shooting, the display mode is automatically selected.

また、ディスプレイCPU64は、取り込んだ画像ファイルに撮影者の生体情報が有る場合に、撮影者の生体情報に応じたキャラクタ表示と、観察者の観察時の生体情報に応じたキャラクタ表示とを一緒に行なう制御を行っても良い。この場合、撮影者の生体情報に応じたキャラクタと、観察者の観察時の生体情報に応じたキャラクタとを異ならせることが好ましい。例えば、同じ画像でも撮影者の感情と、観察者の感情のギャップを見ることができたり、また、撮影者自身が観察者になった場合に、撮影時の感情と観察時の感情とを知ることができ、画像観察の新たな楽しみを味わうことができる。   Further, when the captured image file includes the photographer's biological information, the display CPU 64 performs character display according to the photographer's biological information and character display according to the biological information at the time of observation by the observer. You may perform the control to perform. In this case, it is preferable to make the character according to the photographer's biological information different from the character according to the biological information at the time of observation by the observer. For example, even in the same image, you can see the gap between the photographer's emotion and the observer's emotion, and if the photographer himself becomes an observer, know the emotion at the time of shooting and the emotion at the time of observation Can enjoy new enjoyment of image observation.

更に、ディスプレイCPU64は、「羞恥」の感情が推定される場合の表示時間を標準再生時間より短めにしたり、「喜び」の感情が推定される場合の表示時間を標準再生時間より長めにしたりしてもよい。同様に、ディスプレイCPU64は、「羞恥」の感情が推定される場合の撮像画像を小さく加工して表示したり、「喜び」の感情が推定される場合の撮像画像を大きく加工して表示してもよい。また、ディスプレイCPU64は、撮像画像の表示の順番をレイティング順にしてもよく、レイティングの低い画像や「羞恥」「苦痛」「困惑」「悲しみ」「怒り」「絶望」などの画像は表示を禁止するように制御してもよい。この場合、ディスプレイ本体52に特開2008−165009号公報に開示されているような撮影部(カメラ)を設け、ディスプレイCPU64がこの撮影部(カメラ)と連携して誰が観察者かに応じて画像表示の禁止を行うようにすればいい。より、具体的には、ディスプレイCPU64は、顔登録されている人物が観察している場合には、すべての画像を表示するようにし、顔登録されていない人物が観察している場合には上述のように一部の画像を表示するようにすればいい。顔登録に関しては、ディスプレイ本体52に設けられた撮影部(カメラ)を利用して、親密度を設定し(例えば大、中、小)、ディスプレイCPU64は親密度に応じて表示する画像および表示を禁止する画像を決定してもよい。   In addition, the display CPU 64 may shorten the display time when the feeling of “shame” is estimated to be shorter than the standard reproduction time, or make the display time when the feeling of “joy” is estimated longer than the standard reproduction time. May be. Similarly, the display CPU 64 processes and displays a small captured image when the feeling of “shame” is estimated or displays a large processed image of the captured image when the feeling of “joy” is estimated. Also good. The display CPU 64 may change the display order of captured images to a rating order, and prohibits display of images with low ratings or images such as “shame”, “pain”, “confused”, “sadness”, “anger”, and “despair”. You may control to do. In this case, the display main body 52 is provided with a photographing unit (camera) as disclosed in Japanese Patent Application Laid-Open No. 2008-165209, and the display CPU 64 cooperates with the photographing unit (camera) to display an image according to who is an observer. Prohibit display. More specifically, the display CPU 64 displays all images when a person whose face is registered is observing, and when the person who is not registered as a face observes the display CPU 64. It is sufficient to display some images like For face registration, a closeness is set (for example, large, medium, small) using a photographing unit (camera) provided in the display main body 52, and the display CPU 64 displays an image and a display to be displayed according to the closeness. You may determine the image to prohibit.

また、生体情報の記録は、画像ファイルのメタ情報への記録に限らず、画像ファイルへのリンク情報と生体情報を記述する生体情報格納ファイルを生成しても良い。   The biometric information is not limited to being recorded in the meta information of the image file, and a biometric information storage file describing the link information to the image file and the biometric information may be generated.

また、上記実施形態においては、レンズ側生体センサ部8、カメラ本体側生体センサ部16および生体センサ部54をそれぞれ装置本体に配置した。しかし、生体センサは、より直接的に撮影者、観察者の身体に取り付けるように独立させて構成しても良い。例えば、特開2005-270543号公報(米国特許第7538890号)に開示されているような腕時計型の生体センサを用いてもよい。この場合、装置側では、有線または無線による生体情報取得部を備えることになる。なお、生体センサを複数備える場合に、それぞれの出力が異なる場合がある。このような場合には、いずれの生体センサからの出力を優先するかを予め決めておくこともできるし、出力の平均値を算出するなどの対処を採用することもできる。   Moreover, in the said embodiment, the lens side biosensor part 8, the camera main body side biosensor part 16, and the biosensor part 54 were each arrange | positioned at the apparatus main body. However, the biological sensor may be configured independently so as to be directly attached to the body of the photographer or the observer. For example, a wristwatch-type biosensor as disclosed in JP-A-2005-270543 (US Pat. No. 7,538,890) may be used. In this case, the apparatus side includes a wired or wireless biometric information acquisition unit. Note that when a plurality of biosensors are provided, the respective outputs may be different. In such a case, it is possible to determine in advance which biosensor is prioritized for output, and it is possible to adopt measures such as calculating an average value of outputs.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。また、第1実施形態と第2実施形態とを適宜組み合わせることも可能である。更に、上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Moreover, it is also possible to combine 1st Embodiment and 2nd Embodiment suitably. Furthermore, it will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

1 カメラシステム、2 カメラ本体、3 撮影レンズ、4 レンズ群、5 絞り、6 角速度センサ、7 レンズCPU、8 レンズ側生体センサ部、9 心拍数検出装置、10 駆動回路、11 A/D変換回路、12 脈波検出装置、13 発汗センサ、14 温度センサ、15 圧力センサ、16 カメラ本体側生体センサ部、17 心拍数検出装置、18 画像処理制御回路、19 コントラストAF回路、20 脈波検出装置、21 発汗センサ、22 温度センサ、23 圧力センサ、24 レリーズSW、25 撮影モードSW、26 ファインダー光学系、27 撮像素子、28 メインミラー、29 焦点検出センサ、30 サブミラー、31 焦点板、32 ペンタプリズム、33 ローパスフィルタ、34 撮像基板、35 画像記録媒体、36 背面モニタ制御回路、37 背面モニタ、38 カレンダー部、39 フラッシュROM、40 測光センサ、41 GPSモジュール、42 マイク、43 スピーカ、44 RAM、45 キャラクタROM、46 カメラ本体CPU、47 喜びキャラクタ、48 ファイル名表示、49 等級アイコン表示、51 液晶ディスプレイ、52 ディスプレイ本体、53 リモコン、54 生体センサ部、55 画像記録媒体、56 スロット、57 表示画面、58 画像表示領域、59 情報表示領域、60 愛情キャラクタ、61 リモコンCPU、62 操作受付部、63 リモコン送信部、64 ディスプレイCPU、65 リモコン受信部、66 IF(Interface)、67 画像処理制御回路、68 判定部、69 フラッシュROM、70 RAM、71 キャラクタROM、72 ディスプレイ駆動回路 DESCRIPTION OF SYMBOLS 1 Camera system, 2 Camera body, 3 Shooting lens, 4 Lens group, 5 Aperture, 6 Angular velocity sensor, 7 Lens CPU, 8 Lens side biological sensor part, 9 Heart rate detection apparatus, 10 Drive circuit, 11 A / D conversion circuit , 12 Pulse wave detection device, 13 Sweating sensor, 14 Temperature sensor, 15 Pressure sensor, 16 Camera body side biosensor unit, 17 Heart rate detection device, 18 Image processing control circuit, 19 Contrast AF circuit, 20 Pulse wave detection device, 21 Sweating sensor, 22 Temperature sensor, 23 Pressure sensor, 24 Release SW, 25 Shooting mode SW, 26 Viewfinder optical system, 27 Image sensor, 28 Main mirror, 29 Focus detection sensor, 30 Sub mirror, 31 Focus plate, 32 Penta prism, 33 Low-pass filter, 34 Imaging substrate, 35 Image recording medium, 36 Rear monitor control circuit, 37 Rear monitor, 38 Calendar section, 39 Flash ROM, 40 Photometric sensor, 41 GPS module, 42 Microphone, 43 Speaker, 44 RAM, 45 Character ROM, 46 Camera body CPU, 47 Joy character, 48 files Name display, 49 grade icon display, 51 liquid crystal display, 52 display main body, 53 remote control, 54 biosensor unit, 55 image recording medium, 56 slot, 57 display screen, 58 image display area, 59 information display area, 60 loving character, 61 remote control CPU, 62 operation reception unit, 63 remote control transmission unit, 64 display CPU, 65 remote control reception unit, 66 IF (Interface), 67 image processing control circuit, 68 determination unit, 69 flash R M, 70 RAM, 71 character ROM, 72 a display driving circuit

Claims (13)

画像を撮影した時の撮影者の生体情報を入力する入力部と、
前記画像を表示する表示部と、
前記撮影者の生体情報から撮影時の感情を推定し、推定した前記感情に基づいて前記表示部に表示する前記画像を加工する加工部と
を備える表示装置。
An input unit for inputting the photographer's biometric information when the image is taken;
A display unit for displaying the image;
A display device comprising: a processing unit that estimates an emotion during shooting from the biological information of the photographer and processes the image displayed on the display unit based on the estimated emotion.
画像を観察者に表示する表示部と、
前記表示部の操作に応じて、前記観察者の生体情報を入力する入力部と、
前記観察者の前記生体情報から画像観察時の感情を推定し、推定した前記感情に基づいて前記表示部に表示する前記画像を加工する加工部と
を備える表示装置。
A display for displaying an image to an observer;
An input unit for inputting the biological information of the observer in response to an operation of the display unit;
A display device comprising: a processing unit that estimates an emotion during image observation from the biological information of the observer and processes the image displayed on the display unit based on the estimated emotion.
前記加工部は、前記感情が理解できる形態に前記画像を加工する請求項1または2に記載の表示装置。   The display device according to claim 1, wherein the processing unit processes the image into a form in which the emotion can be understood. 前記加工部は、前記入力部から入力される前記生体情報に基づいて、前記画像の大きさを変更する請求項1から3のいずれか1項に記載の表示装置。   The display device according to claim 1, wherein the processing unit changes a size of the image based on the biological information input from the input unit. 前記加工部は、前記入力部から入力される前記生体情報に基づいて、連続して表示される前記画像の表示時間を変更する請求項1から4のいずれか1項に記載の表示装置。   The display device according to claim 1, wherein the processing unit changes a display time of the images that are continuously displayed based on the biological information input from the input unit. 前記感情の種類に応じた複数のキャラクタを記憶するキャラクタ記憶部を備え、
前記加工部は、前記入力部から入力される生体情報に基づいて、前記キャラクタ記憶部から前記複数のキャラクタの少なくとも1つを読み出して前記画像と組み合わせる請求項1から5のいずれか1項に記載の表示装置。
A character storage unit that stores a plurality of characters according to the type of emotion,
6. The processing unit according to claim 1, wherein the processing unit reads at least one of the plurality of characters from the character storage unit and combines it with the image based on biological information input from the input unit. Display device.
前記感情の度合いに応じた複数のキャラクタを記憶するキャラクタ記憶部を備え、
前記加工部は、前記入力部から入力される生体情報に基づいて、前記キャラクタ記憶部から前記複数のキャラクタの少なくとも1つを読み出して前記画像と組み合わせる請求項1から6のいずれか1項に記載の表示装置。
A character storage unit that stores a plurality of characters according to the degree of emotion,
The said process part reads at least 1 of these characters from the said character memory | storage part based on the biometric information input from the said input part, and combines with the said image. Display device.
前記加工部は、前記キャラクタ記憶部から読み出したキャラクタの大きさ、色、数および表示時間の少なくともひとつを変更する請求項6または7に記載の表示装置。   The display device according to claim 6, wherein the processing unit changes at least one of a character size, a color, a number, and a display time read from the character storage unit. 前記加工部は、前記入力部から入力される生体情報に基づいて、前記画像の輝度、彩度および色相の少なくともひとつを変更する請求項1から8のいずれか1項に記載の表示装置。   The display device according to claim 1, wherein the processing unit changes at least one of luminance, saturation, and hue of the image based on biological information input from the input unit. 前記生体情報の入力結果を前記画像のレイティングに用いるレイティング部を備える請求項1から9のいずれか1項に記載の表示装置。   The display device according to claim 1, further comprising a rating unit that uses an input result of the biological information for rating the image. 前記生体情報の入力結果を前記画像に関連付けて記憶する生体情報記憶部を備える請求項1から10のいずれか1項に記載の表示装置。   The display device according to claim 1, further comprising a biological information storage unit that stores an input result of the biological information in association with the image. 前記加工部は、前記生体情報を入力した時とは異なる時に、前記生体情報記憶部から前記入力結果を読み出して、前記画像を加工する請求項11に記載の表示装置。   The display device according to claim 11, wherein the processing unit reads the input result from the biological information storage unit and processes the image when different from when the biological information is input. 前記入力部は、前記画像が撮影された時の撮影者の生体情報を入力し、
前記加工部は、前記撮影者の前記生体情報から画像撮影時の感情を推定し、推定した前記感情に基づいて前記表示部に表示する前記画像を加工する請求項2から11のいずれか一項に記載の表示装置。
The input unit inputs biometric information of a photographer when the image is captured,
The said process part estimates the emotion at the time of an image photography from the said biometric information of the said photographer, and processes the said image displayed on the said display part based on the estimated said emotion. The display device described in 1.
JP2010058251A 2010-03-15 2010-03-15 Display device Pending JP2011193275A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010058251A JP2011193275A (en) 2010-03-15 2010-03-15 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010058251A JP2011193275A (en) 2010-03-15 2010-03-15 Display device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015001846A Division JP2015080269A (en) 2015-01-07 2015-01-07 Display device

Publications (1)

Publication Number Publication Date
JP2011193275A true JP2011193275A (en) 2011-09-29

Family

ID=44797740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010058251A Pending JP2011193275A (en) 2010-03-15 2010-03-15 Display device

Country Status (1)

Country Link
JP (1) JP2011193275A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014171196A (en) * 2013-03-05 2014-09-18 Olympus Corp Image processing device, image processing method, and program therefor
JP2017073107A (en) * 2015-10-08 2017-04-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method for information presentation device, and information presentation device
CN106562793A (en) * 2015-10-08 2017-04-19 松下电器(美国)知识产权公司 Method for controlling information display apparatus, and information display apparatus
JP2018045557A (en) * 2016-09-16 2018-03-22 カシオ計算機株式会社 Display information generation device, information management system, display information generation method, and program
WO2019044135A1 (en) * 2017-08-31 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
US11194405B2 (en) 2015-10-08 2021-12-07 Panasonic Intellectual Property Corporation Of America Method for controlling information display apparatus, and information display apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0498979A (en) * 1990-08-17 1992-03-31 Fuji Photo Film Co Ltd Video camera
JP2004178593A (en) * 2002-11-25 2004-06-24 Eastman Kodak Co Imaging method and system
JP2005063087A (en) * 2003-08-11 2005-03-10 Sony Corp Recording and reproducing device, reproducing device, recording and reproducing method, and reproducing method
JP2005250977A (en) * 2004-03-05 2005-09-15 Nikon Corp Photographing apparatus, image reproducing device, image appreciation room, data accumulation/analysis apparatus, silver salt camera, and scanner
JP2006330958A (en) * 2005-05-25 2006-12-07 Oki Electric Ind Co Ltd Image composition device, communication terminal using the same, and image communication system and chat server in the system
JP2009081784A (en) * 2007-09-27 2009-04-16 Casio Comput Co Ltd Imaging apparatus, reproduction device, photographing control setting method, and program
JP2009187109A (en) * 2008-02-04 2009-08-20 Fujifilm Corp Image display device, display control method and display control program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0498979A (en) * 1990-08-17 1992-03-31 Fuji Photo Film Co Ltd Video camera
JP2004178593A (en) * 2002-11-25 2004-06-24 Eastman Kodak Co Imaging method and system
JP2005063087A (en) * 2003-08-11 2005-03-10 Sony Corp Recording and reproducing device, reproducing device, recording and reproducing method, and reproducing method
JP2005250977A (en) * 2004-03-05 2005-09-15 Nikon Corp Photographing apparatus, image reproducing device, image appreciation room, data accumulation/analysis apparatus, silver salt camera, and scanner
JP2006330958A (en) * 2005-05-25 2006-12-07 Oki Electric Ind Co Ltd Image composition device, communication terminal using the same, and image communication system and chat server in the system
JP2009081784A (en) * 2007-09-27 2009-04-16 Casio Comput Co Ltd Imaging apparatus, reproduction device, photographing control setting method, and program
JP2009187109A (en) * 2008-02-04 2009-08-20 Fujifilm Corp Image display device, display control method and display control program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014171196A (en) * 2013-03-05 2014-09-18 Olympus Corp Image processing device, image processing method, and program therefor
JP2017073107A (en) * 2015-10-08 2017-04-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method for information presentation device, and information presentation device
CN106562793A (en) * 2015-10-08 2017-04-19 松下电器(美国)知识产权公司 Method for controlling information display apparatus, and information display apparatus
US11194405B2 (en) 2015-10-08 2021-12-07 Panasonic Intellectual Property Corporation Of America Method for controlling information display apparatus, and information display apparatus
CN106562793B (en) * 2015-10-08 2021-12-21 松下电器(美国)知识产权公司 Information presentation device control method and information presentation device
JP2018045557A (en) * 2016-09-16 2018-03-22 カシオ計算機株式会社 Display information generation device, information management system, display information generation method, and program
WO2019044135A1 (en) * 2017-08-31 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
US11328187B2 (en) 2017-08-31 2022-05-10 Sony Semiconductor Solutions Corporation Information processing apparatus and information processing method

Similar Documents

Publication Publication Date Title
EP2051506B1 (en) Imaging device and imaging control method
CN102483559B (en) Camera
JP5630041B2 (en) Electronic equipment
JP4019200B2 (en) Camera with image display
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP2007311861A (en) Photographic apparatus and method
JP2011193275A (en) Display device
JP2007299339A (en) Image reproducing device, method and program
JP5633380B2 (en) Imaging device
JP4760496B2 (en) Image data generation apparatus and image data generation method
JP2007049408A (en) Photographing device
JP5499796B2 (en) Electronics
JP2010087598A (en) Photographic apparatus, photographic control method and program therefor, image display apparatus, image display method and program therefor, and photographic system, control method therefor and program therefor
JP2011193281A (en) Portable device
JP4957435B2 (en) Imaging device
JP2017143581A (en) Display device
JP2015080269A (en) Display device
JP2010050705A (en) Camera
JP5029765B2 (en) Image data generation apparatus and image data generation method
JP2007013586A (en) Image pickup device
JP2011139353A (en) Imaging apparatus
JP2009044671A (en) Photographing device, database generating method and usage thereof
JP2013008193A (en) Imaging apparatus and control program of imaging apparatus
JP5597991B2 (en) Imaging device
JP2006109077A (en) Camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141007