JP2015023512A - Imaging apparatus, imaging method and imaging program for imaging apparatus - Google Patents

Imaging apparatus, imaging method and imaging program for imaging apparatus Download PDF

Info

Publication number
JP2015023512A
JP2015023512A JP2013151929A JP2013151929A JP2015023512A JP 2015023512 A JP2015023512 A JP 2015023512A JP 2013151929 A JP2013151929 A JP 2013151929A JP 2013151929 A JP2013151929 A JP 2013151929A JP 2015023512 A JP2015023512 A JP 2015023512A
Authority
JP
Japan
Prior art keywords
photographer
eye
main subject
eye direction
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013151929A
Other languages
Japanese (ja)
Inventor
佐藤 和宏
Kazuhiro Sato
和宏 佐藤
紗知恵 山本
Sachie Yamamoto
紗知恵 山本
恭一 沼尻
Kyoichi Numajiri
恭一 沼尻
野中 修
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2013151929A priority Critical patent/JP2015023512A/en
Priority to US14/336,414 priority patent/US10063773B2/en
Priority to CN201410350473.4A priority patent/CN104333690B/en
Publication of JP2015023512A publication Critical patent/JP2015023512A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To acquire a panoramic image capable of enhancing a subject etc. viewed by a photographer.SOLUTION: An imaging apparatus includes: imaging means for imaging a range including an object and at least an eye part of a photographer; image processing means for acquiring the image data of the imaging means; eye line direction determination means for determining the eye line direction of the photographer in the image data acquired by the image processing means; main object determination means for determining a main object in the object the photographer intends to image, on the basis of the eye line direction determined by the eye line direction determination means; and enhancement display means for performing enhanced display of the main object determined by the main object determination means.

Description

本発明は、被写体を全方位、全周囲、パノラマなど、広い撮影範囲で撮影する撮影装置、撮影方法及び撮影装置の撮影プログラムに関する。   The present invention relates to a photographing apparatus, a photographing method, and a photographing program for a photographing apparatus that photograph a subject in a wide photographing range such as an omnidirectional, full circumference, and panorama.

全方位の撮影範囲で被写体を撮影する撮影装置の技術として例えば特許文献1がある。この特許文献1は、所定の撮影面に沿った360°方向のパノラマ画像を撮影する撮像手段と、この撮像手段を配設した当該撮像再生装置筐体の一構成面が対向する方角を検出する検出手段と、撮像手段での撮影で得たパノラマ画像の画像データを検出手段で検出した方角を示す情報と関連付けて記録する記録手段と、画像を表示する表示手段と、記録手段で記録した画像データに対し、関連付けて記録されている方角を示す情報に基づいて、予め設定した基準となる方角が画像の中心となるようにパノラマ画像を表示手段で表示させる表示制御手段とを備えたもので、パノラマ画像を観賞する者が、当該パノラマ画像中に写る被写体が撮影時に位置していた方角を容易に理解することが可能となることを開示する。   For example, Patent Document 1 discloses a technique of an image capturing apparatus that captures an object in an omnidirectional image capturing range. This patent document 1 detects a direction in which an imaging unit that captures a panoramic image in a 360 ° direction along a predetermined imaging plane and a component surface of the imaging reproduction apparatus housing in which the imaging unit is disposed are opposed to each other. Detection means, recording means for recording image data of a panoramic image obtained by photographing with the imaging means in association with information indicating the direction detected by the detection means, display means for displaying an image, and image recorded by the recording means Display control means for displaying a panoramic image on the display means so that a predetermined reference direction is the center of the image based on information indicating the direction recorded in association with the data. It is disclosed that a person who views a panoramic image can easily understand the direction in which the subject in the panoramic image was located at the time of shooting.

特開2011−40898号公報JP 2011-40898 A

全方位の撮影、全周囲撮影、パノラマなど広い範囲の撮影では、広い画角の画像中のどの部分を撮影者が観ていたのかが分からず、又どの被写体を目的に撮影したのかが分からないような、単なる記録で意図が伝わらない印象の薄い画像しか伝えることしかできなかった。   In a wide range of shooting such as omnidirectional shooting, panoramic shooting, panoramic shooting, it is not possible to know which part of the image of the wide angle of view the photographer was watching and which subject was shot for the purpose. It was only possible to convey only an image with a weak impression that the intention was not transmitted by simple recording.

本発明の目的は、パノラマ画像、全方位画像のような広い画角の画像を伝えることができると共に、それでいて、撮影者が見ていた主な対象物を伝えられる画像を取得できる撮影装置、撮影方法及び撮影装置の撮影プログラムを提供することにある。   An object of the present invention is to provide a photographing apparatus and a photographing device capable of transmitting an image having a wide angle of view such as a panoramic image and an omnidirectional image, and yet capable of acquiring an image capable of conveying a main object viewed by a photographer. A method and an imaging program for an imaging apparatus are provided.

本発明の主要な局面に係る撮影装置は、被写体と撮影者の少なくとも眼部とを含む範囲で撮影する撮影手段と、前記撮影手段の画像データを取得する画像処理手段と、前記画像処理手段により取得された前記画像データにおける前記撮影者の目線方向を判定する目線方向判定手段と、前記目線方向判定手段により判定された前記目線方向に基づいて前記撮影者が撮影しようとする前記被写体中の主要被写体を判定する主要被写体判定手段と、前記主要被写体判定手段により判定された前記主要被写体を強調表示する強調表示手段とを具備する。   An imaging apparatus according to a main aspect of the present invention includes an imaging unit that captures an image in a range including a subject and at least an eye part of a photographer, an image processing unit that acquires image data of the imaging unit, and the image processing unit. Eye direction determination means for determining the eye direction of the photographer in the acquired image data, and the main subject in the subject to be photographed by the photographer based on the eye direction determined by the eye direction determination means Main subject determining means for determining a subject; and highlighting means for highlighting the main subject determined by the main subject determining means.

本発明の主要な局面に係る撮影方法は、被写体と撮影者の少なくとも眼部とを含む撮影範囲を有する撮影手段によって被写体を撮影し、前記撮影範囲の画像データを画像処理手段により取得し、当該撮影者の目線方向を目線方向判定手段によって判定し、前記判定された前記目線方向に基づいて前記撮影者が撮影しようとする前記被写体中の主要被写体を強調表示する。   An imaging method according to a main aspect of the present invention is to shoot a subject by an imaging unit having an imaging range including the subject and at least an eye part of the photographer, acquire image data of the imaging range by an image processing unit, The eye direction of the photographer is determined by the eye direction determination means, and the main subject in the subject to be photographed by the photographer is highlighted based on the determined eye direction.

本発明の主要な局面に係る撮影装置の撮影プログラムは、コンピュータに、被写体と撮影者の少なくとも眼部とを含む範囲で撮影させる撮影機能と、前記撮影機能の画像データを取得させる画像処理機能と、前記画像処理機能により取得された前記画像データにおける前記撮影者の目線方向を判定させる目線方向判定機能と、前記目線方向判定機能により判定された前記目線方向に基づいて前記撮影者が撮影しようとする前記被写体中の主要被写体を判定させる主要被写体判定機能と、前記主要被写体判定機能により判定された前記主要被写体を強調表示させる強調表示機能とを実現する。   An imaging program of an imaging apparatus according to a main aspect of the present invention includes an imaging function that causes a computer to capture an image within a range including a subject and at least an eye part of a photographer, and an image processing function that acquires image data of the imaging function. The photographer intends to photograph based on the eye direction determined by the eye direction determination function and the eye direction determination function for determining the eye direction of the photographer in the image data acquired by the image processing function. A main subject determination function for determining a main subject in the subject to be determined, and a highlight display function for highlighting the main subject determined by the main subject determination function.

本発明によれば、撮影者が見ていた被写体等を強調できるような広角画像を取得できる撮影装置、撮影方法及び撮影装置の撮影プログラムを提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which can acquire the wide-angle image which can emphasize the to-be-photographed object etc. which the photographer was looking at, the imaging | photography method, and the imaging | photography program of an imaging device can be provided.

本発明に係る撮影装置の一実施の形態を示すブロック構成図。1 is a block configuration diagram showing an embodiment of a photographing apparatus according to the present invention. 同装置における撮影光学系を示す構成図。The block diagram which shows the imaging optical system in the same apparatus. 同装置の撮影によりパノラマ画像を取得するときの全方位撮影の様子を示す図。The figure which shows the mode of the omnidirectional imaging | photography when acquiring a panoramic image by imaging | photography of the same apparatus. 同装置による全方位撮影の撮影結果を示す図。The figure which shows the imaging | photography result of the omnidirectional imaging | photography by the same apparatus. 同装置により取得されるパノラマ画像を示す図。The figure which shows the panoramic image acquired by the same apparatus. 同装置において基準目線方向の設定を説明するための図。The figure for demonstrating the setting of a reference | standard gaze direction in the same apparatus. 同装置により撮影者の鼻穴部の有無によって基準目線方向の設定をするときの状態を示す図。The figure which shows the state when setting a reference | standard gaze direction by the presence or absence of a photographer's nostril part with the same apparatus. 同装置により撮影するのにあたり撮影者の目線が被写体に向けられている状態を示す図。The figure which shows the state in which the eyes | visual_axis of a photographer are orient | assigned to the to-be-photographed object when image | photographing with the same apparatus. 同装置により撮影者の瞳位置を判定するときの状態を示す図。The figure which shows the state when determining a photographer's pupil position by the same apparatus. 同装置により撮影者の瞳位置を判定するときの状態を示す図。The figure which shows the state when determining a photographer's pupil position by the same apparatus. 同装置により撮影者の瞳位置によって基準目線方向の設定をするときの状態を示す図。The figure which shows the state when setting a reference | standard gaze direction by the photographer's pupil position with the same apparatus. 同装置により撮影者の目線方向が前方に有ることを示す図。The figure which shows that a photographer's eyes | visual_axis direction exists ahead by the same apparatus. 同装置により撮影者の目線方向が自身から向かって左側に有ることを示す図。The figure which shows that a photographer's eyes | visual_axis direction exists in the left side toward self from the same apparatus. 同装置により撮影者の目線方向が自身から向かって右側に有ることを示す図。The figure which shows that a photographer's eyes | visual_axis direction exists on the right side toward self by the same apparatus. 同装置により撮影者の目線方向が自身から向かって左側に有ることを示す図。The figure which shows that a photographer's eyes | visual_axis direction exists in the left side toward self from the same apparatus. 同装置により撮影者の目線方向が自身から向かって右側に有ることを示す図。The figure which shows that a photographer's eyes | visual_axis direction exists on the right side toward self by the same apparatus. 同装置により取得されるパノラマ画像における縦幅の角度φの設定を示す図。The figure which shows the setting of angle (phi) of the vertical width in the panoramic image acquired by the apparatus. 同装置により複数の人物から成る一群の人物に対する強調範囲の設定を示す図。The figure which shows the setting of the emphasis range with respect to the group of persons which consist of several persons with the same apparatus. 同装置における指標による強調範囲の設定の根拠を説明するための図。The figure for demonstrating the basis of the setting of the emphasis range by the parameter | index in the apparatus. 同装置におけるカメラ制御フローチャート。The camera control flowchart in the same apparatus. 同装置における本装置側目線方向の判定フローチャート。FIG. 3 is a flowchart for determining the direction of the eye of the apparatus in the apparatus. 同装置における目線方向の向き判定フローチャート。The direction determination flowchart of a gaze direction in the same apparatus.

以下、本発明の一実施の形態について図面を参照して説明する。
図1は撮影装置10のブロック構成図を示す。本装置10は、被写体を略360°のほぼ全方位(以下、全方位と略記)に亘る撮影範囲で被写体を撮影して例えばそのパノラマ画像を取得するもので、全方位で撮影するための撮影光学系11を備える。
図2は撮影光学系11の構成図を示す。この撮像光学系11は、魚眼レンズとしての機能を持つ複数枚のレンズを有し、光軸Pの周りの全周にわたる視野領域の光を捉える。もちろん、厳密に全周である必要はないし、光軸方向は撮影せず、パノラマ風の帯状領域のみ撮影する光学系でもよい。光軸方向も含めば全方位と言えるが、これらを一括して、下記には全方位という表現を使っている。もちろん、魚眼レンズや広角レンズも、使い方によっては、全方位的な撮影が可能である。この撮像光学系11の光軸P上には、撮像部12が設けられている。この撮像部12は、撮像光学系11により捉えられた光を電気的なデジタル信号に変換して画像データとする。なお、この撮像部12は、基板13上に設けられている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram of the photographing apparatus 10. The apparatus 10 captures a subject in a photographing range of approximately 360 ° in almost all directions (hereinafter, abbreviated as “omnidirectional”) and acquires, for example, a panoramic image thereof. An optical system 11 is provided.
FIG. 2 shows a configuration diagram of the photographing optical system 11. The imaging optical system 11 has a plurality of lenses having a function as a fisheye lens, and captures light in a visual field region around the entire circumference around the optical axis P. Of course, it is not necessary to be strictly around the entire circumference, and an optical system that does not shoot in the optical axis direction and shoots only a panoramic belt-like area may be used. If the optical axis direction is included, it can be said that it is omnidirectional. However, these are collectively referred to as omnidirectional below. Of course, depending on how the fisheye lens and wide-angle lens are used, omnidirectional photography is possible. An imaging unit 12 is provided on the optical axis P of the imaging optical system 11. The image capturing unit 12 converts light captured by the image capturing optical system 11 into an electrical digital signal to generate image data. The imaging unit 12 is provided on the substrate 13.

この撮像光学系11は、本装置本体10aに対して固定して設けても良いし、回転可能に設けても良い。なお、固定式の場合、ユーザがカメラの角度を調整するが、回転可能な場合、厳密に構えなくとも重力やアクチュエータの力によって、天頂方向を向いた撮影にできる。撮影光学系11は、例えば球状の回転撮像体13を備え、この回転撮像体13が本装置本体10aに対して回転するように設ける。この回転撮像体13の内部には、撮像光学系11と、基板14上に設けられた撮像部12と、重り14等が設けられている。これら撮像光学系11や撮像部12、基板14、重り15等は、回転撮像体13の回転と一体的に回転移動する。重り15は、回転撮像体13の下部で撮像光学系11の光軸Pの延長線上に設けられているので、回転可能立体角θの範囲内で回転しても、重り15による重力が掛かることによって、撮影光学系11を備える回転撮像体13を本装置本体10aの傾きに関わらず天頂向きに回転移動する。又、回転撮像体13の下部で撮影光学系11の光軸Pの延長線上には、回転規制ピン16が設けられている。この回転規制ピン16は、回転撮像体13を回転可能立体角θの範囲内に規制する。天頂方向を見て全方位撮影をすると、撮影者の眼部や顔部も撮影される可能性が高い。   The imaging optical system 11 may be fixed to the apparatus main body 10a or may be rotatably provided. In the case of the fixed type, the user adjusts the angle of the camera. However, when the camera can be rotated, it is possible to shoot in the zenith direction by gravity or the force of the actuator without being strictly held. The photographing optical system 11 includes, for example, a spherical rotating image pickup body 13 and is provided so as to rotate with respect to the apparatus main body 10a. An imaging optical system 11, an imaging unit 12 provided on a substrate 14, a weight 14, and the like are provided inside the rotary imaging body 13. The imaging optical system 11, the imaging unit 12, the substrate 14, the weight 15, and the like rotate integrally with the rotation of the rotating imaging body 13. Since the weight 15 is provided on the extended line of the optical axis P of the imaging optical system 11 below the rotary image pickup body 13, even if it rotates within the range of the rotatable solid angle θ, gravity by the weight 15 is applied. Accordingly, the rotary imaging body 13 including the photographing optical system 11 is rotated and moved toward the zenith regardless of the inclination of the apparatus main body 10a. Further, a rotation restricting pin 16 is provided on the extended line of the optical axis P of the photographing optical system 11 below the rotating imaging body 13. The rotation restricting pin 16 restricts the rotating image pickup body 13 within the range of the rotatable solid angle θ. When omnidirectional shooting is performed while looking at the zenith direction, there is a high possibility that the eyes and face of the photographer are also shot.

又、本装置10は、コンピュータから成る制御部20を備える。この制御部20には、本装置10の全体を制御するもので、撮像部12と、マイクロフォン21と、操作判定部22と、背面カメラ(アイセンサ)23と、記録部24と、通信部25と、姿勢判定部26と、前面表示部27と、前面側タッチパネル28と、背面表示部29と、背面側タッチパネル30とが接続されている。なお、制御部20は、内部メモリを備える。   In addition, the apparatus 10 includes a control unit 20 composed of a computer. The control unit 20 controls the entire apparatus 10, and includes an imaging unit 12, a microphone 21, an operation determination unit 22, a rear camera (eye sensor) 23, a recording unit 24, and a communication unit 25. The attitude determination unit 26, the front display unit 27, the front side touch panel 28, the back display unit 29, and the back side touch panel 30 are connected. The control unit 20 includes an internal memory.

マイクロフォン21は、本装置10を撮影操作する撮影者と例えば人物等の主要被写体との音声をそれぞれ集音し、これら音声検出信号を出力する。このマイクロフォン21は、撮影のスタイル(カメラの構え方)によって、選択可能としてもよく、一対以上を選んで、例えばステレオで音声をそれぞれ集音する。
操作判定部22は、撮影者によって手動操作される各種の操作部材、例えば主要被写体に対するピント調整や、被写体の明るさを調整する絞りの操作等を行うための操作部材や、レリーズボタン、動画釦、モードダイヤル、選択キー、電源釦等を備え、これら操作部材に対する操作を判定してその操作判定信号を制御部20に送る。
The microphone 21 collects sounds of a photographer who performs a photographing operation of the apparatus 10 and a main subject such as a person, and outputs these sound detection signals. The microphones 21 may be selectable depending on the shooting style (how to hold the camera). One or more microphones 21 are selected to collect sound, for example, in stereo.
The operation determination unit 22 includes various operation members that are manually operated by the photographer, for example, an operation member for performing focus adjustment with respect to the main subject, operation of a diaphragm for adjusting the brightness of the subject, a release button, a movie button, and the like. , A mode dial, a selection key, a power button, and the like, and determines an operation on these operation members and sends an operation determination signal to the control unit 20.

本装置10ではあまり活用されないが、接眼式の電子ビューファインダ(EVF)を併用できるようにした方が外光の影響を受けずに被写体を観察できる親切な設計となる。例えば、背面カメラ(アイセンサ)23を本装置10の背面に設け、接眼式の電子ビューファインダ(EVF)が設けられた場合、当該EVFに対して撮影者の眼部が予め設定された距離内に近付いているか否かを検出してEVFを有効にする。
記録部24には、例えば、被写体を360°の全方位に亘る撮影範囲で撮影して取得されたパノラマ画像や、特定の領域を切り出した画像、顔検出部41により検出された撮影者Aの顔部を含む画像データ等が記録される。この記録部24は、例えばメモリカードなどである。
通信部25は、本装置10と外部装置との間で例えば撮影された画像や、操作信号等を含むデータ通信を行う。
姿勢判定部26は、本装置10の姿勢又は姿勢の変化を検出する。この姿勢検出で、カメラの撮影モード切り換えや手ブレ補正などを行う。
Although not used much in the present apparatus 10, it is possible to use an eyepiece type electronic viewfinder (EVF) in combination so that the subject can be observed without being influenced by outside light. For example, when a rear camera (eye sensor) 23 is provided on the rear surface of the apparatus 10 and an eyepiece type electronic viewfinder (EVF) is provided, the photographer's eyes are within a predetermined distance with respect to the EVF. It detects whether or not it is approaching and enables EVF.
In the recording unit 24, for example, a panoramic image acquired by photographing a subject in a photographing range over 360 °, an image obtained by cutting out a specific area, the photographer A detected by the face detecting unit 41, and the like. Image data including a face is recorded. The recording unit 24 is, for example, a memory card.
The communication unit 25 performs data communication including, for example, a photographed image and an operation signal between the apparatus 10 and the external apparatus.
The posture determination unit 26 detects the posture of the apparatus 10 or a change in posture. This posture detection performs camera shooting mode switching and camera shake correction.

前面表示部27は、本装置10の前面に設けられ、ライブビュー画像の表示や、撮影によって取得されたパノラマ画像等を表示する。この前面表示部27は、例えば液晶ディスプレイや有機ELディスプレイなどである。
前面側タッチパネル28は、前面表示部27の前面に設けられ、撮影者のタッチ操作による押圧を検出し、当該タッチ操作位置を示すタッチ座標信号を出力する。この前面側タッチパネル28は、例えば前面表示部27にライブビュー画像を表示している状態に、撮影者がタッチ操作すると、このタッチ操作をレリーズスイッチが行われたものとして機能するようにしてもよい。
このような前面側表示部27を見ながら撮影光学系が天頂方向を見て全方位撮影をすると、撮影者の眼部や顔部も撮影される可能性が高い。以下の実施例では、この前面表示部27利用時の撮影で特徴を出している。タッチ位置にピントや露出を合わせてもよい。前面側というのは、光軸方向を前面だと考えた時の表現で、実際に天頂方向に光軸を向けて撮影するモードでは、表示部は上面になるのでユーザはこれを見て構図などを確認可能である。これを見ていると、光学系のある方向からのぞき込む姿勢となり、撮影者の顔部(眼部)も撮影光学系で捉えられる確率が高く、見ている方向から、どれが撮影者かを判定することも可能となる。
つまり、ここでは、撮影レンズが配置されたのと同じ面に表示パネルが配置されていることが好ましく、これによって、撮像部で得られた画像を表示部で見る撮影者が、同じ撮像部で判定できるようになる。撮影者の向いた方向の被写体も同時に撮影できて、一般のカメラと同様に、見ているものを写すという用途には無理なく応用可能である。もちろん、撮影者も入った撮影が一度にできて便利で楽しいという効果があることは言うまでもない。
この場合、広い面にレンズと表示を配置して、小型化、薄型化が可能である。また、光軸を自分に向けての撮影、自分撮りなどにも有利である。もちろん、撮像結果を、撮影光学系を設けたのと同じ方向に表示しなくとも、撮影者の方向を向いた面に表示部を設けた場合にも同様の効果を得ることができる。可動の表示部にしても良い。ただし、これらの場合は機器が大型化したり厚くなったりする。
本装置10では利用されないが、背面表示部29は、本装置10の背面に設けられ、ライブビュー画像の表示や、撮影によって取得されたパノラマ画像等を表示する。この背面表示部29は、例えば液晶ディスプレイや有機ELディスプレイなどである。
背面側タッチパネル30は、背面表示部29の前面に設けられ、撮影者のタッチ操作による押圧を検出し、当該タッチ操作位置を示すタッチ座標信号を出力する。この背面側タッチパネル30も、上記前面側タッチパネル28と同様に、例えば背面表示部29にライブビュー画像を表示している状態に、撮影者がタッチ操作すると、このタッチ操作をレリーズスイッチが行われたものとして機能するようにしてもよい。これらの表示部は、撮影モードや姿勢などによって選択的に有効となる。
The front display unit 27 is provided in front of the apparatus 10 and displays a live view image, a panoramic image acquired by photographing, and the like. The front display unit 27 is, for example, a liquid crystal display or an organic EL display.
The front-side touch panel 28 is provided on the front surface of the front display unit 27, detects a press by a photographer's touch operation, and outputs a touch coordinate signal indicating the touch operation position. For example, when the photographer performs a touch operation while the live view image is displayed on the front display unit 27, the front-side touch panel 28 may function as if the release switch was performed. .
When the photographic optical system looks at the zenith direction and performs omnidirectional shooting while looking at such a front-side display unit 27, it is highly likely that the photographer's eyes and face are also shot. In the following embodiment, the feature is obtained by photographing when the front display unit 27 is used. Focus and exposure may be adjusted to the touch position. The front side is an expression when the optical axis direction is considered to be the front side, and in the mode where the optical axis is actually directed toward the zenith direction, the display unit is on the top surface, so the user looks at this and composes etc. Can be confirmed. When looking at this, it becomes a posture to look into from a certain direction of the optical system, and there is a high probability that the photographer's face (eye) is also captured by the photographing optical system, and it is determined from the viewing direction which is the photographer It is also possible to do.
That is, here, it is preferable that the display panel is disposed on the same plane as the photographing lens is disposed, so that a photographer who views an image obtained by the imaging unit on the display unit can be viewed on the same imaging unit. Can be judged. A subject in the direction that the photographer is facing can be photographed at the same time, and can be applied without difficulty to the purpose of taking a picture of what is being seen, as with a general camera. Of course, it goes without saying that it is convenient and fun to shoot with the photographer at once.
In this case, it is possible to reduce the size and thickness by arranging lenses and displays on a wide surface. It is also advantageous for taking pictures with the optical axis directed at you, and taking selfies. Of course, even if the imaging result is not displayed in the same direction as when the photographing optical system is provided, the same effect can be obtained when the display unit is provided on the surface facing the photographer. A movable display unit may be used. In these cases, however, the equipment becomes larger and thicker.
Although not used in the present apparatus 10, the rear display unit 29 is provided on the rear surface of the present apparatus 10 and displays a live view image, a panoramic image acquired by photographing, and the like. The back display unit 29 is, for example, a liquid crystal display or an organic EL display.
The rear-side touch panel 30 is provided on the front surface of the rear display unit 29, detects a press by a photographer's touch operation, and outputs a touch coordinate signal indicating the touch operation position. Similarly to the front side touch panel 28, when the photographer touches the rear side touch panel 30 while displaying a live view image on the rear display unit 29, for example, a release switch is performed for the touch operation. You may make it function as a thing. These display units are selectively enabled depending on the shooting mode, posture, and the like.

上記制御部20は、内部メモリ等を有し、当該内部メモリに本装置10の撮影プログラムが予め記憶されている。なお、この内部メモリ等に撮影結果を記録してもよい。この制御部20は、当該撮影プログラムを実行することにより次の機能を実現する。すなわち、この撮影プログラムは、コンピュータから成る制御部20に、被写体と撮影者の少なくとも眼部とを含む範囲で撮影させる撮影機能と、撮影機能の画像データを取得させる画像処理機能と、画像処理機能により取得された画像データにおける撮影者の目線方向を判定させる目線方向判定機能と、目線方向判定機能により判定された目線方向に基づいて撮影者が撮影しようとする被写体中の主要被写体を判定させる主要被写体判定機能と、主要被写体判定機能により判定された主要被写体を強調表示させる強調表示機能とを実現する。   The control unit 20 includes an internal memory and the like, and the shooting program of the apparatus 10 is stored in advance in the internal memory. The photographing result may be recorded in this internal memory or the like. The control unit 20 realizes the following functions by executing the photographing program. In other words, the photographing program causes the control unit 20 including a computer to photograph within a range including the subject and at least the eye of the photographer, an image processing function for acquiring image data of the photographing function, and an image processing function. The eye direction determination function for determining the eye direction of the photographer in the image data acquired by the method, and the main function for determining the main subject in the subject to be photographed by the photographer based on the eye direction determined by the eye direction determination function. A subject determination function and a highlight display function for highlighting the main subject determined by the main subject determination function are realized.

ここで、主要被写体の強調表示について説明する。図3A乃至図3Cは本装置10の撮影によるパノラマ画像の取得を説明するための図を示し、同図3Aは全方位撮影の様子を示し、同図3Bは撮影結果を示し、同図3Cは撮影結果をパノラマ画像に加工したものを示す。全方位の中から、必要な部分を切り抜き、幅広で表示する場合、パノラマ画像となる。この幅広やパノラマの定義としては、カメラの表示部のアスペクト比より横長が長いもの、縦の長さより横の長さが例えば2倍以上長いものなどがある。
図3Aに示すように撮影者Aは、撮影者本人である撮影者Aと、主要被写体として例えば父親等の人物(以下、父親と称する)Bと、子供等の人物(以下、子供と称する)Cとの3人を全方位撮影によって撮影する様子を示す。撮影者Aの目線方向(視線方向)Sは、父親Bに向けられているものとする。
Here, the highlight display of the main subject will be described. 3A to 3C are diagrams for explaining acquisition of a panoramic image by photographing of the apparatus 10, FIG. 3A shows a state of omnidirectional photographing, FIG. 3B shows a photographing result, and FIG. This shows the panoramic image processed from the shooting result. When a necessary part is cut out from all directions and displayed wide, it becomes a panoramic image. As the definition of wide or panorama, there are those whose horizontal length is longer than the aspect ratio of the display unit of the camera, and whose horizontal length is longer than the vertical length by, for example, twice or more.
As shown in FIG. 3A, a photographer A is a photographer A who is the photographer himself, a person such as a father (hereinafter referred to as a father) B as a main subject, and a person such as a child (hereinafter referred to as a child). A state where three persons with C are photographed by omnidirectional photographing is shown. It is assumed that the sight line direction (sight line direction) S of the photographer A is directed to the father B.

図3Aに示すような状態で全方位撮影を行うと同図3Bに示すような撮影結果となり、撮像光学系11のイメージサークルに対応して円形の撮影結果が得られる。同図3Bでは、撮影者Aの目線方向Sに基づいて撮影者Aが撮影しようとする主要被写体、ここでは子供Cを含む父親Bを判定し、これら子供Cを含む父親Bを強調表示させるために円形の指標Fが付加されている。
図3Cに示すようにパノラマ画像上においても父親Bを強調表示させるために環状の指標Fが付加されている。
When omnidirectional shooting is performed in the state shown in FIG. 3A, a shooting result as shown in FIG. 3B is obtained, and a circular shooting result corresponding to the image circle of the imaging optical system 11 is obtained. In FIG. 3B, based on the eye line direction S of the photographer A, the main subject to be photographed by the photographer A, here, the father B including the child C, is determined, and the father B including the child C is highlighted. Is attached with a circular index F.
As shown in FIG. 3C, an annular index F is added to highlight father B on the panoramic image.

制御部20は、上記主要被写体の強調表示を実現するために画像処理部40と、顔検出部41と、目線方向判定部42と、主要被写体判定部43と、強調表示部44と、表示制御部45と、音声検出部46とを有する。なお、音声検出部46は、マイクロフォン21から出力される音声検出信号を入力し、撮影者と人物等の主要被写体との音声を検出する。
顔検出部41は、画像の陰影パターンと、記録部24に記録されている陰影パターンの画像辞書を比較して画像内の顔部を判定したり、どの人物の顔部かを判別したりできる。また、顔検出部41は、顔画像のどの部位の陰影パターンかで眼部の部分が判定可能である。
なお、目線方向判定部42は、白目や黒目の位置や大きさ、配置などを判定し、目線方向を判定する。
The control unit 20 includes an image processing unit 40, a face detection unit 41, a line-of-sight direction determination unit 42, a main subject determination unit 43, an emphasis display unit 44, and display control in order to realize the highlight display of the main subject. Unit 45 and a voice detection unit 46. The sound detection unit 46 receives a sound detection signal output from the microphone 21 and detects the sound of the photographer and the main subject such as a person.
The face detection unit 41 can compare the shadow pattern of the image with the image dictionary of the shadow pattern recorded in the recording unit 24 to determine the face part in the image, or to determine which person's face part. . Further, the face detection unit 41 can determine the part of the eye based on the shadow pattern of which part of the face image.
Note that the eye direction determination unit 42 determines the position, size, arrangement, and the like of white eyes and black eyes, and determines the eye direction.

画像処理部40は、撮像部12から出力される全方位撮影の画像データを入力し、この画像データに対してホワイトバランス補正やガンマ補正などの画像処理を施す。
顔検出部41は、全方位撮影の画像データから人物の顔部を検出する。
目線方向判定部42は、画像処理部40により取得された全方位撮影の画像データ中に撮影者が含まれると、当該撮影者Aの目線方向Sを判定する。
具体的に、目線方向判定部42は、顔検出部41により検出された全方位撮影の画像データ中の人物、ここでは人物として撮影者Aの顔部を受け取り、この撮影者Aの顔部の少なくとも鼻穴部の有無又は眼部の瞳位置のいずれか一方又は両方に基づいて目線方向Sを判定する。撮影者の判定としては、前述のように撮影される顔画像の方向や領域などから判定が可能で、顔検出結果、カメラの所持者を判別しても良い。顔部の検出が可能なら、顔部の陰影パターンから眼部の位置を判定することも可能である。
目線方向Sの判定では、目線方向判定部42は、撮影者Aの目線方向Sが本装置10側であるか否かを判定し、当該目線方向Sが本装置10側であれば、当該本装置10側の目線方向Sを図4に示すように原点方向(基準目線方向)Gとして設定する。この目線方向判定部42は、基準目線方向Gを設定した後、当該基準目線方向Gと撮影者Aの目線方向Sとを白目や黒目の配置によって比較して当該撮影者Aの目線方向Sを判定する。
The image processing unit 40 receives omnidirectional image data output from the imaging unit 12 and performs image processing such as white balance correction and gamma correction on the image data.
The face detection unit 41 detects the face of a person from omnidirectional image data.
When the photographer is included in the omnidirectional image data acquired by the image processing unit 40, the line-of-sight direction determination unit 42 determines the line-of-sight direction S of the photographer A.
Specifically, the eye direction determination unit 42 receives a person in the omnidirectional image data detected by the face detection unit 41, here, the face of the photographer A as a person, The line-of-sight direction S is determined based on at least one of or both of the presence or absence of the nostril part and the pupil position of the eye part. As for the determination of the photographer, it is possible to determine from the direction and area of the face image to be photographed as described above, and the face detection result and the camera owner may be determined. If the face can be detected, the position of the eye can be determined from the shadow pattern of the face.
In the determination of the line-of-sight direction S, the line-of-sight direction determination unit 42 determines whether or not the line-of-sight direction S of the photographer A is on the apparatus 10 side, and if the line-of-sight direction S is on the apparatus 10 side, the book The line-of-sight direction S on the apparatus 10 side is set as the origin direction (reference line-of-sight direction) G as shown in FIG. After setting the reference eye direction G, the eye direction determination unit 42 compares the eye direction G of the photographer A with the eye direction S of the photographer A to compare the eye direction S of the photographer A. judge.

すなわち、撮影者Aは、撮影者A自身、子供Cを含む父親Bを中心としてパノラマ撮影を行おうとするときに、先ず、図3Aに示すように子供Cを含む父親Bに目線を向けて本装置10の撮影範囲内に子供Cを含む父親Bと撮影者A自身とを入れる。この後、撮影者Aは、図4に示すように前面表示部27に表示されるライブビュー画像に目線を向けて本装置10の撮影範囲内に子供Cを含む父親Bと撮影者A自身とが入っていることを確認する。この後、撮影者Aは、本装置10のレリーズボタンを押し操作したり、又は前面表示部27上のタッチパネル28にタッチ操作することにより、本装置10は、撮影動作を行い、図3Bに示すような撮影結果を得ると共に、図3Cに示すようなパノラマ画像を取得する。   That is, when the photographer A intends to perform panoramic photography centering on the photographer A himself and the father B including the child C, the photographer A first looks at the father B including the child C as shown in FIG. The father B including the child C and the photographer A themselves are placed within the photographing range of the apparatus 10. Thereafter, the photographer A looks at the live view image displayed on the front display unit 27 as shown in FIG. 4 and the father B including the child C within the photographing range of the apparatus 10 and the photographer A himself / herself. Confirm that is included. Thereafter, the photographer A pushes the release button of the apparatus 10 or touches the touch panel 28 on the front display unit 27, so that the apparatus 10 performs a photographing operation, which is shown in FIG. 3B. Such a photographing result is obtained, and a panoramic image as shown in FIG. 3C is acquired.

従って、目線方向判定部42は、図4に示すように撮影者Aが目線方向Sを子供Cを含む父親Bから本装置10側に向けたときに、当該目線方向Sを基準目線方向Gとして設定する。この目線方向は、繰り返しになるが、目線そのものが判定できるものではなく、白目と黒目の配置や相対変化によって、目線を推測するものである。
基準目線方向Gを設定した後、目線方向判定部42は、当該基準目線方向Gと撮影者Aの目線方向Sとを比較して当該撮影者Aの目線方向Sを判定する。
この撮影者Aの目線方向Sを判定では、目線方向判定部42は、基準目線方向Gと撮影者Aの目線方向Sとの比較結果に基づいて撮影者Aの目線方向(眼部の部分における黒目の位置変化、または白目と黒目の配分による差異)が基準目線方向Gに対して左側、右側、又は前方のいずれかであるのかを判定する。もちろん、鼻筋のパターンや鼻の穴、顔部の輪郭パターンを基準に、黒目の位置(または白目の位置)の変化を見て判定してもよい。あるいは、白目、黒目の基準位置を定め、それとの差異から、どちらを見ているかを判断しても良い。
Accordingly, the eye direction determination unit 42 sets the eye direction S as the reference eye direction G when the photographer A directs the eye direction S from the father B including the child C toward the apparatus 10 as shown in FIG. Set. This line-of-sight direction is repeated, but the line of sight itself cannot be determined, and the line of sight is estimated by the arrangement and relative change of white and black eyes.
After setting the reference eye direction G, the eye direction determination unit 42 compares the reference eye direction G with the eye direction S of the photographer A to determine the eye direction S of the photographer A.
In determining the line-of-sight direction S of the photographer A, the line-of-sight direction determination unit 42 is based on the comparison result between the reference line-of-sight direction G and the line-of-sight direction S of the photographer A (in the eye portion). It is determined whether the change in the position of the black eye or the difference between the distribution of the white eye and the black eye) is on the left side, the right side, or the front side with respect to the reference eye direction G. Of course, the determination may be made by looking at the change in the position of the black eye (or the position of the white eye) on the basis of the pattern of the nose muscles, the hole of the nose and the contour pattern of the face. Alternatively, a reference position for white eyes and black eyes may be determined, and it may be determined which one is being viewed from the difference between the reference positions.

又、目線方向判定部42は、上記判定した撮影者Aの目線方向Sに有る人物等の主要被写体と、音声検出部46により検出される撮影者Aと人物等の主要被写体との音声と、これら撮影者A及び人物等の主要被写体の各画像とに基づいて撮影者Aと人物等の主要被写体との間で会話があると判定すると、撮影者Aの瞳位置と、上記判定された左側、右側、又は前方のいずれかの目線方向Sとを関連付け、この関連付けのデータを内部メモリ等に記憶する。この関連付けのデータは、例えばメモリカードなどの記録部24に記録してもよい。   In addition, the eye direction determination unit 42 determines the main subject such as a person in the eye direction S of the photographer A determined as described above, and the sound of the photographer A and the main subject such as a person detected by the sound detection unit 46. If it is determined that there is a conversation between the photographer A and the main subject such as a person based on the photographer A and each image of the main subject such as a person, the pupil position of the photographer A and the determined left side The right eye direction or the forward eye direction S is associated, and the data of this association is stored in an internal memory or the like. The association data may be recorded in the recording unit 24 such as a memory card.

ここで、撮影者Aの目線方向Sの基準目線方向Gの設定と、撮影者Aの目線方向Sの判定の一例について説明する。
目線方向判定部42は、上記の通り、画像処理部40により取得された画像データ中の撮影者Aの顔部における鼻穴部の有無、又は眼部の瞳位置のいずれか一方又は両方に基づいて目線方向Sを判定するときの具体例について説明する。
Here, an example of setting of the reference eye direction G of the photographer A's eye direction S and determination of the eye direction S of the photographer A will be described.
As described above, the eye direction determination unit 42 is based on one or both of the presence or absence of a nostril portion in the face of the photographer A and the pupil position of the eye in the image data acquired by the image processing unit 40. A specific example of determining the eye direction S will be described.

図5Aは撮影者Aの目線方向Sが本装置10の前面表示部27に向けられていることを示す。この目線方向Sは、本装置10の撮影光学系11に向けられているものと略等しい。このときに撮影者Aの目線方向Sが本装置10の前面表示部27に向けられているときを基準目線方向Gとするが、このときの撮影者Aの顔部は、全面的に下向きにある。このため、本装置10の撮影光学系11を通して撮像部12により撮影される画像には、撮影者Aの顔部の鼻穴部が殆ど撮影されないものとなる。   FIG. 5A shows that the line-of-sight direction S of the photographer A is directed to the front display unit 27 of the apparatus 10. This line-of-sight direction S is substantially equal to that directed to the photographing optical system 11 of the apparatus 10. At this time, when the photographer A's line-of-sight direction S is directed to the front display unit 27 of the present apparatus 10, the reference line-of-sight direction G is used. is there. For this reason, in the image photographed by the imaging unit 12 through the photographing optical system 11 of the apparatus 10, the nostril portion of the photographer A's face is hardly photographed.

これに対して図5Bは撮影者Aの目線方向Sが図3Aに示すように子供Cを含む父親Bに向けられていることを示す。このときの撮影者Aの顔部は、全面的に上向きにある。これにより、本装置10の撮影光学系11を通して撮像部12により撮影される画像には、撮影者Aの鼻穴部が撮影されるものとなる。   On the other hand, FIG. 5B shows that the line-of-sight direction S of the photographer A is directed to the father B including the child C as shown in FIG. 3A. The face of the photographer A at this time is entirely upward. As a result, the nostril portion of the photographer A is photographed in the image photographed by the imaging unit 12 through the photographing optical system 11 of the apparatus 10.

従って、目線方向判定部42は、図5Aに示すように画像処理部40により取得された画像データ中に撮影者Aの鼻穴部が撮影されていれば、撮影者Aの目線方向Sが本装置10の前面表示部27に向けられていると判定し、このときの目線方向Sを基準目線方向Gに設定する。
なお、目線方向判定部42は、図5Bに示すように画像処理部40により取得された画像データ中に撮影者Aの鼻穴部が撮影されていなければ、撮影者Aの目線方向Sが子供Cを含む父親Bに向けられていると判定し、基準目線方向Gの設定を行わない。
Therefore, if the nose portion of the photographer A is captured in the image data acquired by the image processing unit 40 as shown in FIG. It is determined that it is directed to the front display unit 27 of the apparatus 10, and the line-of-sight direction S at this time is set as the reference line-of-sight direction G.
As shown in FIG. 5B, the eye direction determination unit 42 determines that the eye direction S of the photographer A is a child if the nostril portion of the photographer A is not photographed in the image data acquired by the image processing unit 40. It is determined that it is directed toward the father B including C, and the reference eye direction G is not set.

次に、目線方向判定部42によって画像データ中の撮影者Aの顔部における眼部の瞳位置に基づいて目線方向Sを判定するときの具体例について説明する。
図6Aは撮影者Aの目線方向Sが子供Cを含む父親Bに向けられていることを示す。このとき、本装置10の撮影光学系11を通して撮像部12により撮影される画像には、撮影者Aの眼部が瞳とこの瞳の周囲の白目とが撮影されるものとなる。
Next, a specific example in which the eye direction S is determined by the eye direction determination unit 42 based on the pupil position of the eye in the face of the photographer A in the image data will be described.
FIG. 6A shows that the line-of-sight direction S of the photographer A is directed to the father B including the child C. At this time, in the image photographed by the imaging unit 12 through the photographing optical system 11 of the present apparatus 10, the eye of the photographer A is photographed with the pupil and white eyes around the pupil.

図6Bは撮影者Aの目線方向Sが子供Cを含む父親Bよりも上方に向けられていることを示す。このとき、撮像部12により撮影される画像には、撮影者Aの眼部が瞳と白目とが2つの領域、例えば瞳位置が上方で白目位置が下方の2つの領域で撮影されるものとなる。
図6Cは撮影者Aの目線方向Sが本装置10の前面表示部27に向けられていると判定し、目線方向Sを基準目線方向Gに設定する。このとき、撮像部12により撮影される画像には、撮影者Aの眼部が瞳と白目とが2つの領域、例えば瞳位置が下方で白目位置が上方の2つの領域で撮影されるものとなる。
FIG. 6B shows that the line-of-sight direction S of the photographer A is directed higher than the father B including the child C. At this time, the image photographed by the imaging unit 12 is that the eye of the photographer A is photographed in two regions of the pupil and white eye, for example, two regions of the pupil position above and the white eye position below. Become.
FIG. 6C determines that the line-of-sight direction S of the photographer A is directed to the front display unit 27 of the apparatus 10, and sets the line-of-sight direction S to the reference line-of-sight direction G. At this time, the image photographed by the imaging unit 12 is that the eye of the photographer A is photographed in two regions of the pupil and the white eye, for example, two regions of the pupil position below and the white eye position above. Become.

従って、目線方向判定部42は、図6Cに示すように画像処理部40により取得された画像データ中に例えば瞳位置が下方で白目位置が上方の2つの領域で撮影されていれば、撮影者Aの目線方向Sが本装置10の前面表示部27に向けられていると判定し、このときの目線方向Sを基準目線方向Gに設定する。なお、図6A及び図6Bに示す状態では、基準目線方向Gの設定が行われない。   Therefore, as shown in FIG. 6C, the eye direction determination unit 42 shoots the photographer if the image data acquired by the image processing unit 40 is captured in, for example, two regions where the pupil position is lower and the white eye position is upper. It is determined that the line-of-sight direction S of A is directed to the front display unit 27 of the apparatus 10, and the line-of-sight direction S at this time is set as the reference line-of-sight direction G. In the state shown in FIGS. 6A and 6B, the reference eye direction G is not set.

次に、目線方向判定部42によって撮影者Aの目線方向が基準目線方向Gに対して左側、右側、又は前方のいずれかであるのかを判定するときの具体例について説明する。
図7A乃至図7Cは撮影者Aの顔部が前方を向いて眼部の瞳だけ前方、左方向(左側)、右方向(右側)に向けた場合を示し、図7Aは撮影者Aの目線方向Sが前方に有ることを示す。なお、撮影者Aは、本装置10の撮影光学系11に対して正面を向いた状態で撮影されており、撮影者Aの鼻部の鼻筋Hは、両眼部の間に存在する。目線方向判定部42は、画像処理部40により取得された画像データ上において眼部の中心に瞳が位置し、当該瞳を中心に左右両側に略均等に白目部が撮影されていることから、撮影者Aの目線方向Sが前方に有ることを判定する。
Next, a specific example when the eye direction determination unit 42 determines whether the eye direction of the photographer A is on the left side, the right side, or the front side with respect to the reference eye direction G will be described.
FIGS. 7A to 7C show the case where the face of the photographer A faces forward and only the pupil of the eye is directed forward, leftward (left side), and rightward (right side). FIG. It shows that the direction S is ahead. Note that the photographer A is photographed in a state of facing the front with respect to the photographing optical system 11 of the apparatus 10, and the nose muscle H of the nose portion of the photographer A exists between both eyes. The eye direction determination unit 42 has a pupil located at the center of the eye part on the image data acquired by the image processing unit 40, and the white eye part is photographed substantially equally on both the left and right sides of the pupil. It is determined that the line-of-sight direction S of the photographer A is ahead.

図7Bは撮影者Aの目線方向Sが自身から向かって左側に有ることを示す。目線方向判定部42は、画像処理部40により取得された画像データ上において眼部の右側に瞳が位置し、当該瞳の左側に白目部が撮影されていることから、撮影者Aの目線方向Sが自身から向かって左側に有ることを判定する。
図7Cは撮影者Aの目線方向Sが自身から向かって右側に有ることを示す。目線方向判定部42は、画像処理部40により取得された画像データ上において眼部の左側に瞳が位置し、当該瞳の右側に白目部が撮影されていることから、撮影者Aの目線方向Sが自身から向かって右側に有ることを判定する。
FIG. 7B shows that the line-of-sight direction S of the photographer A is on the left side from the self. Since the pupil is positioned on the right side of the eye part and the white eye part is photographed on the left side of the pupil on the image data acquired by the image processing unit 40, the eye direction determination unit 42 has the eye direction of the photographer A. It is determined that S is on the left side from itself.
FIG. 7C shows that the line-of-sight direction S of the photographer A is on the right side from the self. Since the pupil is positioned on the left side of the eye part on the image data acquired by the image processing unit 40 and the white eye part is captured on the right side of the pupil, the eye direction determination unit 42 has the eye direction of the photographer A. It is determined that S is on the right side from itself.

図8A及び図8Bは撮影者Aの顔部が横方向に向いて眼部の瞳が左方向(左側)、右方向(右側)に向けた場合を示す。このうち図8Aは撮影者Aの目線方向Sが自身から向かって左側に有ることを示す。目線方向判定部42は、画像処理部40により取得された画像データ上において眼部の右側に瞳が位置し、当該瞳の左側に白目部が撮影されていることから、撮影者Aの目線方向Sが自身から向かって左側に有ることを判定する。
図8Bは撮影者Aの目線方向Sが自身から向かって右側に有ることを示す。目線方向判定部42は、画像処理部40により取得された画像データ上において眼部の左側に瞳が位置し、当該瞳の右側に白目部が撮影されていることから、撮影者Aの目線方向Sが自身から向かって右側に有ることを判定する。
8A and 8B show a case where the face of the photographer A faces in the lateral direction and the pupil of the eye part faces in the left direction (left side) and right direction (right side). Among these, FIG. 8A shows that the line-of-sight direction S of the photographer A is on the left side from the self. Since the pupil is positioned on the right side of the eye part and the white eye part is photographed on the left side of the pupil on the image data acquired by the image processing unit 40, the eye direction determination unit 42 has the eye direction of the photographer A. It is determined that S is on the left side from itself.
FIG. 8B shows that the line-of-sight direction S of the photographer A is on the right side of the photographer A. Since the pupil is positioned on the left side of the eye part on the image data acquired by the image processing unit 40 and the white eye part is captured on the right side of the pupil, the eye direction determination unit 42 has the eye direction of the photographer A. It is determined that S is on the right side from itself.

主要被写体判定部43は、目線方向判定部42により判定された目線方向Sに基づいて撮影者Aが撮影しようとする被写体中の主要被写体、すなわち目線方向Sの延長線上に存在する例えば図3B及び図3Cに示すような子供Cを含む父親Bを判定する。
この主要被写体判定手段43は、撮影者Aの鼻穴部が有る上に瞳位置が下方向きでかつ撮影者Aの鼻筋及び瞳位置にずれが無い、又は撮影者の鼻穴部が無いけれども瞳位置に上下方向のずれが無くかつ撮影者Aの鼻筋及び瞳位置にずれが無ければ、撮影者Aの目線方向Sが本装置10側であると判定する。
The main subject determination unit 43 exists on the main subject in the subject to be photographed by the photographer A based on the eye direction S determined by the eye direction determination unit 42, that is, on the extension line of the eye direction S, for example, FIG. A father B including a child C as shown in FIG. 3C is determined.
This main subject determination means 43 has the nostril portion of the photographer A, the pupil position is downward, and there is no deviation in the nose and pupil positions of the photographer A, or there is no nostril portion of the photographer. If there is no vertical displacement in the position and there is no deviation in the nose and pupil positions of the photographer A, it is determined that the line-of-sight direction S of the photographer A is on the apparatus 10 side.

強調表示部44は、主要被写体判定部43により判定された主要被写体を強調表示する。具体的に強調表示部44は、画像処理部40により取得された画像データ中の主要被写体、例えば図3B及び図3Cに示すような子供Cを含む父親Bに対応する画像領域に対して強調用の画像処理、例えば子供Cを含む父親B等の主要被写体に対して強調用の指標を付加する、主要被写体の配置位置を変える、又は主要被写体に対応する領域の濃淡レベルを相対的に変えることのうち少なくとも1つを行う。
強調用の指標Fは、例えば図3B及び図3Cに示すようにパノラマ画像上においても子供Cを含む父親Bを強調表示させるための環状に形成された指標Fである。この指標Fは、環状に限らず、楕円状、四角形状等の他の形状でもよい。又、指標Fとしては、子供Cを含む父親B等の主要被写体の画像データ上での配置位置を変えてもよく、さらに子供Cを含む父親B等の主要被写体の領域の濃淡レベルを変えて例えば同領域の輝度を高くする、又は、子供Cを含む父親B等の主要被写体に対してスポットライトを照射したように画像処理する、さらにはコントラストを低下させる、露出を変える等を行うようにしてもよい。
The highlight display unit 44 highlights the main subject determined by the main subject determination unit 43. Specifically, the highlighting unit 44 is for emphasizing an image region corresponding to a main subject in the image data acquired by the image processing unit 40, for example, a father B including a child C as shown in FIGS. 3B and 3C. Image processing, for example, an index for emphasis is added to a main subject such as a father B including a child C, an arrangement position of the main subject is changed, or a gray level of a region corresponding to the main subject is relatively changed At least one of the following.
The highlighting index F is, for example, an index F formed in an annular shape for highlighting the father B including the child C on the panoramic image as shown in FIGS. 3B and 3C. The index F is not limited to an annular shape, and may be another shape such as an elliptical shape or a rectangular shape. Further, as the index F, the arrangement position on the image data of the main subject such as the father B including the child C may be changed, and further, the gray level of the area of the main subject such as the father B including the child C may be changed. For example, the brightness of the same area is increased, or image processing is performed so that a main subject such as father B including child C is irradiated with a spotlight, and further, contrast is lowered, exposure is changed, and the like. May be.

この強調表示部44は、画像データ中において主要被写体を強調表示する強調範囲が設定されている。図9は本装置10により取得されるパノラマ画像における縦幅を角度φに設定する。この縦幅の角度φは、例えば本装置10を主要被写体である父親Bの胸部の高さ位置に配置して撮影したときに、本装置10と父親Bの胸部の高さ位置とを結ぶ水平ラインに対して下側の角度−10°、上側の角度50°の角度範囲(−10°〜50°=60°)とする。なお、指標Fにより強調する範囲は、当該角度範囲(−10°〜50°=60°)で行うと、強調する領域が分かりにくくなるので、例えば角度範囲60°の半分の30°の範囲に設定する。   The highlighting section 44 has a highlight range for highlighting the main subject in the image data. FIG. 9 sets the vertical width of the panoramic image acquired by the apparatus 10 to the angle φ. For example, when the apparatus 10 is photographed by placing the apparatus 10 at the height position of the chest of the father B as the main subject, the horizontal angle linking the apparatus 10 and the height position of the chest of the father B is set. An angle range (−10 ° to 50 ° = 60 °) with a lower angle of −10 ° and an upper angle of 50 ° with respect to the line. It should be noted that if the range emphasized by the index F is performed within the angle range (−10 ° to 50 ° = 60 °), the emphasized region becomes difficult to understand. For example, the range emphasized to 30 °, which is half of the angle range 60 °. Set.

指標Fは、例えば楕円状した場合、図10に示すように複数の人物から成る一群の人物Dを撮影したとき、この一群の人物Dの中心部に対して上側25°、下側10°を強調範囲として設定する。
ここで、指標Fによる強調範囲の設定の根拠について図11を参照して説明する。
撮影者Aは、本装置10を持って例えば地上からの高さ1.2mで人物E等の主要被写体を撮影するものとする。人物Eの伸長は、例えば1.7mとし、本装置10と人物Eとの間隔が例えば1mで撮影を行うものとする。又、本装置10の撮影光学系11の高さ位置から水平方向Jに辿ると人物Eの胸部の高さ位置に対応するものとする。
このような条件で、本装置10により人物Eを撮影して、当該人物Eの胸部から顔部が撮影範囲に入るためには、水平方向Jに対して上側の角度θ(=25°)が必要になる。なお、θ=arctan(0.5)≒25°となる。但し、人物Eの胸部から顔部までのみが撮影されると、人物Eの背景がなく、画像の鑑賞として適切でないところがあるので、角度θを倍加して上側の角度50°としている。
For example, when the index F is an ellipse, when a group of persons D composed of a plurality of persons are photographed as shown in FIG. 10, the upper side is 25 ° and the lower side is 10 ° with respect to the center of the group of persons D. Set as the emphasis range.
Here, the basis for setting the emphasis range by the index F will be described with reference to FIG.
Assume that the photographer A photographs the main subject such as the person E with the apparatus 10 at a height of 1.2 m from the ground. The extension of the person E is, for example, 1.7 m, and shooting is performed with the distance between the apparatus 10 and the person E being, for example, 1 m. Further, tracing in the horizontal direction J from the height position of the photographing optical system 11 of the apparatus 10 corresponds to the height position of the chest of the person E.
Under such conditions, in order to photograph the person E by the apparatus 10 and the face part from the chest of the person E enters the photographing range, an upper angle θ (= 25 °) with respect to the horizontal direction J is set. I need it. Note that θ = arctan (0.5) ≈25 °. However, if only the chest from the face of the person E is photographed, there is no background of the person E and there is a place that is not suitable for viewing the image, so the angle θ is doubled to make the upper angle 50 °.

又、強調表示部44は、音声検出部46による音声の検出が無く、かつ目線方向判定部42によって主要被写体が複数の人物から成る人物群であると判定すると、人物群に対して強調表示を行う。
表示制御部45は、画像処理部40により取得された画像データ、例えばライブビュー画像やパノラマ画像等を前面表示部27や背面表示部29に表示する。
Further, when the highlight display unit 44 determines that there is no sound detected by the sound detection unit 46 and the main subject is a group of persons consisting of a plurality of persons by the eye direction determination unit 42, the highlight display unit 44 displays a highlight display on the group of people. Do.
The display control unit 45 displays the image data acquired by the image processing unit 40, such as a live view image or a panoramic image, on the front display unit 27 or the rear display unit 29.

次に、上記の如く構成された装置の動作について図12に示すカメラ制御フローチャートに従って説明する。
制御部20は、ステップS101において、撮影モードに設定されているか否かを判定する。この判定の結果、撮影モードに設定されていれば、制御部20は、ステップS102において、撮影光学系11を備える回転撮像体13が天頂向きになっているか否かを判定する。この判定の結果、天頂向きであれば、制御部20は、ステップS103において、被写体のライブビュー画像等を前面表示部27や背面表示部29に表示する。すなわち、撮像光学系11は、魚眼レンズとしての機能を持つ複数枚のレンズによって光軸Pの周りの全周にわたる視野領域の光を捉える。撮像部12は、撮像光学系11により捉えられた光を電気的なアナログ信号に変換し、このアナログ信号をデジタル信号に変換して画像データとする。画像処理部40は、撮像部12から出力される全方位撮影の画像データを入力し、この画像データに対してホワイトバランス補正やガンマ補正などの画像処理を施す。表示制御部45は、画像処理部40により取得された画像データ、ここではライブビュー画像を前面表示部27又は背面表示部29に表示する。
Next, the operation of the apparatus configured as described above will be described according to the camera control flowchart shown in FIG.
In step S101, the control unit 20 determines whether or not the shooting mode is set. If the result of this determination is that shooting mode has been set, the control unit 20 determines in step S102 whether or not the rotary imaging body 13 including the shooting optical system 11 is facing the zenith. If the result of this determination is that it is facing the zenith, the control unit 20 displays a live view image of the subject on the front display unit 27 and the rear display unit 29 in step S103. In other words, the imaging optical system 11 captures light in the visual field region over the entire circumference around the optical axis P by a plurality of lenses having a function as a fisheye lens. The imaging unit 12 converts light captured by the imaging optical system 11 into an electrical analog signal, converts the analog signal into a digital signal, and generates image data. The image processing unit 40 receives omnidirectional image data output from the imaging unit 12 and performs image processing such as white balance correction and gamma correction on the image data. The display control unit 45 displays the image data acquired by the image processing unit 40, here the live view image, on the front display unit 27 or the rear display unit 29.

なお、上記ステップS101での判定の結果、撮影モードでなく他のモード、例えば再生モードに設定されていれば、制御部20は、当該再生モードに移る。又、上記ステップS102での判定の結果、撮影光学系11を備える回転撮像体13が天頂向きでなければ、制御部20は、ステップS104において、通常撮影モードに移る。   Note that, as a result of the determination in step S101, if the mode is not the shooting mode but another mode, for example, the playback mode, the control unit 20 moves to the playback mode. If the result of determination in step S <b> 102 is that the rotating imaging body 13 including the imaging optical system 11 is not facing the zenith, the control unit 20 proceeds to the normal imaging mode in step S <b> 104.

制御部20は、ステップS105において、ライブビュー画像を表示しているのが前面表示部27であるか否か、すなわち本装置10において撮影光学系11が設けられている前面側の前面表示部27においてライブビュー画像を表示しているのかを確認する。なお、ライブビュー画像の表示が背面表示部29であれば、制御部20は、ライブビュー画像の表示を前面表示部27に切り替える。   In step S105, the control unit 20 determines whether or not it is the front display unit 27 that displays the live view image, that is, the front side front display unit 27 provided with the photographing optical system 11 in the present apparatus 10. Confirm that the live view image is being displayed. If the display of the live view image is the rear display unit 29, the control unit 20 switches the display of the live view image to the front display unit 27.

この後、制御部20の目線方向判定部42は、ステップS111において、画像処理部40により取得された全方位撮影の画像データ中に撮影者が含まれると、当該撮影者Aの目線方向Sを判定し、この目線方向Sが本装置10側(カメラ側)であるか否かを判定する。すなわち、撮影者Aは、例えば図3Aに示すように撮影者A自身、子供Cを含む父親Bを中心としてパノラマ撮影を行うときに、目線を図4に示すように本装置10におけるライブビュー画像が表示されている前面表示部27側、又は子供Cを含む父親B側に向けられる。   Thereafter, when the photographer is included in the omnidirectional image data acquired by the image processing unit 40 in step S111, the eye direction determination unit 42 of the control unit 20 determines the eye direction S of the photographer A. It is determined, and it is determined whether or not the eye direction S is the apparatus 10 side (camera side). That is, for example, when the photographer A performs panoramic photographing centering on the photographer A himself / herself and the father B including the child C as shown in FIG. 3A, the live view image in the apparatus 10 is shown in FIG. Is directed to the front display 27 side on which is displayed or the father B side including the child C.

このような状況において、撮影者Aの目線方向Sが本装置10側であるか否かの判定では、目線方向判定部42は、図5Aに示すように画像処理部40により取得された画像データ中に撮影者Aの鼻穴部が撮影されていれば、撮影者Aの目線方向Sが本装置10の前面表示部27(本装置10側)に向けられていると判定する。
この結果、目線方向判定部42は、ステップS112において、図5Aに示すように本装置10の前面表示部27(本装置10側)に向けられている撮影者Aの目線方向Sを基準目線方向Gとして設定する。
目線方向判定部42は、基準目線方向Gを設定したときの撮影者Aの顔部を含む画像データを撮影者Aの顔部の初期パターンとして例えば記録部24等に記録する。この撮影者Aの顔部の初期パターンの画像データは、上記画像処理部40により取得された画像データ中から顔検出部41が撮影者Aの顔部を検出すると、当該画像データに撮影者Aの顔部が含まれるものとして取得される。
顔検出部41は、画像の陰影パターンと、記録部24に記録されている陰影パターンの画像辞書を比較して画像内の顔部を判定したり、どの人物の顔部かを判別したりできる。
In such a situation, in determining whether or not the eye direction S of the photographer A is on the apparatus 10 side, the eye direction determination unit 42 obtains the image data acquired by the image processing unit 40 as shown in FIG. 5A. If the nostril portion of the photographer A is photographed, it is determined that the line-of-sight direction S of the photographer A is directed to the front display unit 27 (the device 10 side) of the device 10.
As a result, the line-of-sight direction determination unit 42 determines the line-of-sight direction S of the photographer A that is directed to the front display unit 27 (the apparatus 10 side) of the apparatus 10 as shown in FIG. Set as G.
The line-of-sight direction determination unit 42 records image data including the face of the photographer A when the reference line-of-sight direction G is set as an initial pattern of the face of the photographer A, for example, in the recording unit 24 or the like. The image data of the initial pattern of the photographer A's face is captured in the photographer A when the face detection unit 41 detects the photographer A's face from the image data acquired by the image processing unit 40. It is acquired that the face part is included.
The face detection unit 41 can compare the shadow pattern of the image with the image dictionary of the shadow pattern recorded in the recording unit 24 to determine the face part in the image, or to determine which person's face part. .

目線方向判定部42は、ステップS113において、撮影者Aの目線方向Sが基準目線方向Gに対して左側、右側、又は前方のいずれかであるのかの判定、すなわち撮影者Aの目線方向Sの向きの判定が既に行われたか否かを判定する。
ここでは、撮影者Aの目線方向Sが基準目線方向Gに対して左側、右側、又は前方のいずれかであるのかの判定が未だ行われていないので、制御部20は、ステップS115を経てステップS102に戻り、再びステップS111において、撮影者Aの目線方向Sが本装置10側(カメラ側)であるか否かを判定する。
In step S113, the line-of-sight direction determination unit 42 determines whether the line-of-sight direction S of the photographer A is the left side, the right side, or the front with respect to the reference line-of-sight direction G, that is, the line-of-sight direction S of the photographer A. It is determined whether or not the orientation has already been determined.
Here, since it is not yet determined whether the sight line direction S of the photographer A is the left side, the right side, or the front side with respect to the reference sight line direction G, the control unit 20 performs step S115 through step S115. Returning to S102, in Step S111 again, it is determined whether or not the eye direction S of the photographer A is the apparatus 10 side (camera side).

このとき、撮影者Aの目線方向Sは本装置10側であることの判定が済んでいるので、目線方向判定部42は、ステップS121において、撮影者Aの顔部の初期パターンが記録されているか否かを判定する。
この判定の結果、撮影者Aの顔部の初期パターンは、既に上記ステップS112において記録されているので、目線方向判定部42は、ステップS122において、撮影者Aの顔部の初期パターンと現時点で上記画像処理部40により取得される画像データ中の撮影者Aの顔部(以下、現時点の撮影者Aの顔部と称する)とを比較する。
At this time, since it has been determined that the eye direction S of the photographer A is on the apparatus 10 side, the eye direction determination unit 42 records the initial pattern of the face of the photographer A in step S121. It is determined whether or not.
As a result of this determination, since the initial pattern of the photographer A's face has already been recorded in step S112, the eye direction determination unit 42 determines the initial pattern of the photographer A's face and the current pattern in step S122. The face part of the photographer A in the image data acquired by the image processing unit 40 (hereinafter referred to as the current photographer A's face part) is compared.

この比較の結果、目線方向判定部42は、ステップS123において、現時点の撮影者Aの顔部が撮影者Aの顔部の初期パターンよりも上向き、すなわち図6Bに示すように撮影者Aの目線方向Sが子供Cを含む父親Bよりも上方に向けられているか否かを判定する。この判定の結果、現時点の撮影者Aの顔部が上向きでなければ、目線方向判定部42は、ステップS124において、上向きの判定が無いものとして、ステップS115を通してステップS102に戻る。   As a result of this comparison, in step S123, the line-of-sight direction determination unit 42 causes the current photographer A's face to face upward from the initial pattern of the photographer A's face, that is, as illustrated in FIG. It is determined whether or not the direction S is directed higher than the father B including the child C. If the result of this determination is that the current photographer's A face is not upward, the eye direction determination unit 42 returns to step S102 through step S115, assuming that there is no upward determination in step S124.

現時点の撮影者Aの顔部が上向きであれば、目線方向判定部42は、ステップS131において、現時点の撮影者Aの顔部が撮影者Aの顔部の初期パターンに対して右向き、すなわち図7Cに示すように撮影者Aの目線方向Sが自身から向かって右側に有るか否かを判定する。この判定の結果、現時点の撮影者Aの顔部が右向きであれば、目線方向判定部42は、ステップS132において、現時点の撮影者Aの顔部が右向きであると判定する。   If the current photographer A's face is upward, the line-of-sight direction determination unit 42 determines that the current photographer A's face is rightward with respect to the initial pattern of the photographer A's face in step S131. As shown in 7C, it is determined whether or not the sight line direction S of the photographer A is on the right side of the photographer A. As a result of the determination, if the current photographer A's face is facing right, the eye direction determination unit 42 determines in step S132 that the current photographer A's face is facing right.

一方、現時点の撮影者Aの顔部が右向きでなければ、目線方向判定部42は、ステップS133において、現時点の撮影者Aの顔部が撮影者Aの顔部の初期パターンに対して左向き、すなわち図7Bに示すように撮影者Aの目線方向Sが自身から向かって左側に有るか否かを判定する。この判定の結果、現時点の撮影者Aの顔部が左向きであれば、目線方向判定部42は、ステップS134において、現時点の撮影者Aの顔部が左向きであると判定する。   On the other hand, if the current photographer A's face is not facing right, the eye direction determination unit 42 determines in step S133 that the current photographer A's face is facing left relative to the initial pattern of the photographer A's face. That is, as shown in FIG. 7B, it is determined whether or not the sight line direction S of the photographer A is on the left side of the photographer A. As a result of this determination, if the current photographer A's face is facing left, the eye direction determination unit 42 determines that the current photographer A's face is facing left in step S134.

現時点の撮影者Aの顔部が左向きでなければ、既に現時点の撮影者Aの顔部が右向きでないことの判定がなされているので(ステップS131)、目線方向判定部42は、ステップS135において、現時点の撮影者Aの顔部が前方を向いているものと判定する。
以上の処理により目線方向判定部42は、撮影者Aの目線方向Sが基準目線方向Gに対して左側、右側、又は前方のいずれかであるのかの撮影者Aの目線方向Sの向きの判定を終了する。
If the current photographer A's face is not facing left, since it is already determined that the current photographer A's face is not facing right (step S131), the line-of-sight direction determining unit 42 determines in step S135. It is determined that the current photographer A's face is facing forward.
With the above processing, the eye direction determination unit 42 determines the direction of the eye direction S of the photographer A as to whether the eye direction S of the photographer A is on the left side, the right side, or the front with respect to the reference eye direction G. Exit.

制御部20は、ステップS115を通してステップS102に戻り、再びステップS113において、撮影者Aの目線方向Sが基準目線方向Gに対して左側、右側、又は前方のいずれかであるのかの向きの判定が終了しているか否かの判定の後、当該判定が既に終了していることから、ステップS114に移る。
このステップS114では、主要被写体判定部43は、目線方向判定部42により判定された目線方向Sに基づいて撮影者Aが撮影しようとする被写体中の主要被写体、例えば図3B及び図3Cに示すような子供Cを含む父親Bを判定する。
強調表示部44は、画像処理部40により取得された画像データ中の主要被写体、例えば図3B及び図3Cに示すような子供Cを含む父親Bに対応する画像領域に対して強調用の画像処理、例えば子供Cを含む父親B等の主要被写体に対して強調用の指標を付加する、主要被写体の配置位置を変える、又は主要被写体に対応する領域の濃淡レベルを相対的に変えることのうち少なくとも1つを行う。この強調用の指標Fは、例えば、図3B及び図3Cに示すようにパノラマ画像上においても子供Cを含む父親Bを強調表示させるための環状に形成されている。この強調用の指標Fの付加された画像データは、ライブビュー画像として前面表示部27に表示される。
The control unit 20 returns to step S102 through step S115, and in step S113 again, the direction determination of whether the eye direction S of the photographer A is on the left side, the right side, or the front side with respect to the reference eye direction G is performed. After the determination as to whether or not the process has been completed, since the determination has already been completed, the process proceeds to step S114.
In this step S114, the main subject determining unit 43, as shown in FIGS. 3B and 3C, for example, main subjects in the subject to be photographed by the photographer A based on the eye direction S determined by the eye direction determining unit 42. A father B including a child C is determined.
The emphasis display unit 44 performs image processing for emphasis on an image region corresponding to a main subject in the image data acquired by the image processing unit 40, for example, a father B including a child C as shown in FIGS. 3B and 3C. For example, at least of adding an index for emphasis to a main subject such as father B including child C, changing the arrangement position of the main subject, or relatively changing the gray level of an area corresponding to the main subject Do one. For example, as shown in FIGS. 3B and 3C, the highlighting index F is formed in a ring shape for highlighting the father B including the child C on the panoramic image. The image data to which the emphasis index F is added is displayed on the front display unit 27 as a live view image.

制御部20は、ステップS115において、撮影を行うか否かを判定する。すなわち、操作判定部22のレリーズボタンに対する押し操作、又は前面側タッチパネル28に対してタッチ操作されると、制御部20は、当該操作時のパノラマの画像データが記録部24に記録される。すなわち、図3Aに示すように全方位撮影を行うと、同図3Bに示すような撮像光学系11のイメージサークルに対応する円形の撮影結果となり、この撮影結果上に、撮影者Aの目線方向Sに基づいて撮影者Aが撮影しようとする主要被写体、ここでは子供Cを含む父親Bを判定し、これら子供Cを含む父親Bを強調表示させるために円形の指標Fが付加される。制御部20は、撮像光学系11のイメージサークルに対応する円形の撮影結果を展開して図3Cに示すようなパノラマ画像とし、当該パノラマ画像上に父親Bを強調表示させるために環状の指標Fを付加する。   In step S115, the control unit 20 determines whether to perform shooting. That is, when the release button of the operation determination unit 22 is pressed or the front touch panel 28 is touched, the control unit 20 records the panoramic image data at the time of the operation in the recording unit 24. That is, when omnidirectional shooting is performed as shown in FIG. 3A, a circular shooting result corresponding to the image circle of the imaging optical system 11 as shown in FIG. 3B is obtained. Based on S, a main subject to be photographed by the photographer A, here, a father B including the child C, is determined, and a circular index F is added to highlight the father B including the child C. The control unit 20 develops a circular imaging result corresponding to the image circle of the imaging optical system 11 to form a panoramic image as shown in FIG. 3C, and an annular index F for highlighting the father B on the panoramic image. Is added.

次に、目線方向判定部42による撮影者Aの目線方向Sが本装置10側であるか否かの具体的な判定について図13に示す本装置側目線方向の判定フローチャートを参照して説明する。目線方向(特にユーザの)とは、本来、図5Aや図5BにおけるSのような矢印で表されるものだが、この矢印そのものが検出できるものではない。そこで、この実施の形態では、鼻筋や眼部の陰影部から顔部の向きを検出し、白目や黒目の配置を考慮して、この矢印方向を判定している。例えば、図7Aのように、鼻筋が中心で、眼部がそれに対して対象であれば、図5Aや図5Bに相当する目線だと判定する。このとき、鼻の穴のパターンが判定できなければ、図5Aの目線だと判定できる。例えば、これを基準目線として記録しておき、これと比べることによって他の方向の目線を推測してもよい。また、鼻の穴が検出できれば図5Bの視線だと推測できる。左右に視線が動く場合は、黒目の位置が鼻筋に対して、どちらに偏るかで判定できる。このような類推をすべて(ユーザの)目線方向判定として以下、説明を続ける。
目線方向判定部42は、ステップS201において、画像処理部40により取得された画像データにおいて、操作判定部22が設けられている側に対応する画像領域内に存在する顔部、すなわち撮影者Aの顔部を顔検出部41により検出する。なお、顔部が検出されなければ、目線方向判定部42は、撮影者Aの目線方向Sが本装置10側であるか否かの判定を終了する。
Next, specific determination of whether or not the eye direction S of the photographer A is on the apparatus 10 side by the eye direction determination unit 42 will be described with reference to the apparatus side eye direction determination flowchart shown in FIG. . The line-of-sight direction (especially the user) is originally represented by an arrow such as S in FIGS. 5A and 5B, but this arrow itself cannot be detected. Therefore, in this embodiment, the direction of the face is detected from the nose and the shadow of the eye, and the direction of the arrow is determined in consideration of the arrangement of white eyes and black eyes. For example, as shown in FIG. 7A, if the nose is at the center and the eye part is the target, it is determined that the line of sight corresponds to FIGS. 5A and 5B. At this time, if the pattern of the nostril cannot be determined, it can be determined that the line of sight is in FIG. 5A. For example, this may be recorded as a reference line of sight, and a line of sight in another direction may be estimated by comparing with this. If the nostril can be detected, it can be estimated that the line of sight is shown in FIG. 5B. When the line of sight moves left and right, it can be determined by whether the position of the black eye is biased with respect to the nose. All such analogies will be described below as the (user's) eye direction determination.
In step S201, the line-of-sight direction determination unit 42 is a face portion existing in an image area corresponding to the side where the operation determination unit 22 is provided in the image data acquired by the image processing unit 40, that is, the photographer A's. The face part is detected by the face detection part 41. If the face is not detected, the eye direction determination unit 42 ends the determination of whether or not the eye direction S of the photographer A is on the apparatus 10 side.

目線方向判定部42は、ステップS202において、図5Bに示すように撮影者Aの顔部が上向きにあり、当該撮影者Aの目線方向Sが子供Cを含む父親Bに向けられて撮影者Aの鼻穴部が撮影され、かつ撮影者Aの瞳位置が下方に位置して目線方向Sが下方側で、当該撮影者Aの目線方向Sが本装置10の前面表示部27に向けられているか否かを判定する。   In step S202, the line-of-sight direction determination unit 42 has the face portion of the photographer A facing upward as shown in FIG. 5B, and the line-of-sight direction S of the photographer A is directed to the father B including the child C. The nostril portion of the photographer A is photographed, and the pupil position of the photographer A is positioned downward, the line-of-sight direction S is on the lower side, and the line-of-sight direction S of the photographer A is directed to the front display unit 27 of the apparatus 10. It is determined whether or not.

この判定の結果、撮影者Aの顔部が上向きで、かつ当該撮影者Aの目線方向Sが下方側であれば、目線方向判定部42は、ステップS203において、画像処理部40により取得された画像データから例えば図7Aに示すように撮影者Aの鼻部の鼻筋Hが両眼部の間に存在し、眼部の中心に瞳が位置して左右にずれが無いか否かを判定する。
この判定の結果、撮影者Aの鼻部の鼻筋Hが両眼部の間に存在し、眼部の中心に瞳が位置して左右にずれが無ければ、目線方向判定部42は、ステップS204において、撮影者Aの目線方向Sが本装置10側であると判定する。
As a result of this determination, if the face of the photographer A is upward and the eye direction S of the photographer A is downward, the eye direction determination unit 42 is acquired by the image processing unit 40 in step S203. From the image data, for example, as shown in FIG. 7A, it is determined whether or not the nose muscle H of the photographer A's nose exists between both eyes, and the pupil is located at the center of the eyes and there is no left-right displacement. .
As a result of this determination, if the nasal nose muscle H of the photographer A exists between both eyes, and if the pupil is located at the center of the eye and there is no left-right displacement, the eye direction determination unit 42 performs step S204. , It is determined that the line-of-sight direction S of the photographer A is on the apparatus 10 side.

又、上記ステップS202の判定の結果、撮影者Aの顔部が上向きで、かつ当該撮影者Aの目線方向Sが下方側でなければ、目線方向判定部42は、ステップS205において、図5Aに示すように画像処理部40により取得された画像データから撮影者Aの顔部の鼻穴部が殆ど撮影されず、かつ撮影者Aの瞳位置の上下方へのずれが無いか否かを判定する。
この判定の結果、撮影者Aの顔部の鼻穴部が殆ど撮影されず、かつ撮影者Aの瞳位置の上下方へのずれが無ければ、目線方向判定部42は、上記ステップS203に移る。
なお、上記判定の結果、撮影者Aの顔部の鼻穴部が撮影され、かつ撮影者Aの瞳位置の上下方へのずれがあれば、目線方向判定部42は、ステップS206において、撮影者Aの目線方向Sが本装置10側以外であると判定する。
If the result of the determination in step S202 is that the face of the photographer A is upward and the line-of-sight direction S of the photographer A is not on the lower side, the line-of-sight direction determination unit 42 in FIG. As shown, it is determined from the image data acquired by the image processing unit 40 whether or not the nostril portion of the photographer A's face is photographed and there is no upward / downward shift of the photographer A's pupil position. To do.
As a result of the determination, if the nostril portion of the photographer A's face is hardly photographed and there is no upward or downward displacement of the photographer A's pupil position, the eye direction determination unit 42 proceeds to step S203. .
As a result of the determination, if the nostril portion of the face of the photographer A is photographed and the pupil position of the photographer A is shifted upward or downward, the eye-gaze direction determination unit 42 captures in step S206. It is determined that the eye direction S of the person A is other than the apparatus 10 side.

次に、目線方向判定部42による目線方向Sの向き判定(ステップS132、134、135)について図14に示す目線方向Sの向き判定フローチャートを参照して説明する。なお、撮影者Aの目線方向Sの向きは、基準目線方向Gに対して左側、右側、又は前方のいずれかであり、これらの目線方向Sの向きをXとして表す。
目線方向判定部42は、ステップS300において、例えば図7A乃至図7C、図8A及び図8Bに示す各瞳位置に従って撮影者Aの目線方向Sの向きを判定可能であるか否かを判定する。
Next, the direction determination (steps S132, 134, 135) of the eye direction S by the eye direction determination unit 42 will be described with reference to the direction determination flowchart of the eye direction S shown in FIG. Note that the direction of the eye line direction S of the photographer A is one of the left side, the right side, and the front side with respect to the reference eye direction G, and the direction of the eye direction S is represented as X.
In step S300, the line-of-sight direction determination unit 42 determines whether or not the direction of the line-of-sight direction S of the photographer A can be determined according to each pupil position shown in FIGS. 7A to 7C, 8A, and 8B, for example.

この判定の結果、判定が不可能であれば、目線方向判定部42は、ステップS301において、画像処理部40により取得された画像データから撮影者Aの顔部の画像と、マイクロフォン21により集音される撮影者Aと例えば子供Cを含む父親B等の主要被写体との音声との関係を判定する。すなわち、目線方向判定部42は、ステップS302において、目線方向Sの向きX、すなわち基準目線方向Gに対して左側、右側、又は前方の目線方向Sの延長線上に撮影者Aの顔部が有るか否かを判定する。   As a result of the determination, if the determination is impossible, the eye direction determination unit 42 collects the image of the face of the photographer A from the image data acquired by the image processing unit 40 and the microphone 21 in step S301. The relationship between the photographer A and the sound of a main subject such as a father B including a child C is determined. That is, in step S302, the eye direction determination unit 42 has the face portion of the photographer A on the direction X of the eye direction S, that is, on the left side, the right side, or an extension line of the eye direction S ahead of the reference eye direction G. It is determined whether or not.

この判定の結果、基準目線方向Gに対して左側、右側、又は前方の目線方向Sの延長線上に撮影者Aの顔部が有れば、目線方向判定部42は、ステップS303において、上記左側、右側、又は前方の目線方向Sの延長線上の撮影者Aの顔部の口部に変化、例えば口部に開閉等の動きが有るか否かを判定する。すなわち、撮影者Aが例えば子供Cを含む父親B等の主要被写体と会話をしているか否かを判定する。
この判定の結果、撮影者Aの口部に変化が有ると、目線方向判定部42は、ステップS304において、撮影者Aの口部から発せられる音声を集音したか否かを判定する。すなわち、マイクロフォン21は、ステレオにより音声を集音するので、制御部20は、当該マイクロフォン21から出力される音声信号から集音した音声の方向を判定可能である。従って、目線方向判定部42は、集音した音声の方向と、画像処理部40により取得された画像データ中の撮影者Aの位置とを対応させることにより、撮影者Aの顔部から音声が発せられているか否を判定する。
If the result of this determination is that the photographer A's face is on the left side, right side, or an extension of the front eye direction S with respect to the reference eye direction G, the eye direction determining unit 42 determines whether the left side in step S303 Then, it is determined whether or not there is a change in the mouth of the face of the photographer A on the right side or the extension line in the eye direction S on the front, for example, whether the mouth has a movement such as opening and closing. That is, it is determined whether or not the photographer A has a conversation with a main subject such as a father B including a child C.
If the result of this determination is that there is a change in the mouth of the photographer A, the eye direction determination unit 42 determines whether or not the sound emitted from the mouth of the photographer A has been collected in step S304. That is, since the microphone 21 collects sound in stereo, the control unit 20 can determine the direction of the collected sound from the sound signal output from the microphone 21. Accordingly, the line-of-sight direction determination unit 42 associates the direction of the collected sound with the position of the photographer A in the image data acquired by the image processing unit 40, so that the sound is received from the face of the photographer A. It is determined whether or not it is emitted.

この判定の結果、撮影者Aの顔部から音声が発せられていれば、目線方向判定部42は、ステップS305において、マイクロフォン21から出力される音声信号に基づいて例えば左側、右側、又は前方における撮影者Aの顔部から音声が発せられているか否かを判定する。
この判定の結果、目線方向Sが左側、右側、又は前方の目線方向Sの延長線上に存在する撮影者Aの顔部から音声が発せられていれば、目線方向判定部42は、ステップS306において、マイクロフォン21から出力される音声信号に基づいて得られた目線方向Sが左側、右側、又は前方に対応する撮影者Aの眼部の瞳位置と、例えば上記図7A乃至図7C、図8A及び図8Bに示す各瞳位置とを対応付けて例えば記録部24に記録し、データベース化する。
As a result of this determination, if sound is emitted from the face of the photographer A, the eye direction determination unit 42 determines, for example, on the left side, right side, or front side based on the audio signal output from the microphone 21 in step S305. It is determined whether or not sound is emitted from the face of the photographer A.
As a result of this determination, if the sound is emitted from the face of the photographer A whose eye direction S is on the left side, the right side, or an extension of the front eye direction S, the eye direction determining unit 42 determines in step S306. The eye direction S obtained based on the audio signal output from the microphone 21 corresponds to the left, right, or front of the eye position of the eye of the photographer A, for example, FIGS. 7A to 7C, FIG. Each pupil position shown in FIG. 8B is associated and recorded in, for example, the recording unit 24 and is made into a database.

強調表示部44は、ステップS310において、撮影者Aの目線方向Sが左側、右側、又は前方であるときの当該目線方向Sの延長線上に存在する例えば子供Cを含む父親B等の主要被写体を強調処理する。
なお、上記ステップS305の判定の結果、撮影者Aから見て左側、右側、又は前方の目線方向Sの延長線上に存在する例えば子供Cを含む父親B等の主要被写体から音声がなければ、目線方向判定部42は、ステップS307において、撮影者Aから見て左側、右側、又は前方の目線方向Sの延長線上に存在する人物等の主要被写体が1人であるか否かを判定する。
In step S310, the highlighting unit 44 displays a main subject such as a father B including a child C existing on an extension line of the eye direction S when the eye direction S of the photographer A is the left side, the right side, or the front. Emphasize processing.
Note that, as a result of the determination in step S305, if there is no sound from a main subject such as father B including a child C existing on the left side, the right side, or an extension line in the forward line-of-sight direction S when viewed from the photographer A, In step S307, the direction determination unit 42 determines whether or not there is one main subject such as a person on the left side, the right side, or an extension of the forward eye direction S as viewed from the photographer A.

この判定の結果、人物等の主要被写体が1人であれば、強調表示部44は、上記ステップS310において、撮影者Aの左側、右側、又は前方の目線方向Sの延長線上に存在する人物等の主要被写体の顔部を強調処理する。
又、人物等の主要被写体が1人でなければ、強調表示部44は、ステップS312において、撮影者Aの左側、右側、又は前方の目線方向Sの延長線上に存在する複数の人物等の主要被写体群の各顔部を強調処理する。
If the result of this determination is that there is only one main subject such as a person, the highlighting section 44 determines that the person or the like present on the left side, the right side of the photographer A, or an extension line in the forward eye direction S in step S310. The face part of the main subject is emphasized.
If the main subject such as a person is not one person, the highlighting unit 44 determines that the main part such as a plurality of persons existing on the left line, the right side of the photographer A, or an extension line in the forward eye direction S in step S312. Emphasize each face of the subject group.

なお、上記ステップS302での判定の結果、目線方向Sの向きX、すなわち基準目線方向Gに対して左側、右側、又は前方の目線方向Sの延長線上に存在する人物等の主要被写体がなければ、目線方向判定部42は、ステップS311において、上記左側、右側、又は前方の目線方向S上で、例えば角度範囲30°の角度範囲で人物等の主要被写体を指標Fにより強調する。
上記ステップS300の判定の結果、例えば図7A乃至図7C、図8A及び図8Bに示す各瞳位置に従って撮影者Aの目線方向Sの向きを判定可能であれば、目線方向判定部42は、ステップS321において、当該図7A乃至図7C、図8A及び図8Bに示す各瞳位置に従って撮影者Aの目線方向Sの向きを判定する。
As a result of the determination in step S302, if there is no main subject such as a person existing on the direction X in the eye direction S, that is, on the left side, the right side, or an extension line in the front eye direction S with respect to the reference eye direction G. In step S311, the line-of-sight direction determination unit 42 emphasizes the main subject such as a person with the index F in the angle range of 30 °, for example, on the left, right, or forward line-of-sight direction S.
As a result of the determination in step S300, for example, if the direction of the eye direction S of the photographer A can be determined according to the respective pupil positions shown in FIGS. 7A to 7C, 8A, and 8B, the eye direction determination unit 42 In S321, the direction of the eye line direction S of the photographer A is determined according to the respective pupil positions shown in FIGS. 7A to 7C, 8A, and 8B.

このように上記一実施の形態によれば、被写体を全方位の撮影範囲で撮影し、この全方位の撮影から取得した画像データ中に撮影者Aが含まれると、当該撮影者Aの目線方向Sを判定し、この判定された目線方向Sに基づいて撮影者Aが撮影しようとする被写体中の例えば子供Cを含む父親B等の主要被写体を判定し、この判定された主要被写体を強調表示するので、撮影者Aが見ていた被写体中の例えば子供Cを含む父親B等の主要被写体を強調できるようなパノラマ画像を取得できる。
上記実施の形態では、顔部の輪郭や鼻の穴などの画像判定などにも触れたが、もちろん、基準位置をプリセットするような方法や、辞書画像に、基本的な目線ごとの眼部の画像パターンを記録しておくなど、眼部の画像だけで、同様の効果を奏することが可能であることは言うまでもない。また、撮影者の目部の画像と、その撮影者が見る方向を同時に撮影できる撮影光学系、撮像光学系を持つものなら、全方位とか全周囲に限るものではない。
As described above, according to the above-described embodiment, when the subject is photographed in the omnidirectional photographing range and the photographer A is included in the image data obtained from the omnidirectional photographing, the line-of-sight direction of the photographer A S is determined, and based on the determined eye direction S, a main subject such as a father B including a child C among subjects to be photographed by the photographer A is determined, and the determined main subject is highlighted. Therefore, it is possible to acquire a panoramic image that can emphasize the main subject such as the father B including the child C in the subject that the photographer A was looking at.
In the above embodiment, we also touched on image determination such as the outline of the face and nostrils, but of course, the method of presetting the reference position and the dictionary image, the eye of each eye Needless to say, the same effect can be achieved with only the eye image, such as recording an image pattern. Moreover, as long as it has an imaging optical system and an imaging optical system capable of simultaneously capturing an image of a photographer's eye and a direction viewed by the photographer, the image is not limited to the omnidirectional or the entire periphery.

上記強調では、環状に形成された指標Fを用いたり、この環状に限らず、楕円状、四角形状等の他の形状にしたり、又、子供Cを含む父親B等の主要被写体の画像データ上で配置位置を変えたり、さらに子供Cを含む父親B等の主要被写体の領域の濃淡レベルを変えて例えば同領域の輝度を高くしたり、又、子供Cを含む父親B等の主要被写体に対してスポットライトを照射したように画像処理したり、さらにはコントラストを低下させたり、露出を変える等をして強調してもよい。   In the above-described emphasis, the index F formed in a ring shape is used, the shape is not limited to the ring shape, and other shapes such as an ellipse shape and a square shape are used. To change the arrangement position, and further change the intensity level of the main subject area such as father B including the child C to increase the brightness of the same area, for example, or to the main subject such as father B including the child C. The image may be emphasized by performing image processing as if it were irradiated with a spotlight, further reducing the contrast, changing the exposure, or the like.

強調する領域、例えば環状に形成された指標Fにより強調する範囲は、例えば角度範囲30°に設定したり、複数の人物から成る一群の人物Dの中心部に対して上側25°、下側10°を強調範囲として設定することにより、強調するための子供Cを含む父親B等の主要被写体の大きさに適したものにできる。   A region to be emphasized, for example, a range to be emphasized by an index F formed in a ring shape, is set to, for example, an angle range of 30 °, or 25 ° on the upper side and 10 ° on the lower side with respect to the center of a group of persons D composed of a plurality of persons. By setting “°” as the emphasis range, it is possible to make it suitable for the size of the main subject such as father B including child C for emphasis.

従って、パノラマ画像中のどの部分を撮影者が観ていたのかが明確に分かり、又どの被写体を目的に撮影したのかも分かり、撮影現場の雰囲気の中で、撮影者が撮影しようとする対象の被写体や、撮影者が見ていた被写体、撮影者が印象深かった被写体が分かるパノラマ画像を得ることができる。よって、後日、パノラマ画像を鑑賞するときに、撮影時において観ていた被写体が容易に分かり、パノラマ画像を鑑賞する上での大きな手助けとなる。
撮影者Aの左側、右側、又は前方の目線方向Sを範囲することにより、この撮影者Aの左側、右側、又は前方の目線方向Sの延長線上に存在する人物等の主要被写体の顔部を強調処理できる。
Therefore, it is clear which part of the panoramic image the photographer was watching, and which subject was photographed for the purpose. It is possible to obtain a panoramic image in which the subject, the subject that the photographer was looking at, and the subject that the photographer was impressed with can be understood. Therefore, when viewing a panoramic image at a later date, the subject viewed at the time of shooting can be easily understood, which is a great help in viewing the panoramic image.
By limiting the left, right, or front eye direction S of the photographer A, the face portion of the main subject such as a person existing on the extension line of the left direction, right side, or front eye direction S of the photographer A can be obtained. Emphasis processing is possible.

また、本発明は、ユーザの顔部を利用したユーザーインターフェースに特徴があり、必ずしも撮影装置でなくともよい。機器のリモコンのように、産業用、医療用装置の操作部材など、対象物を狙って操作するコントロールボックスや据え置き機器の操作部位には応用可能であることは言うまでもない。つまり、カメラにあっては、強調表示した部位などを対象に無線操作するような機器や、集中的に観察する機器に応用可能である。対象物と操作者が撮像可能な操作装置では、構えて顔部の向きを判定して操作するためにこの発明のような技術が必要となり、こうした条件の機器では、何にでも応用可能である。また、車載機器のような、ユーザがさっと機器に意志を伝いたいものにも有効である。そこで、本発明は情報処理装置に属する。   In addition, the present invention is characterized by a user interface using a user's face, and is not necessarily a photographing apparatus. Needless to say, the present invention can be applied to a control box for operating an object such as an operation member of an industrial or medical device such as a remote controller of an apparatus or an operation part of a stationary apparatus. In other words, the camera can be applied to a device that wirelessly operates a highlighted part or the like or a device that performs intensive observation. In an operating device that can image an object and an operator, a technique such as the present invention is required to determine and operate the orientation of the face, and any device with such conditions can be applied. . It is also effective for a device such as an in-vehicle device that the user wants to quickly communicate with the device. Therefore, the present invention belongs to an information processing apparatus.

なお、上述した実施の形態における撮像装置による各処理の手法、すなわち、各フローチャートに示す処理は、何れも制御部2に実行させることができるプログラムとして記憶される。このプログラムは、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。   Note that each processing method performed by the imaging apparatus according to the above-described embodiment, that is, the processing illustrated in each flowchart is stored as a program that can be executed by the control unit 2. This program is stored in a storage medium of an external storage device such as a memory card (ROM card, RAM card, etc.), magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc. The above-described processing can be executed by reading the stored program and controlling the operation by the read program.

10:撮影装置、11:撮影光学系、12:撮像部、10a:本装置本体、13:回転撮像体、14:基板、15:重り、16:回転規制ピン、20:制御部、21:マイクロフォン、22:操作判定部、23:背面カメラ(アイセンサ)、24:記録部、25:通信部、26:姿勢判定部、27:前面表示部、28:前面側タッチパネル、29:背面表示部、30:背面側タッチパネル、40:画像処理部、41:顔検出部、42:目線方向判定部、43:主要被写体判定部、44:強調表示部、45:表示制御部、46:音声検出部。   10: photographing apparatus, 11: photographing optical system, 12: imaging unit, 10a: main body of the apparatus, 13: rotating imaging body, 14: substrate, 15: weight, 16: rotation regulating pin, 20: control unit, 21: microphone 22: Operation determination unit, 23: Rear camera (eye sensor), 24: Recording unit, 25: Communication unit, 26: Posture determination unit, 27: Front display unit, 28: Front side touch panel, 29: Rear display unit, 30 : Rear side touch panel, 40: image processing unit, 41: face detection unit, 42: eye direction determination unit, 43: main subject determination unit, 44: highlight display unit, 45: display control unit, 46: audio detection unit.

Claims (11)

被写体と撮影者の少なくとも眼部とを含む範囲で撮影する撮影手段と、
前記撮影手段の画像データを取得する画像処理手段と、
前記画像処理手段により取得された前記画像データにおける前記撮影者の目線方向を判定する目線方向判定手段と、
前記目線方向判定手段により判定された前記目線方向に基づいて前記撮影者が撮影しようとする前記被写体中の主要被写体を判定する主要被写体判定手段と、
前記主要被写体判定手段により判定された前記主要被写体を強調表示する強調表示手段と、
を具備することを特徴とする撮影装置。
Photographing means for photographing within a range including the subject and at least the eye part of the photographer;
Image processing means for obtaining image data of the photographing means;
Eye direction determination means for determining the eye direction of the photographer in the image data acquired by the image processing means;
Main subject determination means for determining a main subject in the subject to be photographed by the photographer based on the eye direction determined by the eye direction determination means;
Highlighting means for highlighting the main subject determined by the main subject determining means;
An imaging apparatus comprising:
前記目線方向判定手段は、前記画像データ中の前記撮影者の少なくとも鼻穴部の有無又は眼部の瞳位置のいずれか一方又は両方に基づいて前記目線方向を判定することを特徴とする請求項1に記載の撮影装置。   The eye direction determination unit determines the eye direction based on at least one of or both of a nostril portion and a pupil position of an eye of the photographer in the image data. The imaging apparatus according to 1. 前記目線方向判定手段は、前記撮影者の前記目線方向が本装置側であるか否かを判定し、前記目線方向が前記本装置側であれば、当該本装置側の前記目線方向を基準とし、当該基準目線方向と前記撮影者の前記目線方向とを比較して当該撮影者の前記目線方向を判定することを特徴とする請求項2に記載の撮影装置。   The eye direction determination means determines whether the eye direction of the photographer is on the apparatus side, and if the eye direction is on the apparatus side, the eye direction on the apparatus side is used as a reference. The imaging apparatus according to claim 2, wherein the eye direction of the photographer is determined by comparing the reference eye direction with the eye direction of the photographer. 前記主要被写体判定手段は、前記撮影者の前記鼻穴部が有る上に前記瞳位置が下方向きでかつ前記撮影者の鼻筋及び前記瞳位置にずれが無い、又は前記撮影者の前記鼻穴部が無いけれども前記瞳位置に上下方向のずれが無くかつ前記撮影者の鼻筋及び前記瞳位置にずれが無ければ、前記撮影者の前記目線方向が前記本装置側であると判定することを特徴とする請求項3に記載の撮影装置。   The main subject determination means includes the photographer's nostril portion, the pupil position is downward, and the photographer's nose muscle and the pupil position are not displaced, or the photographer's nostril portion. However, if there is no vertical displacement in the pupil position and there is no displacement in the photographer's nose and pupil position, it is determined that the eye direction of the photographer is the apparatus side. The imaging device according to claim 3. 前記目線方向判定手段は、前記基準目線方向と前記撮影者の前記目線方向との比較結果に基づいて前記撮影者の前記目線方向が前記基準目線方向に対して左側、右側、又は前方のいずれかであるのかを判定することを特徴とする請求項3又は4に記載の撮影装置。   The line-of-sight direction determination means is based on a comparison result between the reference line-of-sight direction and the photographer's line-of-sight direction, and the line-of-sight direction of the photographer is any of the left side, the right side, or the front with respect to the reference line-of-sight direction. The imaging device according to claim 3, wherein it is determined whether or not 前記撮影者と前記主要被写体との音声を検出する音声検出手段を備え、
前記目線方向判定手段は、上記判定した前記目線方向に有る前記主要被写体と、前記音声検出手段により検出された前記音声と、前記撮影者及び前記主要被写体の各画像とに基づいて前記撮影者と前記主要被写体との間で会話があると判定すると、前記撮影者の前記瞳位置と、前記左側、前記右側、又は前記前方のいずれかの前記目線方向とを関連付ける、
ことを特徴とする請求項5に記載の撮影装置。
Voice detection means for detecting voice of the photographer and the main subject;
The line-of-sight direction determining means includes the photographer based on the main subject in the determined line-of-sight direction, the sound detected by the sound detection means, and each image of the photographer and the main subject. When determining that there is a conversation with the main subject, associating the pupil position of the photographer with the eye direction on either the left side, the right side, or the front;
The imaging device according to claim 5, wherein:
前記目線方向判定手段によって前記音声検出手段により前記音声の検出が無く、かつ前記主要被写体が複数の人物から成る人物群であると判定すると、
前記強調表示手段は、前記人物群に対して強調表示を行う、
ことを特徴とする請求項6に記載の撮影装置。
When the eye direction determination means determines that the sound is not detected by the sound detection means and the main subject is a group of persons consisting of a plurality of persons,
The highlighting means highlights the group of people.
The imaging device according to claim 6.
前記強調表示手段は、前記画像データ中の前記主要被写体に対応する画像領域に対して強調用の画像処理を行い、前記主要被写体に対して強調用の指標を付加する、前記主要被写体の配置位置を変える、又は前記主要被写体に対応する領域の濃淡レベルを相対的に変えることのうち少なくとも1つを行うことを特徴とする請求項1乃至7のうちいずれか1項に記載の撮影装置。   The highlight display unit performs an image processing for emphasis on an image area corresponding to the main subject in the image data, and adds an emphasis index to the main subject. The photographing apparatus according to any one of claims 1 to 7, wherein at least one of the following is changed: or a relative gray level of an area corresponding to the main subject is changed. 前記強調表示手段は、前記画像データ中において前記主要被写体を強調表示する強調範囲が設定されていることを特徴とする請求項1乃至8のうちいずれか1項に記載の撮影装置。   The photographing apparatus according to claim 1, wherein the highlighting unit has a highlight range in which the main subject is highlighted in the image data. 被写体と撮影者の少なくとも眼部とを含む撮影範囲を有する撮影手段によって被写体を撮影し、
前記撮影範囲の画像データを画像処理手段により取得し、
当該撮影者の目線方向を目線方向判定手段によって判定し、
前記判定された前記目線方向に基づいて前記撮影者が撮影しようとする前記被写体中の主要被写体を強調表示する、
ことを特徴とする撮影方法。
The subject is photographed by photographing means having a photographing range including the subject and at least the eye part of the photographer,
The image data of the shooting range is acquired by an image processing means,
The eye direction of the photographer is determined by eye direction determination means,
Highlighting a main subject in the subject that the photographer intends to shoot based on the determined line-of-sight direction;
An imaging method characterized by the above.
コンピュータに、
被写体と撮影者の少なくとも眼部とを含む範囲で撮影させる撮影機能と、
前記撮影機能の画像データを取得させる画像処理機能と、
前記画像処理機能により取得された前記画像データにおける前記撮影者の目線方向を判定させる目線方向判定機能と、
前記目線方向判定機能により判定された前記目線方向に基づいて前記撮影者が撮影しようとする前記被写体中の主要被写体を判定させる主要被写体判定機能と、
前記主要被写体判定機能により判定された前記主要被写体を強調表示させる強調表示機能と、
を実現するための撮影装置の撮影プログラム。
On the computer,
A shooting function for shooting in a range including the subject and at least the eye of the photographer;
An image processing function for acquiring image data of the photographing function;
A line-of-sight direction determination function for determining a line-of-sight direction of the photographer in the image data acquired by the image processing function;
A main subject determination function for determining a main subject in the subject to be photographed by the photographer based on the eye direction determined by the eye direction determination function;
A highlighting function for highlighting the main subject determined by the main subject determining function;
Shooting program of the imaging device for realizing.
JP2013151929A 2013-07-22 2013-07-22 Imaging apparatus, imaging method and imaging program for imaging apparatus Pending JP2015023512A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013151929A JP2015023512A (en) 2013-07-22 2013-07-22 Imaging apparatus, imaging method and imaging program for imaging apparatus
US14/336,414 US10063773B2 (en) 2013-07-22 2014-07-21 Photographing apparatus, photographing method and computer-readable storage medium storing photographing program of photographing apparatus
CN201410350473.4A CN104333690B (en) 2013-07-22 2014-07-22 Camera and method for imaging

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013151929A JP2015023512A (en) 2013-07-22 2013-07-22 Imaging apparatus, imaging method and imaging program for imaging apparatus

Publications (1)

Publication Number Publication Date
JP2015023512A true JP2015023512A (en) 2015-02-02

Family

ID=52343265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013151929A Pending JP2015023512A (en) 2013-07-22 2013-07-22 Imaging apparatus, imaging method and imaging program for imaging apparatus

Country Status (3)

Country Link
US (1) US10063773B2 (en)
JP (1) JP2015023512A (en)
CN (1) CN104333690B (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5967504B1 (en) * 2015-05-18 2016-08-10 パナソニックIpマネジメント株式会社 Omni-directional camera system
JP6246440B1 (en) * 2016-10-31 2017-12-13 株式会社オプティム Image analysis system, image analysis method, and program
JP2020510336A (en) * 2017-03-07 2020-04-02 リンクフロー カンパニー リミテッド Method for generating directional information of an omnidirectional image and apparatus for performing such method
JPWO2022004302A1 (en) * 2020-06-30 2022-01-06

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016127377A (en) * 2014-12-26 2016-07-11 カシオ計算機株式会社 Image processing apparatus and image processing method, image reproducer and image reproducing method and program
EP3646581A1 (en) 2017-06-30 2020-05-06 PCMS Holdings, Inc. Method and apparatus for generating and displaying 360-degree video based on eye tracking and physiological measurements
CN115052094A (en) * 2019-08-20 2022-09-13 深圳市大疆创新科技有限公司 Motion camera, self-timer control method and device, movable platform and storage medium
WO2021175125A1 (en) * 2020-03-06 2021-09-10 Guangdong Oppo Mobile Telecommunications Corp., Ltd. System and method for automatically adjusting focus of a camera
CN112911097A (en) * 2021-01-06 2021-06-04 罗光亮 Global image capturing system based on fisheye acquisition

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007158A (en) * 2002-05-31 2004-01-08 Fuji Photo Film Co Ltd Imaging apparatus, main object determining device, and image processing device
JP5093968B2 (en) * 2003-10-15 2012-12-12 オリンパス株式会社 camera
CN100343867C (en) * 2005-06-15 2007-10-17 北京中星微电子有限公司 Method and apparatus for distinguishing direction of visual lines
JP2008067219A (en) * 2006-09-08 2008-03-21 Sony Corp Imaging apparatus and imaging method
JP5801026B2 (en) * 2009-05-28 2015-10-28 株式会社ザクティ Image sound processing apparatus and imaging apparatus
JP5460691B2 (en) * 2009-06-08 2014-04-02 パナソニック株式会社 Gaze target determination device and gaze target determination method
JP2011040898A (en) 2009-08-07 2011-02-24 Casio Computer Co Ltd Imaging reproducing device and program
US9110365B2 (en) * 2009-11-19 2015-08-18 Olympus Corporation Imaging apparatus
JP2011113196A (en) * 2009-11-25 2011-06-09 Olympus Corp Face direction specification device and imaging device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5967504B1 (en) * 2015-05-18 2016-08-10 パナソニックIpマネジメント株式会社 Omni-directional camera system
JP2016219956A (en) * 2015-05-18 2016-12-22 パナソニックIpマネジメント株式会社 Omnidirectional camera system
US10070056B2 (en) 2015-05-18 2018-09-04 Panasonic Intellectual Property Management Co., Ltd. Omnidirectional camera system
JP6246440B1 (en) * 2016-10-31 2017-12-13 株式会社オプティム Image analysis system, image analysis method, and program
WO2018078861A1 (en) * 2016-10-31 2018-05-03 株式会社オプティム Image analysis system, image analysis method, and program
US10440331B2 (en) 2016-10-31 2019-10-08 Optim Corporation System, method, and program for image analysis
JP2020510336A (en) * 2017-03-07 2020-04-02 リンクフロー カンパニー リミテッド Method for generating directional information of an omnidirectional image and apparatus for performing such method
JPWO2022004302A1 (en) * 2020-06-30 2022-01-06
WO2022004302A1 (en) * 2020-06-30 2022-01-06 富士フイルム株式会社 Image processing device, imaging device, image processing method, and program

Also Published As

Publication number Publication date
CN104333690A (en) 2015-02-04
US20150022627A1 (en) 2015-01-22
US10063773B2 (en) 2018-08-28
CN104333690B (en) 2018-07-03

Similar Documents

Publication Publication Date Title
US10063773B2 (en) Photographing apparatus, photographing method and computer-readable storage medium storing photographing program of photographing apparatus
US9927948B2 (en) Image display apparatus and image display method
US9374529B1 (en) Enabling multiple field of view image capture within a surround image mode for multi-LENS mobile devices
JP5967473B2 (en) Imaging apparatus and imaging system
US10158798B2 (en) Imaging apparatus and method of controlling the same
EP2720464B1 (en) Generating image information
JP5991514B2 (en) Imaging apparatus and imaging system
JP2013013063A (en) Imaging apparatus and imaging system
US10462358B2 (en) Information processing apparatus, information processing system, and information processing method
JP2018152787A (en) Imaging device, external device, imaging system, imaging method, operation method, and program
WO2020022132A1 (en) Image capture device
JP6677900B2 (en) Image processing apparatus, image processing method, and program
JP2009171428A (en) Control method and program for digital camera apparatus and electronic zoom
JP2015106860A (en) Monitoring imaging system and program
JP2021069045A (en) Display control device, display control method, program, and storage media
JP5750792B1 (en) Imaging apparatus, imaging method, and program
JP6412743B2 (en) Shooting support apparatus, shooting support system, shooting support method, and shooting support program
JP6218615B2 (en) Display device, display method, photographing apparatus, and photographing system
JP2011053550A (en) Optical instrument
JP2022140424A (en) Image pickup apparatus, control method therefor, and program
KR20150016871A (en) Photographing apparatus, display apparatus, photographing method, and photographing program
JP2024013019A (en) Control device, imaging apparatus, control method, and program
JP2023067530A (en) Imaging apparatus, control method therefor, and program
JP2023062381A (en) Imaging device, control method for the same, and program
JP2022140418A (en) Image pickup apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423