JP2015119277A - Display apparatus, display method, and display program - Google Patents

Display apparatus, display method, and display program Download PDF

Info

Publication number
JP2015119277A
JP2015119277A JP2013260527A JP2013260527A JP2015119277A JP 2015119277 A JP2015119277 A JP 2015119277A JP 2013260527 A JP2013260527 A JP 2013260527A JP 2013260527 A JP2013260527 A JP 2013260527A JP 2015119277 A JP2015119277 A JP 2015119277A
Authority
JP
Japan
Prior art keywords
image
shadow
light source
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013260527A
Other languages
Japanese (ja)
Other versions
JP2015119277A5 (en
Inventor
國府 哲也
Tetsuya Kokubu
哲也 國府
憲 谷
Akira Tani
憲 谷
野中 修
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2013260527A priority Critical patent/JP2015119277A/en
Priority to CN201410747684.1A priority patent/CN104717422B/en
Publication of JP2015119277A publication Critical patent/JP2015119277A/en
Publication of JP2015119277A5 publication Critical patent/JP2015119277A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to display a result of simulation in which a desired shade can be intuitively confirmed.SOLUTION: The display apparatus includes: a position determination part for determining a position of an object in an image and a position of a light source that illuminates the object; a shading change part that generates a shading changed image whose shading of the image of the object is corrected in accordance with a distance from the light source on the basis of a positional relationship between the object and the light source; and a display control part that synthesizes the shading changed image and the photographed image and displays it.

Description

本発明は、スルー画を表示画面に表示可能な表示機器、表示方法及び表示プログラムに関する。   The present invention relates to a display device capable of displaying a through image on a display screen, a display method, and a display program.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮影機器)が普及している。この種の撮影機器においては表示部を有して、撮影画像を表示する機能を有するものもある。また、表示部にメニュー画面を表示して、撮影機器の操作を容易にしたものもある。ユーザは撮影時に、この表示部に表示されたスルー画を確認しながら撮影、観察操作をすることも可能である。   In recent years, portable devices with a photographing function (photographing devices) such as digital cameras have become widespread. Some types of photographing apparatuses have a display unit and a function of displaying a photographed image. Some display screens display a menu screen to facilitate operation of the photographing device. At the time of shooting, the user can perform shooting and observation operations while confirming the through image displayed on the display unit.

ところで、撮影装置においては、撮影時の種々の設定が自動化されたものがある。例えば、デジタルカメラ等には、ピント合わせを自動化したAF機能や、露出を自動化した自動露出(AE)機能を搭載したものがある。しかしながら、自動露出は、撮影範囲の平均的な反射光量や注目被写体からの反射光量等を測定して画像全体の露出を一様に制御しているが、光源と被写体の距離や位置関係によっては、ユーザが希望する影の出方の画像を得られないこともある。なお、露出をマニュアル調整する場合でも、被写体に対する光源の位置や距離を自由に調整できない場合には、被写体を希望する影の出方で撮影することは困難である。そもそも、被写体と光源との位置で、どのような陰影が得られるかは、直感的な確認そのものが困難である。   By the way, in some photographing apparatuses, various settings at the time of photographing are automated. For example, some digital cameras and the like are equipped with an AF function that automates focusing and an automatic exposure (AE) function that automates exposure. However, the automatic exposure controls the exposure of the entire image uniformly by measuring the average amount of reflected light in the shooting range and the amount of reflected light from the subject of interest, but depending on the distance and positional relationship between the light source and the subject. In some cases, the user may not be able to obtain an image of the desired shadow appearance. Even when the exposure is manually adjusted, if the position and distance of the light source with respect to the subject cannot be freely adjusted, it is difficult to photograph the subject with a desired shadow. In the first place, it is difficult to intuitively confirm what kind of shadow is obtained at the position of the subject and the light source.

そこで、特許文献1においては、画面内に人物が撮影されているという情報をカメラから受け取り、その情報を基に人物の顔を画像中から抽出し、顔が適正濃度になるようにプリント濃度を決定する技術が開示されている。特許文献1の技術を用いることで、被写体である人物の顔部分が暗くつぶれたり、白く飛んだりしない写真を得ることができる。   Therefore, in Patent Document 1, information that a person is photographed on the screen is received from the camera, and the person's face is extracted from the image based on the information, and the print density is adjusted so that the face has an appropriate density. Techniques for determining are disclosed. By using the technique of Patent Document 1, it is possible to obtain a photograph in which the face portion of a person who is a subject is not crushed dark or flies white.

特開2004−191699号公報JP 2004-191699 A

しかしながら、特許文献1の技術においては、顔部画像を判定して画像処理で濃度を適正化するものであり、影の出方をユーザが希望するようにすることはできない。   However, in the technique of Patent Document 1, the face image is determined and the density is optimized by image processing, and the user cannot make the user want a shadow.

本発明は、ユーザが希望する影の出方の観察、撮像画像を得るための観察、撮影支援表示として陰影変更画像を表示させることができる表示機器、表示方法及び表示プログラムを提供することを目的とする。   An object of the present invention is to provide a display device, a display method, and a display program capable of displaying a shadow-changed image as observation of how a user desires a shadow, observation for obtaining a captured image, and imaging support display. And

本発明に係る表示機器は、画像中の対象物の位置及び上記対象物を照明する光源の位置を判定する位置判定部と、上記対象物と光源との位置関係に基づいて、上記対象物の画像の陰影を上記光源からの距離に応じて補正した陰影変更画像を生成する陰影変更部と、上記撮像画像に上記陰影変更画像を合成して表示する表示制御部とを具備する。   The display device according to the present invention includes a position determination unit that determines a position of an object in an image and a position of a light source that illuminates the object, and a positional relationship between the object and the light source. A shadow change unit that generates a shadow change image in which the shadow of the image is corrected according to the distance from the light source; and a display control unit that combines and displays the shadow change image on the captured image.

また、本発明に係る表示方法は、撮像部から被写体の撮像画像が与えられ、上記撮像画像中の対象物の位置及び上記対象物を照明する光源の位置を判定する位置判定ステップと、上記対象物と光源との位置関係に基づいて、上記対象物の画像の陰影を上記光源からの距離に応じて補正した陰影変更画像を生成する陰影変更ステップと、上記撮像画像に上記陰影変更画像を合成して表示する表示制御ステップとを具備する。   Further, the display method according to the present invention includes a position determination step in which a captured image of a subject is given from the imaging unit, and the position of the target in the captured image and the position of the light source that illuminates the target are determined, and the target Based on the positional relationship between the object and the light source, a shadow change step for generating a shadow change image in which the shadow of the image of the object is corrected according to the distance from the light source, and the shadow change image are combined with the captured image And a display control step for displaying.

また、本発明に係る表示方法は、画面内に表示された光源と上記光源で照明された対象物との上記画面上の位置関係を変更する操作を受け付けるステップと、上記位置変更操作時にサブ画像を形成するステップと、上記対象物上で得られている陰影を上記位置関係に従って変更して上記サブ画像に表示するステップとを具備する。   The display method according to the present invention includes a step of receiving an operation of changing a positional relationship on the screen between a light source displayed on the screen and an object illuminated by the light source, and a sub-image at the time of the position changing operation. And a step of changing the shade obtained on the object according to the positional relationship and displaying it on the sub-image.

また、本発明に係る表示プログラムは、コンピュータに、撮像部から被写体の撮像画像が与えられ、上記撮像画像中の対象物の位置及び上記対象物を照明する光源の位置を判定する位置判定ステップと、上記対象物と光源との位置関係に基づいて、上記対象物の画像の陰影を上記光源からの距離に応じて補正した陰影変更画像を生成する陰影変更ステップと、上記撮像画像に上記陰影変更画像を合成して表示する表示制御ステップとを実行させる。   In addition, the display program according to the present invention includes a position determination step for determining a position of an object in the captured image and a position of a light source that illuminates the object when a captured image of the subject is given to the computer from the imaging unit. A shadow change step for generating a shadow change image in which the shadow of the image of the target object is corrected according to the distance from the light source based on the positional relationship between the object and the light source; and the shadow change to the captured image. And a display control step of combining and displaying the images.

本発明によれば、ユーザが希望する影の出方をシミュレーションした結果を直感的に確認できるように表示させることができるという効果を有する。   According to the present invention, it is possible to display the result of simulating how the shadow desired by the user can be intuitively displayed.

本発明の第1の実施の形態に係る表示機器を示すブロック図。1 is a block diagram showing a display device according to a first embodiment of the present invention. 本実施の形態における陰影変更画像を説明するための説明図。Explanatory drawing for demonstrating the shadow change image in this Embodiment. カメラ制御を示すフローチャート。The flowchart which shows camera control. 陰影変更画像の生成方法を説明するための説明図。Explanatory drawing for demonstrating the production | generation method of a shadow change image. 陰影変更画像の生成方法を説明するための説明図。Explanatory drawing for demonstrating the production | generation method of a shadow change image. 陰影変更画像の生成方法を説明するための説明図。Explanatory drawing for demonstrating the production | generation method of a shadow change image. 本発明の第2の実施の形態を示すブロック図。The block diagram which shows the 2nd Embodiment of this invention. 第2の実施の形態におけるカメラ制御を示すフローチャート。The flowchart which shows the camera control in 2nd Embodiment. 陰影変更画像の生成方法を説明するための説明図。Explanatory drawing for demonstrating the production | generation method of a shadow change image. 陰影変更画像の生成方法を説明するための説明図。Explanatory drawing for demonstrating the production | generation method of a shadow change image. 陰影変更画像の生成方法を説明するための説明図。Explanatory drawing for demonstrating the production | generation method of a shadow change image. 陰影変更画像の生成方法を説明するための説明図。Explanatory drawing for demonstrating the production | generation method of a shadow change image. 変形例におけるカメラ制御を示すフローチャート。The flowchart which shows the camera control in a modification. 変形例における表示を説明するための説明図。Explanatory drawing for demonstrating the display in a modification. 本発明の第3の実施の形態に採用されるフローチャート。The flowchart employ | adopted as the 3rd Embodiment of this invention. 撮影画像の記録時に同時に記録されるタグ情報を説明するための説明図。Explanatory drawing for demonstrating the tag information recorded simultaneously with the recording of a picked-up image. 表示画面56b上の表示例を示す説明図。Explanatory drawing which shows the example of a display on the display screen 56b.

以下、図面を参照して本発明の実施の形態について詳細に説明する。
(第1の実施の形態)
図1は本発明の第1の実施の形態に係る表示機器を示すブロック図である。本実施の形態は、撮像画像から撮影支援表示の対象物となる被写体の位置及びその被写体を照明する光源の位置を検出し、光源に対する対象物の位置を変化させた場合の対象物の影の出方を示す陰影変更画像を表示することで、ユーザが希望する影の出方(陰影)の確認を効果的に支援するものである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a display device according to a first embodiment of the present invention. In the present embodiment, the position of the subject that is the target of the shooting support display and the position of the light source that illuminates the subject are detected from the captured image, and the shadow of the target when the position of the target with respect to the light source is changed is detected. By displaying a shadow change image that indicates how to appear, it is possible to effectively support confirmation of a shadow appearance (shadow) desired by the user.

図2は本実施の形態における陰影変更画像を説明するための説明図である。図2(a)は人物21が右手22で表示機器の筐体24を把持し、スルー画が表示されている表示部12の表示画面12aを見ながら、自分撮りを行う様子を示している。人物21は室内25において窓26から所定の距離だけ離間した位置に立って撮影を行っている。図2(b)は図2(a)の表示画面12aに表示されているスルー画31を示している。スルー画31中には、ユーザ自信の画像21a、ユーザの手の画像22a、窓の画像26a、室内の天井の画像27a及び壁の画像28aが含まれる。   FIG. 2 is an explanatory diagram for explaining a shadow change image according to the present embodiment. FIG. 2A shows a state where the person 21 holds the casing 24 of the display device with the right hand 22 and takes a selfie while viewing the display screen 12a of the display unit 12 on which the through image is displayed. The person 21 is shooting in a room 25 standing at a position separated from the window 26 by a predetermined distance. FIG. 2B shows a through image 31 displayed on the display screen 12a of FIG. The through image 31 includes a user's confidence image 21a, a user's hand image 22a, a window image 26a, an indoor ceiling image 27a, and a wall image 28a.

図2(b)の例は、人物21の顔部41の画像41aの濃淡の表示によって、人物21の顔部41の右側が窓26からの明かりによって比較的明るく撮像され、顔部41の左側は窓26からの距離が少し離れたことによって顔の右側よりも暗く撮像されている状態を模式的に示している。   In the example of FIG. 2B, the right side of the face 41 of the person 21 is imaged relatively brightly by the light from the window 26 by the shading display of the image 41 a of the face 41 of the person 21, and the left side of the face 41. Fig. 6 schematically shows a state where an image is taken darker than the right side of the face due to a slight distance from the window 26.

このような顔部の画像41aの右側と左側の明暗の比率は、光源である窓26からの距離が変化したとしても一定であると考えられる。即ち、比較的光源に近い位置での顔部の画像41aの右側と左側の画像の輝度が露出1段分に相当する差がある場合には、比較的光源から離れた位置であっても顔部41の画像41aの右側と左側の画像の輝度は露出1段分に相当する差が存在する。しかし、窓(光源)26からの距離に応じた背景の明るさの変化は、顔部41における明るさの変化とは異なることから、窓(光源)26に近い場合の顔部の画像41aの左右の1段分の明暗の変化によって受ける印象と、窓(光源)26から遠い場合の顔部の画像41aの左右の1段分の明暗の変化によって受ける印象とは、著しく異なる。通常、窓26に近づけば顔部の画像41aの明暗の差が拡大される傾向となり、窓26から遠ざかれば顔部の画像41aの明暗の差が平準化される傾向となる。   The right / left light / dark ratio of the face image 41a is considered to be constant even when the distance from the window 26 serving as the light source changes. That is, if there is a difference in brightness between the right and left images of the face image 41a at a position relatively close to the light source corresponding to one step of exposure, the face is positioned even relatively away from the light source. There is a difference in brightness between the right and left images of the image 41a of the portion 41 corresponding to one exposure. However, since the change in the brightness of the background according to the distance from the window (light source) 26 is different from the change in the brightness in the face 41, the face image 41 a when close to the window (light source) 26 is displayed. The impression received by the left and right one-stage brightness change and the impression received by the left and right one-stage brightness change of the face image 41a when far from the window (light source) 26 are significantly different. Normally, the difference between the brightness and darkness of the face image 41a tends to be enlarged as it approaches the window 26, and the brightness and darkness difference of the face image 41a tends to be leveled away from the window 26.

しかしながら、一般のユーザは、被写体と光源との位置関係と被写体の陰影の写り具合について、予測することは困難であり、被写体(例えば自分)が光源に対していずれの距離に位置すれば、希望する濃淡の画像を得ることができるかを知ることはできない。そこで、本実施の形態においては、ユーザが被写体の位置(例えば自分の立ち位置)を変化させた場合に、どのような陰影の画像が得られるかを示す陰影変更画像(以下、サブ画像ともいう)を表示させるようになっている。
サブ画像は、対象物や光源の部分を切り出した画像で、顔検出や被写体の輪郭判定で、顔部や光源部がはみ出さないように切り出すようなものであることが好ましい、しかし、画面を分割して得られた特定の大きさのブロックでも良い。
However, it is difficult for general users to predict the positional relationship between the subject and the light source and how the shadow of the subject appears, and if the subject (for example, oneself) is located at any distance from the light source, it is desired. It is not possible to know whether or not a shaded image can be obtained. Therefore, in the present embodiment, when the user changes the position of the subject (for example, his / her standing position), a shadow change image (hereinafter also referred to as a sub-image) indicating what kind of shadow image is obtained. ) Is displayed.
The sub-image is an image obtained by cutting out the object and the light source, and is preferably cut out so that the face and the light source do not protrude in face detection or subject contour determination. A block having a specific size obtained by dividing may be used.

図2(b)の四角で囲った陰影表示領域43aは、被写体である人物21が窓26に近づいた場合の撮影で得られるであろう顔部41の陰影の様子を示す陰影変更画像(サブ画像)43bを表示する領域であり、図2(b)の四角で囲った陰影表示領域44aは、人物21が窓26から遠ざかった場合の撮影で得られるであろう顔部41の陰影の様子を示す陰影変更画像44bを表示する領域である。なお、図2(b)の陰影変更画像43b,44bにおいては図面を簡略化するために、顔部の明暗を白黒でのみ示している。このような陰影変更画像43b,44bを表示することで、人物21は、被写体(例えば自分)がどこに立てば、どんな雰囲気の画像になるかを予測することが可能となる。つまり、画面内に表示された光源と、上記光源で照明された対象物の画面上の位置関係を変更する操作を受け付けるステップ、上記位置変更操作時は、サブ画像を形成するステップ、上記対象物上で得られている陰影を上記位置関係に従って変更して上記サブ画像に表示するステップを有する観察支援方法を提供している。   A shadow display area 43a surrounded by a square in FIG. 2B is a shadow-changed image (sub-image) showing the shadow of the face 41 that will be obtained when the person 21 as the subject approaches the window 26. The shadow display area 44a, which is an area for displaying (image) 43b and is surrounded by a square in FIG. 2B, shows the shadow of the face 41 that would be obtained when the person 21 moved away from the window 26. It is an area | region which displays the shadow change image 44b which shows. In the shade change images 43b and 44b in FIG. 2B, the brightness of the face is shown only in black and white for the sake of simplicity. By displaying such shadow change images 43b and 44b, the person 21 can predict where the subject (for example, himself) stands and what kind of atmosphere the image will be. That is, a step of accepting an operation for changing a positional relationship between a light source displayed on the screen and an object illuminated by the light source on the screen, a step of forming a sub-image at the time of the position change operation, the object There is provided an observation support method including a step of changing the shading obtained above according to the positional relationship and displaying it on the sub-image.

図1において、表示機器23の撮像部10は被写体像を撮像して撮像画像を出力する。撮像部10からの撮像画像は撮影支援部11に与えられる。撮影支援部11は顔判定部11aを有しており、顔判定部11aは、入力された撮像画像中の顔部を検出する。   In FIG. 1, the imaging unit 10 of the display device 23 captures a subject image and outputs a captured image. The captured image from the imaging unit 10 is given to the imaging support unit 11. The imaging support unit 11 includes a face determination unit 11a, and the face determination unit 11a detects a face part in the input captured image.

位置判定部11bは、撮像画像中から対象物となる被写体及び光源がいずれの位置に存在するかを判定する。例えば、位置判定部11bは、撮像画像中に所定レベル以上の輝度部分が存在する場合には、この部分が光源であるものと判定する。また、陰影変更部11cは、被写体の陰影の状態を光源からの距離に応じてシミュレーションするために、例えば、画面内の被写体の距離分布を判定するようになっている。   The position determination unit 11b determines in which position the subject and the light source that are the target are present in the captured image. For example, if there is a luminance portion of a predetermined level or higher in the captured image, the position determination unit 11b determines that this portion is a light source. In addition, the shadow changing unit 11c determines, for example, the distance distribution of the subject in the screen in order to simulate the state of the subject's shadow according to the distance from the light source.

陰影変更部11cは、対象物である被写体が位置判定部11bによって判定された光源位置に近づく方向又は遠ざかる方向に移動した場合について、撮像画像中の被写体画像を基にして、各場合の被写体の陰影の状態を夫々シミュレーションによって求める。陰影変更部11cは、シミュレーション結果である陰影変更画像を表示制御部11dに与える。表示制御部11dは、被写体の陰影をシミュレーション結果に従って変化させた陰影変更画像を撮像部10からの撮像画像に合成した合成画像を表示部12に出力する。   The shadow changing unit 11c, when the subject as the object moves in a direction approaching or moving away from the light source position determined by the position determination unit 11b, based on the subject image in the captured image, Each shadow state is obtained by simulation. The shadow changing unit 11c gives a shadow change image, which is a simulation result, to the display control unit 11d. The display control unit 11 d outputs to the display unit 12 a composite image obtained by combining the shadow change image obtained by changing the shadow of the subject according to the simulation result with the captured image from the imaging unit 10.

表示部12は例えば撮像部10を収納する筐体に設けられており、ユーザは撮像部10の撮影操作に際して表示部12を視認することができるようになっている。表示部12の表示画面12aには、スルー画上に陰影変更画像が重ねて表示されており、ユーザは陰影変更画像を参照することで、被写体を光源に対していずれの方向に移動させれば、希望する陰影の撮像画像が得られるかを判断することができる。ここでは、身近なカメラやスマホ等を想定しているが、もちろん、表示部12は遠隔に設けられて、遠隔地で陰影シミュレーションが出来てもよい。   The display unit 12 is provided, for example, in a housing that houses the imaging unit 10, and the user can visually recognize the display unit 12 during a shooting operation of the imaging unit 10. On the display screen 12 a of the display unit 12, the shadow change image is displayed so as to be superimposed on the through image. By referring to the shadow change image, the user can move the subject in any direction with respect to the light source. It is possible to determine whether or not a captured image of a desired shadow can be obtained. Here, a familiar camera, a smartphone, or the like is assumed, but of course, the display unit 12 may be provided remotely to perform a shadow simulation in a remote place.

次に、このように構成された実施の形態について図3乃至図6を参照して説明する。図3はカメラ制御を示すフローチャートであり、図4乃至図6は陰影変更画像の生成方法を説明するための説明図である。なお、図3乃至図6では撮影支援表示の対象物が人物の顔であるものとして説明する。   Next, an embodiment configured as described above will be described with reference to FIGS. FIG. 3 is a flowchart showing camera control, and FIGS. 4 to 6 are explanatory diagrams for explaining a method of generating a shadow change image. In FIGS. 3 to 6, description will be made on the assumption that the target for photographing support display is a human face.

撮影支援部11は、図3のステップS11において撮影モードが指示されたか否かを判定する。撮影モードが指示されていない場合には、撮影支援部11は、他のモードに移行する。   The imaging support unit 11 determines whether an imaging mode is instructed in step S11 of FIG. When the shooting mode is not instructed, the shooting support unit 11 shifts to another mode.

撮影モードが指示されると、ステップS12において、撮影支援部11は撮像部10からの撮像画像を取込み、顔判定部11aは撮像画像中の顔部を判定する。また、陰影変更部11cは、撮像画像中の各部について、画面内の距離分布を判定する。撮影支援部11の表示制御部11dは、撮像部10からの撮像画像に所定の画像処理を施し、画像処理後の撮像画像を表示部12に与えてスルー画を表示させる。   When the shooting mode is instructed, in step S12, the shooting support unit 11 captures a captured image from the imaging unit 10, and the face determination unit 11a determines a face portion in the captured image. The shadow changing unit 11c determines the distance distribution in the screen for each part in the captured image. The display control unit 11d of the imaging support unit 11 performs predetermined image processing on the captured image from the imaging unit 10, and provides the captured image after the image processing to the display unit 12 to display a through image.

次に、陰影変更部11cは、例えば、画面内に陰影差が十分に大きい顔部の画像が存在するか否かを判定する(ステップS13)。撮像画像の例えば中央に陰影差が十分に大きい顔部が存在する場合には、対象物となるこのような顔を照明する光源が存在するか否かが位置判定部11bによって安定される(ステップS14)。   Next, the shadow changing unit 11c determines, for example, whether or not a face image having a sufficiently large shadow difference exists in the screen (step S13). For example, when a face having a sufficiently large shadow difference exists in the center of the captured image, whether or not there is a light source that illuminates such a face as an object is stabilized by the position determination unit 11b (Step S11). S14).

なお、ステップS14の光源位置判定では、窓や照明器具等の拡散した光を出射する光源を想定しており、被写体が直射日光によって照明されることは想定していない。例えば、被写体の明暗部分の輝度差が極端に大きい場合には、被写体に直射日光が当たっていると判定してもよい。この場合には、光源方向又はその逆方向に被写体が移動したとしても撮像画像の明暗変化は大きいままで変化しないので、顔の向きで撮像画像の印象が大きく変わる等のアドバイスを表示させて、ステップS14からステップS21に処理を移行させるようにしてもよい。   Note that the light source position determination in step S14 assumes a light source that emits diffused light, such as a window or a luminaire, and does not assume that the subject is illuminated by direct sunlight. For example, when the brightness difference between the bright and dark parts of the subject is extremely large, it may be determined that the subject is exposed to direct sunlight. In this case, even if the subject moves in the direction of the light source or in the opposite direction, the change in brightness of the captured image remains large and does not change, so advice such as the impression of the captured image changes greatly depending on the face orientation is displayed. You may make it transfer a process from step S14 to step S21.

位置判定部11bは、光源位置の判定が不能な場合には、表示制御部11dによって光源位置の判定が不能であることを示す警告表示を表示させるようにしてもよい。例えば、表示制御部11dは、「光源位置の判定ができませんでした」という警告表示等を表示部12の表示画面12a上に表示させる。   If the light source position cannot be determined, the position determination unit 11b may display a warning display indicating that the light source position cannot be determined by the display control unit 11d. For example, the display control unit 11d displays on the display screen 12a of the display unit 12 a warning display such as “The light source position could not be determined”.

背景が比較的暗く明るい窓が存在する室内を撮像する場合等においては、撮像画像の明るさは窓からの照明効果が支配的だと考えられる。室内の人物の顔を照明する光も窓から拡散してくる光束に依存し、窓を光源として単純化した場合には、室内の明るさは窓からの距離の二乗に反比例すると考えられる。   When capturing an image of a room with a relatively dark background and a bright window, it is considered that the brightness of the captured image is dominated by the lighting effect from the window. The light that illuminates the face of a person in the room also depends on the light beam diffused from the window. When the window is simplified as a light source, the brightness of the room is considered to be inversely proportional to the square of the distance from the window.

そこで、陰影変更部11cは、窓からの拡散光の影響を考慮して、位置を移動した場合の対象物の陰影の状態をシミュレーションするために、対象物を照明する光源が存在する場合には、光源から対象物である顔部までの距離が判定可能であるか否かを判定する(ステップS15)。距離が判定可能である場合には、陰影変更部11cは、ステップS16,S17において陰影変更画像を生成する。陰影変更部11cは、陰影変更画像を表示する位置を決定し、対象物がその位置に存在する場合の陰影をシミュレーションし、陰影変更画像に反映させる。   Therefore, the shadow changing unit 11c considers the influence of the diffused light from the window, and when there is a light source that illuminates the object in order to simulate the shadow state of the object when the position is moved. Then, it is determined whether or not the distance from the light source to the face part that is the object can be determined (step S15). When the distance can be determined, the shadow changing unit 11c generates a shadow changed image in steps S16 and S17. The shadow changing unit 11c determines the position where the shadow changed image is displayed, simulates the shadow when the object is present at the position, and reflects it in the shadow changed image.

図4は被写体を撮影している様子を上方から見て示すものであり、光源からの距離と明るさの影響による陰影の状態の分析方法を説明するためのものである。図4は光源の位置を基準として、陰影変更画像を光源と対象物との間の距離の1/2及び2/3の位置に表示する場合の例を示している。図4(a)は被写体である人物21の真横に光源である窓26が位置して、窓26からの散乱光によって被写体である人物21が真横から照明されている状態で、表示機器23が人物21の真正面から被写体である人物21を撮影する様子を示している。   FIG. 4 shows a state where a subject is photographed as viewed from above, and is for explaining a method of analyzing a shadow state due to the influence of the distance from the light source and the brightness. FIG. 4 shows an example in which the shadow change image is displayed at a position of ½ and 2/3 of the distance between the light source and the object with reference to the position of the light source. 4A shows a state in which a window 26 as a light source is positioned beside a person 21 as a subject, and the person 21 as a subject is illuminated from the side by scattered light from the window 26. A state in which the person 21 as the subject is photographed from directly in front of the person 21 is shown.

窓26は室内25に面した放射面から散乱光を室内25に向けて出射する。人物21の後ろには背景である壁28が存在する。人物21は壁28の前で、窓26からの散乱光を真横から受ける位置に位置する。なお、窓26の放射面に直交する方向をX方向とする。図4(a)の窓26からの矢印は室内25への散乱光の照射を示している。また図4(a)の扇型の破線は、散乱光が拡散する様子を模式的に示しており、窓26からの散乱光は窓26から離れるにつれて距離の二乗に反比例して次第に暗くなる。表示機器23の撮像部10から人物21までの距離はDf、撮像部10から光源である窓26までの距離はDwであるものとする。また、被写体である人物21と窓26との間の距離はXwfであるものとする。   The window 26 emits scattered light from the radiation surface facing the room 25 toward the room 25. Behind the person 21 is a wall 28 as a background. The person 21 is located in front of the wall 28 at a position where the scattered light from the window 26 is received from the side. The direction orthogonal to the radiation surface of the window 26 is defined as the X direction. The arrow from the window 26 in FIG. 4A indicates irradiation of scattered light into the room 25. The fan-shaped broken line in FIG. 4A schematically shows how scattered light diffuses, and the scattered light from the window 26 becomes gradually darker in inverse proportion to the square of the distance as the distance from the window 26 increases. It is assumed that the distance from the imaging unit 10 to the person 21 of the display device 23 is Df, and the distance from the imaging unit 10 to the window 26 that is a light source is Dw. Further, the distance between the subject person 21 and the window 26 is assumed to be Xwf.

図4(b)は、例えば顔部の高さ(撮像画像中の顔部を含む所定の水平ライン)における光源である窓26からの距離に応じた明るさの変化を×印によって示している。窓26からの距離がXwfである人物21の顔部の明るさがBfであるものとする。この場合には、窓26からの距離がXwf/2の位置における明るさは4Bfであり、窓26からの距離が3Xwf/2の位置における明るさは9/4(約Bf/2)である。例えば、陰影変更部11cは、陰影変更画像を窓26からの距離がXwf/2の位置に配置する場合には、撮像画像中の顔部の明るさを元の画像の1/2にした陰影変更画像を生成する。   FIG. 4B shows a change in brightness according to the distance from the window 26 that is a light source, for example, at the height of the face (a predetermined horizontal line including the face in the captured image). . It is assumed that the brightness of the face of the person 21 whose distance from the window 26 is Xwf is Bf. In this case, the brightness at the position where the distance from the window 26 is Xwf / 2 is 4Bf, and the brightness at the position where the distance from the window 26 is 3Xwf / 2 is 9/4 (about Bf / 2). . For example, in the case where the shadow changing image is arranged at a position where the distance from the window 26 is Xwf / 2, the shadow changing unit 11c has a shadow obtained by setting the brightness of the face in the captured image to ½ of the original image. Generate a modified image.

このように、陰影変更部11cは、陰影変更画像の表示位置に応じて陰影変更画像の明るさを変化させる。しかし、陰影変更画像の表示位置は窓26の位置を基準に求めており、窓26が比較的撮像画像中の広い面積を占める場合には、陰影変更画像の表示位置の基準の決定が困難となる。そこで、本実施の形態においては、陰影変更部11cは、画角基準で陰影変更画像の表示位置を決定する。   As described above, the shadow changing unit 11c changes the brightness of the shadow change image according to the display position of the shadow change image. However, the display position of the shadow change image is obtained based on the position of the window 26, and when the window 26 occupies a relatively large area in the captured image, it is difficult to determine the reference of the display position of the shadow change image. Become. Therefore, in the present embodiment, the shadow changing unit 11c determines the display position of the shadow changed image based on the angle of view.

図5は陰影変更画像の表示位置の求め方を示している。図5(a)は図4(a)と同様の撮影状態を示している。図5(a)は対象物である人物21が撮像範囲の中央に位置し、最大の画角をθ0として、光源である窓26が窓枠等によって画角θwにおいて検出された例を示している。窓26からの距離がXwf/2の位置における画角をθlとすると、θlは下記(1)式によって与えられる。   FIG. 5 shows how to obtain the display position of the shadow change image. FIG. 5A shows a photographing state similar to that in FIG. FIG. 5A shows an example in which the person 21 as the object is located in the center of the imaging range, the maximum angle of view is θ0, and the window 26 as the light source is detected at the angle of view θw by a window frame or the like. Yes. If the angle of view at the position where the distance from the window 26 is Xwf / 2 is θl, θl is given by the following equation (1).

θl={arctan(Xwf/2)}/Df …(1)
図5(b)は上記(1)式に基づく陰影変更画像の表示位置を示している。図5(a)は表示部12の表示画面12a上の撮影支援表示を示すものであり、撮影支援表示は、スルー画上に陰影変更画像を表示したものである。光源側の陰影表示領域43aは、画角θlの位置に表示される。また、窓26からの距離が3Xwf/2の位置は、図5(b)に示すように、画角θlと同じ大きさで画面中心を基準に対称な位置を示す画角θdで表される。
θl = {arctan (Xwf / 2)} / Df (1)
FIG. 5B shows the display position of the shadow change image based on the above equation (1). FIG. 5A shows a shooting support display on the display screen 12a of the display unit 12, and the shooting support display is a display of a shadow change image on a through image. The shadow display area 43a on the light source side is displayed at the position of the field angle θl. Further, as shown in FIG. 5B, the position where the distance from the window 26 is 3Xwf / 2 is represented by an angle of view θd having the same size as the angle of view θl and a symmetric position with respect to the center of the screen. .

図6は横軸に画面の水平位置をとり縦軸に像信号のレベルをとって、陰影変更画像の像信号レベルを説明するためのものである。図6(a)は撮像画像の顔部を含む所定のラインの像信号レベルを示し、図6(b)は光源方向に配置表示する陰影変更画像の像信号レベルを示し、図6(c)は光源方向と反対方向に配置表示する陰影変更画像の像信号レベルを示している。   FIG. 6 illustrates the image signal level of the shadow-changed image, with the horizontal position of the screen on the horizontal axis and the image signal level on the vertical axis. 6A shows the image signal level of a predetermined line including the face portion of the captured image, FIG. 6B shows the image signal level of the shadow change image arranged and displayed in the light source direction, and FIG. Indicates the image signal level of the shade-changed image arranged and displayed in the direction opposite to the light source direction.

図6(b)は図6(a)の顔部の像信号振幅を2倍したものであり、図6(c)は図6(a)の顔部の像信号振幅を1/2倍したものである。図5(b)の光源側表示位置に配置する陰影変更画像は、元の顔部の画像の像信号の振幅が2倍されていることから、背景に対してより明るい印象の画像となる。例えば、現在の撮像画像中の顔部の画像よりも顔部がより白い印象の画像が得られる。また、光源方向の逆方向に配置する陰影変更画像は、元の顔部の画像の像信号の振幅が1/2倍されていることから、背景に対してより暗い印象の画像が得られる。例えば、撮像画像の顔部が白飛びしている場合でも、適正露出の画像となる。   FIG. 6 (b) is obtained by doubling the face image signal amplitude of FIG. 6 (a), and FIG. 6 (c) is ½ times the face image signal amplitude of FIG. 6 (a). Is. The shade-changed image arranged at the light source side display position in FIG. 5B has a brighter image than the background because the amplitude of the image signal of the original face image is doubled. For example, an image having an impression that the face is whiter than the image of the face in the current captured image is obtained. Further, since the amplitude of the image signal of the original face image is halved in the shadow change image arranged in the direction opposite to the light source direction, an image having a darker impression than the background can be obtained. For example, even when the face portion of the captured image is whiteout, the image is appropriately exposed.

ステップS16では、陰影変更部11cは、顔判定部11aによって判定された顔部の画像信号の信号振幅を例えば2倍に強調した画像を陰影変更画像として生成する。表示制御部11dは、この生成された陰影変更画像が撮像画像中の顔部から光源方向の画角θl(図5(b))の位置に位置するように撮像画像と陰影変更画像とを合成して表示部12に与える。これにより、例えば図2(b)の陰影変更画像43bが画角θlの位置に表示される。   In step S16, the shadow changing unit 11c generates, as a shadow changed image, an image in which, for example, the signal amplitude of the image signal of the face determined by the face determining unit 11a is enhanced twice. The display control unit 11d synthesizes the captured image and the shade-changed image so that the generated shade-changed image is positioned at the angle of view θl (FIG. 5B) in the light source direction from the face in the captured image. To the display unit 12. Thereby, for example, the shadow change image 43b in FIG. 2B is displayed at the position of the angle of view θl.

また、陰影変更部11cは、ステップS17において、顔判定部11aによって判定された顔部の画像信号の信号振幅を例えば1/2倍に弱めた画像を陰影変更画像として生成する。表示制御部11dは、この生成された陰影変更画像が撮像画像中の顔部から光源の反対方向の画角θd(図5(b))の位置に位置するように撮像画像と陰影変更画像とを合成して表示部12に与える。これにより、例えば図2(b)の陰影変更画像44bが画角θdの位置に表示される。   In step S17, the shadow changing unit 11c generates, as a shadow changed image, an image in which the signal amplitude of the face image signal determined by the face determining unit 11a is reduced by, for example, ½. The display control unit 11d displays the captured image, the shadow-changed image, and the shadow-changed image so that the generated shadow-changed image is positioned at the angle of view θd (FIG. 5B) in the opposite direction of the light source from the face in the captured image. Are combined and given to the display unit 12. Thereby, for example, the shadow change image 44b in FIG. 2B is displayed at the position of the angle of view θd.

なお、陰影変更部11cは、像信号の振幅を2倍又は1/2倍して、画角θl,θdの位置に表示する例を示したが、振幅を何倍するかは適宜設定可能であり、陰影の強調量に応じた表示位置に画角変更画像を表示させればよい。なお、像信号の顔部分の振幅を変化させる手法だけでなく、像信号の顔部分の明るさが全体的に明るくなるように又は暗くなるように変化させる手法を採用してもよい。   The shadow changing unit 11c has shown an example in which the amplitude of the image signal is doubled or halved and displayed at the positions of the view angles θl and θd. However, how many times the amplitude is to be multiplied can be set as appropriate. Yes, the angle-of-view-change image may be displayed at the display position corresponding to the shadow enhancement amount. Not only the method of changing the amplitude of the face portion of the image signal, but also a method of changing the brightness of the face portion of the image signal so as to become brighter or darker as a whole may be adopted.

撮影支援部11は、ステップS18において、ユーザが、光源方向又は光源の逆方向に表示された陰影変更画像のいずれか一方を選択したか否かを判定する。ユーザが陰影変更画像のいずれか一方を選択する操作をした場合には、選択された方向に被写体を移動させることを促すガイド表示を表示する(ステップS19)。ステップS20では、表示制御部11dは、陰影変更画像の表示を消去する。   In step S <b> 18, the imaging support unit 11 determines whether the user has selected one of the shadow change images displayed in the light source direction or the reverse direction of the light source. When the user performs an operation of selecting one of the shadow change images, a guide display that prompts the user to move the subject in the selected direction is displayed (step S19). In step S20, the display control unit 11d deletes the display of the shadow change image.

ステップS21においては、表示機器23は撮影を行うためのレリーズ操作やタッチ操作等が行われたか否かを判定する。レリーズ操作等があった場合は、表示機器23は撮影を行い、撮像画像を記録する(ステップS22)。   In step S <b> 21, the display device 23 determines whether or not a release operation or a touch operation for performing shooting has been performed. If there is a release operation or the like, the display device 23 performs shooting and records a captured image (step S22).

このように本実施の形態においては、被写体が光源方向に移動した場合と光源から反対方向に移動した場合とにおける被写体画像をシミュレーションして陰影変更画像を作成し、陰影変更画像の陰影の強調量に対応する表示位置に表示する。この陰影変更画像は、被写体がどこに移動した場合にどのような陰影(濃淡)で撮影されるかを示すものであり、ユーザが希望する濃淡の撮像画像を得ることを効果的に支援することができる。例えば、ユーザがより肌が白く写るように撮影したい場合や、皺が見えにくくなるように撮影したい場合や、白飛びしない状態で撮影したい場合等において、どの位置に被写体が立てばよいかを示すことができる。ユーザは陰影変更画像の画像の状態や表示位置を参照することで、希望する濃淡の撮像画像を得るために被写体をどこに位置させればよいかを簡単に把握することができる。   Thus, in the present embodiment, a shadow change image is created by simulating the subject image when the subject moves in the light source direction and when the subject moves in the opposite direction from the light source, and the shadow enhancement amount of the shadow change image Is displayed at the display position corresponding to. This shade-changed image indicates where the subject moves and what kind of shade (shading) is taken, and can effectively assist the user in obtaining the desired shaded image. it can. For example, if the user wants to shoot with a whiter skin, wants to shoot with less wrinkles, or wants to shoot without overexposure, it indicates where the subject should stand be able to. By referring to the image state and display position of the shadow change image, the user can easily grasp where the subject should be positioned in order to obtain a desired shaded captured image.

なお、上記説明では、説明を簡略化するために、光源が対象物の水平方向に位置する場合について説明したが、光源が対象物に対して真後ろ又は真正面を除くいずれの位置に位置する場合でも、同様に適用可能である。   In the above description, in order to simplify the description, the case where the light source is positioned in the horizontal direction of the target object has been described. However, the light source may be positioned at any position other than right behind or in front of the target object. , As well as applicable.

(第2の実施の形態)
図7は本発明の第2の実施の形態を示すブロック図である。本実施の形態はデジタルカメラに適用したものである。
(Second Embodiment)
FIG. 7 is a block diagram showing a second embodiment of the present invention. This embodiment is applied to a digital camera.

図7において、本実施の形態に係る表示機器50には、前面に撮影光学系61が設けられている。撮影光学系61は、撮像部52に被写体像を導く。なお、撮影光学系61は、表示機器50とは別体に構成されて、着脱自在に取り付けられる交換レンズに構成されるものであってもよい。   In FIG. 7, the display device 50 according to the present embodiment is provided with a photographing optical system 61 on the front surface. The imaging optical system 61 guides the subject image to the imaging unit 52. Note that the photographic optical system 61 may be configured separately from the display device 50 and an interchangeable lens that is detachably attached.

撮影光学系61は、ズームやフォーカシングのための図示しないレンズ等を備えており、これらのレンズはレンズ用制御部62によって駆動制御されるようになっている。レンズ用制御部62は、後述する信号処理及び制御部53に制御されるようになっている。撮影光学系61は、信号処理及び制御部53によって、ピント位置、ズーム位置及び絞り等が制御される。   The photographing optical system 61 includes a lens (not shown) for zooming and focusing. These lenses are driven and controlled by a lens control unit 62. The lens control unit 62 is controlled by a signal processing and control unit 53 described later. In the photographing optical system 61, the focus position, the zoom position, the aperture, and the like are controlled by the signal processing and control unit 53.

表示機器50は、CCDやCMOSセンサ等の撮像素子によって構成された撮像部52を有している。撮像部52は、撮影光学系61からの被写体像を光電変換して撮像画像を得る。撮像部52は、信号処理及び制御部53によって駆動制御されて撮像画像を出力する。   The display device 50 includes an imaging unit 52 configured by an imaging element such as a CCD or a CMOS sensor. The imaging unit 52 photoelectrically converts the subject image from the imaging optical system 61 to obtain a captured image. The imaging unit 52 is driven and controlled by the signal processing and control unit 53 and outputs a captured image.

信号処理及び制御部53は、例えば、図示しないCPU及びメモリ等によって構成されており、メモリに記憶されたプログラムに従ってカメラ制御を行う。信号処理及び制御部53は、撮像部52に撮像素子の駆動信号を出力してシャッタースピード、露光時間等を制御すると共に、撮像部52からの撮像画像を読み出す。信号処理及び制御部53は、読み出した撮像画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。   The signal processing and control unit 53 includes, for example, a CPU and a memory (not shown), and performs camera control according to a program stored in the memory. The signal processing and control unit 53 outputs a drive signal of the image sensor to the imaging unit 52 to control the shutter speed, the exposure time, and the like, and reads a captured image from the imaging unit 52. The signal processing and control unit 53 performs predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing on the read captured image.

表示機器50には、操作判定部54及び時計部55も配設されている。時計部55は、信号処理及び制御部53が用いる時間情報を発生する。操作判定部54は、表示機器50に設けられた図示しないシャッターボタン、ファンクションボタン、撮影モード設定等の各種スイッチ等を含む操作部に対するユーザ操作に基づく操作信号を発生して、信号処理及び制御部53に出力するようになっている。信号処理及び制御部53は、操作信号に基づいて、各部を制御する。   The display device 50 is also provided with an operation determination unit 54 and a clock unit 55. The clock unit 55 generates time information used by the signal processing and control unit 53. The operation determination unit 54 generates an operation signal based on a user operation to an operation unit including a shutter button, a function button, various switches such as a shooting mode setting (not shown) provided in the display device 50, and a signal processing and control unit 53 is output. The signal processing and control unit 53 controls each unit based on the operation signal.

信号処理及び制御部53は、撮像画像の記録及び再生に関する処理を行うことができる。例えば、信号処理及び制御部53は、信号処理後の撮像画像を圧縮処理し、圧縮後の画像を記録部57に与えて記録させることができる。記録部57としては、例えばカードインターフェースを採用することができ、記録部57はメモリカード等の記録媒体に画像情報及び音声情報等を記録可能である。   The signal processing and control unit 53 can perform processing related to recording and reproduction of a captured image. For example, the signal processing and control unit 53 can compress the captured image after the signal processing, and can apply the compressed image to the recording unit 57 for recording. For example, a card interface can be adopted as the recording unit 57, and the recording unit 57 can record image information, audio information, and the like on a recording medium such as a memory card.

信号処理及び制御部53の表示制御部53aは表示に関する各種処理を実行する。表示制御部53aは、信号処理後の撮像画像を表示部56に与えることができる。表示部56は、LCD等の表示画面を有しており、表示制御部53aから与えられた画像を表示する。また、表示制御部53aは、各種メニュー表示等を表示部56の表示画面56b(図10A参照)に表示させることもできるようになっている。   The display control unit 53a of the signal processing and control unit 53 executes various processes related to display. The display control unit 53 a can give the captured image after the signal processing to the display unit 56. The display unit 56 has a display screen such as an LCD, and displays an image given from the display control unit 53a. Further, the display control unit 53a can display various menu displays and the like on the display screen 56b (see FIG. 10A) of the display unit 56.

信号処理及び制御部53は、記録部57に記録されている撮像画像を読み出して伸張処理することができる。表示制御部53aは伸張処理された撮像画像を表示部56に与えることで、記録画像の再生が可能である。   The signal processing and control unit 53 can read out the captured image recorded in the recording unit 57 and perform expansion processing. The display control unit 53a can reproduce the recorded image by giving the expanded captured image to the display unit 56.

表示部56は、撮像画像を表示する表示画面56b(図10A参照)を有しており、表示画面56b上にはタッチパネル56aが設けられている。タッチパネル56aは、ユーザが指で指し示した表示画面56b上の位置に応じた操作信号を発生することができる。この操作信号は、信号処理及び制御部53に供給される。これにより、信号処理及び制御部53は、ユーザが表示画面56b上をタッチしたりスライドさせたりした場合には、ユーザのタッチ位置、指を閉じ離間させる操作(ピンチ操作)、スライド操作やスライド操作によって到達した位置、スライド方向、タッチしている期間等の各種操作を検出することができ、ユーザ操作に対応した処理を実行することができるようになっている。   The display unit 56 includes a display screen 56b (see FIG. 10A) that displays a captured image, and a touch panel 56a is provided on the display screen 56b. The touch panel 56a can generate an operation signal corresponding to the position on the display screen 56b pointed by the user with a finger. This operation signal is supplied to the signal processing and control unit 53. Accordingly, when the user touches or slides on the display screen 56b, the signal processing and control unit 53 causes the user's touch position, an operation for closing and separating the finger (pinch operation), a slide operation or a slide operation. Thus, it is possible to detect various operations such as the position reached, the slide direction, the touch period, and the like, and it is possible to execute processing corresponding to the user operation.

なお、表示部56は、表示機器50の例えば背面の略全域を占めるように配設されており、撮影者は、撮影時に表示部56の表示画面56b上に表示されたスルー画を確認することができ、スルー画を確認しながら撮影操作を行うこともできる。   The display unit 56 is disposed so as to occupy substantially the entire rear surface of the display device 50, for example, and the photographer confirms the through image displayed on the display screen 56b of the display unit 56 at the time of shooting. It is also possible to perform shooting operations while checking through images.

表示機器50には、加速度判定部58が設けられている。加速度判定部58は、ジャイロセンサ、加速度センサ等によって構成されており、表示機器50を収納する筐体の動き及び姿勢(傾き)を検出することができるようになっている。加速度判定部58の判定結果は信号処理及び制御部53に与えられる。   The display device 50 is provided with an acceleration determination unit 58. The acceleration determination unit 58 includes a gyro sensor, an acceleration sensor, and the like, and can detect the movement and posture (tilt) of the housing that houses the display device 50. The determination result of the acceleration determination unit 58 is given to the signal processing and control unit 53.

また、表示機器50には通信部59も設けられている。通信部59は、外部機器との間で通信を行って、信号処理及び制御部53からの撮像画像を送信すると共に、外部機器から受信した撮像画像を信号処理及び制御部53に出力することができるようになっている。   The display device 50 is also provided with a communication unit 59. The communication unit 59 communicates with an external device to transmit a captured image from the signal processing and control unit 53 and to output a captured image received from the external device to the signal processing and control unit 53. It can be done.

本実施の形態においては、信号処理及び制御部53は、ユーザが希望する濃淡の画像を得るために光源に対していずれの位置に被写体を位置させればよいかを陰影変更画像によって示す陰影シミュレーションモードを実行することができるようになっている。陰影変更画像を生成するために、信号処理及び制御部53は、表示制御部53aの他に、顔検出部53b、陰影変更部53c、距離分布判定部53d及び光源位置判定部53eを有している。   In the present embodiment, the signal processing and control unit 53 uses the shadow change image to indicate in which position the subject should be positioned with respect to the light source in order to obtain a shaded image desired by the user. The mode can be executed. In order to generate the shadow change image, the signal processing and control unit 53 includes a face detection unit 53b, a shadow change unit 53c, a distance distribution determination unit 53d, and a light source position determination unit 53e in addition to the display control unit 53a. Yes.

顔検出部53bは、撮像画像に対する公知の顔検出処理等によって、撮像画像中の人物の顔や人体、ペットや特定の物体等を陰影変更画像の対象物として判定することが可能である。更に、顔検出部53bは、画面の中央の顔部や、画面中心部等を対象物に指定してもよい。   The face detection unit 53b can determine a human face, a human body, a pet, a specific object, or the like in the captured image as a target of the shadow change image by a known face detection process for the captured image. Furthermore, the face detection unit 53b may specify the center face of the screen, the center of the screen, or the like as an object.

距離分布判定部53dは、撮像部52から撮像画像中の各部までの距離の分布を求める。例えば、距離分布判定部53dは、撮像部52から被写体までの距離及び撮像部52から光源までの距離等を判定することができるようになっている。距離分布判定部53dは、専用の距離センサによって距離判定を行ってもよく、撮像部52のフォーカス制御用の画素を用いた像面位相差法による距離検出を行ってもよく、また、撮影光学系61の合焦時のレンズ位置を元に距離判定を行ってもよい。   The distance distribution determination unit 53d calculates a distribution of distances from the imaging unit 52 to each unit in the captured image. For example, the distance distribution determination unit 53d can determine the distance from the imaging unit 52 to the subject, the distance from the imaging unit 52 to the light source, and the like. The distance distribution determination unit 53d may perform distance determination using a dedicated distance sensor, may perform distance detection by an image plane phase difference method using the focus control pixels of the imaging unit 52, and may be configured to perform photographing optical. The distance determination may be performed based on the lens position when the system 61 is in focus.

本実施の形態においては、光源位置判定部53eは、距離分布判定部53dの判定結果に基づいて、撮像画像中において被写体に対して光源がいずれの位置に存在するかを判定する。例えば、位置判定部11bは、撮像画像中に所定レベル以上の輝度部分が存在する場合には、この部分が光源であるものと判定する。   In the present embodiment, the light source position determination unit 53e determines in which position the light source is located with respect to the subject in the captured image based on the determination result of the distance distribution determination unit 53d. For example, if there is a luminance portion of a predetermined level or higher in the captured image, the position determination unit 11b determines that this portion is a light source.

陰影変更部53cは、対象物である被写体が位置判定部11bによって判定された光源位置に近づく方向又は遠ざかる方向に移動した場合について、撮像画像中の被写体画像を基にして、各場合の被写体の陰影の状態を夫々シミュレーションによって求める。なお、陰影変更部53cは、距離分布判定部53dから画面内の被写体の距離分布の判定結果が与えられ、被写体の陰影の状態を光源からの距離に応じてシミュレーションして陰影変更画像を生成する。   The shadow changing unit 53c determines the subject in each case based on the subject image in the captured image when the subject as the target moves in a direction approaching or moving away from the light source position determined by the position determination unit 11b. Each shadow state is obtained by simulation. The shadow changing unit 53c receives the determination result of the distance distribution of the subject in the screen from the distance distribution determining unit 53d, and simulates the shadow state of the subject according to the distance from the light source to generate a shadow changed image. .

陰影変更部53cは、シミュレーション結果である陰影変更画像及びその表示位置の情報を表示制御部53aに与える。表示制御部53aは、被写体の陰影をシミュレーション結果に従って変化させた陰影変更画像を陰影変更部53cによって指定された表示位置において撮像部52からの撮像画像に合成した合成画像を生成して表示部56に出力する。   The shadow changing unit 53c gives the display control unit 53a information on the shadow changed image and its display position, which are simulation results. The display control unit 53a generates a composite image in which the shadow change image obtained by changing the shadow of the subject according to the simulation result is combined with the captured image from the image pickup unit 52 at the display position specified by the shadow change unit 53c, and the display unit 56 Output to.

表示部56は例えば撮像部52を収納する筐体に設けられており、ユーザは撮像部52の撮影操作に際して表示部56を視認することができるようになっている。表示部56の表示画面56bには、スルー画上に陰影変更画像が重ねて表示されており、ユーザは陰影変更画像を参照することで、被写体を光源に対していずれの方向に移動させれば、希望する陰影の撮像画像が得られるかを判断することができるようになっている。   The display unit 56 is provided, for example, in a housing that houses the imaging unit 52, and the user can visually recognize the display unit 56 during a shooting operation of the imaging unit 52. On the display screen 56b of the display unit 56, the shadow change image is displayed so as to be superimposed on the through image. By referring to the shadow change image, the user can move the subject in any direction with respect to the light source. It is possible to determine whether a captured image of a desired shadow can be obtained.

本実施の形態においては、陰影変更部53cは、タッチパネル56aに対するユーザ操作を受け付けて、ユーザに影変更画像を表示する位置を指示させることができるようになっている。例えば、ユーザがタッチパネル56a上で、対象物に対応する位置をタッチし、所定の位置までスライド操作した場合には、当該対象物がスライド操作の終点の位置に対応する実際の位置に移動した場合における陰影の状態をシミュレーションして、当該位置に対応する画面上の位置にシミュレーション結果である陰影変更画像を表示させるようになっている。   In the present embodiment, the shadow changing unit 53c can receive a user operation on the touch panel 56a and can instruct the user of the position where the shadow changed image is displayed. For example, when the user touches the position corresponding to the object on the touch panel 56a and performs a slide operation to a predetermined position, the object moves to an actual position corresponding to the position of the end point of the slide operation. A shadow change image as a simulation result is displayed at a position on the screen corresponding to the position.

なお、陰影変更部53cは、ユーザのスライド操作の途中においてもシミュレーション演算が可能であり、ユーザはスライド操作に応じて陰影変更画像の表示位置が変化しその陰影の様子が変化することを確認しながら、スライド操作を行うことができるようになっている。   It should be noted that the shadow changing unit 53c can perform a simulation calculation even during the user's slide operation, and the user confirms that the display position of the shadow change image changes and the state of the shadow changes according to the slide operation. However, a slide operation can be performed.

次にこのように構成された実施の形態の動作について図8、図9及び図10A〜図10Cを参照して説明する。図8は第2の実施の形態におけるカメラ制御を示すフローチャートである。図8において図3と同一の手順には同一符号を付して説明を省略する。図9、図10A〜図10Cは陰影変更画像の生成方法を説明するための説明図である。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. 8, 9, and 10A to 10C. FIG. 8 is a flowchart showing camera control in the second embodiment. In FIG. 8, the same steps as those in FIG. 9 and 10A to 10C are explanatory diagrams for explaining a method of generating a shadow change image.

第1の実施の形態においては、光源(窓)からの光が顔を真横から照明する例を示した。光が顔の真横から当たっているものとすることによって陰影のシミュレーションを簡単に求められるようにした。これに対し、本実施の形態においては、光源からの光が顔に斜めから当たっている例を示している。この場合、対象物である顔の移動方向が光源方向でない場合には、顔の凹凸によって陰影パターンが変化する。従って、正確な陰影変更画像を生成するためには、顔の凹凸パターンを用いた複雑な演算が必要となる。そこで、本実施の形態においては、陰影変更画像のシミュレーション演算を簡単にするために、顔は光源方向又はその反対方向に移動するものとする。   In the first embodiment, an example has been shown in which light from a light source (window) illuminates a face from the side. The simulation of the shadow was made easy by assuming that the light hits from the side of the face. On the other hand, in the present embodiment, an example is shown in which light from the light source strikes the face obliquely. In this case, when the moving direction of the target face is not the light source direction, the shadow pattern changes due to the unevenness of the face. Therefore, in order to generate an accurate shade-changed image, a complicated calculation using the facial concavo-convex pattern is required. Therefore, in the present embodiment, in order to simplify the simulation calculation of the shadow change image, the face is assumed to move in the light source direction or the opposite direction.

また、以下の説明では、説明を簡略化するために、光源と対象物とが同一高さに位置するものとして、X方向(水平方向)とZ方向(奥行き方向)のみを考慮して説明するが、光源と対象物の高さが異なる場合には、Y方向(高さ方向)も考慮して3次元での演算を行えばよい。   Further, in the following description, in order to simplify the description, it is assumed that the light source and the object are positioned at the same height, considering only the X direction (horizontal direction) and the Z direction (depth direction). However, when the heights of the light source and the object are different, a three-dimensional calculation may be performed in consideration of the Y direction (height direction).

図8のステップS31では、信号処理及び制御部53によって、陰影シミュレーションモードが指定されているか否かが判定される。陰影シミュレーションモードが指定されている場合には、光源位置判定部53e及び距離分布判定部53dによって光源及び対象物である例えば顔の位置等が判定される。   In step S31 of FIG. 8, the signal processing and control unit 53 determines whether or not the shadow simulation mode is designated. When the shadow simulation mode is designated, the light source position determination unit 53e and the distance distribution determination unit 53d determine the position of the light source and the target object such as a face.

いま、図9(a)に示すように、室内70で立っている人物71の左側に光源であるランプ72が位置し、このランプ72によって被写体である人物71が左前方側から照明されているものとする。図9(b)は被写体である人物71を表示機器50によって撮影する場合の位置関係を上方から見て示すものである。また、図9(c)はランプ72と人物71との位置関係に基づく人物71への光の入射を説明するためのものである。   As shown in FIG. 9A, a lamp 72 as a light source is positioned on the left side of a person 71 standing in a room 70, and the person 71 as a subject is illuminated from the left front side by the lamp 72. Shall. FIG. 9B shows the positional relationship when the person 71 as the subject is photographed by the display device 50 as viewed from above. FIG. 9C is for explaining the incidence of light on the person 71 based on the positional relationship between the lamp 72 and the person 71.

図9(a)は、被写体である人物71の左斜め前方にランプ72が位置して、ランプ72からの散乱光によって被写体である人物71が左斜め前方から照明されている状態で、表示機器50が人物71の正面から被写体である人物71を撮影する様子を示している。ランプ72は散乱光を室内70の各部に向けて出射する。図9(b)のランプ72からの矢印は人物71方向への散乱光の照射を示している。また図9(b)の扇型の破線は、散乱光が人物71方向に拡散する様子を模式的に示しており、ランプ72からの散乱光はランプ72から離れるにつれて次第に暗くなることを示している。表示機器50の撮像部52から人物71までの距離はDf、撮像部52からランプ72までの距離はDlであるものとする。これらの距離は、距離分布判定部53dによって求められる。また、人物71の方向(光軸方向)を基準にして、ランプ72の画角をθlとする。   FIG. 9A shows a display device in a state in which a lamp 72 is positioned in front of the subject person 71 diagonally to the left and the subject person 71 is illuminated from the front left by scattered light from the lamp 72. Reference numeral 50 denotes a state in which the person 71 as a subject is photographed from the front of the person 71. The lamp 72 emits scattered light toward each part of the room 70. An arrow from the lamp 72 in FIG. 9B indicates irradiation of scattered light toward the person 71. The fan-shaped broken line in FIG. 9B schematically shows how scattered light diffuses in the direction of the person 71, and shows that the scattered light from the lamp 72 gradually becomes darker as it moves away from the lamp 72. Yes. It is assumed that the distance from the imaging unit 52 of the display device 50 to the person 71 is Df, and the distance from the imaging unit 52 to the lamp 72 is Dl. These distances are obtained by the distance distribution determination unit 53d. In addition, the angle of view of the lamp 72 is θl with reference to the direction of the person 71 (optical axis direction).

距離分布判定部53dは、ランプ72から人物71までの距離Dlfを求める。撮像部52の光軸に垂直な方向(X方向)についてのランプ72と人物71との間の距離は、Dltanθlで表される。従って、距離Dlfは、Dlf={(Dltanθl)+(Df−Dl)0.5で表される。 The distance distribution determination unit 53d calculates a distance Dlf from the lamp 72 to the person 71. The distance between the lamp 72 and the person 71 in the direction perpendicular to the optical axis of the imaging unit 52 (X direction) is represented by Dl tan θl. Therefore, the distance Dlf is expressed by Dlf = {(Dltanθl) 2 + (Df−Dl) 2 } 0.5 .

なお、光源及び顔位置が判定不能であった場合には、処理をステップS32からステップS38に移行して、光源、顔位置の判定が不能であった旨の警告表示を表示して、陰影シミュレーションモードを終了する。次に、陰影変更部53cは、ステップS33において、陰影変更画像を表示させるために、対象物である顔をタッチしてスライドさせる操作が行われたか否かを判定する。タッチ及びスライド操作が行われない場合には、処理をステップS21に移行する。   If the light source and face position cannot be determined, the process proceeds from step S32 to step S38, a warning display indicating that the light source and face position cannot be determined is displayed, and shadow simulation is performed. Exit mode. Next, in step S33, the shadow changing unit 53c determines whether or not an operation of touching and sliding the face that is the object has been performed in order to display the shadow changed image. If no touch or slide operation is performed, the process proceeds to step S21.

タッチ及びスライド操作が行われると、ステップS34において、陰影変更部53cは対象物である顔部の画像をコピーし、陰影変更画像の生成を開始する。本実施の形態においては、ユーザがタッチパネル56a上で、スルー画中の被写体をタッチしてスライドさせる操作に応じて、陰影変更画像の表示位置及びこの表示位置に対応した陰影の状態を算出するようになっている。この場合、ユーザは、ランプ72と被写体である人物71とを結ぶ直線74の方向については意識していないものと考えられる。そこで、本実施の形態においては、ユーザがタッチパネル56a上を左右方向(X方向)にスライドさせるものとして、スライド操作の移動量に応じた表示位置及び陰影の状態を求める。   When the touch and slide operations are performed, in step S34, the shadow changing unit 53c copies the image of the face that is the object, and starts generating a shadow changed image. In the present embodiment, the display position of the shadow change image and the state of the shadow corresponding to the display position are calculated in accordance with an operation in which the user touches and slides the subject in the through image on the touch panel 56a. It has become. In this case, it is considered that the user is not aware of the direction of the straight line 74 that connects the lamp 72 and the person 71 as the subject. Therefore, in the present embodiment, the display position and the shadow state corresponding to the amount of movement of the slide operation are obtained on the assumption that the user slides on the touch panel 56a in the left-right direction (X direction).

図9(c)はランプ72と人物71とを結ぶ直線74上を人物71が移動するものとして、移動による陰影の影響を説明するためのものであり、人物71及びランプ72の位置を座標上に表示して示している。図9(c)では人物71の座標が(0,Df)、ランプ72の座標が(Dltanθl,Dl)である。   FIG. 9C is for explaining the influence of the shadow due to the movement, assuming that the person 71 moves on a straight line 74 connecting the lamp 72 and the person 71, and the positions of the person 71 and the lamp 72 on the coordinates. Is displayed. In FIG. 9C, the coordinates of the person 71 are (0, Df), and the coordinates of the lamp 72 are (Dltan θl, Dl).

従って、スライド操作をX方向に行った場合には、そのスライド操作に相当する実際の移動距離がX1であるものとすると、人物71の移動距離はX1・Dlf/(Dltanθl)となる。この移動距離の二乗に反比例させて、陰影変更画像の明るさを制御すればよい。なお、X方向の変化に対して直線74方向へは線形に変化するので、陰影変更画像の明るさは、X方向の変化率の二乗に反比例させて制御すればよい。   Therefore, when the slide operation is performed in the X direction, if the actual moving distance corresponding to the sliding operation is X1, the moving distance of the person 71 is X1 · Dlf / (Dltanθl). The brightness of the shadow change image may be controlled in inverse proportion to the square of the moving distance. In addition, since it changes linearly in the direction of the straight line 74 with respect to the change in the X direction, the brightness of the shadow change image may be controlled in inverse proportion to the square of the change rate in the X direction.

また、タッチパネル56a上の水平方向スライド量Xpに対する実際のX方向の移動量Xは、最大の画角θ0に対応する実際のX方向距離がDftanθ0であるので、タッチパネル56aの横幅の1/2の距離をXpoとすると、下記(2)式によって求めることができる。
X=Df(tanθ0)Xp/Xp0 …(2)
また、本実施の形態においては、ユーザによるX方向の操作によって、直線74に沿って陰影変更画像を移動させることを示すために、陰影変更画像中の人物71のサイズをZ方向の移動量に応じて変化させるようになっている。
Further, the actual X-direction movement amount X with respect to the horizontal slide amount Xp on the touch panel 56a is ½ of the horizontal width of the touch panel 56a because the actual X-direction distance corresponding to the maximum angle of view θ0 is Dftan θ0. If the distance is Xpo, it can be obtained by the following equation (2).
X = Df (tan θ0) Xp / Xp0 (2)
In this embodiment, in order to indicate that the shadow change image is moved along the straight line 74 by an operation in the X direction by the user, the size of the person 71 in the shadow change image is set to the movement amount in the Z direction. It is designed to change accordingly.

Z方向の変化量Zは、X方向と直線74とのなす角度が(π/2)−θlであるので、X方向の変化をXとして下記(3)式で与えられる(ステップS35)。   Since the angle between the X direction and the straight line 74 is (π / 2) −θl, the change amount Z in the Z direction is given by the following equation (3), where X is the change in the X direction (step S35).

Z=−tan{(π/2)−θl}X+Df …(3)
陰影変更画像を直線74上に移動させるのであれば、陰影変更画像中の顔のサイズは、ZとDfとの比率で変化することになる。陰影変更部53cは、ステップS36において、ZとDfの比率に基づいて、コピーした対象物である顔の画像のサイズを変更する(ステップS36)。
Z = −tan {(π / 2) −θl} X + Df (3)
If the shadow change image is moved on the straight line 74, the size of the face in the shadow change image changes at a ratio of Z and Df. In step S36, the shadow changing unit 53c changes the size of the face image that is the copied object based on the ratio of Z and Df (step S36).

次に、陰影変更部53cは、スライド量に対応するX方向の変化率に基づいて、コピーした対象物である顔の画像の陰影を強調又は弱めた陰影変更画像を生成する(ステップS37)。陰影変更部53cは、生成した陰影変更画像を表示制御部53aに与える。表示制御部53aは、陰影変更画像をスライド操作に対応する位置に表示させるように、スルー画と陰影変更画像との合成を行う。この合成画像が表示部56の表示画面56b上に表示される。   Next, the shadow changing unit 53c generates a shadow changed image in which the shadow of the face image that is the copied object is emphasized or weakened based on the change rate in the X direction corresponding to the slide amount (step S37). The shadow change unit 53c gives the generated shadow change image to the display control unit 53a. The display control unit 53a combines the live view image and the shadow change image so that the shadow change image is displayed at a position corresponding to the slide operation. This composite image is displayed on the display screen 56 b of the display unit 56.

図10A〜図10Cは、陰影シミュレーションモードにおける画面表示を説明するためのものである。図10Aは、表示画面56b上にスルー画81が表示されており、スルー画81中には、光源であるランプ72及び人物71の画像が表示されている様子を示している。ユーザが指先82によって、対象物である人物71の顔をタッチしようとしている。このタッチ操作によって人物71の顔部の画像が陰影変更部53cによってコピーされる。   10A to 10C are diagrams for explaining screen display in the shadow simulation mode. FIG. 10A shows a state in which a through image 81 is displayed on the display screen 56 b, and images of the lamp 72 and the person 71 that are light sources are displayed in the through image 81. The user is about to touch the face of the person 71 as the object with the fingertip 82. By this touch operation, the face image of the person 71 is copied by the shadow changing unit 53c.

図10Bは、ユーザが指先82を右側にスライドさせたことを示している。陰影変更部53cは、矢印83方向へのユーザのスライド操作を検出し、指先82の位置に、陰影変更画像84を表示する。ユーザが人物71をランプ72に近づける方向に移動させた場合の陰影変更画像の表示を希望しており、ランプ72は人物71よりも手前側に位置していることから、陰影変更画像84のサイズは元の顔部の画像よりも大きく表示されている。これにより、ユーザは、対象物が手前側に移動したことを画像サイズによって認識することができると共に、この場合における陰影の様子を陰影変更画像84の陰影によって知ることができる。   FIG. 10B shows that the user has slid the fingertip 82 to the right. The shadow changing unit 53 c detects the user's slide operation in the direction of the arrow 83, and displays the shadow changed image 84 at the position of the fingertip 82. The user desires to display a shadow change image when the user moves the person 71 in a direction approaching the lamp 72. Since the lamp 72 is positioned on the near side of the person 71, the size of the shadow change image 84 is determined. Is displayed larger than the original face image. As a result, the user can recognize that the object has moved to the near side based on the image size, and can know the state of the shadow in this case from the shadow of the shadow change image 84.

図10Cは、ユーザが指先82を左側にスライドさせたことを示している。陰影変更部53cは、矢印85方向へのユーザのスライド操作を検出し、指先82の位置に、陰影変更画像86を表示する。ユーザが人物71をランプ72から遠ざける方向に移動させた場合の陰影変更画像の表示を希望しており、陰影変更画像86のサイズは元の顔部の画像よりも小さく表示されている。これにより、ユーザは、対象物が奥行き方向に移動したことを画像サイズによって認識することができると共に、この場合における陰影の様子を陰影変更画像86の陰影によって知ることができる。   FIG. 10C shows that the user has slid the fingertip 82 to the left. The shadow changing unit 53 c detects the user's slide operation in the direction of the arrow 85 and displays the shadow changed image 86 at the position of the fingertip 82. When the user moves the person 71 in the direction away from the lamp 72, the user desires to display the shadow change image, and the size of the shadow change image 86 is displayed smaller than the original face image. Thus, the user can recognize that the object has moved in the depth direction based on the image size, and can know the state of the shadow in this case from the shadow of the shadow change image 86.

このように本実施の形態においても第1の実施の形態と同様の効果が得られる。更に、本実施の形態においては、光源からの照明か対象物に斜めから照射される場合でも、対象物を光源方向又はその反対方向に移動させた場合の陰影をシミュレーションすることで、簡単な演算によってシミュレーション結果である陰影変更画像を生成することが可能である。また、本実施の形態においては、ユーザがタッチパネル上で陰影変更画像を表示する位置を指示することができ、この指示に従った位置における陰影の状態を演算して、指示された位置に陰影変更画像を表示させることができ、ユーザは簡単に希望する陰影が得られる対象物の位置を確かめることができる。   Thus, also in this embodiment, the same effect as the first embodiment can be obtained. Further, in the present embodiment, even when illumination from a light source or an object is irradiated obliquely, a simple calculation is performed by simulating a shadow when the object is moved in the direction of the light source or in the opposite direction. Thus, it is possible to generate a shadow change image as a simulation result. Further, in the present embodiment, the user can instruct the position where the shadow change image is displayed on the touch panel, the shadow state at the position in accordance with this instruction is calculated, and the shadow is changed to the instructed position. The image can be displayed, and the user can easily confirm the position of the object from which the desired shadow can be obtained.

なお、上記説明では、撮像部からの距離の変化を示すために、光源方向に近づいた陰影変更画像中の顔のサイズは大きくし、光源の反対方向に移動した陰影変更画像中の顔のサイズは小さくしたが、顔のサイズの大小は、実際の大小に一致させても一致させなくてもよく、或いは同一サイズで表示するようにしてもよい。   In the above description, in order to show the change in the distance from the imaging unit, the size of the face in the shade-changed image approaching the light source direction is increased, and the size of the face in the shadow-changed image moved in the opposite direction of the light source However, the size of the face may or may not match the actual size, or may be displayed in the same size.

(変形例)
図11及び図12は変形例を示している。図11は変形例におけるカメラ制御を示すフローチャートであり、図12は変形例における表示を説明するための説明図である。図11において図8と同一の手順には同一符号を付して説明を省略する。
(Modification)
11 and 12 show a modification. FIG. 11 is a flowchart showing camera control in the modified example, and FIG. 12 is an explanatory diagram for explaining display in the modified example. In FIG. 11, the same steps as those in FIG.

本変形例は対象物に代えて光源を移動させた場合の陰影変更画像を表示するようにしたものである。陰影変更部53cは、図11のステップS33において顔のスライド操作がないと判定した場合には、次のステップS41において、光源のタッチ及びスライド操作があったか否かを判定する。   In this modification, a shadow change image is displayed when the light source is moved instead of the object. If it is determined in step S33 in FIG. 11 that there is no face slide operation, the shadow changing unit 53c determines in step S41 whether there has been a light source touch and slide operation.

陰影変更部53cは、光源に対するタッチ及びスライド操作が行われた場合には、ステップS42において、光源の画像をコピーし、陰影変更画像の生成を開始する。本変形例においても、ユーザがタッチパネル56a上で、スルー画中の光源をタッチしてスライドさせる操作に応じて、陰影変更画像の表示位置及びこの表示位置に対応した陰影の状態を算出するようになっている。   When the touch and the slide operation are performed on the light source, the shadow changing unit 53c copies the image of the light source and starts generating the shadow changed image in step S42. Also in the present modification, the display position of the shadow change image and the state of the shadow corresponding to the display position are calculated in accordance with an operation in which the user touches and slides the light source in the through image on the touch panel 56a. It has become.

この場合にも、例えば図9(c)のランプ72と人物71とを結ぶ直線74上をランプ72が移動するものとして、移動による陰影の影響を求める。陰影変更部53cは、ランプ72をタッチしてスライドさせる操作に基づく実際のX方向の距離からランプ72のZ方向の移動量を算出する(ステップS43)。ランプ72のサイズは、ZとDfとの比率で変化することになる。陰影変更部53cは、ステップS44において、ZとDfの比率に基づいて、コピーした光源であるランプ72の画像のサイズを変更する。   Also in this case, for example, it is assumed that the lamp 72 moves on a straight line 74 connecting the lamp 72 and the person 71 in FIG. The shadow changing unit 53c calculates the amount of movement of the lamp 72 in the Z direction based on the actual distance in the X direction based on the operation of touching and sliding the lamp 72 (step S43). The size of the lamp 72 changes with the ratio of Z and Df. In step S44, the shadow changing unit 53c changes the size of the image of the lamp 72, which is the copied light source, based on the ratio of Z and Df.

また、本変形例では、陰影変更部53cは、光源であるランプ72の移動位置が指定されると、このランプ位置と対象物との位置関係に基づいて、対象物である人物の顔部の陰影をシミュレーションしシュミレーション結果である陰影変更画像を、元の対象物の表示位置に重ねて表示させる。   Further, in this modification, when the movement position of the lamp 72 that is a light source is designated, the shadow changing unit 53c determines the face portion of the person that is the object based on the positional relationship between the lamp position and the object. The shadow is simulated and the shadow change image, which is the simulation result, is displayed so as to overlap the display position of the original object.

図12は、陰影シミュレーションモードにおける画面表示を説明するためのものである。図12(a)は、表示画面56b上にスルー画81が表示されており、スルー画81中には、光源であるランプ72及び人物71の画像が表示されている様子を示している。ユーザが指先82によって、光源であるランプ72をタッチしようとしている。このタッチ操作によってランプ72の画像が陰影変更部53cによってコピーされる。   FIG. 12 is a view for explaining screen display in the shadow simulation mode. FIG. 12A shows a state in which a through image 81 is displayed on the display screen 56 b, and images of the lamp 72 and the person 71 that are light sources are displayed in the through image 81. The user is about to touch the lamp 72 as a light source with the fingertip 82. By this touch operation, the image of the lamp 72 is copied by the shadow changing unit 53c.

図12(b)は、ユーザが指先82を左側にスライドさせたことを示している。陰影変更部53cは、矢印91方向へのユーザのスライド操作を検出し、指先82の位置に、ランプの画像92を表示する。ユーザがランプ72を対象物に近づける方向に移動させた場合の陰影変更画像の表示を希望しており、ランプ72は人物71よりも手前側に位置していることから、ランプの画像92のサイズは元のランプ72の画像よりも小さく表示されている。これにより、ユーザは、光源を奥行き方向に移動させた場合の陰影変更画像を表示させようとしていることを認識することができる。ステップS37では、この場合における陰影の様子が陰影変更画像によって表示される。なお、この場合の陰影変更画像は、スルー画中の元の人物71の顔部の画像部分を、シミュレーション結果に基づく陰影に変更したものである。   FIG. 12B shows that the user has slid the fingertip 82 to the left. The shadow changing unit 53 c detects the user's sliding operation in the direction of the arrow 91 and displays a lamp image 92 at the position of the fingertip 82. The user desires to display a shadow-changed image when the user moves the lamp 72 in a direction approaching the object. Since the lamp 72 is positioned in front of the person 71, the size of the lamp image 92 is determined. Is displayed smaller than the image of the original lamp 72. Thereby, the user can recognize that he is going to display the shadow change image when the light source is moved in the depth direction. In step S37, the state of the shadow in this case is displayed by the shadow change image. The shadow change image in this case is obtained by changing the image portion of the face portion of the original person 71 in the through image to a shadow based on the simulation result.

このように本変形例では、光源を移動させた場合でも、移動させたとした場合の陰影をシミュレーションして、陰影変更画像を表示させることができる。なお、指で直接タッチしなくてもよく、音声などで対象物(光源や被写体)を指定して、ジェスチャーでその場所を動かすなど、位置変更の仕方は様々な応用が可能であることは言うまでもない。   As described above, in this modified example, even when the light source is moved, it is possible to simulate the shadow when the light source is moved and display the shadow changed image. Needless to say, it is not necessary to directly touch with a finger, and it goes without saying that various methods can be used to change the position, such as specifying an object (light source or subject) with voice or the like and moving the location with a gesture. Yes.

(第3の実施の形態)
図13は本発明の第3の実施の形態に採用されるフローチャートである。図13のフローは図11のステップS41の判定結果がNOの場合に続く処理を示している。本実施の形態におけるハードウェア構成は第2の実施の形態と同様であり、また、図13以外の動作フローは図11の動作フローと同一である。
(Third embodiment)
FIG. 13 is a flowchart employed in the third embodiment of the present invention. The flow of FIG. 13 shows processing that continues when the determination result of step S41 of FIG. 11 is NO. The hardware configuration in the present embodiment is the same as that in the second embodiment, and the operation flow other than that in FIG. 13 is the same as that in FIG.

上記各実施の形態においては、光源と対象物である顔等との位置関係を求めて陰影変更画像を作成している。本実施の形態は信号処理及び制御部53において求めた情報を記録時に記録しておくことで、以後の撮影時に有効な陰影変更画像を表示可能にしたものである。   In each of the above-described embodiments, the shadow change image is created by obtaining the positional relationship between the light source and the target face. In the present embodiment, the information obtained in the signal processing and control unit 53 is recorded at the time of recording, so that it is possible to display a shadow change image effective at the time of subsequent photographing.

図14は撮影画像の記録時に同時に記録されるタグ情報を説明するための説明図である。図14(a)は記録された撮像画像90を示し、図14(b)は図14(a)に関連して同時に記録されるタグ情報を示している。図14(a)に示すように、記録された撮像画像90中には、対象物である人物71の画像と光源であるランプ72の画像とが含まれる。   FIG. 14 is an explanatory diagram for explaining tag information recorded at the same time when a photographed image is recorded. FIG. 14A shows a recorded captured image 90, and FIG. 14B shows tag information recorded simultaneously with respect to FIG. 14A. As shown in FIG. 14A, the recorded captured image 90 includes an image of a person 71 as a target object and an image of a lamp 72 as a light source.

図14(b)に示すように、図14(a)の撮像画像の撮像中において、被写体情報、場所及び時間の情報がタグ情報として記録可能である。更に、図11の各処理が実行されることにより、タグ情報として、図14(a)の画像の撮影時に生成した陰影変更画像及びその陰影変更画像の作成のために求めた距離分布の情報や照明方向(対象物から見た光源方向)φに関する情報等を記録可能である。   As shown in FIG. 14B, subject information, location and time information can be recorded as tag information while the captured image of FIG. 14A is being captured. Further, by executing each process of FIG. 11, as the tag information, the shadow change image generated at the time of shooting the image of FIG. 14A and the distance distribution information obtained for creating the shadow change image, It is possible to record information on the illumination direction (light source direction viewed from the object) φ.

図11のステップS41においてNO判定となった場合には、信号処理及び制御部53は図13のステップS51に処理を移行し、現在の撮像画像中の被写体と同一被写体についての撮像画像が既に撮像されて記録されているかを判定する。更に、信号処理及び制御部53は、同一被写体についての照明方向φの情報から、現在の撮像画像の照明方向と異なる照明方向に関する陰影変更画像が記録されているか否かを判定する。信号処理及び制御部53は、このような記録がない場合には処理を図11のステップS21に戻し、記録がある場合には次のステップS52に移行する。信号処理及び制御部53は、ステップS52において、検索した陰影変更画像を読み出して参考表示する(ステップS53)。   If the determination in step S41 in FIG. 11 is NO, the signal processing and control unit 53 proceeds to step S51 in FIG. 13 and has already captured a captured image of the same subject as the subject in the current captured image. It is determined whether it has been recorded. Furthermore, the signal processing and control unit 53 determines whether or not a shadow change image relating to an illumination direction different from the illumination direction of the current captured image is recorded from information on the illumination direction φ for the same subject. The signal processing and control unit 53 returns the processing to step S21 in FIG. 11 when there is no such recording, and proceeds to the next step S52 when there is recording. In step S52, the signal processing and control unit 53 reads out the searched shadow change image for reference display (step S53).

図15はこの場合の表示画面56b上の表示例を示す説明図である。表示画面56b上にはスルー画95が表示されている。スルー画95には図14(a)の人物71と同一人物96の画像及びランプ97の画像が表示されており、更に、ランプ97からの照明方向がφ1の場合に得られる陰影変更画像98とランプ97からの照明方向がφ2の場合に得られる陰影変更画像99とが表示されている。また、陰影変更画像98,99中には、照明方向がそれぞれφ1,φ2であることも示されている。   FIG. 15 is an explanatory diagram showing a display example on the display screen 56b in this case. A through image 95 is displayed on the display screen 56b. In the through image 95, an image of the same person 96 as the person 71 of FIG. 14A and an image of the lamp 97 are displayed, and further, a shadow change image 98 obtained when the illumination direction from the lamp 97 is φ1 and A shadow change image 99 obtained when the illumination direction from the lamp 97 is φ2 is displayed. In addition, the shadow change images 98 and 99 also indicate that the illumination directions are φ1 and φ2, respectively.

これらの陰影変更画像98,99は、図14(a)の撮像画像の撮影時に得られたものであるが、図15に示す同一人物96の撮影時において、これらの陰影変更画像98,99を、照明の位置を変えた参考画像として表示することで、撮影者は極めて有効な撮影の示唆を得ることができる。   These shadow change images 98 and 99 are obtained when the captured image of FIG. 14A is captured. When the same person 96 shown in FIG. 15 is captured, these shadow change images 98 and 99 are displayed. By displaying it as a reference image in which the position of the illumination is changed, the photographer can obtain an extremely effective shooting suggestion.

このように本実施の形態においては、撮影時に取得した各種情報及び陰影変更画像に記憶し、現在の撮影時に参考画像として表示させることができ、撮影者は照明に関する極めて有効な示唆を得ることができる。   As described above, in the present embodiment, it is possible to store various information and shadow change images acquired at the time of shooting and display them as reference images at the time of current shooting, and the photographer can obtain a very effective suggestion regarding lighting. it can.

なお、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。また、内視鏡、顕微鏡のような産業用、医療用の光学機器でもよい。表示機器でなくとも、このような工夫によって、ユーザが希望する画像を撮影するための表示が可能な観察装置、表示装置を提供することが可能となる。撮影しなくとも、光源と観察対象の位置シミュレーションによって、対象物を詳細に観察、診断できることは言うまでもない。また、撮影画像を得るための装置にのみ応用可能な技術ではなく、遠隔地に送られて来た画像を元に、画面上の対象物や光源の位置を変更して、アドバイスするような用途にも使えるので、撮像部が必須構成要件ではない。   In each embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a digital single lens reflex camera or a compact digital camera, such as a video camera or a movie camera. A camera for moving images may be used, and a camera built in a personal digital assistant (PDA) such as a mobile phone or a smartphone may of course be used. Also, industrial and medical optical instruments such as endoscopes and microscopes may be used. Even if it is not a display device, it is possible to provide an observation device and a display device capable of displaying for capturing an image desired by the user by such a device. Needless to say, the object can be observed and diagnosed in detail by the position simulation of the light source and the object to be observed without photographing. In addition, it is not a technology that can be applied only to devices for obtaining captured images, but it can be used for advice by changing the position of objects and light sources on the screen based on images sent to remote locations. Therefore, the imaging unit is not an essential component.

本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   It should be noted that even if the operation flow in the claims, the description, and the drawings is described using “first,” “next,” etc. for convenience, it is essential to carry out in this order. It doesn't mean. In addition, it goes without saying that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.

また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD−ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記録又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールすることで、容易に本実施の形態の表示機器を実現することができる。   Of the technologies described here, many of the controls and functions mainly described in the flowcharts can be set by a program, and the above-described controls and functions can be realized by a computer reading and executing the program. it can. As a computer program product, the program may be recorded or stored in whole or in part on a portable medium such as a non-volatile memory such as a flexible disk or a CD-ROM, or a storage medium such as a hard disk or a volatile memory. It can be distributed or provided at the time of product shipment or via a portable medium or communication line. The user can easily realize the display device of the present embodiment by downloading the program via a communication network and installing the program on the computer, or installing the program from the recording medium on the computer.

10…撮像部、11…撮影支援部、11a…顔判定部、11b…光源位置判定部、11c…陰影変更部、11d…表示制御部、50…撮影機、52…撮像部、53…信号処理及び制御部、53a…表示制御部、53b…顔検出部、53c…陰影変更部、53d…距離分布判定部、53e…光源位置判定部、57…記録部。     DESCRIPTION OF SYMBOLS 10 ... Imaging part, 11 ... Shooting support part, 11a ... Face determination part, 11b ... Light source position determination part, 11c ... Shadow change part, 11d ... Display control part, 50 ... Camera, 52 ... Imaging part, 53 ... Signal processing And a control unit, 53a ... display control unit, 53b ... face detection unit, 53c ... shadow change unit, 53d ... distance distribution determination unit, 53e ... light source position determination unit, 57 ... recording unit.

Claims (7)

画像中の対象物の位置及び上記対象物を照明する光源の位置を判定する位置判定部と、
上記対象物と光源との位置関係に基づいて、上記対象物の画像の陰影を上記光源からの距離に応じて補正した陰影変更画像を生成する陰影変更部と、
上記撮像画像に上記陰影変更画像を合成して表示する表示制御部と
を具備したことを特徴とする表示機器。
A position determination unit that determines the position of the object in the image and the position of the light source that illuminates the object;
Based on the positional relationship between the object and the light source, a shadow change unit that generates a shadow change image in which the shadow of the image of the object is corrected according to the distance from the light source;
A display device comprising: a display control unit configured to synthesize and display the shadow change image on the captured image.
上記陰影変更部は、上記撮像画像中の上記対象物と上記光源との間に上記陰影変更画像を表示する場合には、上記対象物の画像よりも振幅及び明るさの少なくとも一方が大きい上記陰影変更画像を生成し、上記撮像画像中の上記対象物から上記光源方向の逆方向に上記陰影変更画像を表示する場合には、上記対象物の画像よりも振幅及び明るさの少なくとも一方が小さい上記陰影変更画像を生成する
ことを特徴とする請求項1に記載の表示機器。
The shadow change unit, when displaying the shadow change image between the object and the light source in the captured image, the shadow having at least one of amplitude and brightness larger than the image of the object. When generating a modified image and displaying the shaded modified image in a direction opposite to the light source direction from the object in the captured image, at least one of amplitude and brightness is smaller than the image of the object. The display device according to claim 1, wherein a shadow change image is generated.
上記表示制御部は、上記撮像画像と上記陰影変更画像との合成画像が表示される表示画面上の上記陰影変更画像の表示位置を決定し、
上記陰影変更部は、上記表示位置の変更に基づいて、上記陰影変更画像の陰影の状態を変更する
ことを特徴とする請求項1又は2に記載の表示機器。
The display control unit determines a display position of the shadow change image on a display screen on which a composite image of the captured image and the shadow change image is displayed;
The display device according to claim 1, wherein the shadow changing unit changes a shadow state of the shadow change image based on the change of the display position.
上記対象物と光源との位置関係の情報及び上記陰影変更画像を記録媒体に記録する記録制御部を具備し、
上記表示制御部は、上記位置判定部によって上記対象物と光源との位置関係とは異なる位置関係の情報が上記記録媒体に記録されている場合には、上記記録媒体から上記陰影変更画像を読み出して上記撮像画像に合成して表示する
ことを特徴とする請求項1乃至3のいずれか1つに記載の表示機器。
A recording control unit for recording the positional relationship between the object and the light source and the shading-change image on a recording medium;
The display control unit reads the shade-changed image from the recording medium when the positional determination unit records information on the positional relationship different from the positional relationship between the object and the light source on the recording medium. The display device according to any one of claims 1 to 3, wherein the display device is combined with the captured image and displayed.
撮像部から被写体の撮像画像が与えられ、上記撮像画像中の対象物の位置及び上記対象物を照明する光源の位置を判定する位置判定ステップと、
上記対象物と光源との位置関係に基づいて、上記対象物の画像の陰影を上記光源からの距離に応じて補正した陰影変更画像を生成する陰影変更ステップと、
上記撮像画像に上記陰影変更画像を合成して表示する表示制御ステップと
を具備したことを特徴とする表示方法。
A position determination step in which a captured image of a subject is given from the imaging unit, and the position of the object in the captured image and the position of the light source that illuminates the object are determined;
Based on the positional relationship between the object and the light source, a shadow change step for generating a shadow change image in which the shadow of the image of the object is corrected according to the distance from the light source;
A display control step comprising: a display control step of combining and displaying the shadow change image on the captured image.
画面内に表示された光源と上記光源で照明された対象物との上記画面上の位置関係を変更する操作を受け付けるステップと、
上記位置変更操作時にサブ画像を形成するステップと、
上記対象物上で得られている陰影を上記位置関係に従って変更して上記サブ画像に表示するステップと
を具備したことを特徴とする表示方法。
Receiving an operation of changing the positional relationship on the screen between the light source displayed in the screen and the object illuminated by the light source;
Forming a sub-image during the position change operation;
Changing the shadow obtained on the object according to the positional relationship and displaying it on the sub-image.
コンピュータに、
撮像部から被写体の撮像画像が与えられ、上記撮像画像中の対象物の位置及び上記対象物を照明する光源の位置を判定する位置判定ステップと、
上記対象物と光源との位置関係に基づいて、上記対象物の画像の陰影を上記光源からの距離に応じて補正した陰影変更画像を生成する陰影変更ステップと、
上記撮像画像に上記陰影変更画像を合成して表示する表示制御ステップと
を実行させるための表示プログラム。
On the computer,
A position determination step in which a captured image of a subject is given from the imaging unit, and the position of the object in the captured image and the position of the light source that illuminates the object are determined;
Based on the positional relationship between the object and the light source, a shadow change step for generating a shadow change image in which the shadow of the image of the object is corrected according to the distance from the light source;
A display control step for executing a display control step of combining and displaying the shadow-changed image on the captured image.
JP2013260527A 2013-12-17 2013-12-17 Display apparatus, display method, and display program Pending JP2015119277A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013260527A JP2015119277A (en) 2013-12-17 2013-12-17 Display apparatus, display method, and display program
CN201410747684.1A CN104717422B (en) 2013-12-17 2014-12-09 Show equipment and display methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013260527A JP2015119277A (en) 2013-12-17 2013-12-17 Display apparatus, display method, and display program

Publications (2)

Publication Number Publication Date
JP2015119277A true JP2015119277A (en) 2015-06-25
JP2015119277A5 JP2015119277A5 (en) 2017-01-12

Family

ID=53416327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013260527A Pending JP2015119277A (en) 2013-12-17 2013-12-17 Display apparatus, display method, and display program

Country Status (2)

Country Link
JP (1) JP2015119277A (en)
CN (1) CN104717422B (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017002388A1 (en) * 2015-06-30 2017-01-05 オリンパス株式会社 Image processing device, ranging system, and endoscope system
WO2017006574A1 (en) * 2015-07-03 2017-01-12 オリンパス株式会社 Image processing device, image determination system, and endoscope system
JP2018010496A (en) * 2016-07-14 2018-01-18 キヤノン株式会社 Image processing apparatus, control method thereof, and program
JP2018010497A (en) * 2016-07-14 2018-01-18 キヤノン株式会社 Image processing apparatus
WO2019003383A1 (en) * 2017-06-29 2019-01-03 株式会社ソニー・インタラクティブエンタテインメント Information processing device and method for specifying quality of material
JP2021077300A (en) * 2019-11-13 2021-05-20 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2022504023A (en) * 2018-10-05 2022-01-13 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. Image pair correction method and equipment

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108062752B (en) * 2017-12-13 2023-07-25 杭州易现先进科技有限公司 Method, medium, device and computing equipment for judging azimuth of main light source
JP7113375B2 (en) * 2018-07-11 2022-08-05 パナソニックIpマネジメント株式会社 Display device, image processing device and control method
JP2021051042A (en) * 2019-09-26 2021-04-01 ソニーセミコンダクタソリューションズ株式会社 Image processing device, electronic apparatus, image processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008010970A (en) * 2006-06-27 2008-01-17 Nikon Corp Image display device, image display method, and image display program
CN101827214A (en) * 2009-03-05 2010-09-08 卡西欧计算机株式会社 Image processing apparatus and image processing method
JP2013201701A (en) * 2012-03-26 2013-10-03 Olympus Imaging Corp Photographic apparatus and image data recording method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050248677A1 (en) * 2004-05-10 2005-11-10 Yoshito Katagiri Image pickup device
KR20080037738A (en) * 2005-08-26 2008-04-30 코닌클리케 필립스 일렉트로닉스 엔.브이. Imaging camera processing unit and method
JP4612031B2 (en) * 2007-09-28 2011-01-12 株式会社コナミデジタルエンタテインメント Image generating apparatus, image generating method, and program
EP2234069A1 (en) * 2009-03-27 2010-09-29 Thomson Licensing Method for generating shadows in an image
JP2012119805A (en) * 2010-11-30 2012-06-21 Canon Inc Photographing apparatus
CN102870422B (en) * 2011-02-15 2014-11-19 富士胶片株式会社 Image capturing device, image capturing device main body, and shading correction method
JP5279875B2 (en) * 2011-07-14 2013-09-04 株式会社エヌ・ティ・ティ・ドコモ Object display device, object display method, and object display program
JP5234150B2 (en) * 2011-08-26 2013-07-10 カシオ計算機株式会社 Image processing apparatus, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008010970A (en) * 2006-06-27 2008-01-17 Nikon Corp Image display device, image display method, and image display program
CN101827214A (en) * 2009-03-05 2010-09-08 卡西欧计算机株式会社 Image processing apparatus and image processing method
US20100225785A1 (en) * 2009-03-05 2010-09-09 Casio Computer Co., Ltd. Image processor and recording medium
JP2010206685A (en) * 2009-03-05 2010-09-16 Casio Computer Co Ltd Image processing apparatus and program
JP2013201701A (en) * 2012-03-26 2013-10-03 Olympus Imaging Corp Photographic apparatus and image data recording method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017002388A1 (en) * 2015-06-30 2017-01-05 オリンパス株式会社 Image processing device, ranging system, and endoscope system
JP6064106B1 (en) * 2015-06-30 2017-01-18 オリンパス株式会社 Image processing apparatus, capsule endoscope system, and endoscope system
CN107072498A (en) * 2015-06-30 2017-08-18 奥林巴斯株式会社 Image processing apparatus, range-measurement system and endoscopic system
WO2017006574A1 (en) * 2015-07-03 2017-01-12 オリンパス株式会社 Image processing device, image determination system, and endoscope system
JPWO2017006574A1 (en) * 2015-07-03 2017-07-06 オリンパス株式会社 Image processing apparatus and endoscope system
JP2018010497A (en) * 2016-07-14 2018-01-18 キヤノン株式会社 Image processing apparatus
JP2018010496A (en) * 2016-07-14 2018-01-18 キヤノン株式会社 Image processing apparatus, control method thereof, and program
WO2019003383A1 (en) * 2017-06-29 2019-01-03 株式会社ソニー・インタラクティブエンタテインメント Information processing device and method for specifying quality of material
JPWO2019003383A1 (en) * 2017-06-29 2019-11-07 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and material identification method
US11182638B2 (en) 2017-06-29 2021-11-23 Sony Interactive Entertainment Inc. Information processing device and material specifying method
JP2022504023A (en) * 2018-10-05 2022-01-13 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. Image pair correction method and equipment
JP7179164B2 (en) 2018-10-05 2022-11-28 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. Image pair correction method and apparatus
US11595629B2 (en) 2018-10-05 2023-02-28 Vestel Elektronik Sanayi Ve Ticaret A.S. Method for modifying steroscopic pairs of images and apparatus
JP2021077300A (en) * 2019-11-13 2021-05-20 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP7433849B2 (en) 2019-11-13 2024-02-20 キヤノン株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
CN104717422A (en) 2015-06-17
CN104717422B (en) 2018-11-30

Similar Documents

Publication Publication Date Title
JP2015119277A (en) Display apparatus, display method, and display program
JP5178553B2 (en) Imaging device
US20140300779A1 (en) Methods and apparatuses for providing guide information for a camera
JP2005128156A (en) Focusing device and method
JP2016114668A (en) Imaging apparatus, and control method and program
KR20130071793A (en) Digital photographing apparatus splay apparatus and control method thereof
CN107517345B (en) Shooting preview method and capture apparatus
KR20120140036A (en) Digital photographing apparatus, method for controlling the same, and computer-readable storage medium
JP5477777B2 (en) Image acquisition device
KR20170027266A (en) Image capture apparatus and method for operating the image capture apparatus
JP2019176249A (en) Image processing device, image processing method, image processing program, and imaging device
US20180262686A1 (en) Shooting device, shooting method and shooting control method
KR20120119794A (en) Method and apparatus for photographing using special effect
JP2004117490A (en) Autofocus system
KR101979017B1 (en) Terminal Operating Method for Close-up And Electronic Device supporting the same
JP2017162371A (en) Image processing device, image processing method and program
JP2014107750A (en) Photographing apparatus
JP2019022026A (en) Imaging apparatus
JP2015149611A (en) Photographing apparatus, photographing support method, and photographing support program
WO2023174009A1 (en) Photographic processing method and apparatus based on virtual reality, and electronic device
JPH10262164A (en) Image input device, image input method and storage medium
JP2015012535A (en) Imaging equipment and imaging method
JP6494455B2 (en) Video processing apparatus, video processing method, and program
JP5608803B1 (en) Imaging device, imaging method, and imaging control program
KR20100093955A (en) Method of magnifying the image in digital image processing device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171219