JP2023047536A - Electronic device - Google Patents

Electronic device Download PDF

Info

Publication number
JP2023047536A
JP2023047536A JP2021156503A JP2021156503A JP2023047536A JP 2023047536 A JP2023047536 A JP 2023047536A JP 2021156503 A JP2021156503 A JP 2021156503A JP 2021156503 A JP2021156503 A JP 2021156503A JP 2023047536 A JP2023047536 A JP 2023047536A
Authority
JP
Japan
Prior art keywords
lens
image
electronic device
captured
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021156503A
Other languages
Japanese (ja)
Inventor
潤 小山
Jun Koyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021156503A priority Critical patent/JP2023047536A/en
Publication of JP2023047536A publication Critical patent/JP2023047536A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Cameras In General (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

To provide a technique capable of suppressing an unwanted object, such as a user's (photographer's) finger, from being captured in an image by a novel method.SOLUTION: An electronic device has a camera that captures images using a plurality of lenses. The electronic device has posture detection means and control means. The posture detection means detects a posture of the electronic device. The control means controls to automatically change a lens used for capturing an image to be displayed on a display unit from a first lens to a second lens that is different from the first lens in accordance with detection by the posture detection means of a change in posture of the electronic device from a first orientation to a second orientation in a state in which an image captured using the first lens is displayed on the display unit.SELECTED DRAWING: Figure 3

Description

本発明は、撮像を行うことのできる電子機器に関する。 The present invention relates to electronic equipment capable of imaging.

撮影を行う場合に、撮影する画像に指が写り込んでしまうことがある。特に、スマートフォンなどでは、レンズが本体の端に寄っていることが多く、撮影時における本体の向きの自由度が高いため、指が写り込む可能性が高い。 When photographing, the finger may be captured in the photographed image. In particular, in smartphones and the like, the lens is often close to the edge of the main body, and there is a high degree of freedom in the orientation of the main body during shooting, so there is a high possibility that a finger will be captured in the image.

特許文献1では、メインの画像の範囲よりも広範囲の画像から不要なオブジェクトを検出し、メインの画像に不要なオブジェクトが写り込むか否かを判定する技術が提案されている。特許文献1に開示の技術では、ユーザーは、カメラの位置を変えて、メインの画像に不要なオブジェクトが写り込まないように、メインの画像の範囲を変えることができる。特許文献2では、治療行為に対応する撮影指針情報(撮影方向やズーム倍率の情報)を用いて、不要なオブジェクトが写り込まないように治療行為を撮影する技術が提案されている。 Japanese Patent Application Laid-Open No. 2002-200003 proposes a technique of detecting an unnecessary object from an image wider than the range of the main image and determining whether or not the unnecessary object appears in the main image. With the technique disclosed in Patent Document 1, the user can change the position of the camera to change the range of the main image so that unnecessary objects are not captured in the main image. Japanese Patent Application Laid-Open No. 2002-200003 proposes a technique of photographing a medical treatment by using imaging guideline information (information on the imaging direction and zoom magnification) corresponding to the medical treatment so as not to include unnecessary objects.

特開2019-96926号公報JP 2019-96926 A 特開2006-277486号公報JP 2006-277486 A

しかしながら、従来技術では、撮影範囲や撮影方向、ズーム倍率が変更されるため、ユーザーの意図した範囲を撮影することができない。 However, in the conventional technology, since the photographing range, photographing direction, and zoom magnification are changed, it is impossible to photograph the range intended by the user.

本発明は、新規な方法でユーザー(撮影者)の指などの不要なオブジェクトの写り込みを抑制することのできる技術を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a technique capable of suppressing unwanted objects such as a user's (photographer's) finger from appearing in a new image.

本発明の電子機器は、複数のレンズを用いて撮像を行うカメラを有する電子機器であって、前記電子機器の姿勢を検出する姿勢検出手段と、第1のレンズを用いて撮像された画像を表示部に表示している状態で、第1の向きから第2の向きへの前記電子機器の姿勢変化を前記姿勢検出手段が検出したことに応じて、前記表示部に表示する画像の撮像に用いるレンズを、前記第1のレンズから、前記第1のレンズとは異なる第2のレンズに自動で変更するように制御する制御手段とを有することを特徴とする。 An electronic device of the present invention is an electronic device having a camera that captures images using a plurality of lenses, and includes orientation detection means for detecting the orientation of the electronic device and an image captured using a first lens. In a state where the display is displayed on the display unit, an image to be displayed on the display unit is captured in response to detection by the orientation detection means of a change in orientation of the electronic device from the first orientation to the second orientation. and control means for controlling to automatically change the lens to be used from the first lens to a second lens different from the first lens.

本発明によれば、新規な方法でユーザー(撮影者)の指などの不要なオブジェクトの写り込みを抑制することができる。 According to the present invention, it is possible to suppress unwanted objects such as the user's (photographer's) finger from appearing in a new image.

スマートフォンの外観図である。1 is an external view of a smartphone; FIG. スマートフォンの構成を示すブロック図である。1 is a block diagram showing the configuration of a smartphone; FIG. 第1の実施形態に係るカメラ処理を示すフローチャートである。4 is a flowchart showing camera processing according to the first embodiment; 第1のレンズ変更処理を示すフローチャートである。4 is a flowchart showing first lens change processing; 第2のレンズ変更処理を示すフローチャートである。9 is a flowchart showing second lens change processing; ユーザーがスマートフォンを横向きで構えている状態を示す図である。FIG. 4 is a diagram showing a state in which a user holds a smartphone sideways; 撮像された画像を示す図である。It is a figure which shows the imaged image. 図5のS503の処理の具体例を説明するための図である。6 is a diagram for explaining a specific example of the processing of S503 in FIG. 5; FIG. スマートフォン(変形例)の背面図である。It is a rear view of a smart phone (modification). 第2の実施形態に係るカメラ処理を示すフローチャートである。9 is a flowchart showing camera processing according to the second embodiment; 画質調整処理を示すフローチャートである。6 is a flowchart showing image quality adjustment processing; 図11のS1103の処理の具体例を説明するための図である。FIG. 12 is a diagram for explaining a specific example of the processing of S1103 of FIG. 11;

以下、図面を参照して本発明の好適な実施形態(第1の実施形態および第2の実施形態)を説明する。 Preferred embodiments (first embodiment and second embodiment) of the present invention will be described below with reference to the drawings.

図1(a),1(b)は、本発明を適用可能な装置(電子機器)の一例としてのスマートフォン100の外観図である。図1(a)はスマートフォン100の前面図であり、図1(b)はスマートフォン100の背面図である。 1(a) and 1(b) are external views of a smartphone 100 as an example of a device (electronic device) to which the present invention can be applied. 1A is a front view of the smartphone 100, and FIG. 1B is a rear view of the smartphone 100. FIG.

ディスプレイ105は、画像や各種情報を表示する、スマートフォン100の前面に設けられた表示部である。タッチパネル106aはディスプレイ105と一体的に構成されたタッチ操作部材であり、スマートフォン100は、タッチパネル106aを用いてディスプレイ105の表示面(操作面)に対するタッチ操作を検出することができる。スマートフォン100は、アウトカメラ114またはインカメラ115で撮像した画像をディスプレイ105にライブビュー表示(LV表示)することが可能である。LV表示は、被写体を略リアルタイムで表した画像の表示であり、LV表示される画像はLV画像と呼ばれる。アウトカメラ114は、後述する望遠レンズ114a、標準レンズ114b、超広角レンズ114c、広角レンズ114dなどを含む。 A display 105 is a display unit provided on the front surface of the smartphone 100 that displays images and various types of information. The touch panel 106a is a touch operation member integrated with the display 105, and the smartphone 100 can detect a touch operation on the display surface (operation surface) of the display 105 using the touch panel 106a. Smartphone 100 can perform live view display (LV display) on display 105 of an image captured by out-camera 114 or in-camera 115 . LV display is display of an image representing a subject substantially in real time, and an image displayed in LV is called an LV image. The out-camera 114 includes a telephoto lens 114a, a standard lens 114b, a super-wide-angle lens 114c, a wide-angle lens 114d, and the like, which will be described later.

電源ボタン106bは、ディスプレイ105の点灯/消灯を切り替えたり、スマートフォン100の電源のON/OFFを切り替えたりするための操作ボタンである。例えば、ユーザーが所定時間(例えば3秒間)よりも短い時間、電源ボタン106bを押下すると(電源ボタン106bを短押しすると)、ディスプレイ105の点灯/消灯が切り替えられる。ユーザーが所定時間、電源ボタン106bの押下を継続すると(電源ボタン106bを長押しすると)、スマートフォン100の電源のON/OFFが切り替えられる。 The power button 106 b is an operation button for switching on/off of the display 105 and switching on/off of the smartphone 100 . For example, when the user presses the power button 106b for a period of time shorter than a predetermined time (for example, three seconds) (short presses the power button 106b), the display 105 is turned on/off. When the user continues to press the power button 106b for a predetermined time (long presses the power button 106b), the power of the smartphone 100 is switched between ON and OFF.

音量プラスボタン106cと音量マイナスボタン106dは、音声出力端子112aから出力する音声信号の音量(ボリューム)や、スピーカー112bから出力する音声の音量を調整するための音量ボタンである。音量プラスボタン106cが押下されると音量が大きくなり、音量マイナスボタン106dが押下されると音量が小さくなる。カメラ使用時の撮影待機状態においては、音量プラスボタン106cや音量マイナスボタン106dは、撮影を指示するためのシャッターボタンとして機能する。 The volume plus button 106c and the volume minus button 106d are volume buttons for adjusting the volume of the audio signal output from the audio output terminal 112a and the volume of the audio output from the speaker 112b. When the volume plus button 106c is pressed, the volume increases, and when the volume minus button 106d is pressed, the volume decreases. In the shooting standby state when using the camera, the volume plus button 106c and the volume minus button 106d function as shutter buttons for instructing shooting.

また、電源ボタン106bと音量マイナスボタン106dを同時に押下したり、音量マイナスボタン106dを素早く数回押下したりした場合に、特定の機能が実行されるように、ユーザーが任意に設定を行うことができる。 In addition, the user can arbitrarily set so that a specific function is executed when the power button 106b and the volume down button 106d are pressed at the same time, or when the volume down button 106d is quickly pressed several times. can.

ホームボタン106eは、ディスプレイ105にホーム画面を表示させるための操作ボタンである。ユーザーは、スマートフォン100において様々なアプリケーションを起動し、使用していた場合に、ホームボタン106eを押下することで、起動している様々なアプリケーションを一時的に閉じて、ディスプレイ105にホーム画面を表示させることができる。なお、本実施形態ではホームボタン106eは物理的に押下可能なボタンであるとするが、ディスプレイ105に表示された、タッチ操作可能なタッチボタン(表示ア
イテム)であってもよい。
Home button 106 e is an operation button for displaying a home screen on display 105 . When the user activates and uses various applications on the smartphone 100, the user presses the home button 106e to temporarily close the various activated applications and display the home screen on the display 105. can be made In this embodiment, the home button 106e is a button that can be physically pressed.

音声出力端子112aはイヤホンジャックであり、イヤホンや外部スピーカーなどに音声信号を出力する端子である。スピーカー112bは音声を出力する内蔵スピーカーである。例えば、音声出力端子112aにイヤホンや外部スピーカーなどが接続されている場合には、音声出力端子112aから音声信号が出力される。音声出力端子112aにイヤホンや外部スピーカーなどが接続されていない場合には、スピーカー112bから音声が出力される。 The audio output terminal 112a is an earphone jack, and is a terminal for outputting an audio signal to an earphone, an external speaker, or the like. The speaker 112b is a built-in speaker that outputs sound. For example, when an earphone or an external speaker is connected to the audio output terminal 112a, an audio signal is output from the audio output terminal 112a. When an earphone or an external speaker is not connected to the audio output terminal 112a, audio is output from the speaker 112b.

図2は、スマートフォン100の構成例を示すブロック図である。内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、アウトカメラ画像処理部104、ディスプレイ105、操作部106、記憶媒体I/F107、外部I/F109、及び、通信I/F110が接続されている。また、内部バス150に対して音声出力部112、姿勢検出部113、アウトカメラ114、インカメラ115、インカメラ画像処理部116も接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができる。 FIG. 2 is a block diagram showing a configuration example of the smartphone 100. As shown in FIG. CPU 101 , memory 102 , nonvolatile memory 103 , out-camera image processing unit 104 , display 105 , operation unit 106 , storage medium I/F 107 , external I/F 109 , and communication I/F 110 are connected to internal bus 150 . ing. Also connected to the internal bus 150 are an audio output unit 112 , a posture detection unit 113 , an out-camera 114 , an in-camera 115 and an in-camera image processing unit 116 . Each unit connected to the internal bus 150 can exchange data with each other via the internal bus 150 .

CPU101は、スマートフォン100の全体を制御する制御部であり、少なくとも1つのプロセッサーまたは回路からなる。メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU101は、例えば不揮発性メモリ103に格納されたプログラムに従い、メモリ102をワークメモリとして用いて、スマートフォン100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は例えばフラッシュメモリやROMなどで構成される。 The CPU 101 is a control unit that controls the smartphone 100 as a whole, and includes at least one processor or circuit. The memory 102 is, for example, a RAM (a volatile memory using a semiconductor element, etc.). The CPU 101 controls each part of the smartphone 100 according to a program stored in the nonvolatile memory 103, for example, using the memory 102 as a work memory. The nonvolatile memory 103 stores image data, audio data, other data, various programs for the CPU 101 to operate, and the like. The nonvolatile memory 103 is composed of, for example, flash memory or ROM.

アウトカメラ114は、スマートフォン100の背面(ディスプレイ105が設けられた面とは反対側の面)に配置されたカメラである。アウトカメラ114は、撮像部114s、望遠レンズ114a、標準レンズ114b、超広角レンズ114c、及び、広角レンズ114dを含む。 The out-camera 114 is a camera arranged on the back surface of the smartphone 100 (the surface opposite to the surface on which the display 105 is provided). The out-camera 114 includes an imaging unit 114s, a telephoto lens 114a, a standard lens 114b, a super-wide-angle lens 114c, and a wide-angle lens 114d.

撮像部114sは、CCDイメージセンサやCMOSイメージセンサなどの撮像素子であり、望遠レンズ114a、標準レンズ114b、超広角レンズ114c、及び、広角レンズ114dを個別に用いて撮像を行う。撮像部114sは、望遠レンズ114aを用いた撮像、標準レンズ114bを用いた撮像、超広角レンズ114cを用いた撮像、及び、広角レンズ114dを用いた撮像の4種の撮像を同時に(並列に又は時分割で)行うことができる。もちろん、撮像部114sは、上述した4種の撮像のうちの2種または3種の撮像のみを同時に行うこともできるし、1種の撮像のみを行うこともできる。 The imaging unit 114s is an imaging element such as a CCD image sensor or a CMOS image sensor, and performs imaging using the telephoto lens 114a, the standard lens 114b, the ultra-wide-angle lens 114c, and the wide-angle lens 114d individually. The imaging unit 114s simultaneously (in parallel or can be done by time division). Of course, the imaging unit 114s can simultaneously perform only two or three types of imaging among the four types of imaging described above, or can perform only one type of imaging.

望遠レンズ114aの焦点距離は標準レンズ114bの焦点距離よりも長く、望遠レンズ114aを用いた撮像は、標準レンズ114bを用いた撮像よりも望遠の撮像となる。超広角レンズ114cの焦点距離は、標準レンズ114bの焦点距離よりも短く、超広角レンズ114cを用いた撮像は、標準レンズ114bを用いた撮像よりも広角の撮像となる。広角レンズ114dの焦点距離は標準レンズ114bの焦点距離と超広角レンズ114cの焦点距離との中間程度である。すなわち、望遠レンズ114a、標準レンズ114b、広角レンズ114d、超広角レンズ114cの順に焦点距離が短くなり、それに伴い画角(撮像範囲)も広くなる。なお、本実施形態では望遠レンズ114aのズーム倍率(焦点距離)は予め定められた固定値であるとするが、ユーザーが変更可能であってもよい。 The focal length of the telephoto lens 114a is longer than the focal length of the standard lens 114b, and the imaging using the telephoto lens 114a is more telescopic than the imaging using the standard lens 114b. The focal length of the super wide-angle lens 114c is shorter than the focal length of the standard lens 114b, and the imaging using the ultra-wide-angle lens 114c is wider than the imaging using the standard lens 114b. The focal length of the wide-angle lens 114d is approximately intermediate between the focal length of the standard lens 114b and the focal length of the ultra-wide-angle lens 114c. That is, the telephoto lens 114a, the standard lens 114b, the wide-angle lens 114d, and the ultra-wide-angle lens 114c have shorter focal lengths, and accordingly wider angles of view (imaging ranges). In this embodiment, the zoom magnification (focal length) of the telephoto lens 114a is assumed to be a predetermined fixed value, but may be changeable by the user.

なお、本実施形態ではアウトカメラ114の全レンズ(望遠レンズ114a、標準レン
ズ114b、超広角レンズ114c、及び、広角レンズ114d)に対して1つの撮像部114sを用いるとするが、複数の撮像部を用いてもよい。1つの撮像部に対応するレンズの数は特に限定されず、1つのレンズに対して1つの撮像部を用いてもよいし、2つのレンズに対して1つの撮像部を用いてもよいし、3つのレンズに対して1つの撮像部を用いてもよい。望遠レンズ114aに対応する撮像部、標準レンズ114bに対応する撮像部、超広角レンズ114cに対応する撮像部、及び、広角レンズ114dに対応する撮像部の4つの撮像部を用いてもよい。
In this embodiment, one imaging unit 114s is used for all the lenses of the out-camera 114 (telephoto lens 114a, standard lens 114b, super wide-angle lens 114c, and wide-angle lens 114d). may be used. The number of lenses corresponding to one imaging unit is not particularly limited, and one imaging unit may be used for one lens, one imaging unit may be used for two lenses, One imaging unit may be used for three lenses. Four imaging units may be used: an imaging unit corresponding to the telephoto lens 114a, an imaging unit corresponding to the standard lens 114b, an imaging unit corresponding to the super wide-angle lens 114c, and an imaging unit corresponding to the wide-angle lens 114d.

インカメラ115は、スマートフォン100の前面(ディスプレイ105が設けられた面と同じ面)に配置されたカメラである。 The in-camera 115 is a camera arranged on the front surface of the smartphone 100 (the surface on which the display 105 is provided).

アウトカメラ114で撮像された画像と、インカメラ115で撮像された画像とは、いずれもディスプレイ105にLV表示することができる。ユーザーは、タッチパネル106aを操作して、どのカメラで撮像された画像をディスプレイ105にLV表示するかを選択することができる。例えば、ユーザー(撮影者)は、眼前の光景を撮影する場合にアウトカメラ114を選択し、自分撮りを行う場合にインカメラ115を選択する。 Both the image captured by the out-camera 114 and the image captured by the in-camera 115 can be LV-displayed on the display 105 . The user can operate the touch panel 106 a to select an image captured by which camera to be displayed on the display 105 as an LV. For example, the user (photographer) selects the out-camera 114 when capturing a scene in front of the user, and selects the in-camera 115 when taking a selfie.

また、アウトカメラ114で撮像された画像をディスプレイ105にLV表示する場合には、ユーザーは、タッチパネル106aを操作して、どのレンズを用いて撮像された画像をディスプレイ105にLV表示するかを選択することができる。ユーザーは、望遠レンズ114aを選択すれば、標準レンズ114bを選択する場合よりも拡大された画像をディスプレイ105にLV表示することができる。標準レンズ114bを選択すれば、望遠レンズ114aを選択する場合よりも広角で、超広角レンズ114cや広角レンズ114dを選択する場合よりも拡大された画像をディスプレイ105にLV表示することができる。超広角レンズ114cを選択すれば、望遠レンズ114aや標準レンズ114b、広角レンズ114dを選択する場合よりも広角の画像をディスプレイ105にLV表示することができる。 When displaying an image captured by the out-camera 114 on the LV display on the display 105, the user operates the touch panel 106a to select which lens is used to display the image captured on the display 105 on the LV. can do. If the user selects the telephoto lens 114a, the user can LV-display on the display 105 an image that is more enlarged than when the standard lens 114b is selected. If the standard lens 114b is selected, an image with a wider angle than when the telephoto lens 114a is selected, and an image magnified more than when the super-wide-angle lens 114c or the wide-angle lens 114d is selected, can be displayed on the display 105 as an LV. If the super-wide-angle lens 114c is selected, a wider-angle image can be LV-displayed on the display 105 than when the telephoto lens 114a, the standard lens 114b, or the wide-angle lens 114d is selected.

アウトカメラ画像処理部104は、CPU101の制御に基づいて、アウトカメラ114で撮像された画像を用いて各種画像処理(オブジェクト検出処理を含む)を行う。アウトカメラ画像処理部104は、望遠画像処理部104a、標準画像処理部104b、超広角画像処理部104c、及び、広角画像処理部104dを含む。望遠画像処理部104aは、望遠レンズ114aで撮像された画像を用いて各種画像処理を行う。標準画像処理部104bは、標準レンズ114bで撮像された画像を用いて各種画像処理を行う。超広角画像処理部104cは、超広角レンズ114cで撮像された画像を用いて各種画像処理を行う。広角画像処理部104dは、広角レンズ114dで撮像された画像を用いて各種画像処理を行う。これら4つの画像処理部は同時に(並列に又は時分割で)動作することができる。 Under the control of the CPU 101 , the out-camera image processing unit 104 performs various image processing (including object detection processing) using an image captured by the out-camera 114 . The out-camera image processing unit 104 includes a telephoto image processing unit 104a, a standard image processing unit 104b, a super-wide-angle image processing unit 104c, and a wide-angle image processing unit 104d. The telephoto image processing unit 104a performs various image processing using the image captured by the telephoto lens 114a. The standard image processing unit 104b performs various image processing using the image captured by the standard lens 114b. The ultra-wide-angle image processing unit 104c performs various image processing using the image captured by the ultra-wide-angle lens 114c. The wide-angle image processing unit 104d performs various image processing using the image captured by the wide-angle lens 114d. These four image processing units can operate simultaneously (in parallel or in time division).

なお、本実施形態では4つのレンズにそれぞれ対応する4つの画像処理部を用いるとするが、1つの画像処理部に対応するレンズの数は特に限定されない。2つのレンズに対して1つの画像処理部を用いてもよいし、3つのレンズに対して1つの画像処理部を用いてもよい。全レンズに対して1つの画像処理部を用いてもよい。つまり、アウトカメラ画像処理部104が複数の画像処理部を含んでいなくてもよい。その場合にも、アウトカメラ画像処理部104は、複数の画像をそれぞれ用いた複数の処理を同時に(並列に又は時分割で)実行できてよい。 Although four image processing units corresponding to four lenses are used in this embodiment, the number of lenses corresponding to one image processing unit is not particularly limited. One image processing unit may be used for two lenses, or one image processing unit may be used for three lenses. One image processor may be used for all lenses. That is, the out-camera image processing unit 104 does not have to include a plurality of image processing units. Even in that case, the out-camera image processing unit 104 may be able to simultaneously (parallelly or time-divisionally) execute a plurality of processes using a plurality of images.

インカメラ画像処理部116は、CPU101の制御に基づいて、インカメラ115で撮像された画像を用いて各種画像処理を行う。 Under the control of the CPU 101 , the in-camera image processing unit 116 performs various image processing using the image captured by the in-camera 115 .

各画像処理部は、不揮発性メモリ103や記憶媒体108に格納された画像や、外部I/F109を介して取得した画像、通信I/F110を介して取得した画像などを用いて各種画像処理を行うこともできる。各画像処理部が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。各画像処理部は、特定の画像処理を行うための専用の回路ブロックで構成してもよい。また、画像処理の種別によっては各画像処理部を用いずにCPU101がプログラムに従って画像処理を行うことも可能である。 Each image processing unit performs various image processing using images stored in the non-volatile memory 103 and storage medium 108, images obtained via the external I/F 109, images obtained via the communication I/F 110, and the like. can also be done. Image processing performed by each image processing unit includes A/D conversion processing, D/A conversion processing, image data encoding processing, compression processing, decoding processing, enlargement/reduction processing (resize), noise reduction processing, color conversion, processing, etc. Each image processing unit may be composed of a dedicated circuit block for performing specific image processing. Further, depending on the type of image processing, the CPU 101 can perform image processing according to a program without using each image processing unit.

ディスプレイ105は、CPU101の制御に基づいて、画像や、GUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ105に表示するための画像信号を生成してディスプレイ105に出力するようにスマートフォン100の各部を制御する。ディスプレイ105は出力された画像信号に基づいて画像を表示する。なお、スマートフォン100自体が備える構成としてはディスプレイ105に表示させるための画像信号を出力するためのインターフェースまでとし、ディスプレイ105は外付けのモニタ(テレビなど)で構成してもよい。 The display 105 displays images, GUI screens that form a GUI (Graphical User Interface), and the like, under the control of the CPU 101 . The CPU 101 controls each unit of the smartphone 100 to generate a display control signal according to a program, generate an image signal to be displayed on the display 105 , and output the image signal to the display 105 . A display 105 displays an image based on the output image signal. Note that the smartphone 100 itself includes an interface for outputting an image signal to be displayed on the display 105, and the display 105 may be configured by an external monitor (such as a television).

操作部106は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルなどのポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザーによる操作を受け付けるための入力デバイスである。なお、操作部106には、上述したタッチパネル106a、電源ボタン106b、音量プラスボタン106c、音量マイナスボタン106d、ホームボタン106eなどの操作部材が含まれる。 The operation unit 106 is an input device for accepting user operations, including a character information input device such as a keyboard, a pointing device such as a mouse and a touch panel, buttons, dials, joysticks, touch sensors, and touch pads. The operation unit 106 includes operation members such as the touch panel 106a, the power button 106b, the volume plus button 106c, the volume minus button 106d, and the home button 106e.

記憶媒体I/F107は、メモリーカードやCD、DVDといった記憶媒体108が着脱可能とされ、CPU101の制御に基づき、装着された記憶媒体108からのデータの読み出しや、当該記憶媒体108に対するデータの書き込みを行う。記憶媒体108は、スマートフォン100内に組み込まれた内蔵ストレージでもよい。外部I/F109は、外部機器と有線ケーブルや無線によって接続し、画像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。 A storage medium I/F 107 allows a storage medium 108 such as a memory card, CD, or DVD to be detachable. I do. Storage medium 108 may be internal storage embedded within smartphone 100 . The external I/F 109 is an interface for connecting with an external device via a wired cable or wirelessly and inputting/outputting image signals and audio signals. The communication I/F 110 is an interface for communicating with an external device, the Internet 111, etc., and transmitting/receiving various data such as files and commands.

音声出力部112は、動画データや音楽データの音声や、操作音、着信音、各種通知音などを出力する。音声出力部112には、上述した音声出力端子112aとスピーカー112bが含まれる。音声出力部112は、無線通信などで音声出力を行ってもよい。 The audio output unit 112 outputs audio of video data and music data, operation sounds, ringtones, various notification sounds, and the like. The audio output unit 112 includes the audio output terminal 112a and the speaker 112b described above. The audio output unit 112 may output audio through wireless communication or the like.

姿勢検出部113は、重力方向に対するスマートフォン100の姿勢(傾き)や、ヨー、ロール、ピッチの各軸に対するスマートフォン100の姿勢(傾き)を検出する。姿勢検出部113で検出された姿勢に基づいて、スマートフォン100が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢になったかなどを判別可能である。姿勢検出部113として、加速度センサー、ジャイロセンサー、地磁気センサー、方位センサー、高度センサーなどの複数のセンサーのうちのいずれか1つを用いることができる。姿勢検出部113として、複数のセンサーのうちの2つ以上の組み合わせを用いることもできる。 The orientation detection unit 113 detects the orientation (inclination) of the smartphone 100 with respect to the direction of gravity and the orientation (inclination) of the smartphone 100 with respect to each of the yaw, roll, and pitch axes. Based on the posture detected by the posture detection unit 113, whether the smartphone 100 is held horizontally, held vertically, directed upward, downward, oblique, or the like is determined. It is identifiable. Any one of a plurality of sensors such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, a direction sensor, and an altitude sensor can be used as the orientation detection unit 113 . A combination of two or more of a plurality of sensors can also be used as the orientation detection unit 113 .

上述したように、操作部106には、タッチパネル106aが含まれる。タッチパネル106aは、ディスプレイ105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。CPU101はタッチパネル
106aへの以下の操作、あるいは状態を検出できる。
・タッチパネル106aにタッチしていなかった指やペンが新たにタッチパネル106aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)
・タッチパネル106aを指やペンがタッチしている状態(以下、タッチオン(Touch-On)と称する)
・指やペンがタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)
・タッチパネル106aへタッチしていた指やペンがタッチパネル106aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)
As described above, the operation unit 106 includes the touch panel 106a. The touch panel 106a is an input device that is superimposed on the display 105 and configured in a plane, and that outputs coordinate information according to the touched position. The CPU 101 can detect the following operations or states on the touch panel 106a.
- A finger or pen that has not touched the touch panel 106a newly touches the touch panel 106a, that is, the start of touch (hereinafter referred to as Touch-Down)
A state in which a finger or pen touches the touch panel 106a (hereinafter referred to as Touch-On)
・The finger or pen is moving while touching the touch panel 106a (hereinafter referred to as Touch-Move)
- The finger or pen touching the touch panel 106a is separated (released) from the touch panel 106a, that is, the end of the touch (hereinafter referred to as Touch-Up)
A state in which nothing is touched on the touch panel 106a (hereinafter referred to as Touch-Off)

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。 When touchdown is detected, touchon is also detected at the same time. After touchdown, touchon continues to be detected unless touchup is detected. Touch-on is detected at the same time when touch-move is detected. Even if touch-on is detected, touch-move is not detected if the touch position does not move. Touch-off is detected when it is detected that all the fingers and pens that were in touch have touched up.

これらの操作・状態や、タッチパネル106a上に指やペンがタッチしている位置座標は内部バス150を通じてCPU101に通知される。CPU101は通知された情報に基づいてタッチパネル106a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル106a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル106a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチパネル106a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル106a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル106aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。 The CPU 101 is notified through the internal bus 150 of these operations/states and the coordinates of the position on the touch panel 106a touched by the finger or pen. Based on the notified information, the CPU 101 determines what kind of operation (touch operation) has been performed on the touch panel 106a. As for the touch move, the movement direction of the finger or pen moving on the touch panel 106a can also be determined for each vertical component/horizontal component on the touch panel 106a based on the change in the position coordinates. If it is detected that the touch-move has been performed for a predetermined distance or more, it is determined that the slide operation has been performed. An operation of touching the touch panel 106a with a finger and quickly moving it by a certain distance and then releasing it is called a flick. A flick is, in other words, an operation of quickly tracing the touch panel 106a as if flicking it with a finger. It can be determined that a flick has been performed when a touch-move of a predetermined distance or more at a predetermined speed or more is detected, and a touch-up is detected as it is (it can be determined that a flick has occurred following a slide operation). Further, a touch operation of touching (multi-touching) a plurality of points (for example, two points) to bring the touch positions closer to each other is called pinch-in, and a touch operation of moving the touch positions away from each other is called pinch-out. Pinch-out and pinch-in are collectively called pinch operation (or simply pinch). The touch panel 106a may use any type of touch panel of various types such as a resistive film type, an electrostatic capacitance type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, an optical sensor type, and the like. good. There is a method of detecting that there is a touch when there is contact with the touch panel, and a method of detecting that there is a touch when there is an approach of a finger or pen to the touch panel.

(第1の実施形態)
本発明の第1の実施形態を説明する。第1の実施形態では、アウトカメラ114で撮像してディスプレイ105にLV表示する画像への不要なオブジェクトの写り込みを抑制するように、LV表示する画像の撮像に用いるレンズを変更する例を説明する。不要なオブジェクトは特に限定されないが、第1の実施形態ではユーザー(撮影者)の指であるとする。アウトカメラ114で撮像してディスプレイ105にLV表示する画像は、記憶媒体108に記録する画像と捉えることもできる。
(First embodiment)
A first embodiment of the present invention will be described. In the first embodiment, an example of changing the lens used for capturing the image to be displayed on the LV so as to suppress unnecessary objects from appearing in the image captured by the out-camera 114 and displayed on the LV on the display 105 will be described. do. Although the unnecessary object is not particularly limited, it is assumed to be the user's (photographer's) finger in the first embodiment. An image captured by the out-camera 114 and displayed on the LV on the display 105 can also be regarded as an image recorded on the storage medium 108 .

図3は、スマートフォン100のカメラ処理の一例を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に
展開して実行することにより実現される。例えば、ユーザーによってカメラアプリケーションの起動が指示されると、図3のカメラ処理が開始する。図3のカメラ処理中、姿勢検出部113は、スマートフォン100の姿勢を検出するとする。また、撮像部114sは、望遠レンズ114aを用いた撮像、標準レンズ114bを用いた撮像、超広角レンズ114cを用いた撮像、及び、広角レンズ114dを用いた撮像を同時に(並列に又は時分割で)行うとする。また、アウトカメラ画像処理部104(望遠画像処理部104a、標準画像処理部104b、超広角画像処理部104c、及び、広角画像処理部104d)は、オブジェクト検出処理を行うとする。オブジェクト検出処理は、撮像された画像から所定の条件を満たすオブジェクトを検出するための処理である。所定の条件は、撮像された画像に写り込んだ指(不要なオブジェクト)が満たす条件であり、例えば、撮像された画像の端に位置する所定サイズより大きな黒オブジェクト(黒領域)であるという条件である。
FIG. 3 is a flowchart illustrating an example of camera processing of smartphone 100 . This processing is realized by the CPU 101 expanding the program stored in the nonvolatile memory 103 into the memory 102 and executing the program. For example, when the user gives an instruction to start a camera application, the camera processing in FIG. 3 starts. It is assumed that orientation detection unit 113 detects the orientation of smartphone 100 during camera processing in FIG. 3 . In addition, the imaging unit 114s performs imaging using the telephoto lens 114a, imaging using the standard lens 114b, imaging using the super-wide-angle lens 114c, and imaging using the wide-angle lens 114d simultaneously (in parallel or in time division). ). Also, the out-camera image processing unit 104 (telephoto image processing unit 104a, standard image processing unit 104b, ultra-wide-angle image processing unit 104c, and wide-angle image processing unit 104d) performs object detection processing. Object detection processing is processing for detecting an object that satisfies a predetermined condition from a captured image. The predetermined condition is a condition that a finger (unnecessary object) reflected in the captured image satisfies, for example, a black object (black area) located at the edge of the captured image and larger than a predetermined size. is.

S301では、CPU101は、デフォルトのレンズをLV表示用レンズ(LV表示する画像の撮像に用いるレンズ)に設定する。デフォルトのレンズは特に限定されないが、例えば標準レンズ114bである。 In S301, the CPU 101 sets the default lens to the LV display lens (lens used to capture an image to be displayed on the LV). Although the default lens is not particularly limited, it is, for example, the standard lens 114b.

S302では、CPU101は、アウトカメラ画像処理部104によるオブジェクト検出処理の結果に基づいて、LV表示用レンズを用いて撮像された画像から指(所定の条件を満たすオブジェクト)が検出されたか否かを判定する。つまり、LV表示用レンズを用いて撮像された画像に指が写り込んでいるか否かを判定する。指が検出された(指が写り込んでいる)と判定した場合はS303に進み、そうでない場合はS304に進む。 In S302, the CPU 101 determines whether a finger (an object satisfying a predetermined condition) has been detected from the image captured using the LV display lens, based on the result of object detection processing by the out-camera image processing unit 104. judge. That is, it is determined whether or not the finger is reflected in the image captured using the LV display lens. If it is determined that a finger has been detected (the finger is captured), the process proceeds to S303; otherwise, the process proceeds to S304.

S303では、CPU101は、LV表示用レンズを変更する(切り替える)第1のレンズ変更処理を行う。第1のレンズ変更処理の詳細は図4を用いて後述する。 In S303, the CPU 101 performs first lens change processing for changing (switching) the LV display lens. Details of the first lens changing process will be described later with reference to FIG.

S304では、CPU101は、姿勢検出部113の処理結果に基づいて、スマートフォン100の姿勢が変化したか否かを判定する。スマートフォン100の姿勢が変化したと判定した場合はS305に進み、そうでない場合はS308に進む。第1の実施形態では、スマートフォン100の姿勢変化として、縦向きから横向きへのスマートフォン100の向きの変化、または、横向きから縦向きへのスマートフォン100の向きの変化が検出されるとする。 In S<b>304 , the CPU 101 determines whether or not the posture of the smartphone 100 has changed based on the processing result of the posture detection unit 113 . If it is determined that the orientation of the smartphone 100 has changed, the process proceeds to S305; otherwise, the process proceeds to S308. In the first embodiment, it is assumed that a change in orientation of smartphone 100 from vertical to horizontal or a change in orientation of smartphone 100 from horizontal to vertical is detected as a change in orientation of smartphone 100 .

S305では、CPU101は、姿勢検出部113の処理結果に基づいて、スマートフォン100の姿勢(向き)が横向きか否かを判定する。つまり、S304で検出した姿勢変化が縦向きから横向きへのスマートフォン100の向きの変化であったか否かを判定する。スマートフォン100が横向きであると判定した場合はS306に進み、そうでない場合はS307に進む。 In S<b>305 , the CPU 101 determines whether or not the orientation (orientation) of the smartphone 100 is sideways based on the processing result of the orientation detection unit 113 . That is, it is determined whether or not the posture change detected in S304 is a change in orientation of the smartphone 100 from vertical to horizontal. If it is determined that the smartphone 100 is in landscape orientation, the process proceeds to S306; otherwise, the process proceeds to S307.

S306では、CPU101は、LV表示用レンズを変更する(切り替える)第2のレンズ変更処理を行う。第2のレンズ変更処理の詳細は図5を用いて後述する。 In S306, the CPU 101 performs second lens change processing for changing (switching) the LV display lens. Details of the second lens changing process will be described later with reference to FIG.

S307では、CPU101は、標準レンズ114bをLV表示用レンズに設定する。アウトカメラ114はスマートフォン100の上端に寄っており、ユーザーは、スマートフォン100を縦向きで持って撮影を行う場合に、スマートフォン100の下半分あたりを持つことが多い。そのため、スマートフォン100が縦向きの場合には、標準レンズ114bで撮像される画像に指が写り込むリスクは低い。なお、スマートフォン100が縦向きの場合には、標準レンズ114bとは異なるレンズ(例えば、デフォルトのレンズ)をLV表示用レンズに設定してもよい。 In S307, the CPU 101 sets the standard lens 114b as the LV display lens. The out-camera 114 is close to the upper end of the smartphone 100 , and the user often holds the lower half of the smartphone 100 when shooting while holding the smartphone 100 vertically. Therefore, when the smartphone 100 is oriented vertically, the risk of the finger being captured in the image captured by the standard lens 114b is low. Note that when the smartphone 100 is oriented vertically, a lens different from the standard lens 114b (for example, a default lens) may be set as the LV display lens.

S308では、CPU101は、LV表示用レンズを用いて撮像された画像をディスプレイ105にLV表示する。 In S<b>308 , the CPU 101 causes the display 105 to perform LV display of the image captured using the LV display lens.

S309では、CPU101は、ユーザーがタッチパネル106aを使って撮影倍率(ズーム倍率)の変更を指示したか否かを判定する。撮影倍率の変更が指示されたと判定した場合はS310に進み、そうでない場合はS312に進む。 In S309, the CPU 101 determines whether or not the user has instructed to change the imaging magnification (zoom magnification) using the touch panel 106a. If it is determined that an instruction to change the imaging magnification has been given, the process proceeds to S310; otherwise, the process proceeds to S312.

S310では、CPU101は、S309で指示された撮影倍率のレンズをLV表示用レンズに設定する。例えば、標準レンズ114bがLV表示用レンズに設定されている状態で、撮影倍率を拡大方向に変更する指示があった場合は、LV表示用レンズを標準レンズ114bから望遠レンズ114aに変更する。標準レンズ114bがLV表示用レンズに設定されている状態で、撮影倍率を縮小方向に変更する指示があった場合は、LV表示用レンズを標準レンズ114bから超広角レンズ114cや広角レンズ114dに変更する。撮影倍率を拡大方向に変更することは、撮影範囲(画角)を狭めることに対応し、撮影倍率を縮小方向に変更することは、撮影範囲(画角)を広げることに対応する。 In S310, the CPU 101 sets the lens with the photographing magnification instructed in S309 as the LV display lens. For example, in a state where the standard lens 114b is set as the LV display lens, if there is an instruction to change the photographing magnification in the enlargement direction, the LV display lens is changed from the standard lens 114b to the telephoto lens 114a. In the state that the standard lens 114b is set as the LV display lens, if there is an instruction to change the shooting magnification in the reduction direction, the LV display lens is changed from the standard lens 114b to the super-wide-angle lens 114c or the wide-angle lens 114d. do. Changing the imaging magnification in the enlarging direction corresponds to narrowing the imaging range (angle of view), and changing the imaging magnification in the contracting direction corresponds to widening the imaging range (angle of view).

S309とS310の処理によって、ユーザーは、S303、S306、または、S307でLV表示用レンズ(撮影倍率)が自動で変更された後でも、撮影倍率を任意に変更することができる。なお、撮影倍率の変更は、S310の処理のようなLV表示用レンズの変更に限られず、LV表示用レンズの変更を伴わないデジタルズームや光学ズームであってもよい。 Through the processing of S309 and S310, the user can arbitrarily change the imaging magnification even after the LV display lens (imaging magnification) is automatically changed in S303, S306, or S307. Note that the change of the imaging magnification is not limited to the change of the LV display lens as in the processing of S310, and may be digital zoom or optical zoom that does not involve the change of the LV display lens.

S311では、CPU101は、LV表示用レンズを用いて撮像された画像をディスプレイ105にLV表示する。ここで、LV表示用レンズは、S310で新たに設定されたレンズである。 In S<b>311 , the CPU 101 causes the display 105 to perform LV display of an image captured using the LV display lens. Here, the LV display lens is the lens newly set in S310.

S312では、CPU101は、撮影指示が行われたか否かを判定する。撮影指示が行われたと判定した場合はS313へ進み、そうでない場合はS314へ進む。例えば、ユーザーは、ディスプレイ105に表示された撮影アイコンをタッチ操作することで、撮影指示を行う。撮影指示を行うための専用の物理ボタンを配置し、当該物理ボタンの押下によって撮影指示が行われたと判定してもよい。上述したように、音量プラスボタン106cや音量マイナスボタン106dの押下によって撮影指示が行われてもよい。電源ボタン106bと音量マイナスボタン106dを同時に押下したり、音量マイナスボタン106dを素早く数回押下したりすることで撮影指示が行われたと判定してもよい。 In S312, the CPU 101 determines whether or not a shooting instruction has been issued. If it is determined that a photographing instruction has been issued, the process proceeds to S313; otherwise, the process proceeds to S314. For example, the user performs a shooting instruction by performing a touch operation on a shooting icon displayed on the display 105 . A dedicated physical button for issuing a photographing instruction may be arranged, and it may be determined that a photographing instruction has been issued by pressing the physical button. As described above, the photographing instruction may be given by pressing the volume plus button 106c or the volume minus button 106d. It may be determined that the shooting instruction has been issued by simultaneously pressing the power button 106b and the volume down button 106d or by quickly pressing the volume down button 106d several times.

S313では、CPU101は、AF枠の表示位置に基づいたAF(オートフォーカス)処理や、AE(自動露出)処理、AWB(オートホワイトバランス処理)等の撮影準備処理を行う。そして、CPU101は、LV表示用レンズを用いて撮像された画像を画像ファイルとして記憶媒体108に記録するまでの一連の撮影処理を行う。 In S313, the CPU 101 performs AF (autofocus) processing based on the display position of the AF frame, AE (auto exposure) processing, AWB (auto white balance processing), and other shooting preparation processing. Then, the CPU 101 performs a series of photographing processes until an image captured using the LV display lens is recorded in the storage medium 108 as an image file.

S314では、CPU101は、カメラアプリケーションを終了するか否かを判定する。カメラアプリケーションを終了する場合は図3のカメラ処理を終了し、そうでない場合はS302に進む。例えば、ユーザーがカメラアプリケーションを閉じる指示や、アクティブなアプリケーションを別のアプリケーションに切り替える指示などを行うと、CPU101はカメラアプリケーションを終了すると判定する。 In S314, the CPU 101 determines whether or not to end the camera application. If the camera application is to be terminated, the camera processing in FIG. 3 is terminated; otherwise, the process proceeds to S302. For example, when the user gives an instruction to close the camera application or an instruction to switch the active application to another application, the CPU 101 determines to end the camera application.

図4は、LV表示用レンズを用いて撮像された画像に指が写り込んでいる場合に行われる第1のレンズ変更処理(図3のS303)の一例を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することにより実現される。 FIG. 4 is a flowchart showing an example of the first lens change processing (S303 in FIG. 3) performed when a finger is captured in an image captured using the LV display lens. This processing is realized by the CPU 101 expanding the program stored in the nonvolatile memory 103 into the memory 102 and executing the program.

S401では、CPU101は、ユーザーからの指示により撮影倍率が変更されているか否か(つまり、LV表示用レンズが図3のS310で設定されたレンズか否か)を判定する。ユーザーからの指示により撮影倍率が変更されていると判定した場合は図4の第1のレンズ変更処理を終了し、そうでない場合はS402に進む。 In S401, the CPU 101 determines whether or not the imaging magnification has been changed by an instruction from the user (that is, whether or not the LV display lens is the lens set in S310 of FIG. 3). If it is determined that the shooting magnification has been changed according to an instruction from the user, the first lens change processing in FIG. 4 is terminated, and if not, the process proceeds to S402.

S402では、CPU101は、S404で行うピックアップ処理の対象から、撮像される画像の画素数が所定数以下となるレンズを除外するように設定する。これにより、例えば、マクロ用レンズなど、撮像される画像の画素数が標準レンズよりも著しく少ないレンズをピックアップ処理の対象から除外することができる。なお、撮像される画像の画素数は、撮像部の構成や、撮像部のうち使用する範囲などに依存する。そのため、レンズ間で撮像部が異なる場合にも、レンズ間で撮像部が同じ(共通する)場合にも、レンズ間で、撮像される画像の画素数の違いが生じ得る。また、ピックアップ処理の対象は、変更後のLV表示用レンズの候補と捉えることもできる。 In S<b>402 , the CPU 101 performs setting so as to exclude lenses whose number of pixels in the captured image is equal to or less than a predetermined number from the objects of the pickup processing performed in S<b>404 . This makes it possible to exclude, for example, a lens such as a macro lens whose number of pixels in an image to be captured is significantly smaller than that of a standard lens from the targets of the pick-up process. Note that the number of pixels of an image to be captured depends on the configuration of the imaging unit, the range of use of the imaging unit, and the like. Therefore, even if the lenses have different imaging units, or if the lenses have the same (common) imaging units, the number of pixels in the captured image may differ between the lenses. In addition, the target of the pick-up process can also be regarded as a candidate for the LV display lens after the change.

S403では、CPU101は、S404で行うカメラのピックアップ処理対象から、特殊用途のレンズを除外するように設定する。これにより、例えば、モノクロ用レンズなど、特殊な撮影に使用するレンズをピックアップ処理の対象から除外することができる。なお、他の特定の条件を満たすレンズを、ピックアップ処理の対象から除外してもよい。 In S<b>403 , the CPU 101 sets to exclude the special-purpose lens from the camera pick-up processing targets performed in S<b>404 . As a result, for example, a lens used for special shooting, such as a monochrome lens, can be excluded from the targets of the pick-up process. Note that lenses satisfying other specific conditions may be excluded from targets of the pickup process.

S404では、CPU101は、アウトカメラ114の複数のレンズから、撮像された画像に指が写り込んでいないレンズをピックアップする(ピックアップ処理)。撮像された画像に指が写り込んでいないレンズが複数ある場合は、当該複数のレンズを全てピックアップする。もちろん、S402やS403で除外したレンズはピックアップしない。撮像された画像に指が写り込んでいないレンズは、指が検出されなかった画像の撮像に用いられたレンズと捉えることもできる。 In S404, the CPU 101 picks up a lens in which the finger is not captured in the captured image from the plurality of lenses of the out-camera 114 (pickup processing). If there are multiple lenses in which the finger is not captured in the captured image, all of the multiple lenses are picked up. Of course, lenses excluded in S402 or S403 are not picked up. The lens in which the finger is not captured in the captured image can also be regarded as the lens used to capture the image in which the finger was not detected.

S405では、CPU101は、S404で1つ以上のレンズをピックアップしたか否か、つまり撮像された画像に指が写り込んでいないレンズが存在しているか否かを判定する。1つ以上のレンズをピックアップしたと判定した場合はS407に進み、そうでない場合はS406に進む。S406に進むのは、全てのレンズで、撮像された画像に指が写り込んでいる場合である。 In S405, the CPU 101 determines whether or not one or more lenses have been picked up in S404, that is, whether or not there is a lens in which the finger is not captured in the captured image. If it is determined that one or more lenses have been picked up, the process proceeds to S407; otherwise, the process proceeds to S406. The process proceeds to S406 when the finger is reflected in the image captured by all the lenses.

S406では、CPU101は、所定の通知を行う。第1の実施形態では、CPU101は、カメラに指が被っていることなどをユーザーに知らせるための警告を、ディスプレイ105に表示するとする。例えば、ディスプレイ105に、「カメラを確認してください」などの文章により通知を行う。S405においてNoと判定されたことから、本ステップでは指が被っているレンズ以外での撮影が難しいことがわかる。そのため、上述したような通知を行うことで、ユーザーに対してカメラ(レンズ)への指被りを認識してもらえる可能性が高くなり、指が写りこんだ写真を撮影してしまうことを低減することができる。なお、所定の通知は、ディスプレイ105での表示によって実現されてもよいし、音声の出力や、ランプの点灯などによって実現されてもよい。 In S406, the CPU 101 makes a predetermined notification. In the first embodiment, the CPU 101 displays a warning on the display 105 to inform the user that a finger is covering the camera. For example, the display 105 is notified by text such as "Please check the camera." Since it was determined as No in S405, it can be understood that it is difficult to shoot with a lens other than the one covered by the finger in this step. Therefore, by performing the notification as described above, the possibility that the user will recognize that the camera (lens) is covered with a finger is increased, and it is possible to reduce the possibility of taking a photograph in which the finger is captured. be able to. Note that the predetermined notification may be realized by a display on the display 105, or may be realized by an audio output, lighting of a lamp, or the like.

S407では、CPU101は、S404で複数のレンズをピックアップしたか否か、つまり撮像された画像に指が写り込んでいないレンズが複数存在しているか否かを判定する。複数のレンズをピックアップしたと判定した場合はS408に進み、そうでない場合はS409に進む。S409に進むのは、1つのレンズをピックアップした場合である。 In S407, the CPU 101 determines whether or not a plurality of lenses have been picked up in S404, that is, whether or not there are a plurality of lenses in which the finger is not captured in the captured image. If it is determined that a plurality of lenses have been picked up, the process proceeds to S408; otherwise, the process proceeds to S409. The process proceeds to S409 when one lens is picked up.

S408では、CPU101は、S404でピックアップした複数のレンズのうち、撮像される画像の画素数が最も多いレンズを、LV表示用レンズに設定する。 In S408, the CPU 101 sets the lens with the largest number of pixels of the image to be captured among the plurality of lenses picked up in S404 as the LV display lens.

S409では、CPU101は、S404でピックアップしたレンズを、LV表示用レンズに設定する。 In S409, the CPU 101 sets the lens picked up in S404 as the LV display lens.

図5は、スマートフォン100の姿勢(向き)が縦向きから横向きに変化した場合に行われる第2のレンズ変更処理(図3のS306)の一例を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することにより実現される。 FIG. 5 is a flowchart showing an example of the second lens changing process (S306 in FIG. 3) that is performed when the orientation (orientation) of the smartphone 100 changes from vertical to horizontal. This processing is realized by the CPU 101 expanding the program stored in the nonvolatile memory 103 into the memory 102 and executing the program.

S501では、CPU101は、S503で行うピックアップ処理の対象から、撮像される画像の画素数が所定数以下となるレンズを除外するように設定する。S502では、CPU101は、S503で行うカメラのピックアップ処理対象から、特殊用途のレンズを除外するように設定する。なお、他の特定の条件を満たすレンズを、ピックアップ処理の対象から除外してもよい。 In S<b>501 , the CPU 101 performs setting so as to exclude lenses whose number of pixels in an image to be captured is equal to or less than a predetermined number from the targets of the pickup processing performed in S<b>503 . In S<b>502 , the CPU 101 sets so as to exclude the special-purpose lens from the targets of camera pickup processing performed in S<b>503 . Note that lenses satisfying other specific conditions may be excluded from targets of the pickup process.

S503では、CPU101は、アウトカメラ114の複数のレンズから、水平方向(重力方向に垂直な方向;スマートフォン100の横向きに平行な方向)においてスマートフォン100の中央に最も寄ったレンズをピックアップする(ピックアップ処理)。もちろん、S501やS502で除外したレンズはピックアップしない。この処理の詳細は図8を用いて後述する。 In S503, the CPU 101 picks up the lens closest to the center of the smartphone 100 in the horizontal direction (the direction perpendicular to the direction of gravity; the direction parallel to the sideways orientation of the smartphone 100) from the plurality of lenses of the out-camera 114 (pickup processing ). Of course, lenses excluded in S501 and S502 are not picked up. The details of this process will be described later with reference to FIG.

S504では、CPU101は、S503で複数のレンズをピックアップしたか否かを判定する。複数のレンズをピックアップしたと判定した場合はS505に進み、そうでない場合はS506に進む。S506に進むのは、1つのレンズをピックアップした場合である。 In S504, the CPU 101 determines whether or not a plurality of lenses have been picked up in S503. If it is determined that a plurality of lenses have been picked up, the process proceeds to S505; otherwise, the process proceeds to S506. The process proceeds to S506 when one lens is picked up.

S505では、CPU101は、S503でピックアップした複数のレンズのうち、撮像される画像の画素数が最も多いレンズを、LV表示用レンズに設定する。 In S505, the CPU 101 sets the lens with the largest number of pixels of the image to be captured among the plurality of lenses picked up in S503 as the LV display lens.

S506では、CPU101は、S503でピックアップしたレンズを、LV表示用レンズに設定する。 In S506, the CPU 101 sets the lens picked up in S503 as the LV display lens.

図6(a),6(b)は、ユーザーがスマートフォン100を横向きで構えている状態の一例を示す図である。図6(a)は、スマートフォン100を構えたユーザーを正面から見た図であり、図6(b)は、そのようなユーザーを真上から見た図である。図6(b)の画角600は標準レンズ114bの画角(標準レンズ114bを用いた場合に撮像される範囲)であり、画角601は超広角レンズ114cの画角(超広角レンズ114cを用いた場合に撮像される範囲)である。図6(b)の例では、標準レンズ114bの画角600にユーザーの指が重なっている。 FIGS. 6A and 6B are diagrams showing an example of a state in which the user holds the smartphone 100 sideways. FIG. 6A is a front view of a user holding smartphone 100, and FIG. 6B is a top view of such a user. The angle of view 600 in FIG. 6B is the angle of view of the standard lens 114b (the range captured when the standard lens 114b is used), and the angle of view 601 is the angle of view of the super-wide-angle lens 114c (the range of the super-wide-angle lens 114c). range). In the example of FIG. 6B, the user's finger overlaps the angle of view 600 of the standard lens 114b.

図7(a),7(b)は、図6(a),6(b)の状態で撮像された画像の一例を示す図である。図7(a)は、標準レンズ114bを用いて撮像された画像を示し、図7(b)は、超広角レンズ114cを用いて撮像された画像を示す。図7(a)の画像にはユーザーの指700が写り込んでいる。一方で、図7(b)の画像にはユーザーの指が写り込んでいない。水平方向において、超広角レンズ114cの方が、標準レンズ114bよりも、スマートフォン100の中央に近い。レンズがスマートフォン100の端に近いほど撮像される画像に指が写り込むリスクは高いため、スマートフォン100の中央に近いレンズを使うことで、写り込みのリスクを下げることができる。 FIGS. 7(a) and 7(b) are diagrams showing examples of images captured in the states of FIGS. 6(a) and 6(b). FIG. 7(a) shows an image captured using the standard lens 114b, and FIG. 7(b) shows an image captured using the super-wide-angle lens 114c. The user's finger 700 is reflected in the image of FIG. 7(a). On the other hand, the user's finger is not reflected in the image of FIG. 7(b). In the horizontal direction, the super-wide-angle lens 114c is closer to the center of the smartphone 100 than the standard lens 114b. The closer the lens is to the edge of the smartphone 100, the higher the risk of the finger being captured in the captured image. Therefore, using the lens closer to the center of the smartphone 100 can reduce the risk of being captured.

図8を用いて、図5のS503の処理の具体例を説明する。図8は、横向きで構えられ
たスマートフォン100を示す背面図であり、アウトカメラ114の各レンズからスマートフォン100の水平中央位置800までの距離の一例を示す図である。水平中央位置800は、水平方向(スマートフォン100の横向きに平行な方向)におけるスマートフォン100の中央の位置である。超広角レンズ114cおよび広角レンズ114dから水平中央位置800までの距離801は、望遠レンズ114aから水平中央位置800までの距離802よりも短い。そして、望遠レンズ114aから水平中央位置800までの距離802は、標準レンズ114bから水平中央位置800までの距離803よりも短い。つまり、望遠レンズ114a、標準レンズ114b、超広角レンズ114c、及び、広角レンズ114dの中で、超広角レンズ114cと広角レンズ114dが水平中央位置800に最も近い。したがって、図5のS503の処理では、超広角レンズ114cと広角レンズ114dがピックアップされることになる。
A specific example of the processing of S503 in FIG. 5 will be described with reference to FIG. FIG. 8 is a rear view showing smartphone 100 held sideways, and is a diagram showing an example of the distance from each lens of out-camera 114 to horizontal center position 800 of smartphone 100 . A horizontal center position 800 is the center position of the smartphone 100 in the horizontal direction (the direction parallel to the sideways orientation of the smartphone 100). A distance 801 from the ultra-wide-angle lens 114c and the wide-angle lens 114d to the horizontal center position 800 is shorter than a distance 802 from the telephoto lens 114a to the horizontal center position 800. FIG. A distance 802 from the telephoto lens 114 a to the horizontal center position 800 is shorter than a distance 803 from the standard lens 114 b to the horizontal center position 800 . That is, the super-wide-angle lens 114c and the wide-angle lens 114d are closest to the horizontal center position 800 among the telephoto lens 114a, the standard lens 114b, the super-wide-angle lens 114c, and the wide-angle lens 114d. Therefore, in the processing of S503 in FIG. 5, the super-wide-angle lens 114c and the wide-angle lens 114d are picked up.

水平方向においてスマートフォン100の中央に最も寄ったレンズをピックアップする例を説明したが、これに限られない。水平方向においてスマートフォン100の中央に最も寄っていなくても当該中央に寄ったレンズをピックアップすればよく、水平方向においてスマートフォン100の中央から所定範囲に存在するレンズをピックアップすればよい。 Although an example of picking up the lens closest to the center of the smartphone 100 in the horizontal direction has been described, the present invention is not limited to this. Even if the lens is not closest to the center of the smartphone 100 in the horizontal direction, it is sufficient to pick up the lens closest to the center, and it is sufficient to pick up the lens present within a predetermined range from the center of the smartphone 100 in the horizontal direction.

図9(a),9(b)は、スマートフォン100とは異なるスマートフォン910,920(変形例)の背面図である。図9(a)のスマートフォン910では、アウトカメラ911は11個のレンズ911a~911kを含む。レンズ911a~911kはスマートフォン910を横向きで構えた場合の水平方向の端に寄っており、レンズ911aを中心として円状にレンズ911b~911kが配置されている。スマートフォン910の場合には、レンズ911h~911kをピックアップしてもよい。レンズ911h~911kの方がレンズ911a~911gよりもスマートフォン910の中央に寄っている。図9(b)のスマートフォン920では、アウトカメラ921は4つのレンズ921a~921dを含む。レンズ921a~921dはスマートフォン920を横向きで構えた場合の水平方向の端に寄っており、当該水平方向に並んでいる。スマートフォン920の場合には、レンズ921c,921dをピックアップしてもよい。レンズ921c,921dの方がレンズ921a,921bよりもスマートフォン920の中央に寄っている。 9A and 9B are rear views of smartphones 910 and 920 (modifications) different from the smartphone 100. FIG. In the smartphone 910 of FIG. 9(a), the out-camera 911 includes eleven lenses 911a to 911k. The lenses 911a to 911k are closer to the horizontal end when the smartphone 910 is held sideways, and the lenses 911b to 911k are arranged in a circle around the lens 911a. For smartphone 910, lenses 911h-911k may be picked up. The lenses 911h to 911k are closer to the center of the smartphone 910 than the lenses 911a to 911g. In the smartphone 920 of FIG. 9B, the out-camera 921 includes four lenses 921a-921d. The lenses 921a to 921d are close to the ends in the horizontal direction when the smartphone 920 is held sideways, and are arranged in the horizontal direction. In the case of the smart phone 920, lenses 921c and 921d may be picked up. The lenses 921c and 921d are closer to the center of the smartphone 920 than the lenses 921a and 921b.

以上述べたように、第1の実施形態によれば、第1の向きから第2の向きへの電子機器の姿勢変化に応じて、表示部に表示する画像の撮像に用いるレンズが、第1のレンズから、第1のレンズとは異なる第2のレンズに自動で変更される。さらに、第1のレンズを用いて撮像された画像から不要なオブジェクトが検出されたことに応じて、表示部に表示する画像の撮像に用いるレンズが、第1のレンズから、第1のレンズとは異なる第3のレンズに自動で変更される。このような新規な方法で、ユーザー(撮影者)の指などの不要なオブジェクトの写り込みを抑制することができる。また、第1のレンズと第2のレンズが電子機器の同じ側(同じ面)に設けられた同種のレンズである場合などにおいては、撮影範囲や撮影方向、ズーム倍率が変更されることなく、ユーザーは、意図した範囲を確認して撮影することができる。 As described above, according to the first embodiment, the lens used for capturing an image to be displayed on the display unit changes from the first orientation to the second orientation according to the orientation change of the electronic device. lens is automatically changed to a second lens different from the first lens. Furthermore, in response to detection of an unnecessary object from an image captured using the first lens, the lens used for capturing the image to be displayed on the display unit is changed from the first lens to the first lens. is automatically changed to a different third lens. Such a novel method can suppress unwanted objects such as the user's (photographer's) finger from appearing in the image. In addition, in the case where the first lens and the second lens are the same type of lens provided on the same side (same surface) of the electronic device, the shooting range, shooting direction, and zoom magnification are not changed. The user can confirm the intended range and shoot.

なお、姿勢変化に応じたレンズの変更と、不要なオブジェクトの検出に応じたレンズの変更との一方のみを行うようにしてもよい。例えば、図3のS302とS303の処理を省略してS304~S307の処理を行うようにしてもよいし、S304~S307の処理を省略してS302とS303の処理を行うようにしてもよい。 It should be noted that only one of the change of the lens according to the posture change and the change of the lens according to the detection of the unnecessary object may be performed. For example, the processes of S302 and S303 of FIG. 3 may be omitted and the processes of S304 to S307 may be performed, or the processes of S304 to S307 may be omitted and the processes of S302 and S303 may be performed.

また、スマートフォンの縦向きを第1の向きとし、横向きを第2の向きとする例を説明したが、これに限られない。レンズの配置や電子機器のサイズなどに依っては、電子機器の横向きを第1の向きとし、縦向きを第2の向きとしてもよい。例えば、スマートフォン
に比べ大きいタブレット端末の場合には、タブレット端末の横向きを第1の向きとし、縦向きを第2の向きとしてもよい。
Also, an example in which the vertical orientation of the smartphone is the first orientation and the horizontal orientation is the second orientation has been described, but the present invention is not limited to this. Depending on the arrangement of the lens, the size of the electronic device, etc., the horizontal orientation of the electronic device may be the first orientation, and the vertical orientation may be the second orientation. For example, in the case of a tablet terminal that is larger than a smartphone, the horizontal orientation of the tablet terminal may be the first orientation, and the vertical orientation may be the second orientation.

(第2の実施形態)
本発明の第2の実施形態を説明する。第2の実施形態では、LV表示する画像の撮像に用いるレンズを自動で変更するだけではなく、LV表示する画像の画角調整も行う例を説明する。第2の実施形態の画角調整は画像の表示範囲の調整であるが、画角調整により表示範囲だけでなく撮影範囲(記録範囲)も調整されてよい。画角調整以外の処理は第1の実施形態と同様であるため、以下では画角調整のみを詳しく説明する。
(Second embodiment)
A second embodiment of the present invention will be described. In the second embodiment, an example will be described in which not only the lens used for capturing the image to be displayed on the LV is automatically changed, but also the angle of view of the image to be displayed on the LV is adjusted. The angle of view adjustment in the second embodiment is adjustment of the display range of the image, but the angle of view adjustment may adjust not only the display range but also the shooting range (recording range). Since processing other than angle-of-view adjustment is the same as in the first embodiment, only the angle-of-view adjustment will be described in detail below.

図10は、スマートフォン100のカメラ処理の一例を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することにより実現される。S1001~S1007、S1009~S1014の処理は、それぞれ図3のS301~S307、S309~S314と処理と同様である。図10のカメラ処理では、図3のS308の処理の代わりに、S1008の処理が行われる。S1008では、CPU101は、画角調整処理を行う。画角調整処理では、S1003、S1006、または、S1007でLV表示用レンズを自動で変更した場合に、LV表示する画像の画角(表示範囲)を調整する。画角調整処理の詳細は図11を用いて後述する。 FIG. 10 is a flowchart illustrating an example of camera processing of smartphone 100 . This processing is realized by the CPU 101 expanding the program stored in the nonvolatile memory 103 into the memory 102 and executing the program. The processes of S1001 to S1007 and S1009 to S1014 are the same as the processes of S301 to S307 and S309 to S314 in FIG. 3, respectively. In the camera processing of FIG. 10, the processing of S1008 is performed instead of the processing of S308 of FIG. In S1008, the CPU 101 performs angle-of-view adjustment processing. In the field angle adjustment process, when the LV display lens is automatically changed in S1003, S1006, or S1007, the field angle (display range) of the image to be displayed on the LV is adjusted. Details of the angle-of-view adjustment processing will be described later with reference to FIG. 11 .

図11は、画角調整処理(図10のS1008)の一例を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することにより実現される。 FIG. 11 is a flowchart showing an example of the angle-of-view adjustment process (S1008 in FIG. 10). This processing is realized by the CPU 101 expanding the program stored in the nonvolatile memory 103 into the memory 102 and executing the program.

S1101では、CPU101は、S1003、S1006、または、S1007でLV表示用レンズを自動で変更したか否かを判定する。LV表示用レンズを自動で変更したと判定した場合はS1102に進み、そうでない場合はS1104に進む。 In S1101, the CPU 101 determines whether or not the LV display lens was automatically changed in S1003, S1006, or S1007. If it is determined that the LV display lens has been automatically changed, the process advances to S1102; otherwise, the process advances to S1104.

S1102では、CPU101は、変更後のLV表示用レンズが変更前のLV表示用レンズよりも広角なレンズであるか否かを判定する。広角なレンズであると判定した場合はS1103に進み、そうでない場合はS1104に進む。 In S1102, the CPU 101 determines whether the LV display lens after change has a wider angle than the LV display lens before change. If the wide-angle lens is determined, the process proceeds to S1103; otherwise, the process proceeds to S1104.

S1103では、CPU101は、変更後のLV表示用レンズを用いて撮像された画像の画角(撮像範囲;被写体範囲)を、変更後のLV表示用レンズを用いて撮像される画像の画角と略同一に調整する。画角はデジタルズームで調整してもよいし、光学ズームで調整してもよい。この処理の詳細は図12を用いて後述する。 In S1103, the CPU 101 compares the angle of view (imaging range; object range) of the image captured using the changed LV display lens with the angle of view of the image captured using the changed LV display lens. Adjust to approximately the same. The angle of view may be adjusted by digital zoom or by optical zoom. The details of this process will be described later with reference to FIG.

S1104では、CPU101は、LV表示用レンズを用いて撮像された画像をディスプレイ105にLV表示する。S1103の処理を行った場合には、調整後の画角の画像をディスプレイ105にLV表示する。 In S<b>1104 , the CPU 101 causes the display 105 to perform LV display of the image captured using the LV display lens. If the processing of S1103 has been performed, the image of the angle of view after adjustment is displayed on the display 105 as an LV.

図12(a)~12(d)を用いて、図11のS1103の処理(画角調整)の具体例を説明する。 A specific example of the processing (angle of view adjustment) in S1103 of FIG. 11 will be described with reference to FIGS.

図12(a)は、ユーザーがスマートフォン100を縦向きで構えている様子を示す。基本的には、ユーザーがスマートフォン100を縦向きで構えて使用する。図12(b)は、図12(a)の状況で標準レンズ114bを用いて撮像された画像1210を示す。図12(a)の状況では、標準レンズ114bがLV表示用レンズに設定されているとする。 FIG. 12A shows the user holding the smartphone 100 vertically. Basically, the user uses the smartphone 100 while holding it vertically. FIG. 12(b) shows an image 1210 captured using the standard lens 114b in the situation of FIG. 12(a). In the situation of FIG. 12A, it is assumed that the standard lens 114b is set as the LV display lens.

図12(c)は、ユーザーがスマートフォン100を横向きで構えている様子を示す。例えば、図12(a)のようにスマートフォン100を縦向きで構えて使用していたユーザーは、撮影のためにスマートフォン100を横向きにする。それに応じて、LV表示用レンズは標準レンズ114bから超広角レンズ114cに変更される。図12(d)は、図12(c)の状況で超広角レンズ114cを用いて撮像された画像1220を示す。 FIG. 12(c) shows a state in which the user holds the smartphone 100 sideways. For example, a user holding the smartphone 100 vertically as shown in FIG. 12A turns the smartphone 100 horizontally for shooting. Accordingly, the LV display lens is changed from the standard lens 114b to the super-wide-angle lens 114c. FIG. 12(d) shows an image 1220 captured using the ultra-wide-angle lens 114c in the situation of FIG. 12(c).

超広角レンズ114cは標準レンズ114bよりも広角であるため、図12(d)の画像1210の画角(撮像範囲;被写体範囲)は図12(b)の画像1220の画角よりも広い。そのため、スマートフォン100の姿勢(向き)が縦向きから横向きに変更されたときに、ディスプレイ105にLV表示する画像を画像1210から画像1220に変更すると、LV表示する画角が変化し、ユーザーがLV表示に違和感を覚える虞がある。そこで、図11のS1103で、画像1220から、標準レンズ114bを用いた場合の撮像範囲と略同一の撮像範囲に対応する画像領域1221を切り出し、S1104で、画像領域1221をディスプレイ105にLV表示する。こうすることで、LV表示用レンズが変わった際に、ディスプレイ105にLV表示する撮像範囲の大きな変化は生じず、ユーザーはLV表示に違和感を覚えることなくスマートフォン100を使用し続けることができる。 Since the super-wide-angle lens 114c has a wider angle than the standard lens 114b, the angle of view (imaging range; object range) of the image 1210 in FIG. 12(d) is wider than the angle of view of the image 1220 in FIG. 12(b). Therefore, when the orientation (orientation) of the smartphone 100 is changed from portrait orientation to landscape orientation, if the image to be LV-displayed on the display 105 is changed from the image 1210 to the image 1220, the angle of view to be LV-displayed changes, and the user can change the LV-display angle. There is a possibility that the display may give a sense of incongruity. Therefore, in S1103 of FIG. 11, an image area 1221 corresponding to an imaging range that is substantially the same as the imaging range when using the standard lens 114b is cut out from the image 1220, and in S1104, the image area 1221 is displayed on the display 105 as an LV. . By doing this, when the LV display lens is changed, the imaging range displayed on the display 105 does not change significantly, and the user can continue to use the smartphone 100 without feeling uncomfortable with the LV display.

以上述べたように、第2の実施形態によれば、LV表示する画像の撮像に用いるレンズを自動で変更するだけではなく、LV表示する画像の画角調整も行うことで、ユーザーが違和感を覚ないようにできる。 As described above, according to the second embodiment, not only the lens used for capturing the image to be displayed on the LV is automatically changed, but also the angle of view of the image to be displayed on the LV is adjusted, thereby making the user feel uncomfortable. You can do it without waking up.

なお、CPU101が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。 Note that the various controls described above that are performed by the CPU 101 may be performed by one piece of hardware, or a plurality of pieces of hardware (for example, a plurality of processors or circuits) may share the processing to control the entire apparatus. may be performed.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Moreover, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention can be applied to the present invention. included. Furthermore, each embodiment described above merely shows one embodiment of the present invention, and it is also possible to combine each embodiment as appropriate.

また、上述した実施形態においては、本発明をスマートフォンに適用した場合を例にして説明したが、これはこの例に限定されず複数のレンズを個別に用いて撮像を行うことが可能な電子機器であれば適用可能である。例えば、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、映像プレーヤーなどに適用可能である。また、本発明は、表示装置(投影装置を含む)、タブレット端末、デジタルカメラ、AIスピーカー、家電装置、車載装置、医療機器などにも適用可能である。 Further, in the above-described embodiments, the case where the present invention is applied to a smartphone has been described as an example, but this is not limited to this example, and an electronic device capable of capturing images using a plurality of lenses individually. is applicable. For example, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, printers, digital photo frames, music players, game machines, electronic book readers, video players, and the like. The present invention can also be applied to display devices (including projection devices), tablet terminals, digital cameras, AI speakers, home appliances, in-vehicle devices, medical devices, and the like.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100:スマートフォン 101:CPU
104:アウトカメラ画像処理部
104a:望遠画像処理部 104b:標準画像処理部
104c:超広角画像処理部 104d:広角画像処理部
105:ディスプレイ
113:姿勢検出部
114:アウトカメラ
114a:望遠レンズ 114b:標準レンズ
114c:超広角レンズ 114d:広角レンズ
114s:撮像部
910:スマートフォン 911:アウトカメラ 911a~911k:レンズ
920:スマートフォン 921:アウトカメラ 921a~921d:レンズ
100: Smartphone 101: CPU
104: Out-camera image processing unit 104a: Telephoto image processing unit 104b: Standard image processing unit 104c: Super-wide-angle image processing unit 104d: Wide-angle image processing unit 105: Display 113: Posture detection unit 114: Out-camera 114a: Telephoto lens 114b: Standard lens 114c: Super wide-angle lens 114d: Wide-angle lens 114s: Imaging unit 910: Smartphone 911: Out camera 911a to 911k: Lens 920: Smartphone 921: Out camera 921a to 921d: Lens

Claims (16)

複数のレンズを用いて撮像を行うカメラを有する電子機器であって、
前記電子機器の姿勢を検出する姿勢検出手段と、
第1のレンズを用いて撮像された画像を表示部に表示している状態で、第1の向きから第2の向きへの前記電子機器の姿勢変化を前記姿勢検出手段が検出したことに応じて、前記表示部に表示する画像の撮像に用いるレンズを、前記第1のレンズから、前記第1のレンズとは異なる第2のレンズに自動で変更するように制御する制御手段と
を有することを特徴とする電子機器。
An electronic device having a camera that captures images using a plurality of lenses,
attitude detection means for detecting the attitude of the electronic device;
In response to the posture detection means detecting a change in posture of the electronic device from a first direction to a second direction while an image captured using the first lens is displayed on the display unit. and control means for automatically changing a lens used for capturing an image to be displayed on the display unit from the first lens to a second lens different from the first lens. An electronic device characterized by:
前記第2の向きに平行な方向において、前記第2のレンズの方が、前記第1のレンズよりも、前記電子機器の中央に近い
ことを特徴とする請求項1に記載の電子機器。
2. The electronic device according to claim 1, wherein the second lens is closer to the center of the electronic device than the first lens in a direction parallel to the second orientation.
前記第2のレンズは、前記第2の向きに平行な方向において前記電子機器の中央から所定範囲に存在する複数のレンズのうち、撮像される画像の画素数が最も多いレンズであることを特徴とする請求項2に記載の電子機器。 The second lens is a lens having the largest number of pixels of an image to be captured among a plurality of lenses existing within a predetermined range from the center of the electronic device in a direction parallel to the second direction. 3. The electronic device according to claim 2. 前記第1の向きは縦向きであり、前記第2の向きは横向きである
ことを特徴とする請求項1~3のいずれか1項に記載の電子機器。
4. The electronic device according to claim 1, wherein the first orientation is vertical and the second orientation is horizontal.
複数のレンズを用いて撮像を行うカメラを有する電子機器であって、
撮像された画像から特定の条件を満たすオブジェクトを検出するためのオブジェクト検出処理を行うオブジェクト検出手段と、
第1のレンズを用いて撮像された画像を表示部に表示している状態で、前記オブジェクト検出手段が前記第1のレンズを用いて撮像された画像から前記オブジェクトを検出したことに応じて、前記表示部に表示する画像の撮像に用いるレンズを、前記第1のレンズから、前記第1のレンズとは異なる第3のレンズに自動で変更するように制御する制御手段と
を有することを特徴とする電子機器。
An electronic device having a camera that captures images using a plurality of lenses,
Object detection means for performing an object detection process for detecting an object that satisfies a specific condition from a captured image;
In response to the object detecting means detecting the object from the image captured using the first lens while the image captured using the first lens is being displayed on the display unit, and control means for automatically changing a lens used for capturing an image to be displayed on the display unit from the first lens to a third lens different from the first lens. and electronic devices.
撮像された画像から特定の条件を満たすオブジェクトを検出するためのオブジェクト検出処理を行うオブジェクト検出手段、をさらに有し、
前記制御手段は、さらに、前記第1のレンズを用いて撮像された画像を表示部に表示している状態で、前記オブジェクト検出手段が前記第1のレンズを用いて撮像された画像から前記オブジェクトを検出したことに応じて、前記表示部に表示する画像に用いるレンズを、前記第1のレンズから、前記第1のレンズとは異なる第3のレンズに自動で変更するように制御する
ことを特徴とする請求項1~4のいずれか1項に記載の電子機器。
further comprising object detection means for performing object detection processing for detecting an object that satisfies a specific condition from the captured image;
The control means further controls the object detection means to detect the object from the image captured using the first lens while the image captured using the first lens is displayed on the display unit. is detected, the lens used for the image displayed on the display unit is automatically changed from the first lens to a third lens different from the first lens. The electronic device according to any one of claims 1 to 4.
前記オブジェクト検出手段は、前記複数のレンズをそれぞれ用いて撮像された複数の画像のそれぞれについて、前記オブジェクト検出処理を行い、
前記第3のレンズは、前記オブジェクトが検出されなかった画像の撮像に用いられたレンズである
ことを特徴とする請求項5または6に記載の電子機器。
The object detection means performs the object detection process on each of a plurality of images captured using the plurality of lenses,
7. The electronic device according to claim 5, wherein the third lens is a lens used to capture an image in which the object is not detected.
前記オブジェクトが検出されなかった画像の撮像に用いられた複数のレンズが存在する場合に、前記第3のレンズは、撮像される画像の画素数が最も多いレンズである
ことを特徴とする請求項7に記載の電子機器。
3. The third lens is the lens with the largest number of pixels of the image to be captured when there are a plurality of lenses used to capture the image in which the object is not detected. 8. The electronic device according to 7.
前記制御手段は、さらに、前記オブジェクト検出手段が前記複数の画像のすべてから前記オブジェクトを検出したことに応じて、所定の通知を行うように制御する
ことを特徴とする請求項7または8に記載の電子機器。
9. The control unit according to claim 7, wherein the control unit further performs control so that a predetermined notification is made in response to detection of the object from all of the plurality of images by the object detection unit. electronics.
前記オブジェクトはユーザーの指である
ことを特徴とする請求項5~9のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 5 to 9, wherein the object is a user's finger.
前記制御手段は、前記表示部に表示する画像の撮像に用いるレンズを前記第1のレンズから自動で変更するように制御する際に、特定の条件を満たすレンズに変更するようには制御しない
ことを特徴とする請求項1~10のいずれか1項に記載の電子機器。
The control means, when performing control to automatically change the lens used for capturing an image to be displayed on the display unit from the first lens, does not perform control to change the lens to a lens that satisfies a specific condition. The electronic device according to any one of claims 1 to 10, characterized by:
前記制御手段は、前記表示部に表示する画像の撮像に用いるレンズを、前記第1のレンズから、前記第1のレンズよりも広角なレンズに自動で変更するように制御すると、変更後のレンズを用いて撮像された画像のうち、前記表示部に表示する範囲が、変更前のレンズを用いて撮像される画像の範囲と略同一になるように制御する
ことを特徴とする請求項1~11のいずれか1項に記載の電子機器。
When the control means controls to automatically change a lens used for capturing an image to be displayed on the display unit from the first lens to a lens having a wider angle than the first lens, the lens after the change wherein the range displayed on the display unit of the image captured using is controlled to be substantially the same as the range of the image captured using the lens before the change. 12. The electronic device according to any one of 11.
複数のレンズを用いて撮像を行うカメラを有する電子機器の制御方法であって、
前記電子機器の姿勢を検出する姿勢検出ステップと、
第1のレンズを用いて撮像された画像を表示部に表示している状態で、第1の向きから第2の向きへの前記電子機器の姿勢変化を前記姿勢検出ステップで検出したことに応じて、前記表示部に表示する画像の撮像に用いるレンズを、前記第1のレンズから、前記第1のレンズとは異なる第2のレンズに自動で変更するように制御する制御ステップと
を有することを特徴とする制御方法。
A control method for an electronic device having a camera that captures images using a plurality of lenses,
an orientation detection step of detecting an orientation of the electronic device;
In response to detecting a change in posture of the electronic device from a first direction to a second direction in the posture detection step while an image captured using the first lens is displayed on the display unit. and a control step of automatically changing a lens used for capturing an image to be displayed on the display unit from the first lens to a second lens different from the first lens. A control method characterized by:
複数のレンズを用いて撮像を行うカメラを有する電子機器の制御方法であって、
撮像された画像から特定の条件を満たすオブジェクトを検出するためのオブジェクト検出処理を行うオブジェクト検出ステップと、
第1のレンズを用いて撮像された画像を表示部に表示している状態で、前記オブジェクト検出ステップで前記第1のレンズを用いて撮像された画像から前記オブジェクトを検出したことに応じて、前記表示部に表示する画像の撮像に用いるレンズを、前記第1のレンズから、前記第1のレンズとは異なる第3のレンズに自動で変更するように制御する制御ステップと
を有することを特徴とする制御方法。
A control method for an electronic device having a camera that captures images using a plurality of lenses,
an object detection step of performing an object detection process for detecting an object that satisfies a specific condition from the captured image;
In response to detecting the object from the image captured using the first lens in the object detection step while the image captured using the first lens is displayed on the display unit, and a control step of automatically changing a lens used for capturing an image to be displayed on the display unit from the first lens to a third lens different from the first lens. control method.
コンピュータを、請求項1~12のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 12. コンピュータを、請求項1~12のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 12.
JP2021156503A 2021-09-27 2021-09-27 Electronic device Pending JP2023047536A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021156503A JP2023047536A (en) 2021-09-27 2021-09-27 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021156503A JP2023047536A (en) 2021-09-27 2021-09-27 Electronic device

Publications (1)

Publication Number Publication Date
JP2023047536A true JP2023047536A (en) 2023-04-06

Family

ID=85779193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021156503A Pending JP2023047536A (en) 2021-09-27 2021-09-27 Electronic device

Country Status (1)

Country Link
JP (1) JP2023047536A (en)

Similar Documents

Publication Publication Date Title
US10222903B2 (en) Display control apparatus and control method thereof
JP6757268B2 (en) Imaging device and its control method
KR102146858B1 (en) Photographing apparatus and method for making a video
JP7258482B2 (en) Electronics
US10924789B2 (en) Display control apparatus, control method for display control apparatus, and non-transitory computer readable medium
JP7183033B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US10120496B2 (en) Display control apparatus and control method thereof
US11079898B2 (en) Electronic device for controlling display of VR image, control method of electronic device, and non-transitory computer readable medium
JP2021174317A (en) Electronic apparatus and control method therefor
JP7080711B2 (en) Electronic devices, control methods, programs, and storage media for electronic devices
JP6198459B2 (en) Display control device, display control device control method, program, and storage medium
JP2013017088A (en) Imaging apparatus, control method of the same, control program, and recording medium
JP2023047536A (en) Electronic device
US10924680B2 (en) Image capture control apparatus and method of controlling the same
JP7366682B2 (en) Electronic equipment and its control method
JP7187307B2 (en) Electronic device and its control method
WO2023062911A1 (en) Electronic apparatus, control method, program, and storage medium
US20230345121A1 (en) Image pickup device and control method thereof
JP2019054551A (en) Information processing apparatus, information processing method, and information processing program
US20230276015A1 (en) Electronic apparatus, method of controlling the same, and computer-readable storage medium storing program
US11252328B2 (en) Electronic device and method for controlling the same
JP7278773B2 (en) Electronic device and its control method
CN110881102B (en) Image capturing apparatus, control method of image capturing apparatus, and computer readable medium
JP2023114840A (en) Electronic device, control method for the same, and program
CN116017137A (en) Image pickup apparatus, control method thereof, and storage medium