JP2023047536A - Electronic device - Google Patents
Electronic device Download PDFInfo
- Publication number
- JP2023047536A JP2023047536A JP2021156503A JP2021156503A JP2023047536A JP 2023047536 A JP2023047536 A JP 2023047536A JP 2021156503 A JP2021156503 A JP 2021156503A JP 2021156503 A JP2021156503 A JP 2021156503A JP 2023047536 A JP2023047536 A JP 2023047536A
- Authority
- JP
- Japan
- Prior art keywords
- lens
- image
- electronic device
- captured
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Cameras In General (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像を行うことのできる電子機器に関する。 The present invention relates to electronic equipment capable of imaging.
撮影を行う場合に、撮影する画像に指が写り込んでしまうことがある。特に、スマートフォンなどでは、レンズが本体の端に寄っていることが多く、撮影時における本体の向きの自由度が高いため、指が写り込む可能性が高い。 When photographing, the finger may be captured in the photographed image. In particular, in smartphones and the like, the lens is often close to the edge of the main body, and there is a high degree of freedom in the orientation of the main body during shooting, so there is a high possibility that a finger will be captured in the image.
特許文献1では、メインの画像の範囲よりも広範囲の画像から不要なオブジェクトを検出し、メインの画像に不要なオブジェクトが写り込むか否かを判定する技術が提案されている。特許文献1に開示の技術では、ユーザーは、カメラの位置を変えて、メインの画像に不要なオブジェクトが写り込まないように、メインの画像の範囲を変えることができる。特許文献2では、治療行為に対応する撮影指針情報(撮影方向やズーム倍率の情報)を用いて、不要なオブジェクトが写り込まないように治療行為を撮影する技術が提案されている。
Japanese Patent Application Laid-Open No. 2002-200003 proposes a technique of detecting an unnecessary object from an image wider than the range of the main image and determining whether or not the unnecessary object appears in the main image. With the technique disclosed in
しかしながら、従来技術では、撮影範囲や撮影方向、ズーム倍率が変更されるため、ユーザーの意図した範囲を撮影することができない。 However, in the conventional technology, since the photographing range, photographing direction, and zoom magnification are changed, it is impossible to photograph the range intended by the user.
本発明は、新規な方法でユーザー(撮影者)の指などの不要なオブジェクトの写り込みを抑制することのできる技術を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a technique capable of suppressing unwanted objects such as a user's (photographer's) finger from appearing in a new image.
本発明の電子機器は、複数のレンズを用いて撮像を行うカメラを有する電子機器であって、前記電子機器の姿勢を検出する姿勢検出手段と、第1のレンズを用いて撮像された画像を表示部に表示している状態で、第1の向きから第2の向きへの前記電子機器の姿勢変化を前記姿勢検出手段が検出したことに応じて、前記表示部に表示する画像の撮像に用いるレンズを、前記第1のレンズから、前記第1のレンズとは異なる第2のレンズに自動で変更するように制御する制御手段とを有することを特徴とする。 An electronic device of the present invention is an electronic device having a camera that captures images using a plurality of lenses, and includes orientation detection means for detecting the orientation of the electronic device and an image captured using a first lens. In a state where the display is displayed on the display unit, an image to be displayed on the display unit is captured in response to detection by the orientation detection means of a change in orientation of the electronic device from the first orientation to the second orientation. and control means for controlling to automatically change the lens to be used from the first lens to a second lens different from the first lens.
本発明によれば、新規な方法でユーザー(撮影者)の指などの不要なオブジェクトの写り込みを抑制することができる。 According to the present invention, it is possible to suppress unwanted objects such as the user's (photographer's) finger from appearing in a new image.
以下、図面を参照して本発明の好適な実施形態(第1の実施形態および第2の実施形態)を説明する。 Preferred embodiments (first embodiment and second embodiment) of the present invention will be described below with reference to the drawings.
図1(a),1(b)は、本発明を適用可能な装置(電子機器)の一例としてのスマートフォン100の外観図である。図1(a)はスマートフォン100の前面図であり、図1(b)はスマートフォン100の背面図である。
1(a) and 1(b) are external views of a
ディスプレイ105は、画像や各種情報を表示する、スマートフォン100の前面に設けられた表示部である。タッチパネル106aはディスプレイ105と一体的に構成されたタッチ操作部材であり、スマートフォン100は、タッチパネル106aを用いてディスプレイ105の表示面(操作面)に対するタッチ操作を検出することができる。スマートフォン100は、アウトカメラ114またはインカメラ115で撮像した画像をディスプレイ105にライブビュー表示(LV表示)することが可能である。LV表示は、被写体を略リアルタイムで表した画像の表示であり、LV表示される画像はLV画像と呼ばれる。アウトカメラ114は、後述する望遠レンズ114a、標準レンズ114b、超広角レンズ114c、広角レンズ114dなどを含む。
A
電源ボタン106bは、ディスプレイ105の点灯/消灯を切り替えたり、スマートフォン100の電源のON/OFFを切り替えたりするための操作ボタンである。例えば、ユーザーが所定時間(例えば3秒間)よりも短い時間、電源ボタン106bを押下すると(電源ボタン106bを短押しすると)、ディスプレイ105の点灯/消灯が切り替えられる。ユーザーが所定時間、電源ボタン106bの押下を継続すると(電源ボタン106bを長押しすると)、スマートフォン100の電源のON/OFFが切り替えられる。
The
音量プラスボタン106cと音量マイナスボタン106dは、音声出力端子112aから出力する音声信号の音量(ボリューム)や、スピーカー112bから出力する音声の音量を調整するための音量ボタンである。音量プラスボタン106cが押下されると音量が大きくなり、音量マイナスボタン106dが押下されると音量が小さくなる。カメラ使用時の撮影待機状態においては、音量プラスボタン106cや音量マイナスボタン106dは、撮影を指示するためのシャッターボタンとして機能する。
The
また、電源ボタン106bと音量マイナスボタン106dを同時に押下したり、音量マイナスボタン106dを素早く数回押下したりした場合に、特定の機能が実行されるように、ユーザーが任意に設定を行うことができる。
In addition, the user can arbitrarily set so that a specific function is executed when the
ホームボタン106eは、ディスプレイ105にホーム画面を表示させるための操作ボタンである。ユーザーは、スマートフォン100において様々なアプリケーションを起動し、使用していた場合に、ホームボタン106eを押下することで、起動している様々なアプリケーションを一時的に閉じて、ディスプレイ105にホーム画面を表示させることができる。なお、本実施形態ではホームボタン106eは物理的に押下可能なボタンであるとするが、ディスプレイ105に表示された、タッチ操作可能なタッチボタン(表示ア
イテム)であってもよい。
音声出力端子112aはイヤホンジャックであり、イヤホンや外部スピーカーなどに音声信号を出力する端子である。スピーカー112bは音声を出力する内蔵スピーカーである。例えば、音声出力端子112aにイヤホンや外部スピーカーなどが接続されている場合には、音声出力端子112aから音声信号が出力される。音声出力端子112aにイヤホンや外部スピーカーなどが接続されていない場合には、スピーカー112bから音声が出力される。
The
図2は、スマートフォン100の構成例を示すブロック図である。内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、アウトカメラ画像処理部104、ディスプレイ105、操作部106、記憶媒体I/F107、外部I/F109、及び、通信I/F110が接続されている。また、内部バス150に対して音声出力部112、姿勢検出部113、アウトカメラ114、インカメラ115、インカメラ画像処理部116も接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができる。
FIG. 2 is a block diagram showing a configuration example of the
CPU101は、スマートフォン100の全体を制御する制御部であり、少なくとも1つのプロセッサーまたは回路からなる。メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU101は、例えば不揮発性メモリ103に格納されたプログラムに従い、メモリ102をワークメモリとして用いて、スマートフォン100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は例えばフラッシュメモリやROMなどで構成される。
The
アウトカメラ114は、スマートフォン100の背面(ディスプレイ105が設けられた面とは反対側の面)に配置されたカメラである。アウトカメラ114は、撮像部114s、望遠レンズ114a、標準レンズ114b、超広角レンズ114c、及び、広角レンズ114dを含む。
The out-
撮像部114sは、CCDイメージセンサやCMOSイメージセンサなどの撮像素子であり、望遠レンズ114a、標準レンズ114b、超広角レンズ114c、及び、広角レンズ114dを個別に用いて撮像を行う。撮像部114sは、望遠レンズ114aを用いた撮像、標準レンズ114bを用いた撮像、超広角レンズ114cを用いた撮像、及び、広角レンズ114dを用いた撮像の4種の撮像を同時に(並列に又は時分割で)行うことができる。もちろん、撮像部114sは、上述した4種の撮像のうちの2種または3種の撮像のみを同時に行うこともできるし、1種の撮像のみを行うこともできる。
The
望遠レンズ114aの焦点距離は標準レンズ114bの焦点距離よりも長く、望遠レンズ114aを用いた撮像は、標準レンズ114bを用いた撮像よりも望遠の撮像となる。超広角レンズ114cの焦点距離は、標準レンズ114bの焦点距離よりも短く、超広角レンズ114cを用いた撮像は、標準レンズ114bを用いた撮像よりも広角の撮像となる。広角レンズ114dの焦点距離は標準レンズ114bの焦点距離と超広角レンズ114cの焦点距離との中間程度である。すなわち、望遠レンズ114a、標準レンズ114b、広角レンズ114d、超広角レンズ114cの順に焦点距離が短くなり、それに伴い画角(撮像範囲)も広くなる。なお、本実施形態では望遠レンズ114aのズーム倍率(焦点距離)は予め定められた固定値であるとするが、ユーザーが変更可能であってもよい。
The focal length of the
なお、本実施形態ではアウトカメラ114の全レンズ(望遠レンズ114a、標準レン
ズ114b、超広角レンズ114c、及び、広角レンズ114d)に対して1つの撮像部114sを用いるとするが、複数の撮像部を用いてもよい。1つの撮像部に対応するレンズの数は特に限定されず、1つのレンズに対して1つの撮像部を用いてもよいし、2つのレンズに対して1つの撮像部を用いてもよいし、3つのレンズに対して1つの撮像部を用いてもよい。望遠レンズ114aに対応する撮像部、標準レンズ114bに対応する撮像部、超広角レンズ114cに対応する撮像部、及び、広角レンズ114dに対応する撮像部の4つの撮像部を用いてもよい。
In this embodiment, one
インカメラ115は、スマートフォン100の前面(ディスプレイ105が設けられた面と同じ面)に配置されたカメラである。
The in-
アウトカメラ114で撮像された画像と、インカメラ115で撮像された画像とは、いずれもディスプレイ105にLV表示することができる。ユーザーは、タッチパネル106aを操作して、どのカメラで撮像された画像をディスプレイ105にLV表示するかを選択することができる。例えば、ユーザー(撮影者)は、眼前の光景を撮影する場合にアウトカメラ114を選択し、自分撮りを行う場合にインカメラ115を選択する。
Both the image captured by the out-
また、アウトカメラ114で撮像された画像をディスプレイ105にLV表示する場合には、ユーザーは、タッチパネル106aを操作して、どのレンズを用いて撮像された画像をディスプレイ105にLV表示するかを選択することができる。ユーザーは、望遠レンズ114aを選択すれば、標準レンズ114bを選択する場合よりも拡大された画像をディスプレイ105にLV表示することができる。標準レンズ114bを選択すれば、望遠レンズ114aを選択する場合よりも広角で、超広角レンズ114cや広角レンズ114dを選択する場合よりも拡大された画像をディスプレイ105にLV表示することができる。超広角レンズ114cを選択すれば、望遠レンズ114aや標準レンズ114b、広角レンズ114dを選択する場合よりも広角の画像をディスプレイ105にLV表示することができる。
When displaying an image captured by the out-
アウトカメラ画像処理部104は、CPU101の制御に基づいて、アウトカメラ114で撮像された画像を用いて各種画像処理(オブジェクト検出処理を含む)を行う。アウトカメラ画像処理部104は、望遠画像処理部104a、標準画像処理部104b、超広角画像処理部104c、及び、広角画像処理部104dを含む。望遠画像処理部104aは、望遠レンズ114aで撮像された画像を用いて各種画像処理を行う。標準画像処理部104bは、標準レンズ114bで撮像された画像を用いて各種画像処理を行う。超広角画像処理部104cは、超広角レンズ114cで撮像された画像を用いて各種画像処理を行う。広角画像処理部104dは、広角レンズ114dで撮像された画像を用いて各種画像処理を行う。これら4つの画像処理部は同時に(並列に又は時分割で)動作することができる。
Under the control of the
なお、本実施形態では4つのレンズにそれぞれ対応する4つの画像処理部を用いるとするが、1つの画像処理部に対応するレンズの数は特に限定されない。2つのレンズに対して1つの画像処理部を用いてもよいし、3つのレンズに対して1つの画像処理部を用いてもよい。全レンズに対して1つの画像処理部を用いてもよい。つまり、アウトカメラ画像処理部104が複数の画像処理部を含んでいなくてもよい。その場合にも、アウトカメラ画像処理部104は、複数の画像をそれぞれ用いた複数の処理を同時に(並列に又は時分割で)実行できてよい。
Although four image processing units corresponding to four lenses are used in this embodiment, the number of lenses corresponding to one image processing unit is not particularly limited. One image processing unit may be used for two lenses, or one image processing unit may be used for three lenses. One image processor may be used for all lenses. That is, the out-camera
インカメラ画像処理部116は、CPU101の制御に基づいて、インカメラ115で撮像された画像を用いて各種画像処理を行う。
Under the control of the
各画像処理部は、不揮発性メモリ103や記憶媒体108に格納された画像や、外部I/F109を介して取得した画像、通信I/F110を介して取得した画像などを用いて各種画像処理を行うこともできる。各画像処理部が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。各画像処理部は、特定の画像処理を行うための専用の回路ブロックで構成してもよい。また、画像処理の種別によっては各画像処理部を用いずにCPU101がプログラムに従って画像処理を行うことも可能である。
Each image processing unit performs various image processing using images stored in the
ディスプレイ105は、CPU101の制御に基づいて、画像や、GUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ105に表示するための画像信号を生成してディスプレイ105に出力するようにスマートフォン100の各部を制御する。ディスプレイ105は出力された画像信号に基づいて画像を表示する。なお、スマートフォン100自体が備える構成としてはディスプレイ105に表示させるための画像信号を出力するためのインターフェースまでとし、ディスプレイ105は外付けのモニタ(テレビなど)で構成してもよい。
The
操作部106は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルなどのポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザーによる操作を受け付けるための入力デバイスである。なお、操作部106には、上述したタッチパネル106a、電源ボタン106b、音量プラスボタン106c、音量マイナスボタン106d、ホームボタン106eなどの操作部材が含まれる。
The
記憶媒体I/F107は、メモリーカードやCD、DVDといった記憶媒体108が着脱可能とされ、CPU101の制御に基づき、装着された記憶媒体108からのデータの読み出しや、当該記憶媒体108に対するデータの書き込みを行う。記憶媒体108は、スマートフォン100内に組み込まれた内蔵ストレージでもよい。外部I/F109は、外部機器と有線ケーブルや無線によって接続し、画像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。
A storage medium I/
音声出力部112は、動画データや音楽データの音声や、操作音、着信音、各種通知音などを出力する。音声出力部112には、上述した音声出力端子112aとスピーカー112bが含まれる。音声出力部112は、無線通信などで音声出力を行ってもよい。
The
姿勢検出部113は、重力方向に対するスマートフォン100の姿勢(傾き)や、ヨー、ロール、ピッチの各軸に対するスマートフォン100の姿勢(傾き)を検出する。姿勢検出部113で検出された姿勢に基づいて、スマートフォン100が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢になったかなどを判別可能である。姿勢検出部113として、加速度センサー、ジャイロセンサー、地磁気センサー、方位センサー、高度センサーなどの複数のセンサーのうちのいずれか1つを用いることができる。姿勢検出部113として、複数のセンサーのうちの2つ以上の組み合わせを用いることもできる。
The
上述したように、操作部106には、タッチパネル106aが含まれる。タッチパネル106aは、ディスプレイ105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。CPU101はタッチパネル
106aへの以下の操作、あるいは状態を検出できる。
・タッチパネル106aにタッチしていなかった指やペンが新たにタッチパネル106aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)
・タッチパネル106aを指やペンがタッチしている状態(以下、タッチオン(Touch-On)と称する)
・指やペンがタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)
・タッチパネル106aへタッチしていた指やペンがタッチパネル106aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)
As described above, the
- A finger or pen that has not touched the
A state in which a finger or pen touches the
・The finger or pen is moving while touching the
- The finger or pen touching the
A state in which nothing is touched on the
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。 When touchdown is detected, touchon is also detected at the same time. After touchdown, touchon continues to be detected unless touchup is detected. Touch-on is detected at the same time when touch-move is detected. Even if touch-on is detected, touch-move is not detected if the touch position does not move. Touch-off is detected when it is detected that all the fingers and pens that were in touch have touched up.
これらの操作・状態や、タッチパネル106a上に指やペンがタッチしている位置座標は内部バス150を通じてCPU101に通知される。CPU101は通知された情報に基づいてタッチパネル106a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル106a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル106a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチパネル106a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル106a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル106aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
The
(第1の実施形態)
本発明の第1の実施形態を説明する。第1の実施形態では、アウトカメラ114で撮像してディスプレイ105にLV表示する画像への不要なオブジェクトの写り込みを抑制するように、LV表示する画像の撮像に用いるレンズを変更する例を説明する。不要なオブジェクトは特に限定されないが、第1の実施形態ではユーザー(撮影者)の指であるとする。アウトカメラ114で撮像してディスプレイ105にLV表示する画像は、記憶媒体108に記録する画像と捉えることもできる。
(First embodiment)
A first embodiment of the present invention will be described. In the first embodiment, an example of changing the lens used for capturing the image to be displayed on the LV so as to suppress unnecessary objects from appearing in the image captured by the out-
図3は、スマートフォン100のカメラ処理の一例を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に
展開して実行することにより実現される。例えば、ユーザーによってカメラアプリケーションの起動が指示されると、図3のカメラ処理が開始する。図3のカメラ処理中、姿勢検出部113は、スマートフォン100の姿勢を検出するとする。また、撮像部114sは、望遠レンズ114aを用いた撮像、標準レンズ114bを用いた撮像、超広角レンズ114cを用いた撮像、及び、広角レンズ114dを用いた撮像を同時に(並列に又は時分割で)行うとする。また、アウトカメラ画像処理部104(望遠画像処理部104a、標準画像処理部104b、超広角画像処理部104c、及び、広角画像処理部104d)は、オブジェクト検出処理を行うとする。オブジェクト検出処理は、撮像された画像から所定の条件を満たすオブジェクトを検出するための処理である。所定の条件は、撮像された画像に写り込んだ指(不要なオブジェクト)が満たす条件であり、例えば、撮像された画像の端に位置する所定サイズより大きな黒オブジェクト(黒領域)であるという条件である。
FIG. 3 is a flowchart illustrating an example of camera processing of
S301では、CPU101は、デフォルトのレンズをLV表示用レンズ(LV表示する画像の撮像に用いるレンズ)に設定する。デフォルトのレンズは特に限定されないが、例えば標準レンズ114bである。
In S301, the
S302では、CPU101は、アウトカメラ画像処理部104によるオブジェクト検出処理の結果に基づいて、LV表示用レンズを用いて撮像された画像から指(所定の条件を満たすオブジェクト)が検出されたか否かを判定する。つまり、LV表示用レンズを用いて撮像された画像に指が写り込んでいるか否かを判定する。指が検出された(指が写り込んでいる)と判定した場合はS303に進み、そうでない場合はS304に進む。
In S302, the
S303では、CPU101は、LV表示用レンズを変更する(切り替える)第1のレンズ変更処理を行う。第1のレンズ変更処理の詳細は図4を用いて後述する。
In S303, the
S304では、CPU101は、姿勢検出部113の処理結果に基づいて、スマートフォン100の姿勢が変化したか否かを判定する。スマートフォン100の姿勢が変化したと判定した場合はS305に進み、そうでない場合はS308に進む。第1の実施形態では、スマートフォン100の姿勢変化として、縦向きから横向きへのスマートフォン100の向きの変化、または、横向きから縦向きへのスマートフォン100の向きの変化が検出されるとする。
In S<b>304 , the
S305では、CPU101は、姿勢検出部113の処理結果に基づいて、スマートフォン100の姿勢(向き)が横向きか否かを判定する。つまり、S304で検出した姿勢変化が縦向きから横向きへのスマートフォン100の向きの変化であったか否かを判定する。スマートフォン100が横向きであると判定した場合はS306に進み、そうでない場合はS307に進む。
In S<b>305 , the
S306では、CPU101は、LV表示用レンズを変更する(切り替える)第2のレンズ変更処理を行う。第2のレンズ変更処理の詳細は図5を用いて後述する。
In S306, the
S307では、CPU101は、標準レンズ114bをLV表示用レンズに設定する。アウトカメラ114はスマートフォン100の上端に寄っており、ユーザーは、スマートフォン100を縦向きで持って撮影を行う場合に、スマートフォン100の下半分あたりを持つことが多い。そのため、スマートフォン100が縦向きの場合には、標準レンズ114bで撮像される画像に指が写り込むリスクは低い。なお、スマートフォン100が縦向きの場合には、標準レンズ114bとは異なるレンズ(例えば、デフォルトのレンズ)をLV表示用レンズに設定してもよい。
In S307, the
S308では、CPU101は、LV表示用レンズを用いて撮像された画像をディスプレイ105にLV表示する。
In S<b>308 , the
S309では、CPU101は、ユーザーがタッチパネル106aを使って撮影倍率(ズーム倍率)の変更を指示したか否かを判定する。撮影倍率の変更が指示されたと判定した場合はS310に進み、そうでない場合はS312に進む。
In S309, the
S310では、CPU101は、S309で指示された撮影倍率のレンズをLV表示用レンズに設定する。例えば、標準レンズ114bがLV表示用レンズに設定されている状態で、撮影倍率を拡大方向に変更する指示があった場合は、LV表示用レンズを標準レンズ114bから望遠レンズ114aに変更する。標準レンズ114bがLV表示用レンズに設定されている状態で、撮影倍率を縮小方向に変更する指示があった場合は、LV表示用レンズを標準レンズ114bから超広角レンズ114cや広角レンズ114dに変更する。撮影倍率を拡大方向に変更することは、撮影範囲(画角)を狭めることに対応し、撮影倍率を縮小方向に変更することは、撮影範囲(画角)を広げることに対応する。
In S310, the
S309とS310の処理によって、ユーザーは、S303、S306、または、S307でLV表示用レンズ(撮影倍率)が自動で変更された後でも、撮影倍率を任意に変更することができる。なお、撮影倍率の変更は、S310の処理のようなLV表示用レンズの変更に限られず、LV表示用レンズの変更を伴わないデジタルズームや光学ズームであってもよい。 Through the processing of S309 and S310, the user can arbitrarily change the imaging magnification even after the LV display lens (imaging magnification) is automatically changed in S303, S306, or S307. Note that the change of the imaging magnification is not limited to the change of the LV display lens as in the processing of S310, and may be digital zoom or optical zoom that does not involve the change of the LV display lens.
S311では、CPU101は、LV表示用レンズを用いて撮像された画像をディスプレイ105にLV表示する。ここで、LV表示用レンズは、S310で新たに設定されたレンズである。
In S<b>311 , the
S312では、CPU101は、撮影指示が行われたか否かを判定する。撮影指示が行われたと判定した場合はS313へ進み、そうでない場合はS314へ進む。例えば、ユーザーは、ディスプレイ105に表示された撮影アイコンをタッチ操作することで、撮影指示を行う。撮影指示を行うための専用の物理ボタンを配置し、当該物理ボタンの押下によって撮影指示が行われたと判定してもよい。上述したように、音量プラスボタン106cや音量マイナスボタン106dの押下によって撮影指示が行われてもよい。電源ボタン106bと音量マイナスボタン106dを同時に押下したり、音量マイナスボタン106dを素早く数回押下したりすることで撮影指示が行われたと判定してもよい。
In S312, the
S313では、CPU101は、AF枠の表示位置に基づいたAF(オートフォーカス)処理や、AE(自動露出)処理、AWB(オートホワイトバランス処理)等の撮影準備処理を行う。そして、CPU101は、LV表示用レンズを用いて撮像された画像を画像ファイルとして記憶媒体108に記録するまでの一連の撮影処理を行う。
In S313, the
S314では、CPU101は、カメラアプリケーションを終了するか否かを判定する。カメラアプリケーションを終了する場合は図3のカメラ処理を終了し、そうでない場合はS302に進む。例えば、ユーザーがカメラアプリケーションを閉じる指示や、アクティブなアプリケーションを別のアプリケーションに切り替える指示などを行うと、CPU101はカメラアプリケーションを終了すると判定する。
In S314, the
図4は、LV表示用レンズを用いて撮像された画像に指が写り込んでいる場合に行われる第1のレンズ変更処理(図3のS303)の一例を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することにより実現される。
FIG. 4 is a flowchart showing an example of the first lens change processing (S303 in FIG. 3) performed when a finger is captured in an image captured using the LV display lens. This processing is realized by the
S401では、CPU101は、ユーザーからの指示により撮影倍率が変更されているか否か(つまり、LV表示用レンズが図3のS310で設定されたレンズか否か)を判定する。ユーザーからの指示により撮影倍率が変更されていると判定した場合は図4の第1のレンズ変更処理を終了し、そうでない場合はS402に進む。
In S401, the
S402では、CPU101は、S404で行うピックアップ処理の対象から、撮像される画像の画素数が所定数以下となるレンズを除外するように設定する。これにより、例えば、マクロ用レンズなど、撮像される画像の画素数が標準レンズよりも著しく少ないレンズをピックアップ処理の対象から除外することができる。なお、撮像される画像の画素数は、撮像部の構成や、撮像部のうち使用する範囲などに依存する。そのため、レンズ間で撮像部が異なる場合にも、レンズ間で撮像部が同じ(共通する)場合にも、レンズ間で、撮像される画像の画素数の違いが生じ得る。また、ピックアップ処理の対象は、変更後のLV表示用レンズの候補と捉えることもできる。
In S<b>402 , the
S403では、CPU101は、S404で行うカメラのピックアップ処理対象から、特殊用途のレンズを除外するように設定する。これにより、例えば、モノクロ用レンズなど、特殊な撮影に使用するレンズをピックアップ処理の対象から除外することができる。なお、他の特定の条件を満たすレンズを、ピックアップ処理の対象から除外してもよい。
In S<b>403 , the
S404では、CPU101は、アウトカメラ114の複数のレンズから、撮像された画像に指が写り込んでいないレンズをピックアップする(ピックアップ処理)。撮像された画像に指が写り込んでいないレンズが複数ある場合は、当該複数のレンズを全てピックアップする。もちろん、S402やS403で除外したレンズはピックアップしない。撮像された画像に指が写り込んでいないレンズは、指が検出されなかった画像の撮像に用いられたレンズと捉えることもできる。
In S404, the
S405では、CPU101は、S404で1つ以上のレンズをピックアップしたか否か、つまり撮像された画像に指が写り込んでいないレンズが存在しているか否かを判定する。1つ以上のレンズをピックアップしたと判定した場合はS407に進み、そうでない場合はS406に進む。S406に進むのは、全てのレンズで、撮像された画像に指が写り込んでいる場合である。
In S405, the
S406では、CPU101は、所定の通知を行う。第1の実施形態では、CPU101は、カメラに指が被っていることなどをユーザーに知らせるための警告を、ディスプレイ105に表示するとする。例えば、ディスプレイ105に、「カメラを確認してください」などの文章により通知を行う。S405においてNoと判定されたことから、本ステップでは指が被っているレンズ以外での撮影が難しいことがわかる。そのため、上述したような通知を行うことで、ユーザーに対してカメラ(レンズ)への指被りを認識してもらえる可能性が高くなり、指が写りこんだ写真を撮影してしまうことを低減することができる。なお、所定の通知は、ディスプレイ105での表示によって実現されてもよいし、音声の出力や、ランプの点灯などによって実現されてもよい。
In S406, the
S407では、CPU101は、S404で複数のレンズをピックアップしたか否か、つまり撮像された画像に指が写り込んでいないレンズが複数存在しているか否かを判定する。複数のレンズをピックアップしたと判定した場合はS408に進み、そうでない場合はS409に進む。S409に進むのは、1つのレンズをピックアップした場合である。
In S407, the
S408では、CPU101は、S404でピックアップした複数のレンズのうち、撮像される画像の画素数が最も多いレンズを、LV表示用レンズに設定する。
In S408, the
S409では、CPU101は、S404でピックアップしたレンズを、LV表示用レンズに設定する。
In S409, the
図5は、スマートフォン100の姿勢(向き)が縦向きから横向きに変化した場合に行われる第2のレンズ変更処理(図3のS306)の一例を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することにより実現される。
FIG. 5 is a flowchart showing an example of the second lens changing process (S306 in FIG. 3) that is performed when the orientation (orientation) of the
S501では、CPU101は、S503で行うピックアップ処理の対象から、撮像される画像の画素数が所定数以下となるレンズを除外するように設定する。S502では、CPU101は、S503で行うカメラのピックアップ処理対象から、特殊用途のレンズを除外するように設定する。なお、他の特定の条件を満たすレンズを、ピックアップ処理の対象から除外してもよい。
In S<b>501 , the
S503では、CPU101は、アウトカメラ114の複数のレンズから、水平方向(重力方向に垂直な方向;スマートフォン100の横向きに平行な方向)においてスマートフォン100の中央に最も寄ったレンズをピックアップする(ピックアップ処理)。もちろん、S501やS502で除外したレンズはピックアップしない。この処理の詳細は図8を用いて後述する。
In S503, the
S504では、CPU101は、S503で複数のレンズをピックアップしたか否かを判定する。複数のレンズをピックアップしたと判定した場合はS505に進み、そうでない場合はS506に進む。S506に進むのは、1つのレンズをピックアップした場合である。
In S504, the
S505では、CPU101は、S503でピックアップした複数のレンズのうち、撮像される画像の画素数が最も多いレンズを、LV表示用レンズに設定する。
In S505, the
S506では、CPU101は、S503でピックアップしたレンズを、LV表示用レンズに設定する。
In S506, the
図6(a),6(b)は、ユーザーがスマートフォン100を横向きで構えている状態の一例を示す図である。図6(a)は、スマートフォン100を構えたユーザーを正面から見た図であり、図6(b)は、そのようなユーザーを真上から見た図である。図6(b)の画角600は標準レンズ114bの画角(標準レンズ114bを用いた場合に撮像される範囲)であり、画角601は超広角レンズ114cの画角(超広角レンズ114cを用いた場合に撮像される範囲)である。図6(b)の例では、標準レンズ114bの画角600にユーザーの指が重なっている。
FIGS. 6A and 6B are diagrams showing an example of a state in which the user holds the
図7(a),7(b)は、図6(a),6(b)の状態で撮像された画像の一例を示す図である。図7(a)は、標準レンズ114bを用いて撮像された画像を示し、図7(b)は、超広角レンズ114cを用いて撮像された画像を示す。図7(a)の画像にはユーザーの指700が写り込んでいる。一方で、図7(b)の画像にはユーザーの指が写り込んでいない。水平方向において、超広角レンズ114cの方が、標準レンズ114bよりも、スマートフォン100の中央に近い。レンズがスマートフォン100の端に近いほど撮像される画像に指が写り込むリスクは高いため、スマートフォン100の中央に近いレンズを使うことで、写り込みのリスクを下げることができる。
FIGS. 7(a) and 7(b) are diagrams showing examples of images captured in the states of FIGS. 6(a) and 6(b). FIG. 7(a) shows an image captured using the
図8を用いて、図5のS503の処理の具体例を説明する。図8は、横向きで構えられ
たスマートフォン100を示す背面図であり、アウトカメラ114の各レンズからスマートフォン100の水平中央位置800までの距離の一例を示す図である。水平中央位置800は、水平方向(スマートフォン100の横向きに平行な方向)におけるスマートフォン100の中央の位置である。超広角レンズ114cおよび広角レンズ114dから水平中央位置800までの距離801は、望遠レンズ114aから水平中央位置800までの距離802よりも短い。そして、望遠レンズ114aから水平中央位置800までの距離802は、標準レンズ114bから水平中央位置800までの距離803よりも短い。つまり、望遠レンズ114a、標準レンズ114b、超広角レンズ114c、及び、広角レンズ114dの中で、超広角レンズ114cと広角レンズ114dが水平中央位置800に最も近い。したがって、図5のS503の処理では、超広角レンズ114cと広角レンズ114dがピックアップされることになる。
A specific example of the processing of S503 in FIG. 5 will be described with reference to FIG. FIG. 8 is a rear
水平方向においてスマートフォン100の中央に最も寄ったレンズをピックアップする例を説明したが、これに限られない。水平方向においてスマートフォン100の中央に最も寄っていなくても当該中央に寄ったレンズをピックアップすればよく、水平方向においてスマートフォン100の中央から所定範囲に存在するレンズをピックアップすればよい。
Although an example of picking up the lens closest to the center of the
図9(a),9(b)は、スマートフォン100とは異なるスマートフォン910,920(変形例)の背面図である。図9(a)のスマートフォン910では、アウトカメラ911は11個のレンズ911a~911kを含む。レンズ911a~911kはスマートフォン910を横向きで構えた場合の水平方向の端に寄っており、レンズ911aを中心として円状にレンズ911b~911kが配置されている。スマートフォン910の場合には、レンズ911h~911kをピックアップしてもよい。レンズ911h~911kの方がレンズ911a~911gよりもスマートフォン910の中央に寄っている。図9(b)のスマートフォン920では、アウトカメラ921は4つのレンズ921a~921dを含む。レンズ921a~921dはスマートフォン920を横向きで構えた場合の水平方向の端に寄っており、当該水平方向に並んでいる。スマートフォン920の場合には、レンズ921c,921dをピックアップしてもよい。レンズ921c,921dの方がレンズ921a,921bよりもスマートフォン920の中央に寄っている。
9A and 9B are rear views of
以上述べたように、第1の実施形態によれば、第1の向きから第2の向きへの電子機器の姿勢変化に応じて、表示部に表示する画像の撮像に用いるレンズが、第1のレンズから、第1のレンズとは異なる第2のレンズに自動で変更される。さらに、第1のレンズを用いて撮像された画像から不要なオブジェクトが検出されたことに応じて、表示部に表示する画像の撮像に用いるレンズが、第1のレンズから、第1のレンズとは異なる第3のレンズに自動で変更される。このような新規な方法で、ユーザー(撮影者)の指などの不要なオブジェクトの写り込みを抑制することができる。また、第1のレンズと第2のレンズが電子機器の同じ側(同じ面)に設けられた同種のレンズである場合などにおいては、撮影範囲や撮影方向、ズーム倍率が変更されることなく、ユーザーは、意図した範囲を確認して撮影することができる。 As described above, according to the first embodiment, the lens used for capturing an image to be displayed on the display unit changes from the first orientation to the second orientation according to the orientation change of the electronic device. lens is automatically changed to a second lens different from the first lens. Furthermore, in response to detection of an unnecessary object from an image captured using the first lens, the lens used for capturing the image to be displayed on the display unit is changed from the first lens to the first lens. is automatically changed to a different third lens. Such a novel method can suppress unwanted objects such as the user's (photographer's) finger from appearing in the image. In addition, in the case where the first lens and the second lens are the same type of lens provided on the same side (same surface) of the electronic device, the shooting range, shooting direction, and zoom magnification are not changed. The user can confirm the intended range and shoot.
なお、姿勢変化に応じたレンズの変更と、不要なオブジェクトの検出に応じたレンズの変更との一方のみを行うようにしてもよい。例えば、図3のS302とS303の処理を省略してS304~S307の処理を行うようにしてもよいし、S304~S307の処理を省略してS302とS303の処理を行うようにしてもよい。 It should be noted that only one of the change of the lens according to the posture change and the change of the lens according to the detection of the unnecessary object may be performed. For example, the processes of S302 and S303 of FIG. 3 may be omitted and the processes of S304 to S307 may be performed, or the processes of S304 to S307 may be omitted and the processes of S302 and S303 may be performed.
また、スマートフォンの縦向きを第1の向きとし、横向きを第2の向きとする例を説明したが、これに限られない。レンズの配置や電子機器のサイズなどに依っては、電子機器の横向きを第1の向きとし、縦向きを第2の向きとしてもよい。例えば、スマートフォン
に比べ大きいタブレット端末の場合には、タブレット端末の横向きを第1の向きとし、縦向きを第2の向きとしてもよい。
Also, an example in which the vertical orientation of the smartphone is the first orientation and the horizontal orientation is the second orientation has been described, but the present invention is not limited to this. Depending on the arrangement of the lens, the size of the electronic device, etc., the horizontal orientation of the electronic device may be the first orientation, and the vertical orientation may be the second orientation. For example, in the case of a tablet terminal that is larger than a smartphone, the horizontal orientation of the tablet terminal may be the first orientation, and the vertical orientation may be the second orientation.
(第2の実施形態)
本発明の第2の実施形態を説明する。第2の実施形態では、LV表示する画像の撮像に用いるレンズを自動で変更するだけではなく、LV表示する画像の画角調整も行う例を説明する。第2の実施形態の画角調整は画像の表示範囲の調整であるが、画角調整により表示範囲だけでなく撮影範囲(記録範囲)も調整されてよい。画角調整以外の処理は第1の実施形態と同様であるため、以下では画角調整のみを詳しく説明する。
(Second embodiment)
A second embodiment of the present invention will be described. In the second embodiment, an example will be described in which not only the lens used for capturing the image to be displayed on the LV is automatically changed, but also the angle of view of the image to be displayed on the LV is adjusted. The angle of view adjustment in the second embodiment is adjustment of the display range of the image, but the angle of view adjustment may adjust not only the display range but also the shooting range (recording range). Since processing other than angle-of-view adjustment is the same as in the first embodiment, only the angle-of-view adjustment will be described in detail below.
図10は、スマートフォン100のカメラ処理の一例を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することにより実現される。S1001~S1007、S1009~S1014の処理は、それぞれ図3のS301~S307、S309~S314と処理と同様である。図10のカメラ処理では、図3のS308の処理の代わりに、S1008の処理が行われる。S1008では、CPU101は、画角調整処理を行う。画角調整処理では、S1003、S1006、または、S1007でLV表示用レンズを自動で変更した場合に、LV表示する画像の画角(表示範囲)を調整する。画角調整処理の詳細は図11を用いて後述する。
FIG. 10 is a flowchart illustrating an example of camera processing of
図11は、画角調整処理(図10のS1008)の一例を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することにより実現される。
FIG. 11 is a flowchart showing an example of the angle-of-view adjustment process (S1008 in FIG. 10). This processing is realized by the
S1101では、CPU101は、S1003、S1006、または、S1007でLV表示用レンズを自動で変更したか否かを判定する。LV表示用レンズを自動で変更したと判定した場合はS1102に進み、そうでない場合はS1104に進む。
In S1101, the
S1102では、CPU101は、変更後のLV表示用レンズが変更前のLV表示用レンズよりも広角なレンズであるか否かを判定する。広角なレンズであると判定した場合はS1103に進み、そうでない場合はS1104に進む。
In S1102, the
S1103では、CPU101は、変更後のLV表示用レンズを用いて撮像された画像の画角(撮像範囲;被写体範囲)を、変更後のLV表示用レンズを用いて撮像される画像の画角と略同一に調整する。画角はデジタルズームで調整してもよいし、光学ズームで調整してもよい。この処理の詳細は図12を用いて後述する。
In S1103, the
S1104では、CPU101は、LV表示用レンズを用いて撮像された画像をディスプレイ105にLV表示する。S1103の処理を行った場合には、調整後の画角の画像をディスプレイ105にLV表示する。
In S<b>1104 , the
図12(a)~12(d)を用いて、図11のS1103の処理(画角調整)の具体例を説明する。 A specific example of the processing (angle of view adjustment) in S1103 of FIG. 11 will be described with reference to FIGS.
図12(a)は、ユーザーがスマートフォン100を縦向きで構えている様子を示す。基本的には、ユーザーがスマートフォン100を縦向きで構えて使用する。図12(b)は、図12(a)の状況で標準レンズ114bを用いて撮像された画像1210を示す。図12(a)の状況では、標準レンズ114bがLV表示用レンズに設定されているとする。
FIG. 12A shows the user holding the
図12(c)は、ユーザーがスマートフォン100を横向きで構えている様子を示す。例えば、図12(a)のようにスマートフォン100を縦向きで構えて使用していたユーザーは、撮影のためにスマートフォン100を横向きにする。それに応じて、LV表示用レンズは標準レンズ114bから超広角レンズ114cに変更される。図12(d)は、図12(c)の状況で超広角レンズ114cを用いて撮像された画像1220を示す。
FIG. 12(c) shows a state in which the user holds the
超広角レンズ114cは標準レンズ114bよりも広角であるため、図12(d)の画像1210の画角(撮像範囲;被写体範囲)は図12(b)の画像1220の画角よりも広い。そのため、スマートフォン100の姿勢(向き)が縦向きから横向きに変更されたときに、ディスプレイ105にLV表示する画像を画像1210から画像1220に変更すると、LV表示する画角が変化し、ユーザーがLV表示に違和感を覚える虞がある。そこで、図11のS1103で、画像1220から、標準レンズ114bを用いた場合の撮像範囲と略同一の撮像範囲に対応する画像領域1221を切り出し、S1104で、画像領域1221をディスプレイ105にLV表示する。こうすることで、LV表示用レンズが変わった際に、ディスプレイ105にLV表示する撮像範囲の大きな変化は生じず、ユーザーはLV表示に違和感を覚えることなくスマートフォン100を使用し続けることができる。
Since the super-wide-
以上述べたように、第2の実施形態によれば、LV表示する画像の撮像に用いるレンズを自動で変更するだけではなく、LV表示する画像の画角調整も行うことで、ユーザーが違和感を覚ないようにできる。 As described above, according to the second embodiment, not only the lens used for capturing the image to be displayed on the LV is automatically changed, but also the angle of view of the image to be displayed on the LV is adjusted, thereby making the user feel uncomfortable. You can do it without waking up.
なお、CPU101が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
Note that the various controls described above that are performed by the
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Moreover, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention can be applied to the present invention. included. Furthermore, each embodiment described above merely shows one embodiment of the present invention, and it is also possible to combine each embodiment as appropriate.
また、上述した実施形態においては、本発明をスマートフォンに適用した場合を例にして説明したが、これはこの例に限定されず複数のレンズを個別に用いて撮像を行うことが可能な電子機器であれば適用可能である。例えば、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、映像プレーヤーなどに適用可能である。また、本発明は、表示装置(投影装置を含む)、タブレット端末、デジタルカメラ、AIスピーカー、家電装置、車載装置、医療機器などにも適用可能である。 Further, in the above-described embodiments, the case where the present invention is applied to a smartphone has been described as an example, but this is not limited to this example, and an electronic device capable of capturing images using a plurality of lenses individually. is applicable. For example, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, printers, digital photo frames, music players, game machines, electronic book readers, video players, and the like. The present invention can also be applied to display devices (including projection devices), tablet terminals, digital cameras, AI speakers, home appliances, in-vehicle devices, medical devices, and the like.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
100:スマートフォン 101:CPU
104:アウトカメラ画像処理部
104a:望遠画像処理部 104b:標準画像処理部
104c:超広角画像処理部 104d:広角画像処理部
105:ディスプレイ
113:姿勢検出部
114:アウトカメラ
114a:望遠レンズ 114b:標準レンズ
114c:超広角レンズ 114d:広角レンズ
114s:撮像部
910:スマートフォン 911:アウトカメラ 911a~911k:レンズ
920:スマートフォン 921:アウトカメラ 921a~921d:レンズ
100: Smartphone 101: CPU
104: Out-camera
Claims (16)
前記電子機器の姿勢を検出する姿勢検出手段と、
第1のレンズを用いて撮像された画像を表示部に表示している状態で、第1の向きから第2の向きへの前記電子機器の姿勢変化を前記姿勢検出手段が検出したことに応じて、前記表示部に表示する画像の撮像に用いるレンズを、前記第1のレンズから、前記第1のレンズとは異なる第2のレンズに自動で変更するように制御する制御手段と
を有することを特徴とする電子機器。 An electronic device having a camera that captures images using a plurality of lenses,
attitude detection means for detecting the attitude of the electronic device;
In response to the posture detection means detecting a change in posture of the electronic device from a first direction to a second direction while an image captured using the first lens is displayed on the display unit. and control means for automatically changing a lens used for capturing an image to be displayed on the display unit from the first lens to a second lens different from the first lens. An electronic device characterized by:
ことを特徴とする請求項1に記載の電子機器。 2. The electronic device according to claim 1, wherein the second lens is closer to the center of the electronic device than the first lens in a direction parallel to the second orientation.
ことを特徴とする請求項1~3のいずれか1項に記載の電子機器。 4. The electronic device according to claim 1, wherein the first orientation is vertical and the second orientation is horizontal.
撮像された画像から特定の条件を満たすオブジェクトを検出するためのオブジェクト検出処理を行うオブジェクト検出手段と、
第1のレンズを用いて撮像された画像を表示部に表示している状態で、前記オブジェクト検出手段が前記第1のレンズを用いて撮像された画像から前記オブジェクトを検出したことに応じて、前記表示部に表示する画像の撮像に用いるレンズを、前記第1のレンズから、前記第1のレンズとは異なる第3のレンズに自動で変更するように制御する制御手段と
を有することを特徴とする電子機器。 An electronic device having a camera that captures images using a plurality of lenses,
Object detection means for performing an object detection process for detecting an object that satisfies a specific condition from a captured image;
In response to the object detecting means detecting the object from the image captured using the first lens while the image captured using the first lens is being displayed on the display unit, and control means for automatically changing a lens used for capturing an image to be displayed on the display unit from the first lens to a third lens different from the first lens. and electronic devices.
前記制御手段は、さらに、前記第1のレンズを用いて撮像された画像を表示部に表示している状態で、前記オブジェクト検出手段が前記第1のレンズを用いて撮像された画像から前記オブジェクトを検出したことに応じて、前記表示部に表示する画像に用いるレンズを、前記第1のレンズから、前記第1のレンズとは異なる第3のレンズに自動で変更するように制御する
ことを特徴とする請求項1~4のいずれか1項に記載の電子機器。 further comprising object detection means for performing object detection processing for detecting an object that satisfies a specific condition from the captured image;
The control means further controls the object detection means to detect the object from the image captured using the first lens while the image captured using the first lens is displayed on the display unit. is detected, the lens used for the image displayed on the display unit is automatically changed from the first lens to a third lens different from the first lens. The electronic device according to any one of claims 1 to 4.
前記第3のレンズは、前記オブジェクトが検出されなかった画像の撮像に用いられたレンズである
ことを特徴とする請求項5または6に記載の電子機器。 The object detection means performs the object detection process on each of a plurality of images captured using the plurality of lenses,
7. The electronic device according to claim 5, wherein the third lens is a lens used to capture an image in which the object is not detected.
ことを特徴とする請求項7に記載の電子機器。 3. The third lens is the lens with the largest number of pixels of the image to be captured when there are a plurality of lenses used to capture the image in which the object is not detected. 8. The electronic device according to 7.
ことを特徴とする請求項7または8に記載の電子機器。 9. The control unit according to claim 7, wherein the control unit further performs control so that a predetermined notification is made in response to detection of the object from all of the plurality of images by the object detection unit. electronics.
ことを特徴とする請求項5~9のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 5 to 9, wherein the object is a user's finger.
ことを特徴とする請求項1~10のいずれか1項に記載の電子機器。 The control means, when performing control to automatically change the lens used for capturing an image to be displayed on the display unit from the first lens, does not perform control to change the lens to a lens that satisfies a specific condition. The electronic device according to any one of claims 1 to 10, characterized by:
ことを特徴とする請求項1~11のいずれか1項に記載の電子機器。 When the control means controls to automatically change a lens used for capturing an image to be displayed on the display unit from the first lens to a lens having a wider angle than the first lens, the lens after the change wherein the range displayed on the display unit of the image captured using is controlled to be substantially the same as the range of the image captured using the lens before the change. 12. The electronic device according to any one of 11.
前記電子機器の姿勢を検出する姿勢検出ステップと、
第1のレンズを用いて撮像された画像を表示部に表示している状態で、第1の向きから第2の向きへの前記電子機器の姿勢変化を前記姿勢検出ステップで検出したことに応じて、前記表示部に表示する画像の撮像に用いるレンズを、前記第1のレンズから、前記第1のレンズとは異なる第2のレンズに自動で変更するように制御する制御ステップと
を有することを特徴とする制御方法。 A control method for an electronic device having a camera that captures images using a plurality of lenses,
an orientation detection step of detecting an orientation of the electronic device;
In response to detecting a change in posture of the electronic device from a first direction to a second direction in the posture detection step while an image captured using the first lens is displayed on the display unit. and a control step of automatically changing a lens used for capturing an image to be displayed on the display unit from the first lens to a second lens different from the first lens. A control method characterized by:
撮像された画像から特定の条件を満たすオブジェクトを検出するためのオブジェクト検出処理を行うオブジェクト検出ステップと、
第1のレンズを用いて撮像された画像を表示部に表示している状態で、前記オブジェクト検出ステップで前記第1のレンズを用いて撮像された画像から前記オブジェクトを検出したことに応じて、前記表示部に表示する画像の撮像に用いるレンズを、前記第1のレンズから、前記第1のレンズとは異なる第3のレンズに自動で変更するように制御する制御ステップと
を有することを特徴とする制御方法。 A control method for an electronic device having a camera that captures images using a plurality of lenses,
an object detection step of performing an object detection process for detecting an object that satisfies a specific condition from the captured image;
In response to detecting the object from the image captured using the first lens in the object detection step while the image captured using the first lens is displayed on the display unit, and a control step of automatically changing a lens used for capturing an image to be displayed on the display unit from the first lens to a third lens different from the first lens. control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021156503A JP2023047536A (en) | 2021-09-27 | 2021-09-27 | Electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021156503A JP2023047536A (en) | 2021-09-27 | 2021-09-27 | Electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023047536A true JP2023047536A (en) | 2023-04-06 |
Family
ID=85779193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021156503A Pending JP2023047536A (en) | 2021-09-27 | 2021-09-27 | Electronic device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023047536A (en) |
-
2021
- 2021-09-27 JP JP2021156503A patent/JP2023047536A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10222903B2 (en) | Display control apparatus and control method thereof | |
JP6757268B2 (en) | Imaging device and its control method | |
KR102146858B1 (en) | Photographing apparatus and method for making a video | |
JP7258482B2 (en) | Electronics | |
US10924789B2 (en) | Display control apparatus, control method for display control apparatus, and non-transitory computer readable medium | |
JP7183033B2 (en) | ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
US10120496B2 (en) | Display control apparatus and control method thereof | |
JP6198459B2 (en) | Display control device, display control device control method, program, and storage medium | |
US11079898B2 (en) | Electronic device for controlling display of VR image, control method of electronic device, and non-transitory computer readable medium | |
JP2021174317A (en) | Electronic apparatus and control method therefor | |
JP7080711B2 (en) | Electronic devices, control methods, programs, and storage media for electronic devices | |
JP2013017088A (en) | Imaging apparatus, control method of the same, control program, and recording medium | |
JP2023047536A (en) | Electronic device | |
US10924680B2 (en) | Image capture control apparatus and method of controlling the same | |
JP7187307B2 (en) | Electronic device and its control method | |
JP2021060790A (en) | Electronic apparatus and control method thereof | |
WO2023062911A1 (en) | Electronic apparatus, control method, program, and storage medium | |
US20230345121A1 (en) | Image pickup device and control method thereof | |
JP2019054551A (en) | Information processing apparatus, information processing method, and information processing program | |
US20230276015A1 (en) | Electronic apparatus, method of controlling the same, and computer-readable storage medium storing program | |
US11252328B2 (en) | Electronic device and method for controlling the same | |
JP7278773B2 (en) | Electronic device and its control method | |
CN110881102B (en) | Image capturing apparatus, control method of image capturing apparatus, and computer readable medium | |
JP2023114840A (en) | Electronic device, control method for the same, and program | |
CN116017137A (en) | Image pickup apparatus, control method thereof, and storage medium |