JP2023125345A - 電子機器、その制御方法およびプログラム - Google Patents
電子機器、その制御方法およびプログラム Download PDFInfo
- Publication number
- JP2023125345A JP2023125345A JP2022029380A JP2022029380A JP2023125345A JP 2023125345 A JP2023125345 A JP 2023125345A JP 2022029380 A JP2022029380 A JP 2022029380A JP 2022029380 A JP2022029380 A JP 2022029380A JP 2023125345 A JP2023125345 A JP 2023125345A
- Authority
- JP
- Japan
- Prior art keywords
- captured image
- image
- camera
- electronic device
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 57
- 238000001514 detection method Methods 0.000 claims abstract description 31
- 239000002131 composite material Substances 0.000 claims abstract description 29
- 230000008569 process Effects 0.000 description 45
- 230000006870 function Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000003825 pressing Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 3
- 150000001875 compounds Chemical class 0.000 description 2
- 238000005315 distribution function Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2624—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
Abstract
【課題】被写体と、重畳させる撮像画像とが重複しないようにすることを目的とする。
【解決手段】本発明は、複数のレンズを有する電子機器であって、複数のレンズのうち第1のレンズを介して撮影された第1の撮像画像を取得する第1の取得手段と、前記第1のレンズとは異なる第2のレンズを介して撮影された第2の撮像画像を取得する第2の取得手段と、前記第2の撮像画像を前記第1の撮像画像に重畳させた合成画像を生成する第1の生成手段と、前記第1の撮像画像から被写体を検出する検出手段と、前記第1の生成手段により生成された合成画像において、前記検出手段により検出された被写体の領域が前記第2の撮像画像が重畳されている領域と重複する場合に、前記第1の撮像画像よりも広角に撮影された第3の撮像画像を取得する第3の取得手段と、前記第2の撮像画像を前記第3の撮像画像に重畳させた合成画像を生成する第2の生成手段と、を有する。
【選択図】図7
【解決手段】本発明は、複数のレンズを有する電子機器であって、複数のレンズのうち第1のレンズを介して撮影された第1の撮像画像を取得する第1の取得手段と、前記第1のレンズとは異なる第2のレンズを介して撮影された第2の撮像画像を取得する第2の取得手段と、前記第2の撮像画像を前記第1の撮像画像に重畳させた合成画像を生成する第1の生成手段と、前記第1の撮像画像から被写体を検出する検出手段と、前記第1の生成手段により生成された合成画像において、前記検出手段により検出された被写体の領域が前記第2の撮像画像が重畳されている領域と重複する場合に、前記第1の撮像画像よりも広角に撮影された第3の撮像画像を取得する第3の取得手段と、前記第2の撮像画像を前記第3の撮像画像に重畳させた合成画像を生成する第2の生成手段と、を有する。
【選択図】図7
Description
本発明は、電子機器、その制御方法、プログラムおよび記録媒体に関するものである。
複数の撮像画像のうち一つの撮像画像を他の撮像画像へ重畳させて合成し出力するような撮影手法(ピクチャインピクチャ、以降PIPともいう)がある。PIPでの撮影は、静止画撮影のみならず、動画やライブの映像配信、Web会議の映像表示、テレビ映像等、種々の場面で使用される。
近年では、複眼を持つスマートフォンの開発が進み、多くは広角や標準や望遠など異なる画角のレンズを持つカメラが搭載されている。その中でスマートフォンのカメラ機能として、複眼での撮像画像をPIPで表示・記録する機能を持つものも存在する。
スマートフォンを始めとする電子機器を使用してPIPでの撮影・表示を行う際、撮像画像上の被写体と、重畳させる撮像画像の表示(以降、PIPウィンドウともいう)とが重複して視認性が落ちてしまう場合がある。
スマートフォンを始めとする電子機器を使用してPIPでの撮影・表示を行う際、撮像画像上の被写体と、重畳させる撮像画像の表示(以降、PIPウィンドウともいう)とが重複して視認性が落ちてしまう場合がある。
特許文献1には、被写体を検出し、被写体がPIPウィンドウの方向に向かっていれば、PIPウィンドウの位置を移動させる画像表示装置が開示されている。
特許文献2には、撮影者が操作ボタンを押すとカメラに映す被写体の見切れや移動に伴って自動でレンズの倍率を変更し、被写体が画角内に映るように制御する撮像装置が開示されている。
しかしながら、特許文献1では、PIPウィンドウを移動した先でも被写体と重複したままになってしまうことがある。例えば、レンズ倍率を高くして被写体を大きく映す場合には、PIPウィンドウを移動させても被写体と重複する可能性は高く、被写体の視認性の悪さを低減させることは難しい。
特許文献2では、被写体の動きによって画角変更し、被写体を画角内に映すことはできるが、PIPウィンドウのようなカメラ内の表示物に対しては考慮されていない。そのためカメラ内の表示物と重複しても回避することは難しい。更に、特許文献2では撮影者がカメラ操作を意識しなければならない。例えば、撮影者が配信番組の司会進行と、配信に使用するカメラやスマートフォンの操作を兼ねて行う場合がある。撮影者は逐一被写体とPIPウィンドウとの映りを確認し、被写体とPIPウィンドウが重複すれば、動画の記録や配信を中断してカメラの画角や位置を変更する必要がある。そのため、撮影者は撮影・配信(配信番組なら司会進行など)に集中できない。
本発明は、被写体と、重畳させる撮像画像とが重複しないようにすることを目的とする。
本発明は、複数のレンズを有する電子機器であって、複数のレンズのうち第1のレンズを介して撮影された第1の撮像画像を取得する第1の取得手段と、前記第1のレンズとは異なる第2のレンズを介して撮影された第2の撮像画像を取得する第2の取得手段と、前記第2の撮像画像を前記第1の撮像画像に重畳させた合成画像を生成する第1の生成手段と、前記第1の撮像画像から被写体を検出する検出手段と、前記第1の生成手段により生成された合成画像において、前記検出手段により検出された被写体の領域が前記第2の撮像画像が重畳されている領域と重複する場合に、前記第1の撮像画像よりも広角に撮影された第3の撮像画像を取得する第3の取得手段と、前記第2の撮像画像を前記第3の撮像画像に重畳させた合成画像を生成する第2の生成手段と、を有することを特徴とする。
本発明によれば、被写体と、重畳させる撮像画像とが重複しないようにすることができる。
以下、図面を参照して本発明の好適な実施形態を説明する。本実施形態では、電子機器としてスマートフォンを例にして説明する。
図1はスマートフォン100の外観図である。図1(a)はスマートフォン100の前面図であり、図1(b)はスマートフォン100の背面図である。
スマートフォン100は、ディスプレイ105、アウトカメラ114、インカメラ115を有する。
ディスプレイ105は画像や各種情報を表示する、スマートフォン前面に設けられた表示部である。スマートフォン100は、アウトカメラ114、もしくは、インカメラ115で撮影したライブビュー画像(LV画像)をディスプレイ105に表示することが可能である。アウトカメラ114は、望遠カメラ114a、標準カメラ114b、超広角カメラ114cを含む。インカメラ115は、標準インカメラ115a、超広角インカメラ115bを含む。
図1はスマートフォン100の外観図である。図1(a)はスマートフォン100の前面図であり、図1(b)はスマートフォン100の背面図である。
スマートフォン100は、ディスプレイ105、アウトカメラ114、インカメラ115を有する。
ディスプレイ105は画像や各種情報を表示する、スマートフォン前面に設けられた表示部である。スマートフォン100は、アウトカメラ114、もしくは、インカメラ115で撮影したライブビュー画像(LV画像)をディスプレイ105に表示することが可能である。アウトカメラ114は、望遠カメラ114a、標準カメラ114b、超広角カメラ114cを含む。インカメラ115は、標準インカメラ115a、超広角インカメラ115bを含む。
スマートフォン100は操作部106を有する。操作部106には、タッチパネル106a、電源ボタン106b、音量プラスボタン106c、音量マイナスボタン106d、ホームボタン106e等を含む。
タッチパネル106aはタッチ操作部材であり、ディスプレイ105の表示面(操作面)に対するタッチ操作を検出することができる。電源ボタン106bは操作部材であり、ディスプレイ105の点灯/消灯を切替えることができる。ある程度の時間、例えば3秒間、電源ボタン106bの押下を継続(長押し)するとスマートフォン100の電源のON/OFFを切替えることができる。音量プラスボタン106c、音量マイナスボタン106dは後述する音声出力部112から出力する音量のボリュームをコントロールする音量ボタンである。音量プラスボタン106cを押下すると音量が大きくなり、音量マイナスボタン106dを押下すると音量が小さくなる。また、カメラ使用時の撮影待機状態においては、音量プラスボタン106cや音量マイナスボタン106dを押下することで撮影を指示するシャッターボタンとしても機能する。電源ボタン106bと音量マイナスボタン106dを同時に押下したり、音量マイナスボタン106dを素早く数回押下したりした場合に、特定の機能を実行するように、ユーザが任意に設定することもできる。
タッチパネル106aはタッチ操作部材であり、ディスプレイ105の表示面(操作面)に対するタッチ操作を検出することができる。電源ボタン106bは操作部材であり、ディスプレイ105の点灯/消灯を切替えることができる。ある程度の時間、例えば3秒間、電源ボタン106bの押下を継続(長押し)するとスマートフォン100の電源のON/OFFを切替えることができる。音量プラスボタン106c、音量マイナスボタン106dは後述する音声出力部112から出力する音量のボリュームをコントロールする音量ボタンである。音量プラスボタン106cを押下すると音量が大きくなり、音量マイナスボタン106dを押下すると音量が小さくなる。また、カメラ使用時の撮影待機状態においては、音量プラスボタン106cや音量マイナスボタン106dを押下することで撮影を指示するシャッターボタンとしても機能する。電源ボタン106bと音量マイナスボタン106dを同時に押下したり、音量マイナスボタン106dを素早く数回押下したりした場合に、特定の機能を実行するように、ユーザが任意に設定することもできる。
ホームボタン106eはディスプレイ105にスマートフォン100の起動画面であるホーム画面を表示させるための操作ボタンである。スマートフォン100において様々なアプリケーションを起動し、使用していた場合に、ホームボタン106eを押下することで、起動している様々なアプリケーションを一時的に閉じて、ホーム画面を表示することができる。なお、ホームボタン106eは物理的に押下可能なボタンを想定しているが、物理ボタンではなくディスプレイ105に表示された同様に機能を持った、タッチ可能なボタンでもよい。
また、スマートフォン100は音声出力端子112a、スピーカ112bを有する。
音声出力端子112aはイヤホンジャックであり、イヤホンや外部スピーカ等に音声を出力する端子である。スピーカ112bは音声を出す本体内蔵のスピーカである。音声出力端子112aに音声を出力する端子、例えばイヤホンコードを装着していない場合に、スマートフォン100において音声が出力されるような場合には、スピーカ112bから音声が出力される。
音声出力端子112aはイヤホンジャックであり、イヤホンや外部スピーカ等に音声を出力する端子である。スピーカ112bは音声を出す本体内蔵のスピーカである。音声出力端子112aに音声を出力する端子、例えばイヤホンコードを装着していない場合に、スマートフォン100において音声が出力されるような場合には、スピーカ112bから音声が出力される。
図2はスマートフォン100の構成の一例を示すブロック図である。なお、図2では、図1と同一の構成に同一の符号を付している。
スマートフォン100は、内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、アウトカメラ画像処理部104、ディスプレイ105、操作部106、記録媒体I/F107、外部I/F109および通信I/F110が接続されている。また、スマートフォン100は、内部バス150に対して音声出力部112、姿勢検出部113、アウトカメラ114、インカメラ115、インカメラ画像処理部116も接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができる。
スマートフォン100は、内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、アウトカメラ画像処理部104、ディスプレイ105、操作部106、記録媒体I/F107、外部I/F109および通信I/F110が接続されている。また、スマートフォン100は、内部バス150に対して音声出力部112、姿勢検出部113、アウトカメラ114、インカメラ115、インカメラ画像処理部116も接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができる。
CPU101は、スマートフォン100の全体を制御する制御部であり、少なくとも1つのプロセッサーまたは回路からなる。メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリ等)からなる。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、スマートフォン100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラム等が格納される。不揮発性メモリ103は例えばフラッシュメモリやROM等で構成される。
アウトカメラ画像処理部104は、CPU101の制御に基づいて、アウトカメラ114で撮影した画像に対して各種画像処理や被写体認識処理を施す。望遠カメラ114a、標準カメラ114b、超広角カメラ114cのそれぞれに望遠カメラ画像処理部104a、標準カメラ画像処理部104b、超広角カメラ画像処理部104cがある。各画像処理部が、それぞれのカメラが撮影した画像に対して処理を施す。なお、本実施形態では3つのアウトカメラの1つ1つが画像処理部を持つように構成されているが、必ずしも全てが個別である必要はなく、何れか2つのカメラが1つの画像処理部を共有してもよく、3つのカメラが画像処理部を共有してもよい。同様に、インカメラ画像処理部116はインカメラ115で撮影された画像に対して各種画像処理や被写体認識処理を施す。各画像処理部は、不揮発性メモリ103や記録媒体108に格納された画像、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像等に対して各種画像処理を施すこともできる。各画像処理部が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理等が含まれる。各画像処理部は、特定の画像処理を施すための専用の回路ブロックで構成してもよい。アウトカメラ画像処理部104は、1つの処理ブロックに統合され、それぞれのカメラによる画像を並列処理や時分割処理によって一手に担う構成であってもよい。また、画像処理の種別によっては各画像処理部を用いずにCPU101がプログラムに従って画像処理を施すことも可能である。
ディスプレイ105は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ105に表示するための映像信号を生成してディスプレイ105に出力するようにスマートフォン100の各部を制御する。ディスプレイ105は出力された映像信号に基づいて映像を表示する。なお、スマートフォン100自体が備える構成としてはディスプレイ105に表示させるための映像信号を出力するためのインタフェースまでとし、ディスプレイ105は外付けのモニタ(テレビ等)で構成してもよい。
操作部106は、キーボード等の文字情報入力デバイス、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッド等を含む、ユーザ操作を受け付けるための入力デバイスである。なお、タッチパネルは、ディスプレイ105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。操作部106には、上述した、タッチパネル106a、電源ボタン106b、音量プラスボタン106c、音量マイナスボタン106d、ホームボタン106eが含まれる。
記録媒体I/F107は、メモリーカード、CD、DVDといった記録媒体108が装着可能であり、CPU101の制御に基づき、装着された記録媒体108からのデータの読み出しや、当該記録媒体108に対するデータの書き込みを行う。記録媒体108は、スマートフォン100内に組み込まれた内蔵ストレージでもよい。外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインタフェースである。通信I/F110は、外部機器やインターネット111等と通信して、ファイルやコマンド等の各種データの送受信を行うためのインタフェースである。
音声出力部112は、動画や音楽データの音声、操作音、着信音、各種通知音等を出力する。音声出力部112には、イヤホン等を接続する音声出力端子112a、スピーカ112bが含まれるが、無線通信等で音声出力を行ってもよい。
姿勢検出部113は、重力方向に対するスマートフォン100の姿勢や、ヨー、ロール、ピッチの各軸に対する姿勢の傾きを検出する。姿勢検出部113で検出された姿勢に基づいて、スマートフォン100が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢になったか等を判別可能である。姿勢検出部113としては、加速度センサ、ジャイロセンサ、地磁気センサ、方位センサ、高度センサ等のうち少なくとも1つを用いることができ、複数を組み合わせて用いることも可能である。
姿勢検出部113は、重力方向に対するスマートフォン100の姿勢や、ヨー、ロール、ピッチの各軸に対する姿勢の傾きを検出する。姿勢検出部113で検出された姿勢に基づいて、スマートフォン100が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢になったか等を判別可能である。姿勢検出部113としては、加速度センサ、ジャイロセンサ、地磁気センサ、方位センサ、高度センサ等のうち少なくとも1つを用いることができ、複数を組み合わせて用いることも可能である。
アウトカメラ114はスマートフォン100の筐体において、ディスプレイ105とは反対の側の面に配置されたカメラである。望遠カメラ114aの焦点距離は標準カメラ114bの焦点距離よりも長く、標準カメラ114bよりも、より望遠側を撮影することができる。超広角カメラ114cの焦点距離は、標準カメラ114bの焦点距離よりも短く、標準カメラ114bよりも、より広角に撮影できる。すなわち、望遠カメラ114a、標準カメラ114b、超広角カメラ114cの順に焦点距離が短くなり、それに伴い画角も広くなる。本実施形態では、望遠カメラ114aは予め決められた倍率に光学的に等倍される機構のレンズを想定しているが、ユーザによって倍率を可変できるような機構としてもよい。インカメラ115は、スマートフォン100の筐体においてディスプレイ105と同じ面に配置されたカメラである。超広角インカメラ115bの焦点距離は、標準インカメラ115aの焦点距離よりも短く、標準インカメラ115aよりも、より広角に撮影できる。
望遠カメラ114a、標準カメラ114b、超広角カメラ114cは3つ同時に撮影動作を行うことができる。なお、必ずしも3つ全てのカメラが同時に撮影動作する必要はなく、3つのうち何れか2つのカメラを動作するようにしてもよく、1つのカメラが単独で撮影動作してもよい。アウトカメラ114およびインカメラ115で撮影したLV画像は、何れもディスプレイ105上に表示することができる。タッチパネル106aの操作によって、どのカメラで撮影した画像をディスプレイ105上で表示するかを選択することができる。すなわち、望遠カメラ114aを選択すれば、標準カメラ114bよりもより拡大された画像をディスプレイ105に表示することができる。標準カメラ114bを選択すれば、望遠カメラ114aよりも広角で、超広角カメラ114cよりも拡大された画像を表示することができる。超広角カメラ114cを選択すれば、望遠カメラ114aと標準カメラ114bの両方よりも広角の画像を表示することができる。もしくは、アウトカメラ114とインカメラ115の何れかを利用するかによって、眼前の光景を撮影するか、撮影者自身を自分撮り撮影するかを選択することができる。
なお、操作部106には、タッチパネル106aが含まれる。CPU101はタッチパネル106aへの以下の操作、あるいは状態を検出できる。
・タッチパネル106aにタッチしていなかった指やペンが新たにタッチパネル106aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する。)。
・タッチパネル106aを指やペンがタッチしている状態であること(以下、タッチオン(Touch-On)と称する)。
・指やペンがタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル106aへタッチしていた指やペンがタッチパネル106aから離れたこと、すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
・タッチパネル106aにタッチしていなかった指やペンが新たにタッチパネル106aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する。)。
・タッチパネル106aを指やペンがタッチしている状態であること(以下、タッチオン(Touch-On)と称する)。
・指やペンがタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル106aへタッチしていた指やペンがタッチパネル106aから離れたこと、すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。
これらの操作・状態や、タッチパネル106a上に指やペンがタッチしている位置座標は内部バスを通じてCPU101に通知される。CPU101は通知された情報に基づいてタッチパネル106a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル106a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル106a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル106a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル106a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル106aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうち何れの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、何れの方式であってもよい。
これらの操作・状態や、タッチパネル106a上に指やペンがタッチしている位置座標は内部バスを通じてCPU101に通知される。CPU101は通知された情報に基づいてタッチパネル106a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル106a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル106a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル106a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル106a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル106aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうち何れの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、何れの方式であってもよい。
本実施形態では、スマートフォン100における動画撮影・配信時における被写体とPIPウィンドウの表示処理、および、画角変更処理について説明する。
図3は、本実施形態において解決しようとする課題を説明するための図である。
図3(a)は、撮影者301が、動画記録または動画配信を行う一例として、スマートフォン100の望遠カメラ114aを使用して被写体302を撮影しつつ、一方で標準インカメラ115aを使用して撮影者301の顔の表情を撮影する状態を示している。撮影者301は、望遠カメラ114aで取得したLV画像に、標準インカメラ115aで取得したLV画像を重畳させるPIPでの撮影を行うことを想定している。
なお、PIPでの撮影では、望遠カメラ114aと標準インカメラ115aの組み合わせに限らず、アウトカメラ114、インカメラ115のいかなる組み合わせでもよい。
図3(a)は、撮影者301が、動画記録または動画配信を行う一例として、スマートフォン100の望遠カメラ114aを使用して被写体302を撮影しつつ、一方で標準インカメラ115aを使用して撮影者301の顔の表情を撮影する状態を示している。撮影者301は、望遠カメラ114aで取得したLV画像に、標準インカメラ115aで取得したLV画像を重畳させるPIPでの撮影を行うことを想定している。
なお、PIPでの撮影では、望遠カメラ114aと標準インカメラ115aの組み合わせに限らず、アウトカメラ114、インカメラ115のいかなる組み合わせでもよい。
図3(b)は、図3(a)で説明した撮影によってスマートフォン100のディスプレイ105に表示された画像を示す図である。望遠カメラ114aで取得したLV画像303に重畳して、標準インカメラ115aで取得したLV画像304をディスプレイ105にPIPウィンドウで表示している。図3(b)では、LV画像303内にある被写体302と、LV画像304とが一部で重複しており、被写体302全体が見えていない。したがって、撮影者301は被写体302全体の映りを確認することができない。そのため撮影者301は、スマートフォン100自体、もしくは操作部106を自身で操作して重複しないようにする必要がある。
図3(c)は、図3(b)で生じた被写体302とLV画像304との重複を回避するために、重畳させるLV画像304を移動させる操作を示す図である。撮影者301は指305でスマートフォン100のタッチパネル106aを操作し、LV画像304を別の位置306に移動させる。しかしながら、被写体302の領域が大きい場合には、別の位置306にLV画像304を移動させても被写体302とLV画像304とが重複することがある。また、撮影者301は、自身の撮影・配信を中断し、スマートフォン100の操作部106を操作して被写体302とLV画像304との重複を回避させる必要があり、撮影・配信に集中できない。
以下、被写体とPIPウィンドウとの重複を自動で抑制させる実施形態について説明する。図4は、本実施形態における制御処理を示すフローチャートである。図4のフローチャートは、CPU101が不揮発性メモリ103に格納されたプログラムを実行することにより実現される。また、図4のフローチャートは、スマートフォン100をカメラ機能に遷移させることにより開始される。
S401では、CPU101は、アウトカメラ114、インカメラ115、アウトカメラ画像処理部104、インカメラ画像処理部116の駆動を開始し、カメラの撮影待機状態に遷移する。
S402では、CPU101は、第1のレンズを介して取得したLV画像を、ディスプレイ105に表示する。本実施形態では、第1のレンズを介して取得したLV画像が、望遠カメラ114aで撮影されたLV画像である。ただし、表示するLV画像は、標準カメラ114b、超広角カメラ114c、標準インカメラ115a、超広角インカメラ115bで取得したものであってもよい。また、ディスプレイ105に表示したいアウトカメラ114、インカメラ115それぞれのLV画像を、撮影者がディスプレイ105に表示された候補から操作部106を操作して選択できるようにしてもよい。
S402では、CPU101は、第1のレンズを介して取得したLV画像を、ディスプレイ105に表示する。本実施形態では、第1のレンズを介して取得したLV画像が、望遠カメラ114aで撮影されたLV画像である。ただし、表示するLV画像は、標準カメラ114b、超広角カメラ114c、標準インカメラ115a、超広角インカメラ115bで取得したものであってもよい。また、ディスプレイ105に表示したいアウトカメラ114、インカメラ115それぞれのLV画像を、撮影者がディスプレイ105に表示された候補から操作部106を操作して選択できるようにしてもよい。
S403では、CPU101は、ディスプレイ105に主画像として使用しているカメラの情報をメモリ102に保持する。ここで、主画像とは、現在ディスプレイ105の全体にLV画像として表示している画像であって、第1の撮像画像として重畳される側の画像のことである。本実施形態では、メモリ102に望遠カメラ114a(第1レンズ)を使用しているという情報が保持される。
S404では、CPU101は、操作部106から動画記録開始の入力を受けたか否かを判定する。入力を受けた場合にはS405に進み、そうではない場合にはS410に進む。
S405では、CPU101は、動画記録を開始する処理を実行してS500へ進む。なお、動画記録を開始する処理には、動画ファイルの新規生成、開始時刻の記録、記録媒体108への記録開始処理等の少なくとも1つ以上が含まれる。
S405では、CPU101は、動画記録を開始する処理を実行してS500へ進む。なお、動画記録を開始する処理には、動画ファイルの新規生成、開始時刻の記録、記録媒体108への記録開始処理等の少なくとも1つ以上が含まれる。
S500では、CPU101は、被写体検出・表示変更処理を実行する。この処理は、図5のフローチャートを用いて後述する。
S406では、CPU101は、動画記録中であるか否かを判定する。動画記録中である場合にはS407に進み、そうではない場合には動画配信中であると判定してS412へ進む。
S407では、CPU101は、アウトカメラ114、インカメラ115で取得したLV画像や合成画像を動画フレームとして記録媒体I/F107を通じて記録媒体108へ書き込む。ここでは、撮影者は合成画像を記録するか、LV画像を別々で記録するかを選択できるものとする。すなわち、後述するように第2の撮像画像を、第1の撮像画像に重畳させた合成画像をディスプレイ105へ表示する場合に、合成画像を一つの動画ファイルで記録するか、第1の撮像画像と第2の撮像画像とを別々の動画ファイルで記録するかを選択できる。CPU101は、撮影者の選択に応じた記録形式でLV画像や合成画像を記録する。なお、CPU101は、第1の撮像画像と第2の撮像画像とを別々の動画ファイルで記録する場合には、次のような記録処理を実行する。すなわち、CPU101は、後述するように第2の撮像画像を、第3の撮像画像に重畳させた合成画像をディスプレイ105へ表示する場合であっても、第1の撮像画像と第2の撮像画像とを継続して別々の動画ファイルで記録するものとする。
S408では、CPU101は、動画記録終了または動画配信終了の入力を受けたか否かを判定する。入力を受けた場合にはS409へ進み、そうではない場合にはS413へ進む。
S409では、CPU101は、動画記録処理または動画配信処理を停止する。なお、CPU101は、通信I/F110を介したインターネット111への送信を停止することにより、動画配信処理を停止する。
S410では、CPU101は、操作部106から動画配信開始の入力を受けたか否かを判定する。入力を受けた場合にはS411に進み、そうではない場合にはS402に戻る。なお、S404およびS410において、動画記録開始および動画配信開始の何れの入力を受けていない場合には、CPU101は、S402に戻り撮影待機状態を継続してもよく、静止画の撮影と判定して静止画を撮影する処理を実行してもよい。
S411では、CPU101は、動画配信を開始する処理を実行する。なお、動画配信を開始する処理には、通信I/F110を介したインターネット111との接続、動画ファイル送信先サーバの決定、動画ファイル送信先サーバとの認証等の少なくとも1つ以上が含まれる。また、CPU101は、動画配信を開始する処理と共に、合成画像を動画フレームとして記録媒体I/F107を通じて記録媒体108へ書き込むことができる。このとき、CPU101は、合成画像を一つの動画ファイルで記録する。
S412では、CPU101は、アウトカメラ114、インカメラ115で取得したLV画像や合成画像を動画フレームとして、通信I/F110を介してインターネット111へ送信する。
S413では、CPU101は、主画像取得に使用しているカメラが第1のレンズではない第3のレンズであるか否かを判定する。第3のレンズである場合には後述する図5のS505に進み、そうではない場合にはS405、S411を実行した直後のS500に戻る。
S414では、CPU101は、操作部106からカメラ機能を終了する操作が行われたか否かを判定する。終了する操作が行われた場合にはアウトカメラ114、インカメラ115、アウトカメラ画像処理部104、インカメラ画像処理部116の駆動を停止してカメラ機能を終了する。そうではない場合にはS402に戻る。
S414では、CPU101は、操作部106からカメラ機能を終了する操作が行われたか否かを判定する。終了する操作が行われた場合にはアウトカメラ114、インカメラ115、アウトカメラ画像処理部104、インカメラ画像処理部116の駆動を停止してカメラ機能を終了する。そうではない場合にはS402に戻る。
図5は、上述したS500における被写体検出・表示変更処理を示すフローチャートである。
S501では、CPU101は、第1のレンズを介して撮影されたLV画像を第1の撮像画像として取得する。本実施形態では、第1のレンズを介して撮影されたLV画像は、望遠カメラ114aで撮影されたLV画像である。
S502では、CPU101は、第2のレンズを介して撮影されたLV画像を第2の撮像画像として取得する。本実施形態では、第2のレンズを介して撮影されたLV画像は、標準インカメラ115aで撮影されたLV画像である。
なお、第1のレンズおよび第2のレンズは、アウトカメラ114、インカメラ115のいかなる組み合わせであってもよい。
S501では、CPU101は、第1のレンズを介して撮影されたLV画像を第1の撮像画像として取得する。本実施形態では、第1のレンズを介して撮影されたLV画像は、望遠カメラ114aで撮影されたLV画像である。
S502では、CPU101は、第2のレンズを介して撮影されたLV画像を第2の撮像画像として取得する。本実施形態では、第2のレンズを介して撮影されたLV画像は、標準インカメラ115aで撮影されたLV画像である。
なお、第1のレンズおよび第2のレンズは、アウトカメラ114、インカメラ115のいかなる組み合わせであってもよい。
S503では、CPU101は、第2の撮像画像を、第1の撮像画像に領域Soの大きさで重畳させ、PIP形式でディスプレイ105へ表示する。本実施形態では、CPU101は、望遠カメラ画像処理部104aおよび標準インカメラ画像処理部116aを制御することにより第2の撮像画像を、第1の撮像画像に合成した合成画像を生成する。
S504では、CPU101は、第2の撮像画像を重畳させる領域Soの大きさ、位置座標(xo,yo)、幅Wo、高さHoを計算して、メモリ102に保持する。
なお、S503、S504の処理は、動画記録開始前または動画配信開始前のいずれかのタイミングで実行してもよい。
なお、S503、S504の処理は、動画記録開始前または動画配信開始前のいずれかのタイミングで実行してもよい。
S505では、CPU101は、アウトカメラ画像処理部104またはインカメラ画像処理部116を制御することにより、第1の撮像画像に被写体が映っているかの被写体検出処理を実行する。本実施形態では、CPU101は、望遠カメラ画像処理部104aを制御することにより望遠カメラ114aで取得したLV画像に基づいて、被写体検出処理を実行する。
S506では、CPU101は、被写体検出処理を実行した結果に基づいて、被写体を検出したか否かを判定する。被写体を検出した場合にはS507へ進み、そうではない場合にはS500の処理を終了する。
S506では、CPU101は、被写体検出処理を実行した結果に基づいて、被写体を検出したか否かを判定する。被写体を検出した場合にはS507へ進み、そうではない場合にはS500の処理を終了する。
S507では、CPU101は、アウトカメラ画像処理部104またはインカメラ画像処理部116を制御することにより、第1の撮像画像に映っている被写体の検出領域Sの大きさ、位置座標(x,y)、幅W、高さHを計算して、メモリ102に保持する。本実施形態では、CPU101は、望遠カメラ画像処理部104aを制御することにより、望遠カメラ114aで取得したLV画像における被写体の検出領域Sを計算する。また、後述するように、主画像取得レンズを第3のレンズ(本実施形態では標準カメラ114bもしくは超広角カメラ114c)に変更した場合には、被写体の検出領域S’が、位置座標(x’,y’)、幅W’、高さH’に変化する。すなわち、本実施形態では、図4のS413からS505、S506、S507に進んだ場合には、CPU101は標準カメラ画像処理部104bまたは超広角カメラ画像処理部104cを制御することにより、被写体の検出領域S’を計算する。
S508では、CPU101は第2の撮像画像を重畳させる領域Soと被写体の検出領域Sとが重複しているか否かを判定する。重複している場合にはS509へ進み、そうではない場合にはS500の処理を終了する。
なお、領域Soと被写体の検出領域Sとが重複した場合にすぐにS508へ進む場合に限られず、以下のような閾値と比較するような処理であってもよい。
なお、領域Soと被写体の検出領域Sとが重複した場合にすぐにS508へ進む場合に限られず、以下のような閾値と比較するような処理であってもよい。
第1として、重複する面積と閾値とを比較する処理である。具体的には、CPU101は、第2の撮像画像を重畳させる領域Soと被写体の検出領域Sとが重複している面積が所定の第1の閾値以上であるか否かを判定する。所定の第1の閾値以上である場合にはS509へ進み、そうではない場合にはS500の処理を終了する。
第2として、重複する時間と閾値とを比較する処理である。具体的には、CPU101は、第2の撮像画像を重畳させる領域Soと被写体の検出領域Sとが重複している時間が所定の第2の閾値以上であるか否かを判定する。所定の第2の閾値以上である場合にはS509へ進み、そうではない場合にはS500の処理を終了する。
第2として、重複する時間と閾値とを比較する処理である。具体的には、CPU101は、第2の撮像画像を重畳させる領域Soと被写体の検出領域Sとが重複している時間が所定の第2の閾値以上であるか否かを判定する。所定の第2の閾値以上である場合にはS509へ進み、そうではない場合にはS500の処理を終了する。
S509では、CPU101は、広角側のレンズのカメラに切替えが可能であるか否かを判定する。具体的には、CPU101は、現在、第1の撮像画像として取得しているカメラと同一面に設けられた複数のカメラのうち、第1の撮像画像として取得しているカメラよりも広角側のレンズのカメラに切替えが可能であるか否かを判定する。例えば、現在、望遠カメラ114aを使用して第1の撮像画像を取得している場合には、広角側のレンズのカメラとして、標準カメラ114bまたは超広角カメラ114cに切替えが可能であるために、広角側のレンズのカメラに切替えが可能であると判定される。一方、現在、超広角カメラ114cを使用して第1の撮像画像を取得している場合には、超広角カメラ114cよりも広角側のレンズのカメラはないため、広角側のレンズのカメラに切替えが可能ではないと判定される。なお、ここでは、第1の撮像画像がアウトカメラ114により撮影された画像である場合について説明したが、第1の撮像画像がインカメラ115により撮影された画像であっても同様に、判定することができる。
広角側のレンズのカメラに切替え可能である場合にはS510へ進み、そうではない場合にはS513へ進む。
広角側のレンズのカメラに切替え可能である場合にはS510へ進み、そうではない場合にはS513へ進む。
S510では、CPU101は、ディスプレイ105に主画像として使用しているカメラの情報を切替え可能として判定した、広角側のレンズのカメラの情報に変更してメモリ102に保持する。本実施形態では、メモリ102に標準カメラ114b(第3レンズ)を使用している情報に変更して保持される。
S511では、CPU101は、第3のレンズを介して撮影されたLV画像を第3の撮像画像として取得する。本実施形態では、第3のレンズを介して撮影されたLV画像は、標準カメラ114bで撮影されたLV画像である。
S512では、CPU101は、第2の撮像画像を、第3の撮像画像に領域Soの大きさで重畳させ、PIP形式でディスプレイ105へ表示する。本実施形態では、CPU101は、標準カメラ画像処理部104bおよび標準インカメラ画像処理部116aを制御することにより第2の撮像画像を、第3の撮像画像に合成した合成画像を生成する。
なお、本実施形態では、S509~S512の一連の処理で、第3のレンズを介して撮影されたLV画像が標準カメラ114bで撮影されたLV画像である場合について説明した。しかしながら、超広角カメラ114cに切替え可能である場合、標準カメラ114bを経由せず超広角カメラ114cに切替えてLV画像を取得してもよい。
なお、本実施形態では、S509~S512の一連の処理で、第3のレンズを介して撮影されたLV画像が標準カメラ114bで撮影されたLV画像である場合について説明した。しかしながら、超広角カメラ114cに切替え可能である場合、標準カメラ114bを経由せず超広角カメラ114cに切替えてLV画像を取得してもよい。
S513では、CPU101は、第1の撮像画像の切り取り領域の変更、つまり電子ズームによって画角を広角側に変更可能であるか否かを判定する。変更可能である場合にはS514へ進み、そうではない場合にはS516へ進む。
S514では、CPU101は、第1の撮像画像の切り取り領域を変更、つまり電子ズーム処理を行う。本実施形態では、CPU101は、望遠カメラ画像処理部104aを制御して、望遠カメラ114aで取得したLV画像の切り取り領域の変更処理を実行する。
S514では、CPU101は、第1の撮像画像の切り取り領域を変更、つまり電子ズーム処理を行う。本実施形態では、CPU101は、望遠カメラ画像処理部104aを制御して、望遠カメラ114aで取得したLV画像の切り取り領域の変更処理を実行する。
S515では、CPU101は、第2の撮像画像を、切り取り領域が変更された後の第1の撮像画像に領域Soの大きさで重畳させ、PIP形式でディスプレイ105へ表示する。
S516では、CPU101は、第2の撮像画像を、第1の撮像画像に対して重畳させる位置を変更する。このとき、CPU101は、第2の撮像画像を、第1の撮像画像における4隅のうち何れか一つの隅に位置を変更する。なお、CPU101は、第2の撮像画像の位置を変更する処理に限られず、第2の撮像画像をディスプレイ105から消去して(表示せず)、第1の撮像画像または第3の撮像画像の少なくとも1つをディスプレイ105に表示してもよい。
S516では、CPU101は、第2の撮像画像を、第1の撮像画像に対して重畳させる位置を変更する。このとき、CPU101は、第2の撮像画像を、第1の撮像画像における4隅のうち何れか一つの隅に位置を変更する。なお、CPU101は、第2の撮像画像の位置を変更する処理に限られず、第2の撮像画像をディスプレイ105から消去して(表示せず)、第1の撮像画像または第3の撮像画像の少なくとも1つをディスプレイ105に表示してもよい。
図6は、本実施形態における、スマートフォンでの動画撮影・記録の画面と、画像表示設定画面を示す図である。
図6(a)は、スマートフォン100のカメラ機能を撮影者が操作部106を用いて選択し、撮影待機状態になった際の画面例を示す図である。
ディスプレイ105に表示されたアイコン601~608を、タッチパネル106aを用いてタッチダウンすることで、各設定や機能を発動することができる。アイコン601をタッチダウンすると、LV画像を取得しディスプレイ105に表示するために使用するアウトカメラ114とインカメラ115を切替えることができる。
図6(a)は、スマートフォン100のカメラ機能を撮影者が操作部106を用いて選択し、撮影待機状態になった際の画面例を示す図である。
ディスプレイ105に表示されたアイコン601~608を、タッチパネル106aを用いてタッチダウンすることで、各設定や機能を発動することができる。アイコン601をタッチダウンすると、LV画像を取得しディスプレイ105に表示するために使用するアウトカメラ114とインカメラ115を切替えることができる。
アイコン602~604は、撮影機能を表している。「写真」文字アイコン602のタッチダウンで静止画撮影機能、「ビデオ」文字アイコン603のタッチダウンで動画撮影機能、「LIVE」文字アイコン604のタッチダウンで、インターネット111への動画配信機能を起動する。倍率アイコン605は、現在の倍率を表しており、タッチダウンすると現在使用しているアウトカメラ114またはインカメラ115の倍率を切替えることができる。倍率をある閾値以上に上げると望遠カメラ114aに切替わり、ある閾値以下まで下げると超広角カメラ114cに切替わるようにしてもよい。インカメラでも同様に、倍率をある閾値以下まで下げると、超広角インカメラ115bに切替わるようにしてもよい。また、倍率アイコン605をタッチダウンしなくても、タッチパネル106a上を指でピンチインすると広角側に、ピンチアウトすると望遠側に倍率を切替わるようにしてもよい。
アイコン606はカメラの設定機能を表しており、タッチダウンすると、動画記録方式や動画配信先等の設定を行う画面に遷移する。アイコン607のタッチダウンで、画面表示形式を設定できる。詳細は図6(b)で後述する。アイコン608をタッチダウンすると、静止画撮影機能なら静止画を撮影して画像を保存し、動画撮影機能なら動画の記録を開始・停止し、動画配信機能なら動画配信の開始・停止を行うことができる。
なお、これらの操作は、タッチパネル106aに限らず、操作部106の少なくとも1つで行えるようにしてもよい。
なお、これらの操作は、タッチパネル106aに限らず、操作部106の少なくとも1つで行えるようにしてもよい。
図6(b)は、アイコン607のタッチダウンで遷移する画面表示形式の設定画面を示す図である。選択肢609は各LV画像の表示形式を表しており、撮影者は撮影時に表示したい形式に対応する選択肢609をタッチダウンすることで選択できる。例えば、選択肢609aは、PIPでの撮影に望遠カメラ114aと標準インカメラ115aを使用して表示することを表している。選択肢609aを選択すると、望遠カメラ114aおよび標準インカメラ115aでLV画像を取得し、標準インカメラ115aで取得したLV画像を重畳させてPIPウィンドウ形式で表示する。なお、選択肢609については、画面表示と動画記録画像・動画配信画像と連動して設定できるようにしてもよく、画面表示はPIPで動画記録画像・動画配信画像は望遠カメラ114aのLV画像のみといったように別々に設定できるようにしてもよい。
選択肢609においても、図で示す組み合わせのみならず、例えばアウトカメラ114を2つ用いたり、インカメラ115で取得したLV画像上にアウトカメラ114で取得したLV画像を重畳させたりするような組み合わせがあってもよい。
図7は、本実施形態における、被写体とPIPウィンドウの表示領域の関係を示す図である。図7(a)は、ディスプレイ105に望遠カメラ114aで取得したLV画像701を表示した一例を示す図である。
標準インカメラ115aで取得したLV画像を、LV画像701に太線で示す領域So(図7の702)の大きさで重畳させるために、座標(xo,yo)、幅Wo、高さHoが計算される。
一方、点線で示す被写体の検出領域S(図7の703)は、S505~S507で、望遠カメラ画像処理部104aによって被写体が検出され、被写体の大きさが計算されたものである。
標準インカメラ115aで取得したLV画像を、LV画像701に太線で示す領域So(図7の702)の大きさで重畳させるために、座標(xo,yo)、幅Wo、高さHoが計算される。
一方、点線で示す被写体の検出領域S(図7の703)は、S505~S507で、望遠カメラ画像処理部104aによって被写体が検出され、被写体の大きさが計算されたものである。
図7(a)では一例として、被写体の位置座標(x,y)を左上として計算しているが、被写体の検出領域S(図7の703)内であれば、位置座標はいかなる位置であってもよい。また、被写体の検出領域S(図7の703)を四角の矩形として大きさを計算するために幅W、高さHを計算するが、領域の矩形はこれに限定せず、被写体の大きさを計算できるものであればいかなる方法であってもよい。
ここでは、LV画像701上に標準インカメラ115aで取得したLV画像を領域So(図7の702)で重畳、つまりPIPウィンドウ形式で表示した際、領域Soの一部と被写体の検出領域Sの一部とが重複領域704で重複している。
ここでは、LV画像701上に標準インカメラ115aで取得したLV画像を領域So(図7の702)で重畳、つまりPIPウィンドウ形式で表示した際、領域Soの一部と被写体の検出領域Sの一部とが重複領域704で重複している。
図7(b)のLV画像705は、CPU101がS508で重複していることを判定し、望遠カメラ114aから標準カメラ114b、または超広角カメラ114cに切り替えて取得したものである。なお、LV画像705は、望遠カメラ114aで取得したLV画像を電子ズーム処理したものであってもよい。アウトカメラ114の切り替え、もしくは電子ズーム処理によって画角が変わるため、被写体の検出領域S(図7の706)は図7(a)の被写体の検出領域S(図7の703)よりも小さくなる。
LV画像705の取得のために、被写体の位置座標(x’,y’)、幅W’、高さH’が再計算される。CPU101は、アウトカメラ114の切り替え、もしくは電子ズーム処理によって、図7(a)の重複領域704がなくなるまで、S508~S516の処理を実行する。なお、一度、重複領域704がなくなるように処理した後、再度、重複領域704が現れた場合は、再度S508~S516の処理を実行してもよい。
LV画像705の取得のために、被写体の位置座標(x’,y’)、幅W’、高さH’が再計算される。CPU101は、アウトカメラ114の切り替え、もしくは電子ズーム処理によって、図7(a)の重複領域704がなくなるまで、S508~S516の処理を実行する。なお、一度、重複領域704がなくなるように処理した後、再度、重複領域704が現れた場合は、再度S508~S516の処理を実行してもよい。
このように、本実施形態によれば、CPU101は被写体と、重畳させる撮像画像(PIPウィンドウ)とが図7(a)のように重複した場合に、広角側のアウトカメラまたはインカメラに切替えることで画角を変更する。そして、被写体とPIPウィンドウとが重複しないように表示することで、被写体全体が映るため被写体の視認性を向上させることができる。また、撮影者は行いたい撮影や配信の進行を中断して操作部106で画角を操作する必要もないため、行いたい撮影や配信の進行に集中できる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
なお、CPU101が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
本発明は、電子機器がスマートフォンである場合を例にして説明したが、この例に限定されず複数のレンズを有する電子機器であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、デジタルカメラや携帯型の画像ビューワ、デジタルフォトフレーム、音楽プレーヤ、ゲーム機、電子ブックリーダ等に適用可能である。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明は特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
100:スマートフォン(電子機器) 101:CPU 105:ディスプレイ 114:アウトカメラ 114a:望遠カメラ 114b:標準カメラ 114c:超広角カメラ 115:インカメラ 115a:標準インカメラ 115b:超広角インカメラ
Claims (14)
- 複数のレンズを有する電子機器であって、
複数のレンズのうち第1のレンズを介して撮影された第1の撮像画像を取得する第1の取得手段と、
前記第1のレンズとは異なる第2のレンズを介して撮影された第2の撮像画像を取得する第2の取得手段と、
前記第2の撮像画像を前記第1の撮像画像に重畳させた合成画像を生成する第1の生成手段と、
前記第1の撮像画像から被写体を検出する検出手段と、
前記第1の生成手段により生成された合成画像において、前記検出手段により検出された被写体の領域が前記第2の撮像画像が重畳されている領域と重複する場合に、前記第1の撮像画像よりも広角に撮影された第3の撮像画像を取得する第3の取得手段と、
前記第2の撮像画像を前記第3の撮像画像に重畳させた合成画像を生成する第2の生成手段と、を有することを特徴とする電子機器。 - 前記第3の取得手段は、
前記第1のレンズとは異なる第3のレンズを介して撮影された前記第3の撮像画像を取得することを特徴とする請求項1に記載の電子機器。 - 前記第1のレンズおよび前記第3のレンズは、該電子機器の第1の面に設けられ、
前記第2のレンズは、前記第1の面とは異なる第2の面に設けられることを特徴とする請求項1または2に記載の電子機器。 - 前記第3の取得手段は、
前記第1の撮像画像の一部を切り出すことにより前記第3の撮像画像を取得することを特徴とする請求項1に記載の電子機器。 - 画像を記録媒体に記録する記録手段を有し、
前記記録手段は、
前記第2の撮像画像を前記第1の撮像画像に重畳させた合成画像が生成されているか、前記第2の撮像画像を前記第3の撮像画像に重畳させた合成画像が生成されているかに関わらず、前記第1の撮像画像を記録することを特徴とする請求項1ないし4の何れか1項に記載の電子機器。 - 画像を外部へ出力する出力手段を有し、
前記出力手段は、
前記第1の生成手段または前記第2の生成手段により生成された合成画像をネットワークを介して出力することを特徴とする請求項1ないし4の何れか1項に記載の電子機器。 - 画像を記録媒体に記録する記録手段を有し、
前記記録手段は、
前記第1の生成手段または前記第2の生成手段により生成された合成画像を記録することを特徴とする請求項6に記載の電子機器。 - 前記第3の取得手段は、
前記被写体の領域と、前記第2の撮像画像が重畳されている領域との重複する面積が所定の第1の閾値以上である場合に、前記第3の撮像画像を取得することを特徴とする請求項1ないし7の何れか1項に記載の電子機器。 - 前記第3の取得手段は、
前記被写体の領域と、前記第2の撮像画像が重畳されている領域との重複する時間が所定の第2の閾値以上である場合に、前記第3の撮像画像を取得することを特徴とする請求項1ないし7の何れか1項に記載の電子機器。 - 前記第3の取得手段により前記第3の撮像画像を取得できない場合に、前記第2の撮像画像が重畳されている領域を移動させて表示する制御手段を有することを特徴とする請求項1ないし9の何れか1項に記載の電子機器。
- 前記第3の取得手段により前記第3の撮像画像を取得できない場合に、前記第1の撮像画像または前記第3の撮像画像のみを表示する制御手段を有することを特徴とする請求項1ないし9の何れか1項に記載の電子機器。
- 複数のレンズを有する電子機器の制御方法であって、
複数のレンズのうち第1のレンズを介して撮影された第1の撮像画像を取得する第1の取得ステップと、
前記第1のレンズとは異なる第2のレンズを介して撮影された第2の撮像画像を取得する第2の取得ステップと、
前記第2の撮像画像を前記第1の撮像画像に重畳させた合成画像を生成する第1の生成ステップと、
前記第1の撮像画像から被写体を検出する検出ステップと、
前記第1の生成ステップにより生成された合成画像において、前記検出ステップにより検出された被写体の領域が前記第2の撮像画像が重畳されている領域と重複する場合に、前記第1の撮像画像よりも広角に撮影された第3の撮像画像を取得する第3の取得ステップと、
前記第2の撮像画像を前記第3の撮像画像に重畳させた合成画像を生成する第2の生成ステップと、を有することを特徴とする電子機器の制御方法。 - コンピュータを、請求項1ないし11の何れか1項に記載された電子機器の各手段として機能させるためのプログラム。
- コンピュータを、請求項1ないし11の何れか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022029380A JP2023125345A (ja) | 2022-02-28 | 2022-02-28 | 電子機器、その制御方法およびプログラム |
US18/172,222 US20230276015A1 (en) | 2022-02-28 | 2023-02-21 | Electronic apparatus, method of controlling the same, and computer-readable storage medium storing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022029380A JP2023125345A (ja) | 2022-02-28 | 2022-02-28 | 電子機器、その制御方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023125345A true JP2023125345A (ja) | 2023-09-07 |
Family
ID=87761382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022029380A Pending JP2023125345A (ja) | 2022-02-28 | 2022-02-28 | 電子機器、その制御方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230276015A1 (ja) |
JP (1) | JP2023125345A (ja) |
-
2022
- 2022-02-28 JP JP2022029380A patent/JP2023125345A/ja active Pending
-
2023
- 2023-02-21 US US18/172,222 patent/US20230276015A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230276015A1 (en) | 2023-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102114377B1 (ko) | 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치 | |
KR102146858B1 (ko) | 촬영 장치 및 촬영 장치의 비디오 생성방법 | |
KR101739318B1 (ko) | 표시 제어장치, 촬상 시스템, 표시 제어방법, 및 기록 매체 | |
KR20140067511A (ko) | 촬영된 이미지를 표시하는 촬영 장치 및 그 촬영 방법 | |
AU2014221567A1 (en) | Apparatus and method for processing an image in device | |
JP7183033B2 (ja) | 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 | |
JP6700775B2 (ja) | 電子機器及びその制御方法 | |
US10120496B2 (en) | Display control apparatus and control method thereof | |
JP6198459B2 (ja) | 表示制御装置、表示制御装置の制御方法、プログラム及び記憶媒体 | |
JP7187307B2 (ja) | 電子機器及びその制御方法 | |
JP7080711B2 (ja) | 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 | |
JP2020129261A (ja) | 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 | |
JP2023125345A (ja) | 電子機器、その制御方法およびプログラム | |
CN111381750B (zh) | 电子装置及其控制方法和计算机可读存储介质 | |
JP2022162409A (ja) | 電子機器及びその制御方法 | |
JP7278773B2 (ja) | 電子機器及びその制御方法 | |
US20230345121A1 (en) | Image pickup device and control method thereof | |
WO2023062911A1 (ja) | 電子機器、制御方法、プログラム、記憶媒体 | |
US20230254555A1 (en) | Electronic apparatus, control method therefor, and computer-readable storage medium storing program | |
JP6362110B2 (ja) | 表示制御装置、その制御方法、プログラム、及び記録媒体 | |
JP2023047536A (ja) | 電子機器 | |
KR102241840B1 (ko) | 이미지 촬영장치 및 방법 | |
JP6120541B2 (ja) | 表示制御装置及びその制御方法 | |
JP2023131498A (ja) | 電子機器およびその制御方法およびプログラム | |
JP2016192592A (ja) | 撮像制御装置及びその制御方法 |