JP6131948B2 - 表示制御装置、表示制御方法、プログラム - Google Patents
表示制御装置、表示制御方法、プログラム Download PDFInfo
- Publication number
- JP6131948B2 JP6131948B2 JP2014510076A JP2014510076A JP6131948B2 JP 6131948 B2 JP6131948 B2 JP 6131948B2 JP 2014510076 A JP2014510076 A JP 2014510076A JP 2014510076 A JP2014510076 A JP 2014510076A JP 6131948 B2 JP6131948 B2 JP 6131948B2
- Authority
- JP
- Japan
- Prior art keywords
- main subject
- candidate
- display
- subject
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/18—Signals indicating condition of a camera member or suitability of light
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Description
また例えば上記特許文献2,3,4に開示された技術を用いれば、任意の被写体の全身枠を取り囲んだ被写体追尾が実現できる。
また、オートフォーカス・自動露光などは、撮像画像内の所望の領域を検出・追跡し、その領域がもっとも好適になるように光学系等を制御するような機能も存在する。
これらのように、撮像画像内で、ユーザが主要被写体として指定した画像、例えば顔等の画像領域を追尾したり、顔領域にフォーカスを合わせたりする等の技術が知られている。
例えばカメラを所持した状態で、画面表示されたスルー画(シャッタ操作時点以外に表示される被写体のモニタリング画像)に写されている複数の顔の中からタッチパネルによって任意の顔を選択するというような行為で主要被写体が選定される。あるいはユーザ指定のタイミング(シャッタ半押し等)で所定の領域内に存在する被写体を主要被写体とするなどである。
たとえば動き回る被写体に焦点を合わせ続けたいためにこの機能を使いたいのに、ユーザがカメラを構えて被写体を狙いながら指で選択すること自体が難しい。
例を挙げれば、被写体の変化(移動)に対するユーザの反応速度により、指定が困難なこともある。例えば動き回る被写体を、スルー画の画面上でうまく指定できないような場合である。
また、そもそもカメラを手に持って、被写体に向けて被写体を選定しているような状況で、ユーザが画面上で主要被写体を指で選択する行為自体が難しい。
またタッチパネルを配した表示画面の解像度によって、ユーザにとって被写体が選択し にくいことがある。
また、タッチパネルを配した表示画面上の被写体サイズとユーザの指の大きさ(太さ)によっては、所望の被写体を適切に指定できないこともある。
また、カメラシステム上のタイムラグ、例えば実際の光景と撮像画像のスルー画のタイムラグによって、ユーザが適切に被写体を指定しにくいこともある。
そこで本開示では、撮像者等のユーザが意図的に被写体を選択する行為を行わなくとも、適切な時点で、ユーザの求める対象被写体を主要被写体と判定するようにすることを想定した上で、その主要被写体判定の結果や過程をユーザが的確に認識できるようにすることを目的とする。
本開示のプログラムは、候補画像情報に基づく候補提示と、主要被写体情報に基づく主要被写体提示とが、異なる表示態様となるように、主要被写体判定処理の対象の画像データについて行う表示用の画像データ処理と、上記表示用の画像データ処理で得られた画像データを、表示部に供給する表示データとして出力する処理とを演算処理装置に実行させるプログラムである。
<1.表示制御装置の構成>
<2.撮像装置の構成>
<3.主要被写体判定処理>
<4.表示制御処理>
[4−1:各時点での表示制御例]
[4−2:主要被写体提示や候補提示の表示態様]
[4−3:第1の表示制御処理例]
[4−4:第2の表示制御処理例]
[4−5:領域提示のための処理(被写体抽出マップの利用)]
<5.プログラム及びコンピュータ装置への適用>
<6.変形例>
図1に、実施の形態の表示制御装置の構成例を示す。
図1における表示制御部1が本開示の表示制御装置の例である。表示制御部1は、表示画像処理部1a、表示データ出力部1bを有する。
なお、図1には主要被写体判定部2,表示部4を示しているが、これらは「表示制御装 置」に一体に設けられる構成部分としても良いし、「表示制御装置]に対する外部機器の構成部分とされてもよい。
この主要被写体判定部2は、入力される画像データDgの複数のフレームについて、それぞれ主要被写体の候補となる候補画像を検出し、検出した候補画像のうちで主要被写体を判定する処理を行う。
例えば主要被写体判定部2には、ソフトウエアプログラムにより実現される演算処理機能として、候補検出機能と主要被写体判定処理機能が設けられる。
この候補検出とは、入力された画像データDgの複数のフレームについて、それぞれ主要被写体の候補となる候補画像を検出する処理である。
即ち、時間軸上で連続的に入力される画像データDgのフレーム毎(又は間欠的なフレーム毎)に、顔画像検出、人体画像検出などを行って、主要被写体の候補となる画像を抽出する。
なお、顔検出、人体検出等は、撮像画像データに対しての画像解析におけるパターンマッチングの手法などで可能であるが、パターンマッチングに用いる辞書さえ差し替えれば他の検出器も原理的には実現可能である。例えば(特定種の)犬顔検出・猫顔検出などとして主要被写体の候補画像を抽出してもよい。
また例えばフレーム差分による動体検出の手法で、動体を検出し、当該動体を候補画像とすることも考えられるし、セイレンシ(Saliency)と呼ばれる注視領域抽出の手法を用いてもよい。
そして主要被写体判定部2は、候補検出の処理として、抽出した候補画像を示す情報、例えば候補画像の画面内の二次元方向の位置情報(x,y座標値)や、被写体距離、画像サイズ(ピクセル数)などを候補画像情報とする。
「安定存在度」とは、自動的な主要被写体判定の指標となる値である。即ち画角空間(後述)内で或る被写体が位置的に所定の状態にある頻度を示す値とする。例えば時間的に高い確度で画像内において所定の状態にあるか否かを判定できる指標値である。具体的には、候補画像が、画角空間内の位置状態として、ある所定の位置状態に存在する累積時間や継続時間、或いは平均的存在等を示す値であり、この「安定存在度」として計算される例えば累積時間や継続時間が高い画像は、撮像者が主として狙っている被写体と推定できるものとしている。
なお上記の「画角空間」とは、撮像画像に表れる空間を意味する。主に撮像画像における画面平面としての2次元空間、又は撮像時のカメラ位置に対する被写体の相対的な距離も含む3次元空間としての意味で用いる。
主要被写体判定部2は、上記の候補検出によって得られた候補画像情報で示される候補画像について、複数フレームにわたる画像データ内での安定存在度を求め、求めた安定存在度を用いて、候補画像のうちで主要被写体を判定する。
「位置状態」とは、画像データにおける候補画像の、画角空間内の絶対的又は相対的な位置の状況を総称した言葉とする。
「位置状態」の具体例としては、
・画角空間内の或る判定基準点との相対距離
・画角空間内の或る判定基準領域に対する相対的位置関係や相対距離
・撮像画像の二次元平面内での候補画像の位置
・被写体距離(撮像時のカメラ位置に対する被写体の相対的な距離)
・被写体距離と判定基準点又は判定基準領域との相対位置関係
などがある。
そして安定存在度算出機能で求められた安定存在度を用いて、各候補画像の中から主要被写体を判定し、或る候補画像を主要被写体と設定する処理を行う。
このように主要被写体判定部2が主要被写体として設定された画像を示す情報が、主要被写体情報Dmとして出力され、他のアプリケーションソフトウエアや処理回路部等に受け渡される。
一例としてはこのように主要被写体判定が行われるが、本開示の表示制御部1は、この主要被写体判定処理の過程や結果を、適切にユーザに提示できるようにするものである。なお主要被写体判定の手法は上記以外にも考えられる。
特に表示画像処理部1aは、取得した主要被写体判定処理情報Infにおける候補画像情報に基づく候補提示と、主要被写体情報に基づく所要被写体提示とが、異なる表示態様となるように、入力される画像データDgについての表示画像データ処理を行う。
これによって、画像データDgが表示部4で表示されるとともに、その表示上で候補提示や主要被写体提示が行われ、どの被写体が候補画像とされているか、またどの画像が自動的に主要被写体と設定されたかを、ユーザが確認できる。
また、その演算処理装置は、主要被写体判定部2としての処理機能を備えるようにしてもよい。
また主要被写体判定部2が表示制御部1に対して外部機器とされる場合、表示制御部1は、上述の主要被写体判定処理情報Infを主要被写体判定部2から取得し、同様の表示制御を行えばよい。
ステップF1として、表示画像処理部1aが、主要被写体判定部2から主要被写体判定処理情報Infを取得する。
主要被写体判定処理において主要被写体が決定される前であれば、1又は複数の候補画像の画面内の位置(画素領域、重心位置等)を示す候補画像情報を取得することになる。
主要被写体判定処理において主要被写体が決定された後であれば、主要被写体とされた画像の位置(画素領域、重心位置等)を示す主要被写体情報を取得する。
表示画像処理部1aは、各フレーム時点で取得した主要被写体判定処理情報Infを取得する。
この場合に例えば表示画像処理部1aは、主要被写体判定処理が開始されてから主要被写体が決定されるまでの主要被写体判定中の期間は、画像内で候補画像を提示する第1態様による候補提示が行われるように表示画像データ処理を行う。そして主要被写体が判定された際には画像内で主要被写体を提示する第2態様による主要被写体提示が行われるように表示画像データ処理を行う。
また表示画像処理部1aは、主要被写体が判定された際には、第2態様による主要被写体提示に加えて、主要被写体と判定されなかった候補画像についての第2態様以外による候補提示が行われるように、表示画像データ処理を行ってもよい。
表示部4では、各フレーム時点で、入力された表示データの表示を行う。これによってユーザには画像データDgが表示され、加えて主要被写体判定処理の実行中に候補画像が提示され、また主要被写体判定処理結果の主要被写体も提示される。特に候補画像と主要被写体は異なる態様で表示されることで、ユーザに明確に候補画像や主要被写体を知らせることができる。
以下では、上記のような表示制御部1(表示制御装置)を内蔵した撮像装置10を例に挙げ、主要被写体判定及び表示動作について詳しく説明する。
実施の形態の撮像装置10の構成例を図3に示す。この撮像装置10はいわゆるデジタルスチルカメラ或いはデジタルビデオカメラとされ、静止画や動画の撮像/記録を行う機器である。
図3では制御部30における表示制御部1として、請求項でいう表示制御装置に相当する構成がソフトウエアにより内蔵されるものとしている。この表示制御部1は、図1で説明したように表示画像処理部1a、表示データ出力部1bとしての機能を有する。
制御部30は、請求項でいうプログラムに基づく処理を実行することで、請求項でいう画像処理方法としての動作を行う。
イメージャ12は、例えば、CCD(Charge
Coupled Device)型、CMOS(Complementary
Metal OxideSemiconductor)型などの撮像素子を有する。
このイメージャ12では、撮像素子での光電変換で得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号を、後段のデジタル信号処理部20に出力する。
例えばデジタル信号処理部20は、前処理部21、同時化部22、YC生成部23、解像度変換部24、コーデック部25、候補検出部26、被写体抽出マップ生成部27を備えている。
同時化部22は、各画素についての画像データが、R,G,B全ての色成分を有するようにするデモザイク処理を施す。
YC生成部23は、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。
解像度変換部24は、各種の信号処理が施された画像データに対して、解像度変換処理を実行する。
コーデック部25は、解像度変換された画像データについて、例えば記録や通信のための符号化処理を行う。
また、候補画像枠情報としては、さらに、候補画像の属性情報(顔、人体、犬、猫等の種別や、個人(個体)識別情報、さらには画像データ自体を含むようにしてもよい。
候補検出部26は、上述のようにパターンマッチングの手法で候補の対象とする特定の 画像を抽出してもよいし、例えばフレーム差分による動体検出の手法で、動体を検出し、当該動体を候補画像とすることなども考えられる。候補画像の抽出、選定の手法は以上に限定されず、多様に考えられる。
また、候補検出部26は、画像に平滑化処理、アウトライヤ(outlier)除去等の処理を行って、候補画像枠情報を生成してもよい。
なお、この図3の例では被写体抽出マップ生成部27をデジタル信号処理部20で実行される機能構成としているが、これは一例であり、制御部30が被写体抽出マップ生成処理を実行する例も考えられる。
Only Memory)、RAM(Random Access
Memory)、フラッシュメモリなどを備えたマイクロコンピュータ(演算処理装置)により構成される。
CPUがROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置10全体を統括的に制御する。
RAMは、CPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
ROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア等の記憶に用いられる。例えば本例において後述する主要被写体判定処理や表示制御処理を実行するためのプログラムや、さらに主要被写体判定結果を利用するアプリケーションプログラム等が記憶される。
この場合、主要被写体判定部2は、候補検出部26から受け渡された候補画像情報についての位置状態判定処理、安定存在度算出処理、及び安定存在度に基づく主要被写体設定の処理を実行する。
この場合、表示制御部1は、主要被写体判定部2からの主要被写体判定処理情報Infに基づいて、それぞれ異なる表示態様で候補画像と主要被写体とが提示されるように表示データを生成し、表示部34に出力する。即ち基本的には表示制御部1は、図1,図2で説明した処理を行う。
表示制御部1は、表示部34で表示させる表示データを生成するが、具体的には、撮像して記録媒体に記録した静止画や動画を再生表示させたり、レリーズ(シャッタ操作)待機中に撮像される各フレームの撮像画像データによる動画としてのスルー画(被写体モニタリング画像)を表示部34で表示させるように表示データを生成する。これらの画像表
示の際に、主要被写体提示や候補提示としての表示内容を加えた表示データを生成する。
また表示制御部1は各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。
この表示部34は、上記のディスプレイデバイスと、該ディスプレイデバイスに表示を実行させる表示ドライバとから成る。
表示ドライバは、制御部30(表示制御部1)から供給される表示データに基づいてディスプレイデバイスを駆動する。
これによって表示データ、即ち再生画像やスルー画、或いはメニュー表示など、制御部30における表示制御部1から転送されてくる表示データの内容に応じた表示がディスプレイデバイスにおいて実行され、ユーザに提示される。
特に本実施の形態の場合、例えばスルー画や再生画上で、主要被写体判定処理による候補画像や判定結果の主要被写体がユーザにわかるような表示(候補提示、主要被写体提示)も実行される。
この操作部35としては、例えば撮像装置10の筐体上に設けられた各種操作子や、表示部34に形成されたタッチパネルなどとして実現される。
筐体上の操作子としては、再生メニュー起動ボタン、決定ボタン、十字キー、キャンセルボタン、ズームキー、スライドキー、シャッターボタン(レリーズボタン)等が設けられる。
またタッチパネルと表示部34に表示させるアイコンやメニュー等を用いたタッチパネル操作により、各種の操作が可能とされてもよい。
画像ファイルは、例えばJPEG(Joint
Photographic Experts Group)、TIFF(Tagged
Image File Format)、GIF(Graphics
Interchange Format)等の形式で記憶される。
記録部15の実際の形態は多様に考えられる。例えば記録部15は、撮像装置10に内蔵されるフラッシュメモリでもよいし、撮像装置10に着脱できるメモリカード(例えば可搬型のフラッシュメモリ)と該メモリカードに対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置10に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
また、本例において後述する安定撮像状態推定処理及び主要被写体判定処理を実行するためのプログラムは、記録部15に記憶されてもよい。
例えば外部の表示装置、記録装置、再生装置等の間で撮像画像データ(静止画ファイルや動画ファイル)の通信を行う。
また、ネットワーク通信部として、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。
またセンサ部14として、光学系11におけるズームレンズの位置を検出するズームレンズ位置センサ、フォーカスレンズの位置を検出するフォーカスレンズ位置センサが設けられる場合もある。
センサ部14の各種センサは、それぞれ検出した情報を制御部30に伝達する。制御部30は、センサ部14で検出された情報を用いて各種制御を行うことができる。
まず、以上の構成の撮像装置10において、制御部30(主要被写体判定部2)が実行する主要被写体判定処理について説明していく。
主要被写体判定処理に伴って実行される表示制御処理については、後に説明する。
主要被写体判定処理としての大まかな処理例を図4で説明し、後に図5〜図8で具体的な処理例を説明する。
図4において、ステップF10は制御部30の表示制御部1による処理、ステップF11〜F16は制御部30の主要被写体判定部2による処理となる。
ステップF12で制御部30は、取り込んだ候補画像枠情報で示される1又は複数の各候補画像枠について、それぞれ画角空間内の位置計算を行って位置状態を判定する。
この場合、位置状態として、画角空間内に設定した判定基準点に対する候補画像の距離を判定する。又は、位置状態として、画角空間内に設定した判定基準領域に対する候補画像の位置関係を判定する。
なお、安定存在度の算出には、算出の条件として、画角空間内での候補画像の位置情報、又は候補画像のサイズ情報を用いることもある。
ここでステップF14での判定は、主要被写体判定開始から、安定存在度が最も早く所定値に達した候補画像を、主要被写体と判定する処理としてもよい。又は、主要被写体判定期間に、安定存在度の値が最も高い候補画像を、主要被写体と判定する処理としてもよい。
また主要被写体の判定には、安定存在度の値に加えて、画角空間内での候補画像の位置情報、又は候補画像のサイズ情報を用いることもある。
アプリケーションプログラム等では、主要被写体と設定された画像が特定されたことに応じた処理を行う。例えば、フォーカス制御、追尾処理、画像効果処理などである。
これ以外に、或る期間に候補画像情報の取り込み(バッファリング)を行う。そして当該期間が経過したら、取り込んだ候補画像情報を用いて主要被写体判定を行う処理態様も考えられる。
以下の具体例では、候補画像枠の位置状態として、設定した判定基準点との距離を求める。
また、各候補画像枠について安定存在度としては、位置状態(判定基準点との距離)が所定の閾値以内という条件を満たしている累積時間情報を算出する。
また、主要被写体判定開始から、安定存在度が最も早く所定値に達した候補画像を、主要被写体と判定するものとする。
そこで、まず図5、図6、図7で候補画像枠、判定基準点との距離、安定存在度のそれぞれについて説明する。
図には、撮像装置10の光学系11,イメージャ12の動作によりデジタル信号処理部20に入力される撮像画像信号の各フレームFR1,FR2,FR3・・・を示している。候補検出部26は、このような順次入力される連続した各フレームのそれぞれ(或いは間欠的な各フレームについて)に候補画像の検出を行う。
例えば図示のように、フレームFR1について、3人の人が存在していた場合、それぞれの顔画像部分を候補画像として抽出し、その候補画像枠E1,E2,E3についての候
補画像枠情報を出力する。例えば候補画像枠E1の候補画像枠情報は、例えばこの候補画像枠E1の画像内での位置情報(x,y位置情報、被写体距離情報)、サイズ情報(枠の幅、高さ、ピクセル数)、属性情報等である。
候補検出部26は、このような候補画像枠情報を、候補画像枠E2,E3についても生成し、制御部30(主要被写体判定部2)に受け渡す。
図6Aに判定基準点SPの例を示している。これは画像中央を判定基準点SPとした例である。判定基準点SPのxy座標値を(Cx,Cy)とする。
例えばフレームFR1の時点で、候補画像枠E1,E2,E3のそれぞれの候補画像枠情報が取り込まれた場合、制御部30は、図示する各候補画像枠E1,E2,E3の重心Gから判定基準点SPの距離Diff1、Diff2、Diff3を算出する。
例えば図6Bのように、中央よりやや左上方の位置に判定基準点SPを設定してもよい。例えば静止画の構図を考えた場合、このような中央でない位置に主たる被写体を配置するとよい場合が多々考えられるからである。
いずれにしても、図6Bのように、各候補画像枠(例えばE4,E5)と判定基準点SPの距離(例えばDiff4、Diff5)を算出するようにする。
即ち判定基準点SPについては、
・画像中央位置、或いは中央よりずれた位置などとして、予め決められた固定的な位置に設定される。
・ユーザが任意に指定する。
・いくつかの候補点をユーザに提示し、ユーザが選択することで設定される。
・制御部30が画像内容に応じて最適位置を判定し、自動的に可変設定する。
などが考えられる。
図7は、仮に候補画像枠E1,E2,E3が、ある期間継続してフレーム(FR1,FR2・・・)内に存在し続けたとして、算出される距離Diff1、Diff2、Diff3の変動の様子を示したものである。
例えば撮像者が撮像装置10で、ある期間、3人の被写体をとらえていた場合を想定している。3人の各人が、それぞれ動いていたり、或いは撮像者が撮像装置10の被写体方向を動かしていたり、手ぶれがあるなどにより、時間軸上では、算出される各距離Diff1、Diff2、Diff3は変動している。
図7下部には、距離Diff1、Diff2、Diff3の各時点での、距離閾値Thr-diff以内か否かの判定結果を示している。距離Diff(n)が距離閾値Thr-diff以下であれば、近い=「1」とされることとする。
この判定結果「1」を各時点で累積加算していったものが処理例1での安定存在度となる。
例えば図7の例では、候補画像枠E3は、継続して「1(=判定基準点SPに近い)」と判定されるが、この累積加算値が或る所定値に達した時点で、判定が終了され、候補画像枠E3が主要被写体と判定されることとなる。
但し、もちろん継続性を安定存在度の条件に用いる例も考えられる。
変数TSFとは、主要被写体設定済みか否かを示すフラグである。TSF=「0」は、主要被写体が未判定の状態を示すこととなる。
またカウント値Cnt(n)は、上述の距離Diffの距離閾値Thr-diffとの比較判定結果の値を加算するカウンタの値である。
また、同様に距離Diff(n)とは、3つの候補画像枠E1,E2,E3の判定基準点SPからの距離Diff1、Diff2、Diff3を総称して表すものとしており、距離Diff(n)についての処理とは、例えば距離Diff1、Diff2、Diff3のそれぞれについての処理という意味で用いている。
なお、候補画像枠情報には被写体距離(上記二次元(x−y)座標平面に直交するz軸方向の値で表される、カメラ位置に対する被写体の相対的な距離:z値)やピクセル数等も含まれていてもよい。
例えば候補画像枠情報によっては、候補画像枠のx,y座標値として、方形の候補画像枠の左上頂点の座標値が与えられるとする。このx,y座標値を(E(n)_x,E(n)_y)とする。また図6に示したように、x,y座標は画面平面の左上を原点O(x,y座標値が(0,0))とする。
また候補画像枠E(n)の幅wをE(n)_w、高さhをE(n)_hとする。
そして候補画像枠E(n)の重心Gの座標値を(E(n)_cx,E(n)_cy)とすると、重心Gの座標値は、
E(n)_cx=E(n)_cx+E(n)_w/2
E(n)_cy =E(n)_cy+E(n)_h/2
として求められる。
Diff(n)=√{(E(n)_cx−Cx)2+(E(n)_cy−Cy)2}で求められる。
なお、主要被写体判定処理を開始した後、常時、処理を継続する場合、判定不要時(変数TSF=1のとき)には、このステップF104での処理を抜けることとなる。ユーザ操作や自動的な起動判断で、必要時に図8の主要被写体判定処理を実行するようにする場合などではステップF104は不要としてもよい。
即ち判定基準点SPまでの距離Diff(n)が、判定基準点SPに近いか近くないかを、距離閾値Thr-diffを用いて判定する。
このため制御部30はステップF105で、各候補画像枠E(n)の判定基準点SPまでの距離Diff(n)と距離閾値Thr-diffを比較し、Diff(n)<Thr-diffであればステップF106でフラグFlg(n)=1(近い)とする。またDiff(n)<Thr-diffでなければステップF107でフラグFlg(n)=0(近くない)とする。
このカウント値Cnt(n)は、上述した累積加算値としての安定存在度の値となる。つまり、候補画像枠E(n)が判定基準点SPに「近い」状態の頻度を表す値となる。
制御部30はステップF111で、各候補画像枠E(n)のカウント値Cnt(n)が、カウント閾値CTthrに達しているか否かを確認する。
先に述べたステップF104で変数TSF=1が検出された場合、そのまま判定終了となる。
詳しい説明は省略するが、本例の自動的な主要被写体判定とは並行して、例えばユーザが主要被写体を表示部34の画面上のタッチ操作、或いは被写体を画面上に所定位置に合わせてシャッタボタンを半押しするなどの操作として、主要被写体選択ができるようにしてもよい。図8の処理の実行中に、ユーザがこのような指定操作を行った場合、ユーザの操作を優先することが好ましい。そこで、そのようなマニュアル操作として主要被写体設定が行われた場合、変数TSF=1とする。この場合、図8の処理はステップF104,F114の判断により、処理を終了(中断終了)することとすればよい。
すると或る時点で、カウント値Cnt3がカウント閾値CTthrに最初に到達することとなる。
このような場合、制御部30は処理をステップF111からF112に進める。
ステップF112で制御部30は、カウント値Cnt(n)がカウント閾値CTthrに達した候補画像枠E(n)を主要被写体と判定し、主要被写体設定を行う。そして変数TSF=1とする。
なお、この処理例では変数TSF=1となるまで続けられることになるが、実際には、所定の制限時間を設けておくことが適切である。即ち図8の処理開始時点から所定時間を経過しても主要被写体が判定できない場合は、主要被写体無しとして、処理を終了するようにする。
この主要被写体判定処理では、抽出された候補画像の中で、複数のフレームでの安定存 在度を求める。つまり時間的に高い頻度で位置的に安定して、画像内に存在するかどうかを判断する指標値を求める。
例えばカメラを構えている撮像者が、ターゲットとして狙っていると思われる確度の高い被写体は、安定存在度が高くなる。つまり撮像者が主として狙っている被写体は、撮像画像内の位置として、撮像者が中心と考える点や領域になるべく入るようにするし、さらに撮像者がその被写体を狙うことで、自然に長時間、撮像画像に入ってくる。従って、位置的に安定し、かつ時間的に高い頻度で撮像画像内に存在する被写体(安定存在度が高い被写体)は、撮像者が狙っている主要被写体と推定できる。
これにより、撮像者等のユーザが特に指定操作することなく、主要被写体が自動判定されることになり、主要被写体設定に応じた動作を行う撮像装置10においてユーザの操作性は格段に向上する。
従って動きの速い被写体を対象とする場合や、比較的不慣れなユーザにとっても好適となる。
また、主要被写体判定処理は、一定時間を必ず行うものではなく、主要被写体が判定された時点で処理は終了されるため、被写体や撮像者の技量によっては、迅速に主要被写体判定が為されるといった利点もある。
例えば各候補画像枠について安定存在度としては、位置状態(判定基準点との距離)が所定の閾値以内という条件を継続して満たしている継続時間情報を算出するようにしてもよい。継続時間によって安定的な存在かどうかを評価すると、動きの少ない被写体を対象とする場合、容易に画像中央等に継続して対象被写体をとらえることができるため、ユーザの望む主要被写体を正確に設定できる可能性が高い。また撮像者の技量によっては、主としてとりたい被写体を継続して画面中央等(判定基準点SPに近い位置)に維持できるため、正確に撮像者の希望の被写体を主要被写体と判定できる確率が高い。つまり、撮像技能の上級者や、被写体によっては、よりユーザの望む被写体を主要被写体と判定できる可能性を高くできる。
一般に撮像者が被写体を狙ってカメラを構える場合、最初は主役としたい被写体を画像中央などの所望の位置にとらえられず、撮像者が徐々にカメラの向きを調整していく。このことを考慮すると、最初は、撮像者が「主要被写体」と念頭においている被写体は、時間が進むにつれ徐々に画像中央にとらえられるようになる。
従って、主要被写体判定処理の実行中に、時間が進むほど、判定基準点SPに近いということの価値を重くすることは、撮像者の考えに合致した主要被写体判定ができる可能性を高めることになる。
例えば画像中央などの正方形や円形等の領域を設定し、それを判定基準領域とする。各候補画像枠E(n)の判定基準領域との位置関係とは、例えば、
・重心が判定基準領域に入っているか否か
・全体が判定基準領域に入っているか否か
・少なくとも一部が判定基準領域に入っているか否か
・判定基準領域の外縁との距離が所定の値以内か否か
などとする。
このような位置関係の条件で、安定存在度を求めることもできる。
まず主要被写体判定結果の利用例を述べる。
主要被写体判定は、例えばユーザ(撮像者)がシャッタタイミング(レリーズタイミング)を狙っている際に実行されるが、制御部30は主要被写体を自動的に判定した後、次のような処理を行うことができる。
撮像される各フレームにおいて設定された主要被写体を追尾する。例えばスルー画表示上でユーザに主要被写体を明示して、ユーザの画角調整(例えばカメラを手に持っている状態における被写体決め)の用に供する。
なお、主要被写体の提示としては、表示部34でのスルー画表示上で主要被写体の枠を強調表示することが考えられる。また、強調表示等は、判定直後の一定期間でもよいし、スルー画内に主要被写体が存在する限り実行させてもよい。
主要被写体にオートフォーカス制御する。また、追尾処理と合わせて、主要被写体が動き回っていても、フォーカスが、その主要被写体に追尾して調整されるようにする。
・露光調整
主要被写体の明るさ(輝度)に基づいて自動露光調整を行う。
・指向性調整
撮像(例えば動画撮像)とともにマイクロホンにより音声収音を行う場合、画角空間内での主要被写体の方向に応じて、指向性調整を行う。
・ズーム制御
主要被写体に対応したオートズーム制御する。例えば主要被写体が常に所定以上のサイズで撮像画像で映り込むように自動的なズームレンズ駆動を行う。追尾処理と合わせて、主要被写体との距離が変化に応じたズームによる画角調整を行うようにしてもよい。
・録画スタート制御
動画撮像の開始のトリガーとする。例えば主要被写体が決定されたことに応じて、動画撮像記録を開始する。
・画像効果処理
撮像される各フレームにおいて主要被写体の領域にのみ、画質調整、ノイズリダクション、肌色調整などの画像処理を加える。
或いは、主要被写体の領域以外に、画像効果、例えばモザイク処理、ぼかし処理、塗りつぶし処理等を加えることも考えられる。
撮像画像、もしくは記録された画像について、フレーミング、クロッピング等の編集処理を加える。
例えば主要被写体を含むフレーム内の一部領域の切り出しや、拡大等の処理を行うことができる。
また、撮像画像データのうちで、主要被写体が画像の中心に配置されるように画像周辺部のカット等を行い、構図調整を行うことができる。
例えば撮像装置10が電源オンとされて、撮像を行っているとき(表示部34にスルー画を表示している期間)は、常時主要被写体判定処理を行っていてもよい。
また、主要被写体を判定したら、追尾処理を行う場合、追尾が外れた時点で、再度主要被写体判定処理を行うようにしてもよい。
また、ユーザ操作により主要被写体判定処理が開始されるようにしてもよい。
またユーザが、判定実行モードを選択しているときに、常時実行されたり、追尾が外れたりといったときに実行されるなどとしてもよい。
またユーザ操作にかかわらず、自動的に主要被写体判定処理が起動されることも考えられる。
撮像者が撮像装置10をもって被写体を狙っているときには、そもそも主要被写体を指定するような操作は難しい。また何度も指定する行為は面倒である。主要被写体判定を自動的に実行することによれば、このようなことが解消され、ユーザストレスの低減効果が得られる。
またユーザが通常使用するデジタルスチルカメラ、携帯電話機内蔵カメラなど、ユーザが携帯して使用する撮像装置10としては、表示部34も小型であり、ユーザが主要被写体を画面上で指定する操作を行ったとしても、正確に行いにくい。本実施の形態のように自動判定することで、誤指定ということもなくなる。
また撮像装置10を自然に構えていれば主役を撮れる、という感覚で使用できるため、撮像機会の増加、対応ユースケースの増加ということができ、使いやすいカメラをユーザに提供できることにもなる。
[4−1:各時点での表示制御例]
以上の主要被写体判定処理と共に行われる表示制御処理について説明していく。
制御部30(表示制御部1)は、主要被写体判定処理開始後、主要被写体判定処理情報Infに基づいて、表示部34に表示させる撮像画像上で候補提示(候補画像をユーザに認識させる表示)や主要被写体提示(主要被写体をユーザに認識させる表示)が実行されるように表示制御を行う。
撮像装置10において主要被写体判定処理が行われるのは、例えばユーザが静止画撮像のために撮像装置10を構えて、これから被写体を決め、シャッタチャンスを狙おうとするような場合である。この期間、撮像装置10では、いわゆるスルー画(イメージャ12で撮像される被写体光景のモニタリング画像としての動画)が表示部34に表示される。
従って、候補提示や主要被写体提示は、スルー画上で候補画像や主要被写体画像を示したり、それらの画像自体を目立たせたりするように表示となる。
本実施の形態では、特に候補提示と主要被写体提示が、異なる表示態様で行われるようにし、これによって候補画像と主要被写体をユーザが明確に区別して認識できるようにする。
まず図9で候補画像と主要被写体についての表示動作について各種の例を挙げる。
以下では、主要被写体判定処理が開始されてから、主要被写体が決定されるまでを「主要被写体判定中」と呼ぶこととする。この主要被写体判定中では、制御部30(表示制御部1)は、主要被写体判定処理情報Infに基づいた表示制御として候補画像の情報(例えば上述の候補画像枠)を用いた表示制御が可能となる。
この主要被写体判定中の表示制御動作としては、図9に示す3つの例(X1,X2,X3)が考えられる。
X2:候補提示を行う。つまりスルー画上で、候補画像とされた部分がユーザに認識できるような表示を行う。
X3:候補画像が発生したことに応じて候補提示を行う(X3−1)。そして主要被写体判定処理の進行に応じて、主要被写体として選ばれそうな候補画像が発生したら、それを他の候補画像よりも有力(主要被写体となる可能性が高い)な候補画像であることわかるように、他の候補画像とは異なる態様の表示(有力候補提示)を行う(X3−2)。
主要被写体判定処理で、主要被写体が決定された際、例えば主要被写体が決定された時点から所定時間thTM内を、「主要被写体決定時」と呼ぶこととする。
この主要被写体決定時では、制御部30(表示制御部1)は、主要被写体判定処理情報Infに基づいた表示制御として主要被写体の情報や、候補画像の情報を用いた表示制御が可能となる。
この主要被写体決定時の表示制御動作としては、ユーザに決定された主要被写体を強く 提示することが求められる。このため図9に示す2つの例(Y1,Y2)が考えられる。
Y2:スルー画上で主要被写体提示と非選択候補提示を行う。つまり主要被写体をユーザに示すとともに、主要被写体に選択されなかった候補画像も示す。
例えば上記の主要被写体決定時から上記の所定時間thTMを経過した後を「主要被写体決定後」と呼ぶこととする。この期間は、主要被写体情報がアプリケーション等に受け渡され、主要被写体情報を用いた何らかの処理が行われている期間と想定される。
この主要被写体決定後では、制御部30(表示制御部1)は、主要被写体判定処理情報Infに基づいた表示制御として先に決定された主要被写体の情報及び非選択候補画像の情報を用いた表示制御が可能となる。
この主要被写体決定後の表示制御動作としては、図9に示す3つの例(Z1,Z2,Z3)が考えられる。
Z2:スルー画上で主要被写体提示のみを行う。非選択候補提示は行わない。
Z3:スルー画上で主要被写体提示と非選択候補提示を行う。
その中でも、「主要被写体判定中」→「主要被写体決定時」の表示の遷移に注目すると、以下に示すex1〜ex5の表示動作例が有用である。
(ex1) X2→Y1→Z(Z1,Z2,Z3のいずれか)
(ex2) X2→Y2→Z(Z1,Z2,Z3のいずれか)
(ex3) X1→Y2→Z(Z1,Z2,Z3のいずれか)
(ex4) X3→Y1→Z(Z1,Z2,Z3のいずれか)
(ex5) X3→Y2→Z(Z1,Z2,Z3のいずれか)
図10Aは、上記(ex1)としてX2→Y1→Z1の表示動作例である。
例えば主要被写体判定中において被写体となっている犬が候補画像となったとする。この場合に、例えば破線正方形枠という表示態様で候補提示KMを行う。
その後、この犬がそのまま主要被写体と決定されたとする。主要被写体決定時には、犬の画像部分に、例えば太線正方形枠という表示態様で主要被写体提示MAを行う。
主要被写体決定後は、主要被写体提示も非選択候補提示も行わない。
主要被写体判定中において、候補画像となっている被写体(犬)について、例えば破線正方形枠という表示態様で候補提示KMを行う。
その後、この犬がそのまま主要被写体と決定されたとする。主要被写体決定時には、犬の画像部分に、例えば太線正方形枠という表示態様で主要被写体提示MAを行う。
主要被写体決定後は、例えば点線正方形枠という表示態様で主要被写体提示MAを行う。
主要被写体判定中において、候補画像となっている被写体(犬、ウサギ)について、例えば破線正方形枠という表示態様でそれぞれ候補提示KMを行う。
その後、犬が主要被写体と決定されたとする。主要被写体決定時には、犬の画像部分に、例えば太線正方形枠という表示態様で主要被写体提示MAを行う。またウサギの画像部分にはそれまでの候補提示KMと同様の破線正方形枠という表示態様で非選択候補提示KMsを行う。
主要被写体決定後は、例えば実線正方形枠という表示態様で主要被写体提示MAを行うとともに、点線正方形枠という表示態様で非選択候補提示KMsを行う。
主要被写体判定中において、1又は複数の被写体(この例では犬とウサギ)が候補画像となったが、候補提示は行わない。
その後、犬が主要被写体と決定されたとする。主要被写体決定時には、犬の画像部分に、例えば太線正方形枠という表示態様で主要被写体提示MAを行う。またウサギの画像部分には実線正方形枠という表示態様で非選択候補提示KMsを行う。
主要被写体決定後は、例えば太破線正方形枠という表示態様で主要被写体提示MAを行うとともに、点線正方形枠という表示態様で非選択候補提示KMsを行う。
主要被写体判定中の第1段階として、候補画像となった被写体(犬、ウサギ)について、例えば破線正方形枠という表示態様でそれぞれ候補提示KMを行う(X3−1)。
その後、主要被写体判定中の第2段階として、或る候補画像となった被写体(犬)が、主要被写体に選択される可能性が高いと判定されたとする。このとき、当該被写体(犬)の画像部分は、有力候補として、他の候補画像(ウサギ)とは異なる態様、例えば実線正方形枠という表示態様で有力候補提示KMvを行う(X3−2)。
そして、犬が主要被写体と決定されたとする。主要被写体決定時には、犬の画像部分に、例えば太線正方形枠という表示態様で主要被写体提示MAを行う。非選択候補提示は行わない。
主要被写体決定後は、図10、図11に示したZ1,Z2,Z3のいずれかとなる。
主要被写体判定中の第1段階として、候補画像となった被写体(犬、ウサギ)について、例えば実線正方形枠という表示態様でそれぞれ候補提示KMを行う(X3−1)。
その後、主要被写体判定中の第2段階として、或る候補画像となった被写体(犬)が、主要被写体に選択される可能性が高いと判定されたとする。このとき、当該被写体(犬)の画像部分は、有力候補として、他の候補画像(ウサギ)とは異なる態様、例えば実線正方形枠の点滅という表示態様で有力候補提示KMvを行う(X3−2)。
そして、犬が主要被写体と決定されたとする。主要被写体決定時には、犬の画像部分に、例えば太線正方形枠の点滅という表示態様で主要被写体提示MAを行う。またウサギの画像部分にはそれまでの候補提示KMとは異なる点線正方形枠という表示態様で非選択候補提示KMsを行う。
主要被写体決定後は、図10、図11に示したZ1,Z2,Z3のいずれかとなる。
このための制御部30(表示制御部1)による表示制御処理としては、次のような例(p1、p2)が考えられる。
主要被写体判定中にX2又はX3を採用する上記(ex1)(ex2)(ex4)(ex5)は、このような処理による表示動作に該当する。これらの例は、少なくとも主要被写体判定中と主要被写体決定時において、候補提示KMと主要被写体提示MAとが、異なる表示態様となるためである。
この表示制御により、ユーザは時間の進行に伴って候補画像を認識し、その後主要被写体決定時に主要被写体を明確に認識できる。
主要被写体決定時にY2を採用する上記(ex2)(ex3)(ex5)は、このような処理による表示動作に該当する。これらの例は、少なくとも主要被写体決定時において、非選択候補提示KMsと主要被写体提示MAとが、異なる表示態様となるためである。
この表示制御により、ユーザは主要被写体決定時においては、主要被写体と非選択候補画像を、それぞれ明確に認識できる。
特に、この主要被写体決定後において主要被写体提示MAや非選択候補提示KMsの表示態様に着目すると、次の例(p3、p4)が考えられる。
例えば図10B、図11A、図11Bに示したような例である。
この制御により、主要被写体を継続して認識できるとともに、例えば主要被写体決定時には非常に目立つ表示態様としてユーザの注意を向けさせ、その後は、画面上での強調度合をある程度落とした表示態様として、画面が煩雑でないようにすることなどが可能である。
例えば図11A、図11Bに示したような例である。
この制御により、ユーザは主要被写体を継続して明確に認識できるとともに、主要被写体に選択される可能性のあった候補画像も継続して認識できる。従って例えば主要被写体を変更したいような場合に便利である。
(p5) 表示制御部1は主要被写体判定中に、画像内で第1態様による候補提示KMが行われ、さらに、候補画像のうちで主要被写体と判定される可能性が高いと判断された候補画像を提示する有力候補提示KMvが、第1態様とは異なる態様で行われるように、
スルー画となる撮像画像データについての表示画像データ処理を行う。
例えば図12A,図12Bに示した例である。
このようにすることで、ユーザは、自動的に主要被写体が決定される前に、有力な候補画像を知ることができる。また従って、例えばユーザが意図していない被写体が有力な候補画像とされた場合、主要被写体と決定される前に、被写体方向を変えるなどして主要被写体と判定されないようにするなどの対処も可能となる。
以上の例のように本実施の形態では、候補提示KMと主要被写体提示MAの表示態様を異ならせることをはじめとして、表示態様を各種場合で変化させる。
ここでは候補提示KMや主要被写体提示MAの表示態様の例や、各場合での表示態様の遷移について説明する。
図13Bは、正方形枠について、枠線の色を各種変える例である。図示のように正方形枠として、赤枠、青枠、白枠など、色の異なる多様な表示態様が考えられる。
図13Cは、正方形枠の状態を動的に変化させる表示態様である、例えば図示のように正方形枠を点滅させて画像内の該当部分を示す。点滅以外に、例えば枠の色が変化したり、枠の大きさや形が変化したり、立体的な枠画像が回転等するなど、各種の動的な表示態様が考えられる。
図13Dは、正方形の全体を半透明塗りつぶし枠や、高輝度枠(ハイライト表示)などのように、枠をフィルタや画像効果領域のように用いて被写体の該当部分を表示する例である。
図13Eは、枠の各種形状として、円形、多角形、不定形を示している。これ以外にも楕円、三角形、或いは[ ]などのように外周の一部が分断された枠などでもよい。上記の図13A〜図13Dの各例は、この図13Eの各種枠形状の場合においても、すべて適用できる。
図13Fは、星マークや矢印マークで被写体を示す例である。もちろん他にも多様に考えられる。
図14Aは、撮像画像の或る1フレームであるとする。後述するが、図3に示した被写体抽出マップ生成部27は、図14Bのように、該当する領域を示す被写体マップを生成することができる。
このような被写体マップに用いて、該当領域とそれ以外の領域について異なる画像処理 を施すことで主要被写体提示MAや候補提示KMが実行できる。
図14C(領域提示I)は、主要被写体(或いは候補画像)に該当する領域に画像処理としての加工を施す例である。斜線は画像処理による加工が行われた状態を示している。
例えばアルファブレンディングなど、被写体マップの情報を合成する例が考えられる。また該当領域につき、高輝度化(ハイライト表示)を行ったり、目立つ色となるように色変換を行ったり、3D表示を行うような例も考えられる。
このような背景に対する画像処理としては、例えばモノクロ化、モノトーン化、低輝度化、モザイク化、塗りつぶし、画像ぼかし、などが考えられる。即ち該当領域が目立つようにする処理が適切である。
この場合、該当領域については、図14Cで述べたような目立つ表示となる画像処理、背景領域については図14Dで述べたような目立ちにくい表示となる画像処理を行うことが考えられる。
本例では、時間的、或いは画像空間内において、少なくとも主要被写体提示MAと候補提示KMが異なる表示態様で行われるものとする。
また有力候補提示KMvについては、主要被写体提示MAと候補提示KMのいずれとも異なる表示態様とすることで「有力候補」であることを提示する。
なお、非選択候補提示KMsは、結果として主要被写体とされなかった候補画像の提示であるため、候補提示KMと同一表示態様でも良いし、異なる表示態様でも良い。
なお「第1態様」とは、主要被写体判定中における候補提示KMの表示態様とする。
また「第2態様」とは、主要被写体決定時における主要被写体提示MAの表示態様とする。「第3態様」「第4態様」は、「第1態様」「第2態様」とは異なる態様であることを意味する。
図15Bは、候補提示KMを破線正方形枠(第1態様)で行い、主要被写体提示MAを 円形枠(第2態様)で行う。そして主要被写体決定後においては、主要被写体提示MA及び非選択候補提示KMsは行わない例である。
図15Cは、候補提示KMをグレー正方形枠(第1態様)で行い、主要被写体提示MAを赤正方形枠(第2態様)で行う。そして主要被写体決定後においては、主要被写体提示MAは第2態様のままとし、また非選択候補提示KMsも第1態様のままとする例である。
図15Dは、候補提示KMを正方形枠(第1態様)で行い、主要被写体提示MAを正方形枠の点滅(第2態様)で行う。そして主要被写体決定後においては、主要被写体提示MAのみを第1態様で行い、非選択候補提示KMsを行わないことで主要被写体が示されるようにする例である。
図15Fは、候補提示KMを破線赤色正方形枠(第1態様)で行い、主要被写体提示MAを図14Cに示した領域提示I(第2態様)で行う。そして主要被写体決定後においては、主要被写体提示MAは図14Fに示した領域提示IV(第3態様)に切り換えて行い、非選択候補提示KMsは破線グレー正方形枠(第4態様)で行う例である。
図15Gは、候補提示KMを正方形枠(第1態様)で行い、主要被写体提示MAを星マークポインタの点滅(第2態様)で行う。そして主要被写体決定後においては、主要被写体提示MAは矢印ポインタ(第3態様)に切り換えて行い、非選択候補提示KMsは行わない例である。
いずれにしても、時間的に見れば、候補画像として候補提示KMが行われた被写体画像いついては、主要被写体と決定された際には、候補提示KMの時とは異なる表示態様で主要被写体提示MAが行われることになる。
また同一時間における画像内で、主要被写体提示MAと非選択候補提示KMsが行われる場合、主要被写体提示MAと非選択候補提示KMsは異なる表示態様で行われる。
以上のような主要被写体提示MA、候補提示KM(KMs)を行うための制御部30(表示制御部1)の具体的な処理例を説明する。
先に図4で述べたようにCPU30は、主要被写体判定処理が開始される際に、ステップF10として主要被写体提示MA、候補提示KM(KMs)を行う表示制御処理を開始する。つまり主要被写体判定処理と並行して表示制御処理が行われる。
また主要被写体提示MA、候補提示KM(KMs)は、枠又はポインタで行われる例とする。
見ることができる。
制御部30は、例えばスルー画を生成するための撮像画像の1フレームがデジタル信号処理部20から転送されてくる毎に、図16の処理を行う。
具体的には、先に図8で説明した、主要被写体設定済みか否かを示す変数TSFと、候補画像枠情報(候補画像の画面内の位置(画素領域、重心位置等))、さらに主要被写体決定がされた場合は主要被写体情報(主要被写体とされた画像の位置(画素領域、重心位置等))を確認する。
まだ主要被写体が決定されておらず、主要被写体判定中であれば制御部30は処理をステップF203に進め、表示制御カウンタCTdsをリセットする。
そして制御部30はステップF204で、上述のX1又はX2の表示データ処理を行う。表示データ処理X1,X2を図17A,図17Bに示す。
そしてステップF226で制御部30は、現撮像画像データフレームに第1態様で候補提示KMを付加する処理を行う。例えばスルー画の候補画像の位置(領域)において第1態様の候補提示KMが実行されるように、枠やポインタ等のキャラクタ重畳の処理を行う。このように候補提示KMを付加した撮像画像データフレームを、スルー画に加工して1フレームの表示データを生成する。
表示制御カウンタCTdsは、主要被写体判定中はステップF203でリセットされるため、この表示制御カウンタCTdsの値は、主要被写体決定時からの経過時間を示すものとなる。
この処理は、現在が、上述した「主要被写体決定時」と「主要被写体決定後」のいずれであるかを判定する処理である。
先に述べたように、主要被写体が決定直後の期間、つまり主要被写体が決定された時点から所定時間thTM内を、「主要被写体決定時」とする。これは、ユーザに対して、決
定された主要被写体を強く提示したい期間である。
そしてステップF232で制御部30は、現撮像画像データフレームに第2態様での主要被写体提示MAを付加する処理を行う。例えば画像内での主要被写体の位置(領域)において第2態様の主要被写体提示MAが実行されるように、枠やポインタ等のキャラクタ重畳の処理を行う。このように主要被写体提示MAを付加した撮像画像データのフレームを、スルー画に加工して1フレームの表示データを生成する。
そしてステップF236で制御部30は、現撮像画像データフレームに第2態様での主要被写体提示MA,及び第1態様もしくはさらに他の態様での非選択候補提示KMsを付加する処理を行う。
例えば画像内での主要被写体の位置(領域)において第2態様の主要被写体提示MAが実行されるように、枠やポインタ等のキャラクタ重畳の処理を行う。さらに他の候補画像の領域には、主要被写体判定中と同様の第1態様、もしくは第1、第2態様とは異なる他の態様で、非選択候補提示KMsとしての枠、ポインタ等のキャラクタ重畳の処理を行う。
このように主要被写体提示MA及び非選択候補提示KMsを付加した撮像画像データのフレームを、スルー画に加工して1フレームの表示データを生成する。
この場合制御部30は「主要被写体決定後」と判定し、ステップF208に進む。そして上述のZ1,Z2,Z3のいずれかの表示データ処理を行う。表示データ処理Z1,Z2,Z3を図19A,図19B,図19Cに示す。
そしてステップF243で制御部30は、現撮像画像データフレームに第2態様又は第3態様での主要被写体提示MAを付加する処理を行う。例えば現在のフレームの画像内で
の主要被写体の位置(領域)において第2態様又は第3態様の主要被写体提示MAが実行されるように、枠やポインタ等のキャラクタ重畳の処理を行う。このように主要被写体提示MAを付加した撮像画像データのフレームを、スルー画に加工して1フレームの表示データを生成する。
そしてステップF246で制御部30は、現撮像画像データフレームに第2態様又は第3態様での主要被写体提示MA,及び第1態様又は第4態様での非選択候補提示KMsを付加する処理を行う。
例えば画像内での主要被写体の位置(領域)において第2態様又は第3態様の主要被写体提示MAが実行されるように、枠やポインタ等のキャラクタ重畳の処理を行う。さらに他の候補画像の領域には、第1態様又は第4態様としての非選択候補提示KMsの枠、ポインタ等のキャラクタ重畳の処理を行う。
このように主要被写体提示MA及び非選択候補提示KMsを付加した撮像画像データのフレームを、スルー画に加工して1フレームの表示データを生成する。
主要被写体提示MA、候補提示KM(KMs)を行うための制御部30の第2の表示制御処理例を説明する。
図20に第2の表示制御処理としてCPU30(表示制御部1)が実行する処理例を示す。この第2の表示制御処理例は、上述の(ex4)又は(ex5)の表示動作を行う場合の処理例である。つまり主要被写体判定中の期間に、まず候補画像が発生したことに応じて候補提示KMを行い(X3−1)、そして主要被写体判定処理の進行に応じて、主要被写体として選ばれそうな候補画像が発生したら、それについて有力候補提示KMvを行う(X3−2)例である。
制御部30は、例えばスルー画を生成するための撮像画像の1フレームがデジタル信号処理部20から転送されてくる毎に、図20の処理を行う。
先に図16で述べたように、主要被写体設定済みか否かを示す変数TSF、候補画像枠情報、主要被写体情報を確認することは同様であるが、この図20の例の場合、カウント値Cnt(n)も確認する。
図8で述べたように、「n」は、自然数1,2,3・・・を表し、カウント値Cnt(n )は、候補画像枠E1,E2,E3のように、検出された候補画像枠E(n)にそれぞれ対応する安定存在度判定のためのカウント値である。例えば3つの候補画像枠E1,E2,E3が検出される場合、カウント値Cnt(n)は、Cnt1、Cnt2、Cnt3のそれぞれを指す。
まだ主要被写体が決定されておらず、主要被写体判定中であれば制御部30は処理をステップF203に進め、表示制御カウンタCTdsをリセットする。
そして制御部30はステップF210として、カウント値Cnt(n)、つまり例えば各候補画像枠E1,E2,E3についてのカウント値Cnt1、Cnt2、Cnt3のそれぞれについて、閾値PrCTth以上となったものがあるか否かを判定する。
閾値PrCTthとは、図8で説明した主要被写体と判定するためのカウント閾値CTthrよりも、わずかに低い値とする。
つまりステップF210の処理は、カウント値Cnt(n)が近々カウント閾値CTthrに達しそうな値になっている候補があるか否か(主要被写体と判定されそうな候補画像があるか否か)を判定する処理である。
制御部30はステップF251で、候補画像枠情報に基づいて、1又は複数の候補提示KMの位置を設定する。
そしてステップF252で制御部30は、現撮像画像データフレームに第1態様で候補提示KMを付加するため、候補画像の位置(領域)に、枠やポインタ等のキャラクタ重畳の処理を行う。このように候補提示KMを付加した撮像画像データフレームを、スルー画に加工して1フレームの表示データを生成する。
以上のようにステップF211の処理を終えたら、制御部30はステップF209に進み、ステップF211で生成した表示データを、表示部34で表示させるスルー画の1フレームとして転送出力する。
制御部30はステップF261で、候補画像枠情報に基づいて、1又は複数の候補提示KMの位置を設定する。
そしてステップF262で制御部30は、Cnt(n)≧PrCTthとなった候補画像枠の位置(領域)について第1、第2態様以外の態様で有力候補提示KMvを付加するように、枠やポインタ等のキャラクタ重畳の処理を行う。さらに他の候補画像の位置(領域)については、第1態様で候補提示KMが実行されるように枠やポインタ等のキャラクタ重畳の処理を行う。
このように候補提示KM、有力候補提示KMvを付加した撮像画像データフレームを、スルー画に加工して1フレームの表示データを生成する。
なお、候補画像枠が1つであって、それが有力候補となる場合は、当然ながら画面上は有力候補提示KMvのみで他の候補提示KMは行われない。
以上のようにステップF212の処理を終えたら、制御部30はステップF209に進み、ステップF212で生成した表示データを、表示部34で表示させるスルー画の1フレームとして転送出力する。
以上、図20、図21で説明した処理によって、上述の(ex4)(ex5)で説明したような表示動作が実現される。
上記の第1,第2の表示制御処理例では、主要被写体提示MAや候補提示KMなどが、枠やポインタ等のキャラクタ重畳で行われる例で述べたが、図14で説明したように、領域提示の手法で主要被写体提示MAや候補提示KMなどが行われても良い。
ここでは被写体マップを用いた領域提示の手法について説明する。
被写体マップ生成部27は、特徴量マップ生成部27a、帯域特徴量マップ生成部27b、帯域特徴量マップ合成部27c、および合成特徴量マップ合成部27dから構成される。
この被写体マップ生成部27には、イメージャ12により時間的に連続して撮像され、前処理部21乃至YC生成部23により処理された複数の入力画像が順次供給される。
帯域特徴量マップ生成部27bは、特徴量マップ生成部27aからの各特徴量マップについて、特徴量マップから特定の帯域成分を抽出して帯域特徴量マップを生成し、帯域特徴量マップ合成部27cに供給する。帯域特徴量マップは、各特徴について、帯域毎に生成される。
帯域特徴量マップ合成部27cは、特徴毎に生成した合成特徴量マップを、合成特徴量マップ合成部27dに供給する。
制御部30はステップF271で被写体抽出マップ生成部27からの被写体マップを取 得する。そして被写体マップから主要被写体の提示領域を設定する。
そして制御部30はステップF272で、現撮像画像データフレームに第2態様での主要被写体提示MAを付加する処理を行う。この場合、被写体マップに基づいて設定した主要被写体の画素領域において、図14で述べた領域提示I〜IVのいずれか(例えば第2態様は領域提示IIであるとする)の処理を施す。そして領域提示IIとして主要被写体提示MAを付加した撮像画像データのフレームを、スルー画に加工して1フレームの表示データを生成する。
なお、表示データ処理Y2としての処理例において、例えば主要被写体提示MA又は非選択候補提示KMsについて、領域提示I〜IVの手法を用いても良い。
制御部30はステップF281で被写体抽出マップ生成部27からの被写体マップを取得する。そして被写体マップから主要被写体の提示領域を設定する。
そして制御部30はステップF282で、現撮像画像データフレームに第3態様での主要被写体提示MAを付加する処理を行う。この場合、被写体マップに基づいて設定した主要被写体の画素領域において、例えば第3態様としての領域提示IIIの処理を施す。そして領域提示IIIとして主要被写体提示MAを付加した撮像画像データのフレームを、スルー画に加工して1フレームの表示データを生成する。
なお、表示データ処理Z3としての処理例において、例えば主要被写体提示MA又は非選択候補提示KMsについて、領域提示I〜IVの手法を用いても良い。
さらに主要被写体判定中における表示データ処理X2,X3としての処理例においても、候補提示KMについて領域提示I〜IVの手法を用いても良い。
以上、表示制御部1(表示制御装置)、撮像装置10の実施の形態を説明してきたが、上述した表示制御処理や主要被写体判定処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。
即ちこのプログラムは、候補画像情報に基づく候補提示と、主要被写体情報に基づく主要被写体提示とが、異なる表示態様となるように、主要被写体判定処理の対象の画像データについて行う表示用の画像データ処理を演算処理装置に実行させる。
また表示画像データ処理で得られた画像データを、表示部に供給する表示データとして出力する処理を演算処理装置に実行させる。
このようなプログラムにより、上述した表示制御処理を実行する装置を、演算処理装置を用いて実現できる。
あるいはまた、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD(Digital
Versatile Disc)、ブルーレイディスク、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
例えば、図24に示されるようなコンピュータ装置において、図1の表示制御装置1や撮像装置10における表示制御処理と同様の処理が実行されるようにすることもできる。
CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インターフェース75も接続されている。
上述の実施の形態は、各種の変形例が考えられる。
実施の形態では、例えば静止画撮像動作の場合を想定して、撮像画像について主要被写体判定が行われ、その際の表示動作について述べたが、例えば再生画像に対して主要被写体判定処理が行われることも考えられる。従って候補提示KMや主要被写体提示MAを行う表示制御処理は、画像データ再生時にも適用できる。
また同様に、動画撮像記録のスタンバイ中や動画撮像記録中において、主要被写体判定処理が行われ、それに伴って上述の表示制御処理が行われることも当然考えられる。
さらに主要被写体情報は、画像効果処理や画像編集処理にも利用できると述べたが、画像編集等の実行中に、上述の表示制御処理が行われることで、編集実行者等にわかりやすい表示を実現できる。
いずれにしても、時間的又は画像空間的に、主要被写体提示MAと候補提示KMが異なる態様で行われれば良い。
また第1態様による候補提示、第2態様による主要被写体提示、有力候補提示のそれぞれは、異なる表示でも、一部が同じ表示でもよい。
(1)少なくとも主要被写体判定処理で主要被写体の候補とされた候補画像についての候補画像情報に基づく候補提示と、上記主要被写体判定処理の判定結果の主要被写体情報に基づく主要被写体提示とが、異なる表示態様となるように、上記主要被写体判定処理の対象の画像データについての表示用の画像データ処理である表示画像データ処理を行う表示画像処理部と、
上記表示画像処理部で処理された画像データを、表示部に供給する表示データとして出力する表示データ出力部と、
を備えた表示制御装置。
(2)上記表示画像処理部は、
上記主要被写体判定処理が開始されてから主要被写体が決定されるまでの主要被写体判定中は、上記候補画像を提示する第1態様による上記候補提示が行われ、上記主要被写体判定処理で主要被写体が判定された際には上記主要被写体を提示する第2態様による上記主要被写体提示が行われるように、上記表示画像データ処理を行う上記(1)に記載の表示制御装置。
(3)上記表示画像処理部は、
上記主要被写体判定処理で主要被写体が判定された際には、上記第2態様による上記主要被写体提示に加えて、上記主要被写体と判定されなかった候補画像についての上記第2態様以外による上記候補提示が行われるように、上記表示画像データ処理を行う上記(2)に記載の表示制御装置。
(4)上記表示画像処理部は、
上記主要被写体判定処理で主要被写体が判定された際に、主要被写体とは判定されなか った候補画像を提示する第1態様による上記候補提示が行われるとともに、主要被写体を提示する第2態様による上記主要被写体提示が行われるように、上記表示画像データ処理を行う上記(1)に記載の表示制御装置。
(5)上記表示画像処理部は、
上記主要被写体判定処理で主要被写体が判定された際に、主要被写体を提示する上記主要被写体提示が行われた後、上記主要被写体提示が異なる態様に変化するように、上記表示画像データ処理を行う上記(1)乃至(4)のいずれかに記載の表示制御装置。
(6)上記表示画像処理部は、
上記主要被写体判定処理による主要被写体決定後に、上記主要被写体と判定されなかった候補画像について、上記主要被写体提示とは異なる態様による上記候補提示が行われるように、上記表示画像データ処理を行う上記(1)乃至(5)のいずれかに記載の表示制御装置。
(7)上記表示画像処理部は、
上記主要被写体判定処理が開始されてから主要被写体が決定されるまでの主要被写体判定中は、第1態様による上記候補提示が行われ、さらに、候補画像のうちで主要被写体と判定される可能性が高いと判断された候補画像を提示する有力候補提示が、上記第1態様とは異なる態様で行われるように、上記表示画像データ処理を行う上記(1)乃至(6)のいずれかに記載の表示制御装置。
(8)上記表示画像処理部は、
上記主要被写体提示、又は上記候補提示の少なくとも一方が、フレーム内の該当部分を示す表示により実行されるように、上記表示画像データ処理を行う上記(1)乃至(7)のいずれかに記載の表示制御装置。
(9)上記表示画像処理部は、
上記主要被写体提示、又は上記候補提示画像内の少なくとも一方が、画像内の主要被写体又は候補画像に該当する領域と他の領域とで、異なる画像処理を施すことで実行されるように、上記表示画像データ処理を行う上記(1)乃至(8)のいずれかに記載の表示制御装置。
(10)上記表示画像処理部は、外部の画像処理装置から、上記候補画像情報と上記主要被写体情報とを取得する上記(1)乃至(9)のいずれかに記載の表示制御装置。
(11)画像データの複数のフレームについて、それぞれ主要被写体の候補となる候補画像を検出し、検出した候補画像のうちで主要被写体を判定する主要被写体判定部をさらに備え、
上記表示画像処理部は、上記主要被写体判定部から、上記候補画像情報と上記主要被写体情報とを取得する上記(1)乃至(9)のいずれかに記載の表示制御装置。
(12)上記主要被写体判定部は、検出した候補画像について、複数フレームにわたる画像データ内での安定存在度を求め、該安定存在度を用いて、候補画像のうちで主要被写体を判定する上記(11)に記載の表示制御装置。
前処理部、22 同時化部、23 YC生成部、24 解像度変換部、25 コーデック部、26 候補検出部、27 被写体抽出マップ生成部、30 制御部、34 表示部、35 操作部、70 コンピュータ装置、71 CPU
Claims (14)
- 主要被写体自動判定処理中に主要被写体の候補とされる被写体を示す候補被写体提示と、上記主要被写体の自動決定時に自動決定された主要被写体を示す主要被写体提示と、上記主要被写体の自動決定後に上記主要被写体を示す主要被写体決定後の提示とが、異なる表示態様となるように、上記主要被写体自動判定処理の対象の画像データについての表示用の画像データ処理を行う表示画像処理部と、
上記表示画像処理部で処理された画像データを、表示部に供給する表示データとして出力する表示データ出力部と、
を備えた表示制御装置。 - 上記表示画像処理部は、
上記主要被写体自動判定処理が開始されてから主要被写体が決定されるまでの主要被写体判定中は、第1態様による上記候補被写体提示が行われ、上記主要被写体自動判定処理で主要被写体が判定された際には、第2態様による上記主要被写体提示が行われるように、上記画像データ処理を行う請求項1に記載の表示制御装置。 - 上記表示画像処理部は、
上記主要被写体自動判定処理で主要被写体が判定された際には、上記第2態様による上記主要被写体提示に加えて、上記主要被写体と判定されなかった候補被写体についての上記第2態様以外による上記候補被写体提示が行われるように、上記画像データ処理を行う請求項2に記載の表示制御装置。 - 上記表示画像処理部は、
上記主要被写体自動判定処理で主要被写体が判定された際に、主要被写体とは判定されなかった候補被写体を提示する第1態様による上記候補被写体提示が行われるとともに、主要被写体を提示する第2態様による上記主要被写体提示が行われるように、上記画像データ処理を行う請求項1に記載の表示制御装置。 - 上記表示画像処理部は、
上記主要被写体自動判定処理で主要被写体が判定された際に、主要被写体を提示する上記主要被写体提示が行われた後、上記主要被写体提示が異なる態様に変化するように、上記画像データ処理を行う請求項1に記載の表示制御装置。 - 上記表示画像処理部は、
上記主要被写体自動判定処理による主要被写体決定後に、上記主要被写体と判定されなかった候補被写体について、上記主要被写体提示とは異なる態様による上記候補被写体提示が行われるように、上記画像データ処理を行う請求項1に記載の表示制御装置。 - 上記表示画像処理部は、
上記主要被写体自動判定処理が開始されてから主要被写体が決定されるまでの主要被写体判定中は、第1態様による上記候補被写体提示が行われ、さらに、候補被写体のうちで主要被写体と判定される可能性が高いと判断された候補被写体を提示する有力候補提示が、上記第1態様とは異なる態様で行われるように、上記画像データ処理を行う請求項1に記載の表示制御装置。 - 上記表示画像処理部は、
上記主要被写体提示、又は上記候補被写体提示の少なくとも一方が、フレーム内の該当部分を示す表示により実行されるように、上記画像データ処理を行う請求項1に記載の表示
制御装置。 - 上記表示画像処理部は、
上記主要被写体提示、又は上記候補被写体提示画像内の少なくとも一方が、画像内の主要被写体又は候補被写体に該当する領域と他の領域とで、異なる画像処理を施すことで実行されるように、上記画像データ処理を行う請求項1に記載の表示制御装置。 - 上記表示画像処理部は、外部の画像処理装置から、上記候補被写体についての候補被写体情報と上記主要被写体自動判定処理の判定結果の主要被写体情報とを取得する請求項1に記載の表示制御装置。
- 画像データの複数のフレームについて、それぞれ主要被写体の候補となる候補被写体を検出し、検出した候補被写体のうちで主要被写体を判定する主要被写体判定部をさらに備え、
上記表示画像処理部は、上記主要被写体判定部から、上記候補被写体についての候補被写体情報と上記主要被写体自動判定処理の判定結果の主要被写体情報とを取得する請求項1に記載の表示制御装置。 - 上記主要被写体判定部は、検出した候補被写体について、複数フレームにわたる画像データ内での安定存在度を求め、該安定存在度を用いて、候補被写体のうちで主要被写体を判定する請求項11に記載の表示制御装置。
- 主要被写体自動判定処理中に主要被写体の候補とされる被写体を示す候補被写体についての候補被写体情報と、上記主要被写体自動判定処理の判定結果の主要被写体情報とを取得し、
上記候補被写体情報に基づく候補被写体提示と、上記主要被写体情報に基づく主要被写体提示と、上記主要被写体の自動決定後に上記主要被写体を示す主要被写体決定後の提示とが、異なる表示態様となるように、上記主要被写体自動判定処理の対象の画像データについての表示用の画像データ処理を行い、
上記表示用の画像データ処理で得られた画像データを、表示部に供給する表示データとして出力する表示制御方法。 - 主要被写体自動判定処理中に主要被写体の候補とされる被写体を示す候補被写体提示と、上記主要被写体の自動決定時に自動決定された主要被写体を示す主要被写体提示と、上記主要被写体の自動決定後に上記主要被写体を示す主要被写体決定後の提示とが、異なる表示態様となるように、主要被写体自動判定処理の対象の画像データについて行う表示用の画像データ処理と、
上記表示用の画像データ処理で得られた画像データを、表示部に供給する表示データとして出力する処理と、
を演算処理装置に実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014510076A JP6131948B2 (ja) | 2012-04-09 | 2013-03-07 | 表示制御装置、表示制御方法、プログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012088246 | 2012-04-09 | ||
JP2012088246 | 2012-04-09 | ||
PCT/JP2013/056281 WO2013153883A1 (ja) | 2012-04-09 | 2013-03-07 | 表示制御装置、表示制御方法、プログラム |
JP2014510076A JP6131948B2 (ja) | 2012-04-09 | 2013-03-07 | 表示制御装置、表示制御方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2013153883A1 JPWO2013153883A1 (ja) | 2015-12-17 |
JP6131948B2 true JP6131948B2 (ja) | 2017-05-24 |
Family
ID=49327460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014510076A Active JP6131948B2 (ja) | 2012-04-09 | 2013-03-07 | 表示制御装置、表示制御方法、プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9712750B2 (ja) |
EP (1) | EP2838253A4 (ja) |
JP (1) | JP6131948B2 (ja) |
CN (1) | CN104205798B (ja) |
WO (1) | WO2013153883A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5987306B2 (ja) | 2011-12-06 | 2016-09-07 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
KR102146858B1 (ko) * | 2014-06-03 | 2020-08-21 | 삼성전자주식회사 | 촬영 장치 및 촬영 장치의 비디오 생성방법 |
CN105227928A (zh) * | 2015-10-15 | 2016-01-06 | 上海交通大学 | 一种基于视频传感器网络的动态目标监测系统 |
FR3047597B1 (fr) * | 2016-01-04 | 2018-01-19 | Laoviland Experience | Procede de traitement graphique d'images |
JP6598748B2 (ja) * | 2016-08-26 | 2019-10-30 | 任天堂株式会社 | 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法 |
JP2020511723A (ja) * | 2017-03-17 | 2020-04-16 | ニューララ インコーポレイテッド | 深層ニューラルネットワークおよびニューラルネットワークアプリケーション向けのデータストリームのタグ付けおよびラベル付けのためのオンラインでのインクリメンタルリアルタイム学習 |
WO2018208939A1 (en) | 2017-05-09 | 2018-11-15 | Neurala, Inc. | Systems and methods to enable continual, memory-bounded learning in artificial intelligence and deep learning continuously operating applications across networked compute edges |
CN109002336B (zh) * | 2017-06-06 | 2021-10-22 | 许继电气股份有限公司 | 一种充电桩远程监控导航视窗的生成方法和装置 |
EP3503527A1 (en) | 2017-12-20 | 2019-06-26 | Nokia Technologies Oy | Multi-camera device |
JP7113364B2 (ja) * | 2018-10-18 | 2022-08-05 | パナソニックIpマネジメント株式会社 | 撮像装置 |
JP2020136899A (ja) * | 2019-02-19 | 2020-08-31 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置、電子機器、および撮像方法 |
KR20210101697A (ko) * | 2020-02-10 | 2021-08-19 | 삼성전자주식회사 | 복수의 콘텐츠를 생성하는 방법 및 그 전자 장치 |
CN111866373B (zh) * | 2020-06-19 | 2021-12-28 | 北京小米移动软件有限公司 | 一种显示拍摄预览图像的方法、装置及介质 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005080195A (ja) * | 2003-09-03 | 2005-03-24 | Fuji Photo Film Co Ltd | カメラ |
JP4324170B2 (ja) * | 2005-03-17 | 2009-09-02 | キヤノン株式会社 | 撮像装置およびディスプレイの制御方法 |
US8306280B2 (en) * | 2006-04-11 | 2012-11-06 | Nikon Corporation | Electronic camera and image processing apparatus |
JP5324041B2 (ja) * | 2006-11-09 | 2013-10-23 | 株式会社日立メディコ | 超音波診断装置 |
JP4264663B2 (ja) * | 2006-11-21 | 2009-05-20 | ソニー株式会社 | 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム |
JP4453721B2 (ja) * | 2007-06-13 | 2010-04-21 | ソニー株式会社 | 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム |
JP4953971B2 (ja) * | 2007-08-03 | 2012-06-13 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法、および、これを実行させるためのプログラム |
JP2009118009A (ja) * | 2007-11-02 | 2009-05-28 | Sony Corp | 撮像装置、その制御方法およびプログラム |
JP5116514B2 (ja) * | 2008-03-11 | 2013-01-09 | キヤノン株式会社 | 撮像装置および表示制御方法 |
JP2010021943A (ja) | 2008-07-14 | 2010-01-28 | Sanyo Electric Co Ltd | 撮像装置 |
JP5127686B2 (ja) * | 2008-12-11 | 2013-01-23 | キヤノン株式会社 | 画像処理装置および画像処理方法、ならびに、撮像装置 |
JP5223663B2 (ja) * | 2008-12-25 | 2013-06-26 | 株式会社ニコン | 撮像装置 |
JP5249146B2 (ja) * | 2009-07-03 | 2013-07-31 | 富士フイルム株式会社 | 撮影制御装置および方法並びにプログラム |
JP2011055272A (ja) * | 2009-09-02 | 2011-03-17 | Canon Inc | 撮像装置及び撮像方法 |
JP2011146827A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011146826A (ja) | 2010-01-13 | 2011-07-28 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011160379A (ja) | 2010-02-04 | 2011-08-18 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2011166305A (ja) | 2010-02-05 | 2011-08-25 | Sony Corp | 画像処理装置および撮像装置 |
JP5246275B2 (ja) * | 2011-01-25 | 2013-07-24 | 株式会社ニコン | 撮像装置およびプログラム |
JP2013012993A (ja) * | 2011-06-30 | 2013-01-17 | Nikon Corp | 画像処理装置、撮像装置および画像処理プログラム |
-
2013
- 2013-03-07 JP JP2014510076A patent/JP6131948B2/ja active Active
- 2013-03-07 WO PCT/JP2013/056281 patent/WO2013153883A1/ja active Application Filing
- 2013-03-07 US US14/380,222 patent/US9712750B2/en active Active
- 2013-03-07 EP EP13775056.8A patent/EP2838253A4/en not_active Withdrawn
- 2013-03-07 CN CN201380018303.XA patent/CN104205798B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
EP2838253A4 (en) | 2015-10-07 |
US9712750B2 (en) | 2017-07-18 |
CN104205798A (zh) | 2014-12-10 |
JPWO2013153883A1 (ja) | 2015-12-17 |
EP2838253A1 (en) | 2015-02-18 |
US20150070526A1 (en) | 2015-03-12 |
WO2013153883A1 (ja) | 2013-10-17 |
CN104205798B (zh) | 2017-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6131948B2 (ja) | 表示制御装置、表示制御方法、プログラム | |
JP6319101B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP5987306B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
US10848662B2 (en) | Image processing device and associated methodology for determining a main subject in an image | |
JP5867424B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
US10455154B2 (en) | Image processing device, image processing method, and program including stable image estimation and main subject determination | |
JP2013034081A (ja) | 画像処理装置、その制御方法およびプログラム | |
JP6337779B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
US20120194709A1 (en) | Image pickup apparatus | |
JP6261205B2 (ja) | 画像処理装置 | |
JP6274272B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JPWO2017213244A1 (ja) | 画像処理装置、画像処理プログラム、および記録媒体 | |
JP2019041188A (ja) | 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170321 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170403 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6131948 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |