JP2016158241A - 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体 - Google Patents

撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP2016158241A
JP2016158241A JP2016024041A JP2016024041A JP2016158241A JP 2016158241 A JP2016158241 A JP 2016158241A JP 2016024041 A JP2016024041 A JP 2016024041A JP 2016024041 A JP2016024041 A JP 2016024041A JP 2016158241 A JP2016158241 A JP 2016158241A
Authority
JP
Japan
Prior art keywords
main subject
image data
face
detected
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016024041A
Other languages
English (en)
Other versions
JP6091669B2 (ja
Inventor
貴文 熊野
Takafumi Kumano
貴文 熊野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JP2016158241A publication Critical patent/JP2016158241A/ja
Application granted granted Critical
Publication of JP6091669B2 publication Critical patent/JP6091669B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/287Systems for automatic generation of focusing signals including a sight line detecting device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Abstract

【課題】動画撮影中の被写体の動きや興味の対象をも考慮して構図を提示する
【解決手段】撮像部104は、撮像により画像データを取得し、顔検出部1201は、顔部を検出し、動き検出部1203は、顔部の動きを検出する。切り出し位置設定部1206は、顔部の動きが遅いことが検出され、かつ、顔部が画面中央以外の所定の位置に存在することが検出された場合に、顔部の移動方向と同方向側に空間の存在する構図となる第1の切り出し範囲を設定し、切り出し位置設定部1206は、顔部の動きが速いことが検出された又は顔部が画面中央の位置に存在することが検出された場合に、顔部の動きに追従する第2の切り出し範囲を設定し、顔部の動きが遅く、かつ、顔部が画像データにおける所定の位置と画面中央の位置の何れにも存在しないことが検出された場合に、顔部の移動方向に沿って所定量ずつずらしてなる第3の切り出し範囲を設定する。
【選択図】図1

Description

本発明は、撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体に関する。
近年、撮影時の構図の設定をアシストする機能を有する撮像装置に関する提案がなされている。例えば、特許文献1において提案されている撮像装置は、ライブビュー表示部に表示されている画像の少なくとも一部をサンプル画像として取得し、取得したサンプル画像の構図を評価し、高い評価が与えられた構図を持つサンプル画像を、ライブビュー表示部に表示されている画像に重ねて提示するようにしている。
特開2011−135527号公報
特に、動画の撮影時においては被写体の動きや興味の対象も考慮して構図が設定されることが望ましい。例えば、被写体の動きの方向に特定の対象物が存在している場合、被写体の位置だけでなく対象物の位置をも考慮して構図を設定するようなアシストがされると、ユーザは、より魅力のある動画を簡単に撮影することが可能となる。しかしながら、特許文献1は、被写体の動きの方向にある対象物をも考慮して構図を提示することについて考慮していない。
本発明は、前記の事情に鑑みてなされたもので、動画撮影中の被写体の動きや興味の対象をも考慮して構図を提示できる撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体を提供することを目的とする。
前記の目的を達成するために、本発明の第1の態様の撮像装置は、撮像により画像データを取得する撮像部と、前記画像データにおける主要被写体の位置を検出する主要被写体検出部と、前記主要被写体の動きを検出する動き検出部と、前記主要被写体検出部で検出された前記主要被写体の位置及び前記動き検出部で検出された前記主要被写体の動きをもとに、前記画像データの切り出し範囲を設定する切り出し位置設定部とを具備し、前記切り出し範囲設定部は、前記主要被写体が所定の動きよりも遅いことが検出され、かつ、前記主要被写体が前記画像データにおける画面中央以外の所定の位置に存在することが検出された場合に、前記主要被写体の移動方向と同方向側に空間の存在する構図となる第1の切り出し範囲を前記切り出し範囲として設定し、前記主要被写体が前記所定の動きよりも速いことが検出された、又は、前記主要被写体が前記画像データにおける画面中央の位置に存在することが検出された場合に、前記主要被写体の動きに追従する第2の切り出し範囲を前記切り出し範囲として設定し、前記主要被写体が所定の動きよりも遅いことが検出され、かつ、前記主要被写体が前記画像データにおける前記所定の位置と前記画面中央の位置の何れにも存在しないことが検出された場合に、前記主要被写体の移動方向に沿って所定量ずつずらしてなる第3の切り出し範囲を前記切り出し範囲として設定する。
前記の目的を達成するために、本発明の第2の態様の撮像アシスト方法は、撮像により画像データを取得することと、前記画像データにおける主要被写体の位置を検出することと、前記主要被写体の動きを検出することと、前記主要被写体が所定の動きよりも遅いことが検出され、かつ、前記主要被写体が前記画像データにおける画面中央以外の所定の位置に存在することが検出された場合に、前記主要被写体の移動方向と同方向側に空間の存在する構図となる第1の切り出し範囲を設定することと、前記主要被写体が前記所定の動きよりも速いことが検出された、又は、前記主要被写体が前記画像データにおける画面中央の位置に存在することが検出された場合に、前記主要被写体の動きに追従する第2の切り出し範囲を設定することと、前記主要被写体が所定の動きよりも遅いことが検出され、かつ、前記主要被写体が前記画像データにおける前記所定の位置と前記画面中央の位置の何れにも存在しないことが検出された場合に、前記主要被写体の移動方向に沿って所定量ずつずらしてなる第3の切り出し範囲を設定することとを具備する。
前記の目的を達成するために、本発明の第3の態様の撮像アシストプログラムを記録した記録媒体は、撮像により画像データを取得することと、前記画像データにおける主要被写体の位置を検出することと、前記主要被写体の動きを検出することと、前記主要被写体が所定の動きよりも遅いことが検出され、かつ、前記主要被写体が前記画像データにおける画面中央以外の所定の位置に存在することが検出された場合に、前記主要被写体の移動方向と同方向側に空間の存在する構図となる第1の切り出し範囲を設定することと、前記主要被写体が前記所定の動きよりも速いことが検出された、又は、前記主要被写体が前記画像データにおける画面中央の位置に存在することが検出された場合に、前記主要被写体の動きに追従する第2の切り出し範囲を設定することと、前記主要被写体が所定の動きよりも遅いことが検出され、かつ、前記主要被写体が前記画像データにおける前記所定の位置と前記画面中央の位置の何れにも存在しないことが検出された場合に、前記主要被写体の移動方向に沿って所定量ずつずらしてなる第3の切り出し範囲を設定することとをコンピュータに実行させる。
本発明によれば、動画撮影中の被写体の動きや興味の対象も考慮して構図を提示できる撮像装置及び撮像アシスト方法を提供することができる。
図1は、本発明の各実施形態に係る撮像装置の一例としての構成を示すブロック図である。 図2は、本発明の第1の実施形態に係る撮像装置の撮影動作時の処理を示すフローチャートである。 図3は、切り出し位置設定部による構図設定の第1の例を示す図である。 図4aは、図2のステップS108の処理を説明するためのフローチャートの第1図である。 図4bは、図2のステップS108の処理を説明するためのフローチャートの第2図である。 図5は、切り出し位置設定部による構図設定の第2の例を示す図である。 図6は、図2のステップS109の処理を説明するためのフローチャートである。 図7は、指差し方向から対象物を検出する処理を説明するための図である。 図8は、切り出し位置設定部による構図設定の第3の例を示す図である。 図9Aは、本発明の第2の実施形態で用いられる撮像光学系によって得られる画像の例を説明するための第1の図である。 図9Bは、本発明の第2の実施形態で用いられる撮像光学系によって得られる画像の例を説明するための第2の図である。 図10は、本発明の第2の実施形態に係る撮像装置の撮影動作時の処理を示すフローチャートである。 図11は、トリミング1、トリミング2、トリミング3の実行タイミングを示した図である。 図12Aは、トリミング1について説明するための第1の図である。 図12Bは、トリミング1について説明するための第2の図である。 図13Aは、トリミング2について説明するための第1の図である。 図13Bは、トリミング2について説明するための第2の図である。 図13Cは、トリミング2について説明するための第3の図である。 図14は、トリミング3について説明するための図である。
以下、図面を参照して本発明の実施形態を説明する。
[第1の実施形態]
まず、本発明の第1の実施形態について説明する。図1は、本発明の各実施形態に係る撮像装置の一例としての構成を示すブロック図である。図1に示す撮像装置100は、例えばデジタルカメラ、カメラ機能付き携帯電話機、スマートフォンといった各種の携帯端末機器に対して適用され得る。図1に示す撮像装置100は、撮像光学系102と、撮像部104と、表示部106と、タッチパネル108と、記録部110と、音声取得部112と、姿勢検出部114と、操作部116と、通信部118と、制御部120とを有している。
撮像光学系102は、絞りやレンズ等を有し、図示しない被写体からの光束を撮像部104に入射させるための光学系である。撮像光学系102は、フォーカスレンズを含んでいてもよく、また、ズームレンズとして構成されていても良い。
撮像部104は、被写体を撮像し、被写体に係る画像データを取得する。この撮像部104は、撮像素子と、撮像処理回路と、A/D変換回路とを有している。撮像素子は、撮像光学系102を介して受光した光を、その光量に応じた電気信号(画像信号)に変換する。撮像処理回路は、撮像素子で得られた画像信号に対してゲイン調整等の種々のアナログ処理を施す。A/D変換回路は、撮像処理回路でアナログ処理された画像信号をデジタル信号としての画像データに変換する。
表示部106は、例えば液晶ディスプレイや有機ELディスプレイであり、撮像部104で取得された画像データに基づく画像等の各種の画像を表示する。タッチパネル108は、表示部106の表示画面の上に形成されており、表示部106の表示画面におけるユーザの指等の接触を検出する。タッチパネル108によって検出された接触位置の情報は、制御部120に入力される。制御部120は、タッチパネル108によって検出された接触位置に応じた制御を行う。
記録部110は、例えばフラッシュメモリであり、各種のデータを記録するための記録媒体である。記録部110には、例えば撮影動作の結果として得られる画像ファイルが記録される。また、記録部110には、撮像装置100の制御に用いられるプログラムが記録される。さらに、記録部110には、被写体データベース(DB)のための記録領域及び音声データベース(DB)のための記録領域が形成されている。被写体DBは、画像データ内の被写体を識別するためのデータが記録されたデータベースである。ここで、被写体を識別するためのデータとは、被写体の顔部のデータや被写体の指部のデータである。また、音声DBは、音声取得部112を介して入力される音声を識別するためのデータが記録されたデータベースである。ここで、音声を識別するためのデータとは、ユーザ毎の音声データである。
音声取得部112は、ユーザから入力された音声に基づく音声データを取得する。音声取得部112は、マイクロフォン(マイク)と、音声処理回路と、A/D変換回路とを有している。マイクは、ユーザから入力される音声を電気信号(音声信号)として取り込む。音声処理回路は、マイクで得られた音声信号に対してゲイン調整等の種々のアナログ処理を施す。A/D変換回路は、音声処理回路でアナログ処理された音声信号をデジタル信号としての音声データに変換する。
姿勢検出部114は、被写体DBに記録された被写体を識別するためのデータに従って被写体の姿勢を検出する。そして、姿勢検出部114は、画像データ内で識別された被写体が特定の姿勢をとっているときには、その旨を制御部120に通知する。
操作部116は、ユーザが撮像装置100の操作をするための操作部材である。操作部116は、電源スイッチ、レリーズボタン等を操作部材として有している。電源スイッチは、撮像装置100の電源のオン/オフの指示を与えるための操作部材である。レリーズボタンは、撮影開始の指示を与えるための操作部材である。
通信部118は、例えば無線インターフェースであり、3G通信等の無線通信の際の撮像装置100と外部機器との間のデータ通信を仲介する。
制御部120は、撮像装置100の動作を統括的に制御する。制御部120は、顔検出部1201と、対象物検出部1202と、動き検出部1203と、音声認識部1204と、別被写体判定部1205と、切り出し位置設定部1206と、画像処理部1207とを有している。顔検出部1201は、記録部110の被写体DBの情報を用いて、画像データにおける主要被写体としての被写体の顔部を検出する。対象物検出部1202は、記録部110の被写体DBの情報を用いて被写体の目等の顔の器官及び指部といった、画像データにおける被写体が注目していると考えられる方向を特定するための対象物を検出する。動き検出部1203は、例えば複数フレームの画像データから単位時間当たりの被写体(例えば顔部)の動き(移動速度)を検出する。音声認識部1204は、記録部110の音声DBの情報を用いて、音声取得部112で取得された音声データの内容を認識する。別被写体判定部1205は、顔検出部1201、対象物検出部1202、動き検出部1203、音声認識部1204のそれぞれの結果を用いて、被写体が画像データ内で注目していると考えられる方向に存在する被写体の有無を判定する。切り出し位置設定部1206は、顔検出部1201、対象物検出部1202、動き検出部1203、音声認識部1204、別被写体判定部1205のそれぞれの結果に従って、撮像部104で取得された画像データにおける切り出し位置を設定する。画像処理部1207は、撮像部104で取得された画像データに対して種々の画像処理を施す。この画像処理は、ホワイトバランス補正、階調補正、色補正といった、画像データを表示又は記録可能とするために必要な画像処理を含む。また、本実施形態においては、画像処理は、画像データの切り出し(トリミング)処理及び切り出した画像データの拡大処理も含む。
次に、第1の実施形態に係る撮像装置100の動作を説明する。本実施形態においては、ユーザが所望の被写体を指差しした場合に、その指差し方向に存在する被写体が画面内の特定の位置に配置されるように撮影時の構図が自動的に設定される。以下、このような構図設定の処理を含む撮像装置100の撮影動作時の処理を説明する。図2は、第1の実施形態に係る撮像装置100の撮影動作時の処理を示すフローチャートである。図2の処理は、主に制御部120によって制御される。また、図2は、動画撮影時の動作が例示されているが、静止画撮影時であっても本実施形態の技術は適用され得る。
例えば、撮像装置100の電源がオンされ、撮影モードが動画撮影モードに設定されたときに図2の処理が開始される。このとき、制御部120は、スルー画表示を開始させる(ステップS101)。スルー画表示において、制御部120は、撮像部104を連続動作させる。そして、制御部120は、撮像部104の連続動作によって得られる画像データに対し、画像処理部1207により表示用の画像処理を施す。その後、制御部120は、画像処理された画像データに基づいて表示部106にスルー画を表示させる。このスルー画により、ユーザは表示部106に表示された画像によって構図の確認等を行うことができる。
スルー画表示の開始後、制御部120は、顔検出部1201により、撮像部104によって得られた画像データにおける顔部を検出する。また、制御部120は、対象物検出部1202により、撮像部104によって得られた画像データにおける顔部の各顔器官を検出する(ステップS102)。画像データ中の顔部は、例えば撮像部104によって得られた画像データと被写体DBに記憶されている顔パターンの画像データとのマッチングをとることによって検出される。また、顔器官も同様にパターンマッチング等の周知の手法で検出される。ここで、本実施形態においては、顔器官の検出として、少なくとも目部の検出が行われる。
続いて、制御部120は、対象物検出部1202により、撮像部104によって得られた画像データにおける指先部を検出する(ステップS103)。画像データ中の指先部も、例えば撮像部104によって得られた画像データと被写体DBに記憶されている顔パターンの画像データとのマッチングをとることによって検出される。
続いて、制御部120の別被写体判定部1205は、視線方向を検出できたか否かを判定する(ステップS104)。視線方向は、例えば瞳孔の移動を検出することで判定することができる。すなわち、画像データにおいて瞳孔中心の移動が検出された場合、その瞳孔中心の移動方向を視線方向とすることができる。
ステップS104において視線方向が検出できない(顔部が検出できなかった場合も含む)と判定された場合に、切り出し位置設定部1206は、主要被写体が画面中心に配置されるようにトリミング範囲を決定する。その後、画像処理部1207は、決定したトリミング範囲に従って画像データのトリミングを行う(ステップS105)。ここで、主要被写体は、例えば画面中央の被写体、最至近の被写体、人物等である。また、画角が狭い等の理由で主要被写体を画面中心に配置できない場合には、撮像光学系102の焦点距離を短くして画角を広げるようにしてもよい。このように、視線方向が検出できなかった場合には、主要被写体を基準に構図が設定される。なお、主要被写体が画面中心に配置できない場合にはトリミングを行わないようにしてもよい。
ステップS104において視線方向が検出できたと判定した場合に、別被写体判定部1205は、指差し方向を検出できたか否かを判定する(ステップS106)。ステップS106において指差し方向を検出できていないと判定した場合に、別被写体判定部1205は、画像データから複数の顔部が検出されたか否かを判定する(ステップS107)。ステップS107において画像データから複数の顔部が検出されていないと判定された場合に、切り出し位置設定部1206は、図3に示すように、視線方向と同方向側に空間があり、かつ、主要被写体の顔部が視線方向と逆方向側の黄金分割点に配置されるようにトリミング範囲を決定する。その後、画像処理部1207は、決定したトリミング範囲に従って画像データのトリミングを行う(ステップS108)。ここで、黄金分割点とは、画面内に引かれた対角線と、対角線に含まれる頂点とは別の頂点から引かれた垂線との交点(図3のP1、P2、P3、P4の4点)である。以下、図4a及び図4bを参照してステップS108の処理の詳細を説明する。ここで、図4a及び図4bの処理を説明するに当たり、視線方向を次のように定義する。本実施形態における視線方向は、例えば、画面上方向に対してなす角度として表される。なお、反時計方向が視線方向の正方向である。
図4a及び図4bにおいて、切り出し位置設定部1206は、視線方向が右上方向であるか否かを判定する(ステップS201)。ここで、右上方向は、例えば0°から74°の範囲であるとする。ステップS201において視線方向が右上方向であると判定した場合に、切り出し位置設定部1206は、画面左下の黄金分割点(図3のP3)に主要被写体の顔部(顔部以外であってもよい)が配置されるようにトリミング範囲を設定する(ステップS202)。その後、切り出し位置設定部1206は、被写体の全身が画面内に収まるように最終的なトリミング範囲を設定する(ステップS203)。視線方向が右上方向であるということは、主要被写体が画面右上方向に注目していることを意味している。したがって、主要被写体を画面左下に配置して画面右上方向に空間を持たせるように構図を設定することにより、主要被写体の注目している方向をも強調した動画撮影が可能である。
ステップS201において視線方向が右上方向でないと判定した場合に、切り出し位置設定部1206は、視線方向が右方向であるか否かを判定する(ステップS204)。ここで、右方向は、例えば75°から104°の範囲であるとする。ステップS204において視線方向が右方向であると判定した場合に、切り出し位置設定部1206は、画面左上の黄金分割点(図3のP2)に主要被写体の顔部が配置されるようにトリミング範囲を設定する(ステップS205)。その後、切り出し位置設定部1206は、主要被写体の全身が画面内に収まるように最終的なトリミング範囲を設定する(ステップS206)。視線方向が右方向であるということは、主要被写体が画面右方向に注目していることを意味している。したがって、主要被写体を画面左に配置(顔部を左上の黄金分割点に配置すれば被写体の全体としては画面左側に配置される)して画面右方向に空間を持たせるように構図を設定することにより、主要被写体の注目している方向をも強調した動画撮影が可能である。
ステップS204において視線方向が右方向でないと判定した場合に、切り出し位置設定部1206は、視線方向が右下方向であるか否かを判定する(ステップS207)。ここで、右下方向は、例えば105°から179°の範囲であるとする。ステップS207において視線方向が右下方向であると判定した場合に、切り出し位置設定部1206は、画面左上の黄金分割点(図3のP2)に主要被写体の顔部が配置されるようにトリミング範囲を設定する(ステップS208)。その後、切り出し位置設定部1206は、主要被写体の全身のサイズが画面縦方向のサイズに対して1/3程度になるように最終的なトリミング範囲を設定する(ステップS209)。視線方向が右下方向であるということは、主要被写体が画面右下方向に注目していることを意味している。したがって、主要被写体を画面左上に配置して画面右下方向に空間を持たせるように構図を設定することにより、主要被写体の注目している方向をも強調した動画撮影が可能である。ここで、ステップS206において述べたように、顔部を左上の黄金分割点に配置すれば主要被写体の全体としては画面左側に配置される。したがって、ステップS209では、画面縦方向のサイズに対して被写体のサイズが1/3程度となるように最終的な構図が設定される。これにより、画面右下方向に空間ができる。1/3のサイズは一例である。
ステップS207において視線方向が右下方向でないと判定した場合に、切り出し位置設定部1206は、視線方向が左下方向であるか否かを判定する(ステップS210)。ここで、左下方向は、例えば180°から254°の範囲であるとする。ステップS210において視線方向が左下方向であると判定した場合に、切り出し位置設定部1206は、画面右上の黄金分割点(図3のP1)に主要被写体の顔部が配置されるようにトリミング範囲を設定する(ステップS211)。その後、切り出し位置設定部1206は、被写体の全身のサイズが画面縦方向のサイズに対して1/3程度になるように最終的なトリミング範囲を設定する(ステップS212)。視線方向が左下方向であるということは、主要被写体が画面左下方向に注目していることを意味している。したがって、主要被写体を画面右上に配置して画面左下方向に空間を持たせるように構図を設定することにより、主要被写体の注目している方向をも強調した動画撮影が可能である。
ステップS210において視線方向が左下方向でないと判定した場合に、切り出し位置設定部1206は、視線方向が左方向であるか否かを判定する(ステップS213)。ここで、左方向は、例えば255°から284°の範囲であるとする。ステップS213において視線方向が左方向であると判定した場合に、切り出し位置設定部1206は、視線方向と逆方向側の黄金分割点、例えば画面右上の黄金分割点(図3のP1)に主要被写体の顔部が配置されるようにトリミング範囲を設定する(ステップS214)。その後、切り出し位置設定部1206は、主要被写体の全身が画面内に収まるように最終的なトリミング範囲を設定する(ステップS215)。視線方向が左方向であるということは、主要被写体が画面左方向に注目していることを意味している。したがって、主要被写体を画面右に配置して画面左方向に空間を持たせるように構図を設定することにより、主要被写体の注目している方向をも強調した動画撮影が可能である。
ステップS213において視線方向が左方向でないと判定した場合、すなわち視線方向が左上方向(例えば285°から359°の範囲)であると判定した場合に、切り出し位置設定部1206は、画面右下の黄金分割点(図3のP4)に主要被写体の顔部が配置されるようにトリミング範囲を設定する(ステップS216)。その後、切り出し位置設定部1206は、主要被写体の全身が画面内に収まるように最終的なトリミング範囲を設定する(ステップS217)。視線方向が左上方向であるということは、主要被写体が画面左上方向に注目していることを意味している。したがって、主要被写体を画面右下に配置して画面左上方向に空間を持たせるように構図を設定することにより、主要被写体の注目している方向をも強調した動画撮影が可能である。
トリミング範囲が決定された後、画像処理部1207は、決定されたトリミング範囲に従って画像データのトリミングを実行する(ステップS218)。その後、制御部120は、図4a及び図4bの処理を終了させる。このようなステップS108のトリミングでは、主要被写体の視線方向の側に空間を持たせるために、視線方向と逆方向の画面位置に主要被写体が配置されるようにトリミングが実行される。これにより、主要被写体の注目している方向をも強調した動画撮影が可能である。
ここで再び図2の説明に戻る。ステップS107において複数の顔部が検出されていると判定された場合、制御部120の切り出し位置設定部1206は、図5に示すように、複数の顔部のそれぞれが黄金分割点の近くに配置されるようにトリミング範囲を決定する。そして、画像処理部1207は、決定されたトリミング範囲に従って画像データのトリミングを行う(ステップS109)。以下、図6を参照してステップS109の処理の詳細を説明する。
図6において、切り出し位置設定部1206は、それぞれの顔部の位置(例えば顔中心の座標とする)とそれぞれの黄金分割点との距離を比較する(ステップS301)。続いて、切り出し位置設定部1206は、それぞれの顔部の位置と黄金分割点との距離が最も短くなるようにトリミング範囲を決定する(ステップS302)。例えば、図5では、被写体S1の顔部が黄金分割点P3に配置され、被写体S2の顔部が黄金分割点P1に配置されるようにトリミング範囲が決定される。ここで、トリミング範囲の決め方によっては1つの黄金分割点に近接するように複数の顔部が配置されることがあり得る。しかしながら、本実施形態ではこのような1つの黄金分割点に近接するように複数の顔部が配置されるトリミング範囲については最終的なトリミング範囲としては採用しないこととする。
トリミング範囲が決定された後、画像処理部1207は、決定されたトリミング範囲に従って画像データのトリミングを実行する(ステップS303)。その後、制御部120は、図6の処理を終了させる。このようなステップS109のトリミングでは、主要被写体が注目していると考えられる他の人の顔部を強調した動画撮影が可能である。ここで、複数の顔が検出された場合に常にステップS109のトリミングが行われると、全く関係のない人物の顔も構図内に含められてしまう可能性がある。したがって、変形例として、人物の顔が複数であっても登録されてない顔が含まれている場合、視線方向がお互いに向き合うような方向でない場合には、ステップS109のトリミングが行われないようにしてもよい。
ここで再び図2の説明に戻る。ステップS106において指差し方向を検出できたと判定した場合に、制御部120の別被写体判定部1205は、指差し方向から主要被写体が注目していると考えられる対象物を検出する(ステップS110)。この処理においては、図7に示すように、画像データ中の目の位置(x1,y1,y2)と指先の位置(x2,y2,z2)とを結ぶ直線(図示一点鎖線)上に存在する対象物S3が検出される。対象物S3は、特徴量マッチングや輪郭抽出等の周知の手法で検出される。なお、図7では、目の位置と指先の位置とがともに3次元の情報を有している。奥行zの情報は、被写体距離情報として得られる。被写体距離情報が取得できない場合には、画像データから検出される2次元の情報だけで対象物S3が検出されてよい。目と指先の延長線上の対象物は、主要被写体が指差ししている対象物である。すなわち、主要被写体は、この対象物に注目していると考えられる。
対象物の検出後、別被写体判定部1205は、実際に対象物を検出できたか否かを判定する(ステップS111)。ステップS111において実際に対象物を検出できたと判定した場合に、別被写体判定部1205は、処理をステップS109に移行させる。なお、前述したステップS109の処理では、複数の顔部のそれぞれが黄金分割点の近くに配置されるようにトリミング範囲が決定される。これに対し、ステップS111からステップS109に分岐した場合には、図8に示すように、主要被写体の顔部とステップS110で検出された対象物とのそれぞれが黄金分割点の近くに配置されるようにトリミング範囲が決定される。具体的な処理は、図6と同様である。このようなステップS109のトリミングでは、主要被写体が注目していると考えられる対象物を強調した動画撮影が可能である。
ステップS111において対象物が検出できなかったと判定された場合に、切り出し位置設定部1206は、指差し方向に空間があり、かつ、主要被写体の顔部が黄金分割点に配置されるようにトリミング範囲を決定する。その後、画像処理部1207は、決定したトリミング範囲に従って画像データのトリミングを行う(ステップS112)。ステップS111の処理は、視線方向の代わりに指差し方向を用いる以外はステップS108と同様に行われる。
トリミングの実行後、制御部120は、ユーザによって動画撮影の開始が指示されたか否かを判定する(ステップS113)。動画撮影の開始は、例えばレリーズボタンの押し操作である。ステップS113において動画撮影の開始が指示されたと判定した場合に、制御部120は、動画撮影を実行する(ステップS114)。すなわち、制御部120は、撮像部104を動作させて得られる画像データを画像処理部1207において画像処理して動画像データを生成し、生成した動画像データから生成した動画ファイルを記録部110に記録する。
動画撮影の実行後、制御部120は、ユーザによって動画撮影の終了が指示されたか否かを判定する(ステップS115)。動画撮影の終了は、例えばレリーズボタンの再度の押し操作である。ステップS115において動画撮影の終了が指示されていないと判定した場合に、制御部120は、処理をステップS114に戻して動画撮影を継続する。なお、動画ファイルが記録されている状態の動画撮影において、制御部120は、記録した動画像ファイルに撮影により得られた動画像データを追記していく。ステップS115において動画撮影の終了が指示されたと判定した場合に、制御部120は、図2の処理を終了させる。
以上説明したように本実施形態によれば被写体の視線方向や指差し方向に応じて構図を設定することにより、被写体が注目している方向、すなわち被写体が興味を持っていると考えられる方向や被写体を強調した動画撮影が可能である。
ここで、図2は、動画撮影中にはトリミング範囲が変更されない例が示されている。しかしながら、動画撮影中においても図2で説明した各種のトリミングが実行されてよい。また、構図を設定する際に被写体が黄金分割点に配置されるようにしているが、これも一例である。例えば、被写体が3等分割点に配置されるようにしてもよい。さらに、黄金分割点や3等分割点は画面内の特定の位置を示すものである。しかしながら、被写体は、厳密な黄金分割点や3等分割点に配置されていなくともよい。
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。第2の実施形態の撮像装置100の基本的な構成は、図1に示す撮像装置100である。ただし、第2の実施形態においては、撮像光学系102が魚眼レンズ等の超広画角の撮影が可能な光学系であることが望ましい。このような超広画角の光学系を備えた撮像光学系102では、通常の撮像光学系では撮影できないような動画撮影をすることが可能である。例えば、図9Aに示すように、ユーザは、第2の実施形態の撮像装置100の撮像光学系102の光軸が地面と垂直になるように、すなわちレンズが空の方向を向くように撮像装置100を置いた後、撮像装置100を横切るように移動したとする。第2の実施形態における撮像装置100で撮影が行われると、図9Bに示すような撮像光学系102の光軸周りの環状の画像データが得られる。したがって、ユーザの移動に合わせて撮像装置100を動かさなくとも、ユーザ自身が移動していく様子が動画像として記録される。さらに、本実施形態では、ユーザの動きに応じて、トリミング範囲を設定することにより、ユーザの動きを強調した動画像データが得られるようにする。
図10は、第2の実施形態に係る撮像装置100の撮影動作時の処理を示すフローチャートである。図10の処理も、主に制御部120によって制御される。
例えば、撮像装置100の電源がオンされ、撮影モードが動画撮影モードに設定されたときに図10の処理が開始される。このとき、制御部120は、動画撮影モードにおける動作モードが自分動画モードに設定されているか否かを判定する(ステップS401)。本実施形態における撮像装置100は、動画撮影モードの動作モードとして通常動画モードと自分動画モードとを少なくとも有している。通常動画モードは、ユーザが第2の実施形態の撮像装置100の撮像光学系102の光軸が地面と平行になるように、すなわちレンズが被写体の方向を向くように撮像装置100を保持した状態で撮影が行われるモードである。この通常動画モードでは、トリミング範囲の設定により、図9Bで示したような環状の画像データではなく、通常の矩形の画像データを得ることが可能である。一方、自分動画モードは、ユーザが第2の実施形態の撮像装置100の撮像光学系102の光軸が地面と垂直になるように、すなわちレンズが空の方向を向くように撮像装置100を置いた状態で撮影が行われるモードである。なお、動画撮影モードの動作モードはユーザによって設定される。
ステップS401において動作モードが自分動画モードに設定されていないと判定した場合に、制御部120は、通常動画モードの動作を行う。通常動画モードの動作は、例えば図2で示される動作である。ステップS401において動作モードが自分動画モードに設定されていると判定した場合に、制御部120は、制御部120は、スルー画表示を開始させる(ステップS402)。続いて、制御部120は、顔検出部1201により、撮像部104によって得られた画像データにおける顔部を検出する(ステップS403)。そして、制御部120の切り出し位置設定部1206は、画像データにおいて顔部が検出されたか否か、すなわちユーザが画面内に入ってきたか否かを判定する(ステップS404)。なお、ステップS404においては特定の人物の顔が検出されたか否かが判定されてもよい。ステップS404において顔部が検出されていないと判定した場合に、制御部120は処理をステップS401に戻す。
ステップS404において顔部が検出されたと判定した場合に、切り出し位置設定部1206は、動き検出部1203により、被写体(顔部)の画面水平方向の移動速度を検出する(ステップS405)。移動速度は、単位時間(例えば1フレーム)当たりの画像データ上での水平方向の移動量(pixel)である。なお、ステップS405では画面水平方向の移動速度が検出されるが、これは被写体が地面に対して平行に移動していることを想定しているためである。被写体が人物でない場合等、被写体が地面に対して平行に移動しない場合も考慮する場合には、画面垂直方向の移動速度も検出されてよい。移動速度の検出後、切り出し位置設定部1206は、移動速度が予め定めた速度より高速であるか否かを判定する(ステップS406)。ステップS406において移動速度が予め定めた速度より遅いと判定した場合に、切り出し位置設定部1206は、被写体が画面中央付近に存在しているか否かを判定する(ステップS407)。ステップS406及びS407の判定は、トリミング2の開始又は終了を判定するために行われる。後で詳しく説明するが、トリミング2は、被写体の移動速度が速い場合で、かつ、被写体が画面中央付近に存在している間に実行されるトリミングであって、被写体が中心になるように決定されたトリミング範囲に従って行われるトリミングである。
ステップS407において被写体が画面中央付近に存在していないと判定した場合に、切り出し位置設定部1206は、現在がトリミング2の実行中であるか否かを判定する(ステップS408)。ステップS408において現在がトリミング2の実行中でないと判定した場合に、切り出し位置設定部1206は、被写体の移動方向と同方向側に空間があり、かつ、被写体の顔部が被写体の移動方向と逆方向側の黄金分割点に配置されるようにトリミング範囲を決定する。その後、画像処理部1207は、決定したトリミング範囲に従って画像データのトリミングをする処理をトリミング1として実行する(ステップS409)。ここで、トリミング1の処理においては、トリミングが一度決定された後は、トリミング2の実行までは一度決定されたトリミング範囲が維持された状態でトリミングが行われる。なお、トリミング1の具体的な処理としては、図4a及び図4bで示した処理が用いられる。すなわち、被写体の移動方向が画面右方向の場合は視線方向が右方向の場合の処理が適用され、被写体の移動方向が画面左方向の場合は視線方向が左方向の場合の処理が適用される。この他、視線方向及び指差し方向をも考慮してトリミング範囲が決定されてよい。このようなトリミング1の処理は、図11に示すように、被写体の移動速度が遅く、かつ、被写体が画面中央に達していないとき(図11のトリミング1の期間)に行われる。このような場合には、被写体の移動方向の側に空間があるように構図を設定することにより、図12A及び図12Bで示すような、移動する被写体が風景の中を通り過ぎていく様子を強調した動画像を撮影可能である。なお、図12Bは、図12Aに対して時間的に後の構図である。
ステップS406において移動速度が予め定めた速度より速いと判定した場合又はステップS407において被写体が画面中央付近に存在していると判定した場合に、切り出し位置設定部1206は、被写体(顔部)を中心として予め定められた範囲をトリミング範囲として決定する。その後、画像処理部1207は、決定したトリミング範囲に従って画像データのトリミングをする処理をトリミング2として実行する(ステップS410)。例えば、被写体が撮像装置100を斜めに横切るように移動している場合、被写体が画面中央付近(図11のトリミング2の範囲)に存在しているときに撮像装置100と被写体との距離が近くなる。このとき、ステップS405で検出される画像データ上での移動速度が速くなる。このような場合には、図13A、図13B、図13Cに示すように、被写体に追従するようにトリミング範囲を順次設定していくことにより、移動する被写体を正しく中心に捉えた動画像が撮影される。
ステップS408において現在がトリミング2の実行中であると判定した場合に、切り出し位置設定部1206は、被写体が黄金分割点に配置されているか否かを判定する(ステップS411)。ステップS411の判定は、トリミング3の開始又は終了を判定するために行われる。後で詳しく説明するが、トリミング3は、トリミング2からトリミングへの切り替えのために実行されるトリミングであって、被写体が自然に黄金分割点に配置されるようにトリミング範囲を順次変えて行われるトリミングである。
ステップS411において被写体が黄金分割点に配置されていないと判定した場合に、切り出し位置設定部1206は、被写体の移動方向に沿って所定量だけずらすようにトリミング範囲を決定する。その後、画像処理部1207は、決定したトリミング範囲に従って画像データをトリミングする処理をトリミング3として実行する(ステップS412)。単位時間(例えば1フレーム)におけるトリミング範囲のずらし量をxとすると、図14に示すトリミング範囲のずらし量xは、被写体の移動速度よりも大きな値とする。ずらし量xを被写体の移動速度よりも大きな値とすることにより、画面内における被写体の位置は、移動方向とは逆側の黄金分割点のほうに移動する。そして、最終的には、トリミング1と同様にして被写体が黄金分割点に配置される。このように、トリミング2からトリミング1への切り替わりの間にトリミング範囲が順次変更される期間を設けることにより、トリミング2からトリミング1への切り替えがスムーズに行われる。なお、トリミング1からトリミング2への切り替わりの間にもトリミング範囲が順次変更される期間が設けられてよい。
ステップS411において被写体が黄金分割点に配置されたと判定した場合に、切り出し位置設定部1206は、処理をステップS409に移行させてトリミング1の処理を実行する。トリミング2からトリミング1への切り替えにより、風景の中に消えていく被写体を強調した動画像が撮影される。
トリミングの実行後、制御部120は、動画撮影を実行する(ステップS413)。その後、制御部120は、処理をステップS403に戻す。このように、図10の例においては、顔の検出開始(被写体が画面内に入ってきたこと)をトリガとして動画撮影が開始され、顔の検出終了(被写体が画面外に出て行ったこと)をトリガとして動画撮影が終了される。これに対し、音声取得部112から入力された音声の認識結果を動画撮影の開始及び終了のトリガとしたり、姿勢検出部114で検出された姿勢の検出結果を動画撮影の開始及び終了のトリガとしたりしてもよい。すなわち、特定の音声が入力された又は姿勢が検出されたことを受けて、動画撮影を開始又は終了させてよい。
以上説明したように本実施形態においては被写体の動きに応じてトリミング範囲を設定することにより、被写体の動きを強調した動画を強調した動画撮影が可能である。
以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、本実施形態では被写体の興味を考慮した撮影ができるので、セキュリティ用途、監視カメラ、車載カメラ等にも本実施形態の技術が適用され得る。近年では、高齢者やペットの見守りようのカメラ(介護ロボットも含む)も普及している。このようなカメラでは、その瞬間の行動のみならず、被写体の行動の予測もできたほうがよく、本実施形態ではこのような行動の予測技術にも応用され得る。さらに、トリミングによって画像データを切り出すようにしているので、画像データの送信が必要な場合の通信負荷を低減することができる。
また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。
また、上述した実施形態による各処理は、コンピュータである制御部120に実行させることができるプログラムとして記憶させておくこともできる。この他、メモリカード(ROMカード、RAMカード等)、磁気ディスク(ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、制御部120は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。
100 撮像装置、102 撮像光学系、104 撮像部、106 表示部、108 タッチパネル、110 記録部、112 音声取得部、114 姿勢検出部、116 操作部、118 通信部、120 制御部、1201 顔検出部 1202 対象物検出部、1203 動き検出部、1204 音声認識部、1205 別被写体判定部 1206 切り出し位置設定部、1207 画像処理部

Claims (7)

  1. 撮像により画像データを取得する撮像部と、
    前記画像データにおける主要被写体の位置を検出する主要被写体検出部と、
    前記主要被写体の動きを検出する動き検出部と、
    前記主要被写体検出部で検出された前記主要被写体の位置及び前記動き検出部で検出された前記主要被写体の動きをもとに、前記画像データの切り出し範囲を設定する切り出し位置設定部と、
    を具備し、
    前記切り出し範囲設定部は、
    前記主要被写体が所定の動きよりも遅いことが検出され、かつ、前記主要被写体が前記画像データにおける画面中央以外の所定の位置に存在することが検出された場合に、前記主要被写体の移動方向と同方向側に空間の存在する構図となる第1の切り出し範囲を前記切り出し範囲として設定し、
    前記主要被写体が前記所定の動きよりも速いことが検出された、又は、前記主要被写体が前記画像データにおける画面中央の位置に存在することが検出された場合に、前記主要被写体の動きに追従する第2の切り出し範囲を前記切り出し範囲として設定し、
    前記主要被写体が所定の動きよりも遅いことが検出され、かつ、前記主要被写体が前記画像データにおける前記所定の位置と前記画面中央の位置の何れにも存在しないことが検出された場合に、前記主要被写体の移動方向に沿って所定量ずつずらしてなる第3の切り出し範囲を前記切り出し範囲として設定する、
    撮像装置。
  2. 前記画像データにおける前記主要被写体の顔部を検出する顔検出部と、
    前記顔部が前記画像データ内で注目していると考えられる方向を判定するための対象物を検出する対象物検出部と、
    をさらに具備し、
    前記対象物検出部は、前記対象物として前記顔部から目部を検出し、
    前記切り出し位置設定部は、前記目部から視線方向を検出し、該視線方向に基づいて前記第1の切り出し範囲を設定する請求項1に記載の撮像装置。
  3. 前記画像データにおける前記主要被写体の顔部を検出する顔検出部と、
    前記顔部が前記画像データ内で注目していると考えられる方向を判定するための対象物を検出する対象物検出部と、
    前記対象物検出部で検出された前記対象物から、前記顔部が前記画像データ内で前記注目していると考えられる方向に存在する別の被写体の有無を判定する別被写体判定部と、
    をさらに具備し、
    前記切り出し位置設定部は、前記顔部と前記別の被写体とが黄金分割点に配置されるように前記第1の切り出し範囲を設定する請求項1に記載の撮像装置。
  4. 前記画像データにおける前記主要被写体の顔部を検出する顔検出部と、
    前記顔部が前記画像データ内で注目していると考えられる方向を判定するための対象物を検出する対象物検出部と、
    をさらに具備し、
    前記対象物検出部は、前記顔部を有する被写体の指部を検出し、
    前記切り出し位置設定部は、前記指部から前記顔部を有する被写体の指差し方向を検出し、該指差し方向に基づいて前記第1の切り出し範囲を設定する請求項1に記載の撮像装置。
  5. 前記画像データにおける前記主要被写体の顔部を検出する顔検出部をさらに具備し、
    前記主要被写体の移動方向と同方向側に空間があり、かつ、前記顔部が前記主要被写体の移動方向と逆方向の黄金分割点に配置されるように前記第1の切り出し範囲を設定する請求項1に記載の撮像装置。
  6. 撮像により画像データを取得することと、
    前記画像データにおける主要被写体の位置を検出することと、
    前記主要被写体の動きを検出することと、
    前記主要被写体が所定の動きよりも遅いことが検出され、かつ、前記主要被写体が前記画像データにおける画面中央以外の所定の位置に存在することが検出された場合に、前記主要被写体の移動方向と同方向側に空間の存在する構図となる第1の切り出し範囲を設定することと、
    前記主要被写体が前記所定の動きよりも速いことが検出された、又は、前記主要被写体が前記画像データにおける画面中央の位置に存在することが検出された場合に、前記主要被写体の動きに追従する第2の切り出し範囲を設定することと、
    前記主要被写体が所定の動きよりも遅いことが検出され、かつ、前記主要被写体が前記画像データにおける前記所定の位置と前記画面中央の位置の何れにも存在しないことが検出された場合に、前記主要被写体の移動方向に沿って所定量ずつずらしてなる第3の切り出し範囲を設定することと、
    を具備する撮像アシスト方法。
  7. 撮像により画像データを取得することと、
    前記画像データにおける主要被写体の位置を検出することと、
    前記主要被写体の動きを検出することと、
    前記主要被写体が所定の動きよりも遅いことが検出され、かつ、前記主要被写体が前記画像データにおける画面中央以外の所定の位置に存在することが検出された場合に、前記主要被写体の移動方向と同方向側に空間の存在する構図となる第1の切り出し範囲を設定することと、
    前記主要被写体が前記所定の動きよりも速いことが検出された、又は、前記主要被写体が前記画像データにおける画面中央の位置に存在することが検出された場合に、前記主要被写体の動きに追従する第2の切り出し範囲を設定することと、
    前記主要被写体が所定の動きよりも遅いことが検出され、かつ、前記主要被写体が前記画像データにおける前記所定の位置と前記画面中央の位置の何れにも存在しないことが検出された場合に、前記主要被写体の移動方向に沿って所定量ずつずらしてなる第3の切り出し範囲を設定することと、
    をコンピュータに実行させるための撮像アシストプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2016024041A 2013-11-18 2016-02-10 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体 Active JP6091669B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013238329 2013-11-18
JP2013238329 2013-11-18

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015525680A Division JP5886479B2 (ja) 2013-11-18 2014-05-28 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2016158241A true JP2016158241A (ja) 2016-09-01
JP6091669B2 JP6091669B2 (ja) 2017-03-08

Family

ID=53057114

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015525680A Expired - Fee Related JP5886479B2 (ja) 2013-11-18 2014-05-28 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体
JP2016024041A Active JP6091669B2 (ja) 2013-11-18 2016-02-10 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015525680A Expired - Fee Related JP5886479B2 (ja) 2013-11-18 2014-05-28 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体

Country Status (4)

Country Link
US (1) US9628700B2 (ja)
JP (2) JP5886479B2 (ja)
CN (1) CN106464793B (ja)
WO (1) WO2015072166A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019009574A (ja) * 2017-06-23 2019-01-17 キヤノン株式会社 画像処理装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105120191A (zh) * 2015-07-31 2015-12-02 小米科技有限责任公司 视频录制方法和装置
CN110651465B (zh) * 2017-05-10 2021-02-05 三菱电机株式会社 拍摄辅助装置和拍摄辅助方法
WO2019157256A1 (en) * 2018-02-08 2019-08-15 Tsouri Gill R Opportunistic plethysmography using video cameras
US11126257B2 (en) * 2018-04-17 2021-09-21 Toyota Research Institute, Inc. System and method for detecting human gaze and gesture in unconstrained environments
CN113395479B (zh) * 2021-06-16 2022-06-24 随锐科技集团股份有限公司 视频会议画面处理方法及系统
JP2023008304A (ja) * 2021-07-05 2023-01-19 キヤノン株式会社 電子機器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0614323A (ja) * 1992-06-29 1994-01-21 Sanyo Electric Co Ltd 被写体追尾画像処理装置
JP2002281506A (ja) * 2001-03-16 2002-09-27 Internatl Business Mach Corp <Ibm> ビデオ・イメージの部分イメージ領域抽出方法、部分イメージ領域抽出システム、部分イメージ領域抽出のためのプログラム、抽出されたビデオ・イメージの配信方法およびコンテンツ作成方法
JP2004094288A (ja) * 2002-07-12 2004-03-25 Honda Motor Co Ltd 指示位置検出装置及び自律ロボット
JP2012205037A (ja) * 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法
JP2012217132A (ja) * 2011-03-31 2012-11-08 Sony Corp 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001223935A (ja) * 2000-02-10 2001-08-17 Olympus Optical Co Ltd 電子カメラ
JP4699040B2 (ja) * 2005-02-15 2011-06-08 パナソニック株式会社 自動追尾制御装置及び自動追尾制御方法、並びにプログラム、自動追尾システム
JP4781844B2 (ja) * 2005-03-01 2011-09-28 富士フイルム株式会社 画像出力装置、画像出力方法、および画像出力プログラム
JP2006254107A (ja) * 2005-03-10 2006-09-21 Olympus Imaging Corp 画像評価装置、画像評価プログラム、画像評価プログラムを記録する記録媒体、画像評価方法
JP2007158680A (ja) * 2005-12-05 2007-06-21 Victor Co Of Japan Ltd 追尾撮像装置およびこれを利用した追尾撮像システム
JP4687451B2 (ja) * 2005-12-27 2011-05-25 カシオ計算機株式会社 撮像装置、及びスルー画像表示方法
JP4869270B2 (ja) * 2008-03-10 2012-02-08 三洋電機株式会社 撮像装置及び画像再生装置
US20100074557A1 (en) * 2008-09-25 2010-03-25 Sanyo Electric Co., Ltd. Image Processing Device And Electronic Appliance
JP2010103972A (ja) * 2008-09-25 2010-05-06 Sanyo Electric Co Ltd 画像処理装置及び電子機器
JP5231285B2 (ja) * 2009-02-23 2013-07-10 オリンパスイメージング株式会社 撮像装置
JP2011087257A (ja) * 2009-10-19 2011-04-28 Panasonic Corp 半導体集積回路及び撮像装置
JP2011135527A (ja) 2009-12-25 2011-07-07 Nikon Corp デジタルカメラ
JP5364845B2 (ja) * 2010-05-31 2013-12-11 株式会社Pfu オーバーヘッドスキャナ装置、画像処理方法、および、プログラム
JP2013153375A (ja) * 2012-01-26 2013-08-08 Sony Corp 画像処理装置、画像処理方法および記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0614323A (ja) * 1992-06-29 1994-01-21 Sanyo Electric Co Ltd 被写体追尾画像処理装置
JP2002281506A (ja) * 2001-03-16 2002-09-27 Internatl Business Mach Corp <Ibm> ビデオ・イメージの部分イメージ領域抽出方法、部分イメージ領域抽出システム、部分イメージ領域抽出のためのプログラム、抽出されたビデオ・イメージの配信方法およびコンテンツ作成方法
JP2004094288A (ja) * 2002-07-12 2004-03-25 Honda Motor Co Ltd 指示位置検出装置及び自律ロボット
JP2012205037A (ja) * 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法
JP2012217132A (ja) * 2011-03-31 2012-11-08 Sony Corp 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019009574A (ja) * 2017-06-23 2019-01-17 キヤノン株式会社 画像処理装置

Also Published As

Publication number Publication date
WO2015072166A1 (ja) 2015-05-21
CN106464793B (zh) 2019-08-02
JP6091669B2 (ja) 2017-03-08
CN106464793A (zh) 2017-02-22
JPWO2015072166A1 (ja) 2017-03-16
US20150296132A1 (en) 2015-10-15
US9628700B2 (en) 2017-04-18
JP5886479B2 (ja) 2016-03-16

Similar Documents

Publication Publication Date Title
JP6091669B2 (ja) 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体
JP6317452B2 (ja) ターゲット上に投影するためのコンテンツをトリミングするための方法、装置、システム及び非一時的コンピュータ可読記憶媒体
KR102018887B1 (ko) 신체 부위 검출을 이용한 이미지 프리뷰
WO2016016984A1 (ja) 撮像装置およびその被写体追尾方法
JP5867424B2 (ja) 画像処理装置、画像処理方法、プログラム
US20170308266A1 (en) Image display apparatus and image display method
JP2015089119A (ja) 物体を追跡するためのシステム及び方法
JP2012146304A (ja) モーションによって制御されるディスプレイ装置及びそのモーション制御方法
KR102407190B1 (ko) 영상 촬영 장치 및 그 동작 방법
KR20190008610A (ko) 이동 단말기 및 그 제어 방법
EP3381180B1 (en) Photographing device and method of controlling the same
US10063773B2 (en) Photographing apparatus, photographing method and computer-readable storage medium storing photographing program of photographing apparatus
JP6096654B2 (ja) 画像の記録方法、電子機器およびコンピュータ・プログラム
JP5477777B2 (ja) 画像取得装置
JP2009171428A (ja) デジタルカメラ装置および電子ズームの制御方法およびプログラム
US20170244891A1 (en) Method for automatically capturing photograph, electronic device and medium
CN108257091B (zh) 用于智能镜子的成像处理方法和智能镜子
JP2019186791A (ja) 撮像装置、撮像装置の制御方法、および制御プログラム
EP3599763A2 (en) Method and apparatus for controlling image display
JP2012124767A (ja) 撮像機器
CN104125387A (zh) 摄影导引方法与电子装置
KR20170023494A (ko) 카메라를 구비하는 장치에서 사진 촬영 지원 기법
KR101720607B1 (ko) 영상 촬영 장치 및 그 동작 방법
JP2015019215A (ja) 撮像装置及び撮像方法
CN114827441A (zh) 拍摄方法、装置、终端设备及存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170207

R151 Written notification of patent or utility model registration

Ref document number: 6091669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250