JP2014033332A - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP2014033332A JP2014033332A JP2012172530A JP2012172530A JP2014033332A JP 2014033332 A JP2014033332 A JP 2014033332A JP 2012172530 A JP2012172530 A JP 2012172530A JP 2012172530 A JP2012172530 A JP 2012172530A JP 2014033332 A JP2014033332 A JP 2014033332A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- face
- face detection
- detection
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は撮像及び撮像方法に関する。 The present invention relates to imaging and an imaging method.
近年、ネット配信番組に代表されるように、少人数で制作される番組が普及している。このような少人数で制作される番組においては、司会者(リポーター)がカメラ操作も兼務するという撮影形態が用いられている。 In recent years, programs produced by a small number of people have become widespread, as represented by online distribution programs. In such a program produced by a small number of people, a mode in which a moderator (reporter) also serves as a camera is used.
例えば、特許文献1には、カメラを遠隔操作するための操作ボタン及び撮像された画像を表示するモニタを有するマイクロフォン装置が開示されている。これにより、司会者は、インタビューをしながら、撮像画面を確認して、カメラを遠隔操作(パンチルトやズーム等)することができる。
For example,
しかしながら、特許文献1に記載のマイクロフォン装置においては、司会者は、インタビューをしながら、モニタを確認し、撮像画像が所望の画角となるように操作ボタンを用いてカメラを操作する必要がある。そのため、司会者は、インタビュー、モニタ確認、及びカメラ操作という複数の動作を連動して行わなければならない。その結果、熟練した技術が必要となり、撮影が難しいという問題がある。
However, in the microphone device described in
本発明はこのような問題を解決するためになされたものであり、容易に遠隔操作することができる撮像装置及び撮像方法を提供することを目的としている。 The present invention has been made to solve such a problem, and an object thereof is to provide an imaging apparatus and an imaging method that can be easily remotely controlled.
本発明の一態様に係る撮像装置(1)は、撮像処理により画像データを生成する撮像手段(102)と、特定の形状を有する対象物の前記画像データにおける位置を検出する対象物位置検出手段(マイク検出画像処理部110)と、前記対象物位置検出手段(マイク検出画像処理部110)の検出結果に基づいて、前記画像データにおける顔検出領域を設定し、前記顔検出領域に含まれる顔領域を検出する顔検出手段(111)と、前記顔検出手段(111)の検出結果に基づいて、パンチルト動作を実行するパンチルト駆動手段(107)と、を備える。このような構成により、司会者がマイク装置等の対象物をゲストに向けるだけで、撮像装置1はパンチルト動作を実現できる。その結果、カメラを容易に遠隔操作することができる。
上記撮像装置(1)において、前記画像データにおける前記対象物の向きを検出する対象物方向検出手段(マイク検出画像処理部110)をさらに備え、前記顔検出手段(111)は、前記対象物位置検出手段(マイク検出画像処理部110)及び前記対象物方向検出手段(マイク検出画像処理部110)の検出結果に基づいて、前記画像データにおける前記顔検出領域を決定してもよい。
上記撮像装置(1)において、前記顔検出手段(111)は、前記画像データにおいて、前記対象物よりも上側の領域を、前記顔検出領域として設定してもよい。
上記撮像装置(1)において、前記顔検出手段(111)は、前記画像データにおいて、前記対象物よりも上側、かつ、前記対象物の向きに応じた方向側の領域を、前記顔検出領域として設定してもよい。
上記撮像装置(1)において、前記対象物位置検出手段(マイク検出画像処理部110)は、前記画像データにおける前記対象物の移動を検出し、前記画像データにおいて前記対象物が移動している場合、前記パンチルト駆動手段(107)は、前記対象物が前記画像データの中央に位置するようにパンチルト動作を実行してもよい。
上記撮像装置(1)において、前記画像データにおいて前記対象物が移動していない場合、前記顔検出手段(111)は、前記顔検出領域を決定し、前記顔検出領域に含まれる前記顔領域を検出し、前記パンチルト駆動手段(107)は、検出した前記顔領域が前記画像データの中央に位置するようにパンチルト動作を実行してもよい。
上記撮像装置(1)において、前記顔検出手段(111)は、検出した前記顔領域の前記画像データにおける位置を検出し、前記画像データにおける前記顔領域の位置から前記画像データにおける前記対象物の位置までの距離に基づいて、前記画像データの画角を変更する第1の画角変更手段(カメラ駆動部108)をさらに備えてもよい。
上記撮像装置(1)において、前記対象物位置検出手段(マイク検出画像処理部110)により前記画像データ中に前記対象物が検出されなかった場合、前記対象物が有する姿勢検出手段の検出結果に基づいて、前記画像データの画角を変更する第2の画角変更手段(カメラ駆動部108)をさらに備えてもよい。
上記撮像装置(1)において、前記対象物はマイク装置(9)であってもよい。
本発明の一態様に係る撮像方法は、撮像処理により画像データを生成し、特定の形状を有する対象物の前記画像データにおける位置を検出し、検出した前記対象物の位置に基づいて、前記画像データにおける顔検出領域を決定し、前記顔検出領域に含まれる顔領域を検出し、検出した前記顔領域の位置に基づいて、パンチルト動作を実行する。
An imaging apparatus (1) according to an aspect of the present invention includes an imaging unit (102) that generates image data by imaging processing, and an object position detection unit that detects a position of the object having a specific shape in the image data. Based on the detection results of the (microphone detection image processing unit 110) and the object position detection means (microphone detection image processing unit 110), a face detection area in the image data is set, and the face included in the face detection area Face detection means (111) for detecting a region, and pan / tilt drive means (107) for executing a pan / tilt operation based on the detection result of the face detection means (111). With such a configuration, the
The imaging apparatus (1) further includes object direction detection means (microphone detection image processing unit 110) for detecting the direction of the object in the image data, and the face detection means (111) includes the object position. The face detection area in the image data may be determined based on detection results of the detection unit (microphone detection image processing unit 110) and the object direction detection unit (microphone detection image processing unit 110).
In the imaging apparatus (1), the face detection unit (111) may set an area above the object in the image data as the face detection area.
In the imaging apparatus (1), the face detection unit (111) uses, as the face detection area, an area above the object and on the direction side according to the direction of the object in the image data. It may be set.
In the imaging apparatus (1), the object position detection unit (microphone detection image processing unit 110) detects the movement of the object in the image data, and the object is moving in the image data. The pan / tilt driving means (107) may execute a pan / tilt operation so that the object is located at the center of the image data.
In the imaging device (1), when the object does not move in the image data, the face detection means (111) determines the face detection area and determines the face area included in the face detection area. Then, the pan / tilt driving means (107) may perform a pan / tilt operation so that the detected face area is located at the center of the image data.
In the imaging apparatus (1), the face detection unit (111) detects the position of the detected face area in the image data, and determines the position of the object in the image data from the position of the face area in the image data. You may further provide the 1st view angle change means (camera drive part 108) which changes the view angle of the said image data based on the distance to a position.
In the imaging apparatus (1), when the object is not detected in the image data by the object position detection unit (microphone detection image processing unit 110), the detection result of the posture detection unit of the object is obtained. Based on this, a second angle of view changing means (camera driving unit 108) for changing the angle of view of the image data may be further provided.
In the imaging device (1), the object may be a microphone device (9).
An imaging method according to an aspect of the present invention generates image data by imaging processing, detects a position of an object having a specific shape in the image data, and based on the detected position of the object, the image A face detection area in the data is determined, a face area included in the face detection area is detected, and a pan / tilt operation is executed based on the detected position of the face area.
本発明により、容易に遠隔操作することができる撮像装置及び撮像方法を提供することができる。 According to the present invention, it is possible to provide an imaging apparatus and an imaging method that can be easily remotely operated.
<実施の形態1>
以下、図面を参照して本発明の実施の形態1について説明する。本実施の形態にかかる撮像装置1は、動画像及び静止画像を撮像することができるデジタルカメラを有している。撮像装置1のブロック図を図1に示す。
<
<撮像装置1の構成>
図1に示すように、撮像装置1は、レンズユニット101と、撮像部102と、音声入力部103と、音声回路104と、音声信号受信部105と、受信回路106と、パンチルト駆動部107と、カメラ駆動部108と、コントローラ109と、マイク検出画像処理部110と、顔検出処理部111と、記録/再生部112と、を備える。
<Configuration of
As shown in FIG. 1, the
レンズユニット101は、ズームレンズやフォーカスレンズ等の複数のレンズを有し、光を撮像部102へ導く。撮像部102は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有する。撮像部102は、撮像処理を行い、レンズユニット101を通過した光に基づいて、画像データを生成する。撮像部102は、生成した画像データを記録/再生部112に出力する。
The
音声入力部103は、例えばマイクロフォンであり、撮像装置1の周囲の音声を収音する。そして、音声入力部103は、収音した音声をアナログ音声信号に変換して、音声回路104に出力する。
The
音声回路104は、音声入力部103から入力された音声信号を増幅して、A/D変換を行う。これにより、音声回路104は、増幅したアナログ音声信号をデジタル音声データに変換する。音声回路104は、変換後のデジタル音声データを記録/再生部112に出力する。
The
音声信号受信部105は、マイク装置から送信される音声信号を受信する。音声信号受信部105は、Wi−Fi等の無線LAN規格に準拠した通信処理を行う。これにより、マイク装置との通信が可能になる。音声信号受信部105は、受信した音声信号を受信回路106に出力する。受信回路106は、音声信号受信部105から入力された音声信号を記録/再生部112に出力する。
The audio
パンチルト駆動部107は、コントローラ109からの制御信号に応じて、撮像装置1または雲台に設けられたモータ(図示省略)を駆動させる。これにより、撮像装置1は、パンチルト動作を実現する。
The pan /
カメラ駆動部108は、コントローラ109からの制御信号に応じて、撮像装置1に設けられたズームアクチュエータ及びフォーカスアクチュエータ(図示省略)を駆動する。これにより、レンズユニット101が有するズームレンズ及びフォーカスレンズが光軸に沿って移動する。また、カメラ駆動部108は、絞りアクチュエータ(図示省略)を駆動させ、絞りを調整する。
The
コントローラ109は、CPU、各種プログラムが格納されたROM(Read Only Memory)、及びワークエリアとしてのRAM(Random Access Memory)等を含む半導体集積回路により構成され、撮像処理や、各種画像の表示等の撮像装置1全体の処理を統括的に制御する。
The
具体的には、コントローラ109は、マイク検出画像処理部110や顔検出処理部111の検出結果に基づいて、パンチルト駆動部107に対して、パンチルト動作を命令する制御信号を出力する。また、コントローラ109は、マイク検出画像処理部110や顔検出処理部111の検出結果に基づいて、カメラ駆動部108に対して、ズームテレ動作を命令する制御信号を出力する。
Specifically, the
マイク検出画像処理部110(対象物位置検出手段、対象物方向検出手段)は、撮像部102から入力された画像データ中に含まれるマイク装置を検出する。具体的には、マイク検出画像処理部110は、予め設定されたマイク装置の特徴(形状、色など)に基づいて、画像処理を用いて画像データ中のマイク装置を検出する。なお、画像処理を用いてマイク装置を検出するため、マイク装置は検出しやすい(特徴的な)形状や色を有していることが好ましい。
The microphone detection image processing unit 110 (object position detection unit, object direction detection unit) detects a microphone device included in the image data input from the
また、マイク検出画像処理部110は、画像データにおけるマイク装置の座標を取得する。マイク装置の座標とは、例えば、マイク装置の中心座標であり、x座標及びy座標で表現される座標である。さらに、マイク検出画像処理部110は、マイク装置の向きを検出する。このとき、マイク装置の向きとは、マイク装置の指向性に応じた方向や、柄を有するマイク装置であれば柄から収音部に向かう方向等を意味する。マイク検出画像処理部110は、取得したマイク装置の座標及び向きを顔検出処理部111及びコントローラ109に出力する。
In addition, the microphone detection
さらに、マイク検出画像処理部110は、マイク装置の移動を検出する。マイク検出画像処理部110は、例えば、数フレーム毎にマイク装置の座標を比較して、マイク装置の座標が数フレーム前から所定の距離移動している場合に、マイク装置が移動していると判定する。
Furthermore, the microphone detection
顔検出処理部111は、画像データにおけるマイク装置の位置及び向きに基づいて、顔検出を行う顔検出領域を設定する。そして、顔検出処理部111は、顔検出領域内に存在する人の顔を検出する。顔検出処理部111は、検出結果をコントローラ109に出力する。なお、顔検出処理部111による顔検出方法は、特に限定されるものではなく、公知の顔検出方法を用いることができる。
The face
記録/再生部112は、撮像部102から入力された画像データを、音声回路104から入力されたデジタル音声データと併せてメモリ(図示省略)に格納する。
The recording / reproducing
<マイク装置9の構成>
本実施の形態にかかるマイク装置の構成について説明する。マイク装置9のブロック図を図2に示す。マイク装置9は、音声入力部91と、送信回路92と、音声信号送信部93と、を備える。
<Configuration of
The configuration of the microphone device according to the present embodiment will be described. A block diagram of the
音声入力部91は、例えばマイクロフォンであり、撮像装置1の周囲の音声を収音する。そして、音声入力部91は、収音した音声をアナログ音声信号に変換して、送信回路92に出力する。
The
送信回路92は、音声入力部91から入力された音声信号を電波信号に変換する。音声信号送信部93は、アンテナを有し、送信回路92により変換された電波信号を撮像装置1に送信する。このように、本実施の形態にかかるマイク装置9は、操作ボタンや姿勢検出手段等を有しておらず、一般的なマイク装置である。
The
<撮像装置1の動作>
続いて、本実施の形態にかかる撮像装置1の動作例について、図3に示すフローチャートを参照して説明する。なお、本実施の形態における撮影状況(撮像装置1、司会者200、及びゲスト300の位置関係)を図4に示す。司会者200は、マイク装置9をゲスト300に向けてインタビューを行う。撮像装置1付近には、撮像装置1を操作するカメラマンはいない。撮像装置1は、司会者200が把持するマイク装置9の位置や向き、顔検出結果等に基づいて、自動的にパンチルト動作を実行する。図4においては、撮像装置1がパンチルト可能な雲台400に搭載されているが、撮像装置1自体にパンチルト動作可能な機構が設けられていてもよい。
<Operation of
Next, an operation example of the
まず、撮像装置1が撮像処理を行う(ステップS101)。これにより、撮像部102は画像データを生成する。撮像部102は、撮像装置1に設けられた操作ボタンやセルフタイマー等によって撮像処理を開始してもよいし、マイク装置9からの音声入力に応じて撮像処理を開始してもよい。
First, the
撮像処理が開始されると、マイク検出画像処理部110は、撮像部102の撮像処理により生成された画像データに対してマイク検出処理を行う(ステップS102)。つまり、マイク検出画像処理部110は、画像データ中にマイク装置9が含まれているか否かを判定する。マイク装置9が検出されない場合(ステップS103:No)、マイク検出画像処理部110は、マイク検出処理を続ける(ステップS102)。
When the imaging process is started, the microphone detection
マイク装置9が検出された場合(ステップS103:Yes)、マイク検出画像処理部110は、マイク装置9が移動しているか否かを判定する(ステップS104)。
When the
マイク装置9が移動している場合(ステップS104:Yes)、撮像装置1は、マイク装置9が画像データの中央に来るように、パンチルト動作を行う(ステップS105)。具体的には、コントローラ109は、マイク検出画像処理部110から入力されたマイク装置9の座標に基づいて、マイク装置9の座標が画像データの中央に来るように、パンチルト駆動部107にパンチルト動作を実行させるための制御信号を出力する。これにより、画像データの中心にマイク装置9が移動する。つまり、撮像装置1は、移動するマイク装置9を追尾するように、パンチルト動作を実行する。なお、マイク装置9の座標と画像データの中心座標とは厳密に一致している必要はない。マイク装置9の座標が、画像データの中心を含む所定領域に含まれていればよい。
When the
マイク装置9が移動していない場合(ステップS104:No)、顔検出処理部111は、マイク検出画像処理部110から入力されるマイク装置9の位置及び方向に基づいて、画像データにおける顔検出領域を設定する(ステップS106)。
When the
顔検出処理部111は、設定した顔検出領域において、顔検出処理を行う(ステップS107)。顔検出領域に人の顔が検出された場合(ステップS108:Yes)、顔検出処理部111は、検出結果をコントローラ109に出力する。具体的には、顔検出処理部111は、画像データにおける検出した顔の座標(例えば、顔の中心座標)をコントローラ109に出力する。
The face
ここで、顔検出領域の設定(ステップS106)及び顔検出処理(ステップS107)について、図5及び図6を用いて詳細に説明する。図5及び図6は、撮像装置1により撮像された画像である。
Here, setting of the face detection area (step S106) and face detection processing (step S107) will be described in detail with reference to FIGS. 5 and 6 are images captured by the
まず、顔検出処理部111は、マイク検出画像処理部110からマイク装置9の位置901と、マイク装置9の向き902と、を取得する(図5参照)。なお、マイク装置9の位置901は、例えば、マイク装置9の中心座標を用いて表現できる。また、マイク装置9の向き902は、例えば、画像データの上方向を0度とした場合のマイク装置9の傾き角度を用いて表現できる。そして、顔検出処理部111は、マイク装置9の位置901からマイク装置9の向き902に広がる領域を、顔検出領域903として設定する。顔検出領域903は、マイク装置9の位置901を中心に、広がり角度904が90度以下となるように、マイク装置9の向き902に向かって広がっている。例えば、顔検出領域903は、マイク装置9の向き902を中心軸として、広がり角度904が30度となる領域である。
First, the face
勿論、顔検出領域903の形状は図6に示した形状に限られるものではない。例えば、顔検出処理部111は、マイク装置9の位置901のみに基づいて顔検出領域903を設定してもよい。例えば、図7に示すように、マイク装置9の位置901よりも上側の領域を顔検出領域903としてもよい。また、図8に示すように、顔検出処理部111は、マイク装置9の位置901よりも上側、かつ、マイク装置9の位置901よりもマイク装置9の向き側(マイク装置9の傾き方向側)の矩形領域を顔検出領域903として設定してもよい。
Of course, the shape of the
そして、顔検出処理部111は、顔検出領域内に含まれる顔領域を検出する。顔領域とは、画像データから人の顔であると推測される領域であり、図6においては、顔検出枠905で示した領域を意味する。このように、画像データにおいて、顔検出が行われる領域を限定することにより、顔検出処理の高速化や顔検出処理部111の処理負担の軽減を図ることができる。なお、顔検出領域903を狭くする程、顔検出処理の高速化を図ることができる。一方、顔検出領域903を広くする程、確実に顔領域を検出することができる。さらに、顔検出処理部111が、マイク装置9の位置から顔検出処理を開始し、画像データの端に向かって顔検出処理を行ってもよい。インタビュー中においてはマイク装置9付近に顔があるため、顔検出処理部111がマイク装置9から顔検出処理を開始することにより、顔検出処理の更なる高速化を図ることができる。
Then, the face
図3のフローチャートに戻り、顔検出領域において顔が検出された場合(ステップS108:Yes)、コントローラ109は、顔検出処理部111の検出結果に基づいて、パンチルト駆動部107にパンチルト動作を実行させる(ステップS109)。具体的には、コントローラ109は、検出された顔領域の中心座標が画像データの中心に位置するように、パンチルト駆動部107にパンチルト動作を実行させる。これにより、撮像部102は、ゲスト300を中心とする画像データを撮像できる。
Returning to the flowchart of FIG. 3, when a face is detected in the face detection area (step S <b> 108: Yes), the
一方、顔検出領域において顔が検出されない場合(ステップS108:No)、ステップS104に戻り、マイク検出画像処理部110は、マイク装置9が移動しているか否かを判定する。
On the other hand, when a face is not detected in the face detection area (step S108: No), the process returns to step S104, and the microphone detection
以上のように、本実施の形態にかかる撮像装置1の構成によれば、マイク検出画像処理部110が、画像データにおけるマイク装置9の位置を検出する。顔検出処理部111が、マイク装置9の位置に基づいて、画像データにおける顔検出領域を設定し、顔検出領域に含まれる顔領域を検出する。そして、パンチルト駆動部107が、顔検出手段の検出結果に基づいて、パンチルト動作を実行する。これにより、司会者がインタビューのためにマイク装置9をゲストに向けるだけで、撮像装置1は、ゲストの顔を検出し、検出結果に応じたパンチルト動作を実現できる。その結果、司会者は、モニタ確認やカメラ操作を行う必要が無く、容易に撮像装置1を遠隔操作することができる。
As described above, according to the configuration of the
<実施の形態2>
本発明の実施の形態2について説明する。本実施の形態にかかる撮像装置2は、コントローラ109及びカメラ駆動部108の動作が、実施の形態1と異なる。なお、その他の構成については撮像装置1と同様であるので、説明を適宜省略する。
<Embodiment 2>
A second embodiment of the present invention will be described. In the imaging apparatus 2 according to the present embodiment, the operations of the
コントローラ109は、画像データにおける顔領域とマイク装置9との距離に基づいて、カメラ駆動部108(第1及び第2の画角変更手段)に対して、ズーム動作またはテレ動作を実行させる制御信号を出力する。
The
<撮像装置2の動作>
続いて、撮像装置2の動作例について、図9に示すフローチャートを参照して説明する。なお、ゲスト300の顔検出処理が行われ、画像データの中心に検出された顔が移動するまで(図3のステップS101〜ステップS109)の処理は、実施の形態1と同様であるため、説明を省略する。なお、図10〜図12は、撮像された画像データの変化を説明するための図である。
<Operation of Imaging Device 2>
Next, an operation example of the imaging apparatus 2 will be described with reference to a flowchart shown in FIG. Since the face detection process of the
コントローラ109は、顔領域が画像データの中心に位置した状態で、画像データにおける顔領域の中心座標とマイク装置9の位置901との距離(以下、マイク距離906と称す)を取得する(ステップS201)。マイク距離906は、ゲスト300の顔領域の中心座標301とマイク装置9の位置901とが求まれば、算出可能である(図10参照)。
The
コントローラ109は、取得したマイク距離906と予め設定された距離とを比較する(ステップS202)。取得したマイク距離906が予め設定された距離よりも短い場合(ステップS203:Yes)、コントローラ109は、カメラ駆動部108に対して、ズーム動作を実行させる制御信号を出力する。これにより、カメラ駆動部108は、ズーム動作を実行する。なお、予め設定された距離とは、ユーザが予め設定した距離であり、適宜変更可能である。また、予め設定された距離は、一の値ではなく、所定の範囲を持った値であってもよい。
The
具体的には、図10においては、マイク距離906は、予め設定された距離よりも長いものとする。このとき、司会者200が、マイク装置9をゲスト300の顔に近づけたとする。これにより、図11に示すように、マイク距離906が縮み、予め設定された距離よりも短くなったとする。
Specifically, in FIG. 10, the
すると、コントローラ109は、取得したマイク距離906が予め設定された距離よりも短いと判定する。そして、マイク距離906が予め設定された距離以上となるように、カメラ駆動部108に対してズーム動作の実行を指示する。
Then, the
カメラ駆動部108は、ズーム動作を実行する。そして、コントローラ109は、マイク距離906を再度取得する(ステップS201)。コントローラ109は、マイク距離906が予め設定された距離以上であると判定すると(ステップS203:No)、カメラ駆動部108のズーム動作を停止させる。これにより、ゲスト300の顔がズームされた画像データが生成される(図12参照)。
The
以上のように、本実施の形態にかかる撮像装置2の構成によれば、コントローラ109が、検出された顔とマイク装置9との距離を取得する。そして、コントローラ109は、取得したマイク距離に基づいて、カメラ駆動部108に対してズーム動作の実行を指示する。これにより、マイク装置9に操作ボタン等の特別な構成を設けることなく、ズーム動作を実現できる。また、司会者200は、拡大させたいゲスト300の顔にマイク装置9を近づけるだけで、ズーム動作を実現できる。その結果、容易に撮像装置1を遠隔操作することができる。
As described above, according to the configuration of the imaging device 2 according to the present embodiment, the
なお、上述の説明においては、カメラ駆動部108がズーム動作を実行する場合について説明したが、カメラ駆動部108がテレ動作を実行する場合も同様である。
In the above description, the case where the
例えば、コントローラ109は、マイク距離906が予め設定した距離よりも長くなった場合、カメラ駆動部108にテレ動作を実行させる制御信号を出力する。これにより、カメラ駆動部108は、テレ動作を実行する。
For example, when the
<実施の形態3>
本発明の実施の形態3について説明する。本実施の形態にかかる撮像装置3のブロック図を図13に示す。また、本実施の形態にかかるマイク装置9のブロック図を図14に示す。
<
撮像装置3は、図1に示した構成に加えて、姿勢情報受信部113を備える。姿勢情報受信部113は、マイク装置9から送信される姿勢情報を受信し、コントローラ109に出力する。
The
マイク装置9は、図2に示した構成に加えて、姿勢検出部94と、姿勢情報送信部95と、を備える。
The
姿勢検出部94は、例えば、加速度センサやジャイロセンサであり、マイク装置9の姿勢を検出可能なセンサである。なお、姿勢検出部94に用いられるセンサは、マイク装置9の姿勢の変化を検出できればよく、必ずしも、マイク装置9の現在の姿勢(傾き角度など)を詳細に検出できなくてもよい。姿勢検出部94は、検出結果を姿勢情報送信部95に出力する。
The
姿勢情報送信部95は、姿勢検出部94から入力された検出結果を、撮像装置に送信する。検出結果(姿勢情報)は、マイク装置9の傾き角度など、マイク装置9の姿勢を示す情報であってもよいし、マイク装置9の姿勢の変化の有無のみを示す情報であってもよい。
The posture
<撮像装置3及びマイク装置9の動作>
続いて、本実施の形態にかかる撮像装置3及びマイク装置9の動作例について、図15に示すフローチャートを参照して説明する。なお、図16〜図18は、撮像された画像データの変化を説明するための図である。図16は、図3のフローチャートのステップS109において、ゲスト300の顔が画像データの中央に位置するようにパンチルト動作が行われた後の状態である。このとき、マイク装置9が画角から外れている(図16の破線部分参照)。
<Operation of
Next, an operation example of the
図16の状態においてはマイク装置9、マイク検出画像処理部110は、画像処理を用いてマイク装置9の移動を検出できない。このとき、マイク装置9の姿勢が変化した場合、マイク装置9の姿勢検出部94は、マイク装置9の姿勢変化があったことを検出する。そして、姿勢検出部94は、検出結果を姿勢情報送信部95に出力する。姿勢情報送信部95は、姿勢検出部94から入力された検出結果を撮像装置3に出力する。
In the state of FIG. 16, the
撮像装置3の姿勢情報受信部113は、検出結果(姿勢情報)を受信し、コントローラ109に出力する。コントローラ109は、検出結果に基づいて、マイク装置9の姿勢が変化したか否かを判定する(ステップS301)。マイク装置9の姿勢が変化していない場合(ステップS301:No)、コントローラ109は、画像データの中央に顔が位置している現在の状態を維持する。
The posture
一方、マイク装置9の姿勢に変化があった場合(ステップS301:Yes)、マイク検出画像処理部は、マイク検出処理を行う(ステップS302)。つまり、画像データ中にマイク装置9が含まれているか否かを判定する。
On the other hand, when the posture of the
画像データ中にマイク装置9が含まれている場合(ステップS303:Yes)、コントローラ109は、マイク装置9の位置が画像データの中央に位置するように、パンチルト駆動部107に制御信号を出力する(ステップS304)。これにより、画像データの中央に位置する物体が顔からマイク装置9に変化する。
When the
画像データ中にマイク装置9が含まれていない場合(ステップS303:No)、撮像装置3は、撮像する画像の画角を広げる(ステップS305)。具体的には、コントローラ109は、カメラ駆動部108に対して、テレ動作を実行させる制御信号を出力する。これにより、画角が広がり、マイク装置9が画像データに含まれるようになる(図17参照)。
When the
そして、マイク検出画像処理部110は、再度マイク装置9の検出処理を行う(ステップS302)。そして、マイク装置9が検出されると(ステップS303:Yes)、コントローラ109は、マイク装置9が画像データの中心になるように、パンチルト駆動部107に制御信号を出力する(ステップS304)。その結果、マイク装置9が画像の中央にくる(図18参照)。
Then, the microphone detection
その後、撮像装置3は、例えば、図3に示したフローチャートのステップS104以降を実施してもよい。具体的には、マイク装置9が停止した場合には(ステップS104:No)、顔検出処理部111は、マイク装置9の位置及び方向に基づいて、顔検出範囲を設定する(ステップS106)。そして、コントローラ109は、顔検出範囲内に含まれる顔(図18においては、司会者200の顔)が画像データの中央に来るように、パンチルト駆動部107を制御してもよい。
Thereafter, the
以上のように、本実施の形態にかかるマイク装置9は、マイク装置9の姿勢を検出する姿勢検出部94を備える。また、撮像装置3は、マイク装置9の姿勢情報を受信する姿勢情報受信部113を備える。さらに、コントローラ109は、受信したマイク装置9の姿勢情報に基づいて、カメラ駆動部108を制御する。これにより、マイク装置9が画角から外れてしまった場合であっても、マイク装置9の姿勢の変化に応じて、マイク装置9を追尾できる。その結果、必ずしも画像にマイク装置9が含まれていなくても、司会者200は、撮像装置1を遠隔操作することができ、撮影する画角の自由度を向上させることができる。
As described above, the
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更及び組み合わせをすることが可能である。例えば、上記の実施の形態においては、所定の対象物としてマイク装置を用いたが、これに限られるものではない。例えば、指示棒や、司会者の手であってもよい。 The present invention is not limited to the above-described embodiment, and can be appropriately changed and combined without departing from the spirit of the present invention. For example, in the above embodiment, the microphone device is used as the predetermined object, but the present invention is not limited to this. For example, it may be a pointing stick or the hands of a presenter.
また、上記の撮像装置の処理は、メインプロセッサのROM等に格納されたコンピュータプログラムによって実行可能である。上述の例において、各処理をコンピュータ(プロセッサ)に行わせるための命令群を含むプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 Further, the processing of the imaging apparatus can be executed by a computer program stored in a ROM or the like of the main processor. In the above-described example, a program including a group of instructions for causing a computer (processor) to perform each process is stored using various types of non-transitory computer readable media. Can be supplied to. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
1〜3 撮像装置
9 マイク装置
91 音声入力部
92 送信回路
93 音声信号送信部
94 姿勢検出部
95 姿勢情報送信部
101 レンズユニット
102 撮像部
103 音声入力部
104 音声回路
105 音声信号受信部
106 受信回路
107 パンチルト駆動部
108 カメラ駆動部
109 コントローラ
110 マイク検出画像処理部
111 顔検出処理部
112 記録/再生部
113 姿勢情報受信部
200 司会者
300 ゲスト
1-3
Claims (10)
特定の形状を有する対象物の前記画像データにおける位置を検出する対象物位置検出手段と、
前記対象物位置検出手段の検出結果に基づいて、前記画像データにおける顔検出領域を設定し、前記顔検出領域に含まれる顔領域を検出する顔検出手段と、
前記顔検出手段の検出結果に基づいて、パンチルト動作を実行するパンチルト駆動手段と、
を備える撮像装置。 Imaging means for generating image data by imaging processing;
An object position detecting means for detecting a position of the object having a specific shape in the image data;
A face detection means for setting a face detection area in the image data based on a detection result of the object position detection means and detecting a face area included in the face detection area;
Pan / tilt driving means for performing a pan / tilt operation based on the detection result of the face detecting means;
An imaging apparatus comprising:
前記顔検出手段は、前記対象物位置検出手段及び前記対象物方向検出手段の検出結果に基づいて、前記画像データにおける前記顔検出領域を決定する請求項1に記載の撮像装置。 An object direction detecting means for detecting the direction of the object in the image data;
The imaging apparatus according to claim 1, wherein the face detection unit determines the face detection region in the image data based on detection results of the object position detection unit and the object direction detection unit.
前記画像データにおいて前記対象物が移動している場合、前記パンチルト駆動手段は、前記対象物が前記画像データの中央に位置するようにパンチルト動作を実行する請求項1〜4のいずれか一項に記載の撮像装置。 The object position detecting means detects movement of the object in the image data;
5. The pan / tilt drive unit performs a pan / tilt operation so that the object is positioned at the center of the image data when the object is moving in the image data. 6. The imaging device described.
前記パンチルト駆動手段は、検出した前記顔領域が前記画像データの中央に位置するようにパンチルト動作を実行する請求項1〜5のいずれか一項に記載の撮像装置。 When the object does not move in the image data, the face detection means determines the face detection area, detects the face area included in the face detection area,
The imaging apparatus according to claim 1, wherein the pan / tilt driving unit performs a pan / tilt operation so that the detected face area is positioned at a center of the image data.
前記画像データにおける前記顔領域の位置から前記画像データにおける前記対象物の位置までの距離に基づいて、前記画像データの画角を変更する第1の画角変更手段をさらに備える請求項1〜6のいずれか一項に記載の撮像装置。 The face detection means detects a position of the detected face area in the image data;
7. A first angle-of-view changing unit that changes the angle of view of the image data based on a distance from the position of the face area in the image data to the position of the object in the image data. The imaging device according to any one of the above.
特定の形状を有する対象物の前記画像データにおける位置を検出し、
検出した前記対象物の位置に基づいて、前記画像データにおける顔検出領域を決定し、前記顔検出領域に含まれる顔領域を検出し、
検出した前記顔領域の位置に基づいて、パンチルト動作を実行する撮像方法。 Generate image data by imaging processing,
Detecting a position in the image data of an object having a specific shape;
Based on the detected position of the object, determine a face detection area in the image data, detect a face area included in the face detection area,
An imaging method for performing a pan / tilt operation based on the detected position of the face region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012172530A JP2014033332A (en) | 2012-08-03 | 2012-08-03 | Imaging apparatus and imaging method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012172530A JP2014033332A (en) | 2012-08-03 | 2012-08-03 | Imaging apparatus and imaging method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014033332A true JP2014033332A (en) | 2014-02-20 |
Family
ID=50282841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012172530A Pending JP2014033332A (en) | 2012-08-03 | 2012-08-03 | Imaging apparatus and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014033332A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2015098418A1 (en) * | 2013-12-27 | 2017-03-23 | 富士フイルム株式会社 | Imaging apparatus and time-lapse imaging method |
WO2020166178A1 (en) * | 2019-02-15 | 2020-08-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information processing device, information processing method, and program |
-
2012
- 2012-08-03 JP JP2012172530A patent/JP2014033332A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2015098418A1 (en) * | 2013-12-27 | 2017-03-23 | 富士フイルム株式会社 | Imaging apparatus and time-lapse imaging method |
WO2020166178A1 (en) * | 2019-02-15 | 2020-08-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9338362B2 (en) | Image capturing apparatus, image capturing control method and storage medium for capturing a subject to be recorded with intended timing | |
JP5538865B2 (en) | Imaging apparatus and control method thereof | |
US8994831B2 (en) | Image pickup control apparatus, image pickup control method and computer readable medium for changing an image pickup mode | |
JP6192940B2 (en) | Photography equipment and cooperative photography method | |
US9716831B2 (en) | Imaging control apparatus, imaging control method, and program | |
JP6335394B2 (en) | Imaging system and imaging control method | |
US10200619B2 (en) | Electronic device, control method therefor, and remote capturing system | |
JP2013207680A (en) | Communication apparatus, imaging apparatus, imaging system, and program | |
TW201809934A (en) | Remote work assistance device, instruction terminal, and onsite terminal | |
JP6029292B2 (en) | COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM | |
US20160295090A1 (en) | Imaging system, imaging device, information processing device and method, and program | |
JP2012042583A (en) | Electronic device and camera | |
JP2014033332A (en) | Imaging apparatus and imaging method | |
JP2014154905A (en) | Imaging apparatus, remote operation terminal, camera system, imaging apparatus control method and program, and remote operation terminal control method and program | |
JP2020003754A (en) | Projection device, projection method, and program | |
US9477062B2 (en) | Zoom lens barrel | |
WO2017203644A1 (en) | Information processing device, support device for information processing device, and control program for support device for information processing device | |
JP2010074264A (en) | Photographing apparatus and photographing system | |
JP2018085579A (en) | Imaging apparatus, control method, and information processing program | |
JP2010239416A (en) | Imaging apparatus and method of controlling the same | |
JP2015162822A (en) | Electronic apparatus, imaging apparatus, and communication apparatus | |
JP2008026634A (en) | Driving unit, driving device, hand blurring correction unit and photographing device | |
JP2009027626A (en) | Microphone device, video capturing device, and remote video capturing system | |
JP2013242408A (en) | Imaging device and control method of the same | |
JP2021135368A (en) | Imaging apparatus, control method of the same, program and storage medium |