(全体構成)
以下、図面を参照して、本発明の実施の形態に係る撮像装置、及びその制御方法について説明する。まず、図1、図2を用いて、撮像装置の全体構成について説明する。図1、図2は、本実施の形態にかかる撮像装置の全体構成を示す側面図である。撮像装置1は、本体部11と、モニタ部12と、第1駆動機構13と、第2撮像部15と、プロジェクタ18と、第2駆動機構19とを備えている。なお、図1、図2では、XYZ直交座標系を示している。図1、図2では、メインカメラとなる第1撮像部(図1、図2では不図示)のレンズの光軸と平行な方向をZ方向とする。そして、Z方向と垂直な平面をXY平面とする。Y方向が鉛直方向(上下方向)となり、X方向が水平方向(左右方向)となっている。もちろん、上記の方向は、相対的なものであり、撮像装置1の向きに応じて変化する。
本体部11は、CMOS撮像素子及びレンズなどを備えた第1撮像部(図1では不図示)を内蔵する筐体を備えている。メインカメラである第1撮像部は、被写体から光を受光して、動画、及び静止画を撮像する。さらに、本体部11は、図示しない、バッテリ、内蔵メモリ、メモリカードスロット、CPU(Central Processing Unit)等を内蔵している。第1撮像部が取得した画像データは、所定の処理が施されて、メモリに格納される。第1撮像部は、撮像装置1の前方を向いて配置されている。すなわち、第1撮像部は、ユーザ21と反対側を向いて配置されている。したがって、第1撮像部は、投影面P側を撮像する。なお、撮影者が、操作ボタン等を押すことで、撮影が開始、又は停止することができる。
本体部11の側面には、Y軸周りに開閉可能に設けられたモニタ部12が取り付けられている。例えば、モニタ部12を閉状態とすると、モニタ部12が、本体部11の側面と平行になる。モニタ部12は、液晶モニタ等のディスプレイを内蔵しており、第1撮像部が取得した動画又は静止画を表示する。モニタ部12は、観察者であるユーザ21側に表示画面12aを備えている。したがって、撮像装置1を把持するユーザ21は、モニタ部12の表示画面12aを視認しながら、第1撮像部で撮像を行うことができる。これにより、第1撮像部を所望の被写体に向けながらの撮影が可能になる。図1では、モニタ部12の表示画面12aがXY平面に平行となっている。
さらに、モニタ部12は、第1駆動機構13を介して、本体部11に取り付けられている。本体部11は、第1駆動機構13を介して、モニタ部12を回転可能に支持している。第1駆動機構13はモータ等のアクチュエータを備えている。そして、第1駆動機構13は、X軸周りに、モニタ部12を回転駆動する。第1駆動機構13は、本体部11に対するモニタ部12の角度を変える。これにより、本体部11に対してモニタ部12が矢印方向に回転して、モニタ部12が上下に傾いた状態になる。また、撮影者がモニタ部12を直接操作して、モニタ部12を回転させてもよい。図2は、モニタ部12を図1に示す状態から下側に傾けた状態を示している。このように、第1駆動機構13を駆動することによって、表示画面12aの角度が変化する。
さらに、モニタ部12にはプロジェクタ18が設けられている。プロジェクタ18は、例えば、小型のピコプロジェクタであり、モニタ部12の表示画面12aとは反対側の背面に設置されている。すなわち、プロジェクタ18は、モニタ部12のユーザ21と反対側に配置されている。プロジェクタ18は、モニタ部12に表示される表示画像を投影面Pに投影する。したがって、ユーザ21は、投影面Pに投影された投影画像を視認することができる。投影面Pは室内の壁面やスクリーンである。
なお、モニタ部12とプロジェクタ18は、同じ表示画像を同時に表示することができる。たとえは、モニタ部12とプロジェクタ18は、第1撮像部によって取得された動画を表示することができる。あるいは、モニタ部12とプロジェクタ18は、他の撮像装置で取得された動画を表示することができる。この場合、他の撮像装置で取得された動画のファイルを撮像装置1のメモリ等に記憶させておく。あるいは、撮像措置1に通信機能を持たせて、ネットワークを介して他の撮像装置1で撮像された動画データを取得するようにしてもよい。
このように、撮像装置1は、同時に同じ画像を表示可能なモニタ部12及びプロジェクタ18を備えている。換言すると、撮像装置1は2つの表示部を備えている。もちろん、プロジェクタ18をOFFして、モニタ部12のみで表示を行ってもよい。さらには、モニタ部12をOFFして、プロジェクタ18のみで表示を行ってもよい。例えば、ユーザが操作ボタン等を押すことによって、プロジェクタ18をON/OFFすることができる。これにより、モニタ部12の液晶モニタのみの単独表示か、モニタ部12の液晶モニタとプロジェクタ18の同時表示かを選択することができる。
プロジェクタ18は、第2駆動機構19を介して、モニタ部12に取り付けられている。すなわち、モニタ部12は、第2駆動機構19を介して、プロジェクタ18を回転可能に支持している。第2駆動機構19は、プロジェクタ18の光軸周りにプロジェクタ18を回転する。第2駆動機構19は、プロジェクタ19の投影レンズ及び表示素子を含む全体を回転させる。これにより、投影面Pに投影されている投影画像の傾きを変えることができる。例えば、図1に示す状態では、プロジェクタ18の投影レンズの光軸、及び第1撮像部の光軸が平行になっている。したがって、図1に示す状態において、第2駆動機構19は、Z軸周りにプロジェクタ18を回転させる。換言すると、第2駆動機構19は、投影面Pに対して垂直な軸周りにプロジェクタ18を回転する。これにより、投影面Pに投影される投影画像を傾けることができる。
また、第1駆動機構13を駆動することで、モニタ部12とともにプロジェクタ18もX軸周りに回転する。これにより、プロジェクタ18の投影方向が上下に変化する。よって、投影面Pにおける投影位置を変化させることができる。図2では図1に示す状態から、投影面Pにおける投影画像の高さが変化している。このように、第1駆動機構13は、モニタ部12とプロジェクタ18の向きを変化している。また、第1駆動機構13は、プロジェクタ18の投影方向を変化している。第1駆動機構13と第2駆動機構19の制御方法については後述する。
モニタ部12の構成について、図3を用いて説明する。図3は、モニタ部12の構成を模式的に示す図である。図3は、モニタ部12を表示側から見た図を示している。モニタ部12の表示側には、矩形状の表示画面12aが設けられている。表示画面12aは、第1撮像部で撮像した画像を表示する。モニタ部12の側方には、第1駆動機構13が設けられている。第1駆動機構13がモニタ部12を回転駆動することで、表示画面12aの表示方向が変わる。例えば、第1駆動機構13は、表示画面12aの表示方向を上下に傾ける。
さらに、モニタ部12には、サブカメラとなる第2撮像部15が設けられている。第2撮像部15は、表示画面12aの外側に配置されている。ここでは、第2撮像部15は、表示画面12aの上に固定されている。第2撮像部15は、モニタ部12の表示側を撮像する。第2撮像部15は、撮像装置1を把持した撮影者を撮像するために設けられている。撮影者がモニタ部12の表示画面12aを見ながら撮影すると、第2撮像部15は撮影者を撮像する。なお、第2撮像部15のレンズの光軸は、表示画面12aと垂直になっている。第2撮像部15は、モニタ部12の回転角度に応じて撮像方向が変化する。
なお、プロジェクタ18は、モニタ部12の表示画面12aと反対側の面に設けられている。したがって、第1駆動機構13がモニタ部12を駆動すると、プロジェクタ18の角度も変化する。また、第2撮像部15の光軸は、プロジェクタ18と平行になっている。
第2撮像部15の近傍にはライト16が設けられている。ライト16は、LED(Light Emitting Diode)などの光源を備えおり、照明光を出射する。照明光は、第2撮像部15で撮像される被写体を照明する。
(制御系)
次に、図4を参照して、撮像装置1の制御系について説明する。図4は、撮像装置1の制御系を示すブロック図である。
中央制御部400はCPU(Central Processing Unit)、各種プログラムが格納されたROM(Read Only Memory)、及びワークエリアとしてのRAM(Random Access Memory)等を含む半導体集積回路により構成されている。中央制御部400をマイクロコンピュータで構成することができる。中央制御部400は、撮像、各種画像の表示、又は後述する画像処理や画像表示等に関する撮像装置1全体の処理を統括的に制御する。
メインカメラとなる第1撮像部14は、ズームレンズ101、フォーカスレンズ102、絞り103、及び撮像素子104を備えている。ズームレンズ101は図示しないズームアクチュエータによって光軸LAに沿って移動する。同様に、フォーカスレンズ102は、図示しないフォーカスアクチュエータによって光軸LAに沿って移動する。絞り103は、図示しない絞りアクチュエータに駆動されて動作する。撮像素子104は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等で構成される。
撮像素子104はズームレンズ101、フォーカスレンズ102、及び絞り103を通過した光を光電変換して、被写体のアナログ画像信号を生成する。アナログ画像信号処理部105が、このアナログ画像信号を増幅した後、画像A/D変換部106が、その増幅された信号をデジタル画像データに変換する。そして、画像A/D変換部106は、デジタル画像データを、映像信号として、画像入力コントローラ107に出力する。画像入力コントローラ107は、画像A/D変換部106から出力されたデジタル画像データを撮像画像データとして取り込んで、バス200を介してメインメモリ206に格納する。
サブカメラとなる第2撮像部15は、ズームレンズ501、フォーカスレンズ502、絞り503、及び撮像素子504を備えている。ズームレンズ501は図示しないズームアクチュエータによって光軸LBに沿って移動する。同様に、フォーカスレンズ502は、図示しないフォーカスアクチュエータによって光軸LBに沿って移動する。絞り503は、図示しない絞りアクチュエータに駆動されて動作する。撮像素子504は、CCDやCMOS等で構成される。
撮像素子504はズームレンズ501、フォーカスレンズ502、及び絞り503を通過した光を光電変換して、被写体のアナログ画像信号を生成する。アナログ画像信号処理部505が、このアナログ画像信号を増幅した後、画像A/D変換部506が、その増幅された信号をデジタル画像データに変換する。そして、画像A/D変換部506は、デジタル画像データを、映像信号として、画像入力コントローラ507に出力する。画像入力コントローラ507は、画像A/D変換部506から出力されたデジタル画像データを撮像画像データとして取り込んで、バス200を介してメインメモリ206に格納する。
なお、第1撮像部14は、メインカメラであり、第2撮像部15は、サブカメラである。したがって、第2撮像部15は、第1撮像部14よりも撮像性能が低いものとすることができる。例えば、撮像素子504は、撮像素子104よりも画素数が低くなっていてもよい。あるいは、ズームレンズ501、フォーカスレンズ502は、ズームレンズ101、フォーカスレンズ102よりもレンズ性能の低いレンズであってもよい。
デジタル信号処理部108は、バス200を介して中央制御部400からの指令に基づき、メインメモリ206に格納された撮像画像データを取り込み、所定の信号処理を施して輝度信号と色差信号とからなるデータを生成する。デジタル信号処理部108はまた、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補完処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等の各種デジタル補正を行う。
音声処理部202は、バス200を介して中央制御部400の指示に従い、マイク(不図示)等で取得された音声データに所定の処理を施す。例えば、音声データをデジタルデータに変換したり、雑音除去処理等をしたりする。
圧縮/伸長処理部201は、バス200を介して中央制御部400からの指示に従って、第1撮像部14によって取得された撮像画像データ及びデジタル音声データに所定の圧縮処理を施して圧縮データを生成する。また、圧縮/伸長処理部201は、中央制御部400からの指示に従って、記録部の一例であるカード型記録媒体302に格納された圧縮データに所定形式の伸張処理を施して非圧縮データを生成する。所定の圧縮処理としては、静止画像に対してはJPEG規格に準拠した圧縮方式を採用することができ、動画に対してはMPEG2規格やAVC/H.264規格に準拠した圧縮方式を採用することができる。圧縮/伸長処理部201は、第1撮像部14によって取得された撮像画像データに対して、処理を行う。
ROM203はバス200を介して中央制御部400に接続されており、中央制御部400が実行する制御プログラム及び制御に必要な各種データ等を格納している。フラッシュROM204は、ユーザの設定情報等、撮像装置1の動作に関する各種設定情報を格納している。撮像装置1は、様々な撮像のシチュエーションに応じて、いくつかの撮像モードと、各モードにあわせた撮像条件の設定を予めフラッシュROM204に記憶している。そして、ユーザは撮像を開始する前に、各モードの中から最適なモードを選択することにより、最適な撮像条件で撮像を実施することができる。例えば、特定の人物の撮像に適した「ポートレートモード」、運動会等の撮像に適した「スポーツモード」、又は夜景等の暗い場所の撮像に適した「夜景モード」等である。VRAM205は、表示用の撮像データの一時記憶領域として使用される。
メディア制御部207は、中央制御部400からの指示に従って、カードI/F301を介してカード型記録媒体302に対してデータを書き込み、カード型記録媒体302に記録されたデータを読み出すよう制御する。カード型記録媒体302はSDカードやコンパクトフラッシュ(登録商標)等の外部メモリであり、撮像装置1に対して脱着可能に設けられている。カード型記録媒体302には、第1撮像部14で撮像した動画の撮像画像データが圧縮して格納される。
液晶モニタ304、スピーカ305、操作部306及び入出力端子307は入出力I/F303に接続されている。液晶モニタ304は、モニタ部12に内蔵されている。液晶モニタ304は、例えばVRAM205やメインメモリ206に一時記録された撮像画像データや各種メニュー画像データ等、各種画像データから生成された画像を表示する。液晶モニタ304は、第1撮像部14によって取得された動画を表示する。あるいは、液晶モニタ304はカード型記録媒体302に記録されている動画を表示する。
スピーカ305は、例えばメインメモリ206に一時記録された音声を出力する。操作部306は、図示しないレリーズ・スイッチや電源スイッチを含む操作キー、十字キー、ジョイスティック、又は液晶モニタ304上に重畳されたタッチパネル等から構成されており、ユーザの撮像装置1への操作入力を受け付ける。入出力端子307は、図示しないテレビモニタやPC(Personal Computer)等に接続される。
さらに、プロジェクタ18は、入出力I/F303に接続されている。プロジェクタ18は、例えばVRAM205やメインメモリ206に一時記録された撮像画像データや各種メニュー画像データ等、各種画像データから生成された画像を表示する。プロジェクタ18は、第1撮像部14によって取得された動画を表示する。あるいは、プロジェクタ18は、カード型記録媒体302に記録されている動画を表示する。
プロジェクタ18は、液晶モニタ304に表示される表示画像と同じ画像を投影する。したがって、プロジェクタ18は、投影面Pに投影画像を投影する。また、プロジェクタ18は、投影画像のズームやフォーカス等を調整する。
さらに、第1駆動機構13は、入出力I/F303に接続されている。第1駆動機構13はモータ、モータドライバ、及びエンコーダなどを備えている。そして、第1駆動機構13は、液晶モニタ304が設けられているモニタ部12を回転駆動する。例えば、第1駆動機構13は、中央制御部400からの指令値に基づいて、モニタ部12を回転させる。
同様に、第2駆動機構19は、入出力I/F303に接続されている。第2駆動機構19はモータ、モータドライバ、及びエンコーダなどを備えている。そして、第2駆動機構19は、プロジェクタ18を回転駆動する。例えば、第2駆動機構19は、中央制御部400からの指令値に基づいて、プロジェクタ18を回転させる。
また、ライト16が入出力I/F303に接続されている。ライト16は、第2撮像部15で撮像される領域を照明する。ライト16は、中央制御部400からの制御信号に基づいて、制御される。例えば、ライト16は、第2撮像部15で撮像される領域が暗い場合に点灯する。もちろん、ユーザが直接、ライト16のON/OFF等を設定するようにしてもよい。
ジャイロセンサ208は、撮像装置1の3軸の加速度及び角速度の変化を検出する。ジャイロセンサ208が検出した角速度を積分することで、本体部11の角度を求めることができる。
照度センサ209は、撮像装置1の使用環境の照度を検出する。照度センサ209は、投影面Pを含む部屋が明るさを検出する。そして、照度センサ209の検出結果に応じて、中央制御部400が、ライト16を制御する。例えば、照度センサ209で検出された照度が閾値よりも低い場合、中央制御部400は、ライト16をオンする。もちろん、ユーザが直接、ライト16のON/OFF等を設定するようにしてもよい。
中央制御部400は、顔認識部401と、角度データ取得部402と、制御データ生成部403と、表示制御部404と、回転角度設定部405と、駆動制御部406と、を備えている。顔認識部401は、第2撮像部15が取得した画像に対して、顔認識処理を行う。より具体的には、顔認識部401は、動画のフレーム画像に対して顔認識を行う。
また、顔認識部401は、顔認識によって抽出された顔の特徴量を抽出する。顔認識部401は、顔の特徴量に基づいて、顔認識されている人を特定する。すなわち、顔認識部401は、顔の特徴量が一致している人は同じ人であると認識する。顔認識部401は、どの人が画像に含まれているかを検出する。顔認識部401は、動画の1フレーム毎に、画像に含まれているユーザを特定する。
角度データ取得部402は、ジャイロセンサ208での検出結果に基づいて、撮像時の本体部11の角度を取得する。例えば、角度データ取得部402は、ジャイロセンサ208が検出した角速度を積分して、本体部11の角度を求めることができる。角度データ取得部402は、1フレーム毎に3軸の回転角度を取得する。
制御データ生成部403は、顔認識データと角度データに基づいて、制御データを生成する。例えば、制御データ生成部403は、1フレーム毎の顔認識データと角度データをテーブルとして保存する。制御データ生成部403は、制御データファイルを、例えば、メインメモリ206又はカード型記録媒体302に格納する。また、制御データファイルは、取得した動画ファイルと対応付けて保存される。
図5に制御データ生成部403が生成した制御データのテーブルの一例を示す。ここでは、1フレームからnフレームまでの動画に対する制御データが格納されている。なお、録画開始時の先頭フレームが1フレームであり、録画終了時の最終フレームがnフレームとなっている。そして、フレーム番号が動画の経過時間に対応する。
制御データのテーブルには、1フレーム毎に、顔認識データA、顔認識データB、角度データが対応付けられている。顔認識データAは、ユーザAが撮像されているか否かを示すデータである。すなわち、顔認識データAの縦列にユーザAと示されているフレームでは、撮像画像内にユーザAの顔が含まれており、空欄となっているフレームでは、撮像画像内にユーザAの顔が含まれていない。図5では、3フレーム目〜101フレーム目までユーザAの顔が撮像されている。そして、102フレーム目から200フレーム目までは、ユーザAの顔が撮像されていない。さらに、201フレーム目からnフレーム目までユーザAの顔が撮像されている。このように、ユーザAの顔が検出できたか否かに応じて、顔認識データAが生成される。
同様に、顔認識データBは、ユーザBが撮像されているか否かを示すデータである。すなわち、顔認識データBにユーザBと示されているフレームでは、撮像画像内にユーザBの顔が含まれており、空欄となっているフレームでは、撮像画像内にユーザBの顔が含まれていない。図5では6フレーム目から102フレーム目までは、ユーザBの顔が検出されている。もちろん、ユーザA,B以外のユーザの顔が撮像される場合は、そのユーザについても顔認識データを保存する。例えば、他のユーザCやユーザDの顔が撮像される場合は、それぞれのユーザについて顔認識データを生成する。
このように、顔認識部401は、顔認識の結果により得られた顔の特徴量によって、顔に対応するユーザを特定する。そして、制御データ生成部403は、撮像画像に登場するユーザ毎に、時系列に沿った顔認識データを取得する。なお、顔認識データとしては、撮像画像におけるユーザの有無に限らず、撮像画像における顔画像の位置や傾きなどが含まれていてもよい。
角度データは、例えば、X軸周りの回転角度φ、Y軸周りの回転角度θ、Z軸周りの回転角度Ψを有している。そして、制御データのテーブルには、1フレーム毎に(φ、θ、Ψ)が格納される。例えば、nフレーム目の角度データは、(φn、θn、Ψn)となっている。このように、制御データ生成部403は、撮像時の顔認識データと角度データとに基づいて、制御データを生成する。
制御データをメタファイルとして記憶される。あるいは、制御データをストリームデータとして記憶してもよい。また、制御データは撮像と並行して生成されていてもよく、撮像の終了後に生成されていてもよい。また、ユーザが制御データを生成するか否かを指定するようにしてもよい。
そして、表示制御部404は、制御データに基づいて、表示を制御する。表示制御部は、制御データと、第2撮像部15が撮像中の撮像画像の顔認識データを比較する。そして、比較結果に応じて、強調表示を行う。例えば、表示制御部404は、プロジェクタ18が投影している投影画像に対して強調表示を行う。このように、表示制御部404は、表示画像に対応する制御データの顔認識データに基づいて、動画形式の表示画像の顔を強調して表示する。この強調表示については後述する。
回転角度設定部405は制御データに基づいて、回転角度を設定する。回転角度設定部405は、例えば、角度データに基づいて、第1駆動機構13と第2駆動機構19の回転角度を設定する。そして、駆動制御部406は、回転角度に応じた指令値を第1駆動機構13、及び第2駆動機構19に出力する。これにより、第1駆動機構13及び第2駆動機構19が設定された回転角度になるように回転する。なお、第1駆動機構13と第2駆動機構19の制御については、後述する。
なお、上記の説明では、制御データがフレーム毎に生成されているものとして説明したが、制御データは複数フレーム毎に生成されていてもよい。あるいは、所定の時間間隔ごとに制御データを生成してもよい。すなわち、制御データを取得した時間又はフレームが、その制御データに対応付けられていればよい。換言すると動画の経過時間とともに制御データが格納されている。よって、動画の経過時間に対応付けて、角度データと顔認識データが記憶される。さらには、角度データと顔認識データは、同じ時間間隔で取得されていなくてもよい。例えば、角度データは、1フレーム毎に取得され、顔認識データは、2フレーム毎に取得されていてもよい。
(強調表示の動作説明)
以下、強調表示の動作について、図6を用いて説明する。図6は、強調表示を行う前の状態を示し、図7は、強調表示が行われている状態を模式的に示す図である。なお、図6、図7では、撮像装置1の構成の一部を省略して図示している。強調表示では、制御データの顔認識データが用いられる。図6、図7では、顔認識データと対応付けられた動画ファイルを再生している状態を模式的に示している。
図6のように、プロジェクタ18が投影面Pに対して投影画像を投影している。ここでは、既にカード型記録媒体302に記録されている動画ファイルを再生する。以下、プロジェクタ18によって投影された投影画像を再生画像30とする。再生画像30は、ユーザ21a、及びユーザ21bを含んでいる。すなわち、ユーザ21a、及びユーザ21bを被写体として含んで撮像された動画をプロジェクタ18が再生している。この場合、制御データは、図5に示したように、ユーザ21aの顔認識データAとユーザ21bの顔認識データBが含まれている。ここで、制御データに含まれる顔認識データを参照データとする。
さらに、プロジェクタ18による表示中に、第2撮像部15がプロジェクタ18の投影方向と反対方向を撮像する。すなわち、第2撮像部15は、再生画像30を視認している観察者(ユーザ)を撮像する。図6では、第2撮像部15が撮像装置1の後方で再生画像30を視認しているユーザ21a及びユーザ21cを撮像する。顔認識部401は、第2撮像部15で撮像された撮像画像に対して、顔認識を行う。顔認識部401は、ユーザ21aとユーザ21cの顔をそれぞれ認識する。なお、顔認識部401は、第2撮像部15で撮像されている動画の各フレームに対して、顔認識を行う。これにより、第2撮像部15の撮像画像の顔認識データが生成される。ここで、第2撮像部15の撮像画像の顔認識データを比較データとする
そして、表示制御部404は、参照データと、現在の比較データとを比較する。すなわち、制御データに含まれる顔認識データと、撮像中の撮像画像の顔認識データを比較して、一致している顔を検出する。例えば、図6に示す例では、ユーザ21aの顔が再生画像30と撮像画像の両方に含まれる。したがって、撮像中のユーザ21aの比較データが参照データと一致すると判定する。
一方、撮像中のユーザ21cの比較データは、ユーザ21bの参照データと一致しない。すなわち、ユーザ21bの顔画像は、撮像画像には含まれていない。また、ユーザ21cの顔画像は、再生画像30には含まれていない。よって、撮像中のユーザ21bの顔認識データと、参照データに含まれるユーザ21cの顔認識データは、一致していない。このように、図6では、ユーザ21aのみ、参照データと比較データが一致する。
そして、表示制御部404は、参照データと比較データとの比較結果に応じて、強調表示データを生成する。参照データと比較データが一致したユーザの顔画像を強調するよう、プロジェクタ18が表示を行う。これにより、図7に示すように、ユーザ21aの顔が強調表示される。例えば、図7では、ユーザ21aの顔に強調表示用の図形31を重畳して、表示する。表示制御部404は、再生中の動画に図形31を重畳して、表示用データを生成する。そして、プロジェクタ18は元の表示画像に図形31が重畳された強調表示画像を表示する。なお、強表表示のために重畳するデータとしては、再生画像30に枠や吹き出し、文字、記号等のグラフィックを用いることができる。あるいは、表示色によって強調表示することも可能である。
このように、プロジェクタ18は、再生画像30を視認中のユーザ21aのみを強調して表示する。ユーザ21aは、再生画像30に含まれていることが容易に認識される。現在、再生画像30を見ている観察者に対して、図形31を付加して表示する。こうすることにより、観察者に対して、より臨場感のある再生画像30を表示させることができる。よって、エンターテイメント性を高くすることができる。
次に、図8を用いて、強調表示を行う制御方法について説明する。図8は、強調表示の制御方法を示すフローチャートである。
まず、ユーザが予め取得された動画ファイルを選択すると、プロジェクタ18による再生を開始する。すると、部屋が明るいか否かを判定する(ステップS101)。例えば、照度センサ209で検出した照度に基づいて、明るいか暗いかを判定することができる。部屋が明るい場合(ステップS101のYES)、ステップS106に移行する。
部屋が暗い場合(ステップS101のNO)、中央制御部400がライト16をONする(ステップS102)。部屋が暗い場合、撮像中の撮像画像での顔認識の精度が低下する。よって、ライト16をONして、第2撮像部15が撮像する領域を照明する。これにより、投影画像を視認するユーザが照明され、顔認識を精度よく行うことができる。
ライト16をONしたら、顔を事前登録するか否かを判定する(ステップS103)。例えば、液晶モニタ304又はプロジェクタ18の表示によって、顔を事前登録するか否かをユーザに問い合わせる。ユーザが操作部306を操作して、顔を事前登録するか否かを決定する。
操作部306が顔を事前登録するとの入力を受け付けた場合、事前顔登録の処理を行う(ステップS104)。すなわち、ライト16がONした状態で、第2撮像部15が観察者となるユーザの顔を撮像する。ここでは、第2撮像部15が静止画を撮像するようにしてもよい。さらには、再生画像を視認する複数のユーザを登録してもよい。そして、顔認識部401が、撮像した静止画に対して顔認識を行う。これにより、観察者であるユーザの顔認識データが取得される。もちろん、複数のユーザを事前登録する場合、それぞれの顔認識データが取得される。複数のユーザを事前登録する場合、1枚の静止画で事前登録してもよい、ユーザ毎に顔の静止画を撮像してもよい。なお、事前顔登録を行うための画像は、動画であってもよい。さらには、第1撮像部14で事前顔登録用の画像を撮像してもよい。
ユーザの事前顔登録が終了したら、ライト16をオフする(ステップS105)。そし、ステップS106に移行する。一方、操作部306が顔を事前登録しないとの入力を受け付けた場合(ステップS103のNO)、ライト16をONとしたまま、ステップS106に移行する。
ステップS106では、プロジェクタ18が動画再生を開始すると同時に、第2撮像部15で撮像した撮像画像に対して、顔認識処理を開始する。これにより、第2撮像部15の撮像画像に対して、リアルタイムに顔認識データが取得されていく。なお、ステップS104で事前に顔登録を行った場合は、リアルタイムの顔認識処理を省略することができる。
事前に顔登録を行っていない場合、顔認識部401が撮像画像に対して、随時顔認識を行う。この場合、部屋が明るい状態で撮像された動画に対して顔認識が行われる。あるいは、ライト16がONしている状態で撮像された動画に対して顔認識が行われる。よって、いずれの場合にも、明るい環境で第2撮像部15が撮像した撮像画像について、顔認識が行われる。これにより、顔認識の精度を向上することができる。
次に、顔認識データの比較が行われる(ステップS107)。すなわち、表示制御部404が、顔認識部401で顔認識された比較データと、参照データとを比較する。ここで、ステップS104において、事前に顔登録を行った場合、ステップS104で取得した顔認識データが利用される。すなわち、ステップS104で取得した顔認識データ(比較データ)と、参照データが比較される。換言すると、再生画像30を表示中にリアルタイムで取得した動画に対しては、顔認識が行われない。
顔事前登録を行っていない場合、再生画像30の再生中に第2撮像部15がリアルタイムで撮像している撮像画像の顔認識データが用いられる。すなわち、表示制御部404が、リアルタイムに取得した比較データを参照データと比較する。これにより、リアルタイムのユーザ21の観察状況に応じて、比較処理を行うことができる。
そして、顔認識データが一致するか否かを判定する(ステップS108)。すなわち、参照データが、第2撮像部15で取得したユーザ(観察者)の顔の比較データと一致するか否かを判定する。顔認識データが一致する場合(ステップS108のYES)、一致した顔認識データに対応する顔画像を強調表示する(ステップS109)。例えば、図7に示したように、ユーザ21aの顔画像に図形31などを重畳して、表示する。これにより、再生画像30において、再生画像30を視認中のユーザ21の顔が強調表示される。もちろん、二人以上の顔認識データが一致した場合、それぞれについて強調表示する。そして、ステップS110に移行する。
顔認識データが一致しない場合(ステップS108のNO)、ステップS109をスキップして、ステップS110に移行する。すなわち、どのユーザに対しても強調表示を行わずに、ステップS110に移行する。
そして、動画再生が終了したか否かを判定する(ステップS110)。すなわち、ユーザが動画再生の停止ボタンを押したか、あるいは、動画が最終フレームまで再生されたかを判定する。そして、動画再生が終了した場合(ステップS110のYES)、処理を終了する。また、動画再生が終了していない場合、(ステップS110のNO)、ステップS107に戻って、処理を繰り返す。すなわち、動画再生が終了するまで、参照データと比較データとを比較して、比較結果に基づいて、強調表示を行う。これにより、フレーム毎に強調表示が行われる。
このように、第2撮像部15の撮像画像に基づいて、再生画像に対して強調表示を行っている。すなわち、顔認識部401は、第2撮像部15の撮像画像に対して、顔認識を行う。そして、顔認識部401は、撮像画像に基づく比較データと、再生画像に基づく参照データとを比較する。そして、比較データと参照データとに一致する顔画像がある場合、表示制御部404は、一致する顔画像に対して強調表示を行う。これにより、より臨場感のある動画再生が可能になる。
また、上記の実施の形態では、制御データとなる顔認識データを動画の取得時に生成している。そして、再生画像30、すなわち、動画ファイルに、顔認識データを対応付けて記憶している。このように、予め顔認識データ(参照データ)を用意しておくことで、処理を簡素化することができる。よって、迅速に処理を行うことができ、速やかに顔を強調して表示することができる。もちろん、実際に表示を行う際に、顔認識データを生成してもよい。すなわち、動画ファイルの再生中に、顔認識部401がその参照データを生成するようにしてもよい。
さらに、再生環境が暗い場合、ライトをONした状態の撮像画像に対して顔認識を行っている。これにより、顔認識の精度を向上することができる。特に、プロジェクタ18が使用される室内は、室内灯をOFFすることが多い。この場合でも、顔認識の精度を向上することができる。また、事前登録するときのみ、ライト16をONすることで、消費電力を提言することができる。さらに、部屋を暗くすることができるため、視認性を向上することができる。
さらに、事前に顔登録を行った顔認識データを用いることで、顔情報が一致するか否かを適切に判定することができる。すなわち、再生中の部屋が暗い場合でも、適切に処理することができる。
また、動画再生中に、第2撮像部15が撮像した動画をリアルタイムに顔認識することで、適切に顔が一致するか否かを判定することができる。例えば、再生途中に観察者となるユーザが増減した場合でも、適切に強調表示を行うことができる。よって、より臨終感のある動画表示が可能になる。
(第1の角度制御方法)
次に、制御データに含まれる角度データを用いた第1の角度制御方法について、図9〜図12を用いて説明する。図9〜図12は、第1の角度制御方法の動作を説明するための図である。図9、及び図10は、動画を撮像中の動作を示す模式図であり、図11、及び図12は、動画を再生中の動作を示す模式図である。なお、図9〜図12では、撮像装置1の一部の構成を省略している。第1の角度調整方法では、第1駆動機構13がモニタ部12の角度を変化させている。
まず、第1撮像部14で動画を撮像中の動作について説明する。ここでは、動画を撮像中に、本体部11の角度を変えた場合について説明する。図9、図10は、ユーザ21a、21bを撮像中の撮像装置1と、モニタ部12に表示されている表示画像40を示す図である。図9と図10とでは、本体部11の角度が異なっている。
図9では、第1撮像部11の光軸LAが水平になっている。すなわち、水平方向Hと光軸LAが平行になっている。このとき、ユーザ21a、21bの顔が第1撮像部11の画角の中央付近にある。したがって、モニタ部12の液晶モニタ上の表示画像40において、ユーザ21a、21bの顔が中央付近にある。
図10は、本体部11を上方に傾けた状態を示している。すなわち、第1撮像部11の光軸LAが斜めになっている。水平方向Hと光軸LAが平行にならない。水平方向Hと光軸LAの成す角度がαとなっている。第1撮像部11が斜め上方を撮像する。ここで、ユーザ21a、21bの位置はほとんど変わっていない。したがって、ユーザ21a、21bの顔が、第1撮像部11の画角の下側に移動する。よって、表示画像40においても、ユーザ21a、21bの顔が下側にある。
第1撮像部14の撮像中に、ユーザが本体部11の角度を変えたとする。例えば、図9に示す状態から、ユーザ(撮影者)が本体部11を角度αだけ上方に向けて、図10に示す状態にしたとする。ここで、ジャイロセンサ208は、本体部11の角速度を検出している。角速度に基づいて、角度データ取得部402が、本体部11の角度を取得する。よって、角度データ取得部402は、本体部11の角度αを取得することができる。なお、角度αは、X軸周りの回転角度である。
ここで、動画ファイルにおいて、図9のように光軸LAが水平となったタイミングでの経過時間をT1とし、そのフレームをF1とする。動画ファイルにおいて、図10のように光軸LAが角度αだけ傾斜したタイミングでの経過時間をT2とし、そのフレームをF2とする。
角度データ取得部402が取得した回転角度φの変化が制御データとして記憶される。制御データは、フレーム毎又は経過時間毎の角度データを有している。したがって、経過時間T1又はフレームF1がφ=0と対応付けて記憶される。また、経過時間T2又はフレームF2がφ=αと対応付けて記憶される。なお、ここでは、水平方向Hと光軸LAが平行な場合のφを0としたが、φ=0となる基準方向は、水平方向Hに限られるものではない。角度データ取得部402は、時系列の角度データを、撮像された撮像画像の動画ファイルに対応付けて、メモリ等に格納する。
角度データと対応付けられた動画ファイルを再生する場合、角度データに応じて、第1駆動機構13がモニタ部12の角度を制御する。これにより、プロジェクタ18の投影方向が変化する。例えば、再生中に経過時間T1(フレームF1)を表示するタイミングでは、図11に示すようにプロジェクタ18の投影方向を水平にして、プロジェクタ18が再生画像30を投影する。すなわち、プロジェクタ18の投影レンズの光軸LCが水平方向Hと平行になっている。
次に、再生中に経過時間T2(フレームF2)を表示するタイミングでは、図12に示すように、プロジェクタ18の光軸LCを水平方向から角度αだけ傾けて、再生画像30を投影する。すなわち、プロジェクタ18の投影方向を制御データに含まれる角度データに応じて、制御する。ここでは、X軸周りの角度データφF2に基づいて、第1駆動機構13がモニタ部12の角度を制御している。そして、第1駆動機構13は、図2で説明したようにX軸周りにモニタ部12を回転している。これにより、再生画像30の高さを変えることができる。図10では、本体部11を上に向けて撮像したため、図12に示すように、再生画像30の位置が高くなっている。
このように、撮像時に取得された角度データに基づいて、第1駆動機構13がモニタ部12を回転する。これにより、撮像時の角度データに応じて、投影方向が変わるため、より臨場感を高くすることができる。なお、図11、図12では、第1撮像部14の光軸は、水平方向Hと平行になっている。
なお、上記の説明では、撮像時の角度データと、投影方向の傾斜角度を同じ値としたが、異なる値としてもよい。すなわち、撮像時における本体部11の角度と、再生時におけるモニタ部12の角度は一致していなくてもよい。例えば、角度データの変化よりも大きい角度、あるいは小さい角度だけ、モニタ部12の角度を変えるようにしてもよい。さらには、基準方向となる方向は水平方向Hと平行でなくてもよく、本体部11の設置角度に応じて設定すればよい。例えば、本体部11が水平方向から傾斜して設置されている場合、その傾斜角度がφ=0となるようにしてもよい。また、角度データの基準となる回転軸を、投影方向を傾斜させる回転軸と一致させることが好ましい。例えば、X軸周りに角度データφに基づいて、モニタ部12又はプロジェクタ18をX軸周りに回転させることが好ましい。
このようにすることで、撮像時の撮像方向の動きに合わせて、投影面P上において、再生画像30の投影位置を移動させることができる。これにより、広い空間を有効に利用することができ、臨場感の高い表示を行うことができる。
次に、第1の角度調整方法における処理について、図13、及び図14を用いて説明する。図13、及び図14は、第1の角度調整方法を説明するためのフローチャートである。図13は、撮像時(記録時)の処理を示し、図14は、再生時の処理を示している。
まず、図13を参照して、記録時の処理について説明する。ユーザが録画開始ボタンを押すなどして、第1撮像部14の記録を開始する。すると、角度データ取得部402がジャイロセンサ208からデータ取得を試みる(ステップS201)。そして、角度データ取得部402が、データが取得可能であるか否かを判定する(ステップS202)。ジャイロセンサ208からデータが取得できない場合(ステップS202のNO)、ステップS201に戻り、再度データ取得を試みる。
角度データ取得部402がジャイロセンサ208からデータが取得できた場合(ステップS202のYES)、経過時間と角度データを保存する(ステップS203)。具体的には、ジャイロセンサ208が検出した角速度データから、角度データ取得部402は、本体部11の角度を算出する。そして、制御データ生成部403は、角度データを経過時間(フレーム番号)に対応付けて、保存する。
そして、経過時間と角度データとを保存したら、第1撮像部14の記録が停止しているか否かを判定する(ステップS204)。記録が停止した場合(ステップS204のYES)、処理を終了する。すなわち、ユーザが録画停止ボタンを押すなどして、記録を停止したら、記録処理が終了する。
記録が停止していない場合(ステップS204のNO)、ステップS201に戻って、処理を繰り返す。すなわち、ジャイロセンサ208からデータを取得して、角度データを保存する。この処理を記録停止まで繰り返すことで、記録開始から記録停止までの角度データが保存される。角度データは、経過時間、すなわちフレームに対応付けられている。よって、各フレームでの角度データが保存される。このように、制御データ生成部403は、時系列に沿った角度データを制御データとして生成する。例えば、制御データ生成部403は、角度データと経過時間が対応付けられたメタファイルを生成する。メタファイルは、動画ファイルとともにメインメモリ206又はカード型記録媒体302等に記録される。
次に、図14を参照して、再生時の処理について説明する。まず、ユーザが上記のように取得した動画ファイルを指定して再生ボタンを押す。すると、すると、圧縮/伸長処理部201が動画ファイルをデコードして、動画再生が開始する(ステップS301)。これにより、モニタ部12の液晶モニタ304が動画ファイルの表示を開始する。次に、プロジェクタ18の出力がONとなっているか判定する(ステップS302)。例えば、液晶モニタ304とプロジェクタ18の同時表示が行われているか否かを判定する。
プロジェクタ18の出力がONとなっていない場合(ステップS302のNO)、液晶モニタ304が通常再生を行う(ステップS303)。すなわち、プロジェクタ18の出力がOFFの場合、液晶モニタ304のみで動画ファイルを再生する。通常再生では、第1駆動機構13が角度を変更しない。
通常再生が行われたら、再生が停止したか否かを判定する(ステップS304)。そして、再生が停止していない場合(ステップS304のNO)、ステップS303に戻って、通常再生を継続する。再生が停止した場合(ステップS304のYES)、液晶モニタ304が再生を終了する。ユーザが再生停止ボタンなどを押す、あるいは動画ファイルの最終フレームまで再生すると、再生が停止する。このように、プロジェクタ18がOFFの場合、再生が停止するまで、通常再生を継続する。すなわち、プロジェクタ18が表示を行っていない場合は、液晶モニタ304の角度を固定して、通常の再生を行う。
一方、プロジェクタ18の出力がONとなっている場合(ステップS302のYES)、プロジェクタ18から映像出力を行う(ステップS305)。これにより、投影面Pに再生画像が投影される。なお、プロジェクタ18のON/OFFはユーザが設定することができる。そして、現再生時間(経過時間)における角度データがあるか否かを判定する(ステップS306)。例えば、回転角度設定部405が制御データに含まれる角度データを参照する。
現再生時間における角度データがある場合(ステップS306のYES)、現再生時間に対応した角度データを取得する(ステップS307)。すなわち、回転角度設定部405が経過時間に対応する角度データを取得する。そして、この角度データに基づいて、第1駆動機構13がモニタ部12の角度を変更する(ステップS308)。すなわち、回転角度設定部405は、経過時間の角度データに基づいて、第1駆動機構13の回転角度を算出する。そして、駆動制御部406が回転角度に応じた指令値を算出して、第1駆動機構13に出力する。これにより、第1駆動機構13が、モニタ部12の角度を変化させる。モニタ部12の背面側に取り付けられたプロジェクタ18の向きも変化する。これにより、プロジェクタ18の投影方向が変化して、投影位置が変わる。そして、モニタ部12の角度を変更したら、ステップS309に移行する。
現再生時間における角度データが無い場合(ステップS306のNO)、ステップS307、S308をスキップして、ステップS309に移行する。すなわち、モニタ部12の角度を変更せずに、ステップS309に移行する。
そして、モニタ部12の角度制御が終わったら、再生停止か否かを判定する(ステップS309)。ユーザが再生ボタンを押すなどして、再生を停止した場合(ステップS309のYES)、再生処理を終了する。再生が停止していない場合(ステップS309のNO)、ステップS307に戻り、処理を繰り返す。これにより、時系列の角度データに応じて、モニタ部12の角度が変化する。すなわち、再生時間(経過時間)に応じて、モニタ部12の角度が変化する。
本体部11の傾斜角度に応じて、第1駆動機構13がプロジェクタ18の傾斜角度を変えている。こうすることで、投影面Pにおける再生画像30の投影位置が変化する。よって、より臨場感のある画像を表示することができる。すなわち、撮像時における撮像装置1の角度が反映されて、再生画像30が表示される。このため、観察者(ユーザ)が撮像時の臨場感を体感することができる。さらに、経過時間に応じてモニタ部12の角度が変更される。すなわち、フレームに応じて、第1駆動機構13が角度を調整する。よって、空間を十分に使用して再生することができ、より臨場感のある画像を表示することができる。なお、投影位置を変えた場合、台形補正等の画像設定を自動で行うようにしてもよい。
(第2の角度制御方法)
次に、第2駆動機構19を用いた第2の角度制御方法について、説明する。ここでは、制御データに含まれる角度データに応じて、第2駆動機構19がプロジェクタ18を回転させる。図15は第2駆動機構19により角度制御前の状態を模式的に示す図であり、図16は、角度制御後の状態を模式的に示す状態を示す図である。なお、図15、図16において、投影面P内における鉛直方向(縦方向)をY方向とし、横方向をX方向としている。さらに、再生画像30の縦方向をY’とし、横方向をX’として示している。再生画像30内における水平方向をH’としている。
ここでは、撮像中に、本体部11が光軸LA周りに回転した場合の制御を説明する。本体部11が光軸LA周りに回転した場合、図15に示すように、再生画像30中に含まれるユーザ21a、21bが傾いて表示される。すなわち、鉛直方向に沿って立った状態のユーザ21a、21bを撮像する際に、本体部11が回転した状態で撮像されると、再生画像30中のユーザ21a、21bが再生画像30の縦方向Y’から傾いてしまう。このように、撮影者の操作ミスなどで本体部11が意図せずに回転した場合、再生画像30の水平が保たれなくなってしまう。再生画像30中の水平方向H’が実空間での水平方向Hから傾いてしまう。この場合、観察者が再生画像30を見づらくなってしまう。
そこで、本実施の形態では、制御データに基づいて、第2駆動機構19がプロジェクタ18を回転させている。例えば、制御データに含まれるZ軸周りの角度データΨに基づいて、第2駆動機構19がプロジェクタ18を光軸LC周りに回転させる。これにより、図16に示すように、プロジェクタ18で投影された再生画像30が傾いて表示される。再生画像30の縦方向Y’が投影面Pの鉛直方向Yから傾いている。そして、再生画像30中のユーザ21a、21bが投影面Pの鉛直方向Yに沿って立った状態で表示される。すなわち、撮像時の実空間の鉛直方向と、再生時の実空間の鉛直方向が一致することになる。換言すると、再生画像30中の水平方向H’と実空間の水平方向Hが平行になっている。
このようにすることで、再生画像30中の被写体の水平を常時保つことができる。よって、撮像時に傾けて撮像してしまった動画ファイルであっても、表示を見やすくすることができる。このように、本実施の形態では、再生画像30の角度を投影面P内で、再生画像30の中心を回転軸として回転している。
図17に、第2の角度制御方法のフローチャートを示す。まず、ユーザが動画ファイルを指定して再生ボタンを押す。すると、圧縮/伸長処理部201が動画ファイルをデコードして、動画再生が開始する(ステップS401)。これにより、モニタ部12の液晶モニタ304が動画ファイルの表示を開始する。次に、次に、角度データがあるか否かを判定する(ステップS402)。すなわち、動画ファイルに対応する角度データが存在するか否かを判定する。
動画ファイルに対応付けられた角度データが存在しない場合(ステップS402のNO)、ステップS404に移行する。動画ファイルに対応付けられた角度データが存在する場合(ステップS402のYES)、プロジェクタ18の出力がONとなっているか判定する(ステップS403)。例えば、液晶モニタ304とプロジェクタ18の同時表示が行われているか否かを判定する。プロジェクタ18の出力がONとなっていない場合(ステップS403のNO)、ステップS404に移行する。
角度データが存在しない場合(ステップS402のNO)、又は、プロジェクタ18がONでない場合(ステップS403のNO)、液晶モニタ304が通常再生を行う(ステップS404)。角度データが存在しない動画ファイルでは、再生画像30を回転させることができないので、プロジェクタ18を使用しない。プロジェクタ18の出力がOFFの場合、液晶モニタ304のみで動画ファイルを再生する。
ステップS404で通常再生が行われたら、再生が停止したか否かを判定する(ステップS405)。そして、再生が停止していない場合(ステップS405のNO)、ステップS404に戻って、通常再生を継続する。ユーザが再生停止ボタンなどを押して、再生が停止した場合(ステップS405のYES)、液晶モニタ304が再生を終了する。このように、角度データが無い場合、又は、プロジェクタ18がOFFの場合、再生が停止するまで、通常再生を継続する。すなわち、プロジェクタ18が表示を行っていない場合は、液晶モニタ304の角度を固定して、通常の再生を行う。
一方、プロジェクタ18の出力がONとなっている場合(ステップS403のYES)、角度データを取得する(ステップS406)。例えば、回転角度設定部405が制御データに含まれる角度データを参照する。
そして、取得した角度データに応じて、第2駆動機構19がプロジェクタ18を傾ける(ステップS407)。すなわち、回転角度設定部405が、経過時間の角度データに基づいて、プロジェクタ18の回転角度を算出する。そして、駆動制御部406が回転角度に応じた指令値を算出して、第2駆動機構19に出力する。これにより、プロジェクタ18の角度が変化する。プロジェクタ18がその光軸LC周りに回転して、投影面P上において、プロジェクタ18による投影画像が傾斜する。そして、プロジェクタ18を傾けたら、ステップS408に移行する。
そして、プロジェクタ18の角度制御が終わったら、再生停止か否かを判定する(ステップS408)。ユーザが再生ボタンを押すなどして、再生を停止した場合(ステップS408のYES)、再生処理を終了する。再生が停止していない場合(ステップS408のNO)、ステップS406に戻り、処理を繰り返す。これにより、角度データに応じて、プロジェクタ18の角度が変化する。よって、経過時間に応じて、プロジェクタ18の角度が変化する。
本体部11の傾斜角度に応じて、第2駆動機構19がプロジェクタ18の傾斜角度を変えている。こうすることで、投影面Pにおける再生画像30が傾斜する。よって、見やすい表示が可能になる。すなわち、撮像時の角度が反映されて再生画像30が表示されるため、再生画像30内の被写体の水平が一定に保たれる。さらに、経過時間に応じてプロジェクタ18の角度が変更される。すなわち、フレームに応じて、第2駆動機構19が角度を調整する。よって、常時、再生画像30内の被写体の水平が保たれる。なお、投影位置を変えた場合、台形補正等の画像設定を自動で行うようにしてもよい。
なお、第2の角度制御方法において、ジャイロセンサ208に検出結果に基づいて、角度データを算出したが、本実施の形態はこれに限られるものではない。例えば、顔認識データを用いて、角度データを算出してもよい。すなわち、顔認識を行った際に算出される顔の傾きデータを角度データとする。すなわち、再生画像30内における顔の傾きに応じて、プロジェクタ18の傾きを変えてもよい。また、顔認識データに基づく角度データと、ジャイロセンサ208に基づく角度データが両方ある場合、顔認識データの角度データを優先して用いてもよく、ジャイロセンサ208に基づく角度データを優先して用いてもよい。
また、強調表示、第1の角度制御、及び第2の角度制御の処理について、説明したが、これらのうちの少なくとも一つが行われていればよい。例えば、強調表示のみを行い、第1及び第2の角度制御を行わなくてもよい。この場合、必要な制御データとしては、顔認識データのみとなる。よって、制御に必要なデータのみを撮像時に制御データとして生成すればよい。
さらに、強調表示、第1の角度制御、及び第2の角度制御の処理を2つ以上組み合わせて行ってもよい。例えば、第1の角度制御又は第2の角度制御を強調表示と同時に行ってもよい。さらには、強調表示、第1及び第2の角度制御を同時に行ってもよい。
第1駆動機構13と第2駆動機構19を配置する場所は特に限られるものではない。例えば、第2駆動機構19がモニタ部12をZ軸周りに回転するようにしてもよい。また、X軸周り、又はZ軸周りの回転角度に限らず、Y軸周りの回転角度についても角度制御を行ってもよい。この場合、プロジェクタ18をY軸周りに回転させる駆動機構を用意する。そして、プロジェクタ18をY軸周りに回転することで、投影面P内において、再生画像30が横方向、すなわちX方向に沿って変化する。
また、上記の説明では、第1撮像部14が再生画像を撮像したものとして説明したが、再生画像を撮像する撮像装置は他の撮像装置であってもよい。すなわち、制御データが対応付けられた動画ファイルを他の撮像装置で取得してもよい。この場合、取得した動画ファイルとともに制御データが、撮像装置1に記憶される。そして、撮像装置1が動画ファイルを再生する。このように、予め取得された動画形式の表示画像に対して、制御を行えばよい。
上記処理のうちの一部又は全部は、コンピュータプログラムによって実行されても良い。上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記実施の形態に限られたものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。