図1から図72は本発明の実施例1を示したものであり、図1は画像システムの使用形態を示す斜視図である。
この画像システム1は、図1に示すように、略めがね型をなし画像を撮像する機能を備えた頭部装着部2と、この頭部装着部2に対して無線で通信を行うことにより該頭部装着部2に係る操作入力を遠隔で行うとともに該頭部装着部2により撮像された画像データを無線で受信して記録し編集する機能を備えた画像記録/編集装置4と、に大別される。
該画像システム1は、静止画像や動画像を撮像する機能を備えたものであるために、撮像装置を兼ねたものとなっている。
上記頭部装着部2は、シースルー表示時に観察対象である被写体を実質的に直接観察することが可能であるとともに、該被写体の撮像も行うことができるように構成されたものである。この頭部装着部2は、形状が略めがね型をなすことで分かるように、視度補正用の一般的な眼鏡とほぼ同様にして頭部に装着し用いるものとなっており、重量やサイズ等も通常の眼鏡に極力近似するように小型軽量化が図られている。
上記画像記録/編集装置4は、撮像のための各種操作信号を上記頭部装着部2へ無線で送信するとともに、該頭部装着部2により撮像された画像を無線で受信して記録を行い、さらに記録後の画像を編集し得るように構成されたものである。この画像記録/編集装置4には、後述するような第2操作スイッチ171(図11および図5参照)が設けられていて、この第2操作スイッチ171は、上記頭部装着部2のシースルー表示の制御や撮影動作の制御などの比較的頻繁に行われる操作を、撮影者が遠隔操作により手元で行うためのものである。従って、この画像記録/編集装置4は、例えば片手の掌に収まる程度の小型な大きさとなるように、可能な範囲内での小型軽量化が図られたものとなっている。また、この画像記録/編集装置4は、腰のベルト等に取り付けた状態、あるいは上着の内ポケット等に収納した状態、などの各種の状態でも使用することができるように構成されている。
これらの頭部装着部2と画像記録/編集装置4とは、本実施例では互いに別体として構成されており、これにより、頭部装着部2を小型軽量化することによる装着感の向上、画像記録/編集装置4の採用による操作性の向上、などを図るようにしている。
さらに、頭部装着部2と画像記録/編集装置4とは、上述したように、無線で通信するようになっているために、例えば互いにケーブルで接続したときのような取り回しの不便さや拘束感がなく、自由で軽快に操作することができる。頭部に装着して用いる装置は、高い機動性や操作性が要求されるために、このような構成を採用することが特に有効となっている。
次に、図2から図4を参照して、頭部装着部2の外観および概要について説明する。図2は頭部装着部2を示す正面図、図3は頭部装着部2を示す平面図、図4は頭部装着部2を示す右側面図である。
この頭部装着部2は、一般的な眼鏡におけるレンズ、リム、ブリッジ、智などに相当する部分であるフロント部11と、このフロント部11の左右両側から後方(被写体と反対側)に向けて各延設されており該フロント部11に対して折り畳み可能となっているテンプル部12と、を有して構成されている。
上記フロント部11は、画像表示用の光学系の一部や視線方向検出用の光学系の一部や電気回路等を内蔵する保持手段たるフレーム部13を有して構成されている。
このフレーム部13は、略中央部に被写体までの距離を測定するために用いられる測距手段たる投光用発光部16が、左右両側部に被写体側からの音声をステレオで収録するための第1マイク17および第2マイク18が、それぞれ設けられている。
さらに、上記フレーム部13には、左右両眼に各対応するように導光部材たる透明光学部材14,15が取り付けられている。これらの透明光学部材14,15の内の、一方である透明光学部材14は公知の視線方向を検出するために用いられ、他方である透明光学部材15は画像を表示するために用いられるようになっている。そして、これらの透明光学部材14,15は、それぞれの機能を果たすために必要な最小限の大きさとなるように形成されている。
上記透明光学部材14には、HOE(Holographic Optical Element:ホログラフィー光学素子)24とハーフミラー128とHOE129とがそれぞれ配設されており、上記透明光学部材15にはコンバイナとしてのHOE25が配設されている。
加えて、上記フレーム部13には、上記透明光学部材14,15の被写体側に位置するように、視度調整のためのレンズ21,22がそれぞれ着脱可能に取り付けられるようになっている。
すなわち、フレーム部13には、上記レンズ21,22を取り付けるための取付手段たるリム20が、例えば中央側と、左眼の左横側と、右眼の右横側と、でそれぞれビス28により取り付けられるようになっている。
このリム20には、鼻梁を左右から支持することにより、鼻梁に対してこの頭部装着部2を載置するための一対の鼻パッド19が、一対のクリングス23を介して設けられている。
このような構成において、上記ビス28を外すことにより、リム20およびレンズ21,22を容易に取り外すことができるようになっており、また、レンズ21,22を他の視度に対応するものに交換して、再び取り付けることも容易となっている。
このとき、リム20を所定以上の弾力性のある素材により形成すれば、1つのビス28を外すかまたは緩めるだけで、左眼用のレンズ21または右眼用のレンズ22の一方のみを選択的に(独立して)着脱することができて利便性が高まる。
さらに、フレーム部13の左眼側(つまり、図2や図3における右側)の側面の継手29には、被写体像を撮像するための撮像手段であり測距手段も兼ねたカメラである撮像部30が、台座33を介して、撮影方向を調節可能に固定されるようになっている。
この台座33は、ビス34,35により上記継手29に対して取り付けられ、ビス36,37を介して自己の上に上記撮像部30を取り付けるように構成されている。該台座33を介して、撮像部30の上記フロント部11に対する相対的な角度を調整することにより、後述するように、該撮像部30に含まれる撮影光学系31(図10等も参照)の光軸と視軸とを調整することができるようになっている。
そして、上記撮像部30の背面側からは、ケーブル38が一旦延出されて、左眼側のテンプル部12の下側を潜った後に、上記フレーム部13に接続されている。これにより、フレーム部13内の電気回路と、撮像部30内の電気回路とが互いに接続されている。
上記テンプル部12は、丁番78,79を用いて上記フロント部11と接続されていて、これにより該フロント部11に対して折り畳み可能となっている。すなわち、非使用時には、テンプル部12をフロント部11の中央部に向けて折り曲げ、該フロント部11に沿って折り畳まれた位置を取らせることができるために、小型化して収納や運搬を便利に行うことが可能となっている。また、左右の各テンプル部12の先端部には、耳にかけるための先セルモダン26がそれぞれ設けられている。
右眼側のテンプル部12には、後述する角速度センサなどのこの頭部装着部2に係る各種の電子回路の一部と、この頭部装着部2内の各回路へ電源を供給するための電源回路の構成要素である着脱可能な電池と、を収納するための収納部27が設けられている。この収納部27の上面には、当該頭部装着部2による表示をオン/オフするためのスイッチ39が配設されている。そして、該収納部27からは、ケーブル27aが延設されて、上記フレーム部13内の各回路に接続されており、さらには上記撮像部30内の回路を介して、上記画像記録/編集装置4の回路と接続されるようになっている。
次に、図5から図9を参照して、画像記録/編集装置4の外観および概要について説明する。図5は操作パネルを閉じた状態の画像記録/編集装置4を示す平面図、図6は操作パネルを閉じた状態の画像記録/編集装置4を示す右側面図、図7は操作パネルを閉じた状態の画像記録/編集装置4を示す左側面図、図8は操作パネルに配置された操作スイッチ類を示す平面図、図9は操作パネルを開いた状態の画像記録/編集装置4を示す斜視図である。
この画像記録/編集装置4は、本体部41と、この本体部41に対してヒンジ43を介して開閉自在に設けられた操作パネル42と、を有して構成されている。
上記本体部41は、後述するような各回路を内蔵するとともに、上記操作パネル42を開いたときに観察可能となる位置に液晶モニタとして構成された表示手段であるLCD表示素子(以下、「LCD」と省略する。)48が配設されたものとなっている。このLCD48は、再生時に画像を表示するのに用いられる他に、各種のモードを設定するためのメニュー画面等の表示にも用いられるようになっている。
この本体部41の上面側には、図5に示すように、上記操作パネル42が閉じ状態であっても操作可能な辺縁角部に電源スイッチ44が配設され、さらに、該操作パネル42を開閉する際に指先等を掛け易いように、凹部45が形成されている。
また、この本体部41の右側面には、図6に示すように、ヒンジ46により該本体部41に対して開閉自在となる蓋52が設けられており、該蓋52の係止部52aを本体部41側の被係止部52bに係止させることで、閉じ状態が保たれるようになっている。この蓋52を開くと、該図6に示すように、電源を供給するためのバッテリを着脱自在に挿入するためのバッテリ挿入口55と、テレビと接続するための端子であるAV/S接続端子50と、パーソナルコンピュータ(PC)と接続するための端子であるPC接続端子51と、が露呈する。このように、コード類は、本体部41の右側面において、まとめて接続されるようになっており、他の面からコード類が延出することがなく、コードを取り回すときの煩わしさを軽減することができるようになっている。
一方、本体部41の左側面にも、図7に示すように、ヒンジ47により該本体部41に対して開閉自在となる蓋53が設けられており、該蓋53の係止部53aを本体部41側の被係止部53bに係止させることで、閉じ状態が保たれるようになっている。この蓋53を開くと、該図7に示すように、着脱式の記録媒体であるディスク249(図11参照)を挿入するためのディスク挿入口54が露呈するようになっている。
上記操作パネル42は、閉じた状態でも操作可能に露呈する外面側に図5に示すように比較的操作される頻度の高いスイッチ類が配設されていて、さらに、開いた状態でのみ操作可能に露呈する内面側に図8に示すように比較的操作される頻度の低い操作スイッチ類が配置されている。
すなわち、上記操作パネル42の外面側には、上記第2操作スイッチ171が配設されている。この第2操作スイッチ171は、図5に示すように、FA/A/Mスイッチ71と、F/Vスイッチ72と、レリーズスイッチ(REL)73と、録画スイッチ(REC)74と、ズームスイッチ75と、露出補正スイッチ76と、を有して構成されている。これらのスイッチ類は、上述したように、撮影動作の際に変更する頻度が比較的高い情報を設定するためのスイッチ類である。
上記FA/A/Mスイッチ71は、切換手段であって、所定の焦点距離以上の望遠撮影時に撮影範囲を示す撮影画枠に対応する撮影画像を拡大して電子ビューとしてシースルー表示する動作を、全自動(FA:フルオートモード)で行うか、自動(A:オートモード)で行うか、手動(M:マニュアルモード)で行うか、を切り替えるためものである。上記フルオートモードは、ビデオデータとともに生体情報としての角速度データや視線方向データを記録するモードとなっており、このフルオートモードで記録されたデータが本実施例で説明する画像編集の対象となる。
上記F/Vスイッチ72は、切換手段であって、上記透明光学部材15におけるシースルー表示を、撮影範囲を示す撮影画枠(F)にするか、あるいは撮像部30からの撮影画像(V)(電子ビュー)にするか、を切り替えるためのものである。
上記レリーズスイッチ(REL)73は、動画に比して高精細な静止画の撮影を開始するためのものである。
上記録画スイッチ(REC)74は、動画の録画開始と録画停止とを押される毎に切り替えるためのものである。
上記ズームスイッチ75は、撮影画枠設定手段であって、上記撮影光学系31を含む撮像部30のズーム(光学ズームおよび/または電子ズーム)を、望遠(T:テレ)側に行うためのテレスイッチ75aと、広角(W:ワイド)側に行うためのワイドスイッチ75bと、を含んで構成されている。
上記露出補正スイッチ76は、撮影される画像の露出補正をマイナス側に行うためのマイナス露出補正スイッチ76aと、該露出補正をプラス側に行うためのプラス露出補正スイッチ76bと、を含んで構成されている。
なお、上記撮影光学系31のズーム動作と、観察者でもある撮影者から観察する撮影画枠の視角の変更と、は連動して行われるように構成されているために、上記ズームスイッチ75は、撮影者から観察する撮影画枠の視角を縮小するためのテレスイッチ75aと、該視角を拡大するためのワイドスイッチ75bと、を有するものであると言い換えることもできる。
また、「撮影画枠」とは、上記撮像部30により撮影される被写体の範囲を表す指標である。
一方、上記操作パネル42の内面側には、音声を再生するためのスピーカ56と、このスピーカ56から発生される音声のボリュームを大きくするためのスイッチ57と、該ボリュームを小さくするためのスイッチ58と、記録媒体としてのディスク249に記録された画像情報を再生したり一時停止したりするための再生/停止スイッチ59と、画像を逆方向に早送りしてサーチするためのスイッチ61と、画像を順方向に早送りしてサーチするためのスイッチ62と、画像システム1に係る各種の機能や日付などを設定したり、画像編集のための各種操作情報を設定するためのメニュー画面を上記LCD48に表示するためのメニューボタン63と、該メニュー画面に表示されている各項目の内の着目項目を上、下、左、右の各方向へ移動したり表示情報をスクロールしたりするためのメニュー選択スイッチ66,67,68,69と、表示されている着目項目等を確定するための確定スイッチ65と、が配設されている。これらのスイッチ類は、上述したように、撮影動作の際に変更する頻度が比較的低い情報を設定するためのスイッチ類である。
図10は頭部装着部2の主として電子回路に係る構成を示すブロック図である。
この画像システム1の構成は、上述したように、撮像機能を有する頭部装着部2と、この頭部装着部2および自己に係る各種操作入力を受けて制御を行うとともに該頭部装着部2により撮影された画像を記録し編集する機能を備えた画像記録/編集装置4(図11)とに大別される。これらの内でも上記頭部装着部2は、さらに、撮像を行うための撮像手段たる撮像部30と、主としてシースルー表示を行うための表示手段であるシースルー画像表示部6と、撮影者の視線方向を検出したり撮影者の頭部の動きに伴う角速度を検出したりするための視線方向/角速度検出部7と、画像記録/編集装置4と無線により信号の授受を行うための受信手段であり送信手段たる通信部8と、当該頭部装着部2内の各回路に電源を供給するための電源回路174と、に分けられる。これら撮像部30とシースルー画像表示部6と視線方向/角速度検出部7とは、何れも、上記通信部8を介して、上記画像記録/編集装置4と通信するようになっている。また、電源回路174は、電池を有して構成されており、この電池は、上述したように、上記収納部27(図2参照)に対して着脱可能に取り付けられるようになっている。
上記シースルー画像表示部6は、LEDドライバ112と、LED113と、集光レンズ114と、LCD115と、LCDドライバ117と、HOE116と、HOE25と、投光用LED16aと、LEDドライバ118と、集光レンズ16bと、上記スイッチ39と、第4CPU111と、を有して構成されている。このシースルー画像表示部6は、本実施例においては、観察者の片方の眼(ここでは、具体例として右眼)側にのみ配設されている。従って、観察者は、シースルー画像を、該片眼側のみで観察するようになっている。
上記LEDドライバ112は、上記第4CPU111の制御に基づき上記LED113を発光させるものである。
上記LED113は、発光源であって投影手段を構成するものであり、上記LEDドライバ112により駆動されて光を発光するようになっている。このLED113は、例えば、R(赤),G(緑),B(青)の3色の光をそれぞれ発光可能なダイオードを含んで構成されている。
上記集光レンズ114は、上記投影手段を構成するものであって、このLED113により発光された光を集光するものである。
上記LCD115は、上記投影手段を構成するものであって、上記撮影画枠や撮影された映像などを表示するためのものであり、上記集光レンズ114を介したLED113の光により背面側から照明される透過型の液晶表示手段となっている。
上記LCDドライバ117は、上記第4CPU111の制御に基づいて、LCD115を駆動して撮影画枠等を表示させるものであり、後述するようなパララックスを補正するための補正手段も兼ねている。
上記HOE116は、上記LCD115を介して射出される光を、後述するように収差を補正しながら鉛直下方(図13、図14参照)へ向けて反射する反射光学部材である。
上記HOE25は、反射型コンバイナとしての機能を果たすものであり、上記HOE116からの光を撮影者の眼へ向けて反射し回折させることにより、上記LCD115に表示された撮影画枠等を観察可能に投影するとともに、外界光を撮影者の眼へ向けて透過させ得るように構成されたコンバイナである。なお、この実施例1のHOE25は、最小限の大きさとなるように構成された上記透明光学部材15に合わせて、同様に、最小限の大きさとなるように構成されている。
上記投光用LED16aは、上記測距を行うための上記投光用発光部16に含まれていて、測距用の光を発光する発光源である。
上記集光レンズ16bは、上記投光用LED16aにより発光された測距用の光を、被写体に向けて投影するためのものである。
上記LEDドライバ118は、上記第4CPU111の制御に基づいて、上記投光用LED16aを駆動するためのものである。
上記スイッチ39は、上記第4CPU111に接続されていて、該スイッチ39が閉じたことが第4CPU111により検出されると、該第4CPU111がこのシースルー画像表示部6の表示を禁止するようになっている。この画像システム1は、撮影動作にとらわれることなく通常の行動をしながら撮影することが可能となるように構成されたものであるために、例えば、歩行時や車の運転時にも使用してしまいがちである。しかし、撮影者がこのような状態にあるときにシースルー表示がされると、その表示に気をとられることもあり得る。従って、これを未然に防止するために、スイッチ39を設けて、シースルー表示を禁止することができるようにしている。なお、このときには表示は禁止されるが、撮影自体は継続することが可能となっている。
上記第4CPU111は、制御手段であって、このシースルー画像表示部6内の各回路を制御するものであり、上記撮像部30の後述する第3CPU103と双方向に接続されて連携を取りながら、制御動作を行うようになっている。
このようなシースルー画像表示部6の作用は、ほぼ次のようになっている。
第4CPU111は、LEDドライバ112を介してLED113を発光させる。
LED113から発光された光は、集光レンズ114により集光されて、LCD115を背面から照明する。
LED113は、撮影画枠を表示する場合には、上記R(赤),G(緑),B(青)の3色の光を発光させるダイオードの内の、例えばG(緑)のダイオードのみを発光させる。
第4CPU111が撮影範囲を示す撮影画枠に対応する信号を生成してLCDドライバ117へ転送するとともに、発光を行わせる制御信号をLEDドライバ112へ転送すると、LCDドライバ117が、該信号に基づきLCD115を駆動して撮影画枠を表示面上に表示させるとともに、LED113が発光して該LCD115を背面側から照明する。
こうして照明されたLCD115から投影される上記撮影画枠の映像は、収差を補正されながらHOE116により鉛直下方に反射され、HOE25に投影される。
HOE25は、上記HOE116からの光線を、撮影者の眼へ向けて反射する。これにより、撮影者は、撮影範囲を示す撮影画枠を虚像として観察することができる。
一方、測距を行う場合には、第4CPU111が、測距用の発光を行わせる制御信号をLEDドライバ118へ転送する。
LEDドライバ118は、上記制御信号を受けると、投光用LED16aを発光させる。この投光用LED16aにより発光された測距用の光は、上記集光レンズ16bにより平行光に変換されて、被写体へ向けて投光される。
こうして投光された照明光は、被写体により反射され、該反射光が上記撮像部30により受光されて、後述するように測距演算が行われることになる。
次に、上記視線方向/角速度検出部7は、上記シースルー画像表示部6が配設されているのとは反対側の片眼(ここでは、具体例として左眼)側に配設されるようになっている。この視線方向/角速度検出部7は、視線方向検出装置として機能する視線方向検出部と、角速度検出装置として機能する角速度検出部と、に大別される。
上記視線方向検出部は、LEDドライバ124と、LED125と、集光レンズ126と、反射ミラー127と、ハーフミラー128と、HOE24と、HOE129と、反射ミラー131と、結像レンズ132と、バンドパスフィルタ133と、CCD134と、CCDドライバ135と、CDS/AGC回路136と、A/D変換回路137と、TG138と、を有して構成されている。これらの内のLEDドライバ124、LED125、集光レンズ126、反射ミラー127、およびHOE24は、観察者の眼へ赤外平行光束を投光するための赤外光投影手段たる投光系を構成している。また、上述した内のHOE24、ハーフミラー128、HOE129、反射ミラー131、結像レンズ132、バンドパスフィルタ133、およびCCD134は、観察者の眼から反射された光束を受光するための受光系を構成している。
また、上記角速度検出部は、角速度センサ141,142と、増幅器143,144と、A/D変換回路145と、を有して構成されている。
そして、これら視線方向検出部と角速度検出部とを含む視線方向/角速度検出部7全体を制御するためのものとして、第2CPU121が設けられている。
上記LEDドライバ124は、上記第2CPU121の制御に基づいて、上記LED125を駆動するためのものである。
上記LED125は、LEDドライバ124により駆動されて、視線方向検出用の赤外光を発光する赤外発光ダイオードである。
上記集光レンズ126は、LED125により発光された赤外光を、平行光束に変換するものである。
上記反射ミラー127は、集光レンズ126により平行光束に変換された赤外光を、鉛直下方(図20、図21参照)へ向けて反射する反射光学部材である。
上記ハーフミラー128は、上記反射ミラー127からの赤外光を上記HOE24側へ透過させると共に、該HOE24からの光を水平方向へ反射するものである。
上記HOE24は、ハーフミラー128を透過してきた赤外光を観察者の眼へ向けて反射するとともに、該観察者の眼からの光を該ハーフミラー128へ向けて反射するものである。なお、この実施例1のHOE24は、最小限の大きさとなるように構成された上記透明光学部材14に合わせて、同様に、最小限の大きさとなるように構成されている。このHOE24は、赤外域における狭い所定の帯域についての波長選択性を有しており、選択された帯域の赤外光のみについては高い反射特性を示す一方で、それ以外の波長の光線に対しては高い透過特性を示すものとなっている。このようにHOE24は、上記シースルー画像表示部6のHOE25とは全く異なる帯域の波長選択機能を有するものであるが、全体的な視感透過特性(あるいは、平均的な視感透過特性)については該HOE25とほぼ同様となっている。このように、左右の眼に対して平均的に同様の視感透過特性を有する光学素子を配置することにより、違和感を感じることがなく、かつ長時間使用しても眼の疲れを少なくすることができる。
上記HOE129は、上記HOE24とハーフミラー128とにより導かれた観察者の眼からの光束を、鉛直上方へ向けて反射するものある。このHOE129は、上記HOE24と同じ波長選択性を有するものとなっている。従って、このHOE129を介することにより、観察者の眼側から入射する光束の内の、上記所定の帯域に含まれる赤外光以外の波長の光線をカットする(つまり、反射することなく透過してしまう。)ことができるようになっている。こうして、後述するようなプルキンエ像を、他の波長域の光線によるノイズの影響を軽減しながら、より高い精度で検出することが可能となっている。なお、光学素子としてHOE129を用いることにより、波長選択性が高まるという利点があるだけでなく、赤外光以外に対して透過性を有しているために、透明光学部材14内に配設しても目立ち難いという利点もある。
上記反射ミラー131は、上記HOE129からの光束を水平方向に反射するものである。
上記結像レンズ132は、上記反射ミラー131により反射された光束を、上記CCD134の撮像面上に結像するためのものである。
上記バンドパスフィルタ133は、上記結像レンズ132により結像される光束の内の、上記所定の帯域の赤外光のみを透過するものである。上述したように、上記HOE129により既に帯域の制限が行われているが、該HOE129を透明光学部材14内に配置した場合には、さらに他の可視光等が混入する可能性があるために、このバンドパスフィルタ133により再度帯域の制限を行うようにしている。こうして、CCD134の前面側にバンドパスフィルタ133を設けることにより、外光ノイズによる影響をさらに軽減することが可能となっている。
上記CCD134は、二次元の光電変換手段であって、撮像面が2次元となった撮像素子として構成されており、上述したように結像された観察者の眼の像を光電変換して、電気信号として出力するものである。このCCD134の出力に基づいて、プルキンエ像の位置と瞳孔中心の位置とが後述するように求められ、これらの相対的な位置関係に基づいて視線方向が算出されるようになっている。
上記CCDドライバ135は、上記第2CPU121の制御に基づいて、上記CCD134を駆動するためのものである。
上記CDS/AGC回路136は、上記CCD134から出力される映像信号に、ノイズ除去や増幅の処理を行うものである。
上記TG138は、上記第2CPU121の制御に基づいて、上記CCDドライバ135と、上記CDS/AGC回路136とへ、連係して動作を行わせるためのタイミング信号をそれぞれ供給するものである。
上記A/D変換回路137は、上記CDS/AGC回路136から出力されるアナログの映像信号をデジタルの映像信号に変換するものである。このA/D変換回路137により変換されたデジタルの映像信号は、上記撮像部30の後述する通信制御部173へ出力されるようになっている。
上記角速度センサ141,142は、上述したように収納部27内に格納されており、互いに独立した方向(例えばヨー方向とピッチ方向)の角速度を検出するためのものである。
上記増幅器143,144は、上記角速度センサ141,142の出力をそれぞれ増幅するためのものである。
上記A/D変換回路145は、上記増幅器143,144によりそれぞれ増幅された角速度センサ141,142からのアナログ信号を、デジタルデータへそれぞれ変換するものである。このA/D変換回路145により変換されたデジタルデータは、上記第2CPU121へ出力されるようになっている。
上記第2CPU121は、制御手段であって、この視線方向/角速度検出部7内の各回路を制御するものであり、上記撮像部30の後述する第3CPU103と双方向に接続されて連携を取りながら、制御動作を行うようになっている。この第2CPU121は、メモリとして機能するRAM122と、時間を計測するためのタイマ123と、を内部に有して構成されている。
このような視線方向/角速度検出部7の動作原理や作用等については、後で他の図面を参照して説明する。
上記撮像部30は、撮影光学系31と、ローパスフィルタ86と、CCD87と、CDS/AGC回路88と、A/D変換回路89と、TG(タイミングジェネレータ)90と、CCDドライバ91と、USMドライバ95と、絞りシャッタドライバ96と、AE処理回路97と、AF処理回路98と、上記第1マイク17と、上記第2マイク18と、増幅回路99と、増幅回路100と、A/D変換回路101と、EEPROM102と、メモリ104と、第3CPU103と、を有して構成されている。
上記撮影光学系31は、光学的な被写体像を結像するためのものであり、焦点距離可変なズーム光学系として構成されている。
上記ローパスフィルタ86は、この撮影光学系31を通過した光束から不要な高周波成分を取り除くためのものである。
CCD87は、撮像素子であって、このローパスフィルタ86を介して上記撮影光学系31により結像された光学的な被写体像を電気的な信号に変換して出力するものである。
上記CDS/AGC回路88は、信号処理手段であって、このCCD87から出力される信号に後述するようなノイズ除去や増幅の処理を行うものである。
上記A/D変換回路89は、信号処理手段であって、このCDS/AGC回路88から出力されるアナログの画像信号をデジタルの画像信号に変換するものである。
上記メモリ104は、このA/D変換回路89から出力されるデジタルの画像信号を一時的に記憶するためのものである。
上記CCDドライバ91は、上記CCD87を制御して駆動するためのものである。
上記TG(タイミングジェネレータ)90は、上記CDS/AGC回路88,A/D変換回路89,CCDドライバ91に、タイミングを制御するための信号をそれぞれ供給するものである。このTG90は、上記視線方向/角速度検出部7の第2CPU121と双方向に接続されて、制御されるようになっている。
上記USMドライバ95は、上記撮影光学系31に含まれる後述するUSM(Ultra Sonic Motor:超音波モータ)92,93,94を選択的に駆動するための駆動回路である。このUSMドライバ95も、上記視線方向/角速度検出部7の第2CPU121により制御されるようになっている。
上記絞りシャッタドライバ96は、上記撮影光学系31に含まれる後述する絞りシャッタ84を制御して駆動するための駆動回路である。この絞りシャッタドライバ96は、上記視線方向/角速度検出部7の第2CPU121により制御されるようになっている。
上記AE処理回路97は、上記A/D変換回路89の出力に基づいて、露出制御用の算出を行うオート露出処理回路であり、演算結果を上記第3CPU103へ出力するようになっている。
上記AF処理回路98は、上記A/D変換回路89の出力に基づいて、オートフォーカス(AF)制御用の算出を行うオートフォーカス処理回路であり、演算結果を上記第3CPU103へ出力するものである。
上記第1マイク17および第2マイク18は、上述したように、被写体側からの音声をステレオで収録するためのものである。
上記増幅回路99および増幅回路100は、上記第1マイク17および第2マイク18から入力された音声信号をそれぞれ増幅するためのものである。
上記A/D変換回路101は、上記増幅回路99および増幅回路100によりそれぞれ増幅されたアナログの音声信号をデジタルの音声信号に変換して上記第3CPU103へ出力するものである。
上記EEPROM102は、露出制御やオートフォーカス処理等のための各種補正データが画像システム製造時に記録されたものである。このEEPROM102に記録されたデータは、上記第3CPU103により読み出されるようになっている。
上記第3CPU103は、この撮像部30内の各回路を制御するための制御手段であり、上記シースルー画像表示部6の第4CPU111や、上記視角方向/角速度検出部7の第2CPU121と連携を取りながら制御動作を行うようになっている。さらに、この第3CPU103は、上記画像記録/編集装置4の後述する第1CPU161と双方向に通信を行って制御されるようになっている。
上記撮影光学系31は、さらに詳しくは、フロントレンズ81と、バリエータレンズ82と、コンペンセータレンズ83と、絞りシャッタ84と、フォーカスレンズ85と、USM92,93,94と、を有して構成されている。
上記フロントレンズ81は、撮影光学系31に含まれる複数のレンズの中で最も被写体側に位置するものである。
上記バリエータレンズ82は、この撮影光学系31の焦点距離を変更するためのものである。
上記コンペンセータレンズ83は、上記バリエータレンズ82により撮影光学系31の焦点距離を変化させるのに伴うピント位置のずれを、補正するためのものである。
上記絞りシャッタ84は、撮影光学系31を通過する光束の通過範囲を規定するための絞りの機能と、該光束の通過時間を規定するためのシャッタの機能と、を兼用するものである。
上記フォーカスレンズ85は、この撮影光学系31のピントを調整するためのものであり、ピントが調整されたときには、上記CCD87に被写体像が合焦して結像される。
上記USM92,93,94は、上記バリエータレンズ82,コンペンセータレンズ83,フォーカスレンズ85をそれぞれ駆動するための駆動源である。
上記通信部8は、通信制御部173と、送受信部172と、を有して構成されている。
上記通信制御部173は、フレーム同期(時分割多重方式でフレーム単位に同期をとること。)と、フレームの構成要素であるスロット(このスロットは、属性と属性値のペアを含んで構成されている。)のデータフォーマット処理と、を行うものである。
上記送受信部172は、無線送受信用のアンテナや、送信するデジタル信号をアンテナ発信用のアナログ信号に変換したり該アンテナを介して受信した信号をデジタル信号に変換したりするモデムなどを有して構成されている。
このような通信部8の送受信時の動作は次のようになっている。
上記通信制御部173の受信側は、送受信部172のモデムから供給される受信データから、所定のタイミングで1スロット分のデータを取り出す。そして、該通信制御部173の受信側は、このデータの中から同期信号を抽出して、フレーム同期信号を生成し、スクランブル等を解除する。その後、通信制御部173の受信側は、画像記録/編集装置4から送信された、各種の操作信号、あるいは、ディスク249(図11参照)に記録された画像データ、を第3CPU103へ送出する。
また、上記通信制御部173の送信側は、上記A/D変換回路89からメモリ104を介して出力される映像信号と、上記視角方向/角速度検出部7のA/D変換回路137から出力される撮影者の眼に係る映像信号(生体情報の1つ)と、該視角方向/角速度検出部7の第2CPU121から出力される撮影者の頭部に係る角速度情報(生体情報の1つ)と、上記第3CPU103を介して出力される音声データとを、該第2CPU121から出力されるタイマ情報に基づいて、同一時刻に生成された映像信号と生体情報とが互いに関連性をもつように多重化する。そして、該通信制御部173の送信側は、スクランブル等を付与した後に同期信号を付加して、1スロット分の送信データを作成する。その後、通信制御部173の送信側は、作成した送信データを所定のタイミングでフレーム内の所定スロットに挿入して、送受信部172のモデムに送出する。これにより、送受信部172から、無線によってデータが送信される。
次に、図11は、画像記録/編集装置4の構成を示すブロック図である。
この画像記録/編集装置4は、図11に示すように、通信部4aと、記録部4bと、再生部4cと、ディスクドライブ部4dと、に大別される構成を備えており、その他に、第1操作スイッチ162と、第2操作スイッチ171と、第1CPU161と、表示部165と、電源回路164と、をさらに備えている。
上記通信部4aは、頭部装着部2から送信された動画データ、音声データ、生体情報としての視線方向データや角速度データを受信するとともに、撮影のための各種操作信号や画像記録/編集装置4により再生された動画データや音声データを頭部装着部2へ送信するものである。
上記記録部4bは、上記通信部4aで受信したデータを、記録媒体としての後述するディスク249に記録するための、動画データ記録手段および生体情報記録手段である。
上記ディスクドライブ部4dは、記録媒体としてのディスク249を回転駆動して、このディスク249に対する情報の読み書きを実行するものであり、動画データ読出手段、生体情報読出手段、動画データ記録手段、生体情報記録手段を兼ねたものとなっている。
上記再生部4cは、上記記録部4bによりディスク249に記録された上記各種データを再生するための、動画データ読出手段および生体情報読出手段である。
上記第1操作スイッチ162は、頭部装着部2の撮影に係る各種操作を指示入力するための操作手段である。この第1操作スイッチ162は、上記第1CPU161に接続されている。
上記第2操作スイッチ171は、画像記録/編集装置4に係る各種操作を入力するための操作手段である。この第2操作スイッチ171は、上記第1CPU161に接続されている。
上記表示部165は、第1,第2操作スイッチ162,171による各種操作情報や、再生部4cにより再生された動画等を表示するための表示手段であり、上記図9に示したようなLCD48を含んで構成されている。この表示部165は、上記第1CPU161に接続されて制御されるようになっている。
上記電源回路164は、この画像記録/編集装置4内の各回路に電源を供給するためのものであり、例えば着脱式のバッテリ等を含んで構成されている。
上記第1CPU161は、この画像記録/編集装置4を制御するのみならず、頭部装着部2の第3CPU103と通信を行うことによりこの画像システム1全体の動作を統括的に制御する制御手段である。この第1CPU161は、さらに、上記再生部4cにより再生された画像データを、該再生部4cにより再生された生体情報に基づいて編集する編集処理手段を兼ねたものとなっている。
上記通信部4a、記録部4b、再生部4c、ディスクドライブ部4dの更なる詳細について説明する。
まず、上記通信部4aは、送受信回路163と、通信制御回路151と、を有して構成されている。
上記記録部4bは、DSP回路152と、画像圧縮回路153と、音声圧縮回路154と、角速度圧縮回路155と、視線方向圧縮回路156と、副映像圧縮回路157と、フォーマッタ158と、バッファメモリ159と、記録再生用データプロセッサ231と、記録再生用バッファメモリ232と、を有して構成されている。
上記再生部4cは、記録再生用データプロセッサ231と、記録再生用バッファメモリ232と、セパレータ233と、動画デコーダ(VDEC)234と、副映像デコーダ(SDEC)235と、音声デコーダ(ADEC)236と、角速度デコーダ(AVDEC(angular velocity decorder))242と、視線方向デコーダ(EDEC(Eye Decorder))243と、生体情報バッファメモリ244と、D/A変換器(DAC)240と、上記スピーカ56と、動画プロセッサ237と、D/A変換器(DAC)238と、モニタTV239と、を有して構成されている。
すなわち、上記記録再生用データプロセッサ231と記録再生用バッファメモリ232とは、記録部4bと再生部4cとの双方に兼用して含まれる回路部となっている。
ディスクドライブ部4dは、ディスク249に対して画像の記録(録画)を行ったり、該ディスク249に記録されている画像を再生したりするものであり、サーボ回路245と、モータ247と、ピックアップ部246と、システムタイムクロック(STC(System Time Clock))部248と、を有して構成されている。
上述したような各構成要素の機能について、画像システム1の作用に沿って、該作用とともに説明する。
上記撮影光学系31を通過した光束は、ローパスフィルタ86を介して、CCD87の撮像面に結像する。
上記画像記録/編集装置4の第1操作スイッチ162により動画記録の操作が行われるか、または、該画像記録/編集装置4のレリーズスイッチ73により静止画撮影の操作が行われると、上記CCD87により被写体像が光電変換されて、アナログの画像信号が出力される。
このCCD87からの画像信号は、CDS/AGC回路88に入力されて、該CDS/AGC回路88内のCDS回路部により公知の相関二重サンプリングなどが行われてリセットノイズが除去されるとともに、該CDS/AGC回路88内のAGC回路部により所定の信号レベルへの増幅が行われて出力される。
このCDS/AGC回路88からのアナログの画像信号は、続くA/D変換回路89によって、デジタルの画像信号(画像データ)に変換された後に、上記メモリ104に一時的に記憶される。本実施例においては、このA/D変換回路89の出力信号をRAW画像データということにする。すなわち、本実施例におけるRAW画像データは、CCD87からのアナログ出力信号を最初にA/D変換した直後のデジタルデータとして定義され、他のデジタル信号処理等を施す前のデータとなっている。
これらCDS/AGC回路88、上記A/D変換回路89へは、上記TG90により生成されたタイミング制御信号が入力されるようになっており、該TG90からのタイミング制御信号は、さらに上記CCDドライバ91へも入力される。
一方、上記第1マイク17および第2マイク18からの出力信号は、増幅回路99,100によってそれぞれ増幅された後に、A/D変換回路101により所定のサンプリング周期で時分割的にデジタルデータに変換され、第3CPU103へ転送される。第3CPU103は、デジタルデータに変換された音声データを、所定のタイミングで通信制御部173に転送する。
上記A/D変換回路89からの出力信号である画像データと、上記第1マイク17および第2マイク18からの音声データと、上記視線方向/角速度検出部7からの視線方向データ(視線方向情報)および撮影者の頭部の角速度データと、上記第2CPU121のタイマ123により計時されたタイマ情報と、が通信制御部173により多重化される。
この通信制御部173により多重化された信号は、図47に示すように、上記各データが検出された検出開始時刻が先頭に記録されて、次に上記画像データや音声データ等の各種データがそれぞれ所定の間隔で交互に出力される信号となっている。この図47は、通信制御部173から出力される信号の時系列的な構成を示す図である。例えば、画像データ、音声データ、角速度データの取り込み周期をそれぞれ1/30秒とし、視線方向データの取り込み周期を1秒とし、かつ、1秒間のデータを1つのユニットとすると、この単位ユニットには、該図47に示すように、開始時刻データを先頭にして、画像データ、音声データ、および角速度データの3つを一組とするデータが繰り返し30組記録され、最後に視線方向データが記録される。なお、この図47に示したデータの順序は単なる一例であるために、例えば視線方向データを時刻データの直後に記録するようにしてももちろん構わない。
このようなデジタル化されたデータを含むユニット単位のデータが、複数、上記送受信部172を介して画像記録/編集装置4へ出力される。
このように、撮像部30は、CCD87で生成された画像信号のアナログ信号処理を行って、画像データをデジタル信号に変換した後に出力するようになっているために、アナログ信号が該撮像部30から外部に出力されることがない。従って、上記送受信部172などを介して画像信号を伝送する際に受ける可能性があると考えられる外来ノイズにも強い構成となっている。
また、撮像部30は、RAW画像データを出力するようになっているために、色分離やホワイトバランス調整等の信号処理回路を該撮像部30の内部に設ける必要がなく、該撮像部30が設けられている頭部装着部2の小型軽量化を図ることが可能となっている。
上記送受信部172から画像記録/編集装置4へ伝送された信号は、該画像記録/編集装置4内の通信部4aにより、画像データとそれ以外のデータとに再び分離される。
送受信回路163により受信され通信制御回路151により分離された動画データは、DSP回路152により、輝度成分Yと、色差成分Cr(またはY−R)と、色差成分Cb(またはY−B)と、に分離される。これらの信号は、画像圧縮回路153により、MPEG2規格に準拠した圧縮処理が施される。
また、通信制御回路151により分離された、音声データと、生体情報としての角速度データと、視線方向データとは、音声圧縮回路154と、角速度圧縮回路155と、視線方向圧縮回路156とにより、それぞれ所定の圧縮処理が施される。
さらに、第1操作スイッチ162を介して入力された動画のタイトルなどの副映像データは、副映像圧縮回路157により所定の圧縮処理が施される。
上述したように圧縮処理された動画データと音声データと視線方向データと角速度データと副映像データとは、フォーマッタ158に入力される。
フォーマッタ158は、フォーマット用のバッファメモリ159をワークエリアとして使用しながら、入力された動画データと音声データと視線方向データと角速度データと副映像データとに対してそれぞれ所定の信号処理を行い、後述するフォーマット(ファイル構造)に合致した記録データを記録再生用データプロセッサ231へ出力する。
このとき、このフォーマッタ158は、データの最小単位としてのセルを設定し、セル再生情報(C_PBI)を作成する。
次に、フォーマッタ158は、プログラムチェーンを構成するセルの構成と、動画、副映像、および音声の属性等と、を設定し、種々の情報を含めたビデオタイトルセット管理情報VTSI(Video Title Set Information)を作成する。
エンコード(圧縮処理)されたビデオデータ(ここに「ビデオデータ」は、後述するように、動画データ、音声データ、および副映像データを総称したものである。)やエンコード(圧縮処理)された生体情報(角速度データ、視線方向データ)は、一定サイズ(2048バイト)のパックに細分化される。これらのパック内には、適宜、PTS(Presentation Time Stamp)、DTS(Decoding Time Stamp)等のMPEG準拠のタイムスタンプが記述される。なお、タイムスタンプとは9000Hzの基準クロックでカウントする32ビットで表記される時間系であり、後述するような、フレームを単位として時、分、秒、フレームをBCD(Binary Coded Decimal)で表記したタイムコードとは区別される。
そして、各データのタイムコード順に再生することができるように、VOBU(Video Object Unit)単位でその先頭にナビゲーションパックNV(Navigation Pack)を配置しながら各データセルが配置されて、複数のセルを含んでなるVOB(Video Object)が構成される。このVOBを1つ以上まとめたVOBS(Video Object Set)が、図54に示すようなビデオタイトルセットVTS(Video Title Set)の構造にフォーマットされる。
なお、記録フォーマットについては、後で詳細に説明する。
記録再生用バッファメモリ232は、記録再生用データプロセッサ231を介してディスク249に書き込まれるデータの内の一定量分をバッファイリングしたり、ディスクドライブ部4dを介してディスク249から再生されたデータの内の一定量分をバッファリングするのに利用される。また、記録再生用バッファメモリ232は、生体情報に基づいてディスク249に記録された動画データを編集する際に、編集対象となる動画データを記憶するためのワークメモリとしても使われる。
記録再生用データプロセッサ231は、第1CPU161の制御に従って、フォーマッタ158からの記録用データをディスクドライブ部4dに供給したり、ディスク249から再生された再生信号をディスクドライブ部4dから取り出したり、ディスク249に記録された管理情報を書き換えたりする。
上記第1CPU161は、内部に、RAMと、制御プログラムを格納するROMと、を備えており、この制御プログラムに従って動作を行うようになっている。すなわち、第1CPU161は、内部のRAMをワークエリアとして用いて、記録量(録画パック数)検出、残量検出、警告、記録モード変更指示、画像記録/編集装置4全体の制御、その他の処理、を実行する。
さらに、第1CPU161は、ディスク249から再生された生体情報としての視線方向データや角速度情報に基づいて所定の編集処理をしたり、セル単位に対して、ズーミング、スムージング、消去の範囲指示、セル切り分け、等の処理も行うようになっている。
セパレータ233は、パック構造をなす再生データから、各パックを分離して取り出す。
動画デコーダ(VDEC)234は、上記セパレータ233により分離されたビデオパックをデコードする。
副映像デコーダ(SDEC)235は、上記セパレータ233により分離された副映像パックの内容をデコードする。
音声デコーダ(ADEC)236は、上記セパレータ233により分離された音声パックの内容をデコードする。
動画プロセッサ237は、上記動画デコーダ(VDEC)234からの動画データに、副映像デコーダ(SDEC)235からの副映像データを適宜合成して、動画にメニュー、ハイライトボタン、字幕その他の副映像を重ねて出力する。
この動画プロセッサ237の出力は、D/A変換器(DAC)238を介してアナログ信号に変換された後に、モニタTV239へ供給される。なお、このモニタTV239は、上記図9に示したようなLCD48を用いても良いし、上記図6に示したようなAV/S接続端子50を介して接続される外付けのモニタであっても構わない。
また、音声デコーダ(ADEC)236からの出力は、D/A変換器(DAC)240を介してアナログ信号に変換された後に、スピーカ56へ供給される。このスピーカ56も、上記図8や図9に示したスピーカ56をここでは用いているが、外付けのモニタを用いる場合には同様に外付けのスピーカを用いるようにしても構わない。
また、上記第1操作スイッチ162のメニューボタン63やメニュー選択スイッチ66,67,68,69、確定スイッチ65などの操作により記録済みの画像が選択されて、上記再生/停止スイッチ59の操作により再生の指示が行われた場合には、ディスク249に記憶されている圧縮されたデータが再生されて、LCD48に表示される。
一方、上記A/D変換回路89からのデジタル画像データは、該撮像部30内のAE処理回路97とAF処理回路98とへそれぞれ入力される。
上記AE処理回路97は、1フレーム(1画面)分の画像データの輝度値を算出して重み付け加算する等の処理を行うことにより、被写体の明るさに対応したAE評価値を算出し、算出結果を第3CPU103を介して第2CPU121へ出力する。第2CPU121は、上記AE評価値に基づいて、CCD87の露光時間の制御や、絞りシャッタ84の制御を行うようになっている。
また、AF処理回路98は、上記第3CPU103を介した第2CPU121の制御に基づいて、1フレーム(1画面)分の画像データの輝度成分にハイパスフィルタなどを用いて高周波成分を抽出し、抽出した高周波成分の累積加算値を算出する等により高周波域側の輪郭成分等に対応したAF評価値を算出し、算出結果を該第3CPU103を介して第2CPU121へ出力する。第2CPU121は、AF処理回路98により算出された上記AF評価値に基づいて、上記USMドライバ95を介して上記フォーカスレンズ85を駆動し、焦点検出を行って合焦状態を得るようになっている。
上記EEPROM102は、露出制御やオートフォーカス処理等に必要な各種補正データが画像システム製造時に記録されたものであり、第2CPU121は、必要に応じて、このEEPROM102から第3CPU103を介して補正データを読み出し、各種の演算を行うようになっている。
次に、図12〜図14を参照して、シースルー画像表示部6の主として光学的な構成について説明する。図12はシースルー画像表示部の光学系の原理を説明するための図、図13はシースルー画像表示部の光学系の構成を示す一部断面を含む正面図、図14はシースルー画像表示部の光学系の構成を示す左側面図である。
このシースルー画像表示部6は、撮影者が実質的に直接観察している被写体上に、撮影範囲を示す撮影画枠を虚像としてスーパーインポーズ表示することができるようになっており、このような表示を、以下では、シースルー表示と呼ぶことにする。なお、「実質的に直接観察している」とは、肉眼で観察している場合だけでなく、ガラスやプラスチックなどで形成された略平板な透明部材を介して観察している場合や、あるいは視度調整用のレンズを介して観察している場合などを含んでいる。
まず、図12を参照して、この実施例1におけるシースルー画像表示部6の光学系(以下、「シースルー画像表示光学系」という。)によりシースルー画像を表示する原理について説明する。
LED113により発光された光は、集光レンズ114により集光されて、LCD115を背面から照明する。LED113は、上述したように、撮影画枠を表示する場合には、例えばG(緑)のダイオードのみを発光させる。
第4CPU111は、撮影範囲を示す撮影画枠に対応する信号を生成して、LCDドライバ117へ出力する。LCDドライバ117は、この信号に基づいてLCD115を駆動することにより、該LCD115に撮影画枠を表示させる。
上記LED113の光を受けてLCD115から射出された撮影画枠の像は、HOE25によって反射された後に、撮影者の眼に導かれる。こうして、撮影者は、撮影範囲を示す撮影画枠を虚像VIとして観察することができる。なお、この図12では原理を説明しているために、HOE116の図示は省略している。
HOE25は、フォトポリマーや重クロム酸ゼラチン等の感光材料を使用した体積位相型のホログラフィー光学素子であり、上記LED113により発光されるR,G,Bの各波長において最大の反射率で光を反射する特性を備えるように設計されている。従って、撮影画枠を表示するときにGの光を発光させる場合には、グリーンの撮影画枠が虚像としてクリアに表示されることになる。HOEは、優れた波長選択性を備えており、上述したR,G,Bの各波長の光線に対しては極めて狭い波長幅において高い反射特性を示す一方で、それ以外の波長の光線に対しては高い透過特性を示す。従って、表示光と同じ波長域の外界光は回折反射されて撮影者の瞳に届かないが、それ以外の波長域の外界光は撮影者の瞳に到達する。一般に、可視光は、波長の帯域幅が広いために、R,G,Bの各波長を含む極めて狭い波長幅の光が到達しなくても、何等支障なく外界像を観察することが可能である。
また、このシースルー画像表示部6は、上記撮像部30により撮像された画像をカラー画像としてシースルー表示することも可能となっており、この場合には、LCD115に撮像された映像を表示させるとともに、上記LED113によりR,G,B3色の光を発光させれば良い。これにより、撮像された映像が、HOE25から、撮影者の瞳に虚像として到達することになる。
上記HOE116は、LCD115からの光をHOE25に導くように反射するだけでなく、像面歪曲も補正する機能を備えたものとなっている。なお、ここではHOE116を用いたが、これに代えて、自由曲面の光学素子を用いることも可能である。自由曲面の光学素子は、小型軽量でありながら複雑な収差を補正することができるために、重量をあまり増加させることなく収差の少ないクリアな像を表示することが可能となる。
続いて、図13および図14を参照して、上記シースルー画像表示光学系の具体的な配置例を説明する。
上記フレーム部13の内部における上記透明光学部材15の上部となる位置に、上記LED113,集光レンズ114,LCD115,HOE116が図13に示すように順に配置されている。これらの各部材は、フレーム部13内に設けられた保持枠により挟み込まれるようにして固定されている。このとき、上記LED113は、電気回路基板181に実装された状態で、上記保持枠により固定されるようになっている。また、これらの内のHOE116は、上述したように、LED113からの光を鉛直下方へ向けて反射するように、傾けて配置されている。
上記透明光学部材15は、図14に示すように、透明なガラスやプラスチック等により所定の厚みを有するように形成された導光部材182,183と、これらの導光部材182,183の間に挟み込まれながら後方へ向けて光を反射するように傾けて配設された上記HOE25と、を有して構成されている。このような構成において、上記HOE116から反射された光は、HOE25の上側に配置された導光部材182の内部を透過して、該HOE25に到達するようになっている。なお、この導光部材182の内部における光の伝播は、図14に示すように透過のみであっても良いが、透過と内面における全反射とを組み合わせたものであっても構わない。透過と全反射とを組み合わせるような光学設計を行った場合には、透明光学部材15を肉薄にすることが可能となるために、頭部装着部2の軽量化をより一層図ることができる。
なお、シースルー画像表示光学系は、上述したような各部材の内の、LED113と、集光レンズ114と、LCD115と、HOE116と、HOE25と、導光部材182,183と、を含むものとなっている。
次に、図15から図19を参照して、被写体と虚像とを同時に眼のピントを合わせて観察し得るようにする構成について説明する。
眼から撮影画枠の虚像までの距離と、眼から被写体までの距離と、の差が大きいと、これらの両方に同時に眼のピントを合わせることができないために、撮影画枠と被写体とを同時に鮮明に観察することができない。
そこで、眼から撮影画枠の虚像までの距離が、眼から被写体までの距離に一致するように設定して、撮影画枠と被写体とを同時に鮮明に観察することができるようにする構成について説明する。
まず、図15は眼から虚像までの位置を変更する原理を説明するための図である。なお、この図15においては、他の部材等に煩わされることなく原理のみを簡潔に説明するために、上記HOE116等の図示や該HOE116等に係る説明などを省略している。
HOE25の焦点距離をf、LCD115に表示された撮影画枠201の位置からHOE25までの距離をLl、HOE25から虚像VIまでの距離をLi、撮影者が撮影画枠201の対角線の虚像を見込む角度(視角)を2δ、LCD115に表示される撮影画枠の対角線の長さをXlとすると、次の数式1および数式2に示すような関係が成り立つ。
[数1]
[数2]
これらの数式に現れる各変数や定数の内、fはHOE25を設計するときに定まるものであるが、δは撮影者が所望に設定するものであり、虚像までの距離Liが被写体までの距離に一致するようにしたい距離(すなわち、例えば測距により求められる被写体距離)である。従って、これらの値を数式1へ代入することにより、被写体距離と同じ距離の位置に虚像を表示させるためのLCD115の表示位置Llが求まり、さらに、上記各値を数式2へ代入することにより、撮影画枠の視角を撮影画角と一致させるための、LCD115に表示する撮影画枠の大きさXlが求まることになる。
図16は、LCD115を虚像距離調整手段たるアクチュエータ252により光軸方向に駆動する構成例を示す図である。この例では、アクチュエータ252として、例えば、電磁モータ、超音波モータ(USM)、静電アクチュエータなど公知のアクチュエータを用いて、上記Llを変更するようにしている。すなわち、LCD115は集光レンズ114の光軸方向に移動可能となるように設けられており、該LCD115を支持する枠部材等に該LCD115を光軸方向に変位させるための虚像距離調整手段たる例えばラック251などが設けられている。このラック251には、アクチュエータ252の回転軸に固定されたピニオンギヤ252a等が噛合して駆動力が伝達されるようになっている。これによって、該アクチュエータ252を所望の量だけ回転させることにより、LCD115を所望の量だけ光軸方向に移動させることができるようになっている。このような構成により、虚像VIまでの距離Liが被写体までの距離に一致するように、上記Llを変更することになる。また、この構成を用いてLlを変更したときには、上記数式2に示すようなXlになるように、視角調整手段たるLCDドライバ117により該LCD115に表示する撮影画枠の大きさを変更することも勿論である。
なお、上記図16、または次に説明する図17に示す例では、虚像位置を変更すると倍率(被写体を見込む角度2δ)が変化するために、視角調整手段たるLCDドライバ117を用いてLCD115に表示する像の大きさを補正することにより、上記倍率が一定になるように補正を行う。具体的には、LCD115に表示された撮影画枠201の位置からHOE25までの距離Llと、LCD115に表示される撮影画枠201の対角線の長さXlと、の比が一定になるように、LCD115に表示する像の大きさを補正することになる。
次に、図17は、LCD115の像を一次結像させるようにし、この一次結像の位置を光軸方向に変化させるようにした構成の一例を示す図である。この例では、LCD115を通過した光束の光路上に結像光学系たる結像レンズ253が配設されており、この結像レンズ253によって、該結像レンズ253とHOE25との間の光路上の位置254において、該LCD115の像が一次結像されるようになっている。上記結像レンズ253は、光軸方向に移動可能となるように設けられており、該結像レンズ253を支持する鏡枠等の部材に該結像レンズ253を光軸方向に変位させるための虚像距離調整手段たる例えばラック255などが設けられている。このラック255には、上述と同様に、虚像距離調整手段たるアクチュエータ256の回転軸に固定されたピニオンギヤ256a等が噛合して駆動力が伝達されるようになっている。これによって、該アクチュエータ256を所望の量だけ回転させることにより、結像レンズ253を光軸方向に移動させて、一次結像面の位置254を所望の量だけ光軸方向に移動させることができる。このような構成を用いて、虚像VIまでの距離Liが被写体までの距離に一致するように、上記Llを変更することになる。なお、上記図15で説明した原理におけるLlは、この図17に示す例では、一次結像面の位置254からHOE25までの距離を指すことになる。また、このときにも、LCD115に表示する撮影画枠の大きさを変更するのはいうまでもない。
なお、ここでは、被写体距離に追従して眼から撮影画枠の虚像VIまでの距離を調整するようにしているが、この場合には、撮影者の視線が変化する毎に被写体距離が変化し、撮影画枠の位置を時々刻々と変更することになるために、撮影画枠を高い精度で連続的に調整しないと、視覚的に違和感を生じてしまう可能性がある。また、撮影画枠の位置を時々刻々と調整すると電力消費も大きくなる。そこで、撮影画枠の位置を至近から無限大の距離で数段階(例えば3段階)に分けて調整するようにしてもよい。
上記図16や図17に示したような構成例は、LCD115や結像レンズ253をアクチュエータにより機械的に移動させるものであったために、構成がやや複雑であるとともに、アクチュエータ等を配置するスペースが必要になったり、重量が増したりする。さらに、アクチュエータを用いているために、駆動時に雑音が少し発生する可能性があり、このときに発生する雑音が撮影者に不快感を与えることもあり得る。こうした点は、頭部に装着して用いるカメラにおいてはできるだけ解消することが望ましい。次に、図18を参照して説明する構成例は、このような点に鑑みてなされたものである。
図18は、LCDの像を一次結像させるようにし、この一次結像の位置を光軸方向に変化させるようにした構成の他の例を示す図、図19は、上記図18における液体レンズの詳細な構成を示す図である。
これら図18および図19に示す構成例は、上記図17に示した結像レンズ253に代えて、液体レンズ(FluidFocusレンズ)257を用いるようにしたものである。以下に説明する液体レンズ257は、2004年3月3日にロイヤルフィリップスエレクトロニクス社により発表されたものを用いる例となっている。
まず、図19を参照して、液体レンズ257の構成について説明する。
液体レンズ257は、図19(A),図19(B)に示すように、透明な伝導性液体(Conducting Fluid)265と、この伝導性液体265とは異なる屈折率(異なる光学特性)をもち該伝導性液体265とは混じり合わない(不混和性の)非伝導液体(Insulating Fluid)266とを、透明な短い円筒状部材の内部に封止して構成されている。上記伝導性液体265は例えば水性の液体であり、上記非伝導液体266は例えば油性の液体となっている。そして、これら伝導性液体265と非伝導液体266との境界面が、レンズ面を構成するようになっている。
上記円筒状部材は、ガラス等で構成された円筒261aと、この円筒261aの底面側を封止するガラス等で構成された円板261bと、該円筒261aの上面側を封止するガラス等で構成された円板261cと、を有して構成されている。
上記円板261bの上面側外周部から周面にかけて、断面略L字状の電極262bが設けられるとともに、上記円筒261aの内周面、外周面、および上面にかけて、断面略コの字状の電極262aが設けられており、これらは互いに非接触となるように配設されている。
上記円筒261aおよび電極262aの内周側には、円筒状の絶縁体263が配設されていて、この絶縁体263の下端側が電極262bに接触して、電極262aと電極262bとが絶縁されるようになっている。
この絶縁体263の内周側から上記円板261cの下面側にかけて、疎水性(撥水性)コーティング(Hydrophobic coating)264が設けられている。
そして、この疎水性コーティング264の内部に、上記伝導性液体265および非伝導液体266が封止されている。なお、上記電極262bは、伝導性液体265に電気的に接続されるように、疎水性コーティング264よりも内周側に延出されている。
このような構成において、上記電極262a,262bに特に電圧を印加しないときには、伝導性液体265が疎水性コーティング264により退けられて、図19(A)に示すように、底面側に集まる略半球状をなし、それ以外の、疎水性コーティング264に接触する部分に非伝導液体266が配分される。
一方、上記電極262aがマイナス、電極262bがプラスとなるように電圧Vを印加すると、図19(B)に示すように、プラスの電荷が上記電極262bから伝導性液体265に伝達される。そして、電極262aの表面にマイナスの電荷が分布するとともに、上記絶縁体263および疎水性コーティング264を介して該電極262aに対向する伝導性液体265の表面にプラスの電荷が分布する。このような電気的誘導によって、伝導性液体265の表面張力(より正確には、伝導性液体265が疎水性コーティング264と接触する界面の張力)が変化する。表面張力が変化すると、伝導性液体265は、疎水性コーティング264の内周面をぬらし始める。このような、電場による疎水性コーティング264の疎水性が弱まるプロセスを、「電子ウェッティング(electrowetting)」という。
こうして、電圧Vを印加することにより、伝導性液体265と非伝導液体266との間のレンズ面の曲率半径が変化するために、レンズの焦点距離が変化する。
このような焦点距離の変化は、電極262aと電極262bとの間に印加する電圧を調整することにより、制御することができる。例えば、印加する電圧Vをより高くしてやることにより、分布する電荷量が増えて、図19(A)に示すように凸状(略半球状)をなす伝導性液体265の表面が、完全に平らになったり(レンズ効果なし)、あるいは、図19(B)に示すような凹状になったりする。この図19(B)に示す例では、接触角φが90度よりも小さくなっている。このようにして、収束レンズから発散レンズへスムーズに移行し、またスムーズに元に戻るレンズを実現することができる。
図18は、上記図19に示したような液体レンズを用いて、LCD115の像の一次結像の位置を変化させるようにした構成例を示している。
すなわち、LCD115とHOE25との間の光路上には、結像光学系であり虚像距離調整手段たる液体レンズ257が配設されていて、この液体レンズ257によるLCD115の像の一次結像面の位置254は、該液体レンズ257に印加する電圧Vを変化させることにより、変更することができるようになっている。
すなわち、該液体レンズ257に印加される電圧Vは、虚像距離調整手段たる電圧制御回路258により制御されるように構成されている。
この電圧制御回路258は、例えば上記第4CPU111に接続されていて、撮影画枠の虚像VIまでの距離Liが、被写体までの距離に一致されるように制御される。
なお、このときにも、液体レンズ257の焦点距離を変化させると虚像VIの倍率が変化するために、該液体レンズ257の焦点距離に応じて、LCD115に表示する撮影画枠の大きさを変更することはいうまでもない。
このような、液体レンズ257の焦点距離を変化させて虚像VIまでの距離Liを被写体までの距離に一致させる構成を採用することにより、構成が簡単になって装置をより一層小型軽量化することができる。さらに、アクチュエータが用いられていないために、騒音が発生することはなく、撮影者に不快感を与えることもない。従って、このような構成は、頭部に装着して用いるタイプの頭部装着型カメラや頭部装着型表示装置などの画像システムに、特に有効となる。
なお、上記図18では、虚像VIとして撮影画枠が表示されるときに、該虚像VIの位置を調整する例を示したが、これに限らず、虚像として画像や文字等が表示される場合にも(すなわち、画像や文字を虚像として表示するような表示装置においても)、同様に適用可能であるのはもちろんである。
次に、図20、図21を参照して、視線方向/角速度検出部7における視線方向検出部の光学系の構成の一例について説明する。図20は視線方向検出部の光学系の一構成例を示す一部断面を含む正面図、図21は視線方向検出部の光学系の一構成例を示す左側面図である。
上記フレーム部13の内部における上記透明光学部材14の上部となる位置に、上記
LED125,集光レンズ126,反射ミラー127,反射ミラー131,結像レンズ132,バンドパスフィルタ133,CCD134が、図20に示すように、順に配置されている。
上記反射ミラー127の下方となる透明光学部材14内には、ハーフミラー128とHOE24とが配設されている。さらに、該ハーフミラー128の側方となる透明光学部材14内には、HOE129が配設されている。
このような構成において、上記LED125から赤外光が発光されると、集光レンズ126により平行光束に変換された後に、反射ミラー127により鉛直下方へ反射される。
この反射ミラー127により反射された赤外光は、透明光学部材14の内部に入って、該透明光学部材14内に配置されているハーフミラー128を透過し、HOE24により観察者の眼へ向けて反射される。
一方、観察者の眼から反射された赤外光は、上記HOE24により上方へ向けて反射され、さらに、ハーフミラー128により側方へ向けて反射される。この反射光は、さらにHOE129により上方へ向けて反射され、フレーム部13内に配設された反射ミラー131に到達する。
この反射ミラー131により側方へ向けて反射された光は、結像レンズ132とバンドパスフィルタ133とを介して、上記HOE24により反射された赤外光の波長域に係る観察者の眼の像として、CCD134上に結像される。
このCCD134によって変換された画像信号は、上記CDS/AGC回路136、A/D変換回路137、通信制御部173、送受信部172等を介して、上記画像記録/編集装置4へ転送され、該画像記録/編集装置4内の第1CPU161において、後述するように、プルキンエ像の位置と、瞳孔の中心位置と、が求められ、さらにこれらの相対的な関係から視線方向が求められる。
なお、上記ハーフミラー128およびHOE129は、このように例えば透明光学部材14内に配置されるが、このときの位置としては、この頭部装着部2を装着して被写体を観察する観察者の視界に通常入り難いような上部であることが望ましい。
これら図20、図21に示したような構成によれば、高い波長選択性と、選択された波長域の光に対する高い反射率と、を有するHOE24を用いるとともに、同様の波長選択性を有するバンドパスフィルタ133をCCD134の前に配置しているために、高いS/N比の信号を得ることが可能になる。
そして、このような構成により、被写体を観察している観察者の視線方向を、正確に求めることが可能となる。
続いて、図22、図23を参照して、視線方向/角速度検出部7における視線方向検出部の光学系の構成の他の例について説明する。図22は視線方向検出部の光学系の他の構成例を示す一部断面を含む正面図、図23は視線方向検出部の光学系の他の構成例を示す左側面図である。
上記図20、図21に示したような構成は、ハーフミラー128およびHOE129が外光に直接さらされることになるために、外光ノイズがCCD134に到達するのを完全に遮断するのは困難である。これに対して、この図22、図23に示すような構成は、観察者の眼へ赤外光を投光する光路と、観察者の眼により反射された赤外光をCCD134により受光する光路と、を完全に分離するようにしたものとなっている。
すなわち、この視線方向検出部の光学系においては、上記ハーフミラー128およびHOE129が省略されると共に、HOE24が、上記図20に示したものよりも左右方向にやや長くなるように構成されている。
そして、上記反射ミラー127により反射された赤外光は、このHOE24の例えば左側部分へ向けて、斜めに入射されるようになっている。HOE24は、この反射ミラー127からの赤外光を、観察者の眼へ向けて、水平方向に少し斜めとなるように投射する。
一方、観察者の眼からの反射光は、該HOE24の例えば右側部分により受光されて、上記反射ミラー131へ向けてほぼ鉛直真上に反射される。この反射ミラー131以降の構成等は、上記図20、図21に示したものと同様である。
これら図22、図23に示したような構成によれば、高い波長選択性と、選択された波長域の光に対する高い反射率と、を有するHOE24を用いるとともに、同様の波長選択性を有するバンドパスフィルタ133をCCD134の前に配置しているために、高いS/N比の信号を得ることが可能になる。そして、外光が照射される透明光学部材14に配置されるのをHOE24のみとしたために、透明光学部材14にハーフミラー128やHOE129が配置されている上記図20、図21の構成に比して、さらに外光ノイズの影響を低減することが可能となる。
なお、透明光学部材14内部における光の伝播は、図21や図23に示したように透過のみであっても良いが、上記透明光学部材15内部における光の伝播と同様に、透過と内面における全反射とを組み合わせたものであっても構わない。この透過と全反射とを組み合わせる光学設計を行う場合には、透明光学部材14を肉薄にすることが可能となって、頭部装着部2の軽量化をより一層図ることができる。
次に、撮像部30を、フレーム部13の側面に対して、ピッチ方向およびヨー方向に相対的に角度調整可能となるように取り付ける構成について、図24および図25を参照して説明する。図24は撮像部30をフレーム部13に取り付ける構成を示す平面図および右側面図、図25は撮像部30を取り付けるためにフレーム部13に設けられた孔の構成を示す右側面図である。
本実施例の画像システム1は、撮影者が撮影範囲を示す撮影画枠を指定し、指定された撮影画枠の視角に対応する画角で撮影を行うものであるために、パララックスを補正する必要がある。このパララックスの発生原因として、撮影者の視軸と撮影光軸との水平方向の位置的なずれと、視軸と撮影光軸との角度のずれと、があるが、後者の角度のずれの影響が非常に大きいために、この角度のずれを精密に補正することができるような調整機構(調整手段)を設けたものとなっている。
フレーム部13とテンプル部12とは、図24(A)に示すように、丁番78を介して、折り畳み可能に接続されている。この丁番78は、上記フレーム部13から延設されるやや長めの継手29を介して、右眼側の丁番79よりもややフロント部11側から離れた位置に配設されている。
上記継手29の側面には、該側面に沿った形状部33aと、該側面から略垂直に立設される形状部33bと、を備えた、正面から見たときに略L字形状をなす調整機構(調整手段)たる台座33が接続されるようになっている。この調整機構は、頭部装着型カメラの調整方法が適用される頭部装着型カメラの調整装置における、フロント部11と撮像部30との相対的な角度を調整するための機構であり、該調整機構を用いることにより、撮像部30に含まれる撮影光学系31の光軸と視軸とを調整することが可能となっている。
すなわち、上記継手29には、図25に示すように、前方側にピッチ方向調整手段たる孔191が、後方側に該孔191を中心とした円弧状をなすピッチ方向調整手段たる長孔192が、それぞれ穿設されている。これらの孔191,192を介して、ピッチ方向調整手段たるビス34,35をそれぞれ台座33の上記形状部33aに螺合することにより、該台座33が継手29に対して取り付けられている。
また、上記台座33の形状部33bには、図24(A)に示すように、前方側にヨー方向調整手段たる孔193が、後方側に該孔193を中心とした円弧状をなすヨー方向調整手段たる長孔194が、それぞれ穿設されている。これらの孔193,194を介して、図24(B)に示すように、ヨー方向調整手段たるビス36,37をそれぞれ撮像部30の底面側に螺合することにより、該撮像部30が台座33に対して取り付けられている。なお、上記撮像部30の背面側からはケーブル38が延出されていて、被写体側に曲折された後に、上記フレーム部13内の電気回路等に接続されている。
このような構成において、ビス34およびビス35をやや緩めた状態で、ビス35が挿通される長孔192内の位置を変更することにより、台座33がビス34を中心として回動し、台座33、ひいてはこの台座33に取り付けられている撮像部30のピッチ方向の角度調整を行うことができる。こうして、所望の位置に調整された後には、上記ビス34およびビス35を固締めすれば良い。
同様に、ビス36およびビス37をやや緩めた状態で、ビス37が挿通される長孔194内の位置を変更することにより、撮像部30がビス36を中心として台座33に対して回動し、該撮像部30のヨー方向の角度調整を行うことができる。こうして、所望の位置に調整された後には、同様に、上記ビス36およびビス37を固締めすることになる。
このような構成によれば、シースルー画像表示部6と撮像部30との相対的なピッチ方向およびヨー方向の角度調整を行うことが可能となる。さらに、撮像部30が台座を介してフロント部11に固定されているために、テンプル部12を折り畳んでも撮像部30が折り畳まれることはなく、撮像部30とシースルー画像表示部6との相対的な角度ずれが発生する可能性が小さくなる。また、調整機構が簡単であるために、安価に構成することが可能となる。
なお、上述においては、撮像部30と台座33との相対的なヨー方向の角度を調整し、フレーム部13の側面の継手29と台座33との相対的なピッチ方向の角度を調整するようにしたが、これとは逆に、台座33に対する撮像部30の取り付け位置を変更することにより、撮像部30と台座33との相対的なピッチ方向の角度を調整し、台座33に対するフレーム部13の取り付け位置を変更することにより、フレーム部13の側面の継手29と台座33との相対的なヨー方向の角度を調整するように構成することも可能である。
続いて、図26から図36を参照して、シースルー画像表示部6による画像の表示例について説明する。
まず、図26は、シースルー表示における初期状態の表示例を示す図である。カメラ1の電源を投入するか、またはシステムをリセットしたときに、この図26に示すような表示が行われるようになっている。このときには、図示のように、標準レンズ(例えば、画角が50度であるものとする)に相当する撮影範囲を示す撮影画枠201がシースルー表示される(つまり、撮影者から見たときの視角が50度となるような撮影画枠201がシースルー表示される)ようになっている。
次に、図27は、テレへのズームが行われたときの表示例を示す図である。表示される撮影画枠201が、上記図26に示したよりもテレに対応する撮影範囲を示すものになっている。この撮影画枠201の変更は、上述したように、例えば上記ズームスイッチ75の操作により行われ、このときには撮像部30の撮影画角も該撮影画枠201の視角に一致するように、上記撮影光学系31の焦点距離が変更される。具体的には、上記図26に示したような標準レンズの焦点距離に対応する撮影範囲において、該ズームスイッチ75のテレスイッチ75aを操作することにより、この図27に示すような望遠側への変更が行われる。
続いて、図28は、ワイドへのズームおよび露出補正が行われたときの表示例を示す図である。表示される撮影画枠201が、上記図26に示したよりもワイドに対応する撮影範囲を示すものになっているとともに、この撮影画枠201の例えば右下に、露出補正量が情報表示202として表示されている。この図に示す例では、例えば上記露出補正スイッチ76により、+1.0の露出補正が行われたことが示されている。なお、露出補正は、数字で示すに限るものではなく、棒グラフや指標などの各種の表示を用いても構わないことは勿論である。また、この図28に示すような撮影画枠201は、例えば上記図26に示したような標準レンズの焦点距離に対応する撮影範囲において、上記ズームスイッチ75のワイドスイッチ75bを操作することにより、設定される。
また、図29は、電子ビュー表示を行うときの表示例を示す図である。例えば上記F/Vスイッチ72によりビューモード(V)が選択されると、この図に示すように、撮像部30で撮像された電子画像203が虚像として撮影者の目に投影されるようになっている。なお、この電子ビューとして表示する画像の大きさは、該画像の解像度により設定することができ、例えば解像度が低い場合は画像を小さく表示すれば良い。
図30は、動画を録画中の表示例を示す図である。例えば上記録画スイッチ74が操作されて録画中となったときには、この図30に示すように、撮影範囲を示す撮影画枠201が表示されるとともに、録画中であることを示す情報表示204が「REC」の文字として、撮影画枠201の例えば右下に表示されるようになっている。この録画中であることを示す表示も、上述と同様に、文字に限るものではない。
図31は、マニュアルモード時の表示例を示す図である。例えば上記FA/A/Mスイッチ71が操作されることによりマニュアルモード(M)に設定されているときには、該マニュアルモード(M)を示す情報表示205が「MANU」の文字として、撮影画枠201の例えば右下に表示されるようになっている。一方、「MANU」の情報表示205が行われていないときには、オートモード(A)であることになる。
図32は、フルオートモードで動画を録画中の表示例を示す図である。例えば上記FA/A/Mスイッチ71が操作されることによりフルオートモード(FA)に設定されていて、かつ録画スイッチ74が操作されて録画中となったときには、この図32に示すように、撮影範囲を示す撮影画枠201が表示されるとともに、フルオートモードであることを示す情報表示206が「FA」の文字として、また、録画中であることを示す情報表示207が「REC」の文字として、撮影画枠201の例えば右下に表示されるようになっている。これらのフルオードモードであることや録画中であることを示す表示も、上述と同様に、文字に限るものではない。
図33は、撮影光学系31の焦点距離fが焦点調節可能な下限値k1に達しているにもかかわらず、さらに小さい方へ操作されようとしている場合にシースルー表示される警告表示208の例を示す図である。すなわち、ワイド側へのズーム操作を行ってズームのワイド端に達したときに、依然としてワイド側へのズーム操作が行われている場合に、この警告表示208が撮影範囲を示す撮影画枠201の表示とともに行われる。
図34は、撮影光学系31の焦点距離fが焦点調節可能な上限値k2に達しているにもかかわらず、さらに大きい方へ操作されようとしている場合にシースルー表示される警告表示209の例を示す図である。すなわち、テレ側へのズーム操作を行ってズームのテレ端に達したときに、依然としてテレ側へのズーム操作が行われている場合に、この警告表示209が撮影範囲を示す撮影画枠201の表示とともに行われる。
図35は、静止画を撮影する操作が行われたときの表示例を示す図である。このときには、撮影範囲を示す撮影画枠201が表示されるとともに、静止画を記録したことを示す情報表示210が「REL」の文字として、撮影画枠201の例えば右下に表示されるようになっている。この静止画を記録したことを示す表示も、上述と同様に、文字に限るものではない。
図36は、キャリブレーションモードにおける表示例を示す図である。例えば、上記第1操作スイッチ162のメニューボタン63やメニュー選択スイッチ66,67,68,69、確定スイッチ65などを操作することによりキャリブレーションモードが選択されると、この図36に示すような表示を行うようになっている。すなわち、ここでは、キャリブレーションモードであることを示す情報表示211が、「CAL」の文字として、視野の例えば右下に表示されるとともに、さらに、キャリブレーション用の指標P1〜P5が、後述するように、順次点滅して表示されるようになっている。これらの内の、指標P1は視野の中央部に、指標P2は視野の上部に、指標P3は視野の右側部に、指標P4は視野の下部に、指標P5は視野の左側部に、それぞれ表示される。
なお、上述したような各表示において、通常の情報表示は上記LED113の中の例えばG(緑)のダイオードを発光させることにより行い、警告表示は上記LED113の中の例えばR(赤)のダイオードを発光させることにより行うようにすると良い。
次に、図37〜図39を参照して、上述したような被写体までの距離に基づくパララックスの補正の原理について説明する。図37は被写体と撮影光学系とCCDとの光学的な関係を説明するための図、図38はHOEとこのHOEにより形成される虚像と眼との光学的な関係を説明するための図、図39はパララックスを補正するのに必要な虚像のシフト量を説明するための図である。
図37に示すように、CCD87の撮像領域の水平方向のサイズをh2、撮影光学系31の焦点距離をf、撮影光学系31の主点からCCD87までの距離をf+x、撮影光学系31の主点から被写体Oまでの距離をL2、CCD87で撮影される被写体Oの水平方向の長さをH2、水平方向の撮影画角をθ2、とすると、次の数式3に示すような関係式が成り立つ。
[数3]
一方、図38に示すように、撮影者の瞳Pの位置から撮影範囲を示す水平方向の撮影画枠の位置(虚像VI)までの距離をL1、該撮影画枠の水平方向の長さをH1、瞳Pの位置から水平方向の長さH1でなる該撮影画枠を見込む角度(視角)をθ1とすると、次の数式4に示すような関係式が成り立つ。
[数4]
撮影者が設定した撮影範囲で撮影するためには、撮影画角と視角が等しくなること、すなわち、θ2=θ1であることが必要である。このθ2=θ1が成り立つ条件の下では、数式3の右辺と数式4の右辺とが等しくなるために、撮影光学系31の焦点距離fは、次の数式5に示すように求められる。
[数5]
一方、レンズの結像原理から、次の数式6が成り立つ。
[数6]
これら数式5と数式6とから、xを消去することにより、次の数式7が導かれる。
[数7]
この数式7から、被写体距離L2を求めることができれば焦点距離fを求めることができることがわかる。
ここで、通常の被写体においてはh2/L2≪H1/L1の関係が成立するために、計算を簡略化したいときや、被写体距離を求める手段を備えていないときは、次の数式8により近似値を求めることができる。
[数8]
次に、パララックスの補正原理について、図39を参照して説明する。
まず、パララックスの補正の原理を説明する際の前提条件として、撮影光学系31の光軸方向と撮影者の視軸の方向とは、ともに顔面に対して垂直であるものとし、これらの光軸と視軸とは距離Xだけ隔てて配置されているものとする。ここに、パララックスは、光軸と視軸とが距離Xだけ離れていることに起因して発生するものである。なお、光軸と視軸とが相対的に傾いている場合には、大きなパララックスを生ずる要因となり得るために、これらは平行となるように調整する必要がある。このために、上記図24、図25に示したような調整機構を用いて、光軸と視軸との調整を行うようになっている。
図39の実線および点線に示すように、もし、撮影範囲を示す撮影画枠の虚像VI0までの距離と、被写体Oまでの距離と、が同じであれば、撮影者が観察している範囲と撮像部30が撮像している範囲とのずれ量(パララックス)は、Xとなって不変である。しかし、実際には、撮影者の瞳Pから虚像VI1までの距離L1は、撮影光学系の主点から被写体Oまでの距離L2と異なるために、虚像としての撮影画枠が示す範囲を実際の撮像範囲に合致させるためのパララックス補正量X’は、次の数式9に示すようになる。
[数9]
撮影画枠の虚像VI1の倍率(つまり、LCD115上に表示される像に対する虚像の大きさの比)の逆数をβとすると、パララックスを補正するために、LCD115上に表示する像のシフト量SPは、次の数式10に示すようになる。
[数10]
従って、第4CPU111は、この数式10で表わされる量SPだけ、LCD115に表示する像の位置をシフトさせるように、上記LCDドライバ117を制御することになる。これにより、虚像VI1の位置が距離X’だけシフトされて虚像VI2となり、図39の2点鎖線に示すように、虚像の撮影画枠が示す範囲が、実際の撮像範囲に一致する。
このように、パララックス補正を行うためのシフト量SPは、被写体距離L2に依存しているために、被写体距離が異なる毎に、随時行うことが基本となる。
しかしながら、例えば、β=1/100、L1=2m、L2=2m、X=4cmの場合を例に取ると、シフト量SPは0.4mmとなるが、このパララックス補正量を次のような数式11、
[数11]
を用いて視角Sθに換算すると、約1度となって、さほど大きなパララックスが生じているとはいえない。このように、通常の撮影を行う場合には、パララックス補正はほとんど必要がないということができる。その一方で、数式11の右辺括弧内は被写体距離L2の逆数に比例しているために、視角Sθが大きくなって上述した数式10によるパララックス補正が必要となってくるのは、L2が小さいとき、つまり近接撮影のとき、であることが分かる。
なお、以上の説明においては、被写体距離L2を三角測距の原理に基づいて求めるようになっている。すなわち、投光用LED16aの光を被写体へ投光して、該被写体から反射した光を上記CCD87で撮像し、該CCD87上の像の位置から、三角測距の原理に基づいて求めるようになっている。
また、L2は視線方向の被写体距離であるために、投光用LED16aを、視線検出を行う眼になるべく近い位置に配置して、公知の投光方向を制御する手段により、視線方向(θ)に投光するようにすれば良い。
さらに、上述したような三角測距の原理に基づいて被写体距離を求める代わりに、オートフォーカスを行ったときのフォーカスレンズ85の位置から被写体距離L2を求めるようにしても構わない。すなわち、被写体の位置が無限大であると仮定して、上記図11に示したようなAF処理回路98により、視線方向(θ)と同じ画角の所定範囲にある被写体の画像信号の高周波成分が最大になる位置に、フォーカスレンズ85を駆動し(いわゆるコントラスト方式による焦点検出を行い)、このフォーカスレンズ85の位置から逆に被写体距離L2を求めるようにすれば良い。この場合には、視線方向(θ)の被写体と、上記AF処理の対象となる視線方向(θ)と同じ画角の被写体と、は厳密には一致しないが、被写体はある大きさを有するために実用上の問題が生じることはない。
続いて、図40を参照して、撮像部30と視線方向/角速度検出部7の視線方向検出部とが所定距離だけ隔てて配置されていることに起因して生じるパララックスを考慮する技術について説明する。図40は、視線方向にある被写体を撮像部から見るときの角度の関係を示す図である。
例えば、視線方向/角速度検出部7により検出された視線方向にある被写体に、撮像部30の撮影光学系31のピントを合わせようとする場合を考える。被写体までの距離が遠い場合には、撮像部30から見た撮影者の視線方向にある被写体は、撮影者が実際に注視している被写体にほぼ一致するが、被写体までの距離が近くなると、これらにずれが生じてくる。従って、ずれた位置にある被写体にピントを合わせたとしても、撮影者が注視している被写体にピントが合うとは限らない。図40は、このようなパララックスが生じているときの位置関係の例を示している。
今、撮影者が、撮影光学系31の光軸と平行な視軸に対して角度θをなす方向の、距離Lにある被写体Oを注視しているものとする。このときに、撮影光学系31の光軸と撮影者の瞳との間の距離をXe とする。また、撮影光学系31の光軸と、撮影光学系31の主点Hと被写体Oを結ぶ直線と、のなす角度をθ’とする。すると、次の数式12が成り立つ。
[数12]
従って、視線方向/角速度検出部7により検出された視線方向θと、AF処理回路98等により検出された被写体距離Lと、設計的に定まるXe と、をこの数式12に代入して上記角度θ’を求め、この求めた角度θ’の方向に該当する被写体に撮影光学系31のピントを合わせるようにすればよい。なお、被写体距離Lが大きい場合には、数式12の右辺の第2項を無視することができるために、θ’≒θとなり、つまりパララックスの影響をほぼ考えなくて良いことが分かる。
なお、上記被写体距離Lは、上述したように、三角測距により求めたものでも良いし、あるいはコントラスト方式により焦点検出を行った結果に基づいて求めたものであっても構わない。
次に、以上説明したような画像システムの動作について、図48および図49を参照して説明する。図48は画像システムの動作の一部を示すフローチャート、図49は画像システムの動作の他の一部を示すフローチャートである。これら図48および図49は、画像システムの動作の流れを、図面の都合上、2図に分割して示したものである。
この画像システム1の電源を投入するか、またはシステムをリセットすると、標準レンズ(上述したように、例えば、画角が50度となる。)に相当する撮影範囲を示す撮影画枠を、上記シースルー画像表示部6により上記図26に示したようにシースルー表示する(ステップS1)。
次に、上記第2CPU121に内蔵されているタイマ123をチェックすることにより、所定時間が経過したか否かを判断する(ステップS2)。
ここで、所定時間が経過していると判断された場合には、図8に示したような第1操作スイッチ162や、図10に示したような第2操作スイッチ171などの各種スイッチの入力状況をモニタする(ステップS3)。
なお、上記ステップS2におけるタイマは、所定時間が経過して上記ステップS3に移行した時点で、再度、計時を開始するものとなっている。そして、タイマによる計時が所定時間に達していないときには、上記ステップS3におけるスイッチのモニタは行わないようになっている。このように、タイマをチェックしながら所定の時間間隔でスイッチの入力状況を確認することにより、各CPUの負荷を軽減することができるとともに、スイッチのチャタリングによる誤動作を防止することも可能となっている。なお、後述するステップS14,S20,S25のタイマは、上記ステップS2におけるタイマと同様の機能を果たすものとなっている。
上記ステップS3の処理が終了したら、次に、後述するような危険防止のサブルーチンを実行する(ステップS4)。
このステップS4の処理が終了するか、または上記ステップS2において所定時間が経過していないと判断された場合には、画像システム1が、オートモード(A)もしくはマニュアルモード(M)の何れかに設定されているか、または、これらのモード以外(つまりフルオートモード(FA))に設定されているか、を判断する(ステップS5)。このモード設定は、上述したように、FA/A/Mスイッチ71の操作により行われるものである。
ここで、オートモード(A)でもマニュアルモード(M)でもなく、つまりフルオートモード(FA)であると判断されたときは、録画スイッチ74により録画モードに設定されているか否かを判断する(ステップS6)。
ここで、もし録画モードに設定されていないときには、上記ステップS2へ戻って、上述したような処理を繰り返して行う。
また、上記ステップS6において、録画モードに設定されていると判断された場合には、標準撮影画枠に設定するとともに、フルオートモードであることを示す情報表示206(文字「FA」)と、録画中であることを示す情報表示207(文字「REC」)と、を上記図32に示したようにシースルー表示する(ステップS7)。
そして、動画データ、角速度データ、視線方向データ、音声データを、上記ディスク249等に記録してから(ステップS8)、上記ステップS2へ戻って、上述したような処理を繰り返して行う。
一方、上記ステップS5において、オートモード(A)またはマニュアルモード(M)の何れかが設定されていると判断された場合には、露出補正が設定されているか否かを判断する(ステップS9)。
ここで、露出補正が設定されていると判断された場合には、例えば図28に示したように、設定されている露出補正量(補正値)を情報表示202としてシースルー表示する(ステップS10)。
このステップS10の処理が終了するか、または上記ステップS9において露出補正が設定されていないと判断された場合には、画像システム1が、撮像部30で撮像された画像をシースルー表示するビューモード(V)に設定されているか、または、撮影範囲である撮影画枠のみを表示するフレームモード(F)に設定されているかを判断する(ステップS11)。このモード設定は、上述したように、F/Vスイッチ72の操作により行われるものである。
ここで、モードがフレームモード(F)に設定されていると判断されたときには、次に、画像システム1が、オートモード(A)に設定されているか、または、マニュアルモード(M)に設定されているか、を判断する(ステップS12)。このモード設定は、上述したように、FA/A/Mスイッチ71の操作により行われるものである。
ここに、オートモード(A)は、撮影光学系31の焦点距離が所定値以上であるときは、フレームモード(F)に設定されていても、撮像部30により撮像された画像を自動的に拡大してシースルー表示するモードとなっている。このような表示を行うことにより、望遠撮影においても面倒な操作を行うことなく被写体の詳細を容易に確認することができるとともに、通常の焦点距離(上記所定値未満の焦点距離)においては撮影範囲を示す撮影画枠が表示されるのみであるために、長時間の撮影においても違和感なく撮影を行うことが可能となる。
一方、マニュアルモードは、上述したように、上記シースルー表示を行うか否かをマニュアルで設定するものであり、通常は撮影画枠の表示のみを行うモードである。
上記ステップS12において、マニュアルモード(M)が選択されていると判断された場合には、上記図31に示したように「MANU」の情報表示205を行う(ステップS13)。
そして、タイマをチェックすることにより、所定時間が経過したか否かを判断する(ステップS14)。
ここで、所定時間が経過している場合には、上記ステップS4の危険防止の処理において、後述する図50のステップS41で求めた被写体までの距離に基づき、撮影者の観察している範囲と撮像部30による撮影範囲とのずれであるパララックスを補正するために必要な補正値を上述したような原理に基づき算出する(ステップS15)。
そして、このステップS15で算出された補正値に基づいて、正しい位置に撮影画枠を表示するように、撮影画枠の表示を更新する(ステップS16)。このような処理を行うことにより、被写体距離が変化した場合にも、正確に撮影範囲を表示することができるようになっている。なお、このステップS16においては、HOE25から上記撮影範囲を表わす撮影画枠の虚像までの距離も、上記図15〜図18に示したような手段の何れかにより調整するようになっている。
一方、上記ステップS12において、オートモード(A)に設定されていると判断されたときは、次に、撮影光学系31の焦点距離が所定値αよりも大きい望遠側に設定されているか否かを判断する(ステップS17)。
ここで、撮影光学系31の焦点距離が所定値α以下であると判断された場合には、上記ステップS14の処理に移行する。また、撮影光学系31の焦点距離が所定値αよりも大きいと判断された場合、あるいは上記ステップS11において、ビューモード(V)が設定されていると判断された場合には、撮像部30により撮像した電子画像をシースルー画像表示部6により被写体に重畳してシースルー表示する(ステップS18)。
このステップS18の処理が終了した場合、上記ステップS16の処理が終了した場合、または上記ステップS14において所定時間が経過していないと判断された場合には、撮影者が上記画像記録/編集装置4のワイドスイッチ75bを操作することにより、撮影画枠の大きさを広く(W)したか否かを判断する(ステップS19)。
ここで、撮影画枠の大きさを広く(W)する操作が行われていると判断された場合には、タイマをチェックすることにより、所定時間が経過しているか否かを判断する(ステップS20)。
そして、所定時間が経過していると判断された場合には、撮影光学系31の焦点距離fが、焦点調節可能な下限値k1に達しているにもかかわらず、さらにこの下限値k1よりも小さい方へ操作されようとしているか否かを判断する(ステップS21)。
ここで、焦点調節可能な下限値k1よりも小さい方へ操作されようとしている場合には上記図33に示したように、シースルーにより警告表示208を行う(ステップS22)。また、焦点距離fが焦点調節可能な下限値k1にまだ達していない場合には、撮影光学系31のバリエータレンズ82を駆動することにより焦点距離fを小さくして、撮影者が設定した撮影範囲になるように撮影光学系31の焦点距離を設定する(ステップS23)。
一方、上記ステップS19において、撮影画枠の大きさを広く(W)する操作が行われていないと判断された場合には、上記画像記録/編集装置4のテレスイッチ75aを介して、撮影画枠の大きさを狭く(T)する操作が行われているか否かを判断する(ステップS24)。
ここで、撮影画枠の大きさを狭く(T)する操作が行われていると判断された場合には、タイマをチェックすることにより、所定時間が経過しているか否かを判断する(ステップS25)。
そして、所定時間が経過していると判断された場合には、撮影光学系31の焦点距離fが、焦点調節可能な上限値k2に達しているにもかかわらず、さらにこの上限値k2よりも大きい方へ操作されようとしているか否かを判断する(ステップS26)。
ここで、焦点調節可能な上限値k2よりも大きい方へ操作されようとしている場合には上記図34に示したように、シースルーにより警告表示209を行う(ステップS27)。また、焦点距離fが焦点調節可能な上限値k2にまだ達していない場合には、撮影光学系31のバリエータレンズ82を駆動することにより焦点距離fを大きくして、撮影者が設定した撮影範囲になるように撮影光学系31の焦点距離を設定する(ステップS28)。
上記ステップS24において撮影画枠の大きさを狭く(T)する操作が行われていないと判断された場合、上記ステップS20あるいはステップS25において所定時間が経過していないと判断された場合、または、上記ステップS22,S23,S27、あるいはステップS28の処理が終了した場合、には、画像記録/編集装置4の第2操作スイッチ171に含まれる録画スイッチ74による動画記録の操作(あるいは、第1操作スイッチ162による動画記録の操作)が行われて録画モードが設定された否かを判断する(ステップS29)。
ここで、録画モードが設定されている場合には、図30に示したように、「REC」の文字による情報表示204をシースルーにより行ってから(ステップS30)、録画を開始する(ステップS31)。
このステップS31の処理が終了するか、または、上記ステップS29において録画モードが設定されていないと判断された場合には、画像記録/編集装置4の第2操作スイッチ171に含まれるレリーズスイッチ73による静止画撮影の操作(あるいは、第1操作スイッチ162による静止画撮影の操作)が行われたか否かを判断する(ステップS32)。
ここで、静止画撮影の操作が行われたと判断される場合には、まず、静止画像の記録を行ってから(ステップS33)、図35に示したように、静止画の記録が行われたことを示す「REL」の文字による情報表示210をシースルーにより行う(ステップS34)。
このステップS34が終了するか、または、上記ステップS32においてレリーズスイッチ73による静止画撮影の操作が行われていないと判断される場合には、上記ステップS2の処理に戻って、上述したような動作を繰り返して行う。
図50は、上記図48のステップS4に示した危険防止のサブルーチンの詳細を示すフローチャートである。
上述したように、スイッチ39を操作することにより、シースルー画像の表示を所望に禁止することができるようにして安全を図るようにしているが、これに代えて、またはこれと共に、撮影者の状態を検出して、検出された状態に応じて撮影動作中のシースルー表示を自動的に禁止するようにしたものである。
この危険防止の処理を開始すると、まず、被写体までの距離を測定する(ステップS41)。このときの測距原理は、次のようになっている。
フレーム部13の中央部に配置された投光用発光部16の投光用LED16aから発光された光束は、集光レンズ16bによりほぼ平行光束となって射出され、被写体に照射される。この光は、該被写体によって反射され、撮影光学系31を介してCCD87の撮像面に入射する。
このときに、集光レンズ16bと撮影光学系31との間の距離をL、撮影光学系31の主点からCCD87の撮像面までの距離をf1、被写体からの反射光のCCD87の撮像面上における結像位置と撮影光学系31の光軸が該撮像面に交差する位置との距離を△L、とすると、被写体までの距離Rは、公知の三角測距の原理に基づいて、次の数式13により求めることができる。
[数13]
このようにして求めた距離Rを、第2CPU121の内部に設けられたRAM122に一時的に記憶する。
続いて、上記角速度センサ141,142により、独立な2軸周りの角速度を検出して、上記RAM122に一時的に記憶する(ステップS42)。
次に、今回取得した測距結果と、以前に取得した測距結果と、を比較して、撮影者の前方にある物体が相対的に近づいているか否かを判断する(ステップS43)。
ここで、前方の物体が近づいていると判断された場合には、さらに、今回取得した被写体までの距離Lが、所定の距離k3よりも近い距離となっているか否かを判断する(ステップS44)。
ここで、上記距離Lが所定の距離k3よりも近いと判断されたときには、所定の警告マークを上記シースルー画像表示部6によりシースルー表示する(ステップS45)。なお、ここでは、前方の物体までの距離のみを考慮して、該前方の物体の移動速度は考慮していないが、上記ステップS43において、前方物体までの距離を求めるとともにさらに移動速度(近接してくるスピード)も求めて、該移動速度に応じて上記所定の距離k3を適応的に設定するようにしても良い。この場合には、前方物体が近接してくるスピードが速いほど、上記所定の距離k3を大きくするように設定する。そして、前方物体の移動速度は、上記距離Lを所定時間間隔で検出することにより、測定することが可能である。
一方、上記ステップS43において、前方の物体は近づいていないと判断された場合には、さらに、上記角速度データに基づいて撮影者が歩行中であるか否かを判断する(ステップS46)。
すなわち、人が歩行しているとき、または人が走行しているときの、頭部に装着した角速度センサ141,142からの出力の特徴パターンを、予めEEPROM102に記憶しておく。そして、該角速度センサ141,142からの出力パターンが、該歩行時または走行時の特徴パターンと一致するときに、撮影者が歩行(または走行)していると判断するようになっている。
このステップS46において、撮影者が歩行(または走行)していると判断されたときは、上記ステップS45へ行って、上述したように警告表示を行う。
また、上記ステップS44において、前方物体までの距離Lが所定の距離k3以上であると判断された場合、あるいは、上記ステップS46において、撮影者が歩行(または走行)していないと判断された場合には、危険はないとして、上記ステップS45の警告表示は行わない。
こうして、ステップS45の処理が終了するか、または上記ステップS44あるいはステップS46において危険がないと判断された場合には、この危険防止の処理を終了して、上記図48に示した処理に復帰する。
なお、上述では警告表示を行っているが、この警告表示に代えて、強制的に(自動的に)シースルー画像表示部6によるシースルー表示をオフにするようにしても構わない。
また、上述では、角速度センサ141,142の出力値のパターンを所定の特徴パターンと比較して撮影者の状態を検出したが、より簡易的な手段としては、角速度センサ141,142の出力値が所定時間継続して所定値以上であるときに、警告表示を行ったり、シースルー表示を禁止したりすることも考えられる。
さらに、上述では、撮影者の状態として、撮影者が歩行もしくは走行している状態を例に挙げたが、これらに限らず、危険を防止することが望ましい状態に対応することができるようにすると良い。例えば、前方物体との相対的な速度に基づいて、自動車等を運転中であるか否かを判断し、運転中であると判断された場合にも、所定の警告を行ったり、シースルー表示を禁止したりするようにすると良い。このときには、運転中であって危険を防止することが望ましい状態であるか、または、列車やバス等に乗車中であって特に警告等を行う必要はない状態であるか、をより精度良く判別するために、上記角速度センサ141,142の出力を用いたり、その他のセンサ等を設けてさらに検出精度を高めるようにすると良い。
そして、上記撮影中における前方物体との衝突等の危険を防止する技術は、頭部装着型カメラとして構成された画像システムに適用するに限るものではなく、シースルー表示機能を有する頭部装着型の表示装置として構成された画像システムに対しても適用可能であり、さらには、その他の一般的なカメラや表示装置に対しても広く適用することが可能である。
このような危険防止機能を設けることにより、画像システム1を、安全に使用することが可能となる。このような機能は、通常の行動をしながら簡単に撮影を行うことができる本実施例の画像システム1において、特に有効となっている。
次に、図41〜図44を参照して、視線方向検出の原理について説明する。
図41は、照明光束の光軸Lmと眼の視線方向の視軸Lm’とが一致しているときの、該光軸Lmおよび視軸Lm’を含む面による眼の断面図である。この図41において、点Oを中心とする大きな円弧は眼球221を、点O’を中心とする円弧は角膜222を、角膜222を示す円弧が眼球221を示す円弧と交差する点から伸びる線分は虹彩223を、それぞれ示している。
このような眼に対して、光軸をLmとする平行光束を照射すると、角膜222の曲率中心O’と角膜222の頂点Kとのほぼ中点の位置に、光点Pi(以下、「プルキンエ像」という。)を生ずる。
角膜222を照明する光束の光軸Lmと、眼の視線方向を示す視軸Lm’と、が一致している場合には、図41に示すように、虹彩223中の円形孔でなる瞳孔の中心と、プルキンエ像Piと、角膜222の曲率中心O’と、眼球221の回旋中心Oと、は上記光軸Lm上にある。そして、プルキンエ像Piは、上記瞳孔の中心位置に生じている。このときに、眼を正面から観察すると、プルキンエ像Piの反射率は大きいために明るい光像として観察され、これに対して、瞳孔や虹彩の反射率は大幅に小さいために暗く観察される。
図42は、光軸Lmに垂直に交差する線を横軸として、眼の像を上記視線方向/角速度検出部7により撮像したときのCCD134の出力信号を縦軸方向にプロットした図である。
図示のように、虹彩223の像IRはその周囲の眼球221の像部分よりも暗く、瞳孔の像PLは虹彩223の像IRよりもさらに暗い。これらに対して、プルキンエ像Piは突出して明るい。従って、このような明るさの分布を検出することにより、プルキンエ像の虹彩(または瞳孔)の中心からの位置を求めることが可能となっている。
一方、図43は、照明光束の光軸Lmと眼の視線方向の視軸Lm’とが交差しているときの、該光軸Lmおよび視軸Lm’を含む面による眼の断面図である。
眼球221が、回旋中心O周りに光軸Lmに対して角度θだけ回旋すると、瞳孔の中心位置とプルキンエ像Piの位置との間に相対的なずれが生じる。今、角膜の曲率中心O’から瞳孔の中心iまでの距離をLxとすると、光軸Lmの方向から見たときの瞳孔中心iとプルキンエ像PiとのCCD134の撮像面上における距離d(図43においては実距離であるように図示しているが、より正確には距離dは撮像面上の距離であるものとする。)は、次の数式14により表わされる。
[数14]
ここにβ1 は、結像レンズ132の結像倍率である。
図44は、光軸Lmおよび視軸Lm’に交差し該光軸Lmに垂直な線を横軸として、眼の像を上記視線方向/角速度検出部7により撮像したときのCCD134の出力信号を縦軸方向にプロットした図である。
図示のように、プルキンエ像Piは、虹彩(または瞳孔)の中心に対して、上記距離dだけずれた位置に検出される。
従って、上記眼の像を視線方向検出部の受光系により結像して撮像し、撮像された画像データに画像処理を行って、プルキンエ像Piの位置と虹彩(または瞳孔)の中心位置との距離dを求めることにより、視線方向θを求めることが可能となる。なお、上記図20または図22に示したような受光系を介してCCD134に結像される像は、上下左右に非対称な、歪んだ画像となるが、このような幾何特性をEEPROM102等に予め補正情報として記憶しておき、この補正情報に基づいて上記歪みを補正した後に、上記数式14に基づいて視線方向を示す角度θを演算することになる。
次に、上記距離dを求めるための画像処理について詳細に説明する。
上述した原理においては、一次元の視線方向検出について述べたが、実際には二次元の視線方向を検出する必要がある。図45は、2次元の撮像素子から得られる眼の像を示す図である。この図45に示すように、瞳孔の中心をOp、プルキンエ像をPi、瞳孔中心Opを通る所定の中心線をLp、この中心線Lpと、該瞳孔中心Opとプルキンエ像Piとを結ぶ直線と、のなす角をγ、とそれぞれすると、瞳孔中心Opとプルキンエ像Piとの距離が上記数式14における距離dに対応する。従って、この距離dに基づき観察者の眼への赤外光の投光方向(以下「基準視軸」と呼ぶ)を基準とする視線方向(傾き角)θを求めることができ、また、上記γが眼球の回転方向を表わしている。こうして、CCD134に結像される2次元像における、瞳孔中心Opの位置と、プルキンエ像Piの位置と、を検出することができれば、上記θとγとで表される二次元の視線方向を求めることが可能となる。
次に、図51は、このような瞳孔中心Opの位置とプルキンエ像Piの位置とを求める処理を示すフローチャートである。
この処理を開始すると、まず、視線方向/角速度検出部7のCCD134により光電変換して得られた観察者の眼の画像データを、画像記録/編集装置4の第1CPU161内に設けられたRAM等に記憶する(ステップS51)。そして、この画像データに基づいて、該第1CPU161により、以下に示すような処理を行う。
なお、外光によるノイズ成分を除去するために、観察者の眼に赤外光を投光する前にまずCCD134の画像データを取り込んでおき、その後に、観察者の眼に赤外光を投光したときのCCD134の画像データを取り込んで、後者の画像データから前者の画像データを減算することにより、S/Nを改善した画像データを生成し、この画像データに基づいて、以下に示すような処理を行うようにしても良い。
また、上述では、CCD134から得られた画像データを画像記録/編集装置4内の第1CPU161へ転送するようにしているが、例えば、視線方向/角速度検出部7におけるA/D変換回路137の後段にバッファメモリ等を設けて、該画像データをこのバッファメモリに記憶し、例えば第2CPU121により以下のような処理を行うようにしても構わない。このように構成すれば、視線検出に係る画像データを上記画像記録/編集装置4へ転送することなく直ちに処理することができるために、より短い時間で視線方向を検出することが可能となり、視線方向が変化したときの追従性が高まる。
次に、取得した画像データから、プルキンエ像を検出し、該プルキンエ像の位置(例えば、図46に示すようなX座標およびY座標。ここに、図46に示す例では、上記中心線Lpの方向にX軸を、該中心線Lpに垂直な方向にY軸を、それぞれとっている。)を求める(ステップS52)。上述したようにプルキンエ像は、他の画像部分に比べて極めて明るいために、例えば所定の閾値THPiを設定して、この閾値THPiよりも明るい領域をプルキンエ像として判定する処理を採用することができる。もちろん、プルキンエ像を判定する処理はこれに限らず、その他の画像処理も採用することが可能である。また、プルキンエ像の位置は、上記閾値THPiよりも明るい領域の重心を採用しても良いし、あるいは、出力データのピーク位置を採用することも可能である。
続いて、プルキンエ像であると判定された画素の画素データを、該プルキンエ像の近傍の画素の画素データに基づいて、該プルキンエ像が発生しなかった場合の画素データに置き換える(ステップS53)。具体的には、画素データの値を、プルキンエ像の位置を中心にして二次元方向に追跡し、画素データの変曲点を検出する。そして、この変曲点を結んでできる閉じた境界線の内部の像をプルキンエ像であるとして、このプルキンエ像の画像データの値を、その境界線の外側の近隣画像データと置き換える処理を行う。このときに、プルキンエ像に係る複数の近傍同士の間に画素データのレベルの傾きが存在する場合には、線形補間等を行うことによりレベルを補正して、プルキンエ像と置き換える画像データが、その近傍の画像データと滑らかなレベル変化で接続されるようにすると良い。
さらに、図46に示すように、プルキンエ像Piを中心として所定の領域Sdを設定する(ステップS54)。図46はプルキンエ像を中心として眼の像に設定される所定の領域を示す図である。なお、この図46に示す例では、上記所定の領域Sdを、一辺が上記X座標に平行となり他辺が上記Y座標に平行となるような正方形としているが、これに限るものではなく、例えば円形の領域であっても構わない。なお、この所定の領域Sdの大きさは、プルキンエ像Piが瞳孔中心Opから最大に変位した場合にも瞳孔全体の像が含まれるように、設定される。この設定は、領域Sdが例えば図46に示したような正方形をなすときには、図示のような一辺の半分の長さLdを指定することにより行われる。また、領域Sdが円形であるときには、その半径を指定することにより行われる。
そして、正方形をなす上記領域Sdに含まれる画素データの内の最小値Vmin を検出する(ステップS55)。
次に、上記最小値Vmin に所定値αを加えた値Vmin +αを設定する。ただし、この値Vmin +αは、虹彩領域の画像データのレベルよりも低い値となるような範囲内で設定される。そして、この値Vmin +α以下の画素データを有する画素のX座標およびY座標を検出する(ステップS56)。なお、ここで検出された画素の集合でなる領域をS’とする。
そして、このステップS56により求めた領域S’の重心の位置を求めて、これを瞳孔中心の位置とする(ステップS57)。ここでは、具体的には、領域S’に含まれる全ての画素について、X座標の平均値と、Y座標の平均値と、を求めて、これを瞳孔中心の位置とすることになる。
なお、上述では、瞳孔中心の位置を求めるのに、瞳孔に該当する画素の重心を採用したが、これに限らず、瞳孔に該当する画素領域の、X座標の最大位置と最小位置との中点、およびY座標の最大位置と最小位置との中点、を求めて、これを瞳孔中心としても良い。瞳孔はほぼ円形をなしているために、眼球が回旋したときの画像は楕円形となる。従って、このような処理を行うことも可能となっている。
上述したような処理を行うことにより、プルキンエ像のX座標およびY座標と、瞳孔中心のX座標およびY座標と、を求めることができる。
なお、上記処理の説明における画素は、CCD134の撮像面に構成されている実際の画素であっても良いし、隣接する複数の画素をひとまとめとして考えた仮想的な画素であっても構わない。例えば、複数の画素をひとまとめの画素とする場合には、処理時間を短縮することができる利点がある。
ところで、眼の各器官の大きさは、年齢毎に、性別毎に、あるいは人種毎に異なり、ひいては個人毎に異なるといえる。また、視線方向検出部を製作する際の個体差(機器毎の個体差)や、頭部装着部2の装着の仕方、などによっても、視線方向検出部の眼との相対的な位置関係が微妙に変化する。従って、上記数式14に基づいた一律的なパラメータにより求めた視線方向は、全ての撮影者に対して正確であるとはいえない。
このような理由から、本実施例の画像システム1では、視線方向検出に係るキャリブレーションを、必要に応じて所望に行うことができるようになっている。これにより、使用者毎の最適化を行うことが可能である。
図52は、視線方向検出に係るキャリブレーションの処理を示すフローチャートである。
例えば、上記第1操作スイッチ162のメニューボタン63やメニュー選択スイッチ66,67,68,69、確定スイッチ65などを操作することによりキャリブレーションモードを選択すると、このキャリブレーション処理が開始される。
処理を開始すると、まず、上記図36に示したようなキャリブレーション用の指標P1〜P5の内の何れを表示させるかを設定する(ステップS61)。
そして、設定した指標を例えば点滅してシースルー表示する(ステップS62)。この表示は、上述したように、視線方向検出部を含む視線方向/角速度検出部7が配設されている側の眼とは異なる側の眼により観察可能となっている。
例えば、まず指標P1を点滅させて、この指標P1を注視するように、観察者を促す。観察者は、指標P1を注視した状態となったら、所定のキー操作を行う。このキー操作入力を検出すると、上記CCD134により画像データを取り込んで、上記数式14に基づき、瞳孔中心iとプルキンエ像Piとの間の距離dを演算する(ステップS63)。このときに、指標P1を注視することにより得られた距離dの値をd1とする。
そして、上記指標P1〜P5の全てについて上記ステップS61〜S63の処理が終了したか否かを判断する(ステップS64)。
ここで、まだ、全ての指標P1〜P5について処理が終了していない場合には、上記ステップS61へ行って、次の指標について、上述したような処理を行うことにより、全ての指標P1〜P5に各係る距離d1〜d5を算出する。
ここで、上記数式14は理想的な場合にのみ成立する式であり、実際には、上述したような種々の誤差を考慮する必要がある。そこで、上記数式14を修正して、
[数15]
として、補正情報Δdを加えることにする。
この数式15において、角度θは、指標P1〜P5の表示位置により予め設定される値(指標P1〜P5に各対応して、それぞれ角度θ1〜θ5とする。)である。また、距離dは、視線方向検出部により実際に検出される値(上述した距離d1〜d5)である。さらに、Lxは、個人毎に異なる値であるものとする。
この数式15に、既知である上記角度θ1〜θ5と、上記ステップS63において各求めた距離d1〜d5と、上述したような結像レンズ132の結像倍率β1 と、を代入することにより、ΔdとLxとを未知数とする5つの数式(一次式)が求められる。2つの未知数Δd,Lxを求めるためには、これらの未知数を含む2つの一次式を連立すれば良いために、可能な解の組として、5C2=10(組)の解が求められることになる。そして、これらの解の組に所定の統計演算を行うことにより、各個人毎のパラメータとして最も確からしいと考えられるΔdおよびLxを求める(ステップS65)。
その後、このようにして求めたΔdおよびLxを、上記EEPROM102に記憶してから(ステップS66)、このキャリブレーションの処理を終了する。
なお、実際に視線方向を検出するに当たっては、上述したようなキャリブレーションによって求めたΔdおよびLxと、実際に検出した瞳孔中心iとプルキンエ像Piとの距離dと、を上記数式15に代入し、視線方向θを算出して求めることになる。
このようにして求めた視線方向のデータは、撮影時にリアルタイムで利用することができると共に、撮影後に例えば後述するような画像編集を行う際に利用することもできる。従って、動画データを記録するときには、後述するように、求めた視線方向を、検出されたタイム情報に関連付けて、動画データとともに記録するようになっている。
撮影時にリアルタイムで視線方向データを利用する例としては、撮像部30の撮影光学系31のピントを、視線方向の被写体に自動的に合わせることが挙げられる。この場合には、CCD87に結像される被写体像の中の、上記視線方向に対応する部分を中心とした所定範囲について焦点検出を行うようにすればよい。このときには、上記図40を参照して説明したように、パララックスを考慮すると良い。
次に、記録媒体であるディスク249のファイル構成について説明する。
図53はディスク249の論理構造を示す図である。
ディスク249に構成される物理セクタは、セクタアドレスにより昇順に配置されていて、セクタアドレスに含まれる識別情報に基づいて、図53(A)に示すように、リードイン領域LIと、このリードイン領域LIに続くボリューム領域VSと、このボリューム領域VSに続くリードアウト領域LOと、に大別することができるようになっている。
上記リードイン領域LIは、ディスク再生装置の読み出し開始時の動作安定用データ等が記録される領域である。
これに対してリードアウト領域LOは、再生装置に再生終了を告知するために用いられる領域であり、それ以外の意味のあるデータは記録されていない。
また、上記ボリューム領域VSは、アプリケーションを構成するデジタルデータが格納される領域であり、所属する物理セクタを論理セクタとして、管理が行われるようになっている。この論理セクタは、データ記録領域の先頭の物理セクタを0番として、連続する物理セクタに連番を付与した単位で識別される。図53(B)は、ボリューム領域VSに構成されている(n+1)個のセクタでなる論理セクタ群(LS#0〜LS#n)を示している。
このボリューム領域VSは、図53(C)に示すように、さらに、ボリューム管理領域VFSとファイル領域FDSとに分割される。
上記ボリューム管理領域VFSは、複数の論理ブロックをファイルとして管理するためのファイルシステム管理情報が格納される領域である。ここに、ファイルシステム管理情報とは、複数のファイルのそれぞれのファイル名と、各ファイルが占めている論理ブロック群のアドレスと、の対応付けを明示した情報のことである。ディスク再生装置は、このファイルシステム管理情報を手掛かりとして、ファイル単位のディスクアクセスを実現するようになっている。すなわち、ファイル名が与えられると、全てのシステム管理情報を参照して、該ファイル名のファイルが占めている全ての論理ブロック群を算出し、これらの論理ブロック群にアクセスして、所望のデジタルデータ(つまり、該ファイル名のファイルに含まれるデジタルデータ)のみを取り出すようになっている。
図53(D)は、ファイル領域FDSの構成を示したものである。ファイル領域FDSは、この図53(D)に示すように、ビデオマネージャVMG(Video Manager)と、複数のビデオタイトルセットVTS(図示の例では、k個のビデオタイトルセットVTS)と、が格納される領域である。このファイル領域FDSは、複数の連続ファイルを含んで構成されており、上述したファイルシステム管理情報に基づいて、記録されている場所が算出されるようになっている。
上記ビデオタイトルセットVTSは、タイトルと称される1つ以上のアプリケーションをグループ化して格納することにより、共有する映像データを効率良く管理することができるようになっている。
上記ビデオマネージャVMG(Video Manager)は、複数のビデオタイトルセットVTSに格納される全てのタイトルからユーザが再生すべきタイトルを選択するための、メニューに関する情報を格納する領域となっている。
次に、図54は、ビデオタイトルセットVTSのファイル構成を示す図である。
図54(A)に示すビデオタイトルセットVTSは、より詳しくは図54(B)に示すように、ビデオタイトルセット管理情報VTSI(Video Title Set Information)と、プレゼンテーションデータとしてVTSM_VOBS(Video Object Set for VTS Menu)と、複数のビデオオブジェクトVOB(VOB#1〜VOB#m)と、を格納して構成されている。
上記ビデオタイトルセット管理情報VTSI(Video Title Set Information)は、複数のビデオオブジェクトVOBの再生順序を管理するためのナビゲーションデータとして記録されるものである。
上記VTSM_VOBS(Video Object Set for VTS Menu)は、タイトルに対するメニューのプレゼンテーションデータとして記録されるものである。
複数のビデオオブジェクトVOB(VOB#1〜VOB#m)は、VTSタイトル用ビデオオブジェクトセットVTSTT_VOBS(VOBS for Title)を構成するものである。各ビデオオブジェクトVOB(VOB#1〜VOB#m)は、少なくとも1つの動画データを含み、さらに、音声データ、副映像データ、生体情報としてのデジタル化された頭部の角速度データ(または頭部の傾きを表わす情報)や視線方向データ、を含み得るように構成されている。なお、以下においては、動画データ、音声データ、副映像データを総称したものをビデオデータと呼ぶことにする。
そして、該ビデオオブジェクトVOBは、上記ビデオデータと、生体情報と、これらの管理情報と、を含むマルチメディア化されたデータである。
各ビデオオブジェクトVOBは、図54(C)に示すように、1つまたは2つ以上のセルC#1〜C#qを含んで構成されている。
ビデオオブジェクトVOBを構成する各セルCは、さらに図54(D)に示すように、1つまたは2つ以上のビデオオブジェクトユニットVOBU(Video Object Unit)#1〜VOBU#rを含んで構成されている。このビデオオブジェクトユニットVOBUは、約0.5秒〜約1.0秒程度の再生データとなっている。
各ビデオオブジェクトユニットVOBUは、ビデオエンコードのリフレッシュ周期であるグループオブピクチャー(GOP)の複数個と、それに相当する時間の音声および副映像と、を含んで構成されている。
すなわち、ビデオオブジェクトユニットVOBUは、図54(E)に示すように、先頭にナビゲーションパックNV(Navigation Pack)を含み、さらに、動画パックV1,V2と、音声パックA1,A2と、副映像パックS1,S2と、を例えば含む、複数種別のパックデータにより構成されている。
上記パックデータは、それぞれ所定のデータサイズとして構成されており、これら種類別のパックデータをそれぞれ集めて再統合することにより、各々、動画データ、音声データ、副映像データを構成するデジタルデータ列が復元されるようになっている。
次に、図55は、ビデオタイトルセット管理情報VTSIの構成を示す図である。
ビデオタイトルセット管理情報VTSIは、図54(B)に示したように、ビデオタイトルVTSの先頭に記録されている。
図55(A)に示すこのビデオタイトルセット管理情報VTSIは、図55(B)に示すように、主に、VTSI管理テーブルVTSI_MATと、VTSプログラムチェーン(VTSPGC)情報管理テーブルVTS_PGCITと、を含んで構成されている。
そして、再生時に上記ビデオタイトルセット管理情報VTSIを参照することにより、例えば、編集前の原画像データである「オリジナルビデオ」と、編集後の画像データである「編集済ビデオデータ」と、編集処理用のデータである生体情報としての「角速度データ」や「視線方向データ」等と、の一連のストリームデータを再生するようになっている。
上記VTSI管理テーブルVTSI_MATは、ビデオタイトルセットVTSの内部構成や、ビデオタイトルセットVTSの格納場所等が記述されているテーブルである。
上記VTSPGC情報管理テーブルVTS_PGCITは、図55(C)に示すように、動画データの再生順序を制御するプログラムチェーン(PGC)を表すk個(kは255以下の自然数)のPGC情報(VTS_PGCI#1〜VTS_PGCI#k)(動画再生プログラムチェーン情報)を記録したテーブルである。
各エントリーのプログラムチェーン(PGC)情報VTS_PGCIは、セルの再生順を記述した複数のセル再生情報C_PBI(C_PBI#1〜#n)を記録したものである。例えば、プログラムチェーンVTS_PGCI#1には、編集前のビデオデータの再生順を制御する情報を記述することができ、プログラムチェーンVTS_PGCI#2には、編集後のビデオデータの再生順を制御する情報を記述することができる。
すなわち、PGC情報(VTS_PGCI#1〜VTS_PGCI#k)の各々は、図55(D)に示すようにプログラムチェーン一般情報(PGC_GI)を含み、さらに、、プログラムチェーンコマンドテーブル(PGC_CMDT)と、プログラムチェーンプログラムマップ(PGC_PGMAP)と、セル再生情報テーブル(C_PBIT)と、セル位置情報テーブル(C_POSIT)と、を含んで構成されている。
上記プログラムチェーン一般情報PGC_GIは、より詳しくは、プログラムチェーンの内容(PGC_CNT)と、プログラムチェーンの再生時間(PGC_PB_TM(PGC Playback Time))と、プログラムチェーンのナビゲーション制御情報(PGC_NV_CTL)と、等が記録されている。
ここに、プログラムチェーンの内容PGC_CNTは、そのプログラムチェーン内のプログラム数およびセル数(最大255)を示している。例えば、ビデオオブジェクトVOBなしのプログラムチェーンでは、プログラム数は「0」となる。
また、プログラムチェーンの再生時間PGC_PB_TMは、そのプログラムチェーン内のプログラムの合計再生時間をタイムコード(時間、分、秒、およびビデオのフレーム数)で示したものである。このプログラムチェーンの再生時間PGC_PB_TMには、ビデオフレームのタイプを示すフラグ(tc_flag)も記述されており、このフラグの内容によって、フレームレート(毎秒25フレームあるいは毎秒30フレーム)等が指定されるようになっている。
さらに、上記プログラムチェーンのナビゲーション制御情報PGC_NV_CTLは、現在再生中のプログラムチェーンの次に再生すべきプログラムチェーン番号を示すNext_PGCNと、ナビゲーションコマンドによって引用されるプログラムチェーン番号(PGCN)を示すPrevious_PGCNと、そのプログラムチェーンからリターンすべきプログラムチェーン番号を示すGoUp_PGCNと、シーケンシャル再生、ランダム再生、シャッフル再生等のプログラムの再生モードを示す「PG Playback mode」と、そのプログラムチェーンの再生後のスチル時間を示す「Still time value」と、を含んで構成されたものである。
エントリーされたPGC情報C_PBI#jの各々は、セル再生処理情報と、セル情報テーブルと、を含んで構成されている。
ここに、上記セル再生処理情報は、再生時間と、繰り返し回数などのセルの再生に必要な処理情報と、を含んで構成されている。
すなわち、PGC情報C_PBI#jの各々は、図55(E)に示すように、セルブロックモードCBM(cell block mode)と、セルブロックタイプCBT(cell block type)と、シームレス再生フラグSPF(seamless playback flag)と、インターリーブブロック配置フラグIAF(interleaved allocation flag)と、STC再設定フラグSTCDF(STC resetting flag)と、セル再生時間C_PBTM(Cell Playback Time)と、シームレスアングル切替フラグSACF(seamless angle change flag)と、セル先頭VOBU開始アドレスC_FVOBU_SAと、セル終端VOBU開始アドレスC_LVOBU_SAと、を有して構成されている。
上記セルブロックモードCBMは、複数のセルが1つの機能ブロックを構成しているか否かを示すものである。機能ブロックを構成する各セルのセル再生情報は、連続的にPGC情報内に配置されていて、その先頭に配置されるセル再生情報のCBMには「ブロックの先頭セル」を示す値が、その最後に配置されるセル再生情報のCBMには「ブロックの最後のセル」を示す値が、そしてこれらの間に配置されるセル再生情報のCBMには「ブロック内のセル」を示す値が、それぞれ記録されている。セルブロックタイプCBTは、セルブロックモードCBMで示されるブロックの種類を示すものとなっている。
上記シームレス再生フラグSPFは、映像、音声、副映像等のマルチメディアデータを、各データおよび情報を中断することなく再生するためのフラグである。すなわち、シームレス再生フラグSPFは、該セルが、前に再生されるセルまたはセルブロックと、シームレスに接続して再生するか否かを示すフラグとなっている。ここで、対象となるセルを、前セルまたは前セルブロックとシームレスに接続して再生する場合には、該セルのセル再生情報のSPFにはフラグ値1が設定される。一方、シームレスに接続して再生しない場合には、フラグ値0が設定される。
上記インターリーブブロック配置フラグIAFは、該セルがインターリーブ領域に配置されているか否かを示すフラグである。このインターリーブブロック配置フラグIAFは、該セルがインターリーブ領域に配置されている場合にはフラグ値1を設定し、そうでない場合にはフラグ値0を設定するようになっている。
上記STC再設定フラグSTCDFは、同期をとる際に使用するSTC部248(図11参照)をセルの再生時に再設定する必要があるか否かを示す情報である。このSTC再設定フラグSTCDFは、再設定が必要な場合にはフラグ値1を設定し、そうでない場合にはフラグ値0を設定するようになっている。
上記セル再生時間C_PBTMは、セルの再生時間をタイムコードで表記したものである。
上記セル先頭VOBU開始アドレスC_FVOBU_SAは、文字通り、セル先頭VOBU開始アドレスを示したものであり、VTSタイトル用ビデオオブジェクトセットVTSTT_VOBSの先頭セルの論理セクタからの距離をセクタ数で示している。
上記セル終端VOBU開始アドレスC_LVOBU_SAは、文字通り、セル終端VOBU開始アドレスを示したものであり、その値は、VTSタイトル用ビデオオブジェクトセットVTSTT_VOBSの先頭セルの論理セクタからの距離をセクタ数で示している。
次に、図56は、動画パックのデータ構造を示す図である。
動画パック(V)は、図56に示すように、MPEG(Moving Picture Coding Experts Group)に規定されたパックヘッダPKHと、パケットヘッダPTHと、ビデオデータフィールドと、を含むデータ構造となっていて、1パック当たり2Kバイト(byte)のデータサイズとなっている。
上記パックヘッダPKHは、パックスタートコード、システムクロックリファレンスSCR(System Clock Reference)、マルチプレクス(MUX:Multiplex)レートといったMPEG準拠のデータが記述されている。
また、上記パケットヘッダPTHは、ストリームID、パケット長、PTS(Presentation Time Stamp)、DTS(Decoding Time Stamp)等のMPEG準拠のデータが記述されている。
上記パケットヘッダPTH内のストリームIDには、このパックが形成するエレメンタリストリームが動画ストリームであることを示すコードが設定されている。動画パックのシステムクロックリファレンスSCRおよびPTSは、音声パックの復号処理との同期調整、および副映像パックの復号処理との同期調整に用いられるものである。具体的には、ディスク再生装置側のビデオデコーダは、システムクロックリファレンスSCRに基づいて基準クロックの時間合わせを行い、データフィールド内の動画データを復号して、PTSに記載されている時間が、基準クロックにより計時されるのを待機する。そして、基準クロックが当該時間を計時したところで、その復号結果をディスプレイ側へ出力する。このようなPTSの記載内容に基づく出力待ちにより、ビデオデコーダは、副映像出力との同期誤差、および音声出力との同期誤差を解消することができるようになっている。
図57は、音声パックのデータ構造を示す図である。
この音声パックA1〜A3のデータ構造は、上述した動画パックのデータ構造と、基本的には同様となっている。この音声パックA1〜A3のデータ構造が上記動画パックのデータ構造と異なっている点は、パケットヘッダPTH内のストリームIDが音声パックであることを示す値に設定されている点と、データフィールドの先頭8ビットにサブストリームIDが設けられている点と、の2点である。
図58は、副映像パックのデータ構造を示す図である。
この副映像パックのデータ構造は、上述した音声パックのデータ構造と、基本的には同様である。
図59は、角速度パックのデータ構造を示す図である。
この図59に示す角速度パック(V)のデータ構造は、上述した動画パックのデータ構造と、基本的には同様である。しかし、この角速度パックのデータは、動画データを編集するためのデータとして使用するのみであるために、PTS(Presentation Time Stamp)、DTS(Decoding Time Stamp)等のMPEG準拠のデータとしては適当な値を設定すれば良い。
図60は、視線方向パック(V)のデータ構造を示す図である。
この図60に示す視線方向パックのデータ構造は、上述した角速度パックのデータ構造と、基本的には同様である。
図61は、ナビゲーションパックNVの構造を示す図である。
図61(A)に示すナビゲーションパックNVは、上記図54(E)に示したように、ビデオオブジェクトユニットVOBUの先頭に必ず1つ配置されており、ビデオオブジェクトユニットVOBUの再生が行われる間、有効な管理情報が格納される。上述したような、動画パック、音声パック、副映像パック、生体情報パックとしての角速度パック、生体情報パックとしての視線方向パック、がそれぞれ1パケットで構成されるのに対して、このナビゲーションパックNVは2パケットで構成される点が異なっている。ナビゲーションパックNVを構成する2パケットの内の、1つをPCIパケット(Presentation Control Information Packet)、他の1つをDSIパケット(Data Search Information)と称する。すなわち、ナビゲーションパックNVのデータ構造は、動画パックや音声パック等とは異なり、図61(B)に示すように、パックヘッダ(PKH)、システムヘッダ(SYSH)、PCIパケットのパケットヘッダ(PTH)、PCIパケットのデータフィールド、DSIパケットのパケットヘッダ(PTH)、DSIパケットのデータフィールド、を有して構成されている。
上記システムヘッダ(SYSH)には、このナビゲーションパックNVを先頭に持つビデオオブジェクトユニットVOBU全体に必要とされる転送レートや、動画ストリーム、音声ストリーム、副映像ストリーム毎に必要とされる転送レートや、バッファサイズ管理情報が、MPEGに準拠して格納されている。
また、ナビゲーションパックNVの2個のパケットヘッダのストリームIDには、ナビゲーションパックであることを示す識別コードが設定されている。
上記DSIパケットは、早送り再生や巻き戻し再生等の飛び先情報などを含む情報で構成されている。
上記PCIパケットは、図61(C)に示すように、所属するビデオオブジェクトユニットVOBUの再生開始時間VOBU_S_PTM(Presentation Start Time of VOBU)や終了時間VOBU_E_PTM(Presentation End Time of VOBU)、セル経過時間C_ELTM(Cell Elapse Time)等を示すPCI一般情報、ユーザからの指示を受け付けるためのメニューにおけるメニュー項目のための制御情報である「ハイライト情報」、などを含んで構成されている。
上記ビデオオブジェクトユニットVOBUの再生開始時間VOBU_S_PTMは、PCI情報が含まれるビデオオブジェクトユニットVOBUの再生開始時間をタイムスタンプで表記したものである。
上記ビデオオブジェクトユニットVOBUの再生終了時間VOBU_E_PTMは、PCI情報が含まれるビデオオブジェクトユニットVOBU内の再生終了時間をタイムスタンプで表記したものである。
上記セル経過時間C_ELTMは、セルの最初のビデオフレームから、ビデオオブジェクトユニットVOBUの最初のビデオフレームまでの相対的な再生時間を、タイムコード(BCD(Binary Coded Decimal)形式の時間、分、秒、およびフレーム)で記述したものである。
ナビゲーションパックNVのパケットヘッダのストリームIDには、プライベートストリームであることを示す識別コードが設定されている。
なお、上述したように、この画像記録/編集装置4に適用されるディスク249の再生時間に関連する情報として、プログラムチェーンPGC内のプログラムの合計再生時間をタイムコードで示したPGC_PB_TM、セルの再生時間をタイムコードで表記したセル再生時間C_PBTM、タイムスタンプで表記されたビデオオブジェクトユニットVOBUの再生開始時間VOBU_S_PTMや終了時間VOBU_E_PTM、およびセル経過時間C_ELTMがある。
次に、ディスク249へのデータの記録動作について説明する。
まず、第1CPU161が第1操作スイッチ162から録画命令を受けると、ディスクドライブ部4dを介して管理データを読み込み、ディスク249上における書き込む領域を決定する。
次に、決定された領域に対して、データを書き込めるように管理領域に管理用のデータを設定し、動画、音声、角速度、視線方向等のデータの書き込みスタートアドレスをディスクドライブ部4dに設定して、上記データを記録する準備を行う。
続いて、第1CPU161は、STC部248に時間のリセットを行わせる。ここに、STC部248は、システムのタイマとなっており、該STC部248で計測されている値を基準にして、録画や再生を行うようになっている。
第1CPU161は、さらにその他の各種設定についても行う。
頭部装着部2により撮像が行われて、該頭部装着部2の送受信部172のモデムから動画像が送信されると、画像記録/編集装置4では、通信部4aの送受信回路163により受信を行う。そして、該送受信回路163は、受信データから所定のタイミングで1スロット分のデータを取り出し、この1スロット分のデータの中から同期信号を抽出して、フレーム同期信号を生成する。さらに、該送受信回路163は、スクランブル等を解除した後に、再び動画データ、音声データ、視線方向データ、角速度データに分離する。
上記通信制御回路151は、分離された各データの内の、動画データをDSP回路152を介して画像圧縮回路153へ、音声データを音声圧縮回路154へ、角速度データを角速度圧縮回路155へ、視線方向データを視線方向圧縮回路156へ、それぞれ出力する。
フォーマッタ158は、上記各圧縮回路で圧縮された信号を2Kバイト(byte)単位でパケット化し、フォーマッタ158へ出力する。ここに、フォーマッタ158は、STC部248の値に従って、各パケットのPTS(Presentation Time Stamp)、DTS(Decoding Time Stamp)を必要に応じて決定する。
さらに、フォーマッタ158は、パケットデータをバッファメモリ159へ一時的に保存して、その後に、入力された各パケットデータをパック化し、グループオブピクチャーGOP毎に、頭にナビゲーションパックNVを追加して、記録再生用データプロセッサ231へ出力する。
上記記録再生用データプロセッサ231は、所定数のパック毎にまとめてディスクドライブ部4dへ出力する。ただし、ディスクドライブ部4dがディスク249への記録準備ができていない場合には、記録しようとするデータを、一時的に、記録再生用バッファメモリ232へ転送して、データを記録する準備ができるまで待機する。そして、ディスクドライブ部4dがディスク249への記録準備ができた段階で、該記録再生用バッファメモリ232からデータを読み出して記録を開始する。
次に、図62は、ビデオデータの編集処理を示すフローチャートである。
例えば、第1操作スイッチ162のメニューボタン63やメニュー選択スイッチ66,67,68,69、確定スイッチ65など(図8参照)を操作することにより編集モードが選択されると、この編集処理が開始されるようになっている。
第1CPU161は、編集命令を受けると、ディスクドライブ部4dを介して生体情報(角速度データ、または視線方向データ)に関する管理領域のデータを、記録再生用データプロセッサ231を介して読み込み、再生するアドレスを決定する(ステップS71)。
次に、第1CPU161は、ステップS71で決定した再生するデータのアドレスと、リード命令とを、ディスクドライブ部4dへ転送する。
すると、ディスクドライブ部4dは、受信したアドレスとリード命令とに基づいて、ディスク249からセクタデータを読み出し、記録再生用データプロセッサ231によりエラー訂正を行った後の角速度データおよび視線方向データを、生体情報バッファメモリ244に記憶させる。
こうして生体情報バッファメモリ244に記憶された角速度データおよび視線方向データは、第1CPU161の制御に基づいて、解析が行われる(ステップS72)。なお、以下では、角速度データおよび視線方向データの解析を、「生体情報の解析」と呼ぶことにする。
この生体情報の解析について、図64を参照して詳細に説明する。図64は、生体情報の解析処理を示すフローチャートである。
この生体情報の解析処理を開始すると、所定のビデオデータに対応する視線方向データを読み出す(ステップS81)。
そして、読み出した視線方向データに基づいて、注視時間が所定時間t1以上であるか否かを判断する(ステップS82)。ここで注視しているか否かは、視線方向を表わすベクトルの大きさの変化が所定量以内であれば、一定の方向を注視しているものとする。
ここで注視時間が所定以上であると判断された場合には、この時間区間のビデオデータにズームアップ処理を行うための編集データを記録する(ステップS83)。
ここに、図63は、編集データの記録形式を示す図である。
この編集データは、先頭にシリアル番号Noが記録され、その後に、編集開始時間EDT_STM(Edit Start Time)と、編集終了時間EDT_ETM(Edit End Time)と、編集内容データEDT_DATと、が順に記録される。
上記シリアル番号Noは、編集処理の必要な時間区間毎にシリアルに付与される番号である。
上記編集開始時間EDT_STM(Edit Start Time)は、ビデオデータの撮影開始から編集区間の最初のビデオデータを撮影するまでの相対的な時間経過を示すものである。
なお、この編集を行うための編集開始時間EDT_STMは、次のようにして求める。上述したように、生体情報に関するプログラムチェーンPGC内のプログラムの合計再生時間として、タイムコードで表記されたPGC_PB_TM(この時間は、ビデオデータに関するPGC_PB_TMと等しい。)がある。生体情報バッファメモリ244に記録された生体情報のデータ量は、記録開始からの時間経過に比例するものとすると、生体情報(角速度データ、または視線方向データ)の全体のデータ量と、生体情報の検出開始時刻に対応するデータ初期位置から編集開始位置までのデータ量と、の関係に基づき、上記PGC_PB_TMを比例配分して、ビデオデータの記録開始から編集開始位置までの相対的な時間経過である編集開始時間EDT_STMを求めることができる。
さらに、上記編集終了時間EDT_ETM(Edit End Time)は、ビデオデータの撮影開始から編集区間の最後のビデオデータを撮影するまでの相対的な時間経過を示すものである。この編集終了時間EDT_ETMは、上記編集開始時間EDT_STMと同様にして求められる。
そして、上記編集内容データEDT_DATは、ズームアップ、カッティング、スムージングなどの編集処理の内容を示すデータである。上記ステップS83はズームアップ処理であるために、ズームアップ処理に固有のデータが編集内容データEDT_DATとして記録される。
図64の説明に再び戻って、上記ステップS83におけるズームアップ処理の編集データ記録が終了するか、または、上記ステップS82において注視時間がt1以下であると判断されたときには、上記2方向(すなわち、ヨー方向とピッチ方向)の角速度データを読み出す(ステップS84)。
そして、読み出した角速度データに基づいて、所定の編集処理を実行することになるが、図64のフローチャートに沿って説明を進める前に、この編集処理の基本的な考え方について、図68〜図70を参照して説明する。図68は角速度の時間変化を示す線図、図69は角速度の絶対値の時間変化を示す線図、図70は角速度の時間積分値の変化の様子を示す線図である。なお、これら図68〜図70は、横軸にプロットした時間が、同一位置において同一時間を示すように図示している。また、図70に示す角速度の時間積分(ΣωΔt)は、振幅に該当している。
編集処理の基本的な考え方は、次のようになっている。まず、ごく短い時間t2以下の角速度ωの変化は、ノイズであるとして無視する。次に、所定時間t3(ここにt3は、上記t2よりも長い時間である。)を閾値として、持続時間tがこのt3に満たないときは短い周期の振動(つまり、ぶれ)であると判断し、t3以上のときはぶれでない方向の変化であると判断する。そして、ぶれであると判断されたときは、可能であればぶれ補正を行い、不可能であればカッティング処理を行う。同様に、ぶれでない方向の変化であると判断されたときは、可能であればスムージング処理(急激に画像が流れるのを補正して、滑らかな変化にする編集処理であり、記録時間の引き延ばしとなっている。)を行い、不可能であればカッティング処理を行う。
このような考え方に基づいて、図68〜図70に示したような区間A,B,Cの3つのケースについて、具体的に説明する。
区間Aは、図69に示すように、持続時間tが所定時間t3以上であって、ぶれでない方向の変化と考えられ、かつ、角速度の絶対値|ω|が、スムージング処理を行うことが可能な程度の大きさであるために、該スムージング処理の編集データの記録を行う。
区間Bは、持続時間tが所定時間t3よりも小さく、ぶれであると考えられ、かつ、角速度の絶対値|ω|が、ぶれ補正を行うことが可能な程度の大きさであるために、ぶれ補正処理の編集データの記録を行う。
区間Cは、持続時間tが所定時間t3よりも小さく、ぶれであると考えられるが、角速度の絶対値|ω|が、ぶれ補正を行うのに適さない程大きいために、この区間の画像をカッティング処理するための編集データの記録を行う。
上記スムージング処理、カッティング処理、ぶれ補正処理のための各編集データEDIT_DATは、上記ズームアップ処理の編集データと基本的に同様であるが、該編集データEDIT_DATは、それぞれの編集処理に対応したデータとなっている。
また、図示はしないが、持続時間tが所定時間t3以上であって、ぶれでない方向の変化と考えられるが、角速度の絶対値|ω|が、スムージング処理を行うのに適さない程大きい場合にも、該区間の画像をカッティングするように編集データを記録する。
さらに、区間Aの前の時間区間や、区間Aと区間Bとの間の区間などは、角速度の絶対値|ω|が、ぶれ補正を不要とする程小さく、かつスムージング処理を不要とする程小さいために、特に編集処理の対象とはならない。
なお、上述したような考え方に基づいてカッティングを行うと、例えば、図71に示すような孤立した画像が残る可能性がある。図71は、カッティングを行った後に孤立した画像が残っている様子を示す図であり、時間軸に沿って画像が存在するか否かを2値で示している。この図71に示す例では、区間C1、区間C2、区間C3の3つの区間がカッティングされているが、区間C2における画像SL1、区間C3における画像SL2,SL3が、それぞれ孤立した画像として残っている。このような画像については、後述するように、除去するカッティング処理を行うような編集データを記録する。
再び図64の説明に戻って、上述したような基本的な考え方に基づくステップS85以降の処理について説明する。
2軸方向の角速度の内の、少なくとも一方の角速度ωの変化の持続時間tが、t2<t<t3を満たすか否かを判断し、この条件を満たすときは、さらに角速度の絶対値|ω|が、ω1<|ω|<ω2(ω1はぶれ補正が必要な角速度の下限値、ω2はぶれ補正が可能な角速度の上限値)を満たすか否かを判断する(ステップS85)。
ここで、ステップS85の条件が満たされている場合には、公知の画像処理によりぶれ補正処理を行うような編集データを記録する。(ステップS86)。このときの記録形式は、上記ステップS83で説明したものと同様である。
また、上記ステップS85の条件が満たされない場合には、上記角速度ωの変化の持続時間tが、t3≦tを満たすか否かを判断し、この条件を満たすときは、さらに角速度の絶対値|ω|が、ω3<|ω|<ω4(ω3はスムージングが必要な角速度の下限値、ω4はスムージングが可能な角速度の上限値)を満たすか否かを判断する(ステップS87)。
ここで、ステップS87の条件が満たされている場合には、上述したようなスムージング処理を行うような編集データを記録する(ステップS88)。このときの記録形式は、上記ステップS83で説明したものと同様である。
一方、上記ステップS87の条件が満たされない場合には、角速度ωの変化の持続時間tがt2<t<t3を満たし、かつ角速度の絶対値|ω|がω2≦|ω|を満たすケースと、角速度ωの変化の持続時間tがt3≦tを満たし、かつ角速度の絶対値|ω|がω4≦|ω|を満たすケースと、の何れか一方に該当するか否かを判断する(ステップS89)。
ここで、ステップS89の条件が満たされている場合には、該区間をカッティング処理するような編集データを記録する(ステップS90)。このときの記録形式は、上記ステップS83で説明したものと同様である。
また、上記ステップS89の条件が満たされていない場合は、次のような3つのケースが考えられる。
第1のケースは、持続時間tがぶれ(t2<t<t3)に相当するが、角速度の絶対値|ω|が下限値ω1以下のときである。このときには、補正が必要なぶれであるとは見なされず、そのまま無編集となる。
第2のケースは、持続時間tがぶれでない方向の変化(t3≦t)に相当するが、角速度の絶対値|ω|が下限値ω3以下の時である。このときには、方向の変化が十分に緩やかであってスムージングが不要であると見なされ、そのまま無編集となる。
第3のケースは、角速度ωの変化の持続時間tがt2以下(つまり、t≦t2)であって、ノイズに相当する場合である。このノイズは、通常の区間に存在する場合と、カッティング処理された区間に存在する場合(つまり、上記図71に示したような孤立点として残る場合)と、があり得るが、これらの内の孤立点については、次に説明するような処理が行われる。
すなわち、上記ステップS86、ステップS88、ステップS90の何れかの処理が終了するか、または上記ステップS89の条件が満たされない場合には、次に、孤立点の除去(カッティング)をするような編集データを記録する(ステップS91)。
このステップS91の処理を終えた後は、上記ステップS62に示したような処理へリターンする。
なお、この図64に示したような生体情報の解析例においては、生体情報としての視線方向情報の注視時間に基づきズームアップの編集データを記録したり、あるいは生体情報としての角速度情報の大きさや持続時間に基づき、カッティング、スムージング、ぶれ補正などを行うようにしているが、生体情報の解析は、このような例に限られるものではない。例えば、角速度データの時間的な変動パターンに基づいて、撮影者が歩行中であるか否かを判断し、歩行中であると判断されたときには、通常よりも広角側にズーミング処理を行うようにすることが考えられる。また、これとは逆に、歩行中であると判断されたときには、画像の変動を抑制するように画像の一部を切り出して、切り出した画像を望遠側にズーミング(拡大)するようにしても良い。このような処理を行うことにより、画像の変動を少なくして、視覚的に違和感のない動画像を再生することが可能となる。
図62に戻って、ステップS72の処理が終了したら、次に、このステップS72で記録された編集データ(図63参照)を順に読み出す。そして、読み出した編集データの内の、編集開始時間EDT_STMと編集終了時間EDT_ETMとに基づき、ディスク249から編集区間のビデオデータを読み出す(ステップS73)。
そして、対象となる時間区間のビデオデータに対して所定の編集処理を実行する(ステップS74)。
ここで、このような処理の流れについて説明する。
本実施例においては、上記編集開始時間EDT_STM(Edit Start Time)と編集終了時間EDT_ETM(Edit End Time)とにより特定される所定時間区間のビデオデータに対して、カッティング、スムージング、ズーミングなどの画像処理を施す。このために、ビデオデータに対して編集を施すべき時間区間を、次のようにして求めるようになっている。
すなわち、第1CPU161は、まず、プログラムチェーンのセル(セルナンバー:k)の再生時間C_PBTMを順次加算して、再生開始からの経過時間PB_ELTM(Playback Elapse Tim)(セルナンバーkに対応して、PB_ELTM(k))を求める毎に、上記編集開始時間EDT_STM、または編集終了時間EDT_ETMと比較して行き、丁度PB_ELTM(n)>EDT_STM(またはEDT_ETM)となる直前のセル(セルナンバー:n−1)までの経過時間PB_ELTM(n−1)を求める。
次に、上記経過時間PB_ELTM(n−1)に、セルナンバーがn−1のセル内のビデオオブジェクトユニットVOBU(セル内のユニットナンバー:m)のナビゲーションパック内のセル経過時間C_ELTMであるC_ELTM(m)を加算して、再生開始からセルナンバーが(n−1)のセル内のビデオオブジェクトユニットVOBU(セル内のユニットナンバー:m)の最初のビデオフレームまでの相対的な経過時間(PB_ELTM(n−1)(m))を求める。
そして、上記経過時間PB_ELTM(n−1)(m)を演算する毎に、上記編集開始時間EDT_STM、または編集終了時間EDT_ETMと比較して行き、丁度PB_ELTM(n−1)(m)>EDT_STM(またはEDT_ETM)となる直前のビデオオブジェクトユニットVOBU(ユニットナンバー:m−1)の最初のビデオフレームまでの経過時間PB_ELTM(n−1)(m−1)を求める。これにより、ビデオオブジェクトユニットVOBUの経過時間単位(約0.5秒)の精度で、生体情報に基づく編集処理を行うべきビデオデータの属するビデオオブジェクトユニットVOBU(ユニットナンバー:m)を特定することが可能になる。
さらに、ビデオオブジェクトユニットVOBU内の正確な位置を特定するためには、ビデオオブジェクトユニットVOBUの再生時間である再生開始時間VOBU_S_PTMと終了時間VOBU_E_PTMとの差と、ビデオデータの撮影開始から編集区間の最初のビデオデータを撮影するまでの相対的な時間経過である上記編集開始時間EDT_STM(または編集終了時間EDT_ETM))と経過時間PB_ELTM(n−1)(m−1)との差と、に基づき、比例配分によりビデオオブジェクトユニットVOBU内のフレームを特定することが可能となる。
同様にして、ビデオデータの撮影開始から編集区間の最後のビデオデータを撮影するまでの相対的な時間経過である上記編集終了時間EDT_ETMを求めることができる。
図72は、編集開始時間と編集終了位置とが2つのセルにまたがっているときの一例を示す図である。
図72(A)は、ビデオデータ再生開始位置C#1から編集開始位置(セルC#iの所定位置)までの時間である編集開始時間EDT_STMと、ビデオデータ再生開始位置C#1からこの編集区間の編集終了位置(セルC#(i+1)の所定位置)までの時間である編集終了時間EDT_STMと、の一例を示したものである。
この図72(A)に示すようなケースでは、編集区間が2つのセルに渡っているが、もちろんこれは一例であって、実際には様々なケースが考えられる。
次に、編集区間が含まれるセル全体のビデオデータを読み出して、上記編集区間のビデオデータに対して、図63に示したような編集内容データEDT_DATに記録された、ズームアップ、カッティング、スムージングなどの編集処理の内容に対応した編集処理を実行する。
次に、所定区間に編集処理が施された上記セルのデータを、編集前のビデオデータとは異なるセルに記録する。図72は、図72(A)に示すような編集前のセルC#iとC#(i+1)に記録されたビデオデータの、上記編集区間内におけるビデオデータに編集処理を施して、新たに図72(B)に示すようなセルC#jを作成して記録する例を示したものである。
この例では、編集前の2つのセルのビデオデータを編集データとして1つのセルに記録した場合を示しているが、これに限らず任意の数のセルに分割して記録するようにしても構わない。
ここで、図65〜図67を参照して、上記ズームアップに関する編集処理(ズームアップ処理)について説明する。図65はX方向の視線位置の時間変化を示す図、図66はY方向の視線位置の時間変化を示す図、図67はズーミングの時間変化を示す図である。なお、これら図65〜図67は、横軸にプロットした時間が、同一位置において同一時間を示すように図示している。
ここに、X軸とY軸は、視線方向を示すベクトル空間を記述する互いに直交する2軸である。そして、ΔX,ΔYを、X方向,Y方向のそれぞれに対する所定の視線位置変化量であるとする。
このとき、X方向,Y方向の視線位置変化が各々ΔX,ΔY以下で、かつ注視時間が上記所定時間t1以上であるときは、図67に示すように、注視点に向けて画像をゆっくりと拡大して行く。つまり、注視点が徐々に画像の中央にくるように、拡大とトリミング(拡大領域の変更)とを同時に実行して行く。一定の拡大量に達したところでその状態をしばらく維持し、再び、注視時間の終了t0に向けてゆっくりと元の倍率(標準の画角)へ戻して行く。
例えば、ズームアップ処理については次のように行う。まず、編集データEDIT_DATを読み出す。この編集データEDIT_DATが、上記図64のステップS83において記録されたデータである場合には、編集処理がズームアップ処理であることが検出される。そこで、DDT_STM、S_FN、DDT_ETM、E_FN等のデータに基づき、ビデオデータの編集区間を検出して、検出した編集区間のビデオデータに対して、上述したようなズームアップ処理を施す。
なお、注視をしている途中で、瞬間的に視線方向が他に移動して再び元の注視方向へ戻ることがあるが、このような視線の動きについてはノイズであるとして、注視時間の考慮に入れないような処理を行うようにしている。このような処理は、公知の移動平均とノイズ処理とにより簡単に実行することができるために、その詳細な内容については説明を省略する。
また、スムージング処理の具体的な方法としては、動画像を構成するコマ(フレーム画像)同士の間に、挿入位置の前または後のコマを、スムージングの程度に応じた数だけ挿入する方法が挙げられる。ただし、この方法では、スムージングの程度が大きくなる(画像の時間変化を引き伸ばす)ほどぎこちない動きになるために、挿入位置の前後のコマの画像データに基づいて動きを補間するようなコマを作成し、作成したコマを挿入するようにすると良い。
さらに、ぶれ補正処理の具体的な方法としては、ぶれ方向とぶれ量とを検出して、これらのぶれ方向とぶれ量とに基づいて、画像データを切り出すという公知の技術を用いることができる。
再び、図62に戻って説明を続ける。
上記ステップS74の処理が終了したら、次に、上記編集区間のビデオデータが含まれるセル全体のビデオデータに対応する編集処理後のビデオデータを、編集処理前のビデオデータとは異なるセルに記憶する(ステップS75)。
そして、プログラムチェーンの変更を行う。すなわち、編集前のプログラムチェーン情報においては、上記編集区間に対応するセルとして、編集前のセルを読み出すようになっている。そこで、編集区間に対応するセルとして、該編集前のセルに代えて編集後のセルを読み出すように変更することで、編集処理後のビデオデータの再生順を表わすプログラムチェーンを作成する。これにより、プログラムチェーンを参照するだけで、編集後のビデオデータを自動的に再生することが可能となる。
上記図72に示した例について具体的に述べると、編集処理後のビデオデータは、…,C#(i−1),C#j,C#(i+2),C#(i+3),…の順に再生されることになる。
このように編集処理後のビデオデータとして、編集処理が施されたセルのデータのみを記録すれば良いために、編集処理前の動画データとの重複を最小限にすることができ、記録容量の節約を図ることができる。これは特に、大容量の記録容量を必要とする動画データの記録において、高い効果を得ることができる。
上記ステップS75の処理が終了したら、次に、全ての編集処理が終了したか否かを判断する(ステップS76)。
このステップS76において、全ての編集処理が終了したと判断されるまでは、上記ステップS73へ行って、上述したような処理を繰り返して行う。
一方、該ステップS76において、全ての編集処理が終了したと判断された場合には、次に、編集処理後のビデオデータのPGC情報の記録を行う(ステップS77)。
このステップS77においては、編集後のビデオデータを再生するためにビデオタイトルセット管理情報VTSI(Video Title Set Information)のVTSPGC情報管理テーブルVTS_PGCITに、編集後のビデオデータの再生順を制御するためのプログラムチェーン(PGC)を表すPGC情報(例えばVTS_PGCI#2)を作成し、既にディスク249に記録されているビデオタイトルセット管理情報VTSI(Video Title Set Information)に追加記録する。
編集後のビデオデータの再生順が記録されたPGC情報(VTS_PGCI#2)は、上述したように、編集前のビデオデータの再生順が記録されたPGC情報(例えばVTS_PGCI#1)の内の、編集処理を施した時間区間のセルを再生する代わりに、上記ステップS75で記録された編集処理後のビデオデータを再生するように作成されたPGC情報である。
こうして、画質が劣化すると考えられるケースにおいて、可能な範囲内で画質を向上する補正を行い、補正が不可能である場合にはカッティングするようにしているために、品質が良く見易い画像を得ることができる。そして、この編集処理を自動的に行うようにしているために、使用者が面倒な操作を行う必要がなく、簡便となる。
次に、ビデオデータの再生について説明する。
ビデオデータを再生するときのデータ処理は、以下のように行われる。
まず、第1CPU161は、再生命令を受けると、記録再生用データプロセッサ231とディスクドライブ部4dとを介して、ビデオデータに関する管理領域のデータを読み込み、再生するアドレスを決定する。
次に、第1CPU161は、先ほど決定された再生するデータのアドレスとリード命令とを、ディスクドライブ部4dへ転送する。
すると、ディスクドライブ部4dは、受信したアドレスとリード命令とに基づいて、ディスク249からセクタデータを読み出し、記録再生用データプロセッサ231によりエラー訂正を行った後に、パックデータにしてセパレータ233へ転送する。
セパレータ233は、受信したパックデータを、動画データと音声データと副映像データとに分離して、それぞれのデータの種類に応じて転送する。つまり、受信したデータが、動画パケットデータ(MPEG2データ)である場合には動画デコーダ(VDEC)234へ、音声パケットデータである場合には音声デコーダ(ADEC)236へ、副映像パケットデータである場合には副映像デコーダ(SDEC)235へ、角速度パケットデータ(AVDEC)である場合には角速度デコーダ(AVDEC)242へ、視線方向パケットデータ(EDEC)である場合には視線方向デコーダ(EDEC)243へ、それぞれ転送する。また、ナビゲーションパックNVは、第1CPU161が処理する際に必要となるために、該第1CPU161の内部メモリであるRAM等へ保存する。
各パケットデータは、転送が開始されるときに、ヘッダに含まれているPTS(Presentation Time Stamp)がSTC部248へロードされる(すなわち、第1CPU161がナビゲーションパックNV内のPTSをSTC部248へセットするか、または、動画デコーダ(VDEC)234が動画データのPTSを自動的にSTC部248へセットする)。
その後、各デコーダは、パケットデータ内のPTSの値に同期して(PTSとSTC部248の値とを比較しながら)再生処理を行い、映像デコーダ(VDEC)234からの映像データと副映像デコーダ(SDEC)235からの副映像データとが動画プロセッサ237により適宜合成されて、モニタTV239、または表示部165により音声字幕付きの動画として再生される。
なお、上述では、生体情報としての角速度データや視線方向データも動画データと同様の記録フォーマットで記録するようにした。しかし、生体情報は動画データと異なり編集処理にのみ利用されるものであるために、必ずしも動画データと同様のフォーマットで記録する必要はない。ただし、他のフォーマットで記録される場合には、生体情報が、その検出された時刻からの相対的な時間経過がわかるように記録されている必要がある。例えば、生体情報は、そのヘッダに検出開始から検出終了までの時間を記録しておき、生体情報の記録容量が記録開始からの時間経過に比例するように記録しても良い。このような記録を行うことにより、生体情報の記録や読み出しがより簡単になる。
また、上述では、記録媒体としてDVDなどの光ディスクを用いているが、もちろんこれに限るものではなく、例えば半導体メモリ等の記録媒体を用いるようにしても構わない。
さらに、上述では、生体情報として、頭部の角速度と、視線方向と、を用いたが、撮影者の撮影意図を表す情報であれば、これらに限らず、その他の情報を用いるようにしても構わない。
このような実施例1によれば、撮影者自身の動きに関連する生体情報を記録しておき、記録された生体情報に基づいて、記録された画像データに対し事後的に所定の編集処理を行うことが可能となるようにしたために、カメラの構成を簡単にすることが可能になると共に、撮影者は、撮影動作に専念する必要なく撮影を行うことができる。従って、撮影者は撮影の負担を感じることなく、撮影者以外の者と同様の自然な行動をとることができる。
そして、画像編集を撮影者の生体情報に基づいて行うようにしたために、撮影者の意図に添った画像編集を自動的に行うことが可能となる。記録後の画像データに対して編集処理を行う場合には、撮影中にリアルタイムで編集処理を行う場合に必要となる例えば予測処理等の複雑な処理が不要となるために、比較的簡単に編集処理を行うことが可能となる。
加えて、編集後の画像を表示することができるために、見易い状態となった画像を楽しむことが可能となる。
さらに、動画データおよび生体情報がブロック(セル)に分割して記録されているために、該ブロックデータを読み出すだけで、編集処理をブロック単位で容易に行うことができる。
このとき、編集処理後の動画データとして、編集処理が施されたセルのデータのみを記録するようにしているために、編集処理前の動画データとの重複を最小限にすることができ、記録容量の節約を図ることができる。そして、再生順序を示すプログラムチェーン情報を記録し、再生時にこのプログラムチェーン情報を用いて再生を行うようにしているために、編集処理前のセルの位置を、編集処理後のセルの位置に書き換えるだけで、容易に編集処理後の動画データの再生を行うことができる。
また、撮像部と視線方向/角速度検出部とを撮影者の頭部に装着し得るようにしたために、撮影者の観察している被写体を高い精度で検出することが可能となる。
さらに、撮影者の頭部自体の回転を角速度により検出するようにしたために、頭部のぶれに起因する画像ぶれの補正や、カッティングや、記録時間の引き延ばしなどの編集処理を自動的に行うことが可能となる。
そして、撮影者の注視点の方向である視線方向を検出するようにしたために、電子ズーミング(拡大/縮小)やトリミングなどの編集処理を自動的に行うことが可能となる。このとき、視線方向情報として、視線方向の移動速度と、視線方向の連続的な移動量と、の少なくとも一方を含むようにしたために、撮影者の意志をより忠実に反映することができる。
また、視線方向/角速度検出部と、撮像部と、のパララックスを考慮して、視線方向/角速度検出部により検出された視線方向θに対応する撮像部からみた角度θ’を求めるようにしているために、被写体が近距離にある場合でも、撮影者の視線方向に対応する撮像部による撮影範囲(撮像される画像における撮影者の注視点)を正確に把握することが可能となり、視線方向情報に基づく編集処理等を正確に行うことができる。
さらに、自然な行動をしながら観察が可能な頭部装着型表示装置は、例えば歩行中や車の運転中などにも使用してしまいがちである。このような状態で使用すると、表示手段に表示される撮影情報等の表示に気をとられて、前方物体と衝突したりする可能性があるが、本実施例の画像システムは、このような使用状態を検出して、検出時には警告を行ったり表示を禁止したりするようにしたために、未然に防止することができる。
また、視線検出を行う際に、他の領域に比べて極めて明るい角膜反射光を利用しているために、瞳孔の存在するおよその位置を、簡単に求めることができる。このとき、角膜反射光を得るための照明として、赤外線を照射するLEDを用いているために、観察者による被写体の観察を妨げることはない。
さらに、角膜反射光の位置を含む所定範囲の領域の中から、最小値を有する画素を検出し、この最小値に所定の値を加えた値(これは、該最小の画素値よりも大きく、虹彩の画素値よりも小さい所定値である。)を閾値として、該閾値よりも画素値が小さい画素群を瞳孔の像に属する画素群として判別しているために、瞳孔の領域を簡単にかつ精度良く求めることができる。
そして、瞳孔の領域の重心を瞳孔中心としているために、画素データの中に幾らかのノイズが含まれていたとしても、瞳孔中心の位置を確実に精度良く求めることが可能となる。
加えて、上述したようにして求めた瞳孔中心の位置と、角膜反射光の位置と、に基づいて、視線方向を簡単にかつ精度良く求めることができる。
また、視度調整用のレンズを透明光学部材の前面にそれぞれ配置するようにしたために、視力が異なる観察者でも、実質的に直接観察する(すなわち、この場合には、視度調整用のレンズを介して観察する)被写体に所定の画像を重ねて観察することができる。
さらに、簡単な構成で、デザイン的に美しく自然な感じの略めがね型の撮像装置を構成することが可能となる。
そして、視度調整用のレンズを透明光学部材とは別々に簡単に取り外すことができるように構成したために、表示装置毎にユーザーに応じた視度調整を容易に行うことが可能となる。加えて、このときには、左眼と右眼の視力が異なっていたとしても、各眼に合わせたレンズを装着することが可能となる。
加えて、透明光学部材と撮像部とはフレーム部に一体的に保持されているために、視度調整用のレンズを交換しても、これら透明光学部材と撮像部との角度調整等をその度に行う必要がなく、使い勝手の良い視度調整用レンズ付頭部装着型カメラとなる。
また、頭部装着部と画像記録/編集装置とを無線で接続して、画像データや操作信号を授受するようにしたために、コード等に煩わされることなく、軽快に使用することが可能となる。こうして、携帯に便利で機動性に優れた頭部装着型カメラとなる。
さらに、シースルー画像表示部において、LCDの画像を液体レンズを用いて一次結像させるようにしたために、該画像を、所望の距離の位置に虚像として表示することが可能となる。そして、液体レンズを採用したことにより、構成が簡単となって装置の小型軽量化を図ることができ、アクチュエータ等を用いていないために、動作中の騒音が発生する心配もない。従って、頭部に装着して用いる装置に、特に有効に用いることができる。
なお、本発明は上述した実施例に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。