JP2005252733A - Method, and program for image editing and recording medium for recording image-editing program - Google Patents

Method, and program for image editing and recording medium for recording image-editing program Download PDF

Info

Publication number
JP2005252733A
JP2005252733A JP2004061438A JP2004061438A JP2005252733A JP 2005252733 A JP2005252733 A JP 2005252733A JP 2004061438 A JP2004061438 A JP 2004061438A JP 2004061438 A JP2004061438 A JP 2004061438A JP 2005252733 A JP2005252733 A JP 2005252733A
Authority
JP
Japan
Prior art keywords
image
image data
recording
editing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004061438A
Other languages
Japanese (ja)
Inventor
Masabumi Yamazaki
正文 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004061438A priority Critical patent/JP2005252733A/en
Publication of JP2005252733A publication Critical patent/JP2005252733A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image-editing device etc. capable of simplifying the structure of a camera by easily performing image-editing, along the intention of a photographer. <P>SOLUTION: In the image-editing device, biological information obtained by a line of sight/angular velocity detector 7, the information, such as the line of sight direction or the angular velocity of a head when a user observes an object is recorded in a recording memory 157 so that the information is correlated to time information from a timer 123 about the time when the biological information is recorded, and image data are recorded in the recording memory 157 so that the data are correlated to the time information. The recorded image data are read, and a first CPU 161 applies predetermined editing processing to the image data, on the basis of the biological information recorded at the same time as the read image data. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像データに編集処理を行うための、画像編集装置、画像編集方法、画像編集プログラム、画像編集プログラムを記録する記録媒体に関する。   The present invention relates to an image editing apparatus, an image editing method, an image editing program, and a recording medium for recording an image editing program for performing editing processing on image data.

従来から、ビデオカメラやデジタルカメラなどの撮像装置が、被写体像を撮像する目的で広く使われている。   Conventionally, imaging devices such as video cameras and digital cameras have been widely used for the purpose of capturing subject images.

こうした従来の撮像装置を用いて撮影を行うときには、撮影者がカメラを把持した状態で、カメラのファインダを介して被写体を確認しながら、ズーミング等の操作をしなければならない。このために、撮影者は撮影動作に専念しなければならず、撮影シーンが例えば運動会や祭りなどの各種のイベントであっても、撮影者自身はこれらのイベントに参加することができなかった。特にビデオカメラは、連続的な時間間隔をもって撮影を行うものであるために、静止画像を撮影するデジタルカメラよりもイベントに参加することは難しい。   When taking a picture using such a conventional imaging device, the photographer must hold the camera and perform an operation such as zooming while checking the subject through the camera finder. For this reason, the photographer has to concentrate on the photographing operation, and even if the photographing scene is various events such as athletic meet or festival, the photographer himself cannot participate in these events. In particular, since a video camera captures images at continuous time intervals, it is more difficult to participate in an event than a digital camera that captures still images.

また、従来から、頭部に装着して撮影する撮像装置が知られている。このような技術として、例えば特開2001−281520号公報(特許文献1)には、ユーザの眼球の近くに配置されるように視線検知センサを設けて、この視線検知センサによりユーザの眼球の状態を検出し、この検出結果に基づいて、撮像装置の焦点調節、ズーム制御、視線方向に基づくレンズ回動制御を行うことができるように構成された光学装置が記載されている。特に、レンズ回動制御については、視線情報に基づいて、撮影方向が視線方向に一致するようにカメラ自体を回動させるものとなっている。そして、該公報には、ユーザの眼球の水晶体の動きに基づいて、ズーム制御を行う技術も記載されている。   Conventionally, there has been known an imaging apparatus that shoots while wearing the head. As such a technique, for example, in Japanese Patent Laid-Open No. 2001-281520 (Patent Document 1), a line-of-sight detection sensor is provided so as to be arranged near the user's eyeball, and the state of the user's eyeball is detected by the line-of-sight detection sensor. And an optical apparatus configured to perform focus adjustment, zoom control, and lens rotation control based on the line-of-sight direction based on the detection result. In particular, with regard to lens rotation control, the camera itself is rotated based on line-of-sight information so that the shooting direction coincides with the line-of-sight direction. This publication also describes a technique for performing zoom control based on the movement of the crystalline lens of the user's eyeball.

一方、従来から、撮影した画像に対して、所定の編集処理を行う画像編集装置が提案されている。   On the other hand, conventionally, an image editing apparatus that performs a predetermined editing process on a photographed image has been proposed.

例えば、特開平9−130732号公報(特許文献2)には、異なるシーンチェンジに対応することができるように構成された動画像編集装置が記載されている。すなわち、該動画像編集装置においては、入力した映像信号の各フレーム画像に対して、該フレーム画像に隣接するフレーム画像と比較を行い、その比較結果を映像の変化度合として検出する。そして、検出した変化度合が所定のしきい値を越える場合には、シーンの切り替えであるシーンチェンジが存在すると判定する。このシーンチェンジが存在すると判定された場合には、上記変化度合の連続性に基づいて、上記シーンチェンジが、瞬間的にシーンの切り替わるものであるか、または徐々にシーンの切り替わるものであるかをさらに判定する。ここで、上記シーンチェンジが瞬間的に切り替わるものであると判定された場合には、判定した時点を瞬間的シーンチェンジとして検出し、一方、該シーンチェンジが徐々に切り替わるものであると判定された場合には、判定した時点から上記映像の変化度合が安定した時点までを、漸次的シーンチェンジの期間として検出する。この動画像編集装置は、こうして検出した瞬間的シーンチェンジと漸次的シーンチェンジとの両方に対応して、動画像編集を行うものとなっている。
特開2001−281520号公報 特開平9−130732号公報
For example, Japanese Patent Laid-Open No. 9-130732 (Patent Document 2) describes a moving image editing apparatus configured to be able to cope with different scene changes. That is, the moving image editing apparatus compares each frame image of the input video signal with a frame image adjacent to the frame image, and detects the comparison result as a video change degree. If the detected degree of change exceeds a predetermined threshold value, it is determined that there is a scene change that is a scene change. If it is determined that this scene change exists, based on the continuity of the degree of change, it is determined whether the scene change instantaneously changes scenes or gradually changes scenes. Further determine. Here, when it is determined that the scene change is instantaneously switched, the determined time point is detected as an instantaneous scene change, while the scene change is determined to be gradually switched. In this case, the period from the determined time point to the time point when the change degree of the video is stabilized is detected as a period of gradual scene change. This moving image editing apparatus performs moving image editing corresponding to both the instantaneous scene change and the gradual scene change thus detected.
JP 2001-281520 A JP-A-9-130732

しかしながら、上記特許文献1に記載されたような構成では、撮影方向を視線方向に一致させるに当たってカメラ自体を回動させているために、カメラの回動機構が複雑で大きくかつ重くなってしまい、頭部に装着して用いる撮像装置に適しているとはいえない。また、視軸とカメラの光軸とを調整するのが複雑であるために、正確な制御を行うのは困難である。さらに、該特許文献1に記載されたような、眼球の水晶体の動きに基づくズーム制御は、必ずしもユーザの意図に沿ったズームを行うことができる技術ではない。つまり、水晶体の動きによって得られるのはピント情報(被写体までの距離情報)であるために、ユーザが遠くを見ているとしても、それが必ずしもズーム操作をしたいという意思に結びついているわけではないからである。   However, in the configuration described in Patent Document 1, since the camera itself is rotated in order to make the photographing direction coincide with the line-of-sight direction, the rotation mechanism of the camera becomes complicated, large and heavy, It cannot be said that it is suitable for an imaging device that is worn on the head. Further, since it is complicated to adjust the visual axis and the optical axis of the camera, it is difficult to perform accurate control. Furthermore, zoom control based on the movement of the crystalline lens of the eyeball as described in Patent Document 1 is not necessarily a technique that can perform zooming in accordance with the user's intention. In other words, since the focus information (distance information to the subject) is obtained by the movement of the crystalline lens, even if the user looks far away, it does not necessarily lead to the intention to perform the zoom operation. Because.

また、上記特許文献2に記載されているような技術は、撮影者の意思に基づく画像編集ではなく、また、撮影者の動き等に基づく画像編集でもないために、必ずしも撮影者に満足の行く編集結果を得られるとは限らなかった。さらに、該特許文献2に記載された技術では、全てのフレーム画像に対して変化度合いを検出しているために、編集処理に長い時間を要するという課題があった。   Further, the technique described in Patent Document 2 is not necessarily image editing based on the photographer's intention, and is not necessarily image editing based on the photographer's movement or the like. It was not always possible to obtain editing results. Furthermore, the technique described in Patent Document 2 has a problem that it takes a long time for the editing process because the degree of change is detected for all frame images.

本発明は上記事情に鑑みてなされたものであり、カメラの構成を簡単にすることを可能とする画像編集装置、画像編集方法、画像編集プログラム、画像編集プログラムを記録する記録媒体を提供することを目的としている。   The present invention has been made in view of the above circumstances, and provides an image editing apparatus, an image editing method, an image editing program, and a recording medium for recording the image editing program, which can simplify the configuration of the camera. It is an object.

また、本発明は、撮影者の意図に添った画像編集を容易に行うことが可能な画像編集装置、画像編集方法、画像編集プログラム、画像編集プログラムを記録する記録媒体を提供することを目的としている。   Another object of the present invention is to provide an image editing apparatus, an image editing method, an image editing program, and a recording medium for recording the image editing program, which can easily perform image editing in accordance with a photographer's intention. Yes.

上記の目的を達成するために、第1の発明による画像編集装置は、被写体を観察するときの撮影者の動きに関連する生体情報を該生体情報が記録された時刻に関するタイム情報に関連付けて記録する生体情報記録手段と、上記タイム情報に関連付けて画像データを記録するための画像データ記録手段と、上記画像データ記録手段により記録された画像データを読み出して読み出した画像データと同時刻に記録された上記生体情報に基づいて該画像データに所定の編集処理を行う処理手段と、を具備したものである。   In order to achieve the above object, the image editing apparatus according to the first invention records biological information related to the movement of the photographer when observing the subject in association with time information related to the time when the biological information was recorded. Biometric information recording means, image data recording means for recording image data in association with the time information, and image data recorded by the image data recording means are read and recorded at the same time as the read image data. And processing means for performing a predetermined editing process on the image data based on the biometric information.

また、第2の発明による画像編集装置は、上記第1の発明による画像編集装置において、上記画像データが、撮影者の頭部に装着された状態のカメラにより撮影して得られたものである。   An image editing apparatus according to a second invention is the image editing apparatus according to the first invention, wherein the image data is obtained by photographing with a camera mounted on a photographer's head. .

さらに、第3の発明による画像編集装置は、上記第1の発明による画像編集装置において、上記生体情報が、撮影者の頭部の角速度に係る角速度情報である。   Furthermore, in the image editing device according to the third invention, in the image editing device according to the first invention, the biological information is angular velocity information related to an angular velocity of a photographer's head.

第4の発明による画像編集装置は、上記第3の発明による画像編集装置において、上記角速度情報に基づいて、記録された画像データの、カッティングと、ぶれ補正と、記録時間の引き延ばしと、電子ズーミングと、の内の少なくとも1つを、上記編集処理として行うように構成されたものである。   An image editing apparatus according to a fourth invention is the image editing apparatus according to the third invention, wherein cutting, blurring correction, extending recording time, and electronic zooming of recorded image data are performed based on the angular velocity information. And at least one of the above-described editing processes.

第5の発明による画像編集装置は、上記第1の発明による画像編集装置において、上記生体情報が、撮影者の視線方向に係る視線方向情報である。   An image editing apparatus according to a fifth invention is the image editing apparatus according to the first invention, wherein the biological information is gaze direction information related to a gaze direction of the photographer.

第6の発明による画像編集装置は、上記第5の発明による画像編集装置において、上記視線方向情報に基づいて、記録された画像データの電子ズーミングを、上記編集処理として行うように構成されたものである。   An image editing apparatus according to a sixth invention is the image editing apparatus according to the fifth invention, wherein electronic zooming of recorded image data is performed as the editing process based on the line-of-sight direction information. It is.

第7の発明による画像編集装置は、上記第5の発明による画像編集装置において、上記視線方向情報が、視線方向の移動速度と、視線方向の連続的な移動量と、の少なくとも一方を含む情報である。   An image editing apparatus according to a seventh invention is the image editing apparatus according to the fifth invention, wherein the line-of-sight direction information includes at least one of a movement speed in the line-of-sight direction and a continuous movement amount in the line-of-sight direction. It is.

第8の発明による画像編集装置は、上記第1の発明による画像編集装置において、編集処理に関する情報を、手動操作により修正し得るように構成されたものである。   An image editing apparatus according to an eighth aspect of the invention is the image editing apparatus according to the first aspect of the invention, wherein information relating to editing processing can be corrected by manual operation.

第9の発明による画像編集方法は、被写体を観察するときの撮影者の動きに関連する生体情報及び画像データを上記生体情報及び画像データが記録された時刻に関するタイム情報に関連付けて記録するステップと、上記記録された画像データを読み出して読み出した画像データと同時刻に記録された上記生体情報に基づいて該画像データに所定の編集処理を行うステップと、を含むことを特徴とする。   According to a ninth aspect of the invention, there is provided an image editing method for recording biometric information and image data related to a movement of a photographer when observing a subject in association with time information related to the time when the biometric information and the image data were recorded; And reading the recorded image data and performing a predetermined editing process on the image data based on the biometric information recorded at the same time as the read image data.

第10の発明による画像編集プログラムは、被写体を観察するときの撮影者の動きに関連する生体情報及び画像データを上記生体情報及び画像データが記録された時刻に関するタイム情報に関連付けて記録するステップと、上記記録された画像データを読み出して読み出した画像データと同時刻に記録された上記生体情報に基づいて該画像データに所定の編集処理を行うステップと、をコンピュータに実行させるためのプログラムである。   An image editing program according to a tenth aspect of the invention records the biometric information and the image data related to the movement of the photographer when observing the subject in association with the time information related to the time when the biometric information and the image data were recorded; A program for causing the computer to execute a predetermined editing process on the image data based on the biometric information recorded at the same time as the read image data and the read image data. .

第11の発明による画像編集プログラムを記録する記録媒体は、被写体を観察するときの撮影者の動きに関連する生体情報及び画像データを上記生体情報及び画像データが記録された時刻に関するタイム情報に関連付けて記録するステップと、上記記録された画像データを読み出して読み出した画像データと同時刻に記録された上記生体情報に基づいて該画像データに所定の編集処理を行うステップと、をコンピュータに実行させるための画像編集プログラムを記録する記録媒体である。   According to an eleventh aspect of the present invention, there is provided a recording medium for recording an image editing program, associating biometric information and image data related to a photographer's movement when observing a subject with time information relating to the time when the biometric information and image data are recorded And performing a predetermined editing process on the image data based on the biometric information recorded at the same time as the read image data and reading the recorded image data. This is a recording medium for recording an image editing program.

本発明の画像編集装置、画像編集方法、画像編集プログラム、画像編集プログラムを記録する記録媒体によれば、カメラの構成を簡単にすることが可能となる。また、撮影者の意図に添った画像編集を容易に行うことが可能となる。   According to the image editing apparatus, the image editing method, the image editing program, and the recording medium for recording the image editing program of the present invention, the configuration of the camera can be simplified. In addition, it is possible to easily perform image editing in accordance with the photographer's intention.

以下、図面を参照して本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1から図70は本発明の実施例1を示したものであり、図1は頭部装着型カメラの使用形態を示す斜視図である。   1 to 70 show Embodiment 1 of the present invention, and FIG. 1 is a perspective view showing a usage form of a head-mounted camera.

なお、本実施例の頭部装着型カメラは、画像を撮像する機能に着目すれば撮像装置であり、画像を再生する機能に着目すれば画像再生装置でもある。そして、後述するように、危険防止機能付き頭部装着型表示装置となっている。さらに、この頭部装着型カメラは、画像を編集することも可能であるために、画像編集装置を兼ねたものとなっている。   Note that the head-mounted camera of the present embodiment is an imaging device if attention is focused on the function of capturing an image, and is also an image playback device if attention is focused on the function of reproducing an image. As will be described later, a head-mounted display device with a risk prevention function is provided. Furthermore, since this head-mounted camera can also edit an image, it also serves as an image editing device.

また、画像再生装置は、画像再生方法や画像再生プログラムとしても適用することができ、該画像再生プログラムを記録媒体に記録することにより、画像再生プログラムを記録する記録媒体となる。   The image reproducing apparatus can also be applied as an image reproducing method and an image reproducing program. By recording the image reproducing program on a recording medium, a recording medium for recording the image reproducing program is obtained.

同様に、画像編集装置は、画像編集方法や画像編集プログラムとしても適用することができ、該画像編集プログラムを記録媒体に記録することにより、画像編集プログラムを記録する記録媒体となる。   Similarly, the image editing apparatus can also be applied as an image editing method or an image editing program. By recording the image editing program on a recording medium, a recording medium for recording the image editing program is obtained.

この頭部装着型カメラ(以下では適宜、「カメラ」と略称する。)1は、図1に示すように、略めがね型をなす頭部装着部2と、この頭部装着部2と例えば接続手段たるケーブル3を介して接続された本体部たる制御/記録部4と、該カメラ1に係る操作入力を遠隔で行うためのリモートコントロール部(以下では、リモコン部と略称する。)5と、に大別される。   As shown in FIG. 1, the head-mounted camera (hereinafter abbreviated as “camera” as appropriate) 1 includes a head-mounted unit 2 having a substantially glasses shape, and a connection with the head-mounted unit 2, for example. A control / recording unit 4 as a main unit connected via a cable 3 as a means, a remote control unit (hereinafter abbreviated as a remote control unit) 5 for remotely performing an operation input related to the camera 1, and It is divided roughly into.

上記頭部装着部2は、シースルー表示時に観察対象である被写体を実質的に直接観察することが可能であるとともに、該被写体の撮像も行うことができるように構成されたものである。この頭部装着部2は、形状が略めがね型をなすことで分かるように、視度補正用の一般的な眼鏡とほぼ同様にして頭部に装着し用いるものとなっており、重量やサイズ等も通常の眼鏡に極力近似するように小型軽量化が図られている。   The head-mounted unit 2 is configured to be able to substantially directly observe a subject that is an observation target during see-through display and also to capture the subject. The head mounting part 2 is mounted on the head and used in the same manner as general glasses for diopter correction, as can be seen from the shape of the glasses. Etc. are also reduced in size and weight so as to approximate to normal glasses as much as possible.

上記ケーブル3は、一端側に設けられた接続端子3aを頭部装着部2のケーブル接続端子32(図2等参照)と接続し、他端側に設けられた接続端子3bを制御/記録部4のケーブル接続端子49(図6参照)と接続することにより、これら頭部装着部2と制御/記録部4とを接続するようになっている。なお、ここでは、頭部装着部2と制御/記録部4とを電気的に接続する接続手段として、有線でなるケーブル3を用いているが、これに限らず、例えば無線で互いに通信する手段を用いても構わない。   The cable 3 connects the connection terminal 3a provided on one end side to the cable connection terminal 32 (see FIG. 2 and the like) of the head mounting portion 2 and the connection terminal 3b provided on the other end side of the control / recording unit. The head mounting unit 2 and the control / recording unit 4 are connected to each other by connecting to the cable connection terminal 49 (see FIG. 6). Here, as the connection means for electrically connecting the head mounting unit 2 and the control / recording unit 4, a wired cable 3 is used. However, the present invention is not limited to this, and for example, means for communicating with each other wirelessly May be used.

上記制御/記録部4は、画像データ記録手段、生体情報記録手段、処理手段、パララックス補正手段、演算手段、危険防止手段、相対速度検出手段、相対速度距離検出手段、歩行検出手段、角膜反射光検出手段、領域設定手段、最小値検出手段、瞳孔検出手段、視線方向演算手段を兼ねたものであり、このカメラ1全体の制御を行うとともに、上記頭部装着部2により撮像された画像の記録を行い、さらに記録後の画像を編集するための画像編集装置としても機能し得るように構成されたものである。この制御/記録部4は、腰のベルト等に取り付けた状態、あるいは上着の内ポケット等に収納した状態、などの各種の状態で使用することができるように、やはり可能な範囲内での小型軽量化が図られたものとなっている。もちろん、ケーブル3として長いものを用いるなどにより、この制御/記録部4をカバンなどに収納した状態で使用することも可能である。   The control / recording unit 4 includes image data recording means, biological information recording means, processing means, parallax correction means, calculation means, danger prevention means, relative speed detection means, relative speed distance detection means, gait detection means, and corneal reflection. It also serves as a light detection means, a region setting means, a minimum value detection means, a pupil detection means, and a line-of-sight direction calculation means, and controls the entire camera 1 and also controls the image captured by the head mounting unit 2. It is configured to function as an image editing apparatus for recording and further editing the recorded image. The control / recording unit 4 can be used in various states such as a state where it is attached to a waist belt or the like, or a state where it is stored in an inner pocket of a jacket, etc. The size and weight are reduced. Of course, it is also possible to use the control / recording unit 4 in a state of being accommodated in a bag or the like by using a long cable 3 or the like.

上記リモコン部5は、上記頭部装着部2のシースルー表示の制御や撮影動作の制御などの比較的頻繁に行われる操作を、撮影者が遠隔操作により手元で行うためのものである。従って、このリモコン部5は、例えば片手の掌に収まる程度の小型な大きさで、かつ軽量となるように構成されており、上記制御/記録部4に対して例えば無線で通信を行うようになっている。   The remote controller 5 is for a photographer to perform relatively frequently operations such as see-through display control and imaging operation control of the head-mounted unit 2 by remote operation. Accordingly, the remote control unit 5 is configured to be small and light enough to fit in the palm of one hand, for example, and communicate with the control / recording unit 4 wirelessly, for example. It has become.

これらの頭部装着部2と制御/記録部4とリモコン部5とは、本実施例では互いに別体として構成されており、これにより、頭部装着部2を小型軽量化することによる装着感の向上、リモコン部5の採用による操作性の向上、などを図るようにしている。   The head mounting unit 2, the control / recording unit 4, and the remote control unit 5 are configured separately from each other in the present embodiment, and thereby the mounting feeling by reducing the size and weight of the head mounting unit 2 is achieved. Improvement of operability by adopting the remote control unit 5 and the like.

次に、図2から図4を参照して、頭部装着部2の外観および概要について説明する。図2は頭部装着部を示す正面図、図3は頭部装着部を示す平面図、図4は頭部装着部を示す右側面図である。   Next, with reference to FIGS. 2 to 4, the appearance and outline of the head mounting portion 2 will be described. 2 is a front view showing the head mounting portion, FIG. 3 is a plan view showing the head mounting portion, and FIG. 4 is a right side view showing the head mounting portion.

この頭部装着部2は、一般的な眼鏡におけるレンズ、リム、ブリッジ、智などに相当する部分であるフロント部11と、このフロント部11の左右両側から後方(被写体と反対側)に向けて各延設されており該フロント部11に対して折り畳み可能となっているテンプル部12と、を有して構成されている。   The head mounting portion 2 is a front portion 11 that is a portion corresponding to a lens, a rim, a bridge, a wisdom or the like in general eyeglasses, and from the left and right sides of the front portion 11 toward the rear (opposite the subject) Each temple portion 12 extends and can be folded with respect to the front portion 11.

上記フロント部11は、画像表示用の光学系の一部や視線方向検出用の光学系の一部や電気回路等を内蔵する保持手段たるフレーム部13を有して構成されている。   The front portion 11 includes a frame portion 13 that is a holding unit that incorporates a part of an optical system for image display, a part of an optical system for detecting a visual line direction, an electric circuit, and the like.

このフレーム部13は、略中央部に被写体までの距離を測定するために用いられる測距手段たる投光用発光部16が、左右両側部に被写体側からの音声をステレオで収録するための第1マイク17および第2マイク18が、それぞれ設けられている。   The frame unit 13 has a light emitting unit 16 for light projection, which is a distance measuring unit used for measuring the distance to the subject in a substantially central part, and a first unit for recording the sound from the subject side in stereo on both the left and right sides. A first microphone 17 and a second microphone 18 are provided.

さらに、上記フレーム部13には、左右両眼に各対応するように導光部材たる透明光学部材14,15が取り付けられている。これらの透明光学部材14,15の内の、一方である透明光学部材14は後述するように視線方向を検出するために用いられ、他方である透明光学部材15は後述するように画像を表示するために用いられるようになっている。そして、これらの透明光学部材14,15は、それぞれの機能を果たすために必要な最小限の大きさとなるように形成されている。   Further, transparent optical members 14 and 15 as light guide members are attached to the frame portion 13 so as to correspond to the left and right eyes, respectively. One of the transparent optical members 14 and 15 is used to detect the line-of-sight direction as described later, and the other transparent optical member 15 displays an image as described later. Is used for this purpose. And these transparent optical members 14 and 15 are formed so that it may become the minimum magnitude | size required in order to fulfill | perform each function.

上記透明光学部材14には、HOE(Holographic Optical Element:ホログラフィー光学素子)24とハーフミラー128とHOE129とがそれぞれ配設されており、上記透明光学部材15にはコンバイナとしてのHOE25が配設されている。各光学系の詳細については後述する。   The transparent optical member 14 is provided with a HOE (Holographic Optical Element) 24, a half mirror 128, and a HOE 129. The transparent optical member 15 is provided with a HOE 25 as a combiner. Yes. Details of each optical system will be described later.

加えて、上記フレーム部13には、上記透明光学部材14,15の被写体側に位置するように、視度調整のためのレンズ21,22がそれぞれ着脱可能に取り付けられるようになっている。   In addition, lenses 21 and 22 for diopter adjustment are detachably attached to the frame portion 13 so as to be positioned on the subject side of the transparent optical members 14 and 15, respectively.

すなわち、フレーム部13には、上記レンズ21,22を取り付けるための取付手段たるリム20が、例えば中央側と、左眼の左横側と、右眼の右横側と、でそれぞれビス28により取り付けられるようになっている。   That is, a rim 20 as an attaching means for attaching the lenses 21 and 22 is attached to the frame portion 13 by, for example, screws 28 at the center side, the left side of the left eye, and the right side of the right eye, respectively. It can be attached.

このリム20には、鼻梁を左右から支持することにより、鼻梁に対してこの頭部装着部2を載置するための一対の鼻パッド19が、一対のクリングス23を介して設けられている。   The rim 20 is provided with a pair of nose pads 19 via a pair of clings 23 for placing the head mounting portion 2 on the nose bridge by supporting the nose bridge from the left and right.

このような構成において、上記ビス28を外すことにより、リム20およびレンズ21,22を容易に取り外すことができるようになっており、また、レンズ21,22を他の視度に対応するものに交換して、再び取り付けることも容易となっている。   In such a configuration, the rim 20 and the lenses 21 and 22 can be easily removed by removing the screw 28, and the lenses 21 and 22 can be adapted to other diopters. It is also easy to replace and reinstall.

このとき、リム20を所定以上の弾力性のある素材により形成すれば、1つのビス28を外すかまたは緩めるだけで、左眼用のレンズ21または右眼用のレンズ22の一方のみを選択的に(独立して)着脱することができて利便性が高まる。   At this time, if the rim 20 is formed of a material having elasticity of a predetermined level or more, only one of the left-eye lens 21 and the right-eye lens 22 can be selectively selected by removing or loosening one screw 28. (Independently) can be attached and detached to increase convenience.

このように、この頭部装着型カメラは、視度調整用レンズ付頭部装着型カメラであって、画像を表示する機能に着目すれば、視度調整用レンズ付頭部装着型表示装置を兼ねたものとなっている。   As described above, this head-mounted camera is a head-mounted camera with a diopter adjusting lens. If attention is paid to the function of displaying an image, the head-mounted display device with a diopter adjusting lens is It has also become a thing.

なお、上記視度調整用のレンズ21,22は、一般的な眼鏡に用いられるレンズを利用することも可能であり、安価に構成することが可能となっている。   The diopter adjustment lenses 21 and 22 can be lenses that are used in general glasses, and can be configured at low cost.

また、上述では、視度調整用のレンズ21,22を透明光学部材14,15の被写体側に配設したが、これに限らず、透明光学部材14,15の背面側(眼の側)に配設することも勿論可能である。   Further, in the above description, the diopter adjusting lenses 21 and 22 are disposed on the subject side of the transparent optical members 14 and 15, but not limited thereto, on the back side (eye side) of the transparent optical members 14 and 15. It is of course possible to arrange them.

さらに、フレーム部13の左眼側(つまり、図2や図3における右側)の側面の継手29には、被写体像を撮像するための撮像手段であり測距手段も兼ねた撮像部30が、台座33を介して、撮影方向を調節可能に固定されるようになっている。   Furthermore, an image pickup unit 30 that is an image pickup unit for picking up a subject image and also serves as a distance measurement unit is provided at the joint 29 on the side surface of the left side of the frame unit 13 (that is, the right side in FIGS. 2 and 3). Via the pedestal 33, the photographing direction is fixed so as to be adjustable.

この台座33は、ビス34,35により上記継手29に対して取り付けられ、ビス36,37を介して自己の上に上記撮像部30を取り付けるように構成されている。該台座33を介して、撮像部30の上記フロント部11に対する相対的な角度を調整することにより、後述するように、該撮像部30に含まれる撮影光学系31(図11等も参照)の光軸と視軸とを調整することができるようになっている。このような構成における撮像部30の取付位置の調整については、後で図19、図20を参照して説明する。   The pedestal 33 is attached to the joint 29 by screws 34 and 35, and is configured to attach the imaging unit 30 on itself through screws 36 and 37. By adjusting the relative angle of the imaging unit 30 with respect to the front unit 11 via the pedestal 33, the imaging optical system 31 (see also FIG. 11 and the like) included in the imaging unit 30 is adjusted as will be described later. The optical axis and the visual axis can be adjusted. Adjustment of the mounting position of the imaging unit 30 in such a configuration will be described later with reference to FIGS. 19 and 20.

上記撮像部30の下端側には、上記ケーブル3の一端側の接続端子3aを接続するためのケーブル接続端子32が設けられている。   A cable connection terminal 32 for connecting the connection terminal 3 a on one end side of the cable 3 is provided on the lower end side of the imaging unit 30.

そして、上記撮像部30の背面側からは、ケーブル38が一旦延出されて、左眼側のテンプル部12の下側を潜った後に、上記フレーム部13に接続されている。これにより、フレーム部13内の電気回路と、撮像部30内の電気回路とが互いに接続されている。   A cable 38 is once extended from the back side of the imaging unit 30 and is connected to the frame unit 13 after diving under the temple unit 12 on the left eye side. Thereby, the electric circuit in the frame unit 13 and the electric circuit in the imaging unit 30 are connected to each other.

上記テンプル部12は、丁番78,79を用いて上記フロント部11と接続されていて、これにより該フロント部11に対して折り畳み可能となっている。すなわち、非使用時には、テンプル部12をフロント部11の中央部に向けて折り曲げ、該フロント部11に沿って折り畳まれた位置を取らせることができるために、小型化して収納や運搬を便利に行うことが可能となっている。また、左右の各テンプル部12の先端部には、耳にかけるための先セルモダン26がそれぞれ設けられている。   The temple portion 12 is connected to the front portion 11 using hinges 78 and 79, so that the temple portion 12 can be folded with respect to the front portion 11. That is, when not in use, the temple portion 12 can be bent toward the center portion of the front portion 11, and the folded position can be taken along the front portion 11. It is possible to do. In addition, tip cell moderns 26 to be put on the ears are provided at the tip portions of the left and right temple portions 12, respectively.

右眼側のテンプル部12には、後述する角速度センサ141,142(図11参照)などの、この頭部装着部2に係る各種の電子回路を収納するための収納部27が設けられている。この収納部27の例えば上面には、画像のシースルー表示を強制的に禁止するための危険防止操作手段たるスイッチ39が外部から所望に操作可能となるように配設されている。そして、該収納部27からは、ケーブル27aが延設されて、上記フレーム部13内の各回路に接続されており、さらには上記撮像部30内の回路を介して、上記制御/記録部4の回路と接続されるようになっている。   The temple portion 12 on the right eye side is provided with a storage portion 27 for storing various electronic circuits related to the head mounting portion 2 such as angular velocity sensors 141 and 142 (see FIG. 11) described later. . For example, a switch 39 serving as a danger prevention operation unit for forcibly prohibiting see-through display of an image is disposed on the upper surface of the storage unit 27 so that the switch 39 can be operated as desired from the outside. A cable 27 a is extended from the storage portion 27 and connected to each circuit in the frame portion 13. Further, the control / recording portion 4 is connected via a circuit in the imaging portion 30. It is designed to be connected to the circuit.

次に、図5から図9を参照して、制御/記録部4の外観および概要について説明する。図5は操作パネルを閉じた状態の制御/記録部を示す平面図、図6は操作パネルを閉じた状態の制御/記録部を示す右側面図、図7は操作パネルを閉じた状態の制御/記録部を示す左側面図、図8は操作パネルに配置された操作スイッチ類を示す平面図、図9は操作パネルを開いた状態の制御/記録部を示す斜視図である。   Next, the external appearance and outline of the control / recording unit 4 will be described with reference to FIGS. 5 is a plan view showing the control / recording unit with the operation panel closed, FIG. 6 is a right side view showing the control / recording unit with the operation panel closed, and FIG. 7 is a control with the operation panel closed. FIG. 8 is a plan view showing operation switches arranged on the operation panel, and FIG. 9 is a perspective view showing the control / recording unit in a state where the operation panel is opened.

この制御/記録部4は、制御/記録本体部41と、この制御/記録本体部41に対してヒンジ43を介して開閉自在に設けられた操作パネル42と、を有して構成されている。   The control / recording unit 4 includes a control / recording main body 41 and an operation panel 42 that can be opened and closed with respect to the control / recording main body 41 via a hinge 43. .

上記制御/記録本体部41は、後述するような各回路を内蔵するとともに、上記操作パネル42を開いたときに観察可能となる位置に液晶モニタとして構成された表示手段であるLCD表示素子(以下、「LCD」と省略する。)48が配設されたものとなっている。このLCD48は、再生時に画像を表示するのに用いられる他に、各種のモードを設定するためのメニュー画面等の表示にも用いられるようになっている。さらに、この制御/記録本体部41には、上記操作パネル42を開閉する際に指先等を掛け易いように、凹部45が形成されている。   The control / recording main body 41 incorporates each circuit as will be described later, and is an LCD display element (hereinafter referred to as a display means) configured as a liquid crystal monitor at a position where observation is possible when the operation panel 42 is opened. , Abbreviated as “LCD”) 48. The LCD 48 is used not only for displaying an image during reproduction, but also for displaying a menu screen for setting various modes. Further, the control / recording main body 41 is formed with a recess 45 so that a fingertip or the like can be easily applied when the operation panel 42 is opened and closed.

また、この制御/記録本体部41の右側面には、図6に示すように、ヒンジ46により該制御/記録本体部41に対して開閉自在となる蓋52が設けられており、該蓋52の係止部52aを制御/記録本体部41側の被係止部52bに係止させることで、閉じ状態が保たれるようになっている。この蓋52を開くと、該図6に示すように、上記ケーブル3を介して頭部装着部2のケーブル接続端子32と接続されるようになされたケーブル接続端子49と、テレビと接続するための端子であるAV/S接続端子50と、パーソナルコンピュータ(PC)と接続するための端子であるPC接続端子51と、が露呈する。このように、コード類は、制御/記録本体部41の右側面において、まとめて接続されるようになっており、他の面からコード類が延出することがなく、コードを取り回すときの煩わしさを軽減することができるようになっている。   Further, as shown in FIG. 6, a lid 52 that can be opened and closed with respect to the control / recording main body 41 by a hinge 46 is provided on the right side surface of the control / recording main body 41. The locked portion 52a is locked to the locked portion 52b on the control / recording main body 41 side so that the closed state is maintained. When the lid 52 is opened, as shown in FIG. 6, a cable connection terminal 49 adapted to be connected to the cable connection terminal 32 of the head mounting portion 2 via the cable 3 is connected to the television. The AV / S connection terminal 50 that is a terminal of the PC and the PC connection terminal 51 that is a terminal for connecting to a personal computer (PC) are exposed. In this way, the cords are connected together on the right side of the control / recording main body 41, so that the cords do not extend from the other side, Annoyance can be reduced.

一方、制御/記録本体部41の左側面にも、図7に示すように、ヒンジ47により該制御/記録本体部41に対して開閉自在となる蓋53が設けられており、該蓋53の係止部53aを制御/記録本体部41側の被係止部53bに係止させることで、閉じ状態が保たれるようになっている。この蓋53を開くと、該図7に示すように、カードメモリ等でなる着脱式の記録手段たる記録用メモリ157(図11等参照)を挿入するための記録用メモリ挿入口54と、電源を供給するためのバッテリを着脱自在に挿入するためのバッテリ挿入口55と、が露呈するようになっている。   On the other hand, as shown in FIG. 7, a lid 53 that can be opened and closed with respect to the control / recording main body 41 by a hinge 47 is provided on the left side surface of the control / recording main body 41. The closed state is maintained by locking the locking portion 53a to the locked portion 53b on the control / recording main body 41 side. When the lid 53 is opened, as shown in FIG. 7, a recording memory insertion port 54 for inserting a recording memory 157 (see FIG. 11 etc.) as a detachable recording means composed of a card memory or the like, and a power source And a battery insertion port 55 for removably inserting a battery for supplying the battery.

上記操作パネル42は、閉じた状態でも外部に露呈する外面側に図5に示すように電源スイッチ44が配設されていて、さらに、開いた状態でのみ操作可能に露呈する内面側に、図8に示すような各種の操作スイッチ類が配置されている。   As shown in FIG. 5, the operation panel 42 is provided with a power switch 44 on the outer side exposed to the outside even in the closed state, and further on the inner side exposed to be operable only in the opened state. Various operation switches as shown in FIG.

すなわち、操作パネル42の内面側には、音声を再生するためのスピーカ56と、このスピーカ56から発生される音声のボリュームを大きくするためのスイッチ57と、該ボリュームを小さくするためのスイッチ58と、上記記録用メモリ157に記録された画像情報を再生したり一時停止したりするための再生/停止スイッチ59と、画像を逆方向に早送りしてサーチするためのスイッチ61と、画像を順方向に早送りしてサーチするためのスイッチ62と、カメラ1に係る各種の機能や日付などを設定するためのメニュー画面を上記LCD48に表示するためのメニューボタン63と、該メニュー画面に表示されている各項目の内の着目項目を上、下、左、右の各方向へ移動したり表示情報をスクロールしたりするためのメニュー選択スイッチ66,67,68,69と、表示されている着目項目等を確定するための確定スイッチ65と、が配設されている。   That is, on the inner surface side of the operation panel 42, a speaker 56 for reproducing sound, a switch 57 for increasing the volume of the sound generated from the speaker 56, and a switch 58 for decreasing the volume A playback / stop switch 59 for playing back or pausing the image information recorded in the recording memory 157, a switch 61 for fast-forwarding and searching for an image, and a forward-looking image. A switch 62 for fast-forwarding and searching, a menu button 63 for displaying on the LCD 48 a menu screen for setting various functions and dates related to the camera 1, and the menu screen are displayed on the menu screen. Menu selection for moving the item of interest up, down, left, right in each item and scrolling display information A switch 66, 67, 68, 69, and confirmation switch 65 for determining the focused item or the like displayed are disposed.

なお、後述するような視線方向検出のキャリブレーションモードに関する設定などの、通常使用しない特殊なモードの設定は、上記メニューボタン63を操作して所定のメニューを選択することにより行うようになっている。   It should be noted that special mode settings that are not normally used, such as settings relating to the gaze direction detection calibration mode described later, are performed by operating the menu button 63 and selecting a predetermined menu. .

このように、操作パネル42に配置されたスイッチ類は、主に、撮影動作の際に変更する頻度が比較的低い情報を設定するためのスイッチ類となっている。   As described above, the switches arranged on the operation panel 42 are mainly switches for setting information with a relatively low frequency of change during the photographing operation.

続いて、図10を参照して、リモコン部5の外観および概要について説明する。図10はリモコン部の構成を示す平面図である。   Next, the external appearance and outline of the remote control unit 5 will be described with reference to FIG. FIG. 10 is a plan view showing the configuration of the remote control unit.

このリモコン部5は、上述したように、撮影動作の際に比較的高い頻度で情報を変更するためのスイッチ類が配置されたものとなっていて、図10に示すように、FA/A/Mスイッチ71と、F/Vスイッチ72と、レリーズスイッチ(REL)73と、録画スイッチ(REC)74と、ズームスイッチ75と、露出補正スイッチ76と、を有して構成されている。   As described above, the remote controller 5 is provided with switches for changing information at a relatively high frequency during a photographing operation. As shown in FIG. 10, the FA / A / An M switch 71, an F / V switch 72, a release switch (REL) 73, a recording switch (REC) 74, a zoom switch 75, and an exposure correction switch 76 are included.

上記FA/A/Mスイッチ71は、切換手段であって、所定の焦点距離以上の望遠撮影時に撮影範囲を示す撮影画枠に対応する撮影画像を拡大して電子ビューとしてシースルー表示する動作を、全自動(FA:フルオートモード)で行うか、自動(A:オートモード)で行うか、手動(M:マニュアルモード)で行うか、を切り替えるためものである。   The FA / A / M switch 71 is a switching unit, and performs an operation of enlarging a captured image corresponding to a captured image frame indicating a shooting range and performing a see-through display as an electronic view during telephoto shooting with a predetermined focal length or longer. This is for switching between fully automatic (FA: full auto mode), automatic (A: auto mode) or manual (M: manual mode).

上記F/Vスイッチ72は、切換手段であって、上記透明光学部材15におけるシースルー表示を、撮影範囲を示す撮影画枠(F)にするか、あるいは撮像部30からの撮影画像(V)(電子ビュー)にするか、を切り替えるためのものである。   The F / V switch 72 is switching means, and the see-through display on the transparent optical member 15 is set to a photographic image frame (F) indicating a photographic range, or a photographic image (V) ( Electronic view) or for switching.

上記レリーズスイッチ(REL)73は、動画に比して高精細な静止画の撮影を開始するためのものである。   The release switch (REL) 73 is for starting to capture a still image with higher definition than a moving image.

上記録画スイッチ(REC)74は、動画の録画開始と録画停止とを押される毎に切り替えるためのものである。   The recording switch (REC) 74 is for switching each time a moving image recording start and a recording stop are pressed.

上記ズームスイッチ75は、撮影画枠設定手段であって、上記撮影光学系31を含む撮像部30のズーム(光学ズームおよび/または電子ズーム)を、望遠(T:テレ)側に行うためのテレスイッチ75aと、広角(W:ワイド)側に行うためのワイドスイッチ75bと、を含んで構成されている。   The zoom switch 75 is a photographic image frame setting means, and is a telescope for performing zoom (optical zoom and / or electronic zoom) of the imaging unit 30 including the photographic optical system 31 on the telephoto (T: tele) side. The switch 75a includes a wide switch 75b for performing on the wide angle (W: wide) side.

上記露出補正スイッチ76は、撮影される画像の露出補正をマイナス側に行うためのマイナス露出補正スイッチ76aと、該露出補正をプラス側に行うためのプラス露出補正スイッチ76bと、を含んで構成されている。   The exposure compensation switch 76 includes a minus exposure compensation switch 76a for performing exposure compensation of a photographed image on the minus side, and a plus exposure compensation switch 76b for performing exposure compensation on the plus side. ing.

なお、上記撮影光学系31のズーム動作と、観察者でもある撮影者から観察する撮影画枠の視角の変更と、は連動して行われるように構成されているために、上記ズームスイッチ75は、撮影者から観察する撮影画枠の視角を縮小するためのテレスイッチ75aと、該視角を拡大するためのワイドスイッチ75bと、を有するものであると言い換えることもできる。   Since the zoom operation of the photographic optical system 31 and the change of the viewing angle of the photographic image frame observed from the photographer who is also the observer are configured to be interlocked, the zoom switch 75 is In other words, it can be paraphrased as having a tele switch 75a for reducing the viewing angle of the photographic image frame observed by the photographer and a wide switch 75b for enlarging the viewing angle.

また、「撮影画枠」とは、上記撮像部30により撮影される被写体の範囲を表す指標である(図21等参照)。   Further, the “shooting image frame” is an index representing the range of the subject shot by the imaging unit 30 (see FIG. 21 and the like).

図11は頭部装着型カメラの主として電子回路に係る構成を示すブロック図である。   FIG. 11 is a block diagram showing a configuration mainly related to an electronic circuit of the head-mounted camera.

このカメラ1の構成は、上述したように、撮像機能を有する頭部装着部2と、この頭部装着部2により撮影された画像を記録する機能を備えると共に当該カメラ1全体の制御を行う機能を備えた制御/記録部4と、該カメラ1を遠隔操作するためのリモコン部5と、に大別される。これらの内でも上記頭部装着部2は、さらに、撮像を行うための撮像手段たる撮像部30と、主としてシースルー表示を行うための表示手段であり危険防止手段も兼ねたシースルー画像表示部6と、撮影者の視線方向を検出したり撮影者の頭部の動きに伴う角速度を検出したりするための生体情報検出手段であり視線方向検出手段と角速度検出手段とを兼ねた視線方向/角速度検出部7と、に分けられる。これら撮像部30とシースルー画像表示部6と視線方向/角速度検出部7とは、何れも、上記ケーブル3を介して、上記制御/記録部4と接続されるようになっている。   As described above, the configuration of the camera 1 includes a head mounting unit 2 having an imaging function, a function of recording an image photographed by the head mounting unit 2, and a function of controlling the camera 1 as a whole. Are roughly divided into a control / recording unit 4 provided with a remote control unit 5 for remotely operating the camera 1. Among these, the head-mounted unit 2 further includes an imaging unit 30 that is an imaging unit for performing imaging, and a see-through image display unit 6 that is a display unit for mainly performing see-through display and also serves as a danger prevention unit. Detecting the gaze direction of the photographer or detecting the angular velocity associated with the movement of the head of the photographer, and detecting the gaze direction / angular velocity detection functioning as both the gaze direction detection means and the angular velocity detection means And part 7. The imaging unit 30, the see-through image display unit 6, and the line-of-sight direction / angular velocity detection unit 7 are all connected to the control / recording unit 4 via the cable 3.

上記シースルー画像表示部6は、LEDドライバ112と、LED113と、集光レンズ114と、LCD115と、LCDドライバ117と、HOE116と、HOE25と、投光用LED16aと、LEDドライバ118と、集光レンズ16bと、上記スイッチ39と、第4CPU111と、を有して構成されている。このシースルー画像表示部6は、本実施例においては、観察者の片方の眼(ここでは、具体例として右眼)側にのみ配設されている。従って、観察者は、シースルー画像を、該片眼側のみで観察するようになっている。   The see-through image display unit 6 includes an LED driver 112, an LED 113, a condenser lens 114, an LCD 115, an LCD driver 117, an HOE 116, an HOE 25, an LED 16a for projection, an LED driver 118, and a condenser lens. 16b, the switch 39, and the fourth CPU 111. In this embodiment, the see-through image display unit 6 is disposed only on the side of one eye of the observer (here, the right eye as a specific example). Therefore, the observer observes the see-through image only on the one eye side.

上記LEDドライバ112は、上記第4CPU111の制御に基づき上記LED113を発光させるものである。   The LED driver 112 causes the LED 113 to emit light based on the control of the fourth CPU 111.

上記LED113は、発光源であって投影手段を構成するものであり、上記LEDドライバ112により駆動されて光を発光するようになっている。このLED113は、例えば、R(赤),G(緑),B(青)の3色の光をそれぞれ発光可能なダイオードを含んで構成されている。   The LED 113 is a light emitting source and constitutes a projecting unit, and is driven by the LED driver 112 to emit light. The LED 113 includes, for example, diodes capable of emitting light of three colors of R (red), G (green), and B (blue).

上記集光レンズ114は、上記投影手段を構成するものであって、このLED113により発光された光を集光するものである。   The condensing lens 114 constitutes the projection means, and condenses the light emitted by the LED 113.

上記LCD115は、上記投影手段を構成するものであって、上記撮影画枠や撮影された映像などを表示するためのものであり、上記集光レンズ114を介したLED113の光により背面側から照明される透過型の液晶表示手段となっている。   The LCD 115 constitutes the projection means, and is for displaying the photographed image frame, the photographed image, etc., and is illuminated from the back side by the light of the LED 113 through the condenser lens 114. This is a transmissive liquid crystal display means.

上記LCDドライバ117は、上記第4CPU111の制御に基づいて、LCD115を駆動して撮影画枠等を表示させるものであり、後述するようなパララックスを補正するための補正手段も兼ねている。   The LCD driver 117 drives the LCD 115 based on the control of the fourth CPU 111 to display a photographic image frame and the like, and also serves as a correcting means for correcting parallax as will be described later.

上記HOE116は、上記LCD115を介して射出される光を、後述するように収差を補正しながら鉛直下方(図13、図14参照)へ向けて反射する反射光学部材である。   The HOE 116 is a reflective optical member that reflects light emitted through the LCD 115 downwardly (see FIGS. 13 and 14) while correcting aberrations as will be described later.

上記HOE25は、反射型コンバイナとしての機能を果たすものであり、上記HOE116からの光を撮影者の眼へ向けて反射し回折させることにより、上記LCD115に表示された撮影画枠等を観察可能に投影するとともに、外界光を撮影者の眼へ向けて透過させ得るように構成されたコンバイナである。なお、この実施例1のHOE25は、最小限の大きさとなるように構成された上記透明光学部材15に合わせて、同様に、最小限の大きさとなるように構成されている。   The HOE 25 functions as a reflection type combiner, and the light from the HOE 116 is reflected and diffracted toward the photographer's eyes so that the image frame displayed on the LCD 115 can be observed. The combiner is configured to project and transmit external light toward the photographer's eyes. The HOE 25 of the first embodiment is similarly configured to have a minimum size in accordance with the transparent optical member 15 configured to have a minimum size.

上記投光用LED16aは、上記測距を行うための上記投光用発光部16に含まれていて、測距用の光を発光する発光源である。   The light projecting LED 16a is included in the light projecting light emitting unit 16 for performing the distance measurement, and is a light emission source that emits light for distance measurement.

上記集光レンズ16bは、上記投光用LED16aにより発光された測距用の光を、被写体に向けて投影するためのものである。   The condensing lens 16b is for projecting the distance measuring light emitted from the light projecting LED 16a toward the subject.

上記LEDドライバ118は、上記第4CPU111の制御に基づいて、上記投光用LED16aを駆動するためのものである。   The LED driver 118 is for driving the light projecting LED 16 a based on the control of the fourth CPU 111.

上記スイッチ39は、上記第4CPU111に接続されていて、該スイッチ39が閉じたことが第4CPU111により検出されると、該第4CPU111がこのシースルー画像表示部6の表示を禁止するようになっている。このカメラ1は、撮影動作にとらわれることなく通常の行動をしながら撮影することが可能となるように構成されたものであるために、例えば、歩行時や車の運転時にも使用してしまいがちである。しかし、撮影者がこのような状態にあるときにシースルー表示がされると、その表示に気をとられることもあり得る。従って、これを未然に防止するために、スイッチ39を設けて、シースルー表示を禁止することができるようにしている。なお、このときには表示は禁止されるが、撮影自体は継続することが可能となっている。   The switch 39 is connected to the fourth CPU 111. When the fourth CPU 111 detects that the switch 39 is closed, the fourth CPU 111 prohibits the display of the see-through image display unit 6. . The camera 1 is configured to be able to shoot while performing normal actions without being restricted by the shooting operation, and thus tends to be used, for example, when walking or driving a car. It is. However, if the photographer is in such a state and the see-through display is performed, the display may be distracted. Therefore, in order to prevent this, a switch 39 is provided so that see-through display can be prohibited. At this time, display is prohibited, but shooting itself can be continued.

上記第4CPU111は、制御手段であって、このシースルー画像表示部6内の各回路を制御するものであり、上記撮像部30の後述する第3CPU103と双方向に接続されて連携を取りながら、制御動作を行うようになっている。   The fourth CPU 111 is a control unit that controls each circuit in the see-through image display unit 6. The fourth CPU 111 is bi-directionally connected to a third CPU 103 (to be described later) of the imaging unit 30 to control the circuit. The operation is to be performed.

このようなシースルー画像表示部6の作用は、ほぼ次のようになっている。   The operation of the see-through image display unit 6 is almost as follows.

第4CPU111は、LEDドライバ112を介してLED113を発光させる。   The fourth CPU 111 causes the LED 113 to emit light via the LED driver 112.

LED113から発光された光は、集光レンズ114により集光されて、LCD115を背面から照明する。   The light emitted from the LED 113 is condensed by the condenser lens 114 and illuminates the LCD 115 from the back.

LED113は、撮影画枠を表示する場合には、上記R(赤),G(緑),B(青)の3色の光を発光させるダイオードの内の、例えばG(緑)のダイオードのみを発光させる。   The LED 113 displays only the G (green) diode, for example, among the diodes that emit light of the three colors R (red), G (green), and B (blue) when displaying a photographic image frame. Make it emit light.

第4CPU111が撮影範囲を示す撮影画枠に対応する信号を生成してLCDドライバ117へ転送するとともに、発光を行わせる制御信号をLEDドライバ112へ転送すると、LCDドライバ117が、該信号に基づきLCD115を駆動して撮影画枠を表示面上に表示させるとともに、LED113が発光して該LCD115を背面側から照明する。   When the fourth CPU 111 generates a signal corresponding to the shooting image frame indicating the shooting range and transfers it to the LCD driver 117, and also transfers a control signal for causing light emission to the LED driver 112, the LCD driver 117 performs the LCD 115 based on the signal. To display the photographic image frame on the display surface, and the LED 113 emits light to illuminate the LCD 115 from the back side.

こうして照明されたLCD115から投影される上記撮影画枠の映像は、収差を補正されながらHOE116により鉛直下方に反射され、HOE25に投影される。   The image of the photographic image frame projected from the LCD 115 thus illuminated is reflected vertically downward by the HOE 116 while being corrected for aberrations, and projected onto the HOE 25.

HOE25は、上記HOE116からの光線を、撮影者の眼へ向けて反射する。これにより、撮影者は、撮影範囲を示す撮影画枠を虚像として観察することができる。   The HOE 25 reflects the light beam from the HOE 116 toward the photographer's eyes. Thereby, the photographer can observe the photographed image frame indicating the photographing range as a virtual image.

一方、測距を行う場合には、第4CPU111が、測距用の発光を行わせる制御信号をLEDドライバ118へ転送する。   On the other hand, in the case of performing distance measurement, the fourth CPU 111 transfers a control signal for performing light emission for distance measurement to the LED driver 118.

LEDドライバ118は、上記制御信号を受けると、投光用LED16aを発光させる。この投光用LED16aにより発光された測距用の光は、上記集光レンズ16bにより平行光に変換されて、被写体へ向けて投光される。   Upon receiving the control signal, the LED driver 118 causes the light projecting LED 16a to emit light. The distance measuring light emitted from the light projecting LED 16a is converted into parallel light by the condenser lens 16b and projected toward the subject.

こうして投光された照明光は、被写体により反射され、該反射光が上記撮像部30により受光されて、後述するように測距演算が行われることになる。   The illumination light thus projected is reflected by the subject, the reflected light is received by the imaging unit 30, and a distance measurement calculation is performed as described later.

次に、上記視線方向/角速度検出部7は、上記シースルー画像表示部6が配設されているのとは反対側の片眼(ここでは、具体例として左眼)側に配設されるようになっている。この視線方向/角速度検出部7は、視線方向検出装置として機能する視線方向検出部と、角速度検出装置として機能する角速度検出部と、に大別される。   Next, the line-of-sight direction / angular velocity detection unit 7 is disposed on one eye (here, the left eye as a specific example) opposite to the side where the see-through image display unit 6 is disposed. It has become. The line-of-sight direction / angular velocity detection unit 7 is roughly classified into a line-of-sight direction detection unit that functions as a line-of-sight direction detection device and an angular velocity detection unit that functions as an angular velocity detection device.

上記視線方向検出部は、視線方向検出手段であって、LEDドライバ124と、LED125と、集光レンズ126と、反射ミラー127と、ハーフミラー128と、HOE24と、HOE129と、反射ミラー131と、結像レンズ132と、バンドパスフィルタ133と、CCD134と、CCDドライバ135と、CDS/AGC回路136と、A/D変換回路137と、TG138と、を有して構成されている。これらの内のLEDドライバ124、LED125、集光レンズ126、反射ミラー127、およびHOE24は、観察者の眼へ赤外平行光束を投光するための赤外光投影手段たる投光系を構成している。また、上述した内のHOE24、ハーフミラー128、HOE129、反射ミラー131、結像レンズ132、バンドパスフィルタ133、およびCCD134は、観察者の眼から反射された光束を受光するための受光系を構成している。   The line-of-sight direction detection unit is a line-of-sight direction detection unit, and includes an LED driver 124, an LED 125, a condenser lens 126, a reflection mirror 127, a half mirror 128, an HOE 24, an HOE 129, a reflection mirror 131, The imaging lens 132, the band pass filter 133, the CCD 134, the CCD driver 135, the CDS / AGC circuit 136, the A / D conversion circuit 137, and the TG 138 are configured. Among these, the LED driver 124, the LED 125, the condensing lens 126, the reflection mirror 127, and the HOE 24 constitute a light projecting system as an infrared light projecting unit for projecting an infrared parallel light beam to the eyes of the observer. ing. The above-mentioned HOE 24, half mirror 128, HOE 129, reflection mirror 131, imaging lens 132, bandpass filter 133, and CCD 134 constitute a light receiving system for receiving the light beam reflected from the eyes of the observer. doing.

また、上記角速度検出部は、角速度検出手段であって、角速度センサ141,142と、増幅器143,144と、A/D変換回路145と、を有して構成されている。   The angular velocity detection unit is angular velocity detection means, and includes angular velocity sensors 141 and 142, amplifiers 143 and 144, and an A / D conversion circuit 145.

そして、これら視線方向検出部と角速度検出部とを含む視線方向/角速度検出部7全体を制御するためのものとして、第2CPU121が設けられている。   The second CPU 121 is provided to control the entire line-of-sight direction / angular velocity detector 7 including the line-of-sight direction detector and the angular velocity detector.

上記LEDドライバ124は、上記第2CPU121の制御に基づいて、上記LED125を駆動するためのものである。   The LED driver 124 is for driving the LED 125 based on the control of the second CPU 121.

上記LED125は、LEDドライバ124により駆動されて、視線方向検出用の赤外光を発光する赤外発光ダイオードである。   The LED 125 is an infrared light-emitting diode that is driven by an LED driver 124 and emits infrared light for detecting a visual line direction.

上記集光レンズ126は、LED125により発光された赤外光を、平行光束に変換するものである。   The condensing lens 126 converts infrared light emitted from the LED 125 into a parallel light beam.

上記反射ミラー127は、集光レンズ126により平行光束に変換された赤外光を、鉛直下方(図15、図16参照)へ向けて反射する反射光学部材である。   The reflection mirror 127 is a reflection optical member that reflects the infrared light converted into a parallel light beam by the condenser lens 126 downward (see FIGS. 15 and 16).

上記ハーフミラー128は、上記反射ミラー127からの赤外光を上記HOE24側へ透過させると共に、該HOE24からの光を水平方向へ反射するものである。   The half mirror 128 transmits infrared light from the reflection mirror 127 toward the HOE 24 and reflects light from the HOE 24 in the horizontal direction.

上記HOE24は、ハーフミラー128を透過してきた赤外光を観察者の眼へ向けて反射するとともに、該観察者の眼からの光を該ハーフミラー128へ向けて反射するものである。なお、この実施例1のHOE24は、最小限の大きさとなるように構成された上記透明光学部材14に合わせて、同様に、最小限の大きさとなるように構成されている。このHOE24は、赤外域における狭い所定の帯域についての波長選択性を有しており、選択された帯域の赤外光のみについては高い反射特性を示す一方で、それ以外の波長の光線に対しては高い透過特性を示すものとなっている。このようにHOE24は、上記シースルー画像表示部6のHOE25とは全く異なる帯域の波長選択機能を有するものであるが、全体的な視感透過特性(あるいは、平均的な視感透過特性)については該HOE25とほぼ同様となっている。このように、左右の眼に対して平均的に同様の視感透過特性を有する光学素子を配置することにより、違和感を感じることがなく、かつ長時間使用しても眼の疲れを少なくすることができる。   The HOE 24 reflects infrared light transmitted through the half mirror 128 toward the observer's eye and reflects light from the observer's eye toward the half mirror 128. The HOE 24 of the first embodiment is similarly configured to have a minimum size in accordance with the transparent optical member 14 configured to have a minimum size. This HOE 24 has a wavelength selectivity for a narrow predetermined band in the infrared region, and exhibits high reflection characteristics only for infrared light in the selected band, while against light beams of other wavelengths. Shows high transmission characteristics. As described above, the HOE 24 has a wavelength selection function in a completely different band from that of the HOE 25 of the see-through image display unit 6, but the overall luminous transmission characteristics (or average luminous transmission characteristics) are as follows. It is almost the same as the HOE 25. In this way, by arranging optical elements that have the same luminous transmission characteristics on the left and right eyes on average, there is no sense of incongruity, and it reduces eye fatigue even when used for a long time. Can do.

上記HOE129は、上記HOE24とハーフミラー128とにより導かれた観察者の眼からの光束を、鉛直上方へ向けて反射するものある。このHOE129は、上記HOE24と同じ波長選択性を有するものとなっている。従って、このHOE129を介することにより、観察者の眼側から入射する光束の内の、上記所定の帯域に含まれる赤外光以外の波長の光線をカットする(つまり、反射することなく透過してしまう。)ことができるようになっている。こうして、後述するようなプルキンエ像を、他の波長域の光線によるノイズの影響を軽減しながら、より高い精度で検出することが可能となっている。なお、光学素子としてHOE129を用いることにより、波長選択性が高まるという利点があるだけでなく、赤外光以外に対して透過性を有しているために、透明光学部材14内に配設しても目立ち難いという利点もある。   The HOE 129 reflects the light beam from the observer's eye, which is guided by the HOE 24 and the half mirror 128, vertically upward. The HOE 129 has the same wavelength selectivity as the HOE 24. Therefore, by passing through the HOE 129, light beams having wavelengths other than the infrared light included in the predetermined band in the light flux incident from the observer's eye side are cut (that is, transmitted without being reflected). Can be). Thus, it is possible to detect a Purkinje image as described later with higher accuracy while reducing the influence of noise caused by light beams in other wavelength regions. Note that the use of HOE 129 as an optical element not only has the advantage of increasing wavelength selectivity, but also has transparency to light other than infrared light, so that it is disposed in the transparent optical member 14. There is also an advantage that it is inconspicuous.

上記反射ミラー131は、上記HOE129からの光束を水平方向に反射するものである。   The reflection mirror 131 reflects the light beam from the HOE 129 in the horizontal direction.

上記結像レンズ132は、上記反射ミラー131により反射された光束を、上記CCD134の撮像面上に結像するためのものである。   The imaging lens 132 is for imaging the light beam reflected by the reflection mirror 131 on the imaging surface of the CCD 134.

上記バンドパスフィルタ133は、上記結像レンズ132により結像される光束の内の、上記所定の帯域の赤外光のみを透過するものである。上述したように、上記HOE129により既に帯域の制限が行われているが、該HOE129を透明光学部材14内に配置した場合には、さらに他の可視光等が混入する可能性があるために、このバンドパスフィルタ133により再度帯域の制限を行うようにしている。こうして、CCD134の前面側にバンドパスフィルタ133を設けることにより、外光ノイズによる影響をさらに軽減することが可能となっている。   The bandpass filter 133 transmits only the infrared light in the predetermined band out of the light beam formed by the imaging lens 132. As described above, the band is already limited by the HOE 129. However, when the HOE 129 is disposed in the transparent optical member 14, other visible light may be mixed. This bandpass filter 133 limits the band again. Thus, by providing the band pass filter 133 on the front side of the CCD 134, it is possible to further reduce the influence of external light noise.

上記CCD134は、二次元の光電変換手段であって、撮像面が2次元となった撮像素子として構成されており、上述したように結像された観察者の眼の像を光電変換して、電気信号として出力するものである。このCCD134の出力に基づいて、プルキンエ像の位置と瞳孔中心の位置とが後述するように求められ、これらの相対的な位置関係に基づいて視線方向が算出されるようになっている。   The CCD 134 is a two-dimensional photoelectric conversion means, and is configured as an image pickup element having a two-dimensional image pickup surface. The CCD 134 photoelectrically converts the image of the observer's eye formed as described above, It is output as an electrical signal. Based on the output of the CCD 134, the position of the Purkinje image and the position of the pupil center are obtained as will be described later, and the line-of-sight direction is calculated based on their relative positional relationship.

上記CCDドライバ135は、上記第2CPU121の制御に基づいて、上記CCD134を駆動するためのものである。   The CCD driver 135 is for driving the CCD 134 based on the control of the second CPU 121.

上記CDS/AGC回路136は、上記CCD134から出力される映像信号に、ノイズ除去や増幅の処理を行うものである。   The CDS / AGC circuit 136 performs noise removal and amplification processing on the video signal output from the CCD 134.

上記TG138は、上記第2CPU121の制御に基づいて、上記CCDドライバ135と、上記CDS/AGC回路136とへ、連係して動作を行わせるためのタイミング信号をそれぞれ供給するものである。   The TG 138 supplies timing signals for operating the CCD driver 135 and the CDS / AGC circuit 136 in association with each other based on the control of the second CPU 121.

上記A/D変換回路137は、上記CDS/AGC回路136から出力されるアナログの映像信号をデジタルの映像信号に変換するものである。このA/D変換回路137により変換されたデジタルの映像信号は、上記撮像部30の後述する多重化回路104へ出力されるようになっている。   The A / D conversion circuit 137 converts the analog video signal output from the CDS / AGC circuit 136 into a digital video signal. The digital video signal converted by the A / D conversion circuit 137 is output to a multiplexing circuit 104 described later of the imaging unit 30.

上記角速度センサ141,142は、上述したように収納部27内に格納されており、互いに独立した方向(例えばヨー方向とピッチ方向)の角速度を検出するためのものである。   The angular velocity sensors 141 and 142 are stored in the storage unit 27 as described above, and are for detecting angular velocities in mutually independent directions (for example, the yaw direction and the pitch direction).

上記増幅器143,144は、上記角速度センサ141,142の出力をそれぞれ増幅するためのものである。   The amplifiers 143 and 144 are for amplifying the outputs of the angular velocity sensors 141 and 142, respectively.

上記A/D変換回路145は、上記増幅器143,144によりそれぞれ増幅された角速度センサ141,142からのアナログ信号を、デジタルデータへそれぞれ変換するものである。このA/D変換回路145により変換されたデジタルデータは、上記第2CPU121へ出力されるようになっている。   The A / D conversion circuit 145 converts analog signals from the angular velocity sensors 141 and 142 amplified by the amplifiers 143 and 144, respectively, into digital data. The digital data converted by the A / D conversion circuit 145 is output to the second CPU 121.

上記第2CPU121は、制御手段であって、この視線方向/角速度検出部7内の各回路を制御するものであり、上記撮像部30の後述する第3CPU103と双方向に接続されて連携を取りながら、制御動作を行うようになっている。この第2CPU121は、メモリとして機能するRAM122と、時間を計測するためのタイマ123と、を内部に有して構成されている。   The second CPU 121 is a control means for controlling each circuit in the line-of-sight direction / angular velocity detection unit 7 and is connected bidirectionally to a third CPU 103 (to be described later) of the imaging unit 30 while cooperating with it. The control operation is performed. The second CPU 121 includes a RAM 122 functioning as a memory and a timer 123 for measuring time.

このような視線方向/角速度検出部7の動作原理や作用等については、後で他の図面を参照して説明する。   The operation principle, action, and the like of the line-of-sight direction / angular velocity detection unit 7 will be described later with reference to other drawings.

上記撮像部30は、撮影光学系31と、ローパスフィルタ86と、CCD87と、CDS/AGC回路88と、A/D変換回路89と、TG(タイミングジェネレータ)90と、CCDドライバ91と、USMドライバ95と、絞りシャッタドライバ96と、AE処理回路97と、AF処理回路98と、上記第1マイク17と、上記第2マイク18と、増幅回路99と、増幅回路100と、A/D変換回路101と、EEPROM102と、多重化回路104と、第3CPU103と、を有して構成されている。   The imaging unit 30 includes a photographing optical system 31, a low-pass filter 86, a CCD 87, a CDS / AGC circuit 88, an A / D conversion circuit 89, a TG (timing generator) 90, a CCD driver 91, and a USM driver. 95, aperture shutter driver 96, AE processing circuit 97, AF processing circuit 98, the first microphone 17, the second microphone 18, the amplification circuit 99, the amplification circuit 100, and the A / D conversion circuit. 101, EEPROM 102, multiplexing circuit 104, and third CPU 103.

上記撮影光学系31は、光学的な被写体像を結像するためのものであり、焦点距離可変なズーム光学系として構成されている。   The photographing optical system 31 is for forming an optical subject image, and is configured as a zoom optical system having a variable focal length.

上記ローパスフィルタ86は、この撮影光学系31を通過した光束から不要な高周波成分を取り除くためのものである。   The low-pass filter 86 is for removing unnecessary high-frequency components from the light beam that has passed through the photographing optical system 31.

CCD87は、撮像素子であって、このローパスフィルタ86を介して上記撮影光学系31により結像された光学的な被写体像を電気的な信号に変換して出力するものである。   The CCD 87 is an image pickup device, and converts the optical subject image formed by the photographing optical system 31 through the low-pass filter 86 into an electrical signal and outputs it.

上記CDS/AGC回路88は、信号処理手段であって、このCCD87から出力される信号に後述するようなノイズ除去や増幅の処理を行うものである。   The CDS / AGC circuit 88 is a signal processing means for performing noise removal and amplification processing as will be described later on the signal output from the CCD 87.

上記A/D変換回路89は、信号処理手段であって、このCDS/AGC回路88から出力されるアナログの画像信号をデジタルの画像信号に変換するものである。   The A / D conversion circuit 89 is signal processing means for converting an analog image signal output from the CDS / AGC circuit 88 into a digital image signal.

上記CCDドライバ91は、上記CCD87を制御して駆動するためのものである。   The CCD driver 91 is for controlling and driving the CCD 87.

上記TG(タイミングジェネレータ)90は、上記CDS/AGC回路88,A/D変換回路89,CCDドライバ91に、タイミングを制御するための信号をそれぞれ供給するものである。このTG90は、上記視線方向/角速度検出部7の第2CPU121と双方向に接続されて、制御されるようになっている。   The TG (timing generator) 90 supplies signals for controlling the timing to the CDS / AGC circuit 88, the A / D conversion circuit 89, and the CCD driver 91, respectively. The TG 90 is connected to and controlled by the second CPU 121 of the line-of-sight direction / angular velocity detector 7 in a bidirectional manner.

上記USMドライバ95は、上記撮影光学系31に含まれる後述するUSM(Ultra Sonic Motor:超音波モータ)92,93,94を選択的に駆動するための駆動回路である。このUSMドライバ95も、上記視線方向/角速度検出部7の第2CPU121により制御されるようになっている。   The USM driver 95 is a drive circuit for selectively driving USMs (Ultra Sonic Motors) 92, 93, 94, which will be described later, included in the photographing optical system 31. The USM driver 95 is also controlled by the second CPU 121 of the line-of-sight direction / angular velocity detection unit 7.

上記絞りシャッタドライバ96は、上記撮影光学系31に含まれる後述する絞りシャッタ84を制御して駆動するための駆動回路である。この絞りシャッタドライバ96は、上記視線方向/角速度検出部7の第2CPU121により制御されるようになっている。   The diaphragm shutter driver 96 is a drive circuit for controlling and driving a diaphragm shutter 84 (described later) included in the photographing optical system 31. The aperture shutter driver 96 is controlled by the second CPU 121 of the line-of-sight direction / angular velocity detector 7.

上記AE処理回路97は、上記A/D変換回路89の出力に基づいて、露出制御用の算出を行うオート露出処理回路であり、演算結果を上記第3CPU103へ出力するようになっている。   The AE processing circuit 97 is an auto exposure processing circuit that performs calculation for exposure control based on the output of the A / D conversion circuit 89, and outputs the calculation result to the third CPU 103.

上記AF処理回路98は、上記A/D変換回路89の出力に基づいて、オートフォーカス(AF)制御用の算出を行うオートフォーカス処理回路であり、演算結果を上記第3CPU103へ出力するものである。   The AF processing circuit 98 is an autofocus processing circuit that performs calculation for autofocus (AF) control based on the output of the A / D conversion circuit 89, and outputs the calculation result to the third CPU 103. .

上記第1マイク17および第2マイク18は、上述したように、被写体側からの音声をステレオで収録するためのものである。   The first microphone 17 and the second microphone 18 are for recording audio from the subject side in stereo as described above.

上記増幅回路99および増幅回路100は、上記第1マイク17および第2マイク18から入力された音声信号をそれぞれ増幅するためのものである。   The amplifier circuit 99 and the amplifier circuit 100 are for amplifying audio signals input from the first microphone 17 and the second microphone 18, respectively.

上記A/D変換回路101は、上記増幅回路99および増幅回路100によりそれぞれ増幅されたアナログの音声信号をデジタルの音声信号に変換して上記第3CPU103へ出力するものである。   The A / D conversion circuit 101 converts the analog audio signal amplified by the amplification circuit 99 and the amplification circuit 100 into a digital audio signal and outputs the digital audio signal to the third CPU 103.

上記EEPROM102は、露出制御やオートフォーカス処理等のための各種補正データがカメラ製造時に記録されたものである。このEEPROM102に記録されたデータは、上記第3CPU103により読み出されるようになっている。   The EEPROM 102 records various correction data for exposure control, autofocus processing, and the like when the camera is manufactured. The data recorded in the EEPROM 102 is read out by the third CPU 103.

上記多重化回路104は、上記A/D変換回路89から出力される映像信号と、上記視角方向/角速度検出部7のA/D変換回路137から出力される撮影者の眼に係る映像信号(生体情報の1つ)と、該視角方向/角速度検出部7の第2CPU121から出力される撮影者の頭部に係る角速度情報(生体情報の1つ)と、上記第3CPU103を介して出力される音声データとを、該第2CPU121から出力されるタイマ情報に基づいて、同一時刻に生成された映像信号と生体情報とが互いに関連性をもつように多重化して、上記制御/記録部4へ出力するものである。   The multiplexing circuit 104 includes a video signal output from the A / D conversion circuit 89 and a video signal relating to a photographer's eye output from the A / D conversion circuit 137 of the visual angle direction / angular velocity detection unit 7 ( One of the biological information), angular velocity information (one of the biological information) related to the photographer's head output from the second CPU 121 of the viewing angle direction / angular velocity detection unit 7, and the third CPU 103. Based on the timer information output from the second CPU 121, the audio data is multiplexed so that the video signal generated at the same time and the biological information are related to each other, and output to the control / recording unit 4. To do.

上記第3CPU103は、この撮像部30内の各回路を制御するための制御手段であり、上記シースルー画像表示部6の第4CPU111や、上記視角方向/角速度検出部7の第2CPU121と連携を取りながら制御動作を行うようになっている。さらに、この第3CPU103は、上記制御/記録部4の後述する第1CPU161と双方向に通信を行って制御されるようになっている。   The third CPU 103 is a control means for controlling each circuit in the imaging unit 30, and cooperates with the fourth CPU 111 of the see-through image display unit 6 and the second CPU 121 of the visual angle direction / angular velocity detection unit 7. A control operation is performed. Further, the third CPU 103 is controlled by bidirectionally communicating with a first CPU 161 (to be described later) of the control / recording unit 4.

上記撮影光学系31は、さらに詳しくは、フロントレンズ81と、バリエータレンズ82と、コンペンセータレンズ83と、絞りシャッタ84と、フォーカスレンズ85と、USM92,93,94と、を有して構成されている。   More specifically, the photographing optical system 31 includes a front lens 81, a variator lens 82, a compensator lens 83, an aperture shutter 84, a focus lens 85, and USMs 92, 93, and 94. Yes.

上記フロントレンズ81は、撮影光学系31に含まれる複数のレンズの中で最も被写体側に位置するものである。   The front lens 81 is located closest to the subject among the plurality of lenses included in the photographing optical system 31.

上記バリエータレンズ82は、この撮影光学系31の焦点距離を変更するためのものである。   The variator lens 82 is for changing the focal length of the photographing optical system 31.

上記コンペンセータレンズ83は、上記バリエータレンズ82により撮影光学系31の焦点距離を変化させるのに伴うピント位置のずれを、補正するためのものである。   The compensator lens 83 is used to correct a focus position shift caused by changing the focal length of the photographing optical system 31 by the variator lens 82.

上記絞りシャッタ84は、撮影光学系31を通過する光束の通過範囲を規定するための絞りの機能と、該光束の通過時間を規定するためのシャッタの機能と、を兼用するものである。   The diaphragm shutter 84 serves both as a diaphragm function for defining the passage range of the light beam passing through the photographing optical system 31 and a shutter function for defining the passage time of the light beam.

上記フォーカスレンズ85は、この撮影光学系31のピントを調整するためのものであり、ピントが調整されたときには、上記CCD87に被写体像が合焦して結像される。   The focus lens 85 is for adjusting the focus of the photographic optical system 31. When the focus is adjusted, the subject image is focused on the CCD 87 and formed.

上記USM92,93,94は、上記バリエータレンズ82,コンペンセータレンズ83,フォーカスレンズ85をそれぞれ駆動するための駆動源である。   The USMs 92, 93, and 94 are driving sources for driving the variator lens 82, the compensator lens 83, and the focus lens 85, respectively.

上記制御/記録部4は、分離回路151と、DSP回路152と、遅延回路153と、多重化回路154と、メモリ155と、圧縮/伸張回路156と、記録用メモリ157と、D/A変換回路158と、上記LCD48(図10参照)と、LCDドライバ160と、第1操作スイッチ162と、受信回路163と、電源回路164と、第1CPU161と、を有して構成されている。   The control / recording unit 4 includes a separation circuit 151, a DSP circuit 152, a delay circuit 153, a multiplexing circuit 154, a memory 155, a compression / expansion circuit 156, a recording memory 157, and a D / A conversion. The circuit 158, the LCD 48 (see FIG. 10), the LCD driver 160, the first operation switch 162, the receiving circuit 163, the power supply circuit 164, and the first CPU 161 are configured.

上記分離回路151は、上記多重化回路104により伝送された信号を、再び画像データとそれ以外のデータとに分離するものである。該分離回路151は、画像データを上記DSP回路152へ、それ以外のデータを上記遅延回路153へ、それぞれ出力するようになっている。   The separation circuit 151 separates the signal transmitted by the multiplexing circuit 104 into image data and other data again. The separation circuit 151 outputs image data to the DSP circuit 152 and other data to the delay circuit 153.

上記DSP回路152は、上記分離回路151からの画像データに対して、所定のデジタル信号処理を行うものである。   The DSP circuit 152 performs predetermined digital signal processing on the image data from the separation circuit 151.

上記遅延回路153は、上記DSP回路152により処理される画像データとの時間的な同期をとるために、上記分離回路151から入力されるデータを遅延させるためのものである。   The delay circuit 153 is for delaying data input from the separation circuit 151 in order to achieve temporal synchronization with the image data processed by the DSP circuit 152.

上記多重化回路154は、上記DSP回路152により処理された画像データと、上記遅延回路153から送信されるデータと、を多重化するものである。   The multiplexing circuit 154 multiplexes the image data processed by the DSP circuit 152 and the data transmitted from the delay circuit 153.

上記メモリ155は、上記この多重化回路154からの信号を一時的に記憶するものであり、例えばフレームバッファ等で構成されている。   The memory 155 temporarily stores the signal from the multiplexing circuit 154, and is composed of, for example, a frame buffer.

上記圧縮/伸張回路156は、このメモリ155に記憶されているデジタル信号を圧縮するとともに、上記記録用メモリ157から読み出した圧縮されたデジタル信号の伸張も行うものである
上記記録用メモリ157は、画像データ記録手段と生体情報記録手段とを兼ねたものであって、上記圧縮/伸張回路156により圧縮されたデジタル信号を記録するものである。
The compression / decompression circuit 156 compresses the digital signal stored in the memory 155 and also decompresses the compressed digital signal read from the recording memory 157. The recording memory 157 includes: It serves as both image data recording means and biometric information recording means, and records the digital signal compressed by the compression / expansion circuit 156.

上記D/A変換回路158は、上記メモリ155に記憶されているデジタル信号をアナログ信号に変換するものである。   The D / A conversion circuit 158 converts the digital signal stored in the memory 155 into an analog signal.

上記LCD48は、上記D/A変換回路158により変換されたアナログの画像信号に基づき、画像を表示するものである。   The LCD 48 displays an image based on the analog image signal converted by the D / A conversion circuit 158.

上記LCDドライバ160は、上記LCD48を制御して駆動するためのものである。   The LCD driver 160 is for controlling and driving the LCD 48.

上記第1操作スイッチ162は、当該カメラ1に係る各種の操作入力を行うためのものであり、上記図8に示したような各スイッチ類を含んで構成されている。   The first operation switch 162 is used to perform various operation inputs related to the camera 1, and includes each switch as shown in FIG.

上記受信回路163は、上記リモコン部5の後述する送信回路173からの信号を受信するためのものである。   The receiving circuit 163 is for receiving a signal from a transmitting circuit 173 described later of the remote controller 5.

上記電源回路164は、例えば着脱式となるように構成されたバッテリ等を含み、この制御/記録部4へ電源を供給するように構成されているだけでなく、上記頭部装着部2へも電源を供給することができるように構成されている。   The power supply circuit 164 includes, for example, a battery configured to be detachable, and is not only configured to supply power to the control / recording unit 4 but also to the head mounting unit 2. It is configured to be able to supply power.

上記第1CPU161は、このカメラ1に係る統合的な制御手段であって、この制御/記録部4内の各回路を制御するとともに、上記第3CPU103と通信を行うことにより上記頭部装着部2の制御も行うように構成されたものである。   The first CPU 161 is an integrated control unit related to the camera 1, and controls each circuit in the control / recording unit 4 and communicates with the third CPU 103 to communicate with the third CPU 103. It is also configured to perform control.

そして、上記リモコン部5は、第2操作スイッチ171と、デコーダ172と、送信回路173と、電源回路174と、を有して構成されている。   The remote control unit 5 includes a second operation switch 171, a decoder 172, a transmission circuit 173, and a power supply circuit 174.

上記第2操作スイッチ171は、上記図10に示したようなスイッチ類を含んで構成されたものである。   The second operation switch 171 includes switches as shown in FIG.

上記デコーダ172は、この第2操作スイッチ171からの操作入力を無線送信用の信号へ符号化するためのものである。   The decoder 172 is for encoding the operation input from the second operation switch 171 into a signal for wireless transmission.

上記送信回路173は、このデコーダ172により符号化された信号を上記制御/記録部4の受信回路163へ送信するためのものである。該制御/記録部4の第1CPU161は、受信回路163により受信した操作スイッチの情報に所定の処理を行って、第3CPU103を介して頭部装着部2に所定の制御を行うようになっている。   The transmission circuit 173 is for transmitting the signal encoded by the decoder 172 to the reception circuit 163 of the control / recording unit 4. The first CPU 161 of the control / recording unit 4 performs predetermined processing on the information of the operation switch received by the receiving circuit 163 and performs predetermined control on the head-mounted unit 2 via the third CPU 103. .

上記電源回路174は、このリモコン部5内の各回路へ電源を供給するためのものであり、電池等を含んで構成されている。   The power supply circuit 174 is for supplying power to each circuit in the remote control unit 5 and includes a battery and the like.

このようなカメラ1の作用は、ほぼ次のようになっている。   The operation of the camera 1 is almost as follows.

上記撮影光学系31を通過した光束は、ローパスフィルタ86を介して、CCD87の撮像面に結像する。   The light beam that has passed through the photographing optical system 31 forms an image on the imaging surface of the CCD 87 via the low-pass filter 86.

上記制御/記録部4の第1操作スイッチ162により動画記録の操作が行われるか、または、上記リモコン部5のレリーズスイッチ73により静止画撮影の操作が行われると、上記CCD87により被写体像が光電変換されて、アナログの画像信号が出力される。   When a moving image recording operation is performed by the first operation switch 162 of the control / recording unit 4 or a still image shooting operation is performed by the release switch 73 of the remote control unit 5, the subject image is photoelectrically converted by the CCD 87. The analog image signal is output after conversion.

このCCD87からの画像信号は、CDS/AGC回路88に入力されて、該CDS/AGC回路88内のCDS回路部により公知の相関二重サンプリングなどが行われてリセットノイズが除去されるとともに、該CDS/AGC回路88内のAGC回路部により所定の信号レベルへの増幅が行われて出力される。   The image signal from the CCD 87 is input to the CDS / AGC circuit 88, and the CDS circuit unit in the CDS / AGC circuit 88 performs known correlated double sampling to remove reset noise, and The signal is amplified to a predetermined signal level by the AGC circuit unit in the CDS / AGC circuit 88 and output.

このCDS/AGC回路88からのアナログの画像信号は、続くA/D変換回路89によって、デジタルの画像信号(画像データ)に変換される。本実施例においては、このA/D変換回路89の出力信号をRAW画像データということにする。すなわち、本実施例におけるRAW画像データは、CCD87からのアナログ出力信号を最初にA/D変換した直後のデジタルデータとして定義され、他のデジタル信号処理等を施す前のデータとなっている。   The analog image signal from the CDS / AGC circuit 88 is converted into a digital image signal (image data) by the subsequent A / D conversion circuit 89. In this embodiment, the output signal of the A / D conversion circuit 89 is referred to as RAW image data. That is, the RAW image data in this embodiment is defined as digital data immediately after the analog output signal from the CCD 87 is first A / D converted, and is data before other digital signal processing or the like is performed.

これらCDS/AGC回路88、上記A/D変換回路89へは、上記TG90により生成されたタイミング制御信号が入力されるようになっており、該TG90からのタイミング制御信号は、さらに上記CCDドライバ91へも入力される。   The timing control signal generated by the TG 90 is inputted to the CDS / AGC circuit 88 and the A / D conversion circuit 89. The timing control signal from the TG 90 is further inputted to the CCD driver 91. Is also entered.

一方、上記第1マイク17および第2マイク18からの出力信号は、増幅回路99,100によってそれぞれ増幅された後に、A/D変換回路101により所定のサンプリング周期で時分割的にデジタルデータに変換され、第3CPU103へ転送される。第3CPU103は、デジタルデータに変換された音声データを、所定のタイミングで多重化回路104に転送する。   On the other hand, the output signals from the first microphone 17 and the second microphone 18 are amplified by the amplification circuits 99 and 100, respectively, and then converted into digital data by the A / D conversion circuit 101 in a time-division manner at a predetermined sampling period. And transferred to the third CPU 103. The third CPU 103 transfers the audio data converted into the digital data to the multiplexing circuit 104 at a predetermined timing.

上記A/D変換回路89からの出力信号である画像データと、上記第1マイク17および第2マイク18からの音声データと、上記視線方向/角速度検出部7からの視線方向データ(視線方向情報)および撮影者の頭部の角速度データと、上記第2CPUのタイマ123により計時されたタイマ情報と、が多重化回路104により多重化される。   Image data which is an output signal from the A / D conversion circuit 89, audio data from the first microphone 17 and the second microphone 18, and gaze direction data (gaze direction information) from the gaze direction / angular velocity detection unit 7. ) And the angular velocity data of the photographer's head and the timer information counted by the timer 123 of the second CPU are multiplexed by the multiplexing circuit 104.

この多重化回路104により多重化された信号は、図42に示すように、上記各データが検出された検出開始時刻が先頭に記録されて、次に上記画像データや音声データ等の各種データがそれぞれ所定の間隔で交互に出力される。この図42は、多重化回路104から出力される信号の時系列的な構成を示す図である。例えば、画像データ、音声データ、角速度データの取り込み周期をそれぞれ1/30秒とし、視線方向データの取り込み周期を1秒とし、かつ、1秒間のデータを1つのユニットとすると、この単位ユニットには、該図42に示すように、開始時刻データを先頭にして、画像データ、音声データ、および角速度データの3つを一組とするデータが繰り返し30組記録され、最後に視線方向データが記録される。なお、この図42に示したデータの順序は単なる一例であるために、例えば視線方向データを時刻データの直後に記録するようにしてももちろん構わない。   As shown in FIG. 42, the signal multiplexed by the multiplexing circuit 104 is recorded with the detection start time at which each data is detected at the head, and then various data such as the image data and audio data are recorded. The signals are alternately output at predetermined intervals. FIG. 42 is a diagram showing a time-series configuration of a signal output from the multiplexing circuit 104. In FIG. For example, assuming that the capture cycle of image data, audio data, and angular velocity data is 1/30 seconds each, the capture cycle of gaze direction data is 1 second, and the data for 1 second is one unit, As shown in FIG. 42, 30 sets of data including three sets of image data, audio data, and angular velocity data are repeatedly recorded starting from the start time data, and finally, the line-of-sight direction data is recorded. The Note that the order of the data shown in FIG. 42 is merely an example, and therefore, for example, the line-of-sight direction data may be recorded immediately after the time data.

このようなデジタル化されたデータを含むユニット単位のデータが、複数、上記ケーブル3を介して制御/記録部4へ出力される。   A plurality of unit-unit data including such digitized data is output to the control / recording unit 4 via the cable 3.

このように、撮像部30は、CCD87で生成された画像信号のアナログ信号処理を行って、画像データをデジタル信号に変換した後に出力するようになっているために、アナログ信号が該撮像部30から外部に出力されることがない。従って、上記ケーブル3などを介して画像信号を伝送する際に受ける可能性があると考えられる外来ノイズにも強い構成となっている。   As described above, the imaging unit 30 performs analog signal processing of the image signal generated by the CCD 87 and converts the image data into a digital signal and outputs the digital signal. Therefore, the analog signal is output from the imaging unit 30. Is not output to the outside. Therefore, the configuration is strong against external noise that may be received when an image signal is transmitted through the cable 3 or the like.

また、撮像部30は、RAW画像データを出力するようになっているために、色分離やホワイトバランス調整等の信号処理回路を該撮像部30の内部に設ける必要がなく、該撮像部30が設けられている頭部装着部2の小型軽量化を図ることが可能となっている。   Further, since the imaging unit 30 outputs RAW image data, it is not necessary to provide a signal processing circuit such as color separation or white balance adjustment inside the imaging unit 30, and the imaging unit 30 It is possible to reduce the size and weight of the provided head mounting portion 2.

上記多重化回路104から制御/記録部4へ伝送された信号は、該制御/記録部4内の分離回路151により、画像データとそれ以外のデータとに再び分離される。   The signal transmitted from the multiplexing circuit 104 to the control / recording unit 4 is again separated into image data and other data by the separation circuit 151 in the control / recording unit 4.

この分離回路151により分離された画像データは、DSP回路152において所定の画像処理演算が行われるとともに、得られた演算結果に基づいて該画像データにオートホワイトバランス処理も行われる。   The image data separated by the separation circuit 151 is subjected to a predetermined image processing calculation in the DSP circuit 152, and an auto white balance process is also performed on the image data based on the obtained calculation result.

一方、分離回路151により分離された画像データ以外のデータ(つまり、視線方向データ、角速度データ、音声データなどを含むデータ)は、遅延回路153により上記DSP回路152で処理される画像データと時間的な同期をとるために遅延される。   On the other hand, data other than the image data separated by the separation circuit 151 (that is, data including line-of-sight direction data, angular velocity data, audio data, etc.) is temporally related to the image data processed by the DSP circuit 152 by the delay circuit 153. Delayed to ensure proper synchronization.

上記DSP回路152からの出力と、上記遅延回路153からの出力と、は多重化回路154に入力されて、該多重化回路154により多重化され、多重化後の信号がメモリ155に一時的に記録される。   The output from the DSP circuit 152 and the output from the delay circuit 153 are input to the multiplexing circuit 154, multiplexed by the multiplexing circuit 154, and the multiplexed signal is temporarily stored in the memory 155. To be recorded.

上記メモリ155に記録された各種のデータの内の、画像データと音声データとは圧縮/伸張回路156に含まれる圧縮回路部により、それぞれ所定のフォーマットで圧縮された後に、記録用メモリ157に記録される。   Of the various data recorded in the memory 155, the image data and audio data are each compressed in a predetermined format by the compression circuit unit included in the compression / decompression circuit 156, and then recorded in the recording memory 157. Is done.

一方、上記メモリ155に記録された各種のデータの内の、時刻データ、角速度データ、および視線方向データは、記録用メモリ157に直接記録される。なお、これらの内の角速度データおよび視線方向データは、公知の可逆圧縮処理を施した後に、記録用メモリ157に記録するようにしても良い。   On the other hand, time data, angular velocity data, and line-of-sight direction data out of various data recorded in the memory 155 are directly recorded in the recording memory 157. Of these, the angular velocity data and the line-of-sight direction data may be recorded in the recording memory 157 after being subjected to a known reversible compression process.

なお、上記記録用メモリ157としては、カードメモリや、DVD等のディスクメモリなど、各種の記録媒体を広く適用することができる。また、上述したような各種のデータに係る記録フォーマットの概要については、後で説明する。   As the recording memory 157, various recording media such as a card memory and a disk memory such as a DVD can be widely applied. The outline of the recording format related to various data as described above will be described later.

また、上記第1操作スイッチ162のメニューボタン63やメニュー選択スイッチ66,67,68,69、確定スイッチ65などの操作により記録済みの画像が選択されて、上記再生/停止スイッチ59の操作により再生の指示が行われた場合には、記録用メモリ157に記憶されている圧縮されたデータが、圧縮/伸張回路156内の伸張回路部により伸張されてメモリ155に一時的に記憶され、その画像データがD/A変換回路158によりアナログの画像信号に変換された後に、LCD48に表示される。このときのLCD48の動作は、LCDドライバ160から発生された信号により制御される。   Further, a recorded image is selected by operating the menu button 63 of the first operation switch 162, the menu selection switches 66, 67, 68, 69, the confirmation switch 65, and the like, and is played back by operating the playback / stop switch 59. Is compressed, the compressed data stored in the recording memory 157 is expanded by the expansion circuit unit in the compression / expansion circuit 156 and temporarily stored in the memory 155, and the image The data is converted into an analog image signal by the D / A conversion circuit 158 and then displayed on the LCD 48. The operation of the LCD 48 at this time is controlled by a signal generated from the LCD driver 160.

一方、上記A/D変換回路89からのデジタル画像データは、該撮像部30内のAE処理回路97とAF処理回路98とへそれぞれ入力される。   On the other hand, the digital image data from the A / D conversion circuit 89 is input to the AE processing circuit 97 and the AF processing circuit 98 in the imaging unit 30.

上記AE処理回路97は、1フレーム(1画面)分の画像データの輝度値を算出して重み付け加算する等の処理を行うことにより、被写体の明るさに対応したAE評価値を算出し、算出結果を第3CPU103を介して第2CPU121へ出力する。第2CPU121は、上記AE評価値に基づいて、CCD87の露光時間の制御や、絞りシャッタ84の制御を行うようになっている。   The AE processing circuit 97 calculates and calculates the AE evaluation value corresponding to the brightness of the subject by performing processing such as calculating the luminance value of image data for one frame (one screen) and performing weighted addition. The result is output to the second CPU 121 via the third CPU 103. The second CPU 121 controls the exposure time of the CCD 87 and the diaphragm shutter 84 based on the AE evaluation value.

また、AF処理回路98は、上記第3CPU103を介した第2CPU121の制御に基づいて、1フレーム(1画面)分の画像データの輝度成分にハイパスフィルタなどを用いて高周波成分を抽出し、抽出した高周波成分の累積加算値を算出する等により高周波域側の輪郭成分等に対応したAF評価値を算出し、算出結果を該第3CPU103を介して第2CPU121へ出力する。第2CPU121は、AF処理回路98により算出された上記AF評価値に基づいて、上記USMドライバ95を介して上記フォーカスレンズ85を駆動し、焦点検出を行って合焦状態を得るようになっている。   Further, the AF processing circuit 98 extracts a high frequency component from the luminance component of the image data for one frame (one screen) using a high-pass filter or the like based on the control of the second CPU 121 via the third CPU 103. An AF evaluation value corresponding to a high frequency region side contour component or the like is calculated by calculating a cumulative addition value of the high frequency component, and the calculation result is output to the second CPU 121 via the third CPU 103. The second CPU 121 drives the focus lens 85 via the USM driver 95 based on the AF evaluation value calculated by the AF processing circuit 98, and performs focus detection to obtain a focused state. .

上記EEPROM102は、露出制御やオートフォーカス処理等に必要な各種補正データがカメラ製造時に記録されたものであり、第2CPU121は、必要に応じて、このEEPROM102から第3CPU103を介して補正データを読み出し、各種の演算を行うようになっている。   The EEPROM 102 records various correction data necessary for exposure control, autofocus processing, and the like when the camera is manufactured. The second CPU 121 reads correction data from the EEPROM 102 via the third CPU 103 as necessary. Various operations are performed.

次に、図12〜図14を参照して、シースルー画像表示部6の主として光学的な構成について説明する。図12はシースルー画像表示部の光学系の原理を説明するための図、図13はシースルー画像表示部の光学系の構成を示す一部断面を含む正面図、図14はシースルー画像表示部の光学系の構成を示す左側面図である。   Next, a mainly optical configuration of the see-through image display unit 6 will be described with reference to FIGS. 12 is a diagram for explaining the principle of the optical system of the see-through image display unit, FIG. 13 is a front view including a partial cross section showing the configuration of the optical system of the see-through image display unit, and FIG. 14 is an optical diagram of the see-through image display unit. It is a left view which shows the structure of a type | system | group.

このシースルー画像表示部6は、撮影者が実質的に直接観察している被写体上に、撮影範囲を示す撮影画枠を虚像としてスーパーインポーズ表示することができるようになっており、このような表示を、以下では、シースルー表示と呼ぶことにする。なお、「実質的に直接観察している」とは、肉眼で観察している場合だけでなく、ガラスやプラスチックなどで形成された略平板な透明部材を介して観察している場合や、あるいは視度調整用のレンズを介して観察している場合などを含んでいる。   This see-through image display unit 6 can superimpose and display a photographic image frame indicating a photographic range as a virtual image on a subject that the photographer is actually directly observing. Hereinafter, the display is referred to as see-through display. Note that “substantially directly observing” means not only when observing with the naked eye, but also when observing through a substantially flat transparent member formed of glass or plastic, or This includes the case of observation through a diopter adjustment lens.

まず、図12を参照して、この実施例1におけるシースルー画像表示部6の光学系(以下、「シースルー画像表示光学系」という。)によりシースルー画像を表示する原理について説明する。   First, the principle of displaying a see-through image by the optical system of the see-through image display unit 6 in the first embodiment (hereinafter referred to as “see-through image display optical system”) will be described with reference to FIG.

LED113により発光された光は、集光レンズ114により集光されて、LCD115を背面から照明する。LED113は、上述したように、撮影画枠を表示する場合には、例えばG(緑)のダイオードのみを発光させる。   The light emitted from the LED 113 is condensed by the condenser lens 114 and illuminates the LCD 115 from the back. As described above, the LED 113 emits only a G (green) diode, for example, when displaying a photographic image frame.

第4CPU111は、撮影範囲を示す撮影画枠に対応する信号を生成して、LCDドライバ117へ出力する。LCDドライバ117は、この信号に基づいてLCD115を駆動することにより、該LCD115に撮影画枠を表示させる。   The fourth CPU 111 generates a signal corresponding to the shooting image frame indicating the shooting range and outputs the signal to the LCD driver 117. The LCD driver 117 drives the LCD 115 based on this signal to display a photographic image frame on the LCD 115.

上記LED113の光を受けてLCD115から射出された撮影画枠の像は、HOE25によって反射された後に、撮影者の眼に導かれる。こうして、撮影者は、撮影範囲を示す撮影画枠を虚像VIとして観察することができる。なお、この図12では原理を説明しているために、HOE116の図示は省略している。   The image of the photographic image frame received from the LED 113 and emitted from the LCD 115 is reflected by the HOE 25 and then guided to the photographer's eyes. Thus, the photographer can observe the photographic image frame indicating the photographic range as the virtual image VI. In FIG. 12, since the principle is described, the illustration of the HOE 116 is omitted.

HOE25は、フォトポリマーや重クロム酸ゼラチン等の感光材料を使用した体積位相型のホログラフィー光学素子であり、上記LED113により発光されるR,G,Bの各波長において最大の反射率で光を反射する特性を備えるように設計されている。従って、撮影画枠を表示するときにGの光を発光させる場合には、グリーンの撮影画枠が虚像としてクリアに表示されることになる。HOEは、優れた波長選択性を備えており、上述したR,G,Bの各波長の光線に対しては極めて狭い波長幅において高い反射特性を示す一方で、それ以外の波長の光線に対しては高い透過特性を示す。従って、表示光と同じ波長域の外界光は回折反射されて撮影者の瞳に届かないが、それ以外の波長域の外界光は撮影者の瞳に到達する。一般に、可視光は、波長の帯域幅が広いために、R,G,Bの各波長を含む極めて狭い波長幅の光が到達しなくても、何等支障なく外界像を観察することが可能である。   The HOE 25 is a volume phase type holographic optical element using a photosensitive material such as a photopolymer or dichromated gelatin, and reflects light with the maximum reflectance at each wavelength of R, G, B emitted from the LED 113. Designed to have the characteristics to Therefore, when G light is emitted when displaying the photographic image frame, the green photographic image frame is clearly displayed as a virtual image. HOE has excellent wavelength selectivity, and exhibits high reflection characteristics in the extremely narrow wavelength range for the light beams of the above-described R, G, and B wavelengths, while it has a high reflection characteristic for light beams of other wavelengths. Show high transmission characteristics. Accordingly, external light in the same wavelength region as the display light is diffracted and reflected and does not reach the photographer's pupil, but external light in other wavelength regions reaches the photographer's pupil. In general, since visible light has a wide wavelength bandwidth, it is possible to observe an external field image without any trouble even if light having an extremely narrow wavelength width including R, G, and B wavelengths does not arrive. is there.

また、このシースルー画像表示部6は、上記撮像部30により撮像された画像をカラー画像としてシースルー表示することも可能となっており、この場合には、LCD115に撮像された映像を表示させるとともに、上記LED113によりR,G,B3色の光を発光させれば良い。これにより、撮像された映像が、HOE25から、撮影者の瞳に虚像として到達することになる。   In addition, the see-through image display unit 6 can display the image picked up by the image pickup unit 30 as a color image in a see-through manner. In this case, the LCD 115 displays a picked-up image, The LED 113 may emit light of R, G, and B colors. As a result, the captured image reaches the photographer's pupil as a virtual image from the HOE 25.

上記HOE116は、LCD115からの光をHOE25に導くように反射するだけでなく、像面歪曲も補正する機能を備えたものとなっている。なお、ここではHOE116を用いたが、これに代えて、自由曲面の光学素子を用いることも可能である。自由曲面の光学素子は、小型軽量でありながら複雑な収差を補正することができるために、重量をあまり増加させることなく収差の少ないクリアな像を表示することが可能となる。   The HOE 116 has a function of not only reflecting the light from the LCD 115 so as to guide it to the HOE 25 but also correcting the image plane distortion. Although the HOE 116 is used here, a free-form optical element can be used instead. Since a free-form optical element is small and light, it can correct complex aberrations, and thus can display a clear image with little aberration without increasing the weight.

続いて、図13および図14を参照して、上記シースルー画像表示光学系の具体的な配置例を説明する。   Subsequently, a specific arrangement example of the see-through image display optical system will be described with reference to FIGS. 13 and 14.

上記フレーム部13の内部における上記透明光学部材15の上部となる位置に、上記LED113,集光レンズ114,LCD115,HOE116が図13に示すように順に配置されている。これらの各部材は、フレーム部13内に設けられた保持枠により挟み込まれるようにして固定されている。このとき、上記LED113は、電気回路基板181に実装された状態で、上記保持枠により固定されるようになっている。また、これらの内のHOE116は、上述したように、LED113からの光を鉛直下方へ向けて反射するように、傾けて配置されている。   The LED 113, the condensing lens 114, the LCD 115, and the HOE 116 are arranged in this order at the position above the transparent optical member 15 inside the frame portion 13 as shown in FIG. Each of these members is fixed so as to be sandwiched between holding frames provided in the frame portion 13. At this time, the LED 113 is fixed by the holding frame while being mounted on the electric circuit board 181. Further, of these, the HOE 116 is disposed so as to be inclined so as to reflect the light from the LED 113 vertically downward as described above.

上記透明光学部材15は、図14に示すように、透明なガラスやプラスチック等により所定の厚みを有するように形成された導光部材182,183と、これらの導光部材182,183の間に挟み込まれながら後方へ向けて光を反射するように傾けて配設された上記HOE25と、を有して構成されている。このような構成において、上記HOE116から反射された光は、HOE25の上側に配置された導光部材182の内部を透過して、該HOE25に到達するようになっている。なお、この導光部材182の内部における光の伝播は、図14に示すように透過のみであっても良いが、透過と内面における全反射とを組み合わせたものであっても構わない。透過と全反射とを組み合わせるような光学設計を行った場合には、透明光学部材15を肉薄にすることが可能となるために、頭部装着部2の軽量化をより一層図ることができる。   As shown in FIG. 14, the transparent optical member 15 includes light guide members 182 and 183 formed with transparent glass, plastic, or the like so as to have a predetermined thickness, and between these light guide members 182 and 183. The HOE 25 is disposed so as to be inclined so as to reflect light backward while being sandwiched. In such a configuration, the light reflected from the HOE 116 passes through the inside of the light guide member 182 disposed on the upper side of the HOE 25 and reaches the HOE 25. The light propagation inside the light guide member 182 may be only transmission as shown in FIG. 14, or may be a combination of transmission and total reflection on the inner surface. When an optical design that combines transmission and total reflection is performed, the transparent optical member 15 can be made thin, so that the weight of the head mounting portion 2 can be further reduced.

なお、シースルー画像表示光学系は、上述したような各部材の内の、LED113と、集光レンズ114と、LCD115と、HOE116と、HOE25と、導光部材182,183と、を含むものとなっている。   The see-through image display optical system includes the LED 113, the condenser lens 114, the LCD 115, the HOE 116, the HOE 25, and the light guide members 182 and 183 among the above-described members. ing.

次に、図15、図16を参照して、視線方向/角速度検出部7における視線方向検出部の光学系の構成の一例について説明する。図15は視線方向検出部の光学系の一構成例を示す一部断面を含む正面図、図16は視線方向検出部の光学系の一構成例を示す左側面図である。   Next, an example of the configuration of the optical system of the line-of-sight direction detection unit in the line-of-sight direction / angular velocity detection unit 7 will be described with reference to FIGS. 15 and 16. FIG. 15 is a front view including a partial cross section showing a configuration example of the optical system of the line-of-sight direction detection unit, and FIG. 16 is a left side view showing a configuration example of the optical system of the line-of-sight direction detection unit.

上記フレーム部13の内部における上記透明光学部材14の上部となる位置に、上記
LED125,集光レンズ126,反射ミラー127,反射ミラー131,結像レンズ132,バンドパスフィルタ133,CCD134が、図15に示すように、順に配置されている。
The LED 125, the condenser lens 126, the reflection mirror 127, the reflection mirror 131, the imaging lens 132, the band pass filter 133, and the CCD 134 are arranged at a position above the transparent optical member 14 in the frame portion 13. As shown in FIG.

上記反射ミラー127の下方となる透明光学部材14内には、ハーフミラー128とHOE24とが配設されている。さらに、該ハーフミラー128の側方となる透明光学部材14内には、HOE129が配設されている。   A half mirror 128 and a HOE 24 are disposed in the transparent optical member 14 below the reflection mirror 127. Further, an HOE 129 is disposed in the transparent optical member 14 on the side of the half mirror 128.

このような構成において、上記LED125から赤外光が発光されると、集光レンズ126により平行光束に変換された後に、反射ミラー127により鉛直下方へ反射される。   In such a configuration, when infrared light is emitted from the LED 125, it is converted into a parallel light beam by the condenser lens 126 and then reflected vertically downward by the reflection mirror 127.

この反射ミラー127により反射された赤外光は、透明光学部材14の内部に入って、該透明光学部材14内に配置されているハーフミラー128を透過し、HOE24により観察者の眼へ向けて反射される。   The infrared light reflected by the reflecting mirror 127 enters the transparent optical member 14, passes through the half mirror 128 disposed in the transparent optical member 14, and is directed toward the observer's eyes by the HOE 24. Reflected.

一方、観察者の眼から反射された赤外光は、上記HOE24により上方へ向けて反射され、さらに、ハーフミラー128により側方へ向けて反射される。この反射光は、さらにHOE129により上方へ向けて反射され、フレーム部13内に配設された反射ミラー131に到達する。   On the other hand, the infrared light reflected from the observer's eyes is reflected upward by the HOE 24 and further reflected laterally by the half mirror 128. The reflected light is further reflected upward by the HOE 129 and reaches the reflecting mirror 131 disposed in the frame portion 13.

この反射ミラー131により側方へ向けて反射された光は、結像レンズ132とバンドパスフィルタ133とを介して、上記HOE24により反射された赤外光の波長域に係る観察者の眼の像として、CCD134上に結像される。   The light reflected to the side by the reflecting mirror 131 passes through the imaging lens 132 and the band-pass filter 133, and the image of the eye of the observer relating to the wavelength range of the infrared light reflected by the HOE 24. As shown in FIG.

このCCD134によって変換された画像信号は、上記CDS/AGC回路136、A/D変換回路137、多重化回路104等を介して、上記制御/記録部4へ転送され、該制御/記録部4内の第1CPU161において、後述するように、プルキンエ像の位置と、瞳孔の中心位置と、が求められ、さらにこれらの相対的な関係から視線方向が求められる。   The image signal converted by the CCD 134 is transferred to the control / recording unit 4 via the CDS / AGC circuit 136, the A / D conversion circuit 137, the multiplexing circuit 104, etc. In the first CPU 161, as will be described later, the position of the Purkinje image and the center position of the pupil are obtained, and the line-of-sight direction is obtained from the relative relationship therebetween.

なお、上記ハーフミラー128およびHOE129は、このように例えば透明光学部材14内に配置されるが、このときの位置としては、この頭部装着部2を装着して被写体を観察する観察者の視界に通常入り難いような上部であることが望ましい。   The half mirror 128 and the HOE 129 are arranged in the transparent optical member 14 as described above, and the position at this time is the field of view of an observer who observes the subject wearing the head mounting portion 2. It is desirable to have an upper portion that is difficult to enter.

これら図15、図16に示したような構成によれば、高い波長選択性と、選択された波長域の光に対する高い反射率と、を有するHOE24を用いるとともに、同様の波長選択性を有するバンドパスフィルタ133をCCD134の前に配置しているために、高いS/N比の信号を得ることが可能になる。   According to the configuration shown in FIGS. 15 and 16, the HOE 24 having high wavelength selectivity and high reflectance with respect to light in the selected wavelength band is used, and bands having similar wavelength selectivity are used. Since the pass filter 133 is disposed in front of the CCD 134, a signal with a high S / N ratio can be obtained.

そして、このような構成により、被写体を観察している観察者の視線方向を、正確に求めることが可能となる。   With such a configuration, it is possible to accurately determine the line-of-sight direction of the observer who is observing the subject.

続いて、図17、図18を参照して、視線方向/角速度検出部7における視線方向検出部の光学系の構成の他の例について説明する。図17は視線方向検出部の光学系の他の構成例を示す一部断面を含む正面図、図18は視線方向検出部の光学系の他の構成例を示す左側面図である。   Next, another example of the configuration of the optical system of the visual line direction detection unit in the visual line direction / angular velocity detection unit 7 will be described with reference to FIGS. 17 and 18. FIG. 17 is a front view including a partial cross section showing another configuration example of the optical system of the line-of-sight direction detection unit, and FIG. 18 is a left side view showing another configuration example of the optical system of the line-of-sight direction detection unit.

上記図15、図16に示したような構成は、ハーフミラー128およびHOE129が外光に直接さらされることになるために、外光ノイズがCCD134に到達するのを完全に遮断するのは困難である。これに対して、この図17、図18に示すような構成は、観察者の眼へ赤外光を投光する光路と、観察者の眼により反射された赤外光をCCD134により受光する光路と、を完全に分離するようにしたものとなっている。   In the configuration shown in FIGS. 15 and 16, since the half mirror 128 and the HOE 129 are directly exposed to outside light, it is difficult to completely block outside light noise from reaching the CCD 134. is there. On the other hand, in the configuration as shown in FIGS. 17 and 18, an optical path for projecting infrared light to the observer's eye and an optical path for receiving infrared light reflected by the observer's eye by the CCD 134. Are completely separated from each other.

すなわち、この視線方向検出部の光学系においては、上記ハーフミラー128およびHOE129が省略されると共に、HOE24が、上記図15に示したものよりも左右方向にやや長くなるように構成されている。   That is, in the optical system of the line-of-sight direction detection unit, the half mirror 128 and the HOE 129 are omitted, and the HOE 24 is configured to be slightly longer in the left-right direction than that shown in FIG.

そして、上記反射ミラー127により反射された赤外光は、このHOE24の例えば左側部分へ向けて、斜めに入射されるようになっている。HOE24は、この反射ミラー127からの赤外光を、観察者の眼へ向けて、水平方向に少し斜めとなるように投射する。   The infrared light reflected by the reflection mirror 127 is incident obliquely toward the left side portion of the HOE 24, for example. The HOE 24 projects the infrared light from the reflection mirror 127 toward the observer's eyes so as to be slightly inclined in the horizontal direction.

一方、観察者の眼からの反射光は、該HOE24の例えば右側部分により受光されて、上記反射ミラー131へ向けてほぼ鉛直真上に反射される。この反射ミラー131以降の構成等は、上記図15、図16に示したものと同様である。   On the other hand, the reflected light from the observer's eyes is received by, for example, the right side portion of the HOE 24 and reflected almost vertically upward toward the reflection mirror 131. The configuration after the reflecting mirror 131 and the like are the same as those shown in FIGS.

これら図17、図18に示したような構成によれば、高い波長選択性と、選択された波長域の光に対する高い反射率と、を有するHOE24を用いるとともに、同様の波長選択性を有するバンドパスフィルタ133をCCD134の前に配置しているために、高いS/N比の信号を得ることが可能になる。そして、外光が照射される透明光学部材14に配置されるのをHOE24のみとしたために、透明光学部材14にハーフミラー128やHOE129が配置されている上記図15、図16の構成に比して、さらに外光ノイズの影響を低減することが可能となる。   According to the configuration shown in FIGS. 17 and 18, the HOE 24 having high wavelength selectivity and high reflectance for light in the selected wavelength band is used, and bands having similar wavelength selectivity are used. Since the pass filter 133 is disposed in front of the CCD 134, a signal with a high S / N ratio can be obtained. Further, since only the HOE 24 is arranged on the transparent optical member 14 to which the external light is irradiated, compared to the configuration of FIGS. 15 and 16 in which the half mirror 128 and the HOE 129 are arranged on the transparent optical member 14. Thus, the influence of external light noise can be further reduced.

なお、透明光学部材14内部における光の伝播は、図16や図18に示したように透過のみであっても良いが、上記透明光学部材15内部における光の伝播と同様に、透過と内面における全反射とを組み合わせたものであっても構わない。この透過と全反射とを組み合わせる光学設計を行う場合には、透明光学部材14を肉薄にすることが可能となって、頭部装着部2の軽量化をより一層図ることができる。   The propagation of light inside the transparent optical member 14 may be only transmission as shown in FIGS. 16 and 18, but the transmission and transmission on the inner surface are similar to the propagation of light inside the transparent optical member 15. It may be a combination of total reflection. In the case of performing an optical design that combines this transmission and total reflection, the transparent optical member 14 can be made thin, and the weight of the head mounting portion 2 can be further reduced.

次に、撮像部30を、フレーム部13の側面に対して、ピッチ方向およびヨー方向に相対的に角度調整可能となるように取り付ける構成について、図19および図20を参照して説明する。図19は撮像部30をフレーム部13に取り付ける構成を示す平面図および右側面図、図20は撮像部30を取り付けるためにフレーム部13に設けられた孔の構成を示す右側面図である。   Next, a configuration in which the imaging unit 30 is attached to the side surface of the frame unit 13 so that the angle can be relatively adjusted in the pitch direction and the yaw direction will be described with reference to FIGS. 19 and 20. FIG. 19 is a plan view and a right side view showing a configuration for attaching the imaging unit 30 to the frame unit 13, and FIG. 20 is a right side view showing a configuration of holes provided in the frame unit 13 for attaching the imaging unit 30.

本実施例の頭部装着型カメラ1は、撮影者が撮影範囲を示す撮影画枠を指定し、指定された撮影画枠の視角に対応する画角で撮影を行うものであるために、パララックスを補正する必要がある。このパララックスの発生原因として、撮影者の視軸と撮影光軸との水平方向の位置的なずれと、視軸と撮影光軸との角度のずれと、があるが、後者の角度のずれの影響が非常に大きいために、この角度のずれを精密に補正することができるような調整機構(調整手段)を設けたものとなっている。   The head-mounted camera 1 of the present embodiment is one in which a photographer designates a photographing image frame indicating a photographing range and performs photographing at an angle of view corresponding to the viewing angle of the designated photographing image frame. It is necessary to correct the lux. The cause of this parallax is the horizontal positional deviation between the photographer's visual axis and the photographic optical axis, and the angular deviation between the visual axis and the photographic optical axis. Therefore, an adjustment mechanism (adjustment means) is provided that can accurately correct this angular deviation.

フレーム部13とテンプル部12とは、図19(A)に示すように、丁番78を介して、折り畳み可能に接続されている。この丁番78は、上記フレーム部13から延設されるやや長めの継手29を介して、右眼側の丁番79よりもややフロント部11側から離れた位置に配設されている。   As shown in FIG. 19A, the frame portion 13 and the temple portion 12 are connected to each other via a hinge 78 so as to be foldable. The hinge 78 is disposed at a position slightly further away from the front portion 11 side than the hinge 79 on the right eye side via a slightly longer joint 29 extending from the frame portion 13.

上記継手29の側面には、該側面に沿った形状部33aと、該側面から略垂直に立設される形状部33bと、を備えた、正面から見たときに略L形状をなす調整機構(調整手段)たる台座33が接続されるようになっている。この調整機構は、頭部装着型カメラの調整方法が適用される頭部装着型カメラの調整装置における、フロント部11と撮像部30との相対的な角度を調整するための機構であり、該調整機構を用いることにより、撮像部30に含まれる撮影光学系31の光軸と視軸とを調整することが可能となっている。   An adjustment mechanism having a shape portion 33a along the side surface and a shape portion 33b erected substantially perpendicularly from the side surface on the side surface of the joint 29 and having a substantially L shape when viewed from the front. (Adjustment means) A pedestal 33 is connected. The adjustment mechanism is a mechanism for adjusting the relative angle between the front unit 11 and the imaging unit 30 in a head-mounted camera adjustment apparatus to which the head-mounted camera adjustment method is applied. By using the adjustment mechanism, it is possible to adjust the optical axis and the visual axis of the photographing optical system 31 included in the imaging unit 30.

すなわち、上記継手29には、図20に示すように、前方側にピッチ方向調整手段たる孔191が、後方側に該孔191を中心とした円弧状をなすピッチ方向調整手段たる長孔192が、それぞれ穿設されている。これらの孔191,192を介して、ピッチ方向調整手段たるビス34,35をそれぞれ台座33の上記形状部33aに螺合することにより、該台座33が継手29に対して取り付けられている。   That is, as shown in FIG. 20, the joint 29 has a hole 191 as a pitch direction adjusting means on the front side, and a long hole 192 as a pitch direction adjusting means having an arc shape around the hole 191 on the rear side. , Respectively. The pedestal 33 is attached to the joint 29 by screwing the screws 34 and 35 serving as pitch direction adjusting means into the shape portion 33 a of the pedestal 33 through these holes 191 and 192.

また、上記台座33の形状部33bには、図19(A)に示すように、前方側にヨー方向調整手段たる孔193が、後方側に該孔193を中心とした円弧状をなすヨー方向調整手段たる長孔194が、それぞれ穿設されている。これらの孔193,194を介して、図19(B)に示すように、ヨー方向調整手段たるビス36,37をそれぞれ撮像部30の底面側に螺合することにより、該撮像部30が台座33に対して取り付けられている。なお、上記撮像部30の背面側からはケーブル38が延出されていて、被写体側に曲折された後に、上記フレーム部13内の電気回路等に接続されている。   Further, in the shape portion 33b of the pedestal 33, as shown in FIG. 19A, a hole 193 serving as a yaw direction adjusting means is formed on the front side, and a yaw direction having an arc shape centered on the hole 193 is formed on the rear side. Long holes 194 serving as adjusting means are respectively formed. Through these holes 193 and 194, as shown in FIG. 19B, screws 36 and 37, which are yaw direction adjusting means, are screwed to the bottom surface side of the imaging unit 30, respectively, so that the imaging unit 30 is mounted on the base. 33 is attached. A cable 38 extends from the back side of the imaging unit 30 and is bent to the subject side before being connected to an electrical circuit or the like in the frame unit 13.

このような構成において、ビス34およびビス35をやや緩めた状態で、ビス35が挿通される長孔192内の位置を変更することにより、台座33がビス34を中心として回動し、台座33、ひいてはこの台座33に取り付けられている撮像部30のピッチ方向の角度調整を行うことができる。こうして、所望の位置に調整された後には、上記ビス34およびビス35を固締めすれば良い。   In such a configuration, by changing the position in the long hole 192 through which the screw 35 is inserted in a state where the screw 34 and the screw 35 are slightly loosened, the pedestal 33 rotates around the screw 34, and the pedestal 33 As a result, the angle of the imaging unit 30 attached to the pedestal 33 can be adjusted in the pitch direction. Thus, after the adjustment to the desired position, the screw 34 and the screw 35 may be tightened.

同様に、ビス36およびビス37をやや緩めた状態で、ビス37が挿通される長孔194内の位置を変更することにより、撮像部30がビス36を中心として台座33に対して回動し、該撮像部30のヨー方向の角度調整を行うことができる。こうして、所望の位置に調整された後には、同様に、上記ビス36およびビス37を固締めすることになる。   Similarly, by changing the position in the long hole 194 through which the screw 37 is inserted while the screw 36 and the screw 37 are slightly loosened, the imaging unit 30 rotates with respect to the base 33 around the screw 36. The angle of the imaging unit 30 in the yaw direction can be adjusted. Thus, after the adjustment to the desired position, the screws 36 and 37 are similarly fastened.

このような構成によれば、シースルー画像表示部6と撮像部30との相対的なピッチ方向およびヨー方向の角度調整を行うことが可能となる。さらに、撮像部30が台座を介してフロント部11に固定されているために、テンプル部12を折り畳んでも撮像部30が折り畳まれることはなく、撮像部30とシースルー画像表示部6との相対的な角度ずれが発生する可能性が小さくなる。また、調整機構が簡単であるために、安価に構成することが可能となる。   According to such a configuration, it is possible to adjust the relative angle between the see-through image display unit 6 and the imaging unit 30 in the pitch direction and the yaw direction. Further, since the imaging unit 30 is fixed to the front unit 11 via the pedestal, the imaging unit 30 is not folded even if the temple unit 12 is folded, and the imaging unit 30 and the see-through image display unit 6 are relatively relative to each other. The possibility that a large angular deviation will occur is reduced. Further, since the adjustment mechanism is simple, it can be configured at low cost.

なお、上述においては、撮像部30と台座33との相対的なヨー方向の角度を調整し、フレーム部13の側面の継手29と台座33との相対的なピッチ方向の角度を調整するようにしたが、これとは逆に、台座33に対する撮像部30の取り付け位置を変更することにより、撮像部30と台座33との相対的なピッチ方向の角度を調整し、台座33に対するフレーム部13の取り付け位置を変更することにより、フレーム部13の側面の継手29と台座33との相対的なヨー方向の角度を調整するように構成することも可能である。   In the above description, the relative angle in the yaw direction between the imaging unit 30 and the pedestal 33 is adjusted, and the relative pitch direction angle between the joint 29 on the side surface of the frame 13 and the pedestal 33 is adjusted. However, on the contrary, by changing the mounting position of the imaging unit 30 with respect to the pedestal 33, the angle of the relative pitch direction between the imaging unit 30 and the pedestal 33 is adjusted, and the frame unit 13 with respect to the pedestal 33 is adjusted. By changing the attachment position, it is also possible to adjust the relative angle in the yaw direction between the joint 29 on the side surface of the frame portion 13 and the pedestal 33.

続いて、図21から図31を参照して、シースルー画像表示部6による画像の表示例について説明する。   Next, an example of displaying an image by the see-through image display unit 6 will be described with reference to FIGS.

まず、図21は、シースルー表示における初期状態の表示例を示す図である。カメラ1の電源を投入するか、またはシステムをリセットしたときに、この図21に示すような表示が行われるようになっている。このときには、図示のように、標準レンズ(例えば、画角が50度であるものとする)に相当する撮影範囲を示す撮影画枠201がシースルー表示される(つまり、撮影者から見たときの視角が50度となるような撮影画枠201がシースルー表示される)ようになっている。   First, FIG. 21 is a diagram illustrating a display example of an initial state in the see-through display. When the camera 1 is turned on or the system is reset, the display as shown in FIG. 21 is performed. At this time, as shown in the drawing, a photographic image frame 201 indicating a photographing range corresponding to a standard lens (for example, an angle of view is 50 degrees) is displayed in a see-through manner (that is, as viewed from the photographer). A photographed image frame 201 with a viewing angle of 50 degrees is displayed in a see-through manner).

次に、図22は、テレへのズームが行われたときの表示例を示す図である。表示される撮影画枠201が、上記図21に示したよりもテレに対応する撮影範囲を示すものになっている。この撮影画枠201の変更は、上述したように、例えば上記ズームスイッチ75の操作により行われ、このときには撮像部30の撮影画角も該撮影画枠201の視角に一致するように、上記撮影光学系31の焦点距離が変更される。具体的には、上記図21に示したような標準レンズの焦点距離に対応する撮影範囲において、該ズームスイッチ75のテレスイッチ75aを操作することにより、この図22に示すような望遠側への変更が行われる。   Next, FIG. 22 is a diagram illustrating a display example when zooming to tele is performed. The displayed photographic image frame 201 indicates a photographic range corresponding to telephoto than shown in FIG. As described above, the change of the photographic image frame 201 is performed by, for example, operating the zoom switch 75. At this time, the photographic image angle of the imaging unit 30 is also matched with the viewing angle of the photographic image frame 201. The focal length of the optical system 31 is changed. Specifically, by operating the tele switch 75a of the zoom switch 75 in the photographing range corresponding to the focal length of the standard lens as shown in FIG. 21, the telephoto side as shown in FIG. Changes are made.

続いて、図23は、ワイドへのズームおよび露出補正が行われたときの表示例を示す図である。表示される撮影画枠201が、上記図21に示したよりもワイドに対応する撮影範囲を示すものになっているとともに、この撮影画枠201の例えば右下に、露出補正量が情報表示202として表示されている。この図に示す例では、例えば上記露出補正スイッチ76により、+1.0の露出補正が行われたことが示されている。なお、露出補正は、数字で示すに限るものではなく、棒グラフや指標などの各種の表示を用いても構わないことは勿論である。また、この図23に示すような撮影画枠201は、例えば上記図21に示したような標準レンズの焦点距離に対応する撮影範囲において、上記ズームスイッチ75のワイドスイッチ75bを操作することにより、設定される。   Next, FIG. 23 is a diagram illustrating a display example when zoom to wide and exposure correction are performed. The displayed photographic image frame 201 indicates a photographic range corresponding to a wider range than that shown in FIG. 21, and the exposure correction amount is displayed as an information display 202 at the lower right of the photographic image frame 201, for example. It is displayed. In the example shown in this figure, it is shown that +1.0 exposure correction is performed by the exposure correction switch 76, for example. It should be noted that exposure correction is not limited to being indicated by numbers, and it is needless to say that various displays such as bar graphs and indices may be used. 23 is operated by operating the wide switch 75b of the zoom switch 75 in the shooting range corresponding to the focal length of the standard lens as shown in FIG. 21, for example. Is set.

また、図24は、電子ビュー表示を行うときの表示例を示す図である。例えば上記F/Vスイッチ72によりビューモード(V)が選択されると、この図に示すように、撮像部30で撮像された電子画像203が虚像として撮影者の目に投影されるようになっている。なお、この電子ビューとして表示する画像の大きさは、該画像の解像度により設定することができ、例えば解像度が低い場合は画像を小さく表示すれば良い。   FIG. 24 is a diagram illustrating a display example when electronic view display is performed. For example, when the view mode (V) is selected by the F / V switch 72, as shown in this figure, the electronic image 203 picked up by the image pickup unit 30 is projected as a virtual image to the photographer's eyes. ing. Note that the size of the image displayed as the electronic view can be set according to the resolution of the image. For example, when the resolution is low, the image may be displayed small.

図25は、動画を録画中の表示例を示す図である。例えば上記録画スイッチ74が操作されて録画中となったときには、この図25に示すように、撮影範囲を示す撮影画枠201が表示されるとともに、録画中であることを示す情報表示204が「REC」の文字として、撮影画枠201の例えば右下に表示されるようになっている。この録画中であることを示す表示も、上述と同様に、文字に限るものではない。   FIG. 25 is a diagram illustrating a display example during video recording. For example, when the recording switch 74 is operated and recording is in progress, as shown in FIG. 25, a shooting image frame 201 indicating the shooting range is displayed and an information display 204 indicating that recording is in progress is displayed. The characters “REC” are displayed, for example, in the lower right of the photographic image frame 201. The display indicating that recording is in progress is not limited to characters, as described above.

図26は、マニュアルモード時の表示例を示す図である。例えば上記FA/A/Mスイッチ71が操作されることによりマニュアルモード(M)に設定されているときには、該マニュアルモード(M)を示す情報表示205が「MANU」の文字として、撮影画枠201の例えば右下に表示されるようになっている。一方、「MANU」の情報表示205が行われていないときには、オートモード(A)であることになる。   FIG. 26 is a diagram illustrating a display example in the manual mode. For example, when the manual mode (M) is set by operating the FA / A / M switch 71, the information display 205 indicating the manual mode (M) is displayed as “MANU” as a photographic image frame 201. For example, it is displayed in the lower right. On the other hand, when the “MANU” information display 205 is not performed, the auto mode (A) is set.

図27は、フルオートモードで動画を録画中の表示例を示す図である。例えば上記FA/A/Mスイッチ71が操作されることによりフルオートモード(FA)に設定されていて、かつ録画スイッチ74が操作されて録画中となったときには、この図27に示すように、撮影範囲を示す撮影画枠201が表示されるとともに、フルオートモードであることを示す情報表示206が「FA」の文字として、また、録画中であることを示す情報表示207が「REC」の文字として、撮影画枠201の例えば右下に表示されるようになっている。これらのフルオードモードであることや録画中であることを示す表示も、上述と同様に、文字に限るものではない。   FIG. 27 is a diagram illustrating a display example during video recording in the full auto mode. For example, when the full auto mode (FA) is set by operating the FA / A / M switch 71 and the recording switch 74 is operated and recording is in progress, as shown in FIG. A shooting frame 201 indicating the shooting range is displayed, an information display 206 indicating that the camera is in the full auto mode is displayed as “FA”, and an information display 207 indicating that recording is being performed is displayed as “REC”. For example, the characters are displayed at the lower right of the photographic image frame 201 as characters. The display indicating the full mode or recording is not limited to characters, as described above.

図28は、撮影光学系31の焦点距離fが焦点調節可能な下限値k1に達しているにもかかわらず、さらに小さい方へ操作されようとしている場合にシースルー表示される警告表示208の例を示す図である。すなわち、ワイド側へのズーム操作を行ってズームのワイド端に達したときに、依然としてワイド側へのズーム操作が行われている場合に、この警告表示208が撮影範囲を示す撮影画枠201の表示とともに行われる。   FIG. 28 shows an example of a warning display 208 displayed in a see-through manner when the focal length f of the photographic optical system 31 has reached the lower limit value k1 at which the focus can be adjusted, and when it is about to be operated to a smaller value. FIG. That is, when the zoom operation to the wide side is performed and the wide end of the zoom is reached, when the zoom operation to the wide side is still being performed, the warning display 208 shows the shooting image frame 201 indicating the shooting range. It is done with the display.

図29は、撮影光学系31の焦点距離fが焦点調節可能な上限値k2に達しているにもかかわらず、さらに大きい方へ操作されようとしている場合にシースルー表示される警告表示209の例を示す図である。すなわち、テレ側へのズーム操作を行ってズームのテレ端に達したときに、依然としてテレ側へのズーム操作が行われている場合に、この警告表示209が撮影範囲を示す撮影画枠201の表示とともに行われる。   FIG. 29 shows an example of a warning display 209 that is displayed see-through when the focal length f of the photographic optical system 31 has reached the upper limit value k2 at which the focus can be adjusted, and is about to be operated further. FIG. That is, when the zoom operation to the tele side is performed and the tele end of the zoom is reached, when the zoom operation to the tele side is still being performed, this warning display 209 indicates the shooting image frame 201 indicating the shooting range. It is done with the display.

図30は、静止画を撮影する操作が行われたときの表示例を示す図である。このときには、撮影範囲を示す撮影画枠201が表示されるとともに、静止画を記録したことを示す情報表示210が「REL」の文字として、撮影画枠201の例えば右下に表示されるようになっている。この静止画を記録したことを示す表示も、上述と同様に、文字に限るものではない。   FIG. 30 is a diagram illustrating a display example when an operation for capturing a still image is performed. At this time, the photographic image frame 201 indicating the photographic range is displayed, and the information display 210 indicating that the still image has been recorded is displayed as, for example, the lower right of the photographic image frame 201 as the characters “REL”. It has become. The display indicating that this still image has been recorded is not limited to characters, as described above.

図31は、キャリブレーションモードにおける表示例を示す図である。例えば、上記第1操作スイッチ162のメニューボタン63やメニュー選択スイッチ66,67,68,69、確定スイッチ65などを操作することによりキャリブレーションモードが選択されると、この図31に示すような表示を行うようになっている。すなわち、ここでは、キャリブレーションモードであることを示す情報表示211が、「CAL」の文字として、視野の例えば右下に表示されるとともに、さらに、キャリブレーション用の指標P1〜P5が、後述するように、順次点滅して表示されるようになっている。これらの内の、指標P1は視野の中央部に、指標P2は視野の上部に、指標P3は視野の右側部に、指標P4は視野の下部に、指標P5は視野の左側部に、それぞれ表示される。   FIG. 31 is a diagram illustrating a display example in the calibration mode. For example, when the calibration mode is selected by operating the menu button 63 of the first operation switch 162, the menu selection switches 66, 67, 68, 69, the confirmation switch 65, etc., the display as shown in FIG. Is supposed to do. That is, here, the information display 211 indicating the calibration mode is displayed as, for example, the lower right of the field of view as the characters “CAL”, and the calibration indices P1 to P5 are described later. In this way, they are displayed blinking sequentially. Of these, the index P1 is displayed at the center of the field of view, the index P2 is displayed at the top of the field of view, the index P3 is displayed at the right side of the field of view, the index P4 is displayed at the bottom of the field of view, and the index P5 is displayed at the left side of the field of view. Is done.

なお、上述したような各表示において、通常の情報表示は上記LED113の中の例えばG(緑)のダイオードを発光させることにより行い、警告表示は上記LED113の中の例えばR(赤)のダイオードを発光させることにより行うようにすると良い。   In each display as described above, normal information display is performed by causing, for example, a G (green) diode in the LED 113 to emit light, and a warning display is performed by, for example, an R (red) diode in the LED 113. It is good to perform by emitting light.

次に、図32〜図34を参照して、上述したような被写体までの距離に基づくパララックスの補正の原理について説明する。図32は被写体と撮影光学系とCCDとの光学的な関係を説明するための図、図33はHOEとこのHOEにより形成される虚像と眼との光学的な関係を説明するための図、図34はパララックスを補正するのに必要な虚像のシフト量を説明するための図である。   Next, the principle of parallax correction based on the distance to the subject as described above will be described with reference to FIGS. FIG. 32 is a diagram for explaining the optical relationship between the subject, the photographing optical system, and the CCD, and FIG. 33 is a diagram for explaining the optical relationship between the HOE, the virtual image formed by the HOE, and the eye. FIG. 34 is a diagram for explaining the shift amount of the virtual image necessary for correcting the parallax.

図32に示すように、CCD87の撮像領域の水平方向のサイズをh2、撮影光学系31の焦点距離をf、撮影光学系31の主点からCCD87までの距離をf+x、撮影光学系31の主点から被写体Oまでの距離をL2、CCD87で撮影される被写体Oの水平方向の長さをH2、水平方向の撮影画角をθ2、とすると、次の数式1に示すような関係式が成り立つ。
[数1]

Figure 2005252733
As shown in FIG. 32, the horizontal size of the imaging area of the CCD 87 is h2, the focal length of the imaging optical system 31 is f, the distance from the main point of the imaging optical system 31 to the CCD 87 is f + x, and the main of the imaging optical system 31 is When the distance from the point to the subject O is L2, the horizontal length of the subject O photographed by the CCD 87 is H2, and the horizontal shooting angle of view is θ2, the following relational expression is established. .
[Equation 1]
Figure 2005252733

一方、図33に示すように、撮影者の瞳Pの位置から撮影範囲を示す水平方向の撮影画枠の位置(虚像VI)までの距離をL1、該撮影画枠の水平方向の長さをH1、瞳Pの位置から水平方向の長さH1でなる該撮影画枠を見込む角度(視角)をθ1とすると、次の数式2に示すような関係式が成り立つ。
[数2]

Figure 2005252733
On the other hand, as shown in FIG. 33, the distance from the position of the photographer's pupil P to the position of the horizontal shooting image frame (virtual image VI) indicating the shooting range is L1, and the horizontal length of the shooting image frame is Assuming that the angle (viewing angle) at which the photographed image frame having the horizontal length H1 from the position of H1 and pupil P is viewed as θ1, the following relational expression is established.
[Equation 2]
Figure 2005252733

撮影者が設定した撮影範囲で撮影するためには、撮影画角と視角が等しくなること、すなわち、θ2=θ1であることが必要である。このθ2=θ1が成り立つ条件の下では、数式1の右辺と数式2の右辺とが等しくなるために、撮影光学系31の焦点距離fは、次の数式3に示すように求められる。
[数3]

Figure 2005252733
In order to shoot in the shooting range set by the photographer, it is necessary that the shooting angle of view is equal to the viewing angle, that is, θ2 = θ1. Under the condition that θ2 = θ1 holds, the right side of Formula 1 and the right side of Formula 2 are equal, so the focal length f of the photographic optical system 31 is obtained as shown in Formula 3 below.
[Equation 3]
Figure 2005252733

一方、レンズの結像原理から、次の数式4が成り立つ。
[数4]

Figure 2005252733
On the other hand, the following formula 4 is established from the imaging principle of the lens.
[Equation 4]
Figure 2005252733

これら数式3と数式4とから、xを消去することにより、次の数式5が導かれる。
[数5]

Figure 2005252733
From these Formula 3 and Formula 4, the following Formula 5 is derived by erasing x.
[Equation 5]
Figure 2005252733

この数式5から、被写体距離L2を求めることができれば焦点距離fを求めることができることがわかる。   From Equation 5, it can be seen that if the subject distance L2 can be obtained, the focal length f can be obtained.

ここで、通常の被写体においてはh2/L2≪H1/L1の関係が成立するために、計算を簡略化したいときや、被写体距離を求める手段を備えていないときは、次の数式6により近似値を求めることができる。
[数6]

Figure 2005252733
Here, since the relationship of h2 / L2 << H1 / L1 is established in a normal subject, when it is desired to simplify the calculation or when a means for obtaining the subject distance is not provided, an approximate value is obtained by the following formula 6. Can be requested.
[Equation 6]
Figure 2005252733

次に、パララックスの補正原理について、図34を参照して説明する。   Next, the principle of parallax correction will be described with reference to FIG.

まず、パララックスの補正の原理を説明する際の前提条件として、撮影光学系31の光軸方向と撮影者の視軸の方向とは、ともに顔面に対して垂直であるものとし、これらの光軸と視軸とは距離Xだけ隔てて配置されているものとする。ここに、パララックスは、光軸と視軸とが距離Xだけ離れていることに起因して発生するものである。なお、光軸と視軸とが相対的に傾いている場合には、大きなパララックスを生ずる要因となり得るために、これらは平行となるように調整する必要がある。このために、上記図19、図20に示したような調整機構を用いて、光軸と視軸との調整を行うようになっている。   First, as a precondition for explaining the principle of parallax correction, it is assumed that the optical axis direction of the photographing optical system 31 and the direction of the visual axis of the photographer are both perpendicular to the face. It is assumed that the axis and the visual axis are spaced apart by a distance X. Here, the parallax is generated due to the distance X between the optical axis and the visual axis. Note that when the optical axis and the visual axis are relatively inclined, it may cause a large parallax, so that they need to be adjusted to be parallel. For this purpose, the adjustment between the optical axis and the visual axis is performed using the adjustment mechanism as shown in FIGS.

図34の実線および点線に示すように、もし、撮影範囲を示す撮影画枠の虚像VI0までの距離と、被写体Oまでの距離と、が同じであれば、撮影者が観察している範囲と撮像部30が撮像している範囲とのずれ量(パララックス)は、Xとなって不変である。しかし、実際には、撮影者の瞳Pから虚像VI1までの距離L1は、撮影光学系の主点から被写体Oまでの距離L2と異なるために、虚像としての撮影画枠が示す範囲を実際の撮像範囲に合致させるためのパララックス補正量X’は、次の数式7に示すようになる。
[数7]

Figure 2005252733
As shown by a solid line and a dotted line in FIG. 34, if the distance to the virtual image VI0 of the photographic image frame indicating the photographic range is the same as the distance to the subject O, the range observed by the photographer The amount of deviation (parallax) from the range captured by the imaging unit 30 is X and is unchanged. However, since the distance L1 from the photographer's pupil P to the virtual image VI1 is actually different from the distance L2 from the main point of the photographing optical system to the subject O, the range indicated by the photographing image frame as a virtual image is actually The parallax correction amount X ′ for matching with the imaging range is as shown in the following Expression 7.
[Equation 7]
Figure 2005252733

撮影画枠の虚像VI1の倍率(つまり、LCD115上に表示される像に対する虚像の大きさの比)の逆数をβとすると、パララックスを補正するために、LCD115上に表示する像のシフト量SPは、次の数式8に示すようになる。
[数8]

Figure 2005252733
When the reciprocal of the magnification of the virtual image VI1 in the photographic image frame (that is, the ratio of the size of the virtual image to the image displayed on the LCD 115) is β, the shift amount of the image displayed on the LCD 115 to correct the parallax. The SP is as shown in the following Expression 8.
[Equation 8]
Figure 2005252733

従って、第4CPU111は、この数式8で表わされる量SPだけ、LCD115に表示する像の位置をシフトさせるように、上記LCDドライバ117を制御することになる。これにより、虚像VI1の位置が距離X’だけシフトされて虚像VI2となり、図34の2点鎖線に示すように、虚像の撮影画枠が示す範囲が、実際の撮像範囲に一致する。   Accordingly, the fourth CPU 111 controls the LCD driver 117 so as to shift the position of the image displayed on the LCD 115 by the amount SP expressed by the mathematical formula 8. As a result, the position of the virtual image VI1 is shifted by the distance X ′ to become the virtual image VI2, and the range indicated by the virtual image shooting image frame coincides with the actual imaging range, as indicated by a two-dot chain line in FIG.

このように、パララックス補正を行うためのシフト量SPは、被写体距離L2に依存しているために、被写体距離が異なる毎に、随時行うことが基本となる。   Thus, since the shift amount SP for performing the parallax correction depends on the subject distance L2, it is basically performed whenever the subject distance is different.

しかしながら、例えば、β=1/100、L1=2m、L2=2m、X=4cmの場合を例に取ると、シフト量SPは0.4mmとなるが、このパララックス補正量を次のような数式9、
[数9]

Figure 2005252733
を用いて視角Sθに換算すると、約1度となって、さほど大きなパララックスが生じているとはいえない。このように、通常の撮影を行う場合には、パララックス補正はほとんど必要がないということができる。その一方で、数式9の右辺括弧内は被写体距離L2の逆数に比例しているために、視角Sθが大きくなって上述した数式8によるパララックス補正が必要となってくるのは、L2が小さいとき、つまり近接撮影のとき、であることが分かる。 However, for example, in the case of β = 1/100, L1 = 2m, L2 = 2m, and X = 4 cm, the shift amount SP is 0.4 mm. This parallax correction amount is expressed as follows. Formula 9,
[Equation 9]
Figure 2005252733
Is converted to the viewing angle Sθ, it is about 1 degree, and it cannot be said that a very large parallax occurs. In this way, it can be said that parallax correction is hardly necessary in normal shooting. On the other hand, since the right parenthesis in Equation 9 is proportional to the reciprocal of the subject distance L2, the reason why the viewing angle Sθ increases and the parallax correction according to Equation 8 described above is necessary is small. It can be seen that, that is, close-up shooting.

なお、以上の説明においては、被写体距離L2を三角測距の原理に基づいて求めるようになっている。すなわち、投光用LED16aの光を被写体へ投光して、該被写体から反射した光を上記CCD87で撮像し、該CCD87上の像の位置から、三角測距の原理に基づいて求めるようになっている。   In the above description, the subject distance L2 is obtained based on the principle of triangulation. That is, the light emitted from the LED for projection 16a is projected onto the subject, the light reflected from the subject is imaged by the CCD 87, and the position of the image on the CCD 87 is obtained based on the principle of triangulation. ing.

また、L2は視線方向の被写体距離であるために、投光用LED16aを、視線検出を行う眼になるべく近い位置に配置して、公知の投光方向を制御する手段により、視線方向(θ)に投光するようにすれば良い。   Since L2 is the subject distance in the line-of-sight direction, the LED 16a for light projection is arranged as close as possible to the eye for detecting the line-of-sight, and the line-of-sight direction (θ) is controlled by a known means for controlling the light projection direction. You should make it light up.

さらに、上述したような三角測距の原理に基づいて被写体距離を求める代わりに、オートフォーカスを行ったときのフォーカスレンズ85の位置から被写体距離L2を求めるようにしても構わない。すなわち、被写体の位置が無限大であると仮定して、上記図11に示したようなAF処理回路98により、視線方向(θ)と同じ画角の所定範囲にある被写体の画像信号の高周波成分が最大になる位置に、フォーカスレンズ85を駆動し(いわゆるコントラスト方式による焦点検出を行い)、このフォーカスレンズ85の位置から逆に被写体距離L2を求めるようにすれば良い。この場合には、視線方向(θ)の被写体と、上記AF処理の対象となる視線方向(θ)と同じ画角の被写体と、は厳密には一致しないが、被写体はある大きさを有するために実用上の問題が生じることはない。   Furthermore, instead of obtaining the subject distance based on the principle of triangulation as described above, the subject distance L2 may be obtained from the position of the focus lens 85 when autofocusing is performed. That is, assuming that the position of the subject is infinite, the high-frequency component of the image signal of the subject within the predetermined range of the same angle of view as the line-of-sight direction (θ) is obtained by the AF processing circuit 98 as shown in FIG. The focus lens 85 may be driven to a position where the maximum is obtained (focus detection is performed by a so-called contrast method), and the subject distance L2 may be obtained in reverse from the position of the focus lens 85. In this case, the subject in the line-of-sight direction (θ) and the subject having the same angle of view as the line-of-sight direction (θ) to be subjected to the AF processing do not exactly match, but the subject has a certain size. There is no practical problem.

続いて、図35を参照して、撮像部30と視線方向/角速度検出部7の視線方向検出部とが所定距離だけ隔てて配置されていることに起因して生じるパララックスを考慮する技術について説明する。図35は、視線方向にある被写体を撮像部から見るときの角度の関係を示す図である。   Next, referring to FIG. 35, a technique that takes into account the parallax caused by the imaging unit 30 and the line-of-sight direction detection unit of the line-of-sight direction / angular velocity detection unit 7 being spaced apart by a predetermined distance. explain. FIG. 35 is a diagram illustrating an angle relationship when a subject in the line-of-sight direction is viewed from the imaging unit.

例えば、視線方向/角速度検出部7により検出された視線方向にある被写体に、撮像部30の撮影光学系31のピントを合わせようとする場合を考える。被写体までの距離が遠い場合には、撮像部30から見た撮影者の視線方向にある被写体は、撮影者が実際に注視している被写体にほぼ一致するが、被写体までの距離が近くなると、これらにずれが生じてくる。従って、ずれた位置にある被写体にピントを合わせたとしても、撮影者が注視している被写体にピントが合うとは限らない。図35は、このようなパララックスが生じているときの位置関係の例を示している。   For example, consider a case where the subject of the imaging optical system 31 of the imaging unit 30 is to be focused on the subject in the direction of the visual line detected by the visual line direction / angular velocity detection unit 7. When the distance to the subject is far, the subject in the direction of the photographer's line of sight as viewed from the imaging unit 30 substantially matches the subject that the photographer is actually gazing at, but when the distance to the subject is close, Deviations occur in these. Therefore, even if the subject at the shifted position is focused, the subject that the photographer is gazing at may not be focused. FIG. 35 shows an example of the positional relationship when such parallax occurs.

今、撮影者が、撮影光学系31の光軸と平行な視軸に対して角度θをなす方向の、距離Lにある被写体Oを注視しているものとする。このときに、撮影光学系31の光軸と撮影者の瞳との間の距離をXe とする。また、撮影光学系31の光軸と、撮影光学系31の主点Hと被写体Oを結ぶ直線と、のなす角度をθ’とする。すると、次の数式10が成り立つ。
[数10]

Figure 2005252733
Now, it is assumed that the photographer is gazing at a subject O at a distance L in a direction that forms an angle θ with respect to a visual axis parallel to the optical axis of the photographing optical system 31. At this time, let Xe be the distance between the optical axis of the photographic optical system 31 and the pupil of the photographer. Further, an angle formed by the optical axis of the photographing optical system 31 and a straight line connecting the principal point H of the photographing optical system 31 and the subject O is defined as θ ′. Then, the following formula 10 is established.
[Equation 10]
Figure 2005252733

従って、視線方向/角速度検出部7により検出された視線方向θと、AF処理回路98等により検出された被写体距離Lと、設計的に定まるXe と、をこの数式10に代入して上記角度θ’を求め、この求めた角度θ’の方向に該当する被写体に撮影光学系31のピントを合わせるようにすればよい。なお、被写体距離Lが大きい場合には、数式10の右辺の第2項を無視することができるために、θ’≒θとなり、つまりパララックスの影響をほぼ考えなくて良いことが分かる。   Accordingly, the line-of-sight direction θ detected by the line-of-sight direction / angular velocity detector 7, the subject distance L detected by the AF processing circuit 98, etc., and Xe determined in terms of design are substituted into the equation 10 to obtain the angle θ 'Is obtained, and the photographing optical system 31 may be focused on the subject corresponding to the direction of the obtained angle θ'. When the subject distance L is large, the second term on the right side of Equation 10 can be ignored, so that θ′≈θ, that is, it is understood that the influence of the parallax need not be considered.

なお、上記被写体距離Lは、上述したように、三角測距により求めたものでも良いし、あるいはコントラスト方式により焦点検出を行った結果に基づいて求めたものであっても構わない。   The subject distance L may be obtained by triangulation as described above, or may be obtained based on the result of focus detection by the contrast method.

次に、このようなカメラ1の動作について、図54および図55を参照して説明する。図54はカメラの動作の一部を示すフローチャート、図55はカメラの動作の他の一部を示すフローチャートである。これら図54および図55は、カメラの動作の流れを、図面の都合上、2図に分割して示したものである。   Next, the operation of the camera 1 will be described with reference to FIGS. 54 and 55. FIG. 54 is a flowchart showing a part of the operation of the camera, and FIG. 55 is a flowchart showing another part of the operation of the camera. 54 and 55 show the operation flow of the camera divided into two diagrams for convenience of drawing.

このカメラ1の電源を投入するか、またはシステムをリセットすると、標準レンズ(上述したように、例えば、画角が50度となる。)に相当する撮影範囲を示す撮影画枠を、上記シースルー画像表示部6により上記図21に示したようにシースルー表示する(ステップS1)。   When the camera 1 is turned on or the system is reset, a photographic image frame indicating a photographing range corresponding to a standard lens (for example, the angle of view is 50 degrees as described above) is displayed on the see-through image. See-through display is performed as shown in FIG. 21 by the display unit 6 (step S1).

次に、上記第2CPU121に内蔵されているタイマ123をチェックすることにより、所定時間が経過したか否かを判断する(ステップS2)。   Next, it is determined whether or not a predetermined time has elapsed by checking a timer 123 built in the second CPU 121 (step S2).

ここで、所定時間が経過していると判断された場合には、図8に示したような第1操作スイッチ162や、図10に示したような第2操作スイッチ171などの各種スイッチの入力状況をモニタする(ステップS3)。   Here, if it is determined that the predetermined time has elapsed, input of various switches such as the first operation switch 162 as shown in FIG. 8 and the second operation switch 171 as shown in FIG. The situation is monitored (step S3).

なお、上記ステップS2におけるタイマは、所定時間が経過して上記ステップS3に移行した時点で、再度、計時を開始するものとなっている。そして、タイマによる計時が所定時間に達していないときには、上記ステップS3におけるスイッチのモニタは行わないようになっている。このように、タイマをチェックしながら所定の時間間隔でスイッチの入力状況を確認することにより、各CPUの負荷を軽減することができるとともに、スイッチのチャタリングによる誤動作を防止することも可能となっている。なお、後述するステップS14,S20,S25のタイマは、上記ステップS2におけるタイマと同様の機能を果たすものとなっている。   The timer in step S2 starts counting again when the predetermined time has passed and the process proceeds to step S3. When the time measured by the timer has not reached the predetermined time, the switch is not monitored in step S3. In this way, by checking the switch input status at predetermined time intervals while checking the timer, it is possible to reduce the load on each CPU and to prevent malfunction due to switch chattering. Yes. Note that the timers in steps S14, S20, and S25, which will be described later, perform the same functions as the timers in step S2.

上記ステップS3の処理が終了したら、次に、後述するような危険防止のサブルーチンを実行する(ステップS4)。   When the process of step S3 is completed, a danger prevention subroutine as described later is executed (step S4).

このステップS4の処理が終了するか、または上記ステップS2において所定時間が経過していないと判断された場合には、カメラ1が、オートモード(A)もしくはマニュアルモード(M)の何れかに設定されているか、または、これらのモード以外(つまりフルオートモード(FA))に設定されているか、を判断する(ステップS5)。このモード設定は、上述したように、FA/A/Mスイッチ71の操作により行われるものである。   When the process of step S4 ends or when it is determined in step S2 that the predetermined time has not elapsed, the camera 1 is set to either the auto mode (A) or the manual mode (M). It is determined whether or not these modes are set or a mode other than these modes (ie, full auto mode (FA)) is set (step S5). This mode setting is performed by operating the FA / A / M switch 71 as described above.

ここで、オートモード(A)でもマニュアルモード(M)でもなく、つまりフルオートモード(FA)であると判断されたときは、録画スイッチ74により録画モードに設定されているか否かを判断する(ステップS6)。   Here, when it is determined that neither the auto mode (A) nor the manual mode (M), that is, the full auto mode (FA) is determined, it is determined whether or not the recording mode is set by the recording switch 74 ( Step S6).

ここで、もし録画モードに設定されていないときには、上記ステップS2へ戻って、上述したような処理を繰り返して行う。   Here, if the recording mode is not set, the process returns to step S2 and the above-described processing is repeated.

また、上記ステップS6において、録画モードに設定されていると判断された場合には、標準撮影画枠に設定するとともに、フルオートモードであることを示す情報表示206(文字「FA」)と、録画中であることを示す情報表示207(文字「REC」)と、を上記図27に示したようにシースルー表示する(ステップS7)。   If it is determined in step S6 that the recording mode is set, the information display 206 (character “FA”) indicating that the recording mode is set and the full auto mode is set, An information display 207 (character “REC”) indicating that recording is in progress is displayed in a see-through manner as shown in FIG. 27 (step S7).

そして、動画データ、角速度データ、視線方向データ、音声データを、上記記録用メモリ157に後述する図43に示すように記録してから(ステップS8)、上記ステップS2へ戻って、上述したような処理を繰り返して行う。   Then, the moving image data, the angular velocity data, the line-of-sight direction data, and the audio data are recorded in the recording memory 157 as shown in FIG. 43 described later (step S8), and the process returns to the step S2 as described above. Repeat the process.

一方、上記ステップS5において、オートモード(A)またはマニュアルモード(M)の何れかが設定されていると判断された場合には、露出補正が設定されているか否かを判断する(ステップS9)。   On the other hand, if it is determined in step S5 that either the auto mode (A) or the manual mode (M) is set, it is determined whether exposure correction is set (step S9). .

ここで、露出補正が設定されていると判断された場合には、例えば図23に示したように、設定されている露出補正量(補正値)を情報表示202としてシースルー表示する(ステップS10)。   If it is determined that exposure correction is set, for example, as shown in FIG. 23, the set exposure correction amount (correction value) is displayed as an information display 202 as a see-through display (step S10). .

このステップS10の処理が終了するか、または上記ステップS9において露出補正が設定されていないと判断された場合には、カメラ1が、撮像部30で撮像された画像をシースルー表示するビューモード(V)に設定されているか、または、撮影範囲である撮影画枠のみを表示するフレームモード(F)に設定されているかを判断する(ステップS11)。このモード設定は、上述したように、F/Vスイッチ72の操作により行われるものである。   When the process of step S10 ends or when it is determined in step S9 that exposure correction has not been set, the view mode (V) in which the camera 1 displays the image captured by the imaging unit 30 in a see-through manner. ) Or the frame mode (F) for displaying only the photographic image frame that is the photographic range is determined (step S11). This mode setting is performed by operating the F / V switch 72 as described above.

ここで、モードがフレームモード(F)に設定されていると判断されたときには、次に、カメラ1が、オートモード(A)に設定されているか、または、マニュアルモード(M)に設定されているか、を判断する(ステップS12)。このモード設定は、上述したように、FA/A/Mスイッチ71の操作により行われるものである。   Here, when it is determined that the mode is set to the frame mode (F), the camera 1 is then set to the auto mode (A) or set to the manual mode (M). (Step S12). This mode setting is performed by operating the FA / A / M switch 71 as described above.

ここに、オートモード(A)は、撮影光学系31の焦点距離が所定値以上であるときは、フレームモード(F)に設定されていても、撮像部30により撮像された画像を自動的に拡大してシースルー表示するモードとなっている。このような表示を行うことにより、望遠撮影においても面倒な操作を行うことなく被写体の詳細を容易に確認することができるとともに、通常の焦点距離(上記所定値未満の焦点距離)においては撮影範囲を示す撮影画枠が表示されるのみであるために、長時間の撮影においても違和感なく撮影を行うことが可能となる。   Here, in the auto mode (A), when the focal length of the photographing optical system 31 is equal to or greater than a predetermined value, the image picked up by the image pickup unit 30 is automatically set even if the frame mode (F) is set. It is a mode to enlarge and see-through display. By performing such a display, it is possible to easily confirm the details of the subject without performing troublesome operations even in telephoto shooting, and at the normal focal length (focal length less than the predetermined value), the shooting range. Since only a photographic image frame indicating is displayed, it is possible to shoot without a sense of incongruity even during long-time shooting.

一方、マニュアルモードは、上述したように、上記シースルー表示を行うか否かをマニュアルで設定するものであり、通常は撮影画枠の表示のみを行うモードである。   On the other hand, as described above, the manual mode is a mode in which whether or not to perform the see-through display is manually set, and is usually a mode in which only the photographic image frame is displayed.

上記ステップS12において、マニュアルモード(M)が選択されていると判断された場合には、上記図26に示したように「MANU」の情報表示205を行う(ステップS13)。   If it is determined in step S12 that the manual mode (M) is selected, the “MANU” information display 205 is performed as shown in FIG. 26 (step S13).

そして、タイマをチェックすることにより、所定時間が経過したか否かを判断する(ステップS14)。   Then, it is determined whether or not a predetermined time has elapsed by checking the timer (step S14).

ここで、所定時間が経過している場合には、上記ステップS4の危険防止の処理において、後述する図56のステップS41で求めた被写体までの距離に基づき、撮影者の観察している範囲と撮像部30による撮影範囲とのずれであるパララックスを補正するために必要な補正値を上述したような原理に基づき算出する(ステップS15)。   Here, when the predetermined time has elapsed, in the risk prevention process in step S4, based on the distance to the subject obtained in step S41 in FIG. A correction value necessary for correcting the parallax, which is a deviation from the imaging range by the imaging unit 30, is calculated based on the principle as described above (step S15).

そして、このステップS15で算出された補正値に基づいて、正しい位置に撮影画枠を表示するように、撮影画枠の表示を更新する(ステップS16)。このような処理を行うことにより、被写体距離が変化した場合にも、正確に撮影範囲を表示することができるようになっている。   Based on the correction value calculated in step S15, the display of the photographic image frame is updated so that the photographic image frame is displayed at the correct position (step S16). By performing such processing, the shooting range can be accurately displayed even when the subject distance changes.

一方、上記ステップS12において、オートモード(A)に設定されていると判断されたときは、次に、撮影光学系31の焦点距離が所定値αよりも大きい望遠側に設定されているか否かを判断する(ステップS17)。   On the other hand, if it is determined in step S12 that the auto mode (A) is set, then whether or not the focal length of the photographing optical system 31 is set to the telephoto side larger than the predetermined value α is determined. Is determined (step S17).

ここで、撮影光学系31の焦点距離が所定値α以下であると判断された場合には、上記ステップS14の処理に移行する。また、撮影光学系31の焦点距離が所定値αよりも大きいと判断された場合、あるいは上記ステップS11において、ビューモード(V)が設定されていると判断された場合には、撮像部30により撮像した電子画像をシースルー画像表示部6により被写体に重畳してシースルー表示する(ステップS18)。   If it is determined that the focal length of the photographic optical system 31 is equal to or less than the predetermined value α, the process proceeds to step S14. When it is determined that the focal length of the photographic optical system 31 is greater than the predetermined value α, or when it is determined in step S11 that the view mode (V) is set, the imaging unit 30 The captured electronic image is superimposed on the subject by the see-through image display unit 6 and displayed in a see-through manner (step S18).

このステップS18の処理が終了した場合、上記ステップS16の処理が終了した場合、または上記ステップS14において所定時間が経過していないと判断された場合には、撮影者が上記リモコン部5のワイドスイッチ75bを操作することにより、撮影画枠の大きさを広く(W)したか否かを判断する(ステップS19)。   When the process of step S18 is completed, when the process of step S16 is completed, or when it is determined in step S14 that the predetermined time has not elapsed, the photographer switches the wide switch of the remote control unit 5. It is determined whether or not the size of the photographic image frame has been widened (W) by operating 75b (step S19).

ここで、撮影画枠の大きさを広く(W)する操作が行われていると判断された場合には、タイマをチェックすることにより、所定時間が経過しているか否かを判断する(ステップS20)。   Here, when it is determined that an operation for widening (W) the size of the photographic image frame is performed, it is determined whether or not a predetermined time has elapsed by checking a timer (step S20).

そして、所定時間が経過していると判断された場合には、撮影光学系31の焦点距離fが、焦点調節可能な下限値k1に達しているにもかかわらず、さらにこの下限値k1よりも小さい方へ操作されようとしているか否かを判断する(ステップS21)。   If it is determined that the predetermined time has elapsed, the focal length f of the photographing optical system 31 has reached the lower limit value k1 at which the focus can be adjusted. It is determined whether or not the operation is going to be smaller (step S21).

ここで、焦点調節可能な下限値k1よりも小さい方へ操作されようとしている場合には上記図28に示したように、シースルーにより警告表示208を行う(ステップS22)。また、焦点距離fが焦点調節可能な下限値k1にまだ達していない場合には、撮影光学系31のバリエータレンズ82を駆動することにより焦点距離fを小さくして、撮影者が設定した撮影範囲になるように撮影光学系31の焦点距離を設定する(ステップS23)。   Here, when it is going to be operated to a value smaller than the lower limit k1 where the focus can be adjusted, as shown in FIG. 28, a warning display 208 is performed by see-through (step S22). Further, when the focal length f has not yet reached the lower limit value k1 at which the focus can be adjusted, the focal length f is reduced by driving the variator lens 82 of the photographing optical system 31, and the photographing range set by the photographer is set. The focal length of the photographic optical system 31 is set so as to become (step S23).

一方、上記ステップS19において、撮影画枠の大きさを広く(W)する操作が行われていないと判断された場合には、上記リモコン部5のテレスイッチ75aを介して、撮影画枠の大きさを狭く(T)する操作が行われているか否かを判断する(ステップS24)。   On the other hand, if it is determined in step S19 that an operation to widen (W) the size of the photographic image frame has not been performed, the size of the photographic image frame is determined via the tele switch 75a of the remote control unit 5. It is determined whether or not an operation for narrowing (T) is being performed (step S24).

ここで、撮影画枠の大きさを狭く(T)する操作が行われていると判断された場合には、タイマをチェックすることにより、所定時間が経過しているか否かを判断する(ステップS25)。   Here, if it is determined that an operation for reducing (T) the size of the photographic image frame is performed, it is determined whether or not a predetermined time has elapsed by checking a timer (step S1). S25).

そして、所定時間が経過していると判断された場合には、撮影光学系31の焦点距離fが、焦点調節可能な上限値k2に達しているにもかかわらず、さらにこの上限値k2よりも大きい方へ操作されようとしているか否かを判断する(ステップS26)。   If it is determined that the predetermined time has elapsed, the focal length f of the photographing optical system 31 has reached the upper limit value k2 at which the focus can be adjusted. It is determined whether or not the operation is to be made larger (step S26).

ここで、焦点調節可能な上限値k2よりも大きい方へ操作されようとしている場合には上記図29に示したように、シースルーにより警告表示209を行う(ステップS27)。また、焦点距離fが焦点調節可能な上限値k2にまだ達していない場合には、撮影光学系31のバリエータレンズ82を駆動することにより焦点距離fを大きくして、撮影者が設定した撮影範囲になるように撮影光学系31の焦点距離を設定する(ステップS28)。   Here, when it is going to be operated to a value larger than the upper limit k2 at which the focus can be adjusted, as shown in FIG. 29, a warning display 209 is displayed by see-through (step S27). If the focal length f has not yet reached the focus adjustable upper limit value k2, the focal length f is increased by driving the variator lens 82 of the photographing optical system 31, and the photographing range set by the photographer is set. The focal length of the photographic optical system 31 is set so as to become (step S28).

上記ステップS24において撮影画枠の大きさを狭く(T)する操作が行われていないと判断された場合、上記ステップS20あるいはステップS25において所定時間が経過していないと判断された場合、または、上記ステップS22,S23,S27、あるいはステップS28の処理が終了した場合、には、リモコン部5の第2操作スイッチ171に含まれる録画スイッチ74による動画記録の操作(あるいは、第1操作スイッチ162による動画記録の操作)が行われて録画モードが設定された否かを判断する(ステップS29)。   If it is determined in step S24 that an operation for reducing (T) the size of the photographic image frame has not been performed, if it is determined in step S20 or step S25 that a predetermined time has not elapsed, or When the process of step S22, S23, S27 or step S28 is completed, the moving image recording operation (or the first operation switch 162) is performed by the recording switch 74 included in the second operation switch 171 of the remote control unit 5. It is determined whether or not a recording mode has been set by performing a moving image recording operation (step S29).

ここで、録画モードが設定されている場合には、図25に示したように、「REC」の文字による情報表示204をシースルーにより行ってから(ステップS30)、録画を開始する(ステップS31)。   Here, when the recording mode is set, as shown in FIG. 25, after the information display 204 with the characters “REC” is performed by see-through (step S30), the recording is started (step S31). .

このステップS31の処理が終了するか、または、上記ステップS29において録画モードが設定されていないと判断された場合には、リモコン部5の第2操作スイッチ171に含まれるレリーズスイッチ73による静止画撮影の操作(あるいは、第1操作スイッチ162による静止画撮影の操作)が行われたか否かを判断する(ステップS32)。   When the processing of step S31 ends or when it is determined in step S29 that the recording mode is not set, still image shooting by the release switch 73 included in the second operation switch 171 of the remote control unit 5 is performed. It is determined whether or not the operation (or the still image shooting operation by the first operation switch 162) has been performed (step S32).

ここで、静止画撮影の操作が行われたと判断される場合には、まず、静止画像の記録を行ってから(ステップS33)、図30に示したように、静止画の記録が行われたことを示す「REL」の文字による情報表示210をシースルーにより行う(ステップS34)。   If it is determined that a still image shooting operation has been performed, a still image is first recorded (step S33), and then a still image is recorded as shown in FIG. The information display 210 with the characters “REL” indicating this is performed by see-through (step S34).

このステップS34が終了するか、または、上記ステップS32においてレリーズスイッチ73による静止画撮影の操作が行われていないと判断される場合には、上記ステップS2の処理に戻って、上述したような動作を繰り返して行う。   If this step S34 is completed or if it is determined in step S32 that the operation of taking a still image by the release switch 73 has not been performed, the process returns to the process of step S2 and the operation as described above. Repeat this step.

図56は、上記図54のステップS4に示した危険防止のサブルーチンの詳細を示すフローチャートである。   FIG. 56 is a flowchart showing details of the danger prevention subroutine shown in step S4 of FIG.

上述したように、スイッチ39を操作することにより、シースルー画像の表示を所望に禁止することができるようにして安全を図るようにしているが、これに代えて、またはこれと共に、撮影者の状態を検出して、検出された状態に応じて撮影動作中のシースルー表示を自動的に禁止するようにしたものである。   As described above, by operating the switch 39, the display of the see-through image can be prohibited as desired so as to be safe, but instead of this, or together with this, the state of the photographer , And see-through display during the photographing operation is automatically prohibited according to the detected state.

この危険防止の処理を開始すると、まず、被写体までの距離を測定する(ステップS41)。このときの測距原理は、次のようになっている。   When this danger prevention process is started, first, the distance to the subject is measured (step S41). The distance measurement principle at this time is as follows.

フレーム部13の中央部に配置された投光用発光部16の投光用LED16aから発光された光束は、集光レンズ16bによりほぼ平行光束となって射出され、被写体に照射される。この光は、該被写体によって反射され、撮影光学系31を介してCCD87の撮像面に入射する。   The light beam emitted from the light projecting LED 16a of the light projecting light emitting unit 16 disposed at the center of the frame unit 13 is emitted as a substantially parallel light beam by the condenser lens 16b, and is irradiated onto the subject. This light is reflected by the subject and enters the imaging surface of the CCD 87 via the photographing optical system 31.

このときに、集光レンズ16bと撮影光学系31との間の距離をL、撮影光学系31の主点からCCD87の撮像面までの距離をf1、被写体からの反射光のCCD87の撮像面上における結像位置と撮影光学系31の光軸が該撮像面に交差する位置との距離を△L、とすると、被写体までの距離Rは、公知の三角測距の原理に基づいて、次の数式11により求めることができる。
[数11]

Figure 2005252733
At this time, the distance between the condenser lens 16b and the photographic optical system 31 is L, the distance from the principal point of the photographic optical system 31 to the imaging surface of the CCD 87 is f1, and the reflected light from the subject is on the imaging surface of the CCD 87. If the distance between the image forming position and the position at which the optical axis of the photographic optical system 31 intersects the imaging surface is ΔL, the distance R to the subject is calculated based on the known triangulation principle as follows: It can be obtained by Expression 11.
[Equation 11]
Figure 2005252733

このようにして求めた距離Rを、第2CPU121の内部に設けられたRAM122に一時的に記憶する。   The distance R thus obtained is temporarily stored in a RAM 122 provided in the second CPU 121.

続いて、上記角速度センサ141,142により、独立な2軸周りの角速度を検出して、上記RAM122に一時的に記憶する(ステップS42)。   Subsequently, the angular velocity sensors 141 and 142 detect angular velocities about two independent axes and temporarily store them in the RAM 122 (step S42).

次に、今回取得した測距結果と、以前に取得した測距結果と、を比較して、撮影者の前方にある物体が相対的に近づいているか否かを判断する(ステップS43)。   Next, the distance measurement result acquired this time is compared with the distance measurement result acquired previously, and it is determined whether or not an object in front of the photographer is relatively approaching (step S43).

ここで、前方の物体が近づいていると判断された場合には、さらに、今回取得した被写体までの距離Lが、所定の距離k3よりも近い距離となっているか否かを判断する(ステップS44)。   If it is determined that the object ahead is approaching, it is further determined whether or not the distance L to the subject acquired this time is closer than the predetermined distance k3 (step S44). ).

ここで、上記距離Lが所定の距離k3よりも近いと判断されたときには、所定の警告マークを上記シースルー画像表示部6によりシースルー表示する(ステップS45)。なお、ここでは、前方の物体までの距離のみを考慮して、該前方の物体の移動速度は考慮していないが、上記ステップS43において、前方物体までの距離を求めるとともにさらに移動速度(近接してくるスピード)も求めて、該移動速度に応じて上記所定の距離k3を適応的に設定するようにしても良い。この場合には、前方物体が近接してくるスピードが速いほど、上記所定の距離k3を大きくするように設定する。そして、前方物体の移動速度は、上記距離Lを所定時間間隔で検出することにより、測定することが可能である。   Here, when it is determined that the distance L is closer than the predetermined distance k3, a predetermined warning mark is displayed on the see-through image display unit 6 (step S45). Here, only the distance to the front object is considered and the moving speed of the front object is not considered, but in step S43, the distance to the front object is obtained and the moving speed (close The predetermined distance k3 may be set adaptively according to the moving speed. In this case, the predetermined distance k3 is set to be larger as the speed at which the front object approaches is faster. The moving speed of the front object can be measured by detecting the distance L at predetermined time intervals.

一方、上記ステップS43において、前方の物体は近づいていないと判断された場合には、さらに、上記角速度データに基づいて撮影者が歩行中であるか否かを判断する(ステップS46)。   On the other hand, if it is determined in step S43 that the object ahead is not approaching, it is further determined whether or not the photographer is walking based on the angular velocity data (step S46).

すなわち、人が歩行しているとき、または人が走行しているときの、頭部に装着した角速度センサ141,142からの出力の特徴パターンを、予めEEPROM102に記憶しておく。そして、該角速度センサ141,142からの出力パターンが、該歩行時または走行時の特徴パターンと一致するときに、撮影者が歩行(または走行)していると判断するようになっている。   That is, the feature pattern of the output from the angular velocity sensors 141 and 142 attached to the head when a person is walking or when the person is running is stored in the EEPROM 102 in advance. When the output pattern from the angular velocity sensors 141 and 142 matches the characteristic pattern at the time of walking or running, it is determined that the photographer is walking (or running).

このステップS46において、撮影者が歩行(または走行)していると判断されたときは、上記ステップS45へ行って、上述したように警告表示を行う。   If it is determined in step S46 that the photographer is walking (or running), the process proceeds to step S45 to display a warning as described above.

また、上記ステップS44において、前方物体までの距離Lが所定の距離k3以上であると判断された場合、あるいは、上記ステップS46において、撮影者が歩行(または走行)していないと判断された場合には、危険はないとして、上記ステップS45の警告表示は行わない。   Further, when it is determined in step S44 that the distance L to the front object is equal to or greater than the predetermined distance k3, or when it is determined in step S46 that the photographer is not walking (or running). No warning is displayed in step S45, assuming that there is no danger.

こうして、ステップS45の処理が終了するか、または上記ステップS44あるいはステップS46において危険がないと判断された場合には、この危険防止の処理を終了して、上記図54に示した処理に復帰する。   In this way, when the process of step S45 ends or when it is determined that there is no danger in step S44 or step S46, this danger prevention process ends and the process returns to the process shown in FIG. .

なお、上述では警告表示を行っているが、この警告表示に代えて、強制的に(自動的に)シースルー画像表示部6によるシースルー表示をオフにするようにしても構わない。   In the above description, warning display is performed. However, instead of this warning display, the see-through display by the see-through image display unit 6 may be forcibly (automatically) turned off.

また、上述では、角速度センサ141,142の出力値のパターンを所定の特徴パターンと比較して撮影者の状態を検出したが、より簡易的な手段としては、角速度センサ141,142の出力値が所定時間継続して所定値以上であるときに、警告表示を行ったり、シースルー表示を禁止したりすることも考えられる。   In the above description, the pattern of the output values of the angular velocity sensors 141 and 142 is compared with a predetermined feature pattern to detect the photographer's state. However, as a simpler means, the output values of the angular velocity sensors 141 and 142 are It may be possible to display a warning or to prohibit see-through display when the predetermined value continues for a predetermined time or more.

さらに、上述では、撮影者の状態として、撮影者が歩行もしくは走行している状態を例に挙げたが、これらに限らず、危険を防止することが望ましい状態に対応することができるようにすると良い。例えば、前方物体との相対的な速度に基づいて、自動車等を運転中であるか否かを判断し、運転中であると判断された場合にも、所定の警告を行ったり、シースルー表示を禁止したりするようにすると良い。このときには、運転中であって危険を防止することが望ましい状態であるか、または、列車やバス等に乗車中であって特に警告等を行う必要はない状態であるか、をより精度良く判別するために、上記角速度センサ141,142の出力を用いたり、その他のセンサ等を設けてさらに検出精度を高めるようにすると良い。   Furthermore, in the above description, the state where the photographer is walking or running is taken as an example of the state of the photographer. However, the present invention is not limited thereto, and it is possible to cope with a state where it is desirable to prevent danger. good. For example, based on the relative speed with the front object, it is determined whether or not a car or the like is being driven, and even when it is determined that the vehicle is being driven, a predetermined warning or a see-through display is displayed. It is better to ban it. At this time, it is more accurately determined whether it is in a state where it is desirable to prevent danger while driving, or whether it is in a state where it is on a train or bus and there is no need to give a warning or the like. In order to achieve this, the output of the angular velocity sensors 141 and 142 may be used, or other sensors may be provided to further increase the detection accuracy.

そして、上記撮影中における前方物体との衝突等の危険を防止する技術は、頭部装着型カメラに適用するに限るものではなく、シースルー表示機能を有する頭部装着型の表示装置に対しても適用可能であり、さらには、その他の一般的なカメラや表示装置に対しても広く適用することが可能である。   The technique for preventing a danger such as a collision with a front object during photographing is not limited to being applied to a head-mounted camera, but also for a head-mounted display device having a see-through display function. The present invention can be applied, and can also be widely applied to other general cameras and display devices.

このような危険防止機能を設けることにより、頭部装着型カメラを、安全に使用することが可能となる。このような機能は、通常の行動をしながら簡単に撮影を行うことができる本実施例の頭部装着型カメラにおいて、特に有効となっている。   By providing such a risk prevention function, the head mounted camera can be used safely. Such a function is particularly effective in the head-mounted camera according to the present embodiment, which can easily perform shooting while performing a normal action.

次に、図36〜図39を参照して、視線方向検出の原理について説明する。   Next, the principle of gaze direction detection will be described with reference to FIGS.

図36は、照明光束の光軸Lmと眼の視線方向の視軸Lm’とが一致しているときの、該光軸Lmおよび視軸Lm’を含む面による眼の断面図である。この図36において、点Oを中心とする大きな円弧は眼球221を、点O’を中心とする円弧は角膜222を、角膜222を示す円弧が眼球221を示す円弧と交差する点から伸びる線分は虹彩223を、それぞれ示している。   FIG. 36 is a cross-sectional view of the eye taken along a plane including the optical axis Lm and the visual axis Lm ′ when the optical axis Lm of the illumination light beam coincides with the visual axis Lm ′ in the visual line direction of the eye. In FIG. 36, a large arc centered at the point O is the eyeball 221, an arc centered at the point O ′ is the cornea 222, and a line segment extending from the point where the arc indicating the cornea 222 intersects the arc indicating the eyeball 221. Show the irises 223, respectively.

このような眼に対して、光軸をLmとする平行光束を照射すると、角膜222の曲率中心O’と角膜222の頂点Kとのほぼ中点の位置に、光点Pi(以下、「プルキンエ像」という。)を生ずる。   When such an eye is irradiated with a parallel light flux having an optical axis of Lm, a light spot Pi (hereinafter, “Purkinje”) is positioned at a substantially midpoint between the center of curvature O ′ of the cornea 222 and the vertex K of the cornea 222. Image ").

角膜222を照明する光束の光軸Lmと、眼の視線方向を示す視軸Lm’と、が一致している場合には、図36に示すように、虹彩223中の円形孔でなる瞳孔の中心と、プルキンエ像Piと、角膜222の曲率中心O’と、眼球221の回旋中心Oと、は上記光軸Lm上にある。そして、プルキンエ像Piは、上記瞳孔の中心位置に生じている。このときに、眼を正面から観察すると、プルキンエ像Piの反射率は大きいために明るい光像として観察され、これに対して、瞳孔や虹彩の反射率は大幅に小さいために暗く観察される。   When the optical axis Lm of the light beam that illuminates the cornea 222 and the visual axis Lm ′ that indicates the line-of-sight direction of the eye coincide with each other, as shown in FIG. 36, the pupil that is a circular hole in the iris 223 is displayed. The center, the Purkinje image Pi, the center of curvature O ′ of the cornea 222, and the center of rotation O of the eyeball 221 are on the optical axis Lm. The Purkinje image Pi is generated at the center position of the pupil. At this time, when the eyes are observed from the front, the Purkinje image Pi has a high reflectance, so that it is observed as a bright light image. On the other hand, the pupil and the iris have a significantly low reflectance, so that they are observed darkly.

図37は、光軸Lmに垂直に交差する線を横軸として、眼の像を上記視線方向/角速度検出部7により撮像したときのCCD134の出力信号を縦軸方向にプロットした図である。   FIG. 37 is a diagram in which the output signal of the CCD 134 is plotted in the vertical axis direction when an eye image is captured by the visual line direction / angular velocity detector 7 with the line perpendicular to the optical axis Lm perpendicular to the horizontal axis.

図示のように、虹彩223の像IRはその周囲の眼球221の像部分よりも暗く、瞳孔の像PLは虹彩223の像IRよりもさらに暗い。これらに対して、プルキンエ像Piは突出して明るい。従って、このような明るさの分布を検出することにより、プルキンエ像の虹彩(または瞳孔)の中心からの位置を求めることが可能となっている。   As illustrated, the image IR of the iris 223 is darker than the image portion of the surrounding eyeball 221, and the pupil image PL is darker than the image IR of the iris 223. On the other hand, the Purkinje image Pi protrudes and is bright. Therefore, it is possible to obtain the position from the center of the iris (or pupil) of the Purkinje image by detecting such a brightness distribution.

一方、図38は、照明光束の光軸Lmと眼の視線方向の視軸Lm’とが交差しているときの、該光軸Lmおよび視軸Lm’を含む面による眼の断面図である。   On the other hand, FIG. 38 is a cross-sectional view of the eye by a plane including the optical axis Lm and the visual axis Lm ′ when the optical axis Lm of the illumination light beam intersects the visual axis Lm ′ in the visual line direction. .

眼球221が、回旋中心O周りに光軸Lmに対して角度θだけ回旋すると、瞳孔の中心位置とプルキンエ像Piの位置との間に相対的なずれが生じる。今、角膜の曲率中心O’から瞳孔の中心iまでの距離をLxとすると、光軸Lmの方向から見たときの瞳孔中心iとプルキンエ像PiとのCCD134の撮像面上における距離d(図38においては実距離であるように図示しているが、より正確には距離dは撮像面上の距離であるものとする。)は、次の数式12により表わされる。   When the eyeball 221 rotates around the rotation center O by the angle θ with respect to the optical axis Lm, a relative shift occurs between the center position of the pupil and the position of the Purkinje image Pi. Now, assuming that the distance from the center of curvature O ′ of the cornea to the center i of the pupil is Lx, the distance d on the imaging surface of the CCD 134 between the pupil center i and the Purkinje image Pi when viewed from the direction of the optical axis Lm (FIG. In FIG. 38, the actual distance is shown, but more accurately, the distance d is assumed to be a distance on the imaging surface).

[数12]

Figure 2005252733
ここにβ1 は、結像レンズ132の結像倍率である。 [Equation 12]
Figure 2005252733
Here, β1 is the imaging magnification of the imaging lens 132.

図39は、光軸Lmおよび視軸Lm’に交差し該光軸Lmに垂直な線を横軸として、眼の像を上記視線方向/角速度検出部7により撮像したときのCCD134の出力信号を縦軸方向にプロットした図である。   FIG. 39 shows the output signal of the CCD 134 when the eye image is captured by the visual line direction / angular velocity detector 7 with the horizontal axis being a line that intersects the optical axis Lm and the visual axis Lm ′ and is perpendicular to the optical axis Lm. It is the figure plotted on the vertical axis | shaft direction.

図示のように、プルキンエ像Piは、虹彩(または瞳孔)の中心に対して、上記距離dだけずれた位置に検出される。   As shown in the figure, the Purkinje image Pi is detected at a position shifted from the center of the iris (or pupil) by the distance d.

従って、上記眼の像を視線方向検出部の受光系により結像して撮像し、撮像された画像データに画像処理を行って、プルキンエ像Piの位置と虹彩(または瞳孔)の中心位置との距離dを求めることにより、視線方向θを求めることが可能となる。なお、上記図15または図17に示したような受光系を介してCCD134に結像される像は、上下左右に非対称な、歪んだ画像となるが、このような幾何特性をEEPROM102等に予め補正情報として記憶しておき、この補正情報に基づいて上記歪みを補正した後に、上記数式12に基づいて視線方向を示す角度θを演算することになる。   Therefore, the image of the eye is formed by the light receiving system of the line-of-sight direction detection unit and imaged, image processing is performed on the captured image data, and the position of the Purkinje image Pi and the center position of the iris (or pupil) are determined. By obtaining the distance d, the line-of-sight direction θ can be obtained. Note that the image formed on the CCD 134 via the light receiving system as shown in FIG. 15 or FIG. 17 is an asymmetrical and distorted image in the vertical and horizontal directions. Such geometric characteristics are preliminarily stored in the EEPROM 102 or the like. After storing the correction information and correcting the distortion based on the correction information, the angle θ indicating the line-of-sight direction is calculated based on the equation 12.

次に、上記距離dを求めるための画像処理について詳細に説明する。   Next, image processing for obtaining the distance d will be described in detail.

上述した原理においては、一次元の視線方向検出について述べたが、実際には二次元の視線方向を検出する必要がある。図40は、2次元の撮像素子から得られる眼の像を示す図である。この図40に示すように、瞳孔の中心をOp、プルキンエ像をPi、瞳孔中心Opを通る所定の中心線をLp、この中心線Lpと、該瞳孔中心Opとプルキンエ像Piとを結ぶ直線と、のなす角をγ、とそれぞれすると、瞳孔中心Opとプルキンエ像Piとの距離が上記数式12における距離dに対応する。従って、この距離dに基づき観察者の眼への赤外光の投光方向(以下「基準視軸」と呼ぶ)を基準とする視線方向(傾き角)θを求めることができ、また、上記γが眼球の回転方向を表わしている。こうして、CCD134に結像される2次元像における、瞳孔中心Opの位置と、プルキンエ像Piの位置と、を検出することができれば、上記θとγとで表される二次元の視線方向を求めることが可能となる。   In the above-described principle, one-dimensional gaze direction detection has been described, but in practice it is necessary to detect a two-dimensional gaze direction. FIG. 40 is a diagram illustrating an eye image obtained from a two-dimensional image sensor. As shown in FIG. 40, the center of the pupil is Op, the Purkinje image is Pi, the predetermined center line passing through the pupil center Op is Lp, and the center line Lp is a straight line connecting the pupil center Op and the Purkinje image Pi. And γ, respectively, the distance between the pupil center Op and the Purkinje image Pi corresponds to the distance d in the equation 12. Therefore, based on this distance d, the line-of-sight direction (tilt angle) θ with reference to the direction of infrared light projection to the viewer's eyes (hereinafter referred to as “reference visual axis”) can be obtained. γ represents the rotation direction of the eyeball. Thus, if the position of the pupil center Op and the position of the Purkinje image Pi in the two-dimensional image formed on the CCD 134 can be detected, the two-dimensional line-of-sight direction represented by θ and γ is obtained. It becomes possible.

次に、図57は、このような瞳孔中心Opの位置とプルキンエ像Piの位置とを求める処理を示すフローチャートである。   Next, FIG. 57 is a flowchart showing processing for obtaining the position of the pupil center Op and the position of the Purkinje image Pi.

この処理を開始すると、まず、視線方向/角速度検出部7のCCD134により光電変換して得られた観察者の眼の画像データを、制御/記録部4内のメモリ155に記憶する(ステップS51)。そして、この画像データに基づいて、例えば第1CPU161により、以下に示すような処理を行う。   When this processing is started, first, image data of the observer's eye obtained by photoelectric conversion by the CCD 134 of the line-of-sight direction / angular velocity detection unit 7 is stored in the memory 155 in the control / recording unit 4 (step S51). . Based on this image data, for example, the following processing is performed by the first CPU 161, for example.

なお、外光によるノイズ成分を除去するために、観察者の眼に赤外光を投光する前にまずCCD134の画像データを取り込んでおき、その後に、観察者の眼に赤外光を投光したときのCCD134の画像データを取り込んで、後者の画像データから前者の画像データを減算することにより、S/Nを改善した画像データを生成し、この画像データに基づいて、以下に示すような処理を行うようにしても良い。   In order to remove noise components due to external light, the CCD 134 first captures image data before projecting infrared light onto the viewer's eyes, and then projects infrared light onto the viewer's eyes. The image data of the CCD 134 when it is illuminated is captured, and the former image data is subtracted from the latter image data to generate image data with improved S / N. Based on this image data, the following is shown. Such processing may be performed.

また、上述では、CCD134から得られた画像データを制御/記録部4内のメモリ155へ転送するようにしているが、例えば、視線方向/角速度検出部7におけるA/D変換回路137の後段にバッファメモリ等を設けて、該画像データをこのバッファメモリに記憶し、例えば第2CPU121により以下のような処理を行うようにしても構わない。このように構成すれば、視線検出に係る画像データを上記制御/記録部4へ転送することなく直ちに処理することができるために、より短い時間で視線方向を検出することが可能となり、視線方向が変化したときの追従性が高まる。   In the above description, the image data obtained from the CCD 134 is transferred to the memory 155 in the control / recording unit 4. For example, the image data obtained from the A / D conversion circuit 137 in the line-of-sight direction / angular velocity detection unit 7 is transferred to the subsequent stage. A buffer memory or the like may be provided, the image data may be stored in the buffer memory, and the following processing may be performed by the second CPU 121, for example. With this configuration, since the image data relating to the line-of-sight detection can be immediately processed without being transferred to the control / recording unit 4, the line-of-sight direction can be detected in a shorter time. The follow-up performance when the change is increased.

次に、取得した画像データから、プルキンエ像を検出し、該プルキンエ像の位置(例えば、図41に示すようなX座標およびY座標。ここに、図41に示す例では、上記中心線Lpの方向にX軸を、該中心線Lpに垂直な方向にY軸を、それぞれとっている。)を求める(ステップS52)。上述したようにプルキンエ像は、他の画像部分に比べて極めて明るいために、例えば所定の閾値THPiを設定して、この閾値THPiよりも明るい領域をプルキンエ像として判定する処理を採用することができる。もちろん、プルキンエ像を判定する処理はこれに限らず、その他の画像処理も採用することが可能である。また、プルキンエ像の位置は、上記閾値THPiよりも明るい領域の重心を採用しても良いし、あるいは、出力データのピーク位置を採用することも可能である。   Next, a Purkinje image is detected from the acquired image data, and the position of the Purkinje image (for example, an X coordinate and a Y coordinate as shown in FIG. 41. Here, in the example shown in FIG. 41, the center line Lp The X axis is taken in the direction and the Y axis is taken in the direction perpendicular to the center line Lp) (step S52). As described above, since the Purkinje image is extremely brighter than other image portions, for example, a predetermined threshold value THPi is set, and a process of determining an area brighter than the threshold value THPi as a Purkinje image can be employed. . Of course, the processing for determining the Purkinje image is not limited to this, and other image processing can also be employed. As the position of the Purkinje image, the center of gravity of an area brighter than the threshold value THPi may be employed, or the peak position of output data may be employed.

続いて、プルキンエ像であると判定された画素の画素データを、該プルキンエ像の近傍の画素の画素データに基づいて、該プルキンエ像が発生しなかった場合の画素データに置き換える(ステップS53)。具体的には、画素データの値を、プルキンエ像の位置を中心にして二次元方向に追跡し、画素データの変曲点を検出する。そして、この変曲点を結んでできる閉じた境界線の内部の像をプルキンエ像であるとして、このプルキンエ像の画像データの値を、その境界線の外側の近隣画像データと置き換える処理を行う。このときに、プルキンエ像に係る複数の近傍同士の間に画素データのレベルの傾きが存在する場合には、線形補間等を行うことによりレベルを補正して、プルキンエ像と置き換える画像データが、その近傍の画像データと滑らかなレベル変化で接続されるようにすると良い。   Subsequently, pixel data of a pixel determined to be a Purkinje image is replaced with pixel data when the Purkinje image is not generated based on pixel data of a pixel in the vicinity of the Purkinje image (step S53). Specifically, the value of pixel data is traced in a two-dimensional direction around the position of the Purkinje image, and an inflection point of the pixel data is detected. Then, assuming that the image inside the closed boundary line formed by connecting the inflection points is the Purkinje image, the image data value of the Purkinje image is replaced with the neighboring image data outside the boundary line. At this time, if there is an inclination of the level of the pixel data between a plurality of neighborhoods related to the Purkinje image, the image data to be replaced with the Purkinje image by correcting the level by performing linear interpolation or the like is used. It is preferable to connect to neighboring image data with a smooth level change.

さらに、図41に示すように、プルキンエ像Piを中心として所定の領域Sdを設定する(ステップS54)。図41はプルキンエ像を中心として眼の像に設定される所定の領域を示す図である。なお、この図41に示す例では、上記所定の領域Sdを、一辺が上記X座標に平行となり他辺が上記Y座標に平行となるような正方形としているが、これに限るものではなく、例えば円形の領域であっても構わない。なお、この所定の領域Sdの大きさは、プルキンエ像Piが瞳孔中心Opから最大に変位した場合にも瞳孔全体の像が含まれるように、設定される。この設定は、領域Sdが例えば図41に示したような正方形をなすときには、図示のような一辺の半分の長さLdを指定することにより行われる。また、領域Sdが円形であるときには、その半径を指定することにより行われる。   Further, as shown in FIG. 41, a predetermined region Sd is set around the Purkinje image Pi (step S54). FIG. 41 is a diagram showing a predetermined area set in the eye image with the Purkinje image as the center. In the example shown in FIG. 41, the predetermined region Sd is a square having one side parallel to the X coordinate and the other side parallel to the Y coordinate. However, the present invention is not limited to this. It may be a circular area. The size of the predetermined region Sd is set so that the entire pupil image is included even when the Purkinje image Pi is displaced to the maximum from the pupil center Op. This setting is performed by designating a length Ld that is half of one side as shown when the region Sd has a square shape as shown in FIG. 41, for example. Further, when the area Sd is circular, the radius is designated.

そして、正方形をなす上記領域Sdに含まれる画素データの内の最小値Vmin を検出する(ステップS55)。   Then, the minimum value Vmin in the pixel data included in the area Sd forming a square is detected (step S55).

次に、上記最小値Vmin に所定値αを加えた値Vmin +αを設定する。ただし、この値Vmin +αは、虹彩領域の画像データのレベルよりも低い値となるような範囲内で設定される。そして、この値Vmin +α以下の画素データを有する画素のX座標およびY座標を検出する(ステップS56)。なお、ここで検出された画素の集合でなる領域をS’とする。   Next, a value Vmin + α obtained by adding a predetermined value α to the minimum value Vmin is set. However, this value Vmin + α is set within a range that is lower than the level of the image data in the iris region. Then, the X coordinate and Y coordinate of a pixel having pixel data equal to or smaller than this value Vmin + α are detected (step S56). Note that an area formed by a set of detected pixels is S ′.

そして、このステップS56により求めた領域S’の重心の位置を求めて、これを瞳孔中心の位置とする(ステップS57)。ここでは、具体的には、領域S’に含まれる全ての画素について、X座標の平均値と、Y座標の平均値と、を求めて、これを瞳孔中心の位置とすることになる。   Then, the position of the center of gravity of the area S ′ obtained in step S56 is obtained, and this is set as the position of the pupil center (step S57). Here, specifically, the average value of the X coordinate and the average value of the Y coordinate are obtained for all the pixels included in the region S ′, and this is set as the position of the pupil center.

なお、上述では、瞳孔中心の位置を求めるのに、瞳孔に該当する画素の重心を採用したが、これに限らず、瞳孔に該当する画素領域の、X座標の最大位置と最小位置との中点、およびY座標の最大位置と最小位置との中点、を求めて、これを瞳孔中心としても良い。瞳孔はほぼ円形をなしているために、眼球が回旋したときの画像は楕円形となる。従って、このような処理を行うことも可能となっている。   In the above description, the center of gravity of the pixel corresponding to the pupil is used to obtain the position of the pupil center. However, the present invention is not limited to this. It is also possible to obtain a point and the midpoint between the maximum position and the minimum position of the Y coordinate and use this as the pupil center. Since the pupil has a substantially circular shape, the image when the eyeball rotates is elliptical. Therefore, it is possible to perform such processing.

上述したような処理を行うことにより、プルキンエ像のX座標およびY座標と、瞳孔中心のX座標およびY座標と、を求めることができる。   By performing the processing described above, the X and Y coordinates of the Purkinje image and the X and Y coordinates of the pupil center can be obtained.

なお、上記処理の説明における画素は、CCD134の撮像面に構成されている実際の画素であっても良いし、隣接する複数の画素をひとまとめとして考えた仮想的な画素であっても構わない。例えば、複数の画素をひとまとめの画素とする場合には、処理時間を短縮することができる利点がある。   The pixels in the above description of the processing may be actual pixels configured on the imaging surface of the CCD 134, or may be virtual pixels that consider a plurality of adjacent pixels as a group. For example, when a plurality of pixels are grouped, there is an advantage that the processing time can be shortened.

ところで、眼の各器官の大きさは、年齢毎に、性別毎に、あるいは人種毎に異なり、ひいては個人毎に異なるといえる。また、視線方向検出部を製作する際の個体差(機器毎の個体差)や、頭部装着部2の装着の仕方、などによっても、視線方向検出部の眼との相対的な位置関係が微妙に変化する。従って、上記数式12に基づいた一律的なパラメータにより求めた視線方向は、全ての撮影者に対して正確であるとはいえない。   By the way, it can be said that the size of each organ of the eye differs for each age, for each sex, for each race, and for each individual. Also, the relative positional relationship between the eye direction detection unit and the eye depends on the individual difference (individual difference for each device) at the time of manufacturing the eye direction detection unit, the manner in which the head mounting unit 2 is worn, and the like. It changes slightly. Therefore, it cannot be said that the line-of-sight direction obtained by the uniform parameter based on the equation 12 is accurate for all photographers.

このような理由から、本実施例のカメラ1では、視線方向検出に係るキャリブレーションを、必要に応じて所望に行うことができるようになっている。これにより、使用者毎の最適化を行うことが可能である。   For this reason, the camera 1 according to the present embodiment can perform calibration relating to the detection of the line-of-sight direction as desired. As a result, optimization for each user can be performed.

図58は、視線方向検出に係るキャリブレーションの処理を示すフローチャートである。   FIG. 58 is a flowchart showing a calibration process related to the gaze direction detection.

例えば、上記第1操作スイッチ162のメニューボタン63やメニュー選択スイッチ66,67,68,69、確定スイッチ65などを操作することによりキャリブレーションモードを選択すると、このキャリブレーション処理が開始される。   For example, when the calibration mode is selected by operating the menu button 63 of the first operation switch 162, the menu selection switches 66, 67, 68, 69, the confirmation switch 65, or the like, the calibration process is started.

処理を開始すると、まず、上記図31に示したようなキャリブレーション用の指標P1〜P5の内の何れを表示させるかを設定する(ステップS61)。   When the process is started, first, which of the calibration indices P1 to P5 as shown in FIG. 31 is displayed is set (step S61).

そして、設定した指標を例えば点滅してシースルー表示する(ステップS62)。この表示は、上述したように、視線方向検出部を含む視線方向/角速度検出部7が配設されている側の眼とは異なる側の眼により観察可能となっている。   Then, the set index is displayed, for example, by blinking (step S62). As described above, this display can be observed by an eye on the side different from the eye on which the line-of-sight direction / angular velocity detection unit 7 including the line-of-sight direction detection unit is provided.

例えば、まず指標P1を点滅させて、この指標P1を注視するように、観察者を促す。観察者は、指標P1を注視した状態となったら、所定のキー操作を行う。このキー操作入力を検出すると、上記CCD134により画像データを取り込んで、上記数式12に基づき、瞳孔中心iとプルキンエ像Piとの間の距離dを演算する(ステップS63)。このときに、指標P1を注視することにより得られた距離dの値をd1とする。   For example, first, the indicator P1 is blinked, and the observer is prompted to watch the indicator P1. When the observer is in a state of gazing at the index P1, the observer performs a predetermined key operation. When this key operation input is detected, image data is taken in by the CCD 134, and a distance d between the pupil center i and the Purkinje image Pi is calculated based on the equation 12 (step S63). At this time, the value of the distance d obtained by gazing at the index P1 is defined as d1.

そして、上記指標P1〜P5の全てについて上記ステップS61〜S63の処理が終了したか否かを判断する(ステップS64)。   And it is judged whether the process of said step S61-S63 was complete | finished about all the said parameter | index P1-P5 (step S64).

ここで、まだ、全ての指標P1〜P5について処理が終了していない場合には、上記ステップS61へ行って、次の指標について、上述したような処理を行うことにより、全ての指標P1〜P5に各係る距離d1〜d5を算出する。   Here, if the processing has not been completed for all the indexes P1 to P5, the process proceeds to step S61, and the processing as described above is performed for the next index, whereby all the indexes P1 to P5 are obtained. The distances d1 to d5 related to the above are calculated.

ここで、上記数式12は理想的な場合にのみ成立する式であり、実際には、上述したような種々の誤差を考慮する必要がある。そこで、上記数式12を修正して、
[数13]

Figure 2005252733
として、補正情報Δdを加えることにする。 Here, the equation 12 is an equation that is established only in an ideal case. In practice, it is necessary to consider various errors as described above. Therefore, by correcting the above equation 12,
[Equation 13]
Figure 2005252733
Then, correction information Δd is added.

この数式13において、角度θは、指標P1〜P5の表示位置により予め設定される値(指標P1〜P5に各対応して、それぞれ角度θ1〜θ5とする。)である。また、距離dは、視線方向検出部により実際に検出される値(上述した距離d1〜d5)である。さらに、Lxは、個人毎に異なる値であるものとする。   In Equation 13, the angle θ is a value set in advance according to the display positions of the indicators P1 to P5 (corresponding to the indicators P1 to P5, respectively, the angles θ1 to θ5). The distance d is a value actually detected by the line-of-sight direction detection unit (the distances d1 to d5 described above). Furthermore, Lx is assumed to be a different value for each individual.

この数式13に、既知である上記角度θ1〜θ5と、上記ステップS63において各求めた距離d1〜d5と、上述したような結像レンズ132の結像倍率β1 と、を代入することにより、ΔdとLxとを未知数とする5つの数式(一次式)が求められる。2つの未知数Δd,Lxを求めるためには、これらの未知数を含む2つの一次式を連立すれば良いために、可能な解の組として、5C2=10(組)の解が求められることになる。そして、これらの解の組に所定の統計演算を行うことにより、各個人毎のパラメータとして最も確からしいと考えられるΔdおよびLxを求める(ステップS65)。   By substituting the known angles θ1 to θ5, the distances d1 to d5 obtained in step S63, and the imaging magnification β1 of the imaging lens 132 as described above into this equation 13, Δd And five formulas (primary formulas) with Lx as unknowns. In order to obtain the two unknowns Δd and Lx, it is only necessary to combine two linear expressions including these unknowns. Therefore, 5C2 = 10 (groups) are required as possible solutions. . Then, a predetermined statistical calculation is performed on the set of solutions to obtain Δd and Lx that are considered to be most likely as parameters for each individual (step S65).

その後、このようにして求めたΔdおよびLxを、上記EEPROM102に記憶してから(ステップS66)、このキャリブレーションの処理を終了する。   Thereafter, Δd and Lx determined in this way are stored in the EEPROM 102 (step S66), and the calibration process is terminated.

なお、実際に視線方向を検出するに当たっては、上述したようなキャリブレーションによって求めたΔdおよびLxと、実際に検出した瞳孔中心iとプルキンエ像Piとの距離dと、を上記数式13に代入し、視線方向θを算出して求めることになる。   In actually detecting the direction of the line of sight, Δd and Lx obtained by the calibration as described above and the distance d between the pupil center i and the Purkinje image Pi actually detected are substituted into the above equation 13. Thus, the line-of-sight direction θ is calculated and obtained.

このようにして求めた視線方向のデータは、撮影時にリアルタイムで利用することができると共に、撮影後に例えば後述するような画像編集を行う際に利用することもできる。従って、動画データを記録するときには、後述するように、求めた視線方向を、検出されたタイム情報に関連付けて、動画データとともに記録するようになっている。   The line-of-sight data obtained in this way can be used in real time at the time of shooting, and can also be used for image editing as described later after shooting. Therefore, when recording moving image data, as will be described later, the obtained line-of-sight direction is associated with the detected time information and recorded together with the moving image data.

撮影時にリアルタイムで視線方向データを利用する例としては、撮像部30の撮影光学系31のピントを、視線方向の被写体に自動的に合わせることが挙げられる。この場合には、CCD87に結像される被写体像の中の、上記視線方向に対応する部分を中心とした所定範囲について焦点検出を行うようにすればよい。このときには、上記図35を参照して説明したように、パララックスを考慮すると良い。   An example of using the gaze direction data in real time at the time of shooting is to automatically adjust the focus of the shooting optical system 31 of the imaging unit 30 to the subject in the gaze direction. In this case, focus detection may be performed for a predetermined range centered on a portion corresponding to the line-of-sight direction in the subject image formed on the CCD 87. At this time, as described with reference to FIG. 35, the parallax should be considered.

図43は、図54のステップS8の処理において記録される各種データの構造を示す図である。   FIG. 43 is a diagram showing the structure of various data recorded in the process of step S8 of FIG.

上記記録用メモリ157に記録されるデータは、例えば、この図43に示すようなデータ構造となっている。   The data recorded in the recording memory 157 has a data structure as shown in FIG. 43, for example.

すなわち、該データは、静止画データ管理エリアと、動画データ管理エリアと、編集済動画データ管理エリアと、静止画データエリアと、動画データエリアと、音声データエリアと、角速度データエリアと、視線方向データエリアと、編集済動画データエリアと、を有して構成されている。   That is, the data includes a still image data management area, a moving image data management area, an edited moving image data management area, a still image data area, a moving image data area, an audio data area, an angular velocity data area, and a line-of-sight direction. It has a data area and an edited moving image data area.

上記静止画データ管理エリアは、上記オートモード(A)、またはマニュアルモード(M)において上記静止画データエリアに記録される静止画データの管理を行うための領域であり、撮影された各静止画データの先頭番地等が記録されている。   The still image data management area is an area for managing still image data recorded in the still image data area in the auto mode (A) or the manual mode (M). The top address of the data is recorded.

上記動画データ管理エリアは、上記動画データエリアにユニット単位で記録される動画データの管理を行うための領域であるが、その詳細については後述する。   The moving image data management area is an area for managing moving image data recorded in units in the moving image data area. Details thereof will be described later.

上記編集済動画データ管理エリアは、後述するように編集が行われた動画データが記録される編集済動画データエリアの管理を行うための領域であり、この詳細についても後述する。   The edited moving image data management area is an area for managing the edited moving image data area in which the edited moving image data is recorded as will be described later, and details thereof will be described later.

上記静止画データエリアは、上述したように、静止画データが記録される領域である。   As described above, the still image data area is an area in which still image data is recorded.

上記動画データエリアは、上述したように、動画データがユニット単位で記録される領域である。   As described above, the moving image data area is an area in which moving image data is recorded in units.

上記音声データエリアは、上記第1マイク17や第2マイク18により収録された音声データがユニット単位で記録される領域である。   The audio data area is an area in which audio data recorded by the first microphone 17 and the second microphone 18 is recorded in units.

上記角速度データエリアは、上記角速度センサ141,142により検出された角速度データがユニット単位で記録される領域である。   The angular velocity data area is an area where angular velocity data detected by the angular velocity sensors 141 and 142 is recorded in units.

上記視線方向データエリアは、上記視線方向/角速度検出部7からの画像データに基づき上記第1CPU161等により算出された視線方向データが、ユニット単位で記録される領域である。なお、この視線方向データエリアに記録する視線方向データとしては、上記視線方向/角速度検出部7の視線方向検出部からの画像データに基づき求めた視軸方向を示す角度θそのものであっても良いが、これに代えて、上記数式10に示したように、視軸方向の被写体を撮像部30から見た角度となるパララックス補正された角度θ’を記録するようにしても構わないし、あるいはこれらの両方を記録するようにしても良い。こうして、視線方向データ(視線方向情報)には、視線方向が所定時間間隔で記録されることになるために、視線方向の連続的な移動量を算出することが可能であり、また、視線方向の移動速度を算出することも可能である。従って、視線方向データは、視線方向の連続的な移動量と、視線方向の移動速度と、の少なくとも一方を含むということができる。   The line-of-sight direction data area is an area where the line-of-sight direction data calculated by the first CPU 161 and the like based on the image data from the line-of-sight direction / angular velocity detector 7 is recorded in units. Note that the gaze direction data recorded in the gaze direction data area may be the angle θ itself indicating the visual axis direction obtained based on the image data from the gaze direction detection unit of the gaze direction / angular velocity detection unit 7. However, instead of this, the parallax-corrected angle θ ′ that is the angle when the subject in the visual axis direction is viewed from the imaging unit 30 may be recorded, as shown in the above formula 10, or Both of these may be recorded. In this way, in the gaze direction data (gaze direction information), the gaze direction is recorded at a predetermined time interval, so that it is possible to calculate the continuous movement amount in the gaze direction. It is also possible to calculate the moving speed. Therefore, it can be said that the gaze direction data includes at least one of the continuous movement amount in the gaze direction and the movement speed in the gaze direction.

上記編集済動画データエリアは、上述したように、編集済みの動画データがユニット単位で記録される領域である。   As described above, the edited moving image data area is an area in which edited moving image data is recorded in units.

次に、動画データの構造の基本概念について説明する。   Next, the basic concept of the structure of moving image data will be described.

動画データは、該動画データの撮像と同時的に収録された音声データ、そして、該動画データの撮像と同時的に検出された角速度データおよび視線方向データと、その時間的な関係に応じて相互に関連付けられて記録されている必要がある。そこで、本実施例においては、これらの各データを所定時間毎にまとめてユニットという単位とし、ユニット内に含まれる各データが実際に記録されているメモリ領域の先頭アドレスを、上記動画データ管理エリアにまとめて記録している。従って、動画データ管理エリアに記録されている管理データを参照することにより、所望のユニットに含まれる動画データ、音声データ、角速度データ、および視線方向データにアクセスすることが可能となっている。   The moving image data includes audio data recorded at the same time as the imaging of the moving image data, and angular velocity data and gaze direction data detected at the same time as the imaging of the moving image data. Must be recorded in association with. Therefore, in this embodiment, each of these data is grouped into a unit called a unit every predetermined time, and the start address of the memory area where each data included in the unit is actually recorded is set as the moving image data management area. Are recorded together. Therefore, by referring to the management data recorded in the moving image data management area, it is possible to access moving image data, audio data, angular velocity data, and line-of-sight direction data included in a desired unit.

例えば、動画データ、音声データ、角速度データの取り込み周期を1/30秒とし、視線方向データの取り込み周期を1秒とし、1秒間分の各データを1つのユニットにまとめるものとする。このときには、1つのユニット内に、画像データ、音声データ、および角速度データがそれぞれ30個ずつ、また、視線方向データが1個、記録されていることになる。従って、上記動画データ管理エリアには、30個分の画像データを管理するためのデータ、30個分の音声データを管理するためのデータ、30個分の角速度データを管理するためのデータ、1個分の視線方向データを管理するためのデータ、が1つのユニットに対して記録されていることになる。従って、該動画データ管理エリアには、このような管理データが、ユニットの数だけ繰り返し記録されている。   For example, it is assumed that the capturing period of moving image data, audio data, and angular velocity data is 1/30 seconds, the capturing period of the line-of-sight direction data is 1 second, and each data for 1 second is collected into one unit. At this time, 30 pieces of image data, audio data, and angular velocity data, and one line-of-sight direction data are recorded in one unit. Accordingly, the moving image data management area includes data for managing 30 pieces of image data, data for managing 30 pieces of audio data, data for managing 30 pieces of angular velocity data, 1 Data for managing the line-of-sight direction data is recorded for one unit. Accordingly, such management data is repeatedly recorded in the moving image data management area by the number of units.

図44は、動画データ管理エリアの詳細な構成を示す図である。   FIG. 44 is a diagram showing a detailed configuration of the moving image data management area.

動画データ管理エリアには、ファイルに関する管理データが、ファイル名を先頭にして、ファイルの数だけ記録されている。   In the moving image data management area, management data related to files is recorded in the number of files starting from the file name.

1つのファイルに関する管理データは、該図44に示すように、ファイル(File)名と、フラグ(FLG)と、開始時刻と、終了時刻と、ユニットサイズと、ユニットに関するデータと、を含んでいる。   As shown in FIG. 44, the management data relating to one file includes a file name, a flag (FLG), a start time, an end time, a unit size, and data relating to the unit. .

上記ファイル名は、動画データに付されたファイルの名前である。   The file name is the name of the file attached to the moving image data.

上記フラグ(FLG)は、編集処理が実施済みであるか否かを示すものである。   The flag (FLG) indicates whether the editing process has been performed.

上記開始時刻は、動画データの撮影が開始された時刻を示すものである。   The start time indicates the time when shooting of moving image data is started.

上記終了時刻は、動画データの撮影が終了した時刻を示すものである。   The end time indicates the time when the shooting of the moving image data has ended.

上記ユニットサイズは、動画データ、音声データ、角速度データ、および視線方向データを1組のユニット単位で記録するときのサイズを示すものである。   The unit size indicates a size when moving image data, audio data, angular velocity data, and line-of-sight direction data are recorded in one unit unit.

上記ユニットに関するデータは、このファイルに含まれるユニットの数だけ設けられており、1つのユニットに対しては、動画データの先頭番地を示すADR(A)、音声データの先頭番地を示すADR(B)、角速度データの先頭番地を示すADR(C)、視線方向データの先頭番地を示すADR(D)がそれぞれ記録されるようになっている。   Data relating to the above units is provided for the number of units included in this file. For one unit, ADR (A) indicating the start address of the video data and ADR (B) indicating the start address of the audio data are provided for one unit. ), ADR (C) indicating the head address of the angular velocity data, and ADR (D) indicating the head address of the line-of-sight direction data are recorded.

従って、この動画データ管理エリアを参照することにより、記録用メモリ157にどのようなデータが記録されているかを、例えば図45に示すように把握することができるようになっている。図45は、動画データ管理エリアを参照して得られる情報表示の一例を示す図である。   Accordingly, by referring to this moving image data management area, it is possible to grasp what data is recorded in the recording memory 157 as shown in FIG. 45, for example. FIG. 45 is a diagram illustrating an example of information display obtained by referring to the moving image data management area.

この図45に示す例では、記録用メモリ157内に記録されているファイル名の一覧が表示され、各ファイルに対応する撮影日や撮影時刻、そして後述するような編集処理が行われているか否かが表示される。   In the example shown in FIG. 45, a list of file names recorded in the recording memory 157 is displayed, the shooting date and shooting time corresponding to each file, and whether editing processing described later is performed. Is displayed.

次に、図46は、編集済動画データ管理エリアの詳細な構成を示す図である。   Next, FIG. 46 is a diagram showing a detailed configuration of the edited moving image data management area.

この編集済動画データ管理エリアには、編集済みの動画データに係るファイルに関する管理データが、ファイル名を先頭にして、ファイルの数だけ記録されている。   In this edited moving image data management area, management data relating to files related to the edited moving image data is recorded by the number of files starting from the file name.

1つのファイルに関する管理データは、該図46に示すように、ファイル(File)名と、開始時刻と、終了時刻と、撮影時間と、記録領域と、を含んでいる。   As shown in FIG. 46, the management data relating to one file includes a file name, a start time, an end time, a shooting time, and a recording area.

上記ファイル名、開始時刻、終了時刻は、上記動画データ管理エリアに記録されているものと同様である。   The file name, start time, and end time are the same as those recorded in the moving image data management area.

また、上記撮影時間は、撮影された動画像のトータル時間を示す情報である。   The shooting time is information indicating the total time of the shot moving image.

さらに、上記記録領域は、所定のユニットサイズでなるユニット毎に、記録領域の先頭アドレスを表わす先頭番地が、上記動画データ管理エリアに記録されているものと同様に記録されている。   Further, in the recording area, the head address indicating the head address of the recording area is recorded for each unit having a predetermined unit size in the same manner as that recorded in the moving image data management area.

次に、図59は、編集処理を示すフローチャートである。   Next, FIG. 59 is a flowchart showing the editing process.

例えば、上記第1操作スイッチ162のメニューボタン63やメニュー選択スイッチ66,67,68,69、確定スイッチ65などを操作することにより編集モードが選択されると、この編集処理が開始されるようになっている。   For example, when the editing mode is selected by operating the menu button 63 of the first operation switch 162, the menu selection switches 66, 67, 68, 69, the confirmation switch 65, etc., the editing process is started. It has become.

この処理を開始すると、まず、連続して撮影された画像ファイル(つまり動画像ファイル)を1つの単位として、上記図45に示したように、撮影日、撮影時刻、既に編集済みであるか否かを示す情報、を一覧として表示する。そして、このように表示された画像の中から、操作者により1つ以上の画像ファイルが選択されるのを待機する(ステップS71)。   When this process is started, first, as shown in FIG. 45, the image date (shooting time) and whether or not the image file (that is, the moving image file) that has been continuously shot is already edited as a unit. Is displayed as a list. Then, it waits for the operator to select one or more image files from the displayed images (step S71).

こうして、画像ファイルの選択が行われた場合には、上記図44に示したような動画データ管理エリアに記録されている管理情報を参照して、選択された画像ファイルに対応する視線方向データを読み出す(ステップS72)。   When the image file is thus selected, the line-of-sight direction data corresponding to the selected image file is obtained by referring to the management information recorded in the moving image data management area as shown in FIG. Read (step S72).

そして、読み出した視線方向データに基づいて、注視時間が所定時間t1以上であるか否かを判断する(ステップS73)。ここで注視しているか否かは、視線方向を表わすベクトルの大きさの変化が所定量以内であれば、一定の方向を注視しているものとする。   Then, based on the read gaze direction data, it is determined whether or not the gaze time is equal to or longer than the predetermined time t1 (step S73). Here, whether or not the user is gazing is determined to be gazing at a certain direction if the change in the magnitude of the vector representing the sight line direction is within a predetermined amount.

ここで注視時間が所定以上であると判断された場合には、ズームアップ処理を行う(ステップS74)。   If it is determined that the gaze time is equal to or greater than the predetermined time, a zoom-up process is performed (step S74).

ここで、図47〜図49を参照して、上記ズームアップ処理について説明する。図47はX方向の視線位置の時間変化を示す図、図48はY方向の視線位置の時間変化を示す図、図49はズーミングの時間変化を示す図である。なお、これら図47〜図49は、横軸にプロットした時間が、同一位置において同一時間を示すように図示している。   Here, the zoom-up process will be described with reference to FIGS. 47 to 49. 47 is a diagram showing a temporal change in the line-of-sight position in the X direction, FIG. 48 is a diagram showing a temporal change in the line-of-sight position in the Y direction, and FIG. 49 is a diagram showing a temporal change in zooming. In FIGS. 47 to 49, the time plotted on the horizontal axis shows the same time at the same position.

なお、X軸とY軸は、視線方向を示すベクトル空間を記述する互いに直交する2軸である。   Note that the X axis and the Y axis are two axes that are orthogonal to each other and describe a vector space indicating the line-of-sight direction.

ΔX,ΔYをX方向,Y方向のそれぞれに対する所定の視線位置変化量であるとする。このとき、X方向,Y方向の視線位置変化が各々ΔX,ΔY以下で、かつ注視時間が上記所定時間t1以上であるときは、図49に示すように、注視点に向けて画像をゆっくりと拡大して行く。つまり、注視点が徐々に画像の中央にくるように、拡大とトリミング(拡大領域の変更)とを同時に実行して行く。一定の拡大量に達したところでその状態をしばらく維持し、再び、注視時間の終了t0に向けてゆっくりと元の倍率(標準の画角)へ戻して行く。   Assume that ΔX and ΔY are predetermined line-of-sight position change amounts in the X direction and the Y direction, respectively. At this time, when the line-of-sight position changes in the X direction and the Y direction are ΔX and ΔY or less and the gaze time is the predetermined time t1 or more, as shown in FIG. 49, the image is slowly directed toward the gaze point. Expand. That is, enlargement and trimming (change of the enlarged area) are performed simultaneously so that the gazing point gradually comes to the center of the image. When a certain amount of magnification is reached, the state is maintained for a while and then slowly returned to the original magnification (standard angle of view) toward the end of the gaze time t0.

なお、注視をしている途中で、瞬間的に視線方向が他に移動して再び元の注視方向へ戻ることがあるが、このような視線の動きについてはノイズであるとして、注視時間の考慮に入れないような画像処理を行うようにしている。このような画像処理は、公知の移動平均とノイズ処理とにより簡単に実行することができるために、その処理の詳細については省略する。   In the middle of gaze, the gaze direction may momentarily move elsewhere and return to the original gaze direction again. Considering the gaze time as such gaze movement is noise. Image processing that cannot be included in the image is performed. Since such image processing can be easily executed by known moving average and noise processing, details of the processing are omitted.

図59の説明に再び戻って、このステップS74のズームアップ処理が終了するか、または、上記ステップS73において注視時間がt1よりも大きいと判断されたときには、上記2方向(ヨー方向とピッチ方向)の角速度データを読み出す(ステップS75)。   Returning again to the description of FIG. 59, when the zoom-up process in step S74 ends or when it is determined in step S73 that the gaze time is longer than t1, the two directions (yaw direction and pitch direction) are described. Is read (step S75).

その後、読み出した角速度データに基づいて、所定の編集処理を実行することになるが、図59のフローチャートに沿って説明を進める前に、この編集処理の基本的な考え方について、図50〜図52を参照して説明する。図50は角速度の時間変化を示す線図、図51は角速度の絶対値の時間変化を示す線図、図52は角速度の時間積分値の変化の様子を示す線図である。なお、これら図50〜図52は、横軸にプロットした時間が、同一位置において同一時間を示すように図示している。また、図52に示す角速度の時間積分(ΣωΔt)は、振幅に該当している。   Thereafter, a predetermined editing process is executed on the basis of the read angular velocity data. Before proceeding with the description according to the flowchart of FIG. 59, the basic concept of this editing process will be described with reference to FIGS. Will be described with reference to FIG. FIG. 50 is a diagram showing the time change of the angular velocity, FIG. 51 is a diagram showing the time change of the absolute value of the angular velocity, and FIG. 52 is a diagram showing the change of the time integral value of the angular velocity. 50 to 52 are illustrated such that the times plotted on the horizontal axis indicate the same time at the same position. Also, the angular velocity time integral (ΣωΔt) shown in FIG. 52 corresponds to the amplitude.

編集処理の基本的な考え方は、次のようになっている。まず、ごく短い時間t2以下の角速度ωの変化は、ノイズであるとして無視する。次に、所定時間t3(ここにt3は、上記t2よりも長い時間である。)を閾値として、持続時間tがこのt3に満たないときは短い周期の振動(つまり、ぶれ)であると判断し、t3以上のときはぶれでない方向の変化であると判断する。そして、ぶれであると判断されたときは、可能であればぶれ補正を行い、不可能であればカッティング処理を行う。同様に、ぶれでない方向の変化であると判断されたときは、可能であればスムージング処理(急激に画像が流れるのを補正して、滑らかな変化にする編集処理であり、記録時間の引き延ばしとなっている。)を行い、不可能であればカッティング処理を行う。   The basic idea of the editing process is as follows. First, the change in the angular velocity ω for a very short time t2 or less is ignored as noise. Next, with a predetermined time t3 (here, t3 is longer than the above t2) as a threshold, when the duration t is less than t3, it is determined that the vibration has a short period (that is, shake). If it is equal to or greater than t3, it is determined that there is a change in the direction that is not shaken. When it is determined that there is a shake, a shake correction is performed if possible, and a cutting process is performed if impossible. Similarly, if it is determined that the change is not in the direction of blurring, if possible, smoothing processing (editing processing that corrects the sudden flow of the image to make a smooth change and extends the recording time) If not possible, the cutting process is performed.

このような考え方に基づいて、図50〜図52に示したような区間A,B,Cの3つのケースについて、具体的に説明する。   Based on this concept, the three cases of sections A, B, and C as shown in FIGS. 50 to 52 will be specifically described.

区間Aは、図51に示すように、持続時間tが所定時間t3以上であって、ぶれでない方向の変化と考えられ、かつ、角速度の絶対値|ω|が、スムージング処理を行うことが可能な程度の大きさであるために、該スムージング処理を行う。このスムージング処理の具体的な方法としては、動画像を構成するコマ(フレーム画像)の間に、スムージングの程度に応じた数のコマを挿入する方法が挙げられる。ただし、この方法では、スムージングの程度が大きくなる(画像の時間変化を引き伸ばす)ほどぎこちない動きになるために、隣接するコマの画像データに基づいて動きを補間するようなコマを作成し、作成したコマを挿入するようにすると良い。   In section A, as shown in FIG. 51, the duration t is not less than the predetermined time t3 and is considered to be a change in the direction of no shaking, and the absolute value | ω | of the angular velocity can be smoothed. The smoothing process is performed because of the size. As a specific method of the smoothing process, there is a method of inserting a number of frames according to the degree of smoothing between frames (frame images) constituting a moving image. However, with this method, since the level of smoothing increases (stretches the time change of the image), the motion becomes awkward, so a frame that interpolates the motion based on the image data of adjacent frames is created and created. It is better to insert a frame.

区間Bは、持続時間tが所定時間t3よりも小さく、ぶれであると考えられ、かつ、角速度の絶対値|ω|が、ぶれ補正を行うことが可能な程度の大きさであるために、ぶれ補正を行う。   In the section B, the duration t is smaller than the predetermined time t3 and is considered to be shake, and the absolute value of the angular velocity | ω | is large enough to perform shake correction. Perform image stabilization.

区間Cは、持続時間tが所定時間t3よりも小さく、ぶれであると考えられるが、角速度の絶対値|ω|が、ぶれ補正を行うのに適さない程大きいために、この区間の画像をカッティングする。   The interval C has a duration t smaller than the predetermined time t3 and is considered to be shaken. However, the absolute value of the angular velocity | ω | is so large that it is not suitable for shake correction. Cutting.

また、図示はしないが、持続時間tが所定時間t3以上であって、ぶれでない方向の変化と考えられるが、角速度の絶対値|ω|が、スムージング処理を行うのに適さない程大きい場合にも、該区間の画像をカッティングするようになっている。   Although not shown, it is considered that the duration t is equal to or longer than the predetermined time t3 and it is considered that the direction is not shaken. However, when the absolute value of the angular velocity | ω | is not large enough to perform the smoothing process. Also, the image of the section is cut.

さらに、区間Aの前の時間区間や、区間Aと区間Bとの間の区間などは、角速度の絶対値|ω|が、ぶれ補正を不要とする程小さく、かつスムージング処理を不要とする程小さいために、特に編集処理の対象とはならない。   Further, in the time interval before the interval A, the interval between the interval A and the interval B, etc., the absolute value of the angular velocity | ω | is so small that the blur correction is unnecessary and the smoothing process is unnecessary. Because it is small, it is not a subject of editing.

なお、上述したような考え方に基づいてカッティングを行うと、例えば、図53に示すような孤立した画像が残る可能性がある。図53は、カッティングを行った後に孤立した画像が残っている様子を示す図であり、時間軸に沿って画像が存在するか否かを2値で示している。この図53に示す例では、区間C1、区間C2、区間C3の3つの区間がカッティングされているが、区間C2における画像SL1、区間C3における画像SL2,SL3が、それぞれ孤立した画像として残っている。このような画像は、後述するように、除去する処理が行われる。   If cutting is performed based on the above-described concept, for example, an isolated image as shown in FIG. 53 may remain. FIG. 53 is a diagram illustrating a state in which an isolated image remains after cutting, and indicates in binary whether or not an image exists along the time axis. In the example shown in FIG. 53, three sections of section C1, section C2, and section C3 are cut, but image SL1 in section C2 and images SL2 and SL3 in section C3 remain as isolated images. . Such an image is subjected to a removal process as will be described later.

再び図59の説明に戻って、上述したような基本的な考え方に基づくステップS76以降の処理について説明する。   Returning to the description of FIG. 59 again, the processing after step S76 based on the basic concept as described above will be described.

2軸方向の角速度の内の、少なくとも一方の角速度ωの変化の持続時間tが、t2<t<t3を満たすか否かを判断し、この条件を満たすときは、さらに角速度の絶対値|ω|が、ω1<|ω|<ω2(ω1はぶれ補正が必要な角速度の下限値、ω2はぶれ補正が可能な角速度の上限値)を満たすか否かを判断する(ステップS76)。   It is determined whether or not the duration t of the change in at least one of the angular velocities in the biaxial directions satisfies t2 <t <t3. When this condition is satisfied, the absolute value of the angular velocity | ω It is determined whether or not | satisfies ω1 <| ω | <ω2 (ω1 is the lower limit value of the angular velocity that needs to be corrected and ω2 is the upper limit value of the angular velocity that can be corrected) (step S76).

ここで、ステップS76の条件が満たされている場合には、公知の画像処理により、ぶれ補正処理を行う(ステップS77)。   Here, when the condition of step S76 is satisfied, blur correction processing is performed by known image processing (step S77).

また、上記ステップS76の条件が満たされない場合には、上記角速度ωの変化の持続時間tが、t3≦tを満たすか否かを判断し、この条件を満たすときは、さらに角速度の絶対値|ω|が、ω3<|ω|<ω4(ω3はスムージングが必要な角速度の下限値、ω4はスムージングが可能な角速度の上限値)を満たすか否かを判断する(ステップS78)。   If the condition of step S76 is not satisfied, it is determined whether the change time t of the angular velocity ω satisfies t3 ≦ t. If this condition is satisfied, the absolute value of the angular velocity | It is determined whether or not ω | satisfies ω3 <| ω | <ω4 (ω3 is a lower limit value of the angular velocity that requires smoothing and ω4 is an upper limit value of the angular velocity that can be smoothed) (step S78).

ここで、ステップS78の条件が満たされている場合には、上述したようなスムージング処理を行う(ステップS79)。   If the condition in step S78 is satisfied, the smoothing process as described above is performed (step S79).

一方、上記ステップS78の条件が満たされない場合には、角速度ωの変化の持続時間tがt2<t<t3を満たしかつ角速度の絶対値|ω|がω2≦|ω|を満たすケースと、角速度ωの変化の持続時間tがt3≦tを満たしかつ角速度の絶対値|ω|がω4≦|ω|を満たすケースと、の何れか一方に該当するか否かを判断する(ステップS80)。   On the other hand, when the condition of step S78 is not satisfied, a case where the duration t of the change in the angular velocity ω satisfies t2 <t <t3 and the absolute value | ω | of the angular velocity satisfies ω2 ≦ | ω | It is determined whether or not the duration t of the change of ω satisfies t3 ≦ t and the absolute value of the angular velocity | ω | satisfies ω4 ≦ | ω | (step S80).

ここで、ステップS80の条件が満たされている場合には、該区間をカッティング処理する(ステップS81)。   If the condition in step S80 is satisfied, the section is cut (step S81).

また、上記ステップS80の条件が満たされていない場合は、次のような3つのケースが考えられる。   Further, when the condition of step S80 is not satisfied, the following three cases are conceivable.

第1のケースは、持続時間tがぶれ(t2<t<t3)に相当するが、角速度の絶対値|ω|が下限値ω1以下のときである。このときには、補正が必要なぶれであるとは見なされず、そのまま無編集となる。   The first case corresponds to the case where the duration t corresponds to the fluctuation (t2 <t <t3), but the absolute value | ω | of the angular velocity is not more than the lower limit value ω1. At this time, it is not considered that the shake needs to be corrected, and no editing is performed as it is.

第2のケースは、持続時間tがぶれでない方向の変化(t3≦t)に相当するが、角速度の絶対値|ω|が下限値ω3以下の時である。このときには、方向の変化が十分に緩やかであってスムージングが不要であると見なされ、そのまま無編集となる。   The second case corresponds to a change in the direction in which the duration t is not shaken (t3 ≦ t), but is when the absolute value of the angular velocity | ω | is equal to or less than the lower limit value ω3. At this time, the direction change is considered to be sufficiently gradual and smoothing is unnecessary, and no editing is performed.

第3のケースは、角速度ωの変化の持続時間tがt2以下(つまり、t≦t2)であって、ノイズに相当する場合である。このノイズは、通常の区間に存在する場合と、カッティング処理された区間に存在する場合(つまり、上記図53に示したような孤立点として残る場合)と、があり得るが、これらの内の孤立点については、次に説明するような処理が行われる。   The third case is a case where the duration t of the change in the angular velocity ω is t2 or less (that is, t ≦ t2) and corresponds to noise. This noise can be present in a normal section or in a section that has been subjected to cutting processing (that is, when it remains as an isolated point as shown in FIG. 53). For isolated points, the following processing is performed.

すなわち、上記ステップS77、ステップS79、ステップS81の何れかの処理が終了するか、または上記ステップS80の条件が満たされない場合には、次に、孤立点の除去を行う(ステップS82)。   That is, when any of the processes of step S77, step S79, and step S81 ends, or when the condition of step S80 is not satisfied, isolated points are removed (step S82).

その後、編集済の動画データを上記記録用メモリ157に記録してから(ステップS83)、この編集処理を終了する。   Thereafter, the edited moving image data is recorded in the recording memory 157 (step S83), and the editing process is terminated.

こうして、画質が劣化すると考えられるケースにおいて、可能な範囲内で画質を向上する補正を行い、補正が不可能である場合にはカッティングするようにしているために、品質が良く見易い画像を得ることができる。そして、この編集処理を自動的に行うようにしているために、使用者が面倒な操作を行う必要がなく、簡便となる。   In this way, in a case where image quality is considered to deteriorate, correction is performed to improve the image quality within the possible range, and cutting is performed when correction is impossible, so an image with good quality and easy to see can be obtained. Can do. Since the editing process is automatically performed, the user does not need to perform a troublesome operation, which is simple.

なお、この図59に示したような編集処理の例においては、生体情報としての視線情報や角速度情報に基づいて、ズーミング、カッティング、スムージング、ぶれ補正を行うようにしているが、編集処理は、これらに限られるものではない。例えば、角速度データの時間的な変動パターンに基づいて、撮影者が歩行中であるか否かを判断し、歩行中であると判断されたときには、通常よりも広角側にズーミング処理を行うようにすることが考えられる。また、これとは逆に、歩行中であると判断されたときには、画像の変動を抑制するように画像の一部を切り出して、切り出した画像を望遠側にズーミング(拡大)するようにしても良い。このような処理を行うことにより、画像の変動を少なくして、視覚的に違和感のない動画像を再生することが可能となる。   In the example of the editing process as shown in FIG. 59, zooming, cutting, smoothing, and blur correction are performed based on line-of-sight information and angular velocity information as biological information. However, it is not limited to these. For example, based on the temporal variation pattern of the angular velocity data, it is determined whether or not the photographer is walking, and when it is determined that the photographer is walking, zooming processing is performed on the wide angle side than usual. It is possible to do. Conversely, when it is determined that the user is walking, a part of the image is cut out so as to suppress the fluctuation of the image, and the cut out image is zoomed (enlarged) to the telephoto side. good. By performing such processing, it is possible to reproduce a moving image that is visually uncomfortable with less fluctuation of the image.

また、上述した編集処理においては、撮影後に、視線情報や頭部の角速度情報等の生体情報に基づいて画像を編集し、編集済みの画像データを記録媒体に記録するものであったが、再生時にリアルタイムで編集処理するようにすることも可能である。すなわち、所定の編集処理の内容(以下「編集情報」と呼ぶ。)と該編集処理の開始時刻に関するタイム情報とを、原画像と上記生体情報とが取得されたタイム情報に関連付けてメモリに記憶しておく。そして、画像データを再生するときに、原画像データを残したまま、上記原画像データと上記編集情報とを同時に読み出して、原画像データを編集情報に基づいてリアルタイムに編集しながら再生する(以下では、これを「動的編集処理」と呼ぶ。)ようにしても良い。   In the editing process described above, after shooting, an image is edited based on biological information such as line-of-sight information and head angular velocity information, and the edited image data is recorded on a recording medium. Sometimes it is possible to edit in real time. That is, the contents of a predetermined editing process (hereinafter referred to as “editing information”) and time information regarding the start time of the editing process are stored in the memory in association with the time information from which the original image and the biological information are acquired. Keep it. Then, when reproducing the image data, the original image data and the editing information are simultaneously read out while leaving the original image data, and the original image data is reproduced while being edited in real time based on the editing information (hereinafter referred to as the original image data). Then, this may be referred to as “dynamic editing processing”).

図60は、動的編集処理装置の構成の要部を示すブロック図である。   FIG. 60 is a block diagram showing a main part of the configuration of the dynamic editing processing apparatus.

この動的編集処理装置は、原画像メモリ231と、操作部232と、プログラム修正部233と、編集情報メモリ234と、読出部235と、編集処理部236と、編集処理プログラムメモリ237と、表示部238と、を有して構成されていて、画像編集装置と画像再生装置とを兼ねたものとなっている。   This dynamic editing processing apparatus includes an original image memory 231, an operation unit 232, a program correction unit 233, an editing information memory 234, a reading unit 235, an editing processing unit 236, an editing processing program memory 237, a display And an image editing apparatus and an image reproduction apparatus.

上記原画像メモリ231は、画像データ記録手段であり、原画像データが、それぞれ撮像(取得)された時刻に関するタイム情報に関連付けられて記憶されているものである。   The original image memory 231 is image data recording means, and stores original image data in association with time information relating to the time at which each image is captured (acquired).

上記操作部232は、この動的編集処理装置に対する操作入力を、外部から手動で行うための操作手段である。   The operation unit 232 is an operation means for manually performing operation input to the dynamic editing processing apparatus from the outside.

上記プログラム修正部233は、操作部232からの操作に応じて、上記編集情報メモリ234に記憶されている編集情報を修正するための編集情報修正手段である。   The program correcting unit 233 is editing information correcting means for correcting editing information stored in the editing information memory 234 in response to an operation from the operation unit 232.

上記編集情報メモリ234は、生体情報記録手段であり、上記図59を参照しながら説明したような編集処理プログラムに関連する後述するようなコード情報(図61〜図70参照)と、上記原画像メモリ231に記憶されている原画像データに関連する編集情報(生体情報に基づき生成された編集情報)と、が上記タイム情報に関連付けて記憶されたものである。なお、編集情報として使用されていない生体情報がある場合には、該生体情報もこの編集情報メモリ234に記録しておくようにすると良い。   The edit information memory 234 is a biometric information recording means, which will be described later with reference to code information (see FIGS. 61 to 70) related to the edit processing program as described with reference to FIG. 59, and the original image. Editing information related to the original image data stored in the memory 231 (editing information generated based on the biometric information) is stored in association with the time information. If there is biometric information that is not used as editing information, the biometric information may be recorded in the editing information memory 234.

上記読出部235は、処理手段を構成するものであり、上記原画像メモリ231から原画像データを、また、上記編集情報メモリ234から上記編集情報を、関連付けられたタイム情報に応じて読み出し、上記編集処理部236へ転送するものである。   The reading unit 235 constitutes processing means, and reads the original image data from the original image memory 231 and the edit information from the edit information memory 234 according to the associated time information. The data is transferred to the edit processing unit 236.

上記編集処理部236は、処理手段を構成するものであり、上記読出部235により読み出された原画像データを、該読出部235により読み出された編集情報(つまり、上記タイム情報に応じて、該原画像データに関連付けられている編集情報)を用いて、編集処理するためのものである。   The editing processing unit 236 constitutes processing means, and the original image data read by the reading unit 235 is converted into editing information read by the reading unit 235 (that is, according to the time information). , Editing information associated with the original image data).

上記編集処理プログラムメモリ237は、処理手段を構成するものであり、後述するような編集パターンに応じた具体的な編集処理プログラムが記憶されているものである。   The edit processing program memory 237 constitutes processing means, and stores a specific edit processing program corresponding to an edit pattern as will be described later.

上記表示部238は、表示手段であって、上記編集処理部236により処理された画像データを観察可能に表示するためのものである。   The display unit 238 is a display means for displaying the image data processed by the editing processing unit 236 so as to be observable.

次に、上記編集情報メモリ234に記憶されている情報の詳細について、図61〜図70を参照しながら説明する。   Next, details of the information stored in the editing information memory 234 will be described with reference to FIGS.

図61は第1のズーミングのパターンを示す図、図62は第1のズーミングパターンに応じて編集情報メモリに記憶されているズーミングに関する編集情報を示す図、図63は第2のズーミングのパターンを示す図、図64は第2のズーミングパターンに応じて編集情報メモリに記憶されているズーミングに関する編集情報を示す図、図65は第3のズーミングのパターンを示す図、図66は第3のズーミングパターンに応じて編集情報メモリに記憶されているズーミングに関する編集情報を示す図、図67は第4のズーミングのパターンを示す図、図68は第4のズーミングパターンに応じて編集情報メモリに記憶されているズーミングに関する編集情報を示す図である。   61 is a diagram showing a first zooming pattern, FIG. 62 is a diagram showing editing information related to zooming stored in the editing information memory in accordance with the first zooming pattern, and FIG. 63 is a diagram showing the second zooming pattern. FIG. 64 is a diagram showing editing information related to zooming stored in the editing information memory in accordance with the second zooming pattern, FIG. 65 is a diagram showing a third zooming pattern, and FIG. 66 is a third zooming. FIG. 67 shows a fourth zooming pattern, and FIG. 68 shows a fourth zooming pattern stored in the editing information memory in accordance with the fourth zooming pattern. It is a figure which shows the edit information regarding zooming.

図61に示すような第1のズーミングのパターンは、時間T1の間に、縮小から拡大へズーミングを行って、その後はそのままズーミングを停止するパターンとなっている。   The first zooming pattern as shown in FIG. 61 is a pattern in which zooming is performed from reduction to enlargement during time T1, and thereafter zooming is stopped as it is.

また、上記編集情報メモリ234には、図62に示すようなズーミングに関する編集情報が記憶されている。この編集情報は、下位の4ビットがズーミングのパターン、次の4ビットが最初のズーミングの時間(T1)、その次の4ビットが停止時間(T2)、さらに次の4ビットが最初の状態に戻すズーミングの時間(T3)、最上位の16ビットが編集の開始時刻を表わすタイム情報となっている。   The editing information memory 234 stores editing information related to zooming as shown in FIG. In this editing information, the lower 4 bits are the zooming pattern, the next 4 bits are the first zooming time (T1), the next 4 bits are the stop time (T2), and the next 4 bits are the first state. The zooming time to return (T3), the most significant 16 bits are time information indicating the start time of editing.

なお、この例では、各時間T1,T2,T3を記憶するメモリ容量を4ビットとしているが、これに限るものではなく、必要に応じた容量を定めるようにすれば良い。   In this example, the memory capacity for storing each of the times T1, T2, and T3 is 4 bits. However, the present invention is not limited to this, and the capacity may be determined as necessary.

そして、上記下位の4ビットには、第1のズーミングのパターンを示すズーミングパターンコード(ここでは、「0000」)が記憶されている。   In the lower 4 bits, a zooming pattern code (here, “0000”) indicating a first zooming pattern is stored.

また、次の4ビット(T1)には、上記図61に示すようなズーム時間に対応する情報が記憶されている。一方、この第1のズーミングのパターンでは、T2,T3を定義しないために、何れにもコード「0000」が記憶されている。   In the next 4 bits (T1), information corresponding to the zoom time as shown in FIG. 61 is stored. On the other hand, in this first zooming pattern, since codes T2 and T3 are not defined, the code “0000” is stored in both.

次に、図63に示すような第2のズーミングパターンは、時間T1だけ縮小から拡大へズーミングを行い、時間T2だけズーミングを停止し、時間T3だけ拡大から縮小へズーミングを行うパターンとなっている。   Next, the second zooming pattern as shown in FIG. 63 is a pattern in which the zooming is performed from the reduction to the enlargement for the time T1, the zooming is stopped for the time T2, and the zooming is performed from the enlargement to the reduction for the time T3. .

この第2のズーミングパターンにおいては、図64に示すように、ズーミングパターンコードとして「0001」が記憶されている。また、各時間T1,T2,T3もそれぞれ定義されて記憶されている。   In the second zooming pattern, “0001” is stored as a zooming pattern code as shown in FIG. Each time T1, T2, T3 is also defined and stored.

続いて、図65に示すような第3のズーミングパターンは、時間T1だけ拡大から縮小へズーミングを行い、その後はそのままズーミングを停止するパターンとなっている。   Subsequently, the third zooming pattern as shown in FIG. 65 is a pattern in which zooming is performed from enlargement to reduction for the time T1, and then the zooming is stopped as it is.

この第3のズーミングパターンにおいては、図66に示すように、ズーミングパターンコードとして「0010」が記憶されている。また、時間T1のみが定義されて記憶され、時間T2,T3には上述したように未定義であることを示すコード「0000」が記憶されている。   In the third zooming pattern, as shown in FIG. 66, “0010” is stored as the zooming pattern code. Further, only the time T1 is defined and stored, and the code “0000” indicating that it is not defined is stored at the times T2 and T3 as described above.

そして、図67に示すような第4のズーミングパターンは、時間T1だけ拡大から縮小へズーミングを行い、時間T2だけズーミングを停止し、時間T3だけ縮小から拡大へズーミングを行うパターンとなっている。   The fourth zooming pattern as shown in FIG. 67 is a pattern in which zooming is performed from enlargement to reduction for time T1, stop zooming for time T2, and zoom from reduction to enlargement for time T3.

この第4のズーミングパターンにおいては、図68に示すように、ズーミングパターンコードとして「0011」が記憶されている。また、各時間T1,T2,T3もそれぞれ定義されて記憶されている。   In the fourth zooming pattern, as shown in FIG. 68, “0011” is stored as the zooming pattern code. Each time T1, T2, T3 is also defined and stored.

図69は、スムージングの編集情報を表すコードの例を示す図である。   FIG. 69 is a diagram illustrating an example of a code representing smoothing editing information.

下位の4ビットには、編集処理がスムージングであることを示すコード「0100」が、次の8ビットにはスムージングの開始から終了までの時間間隔(スムージング時間)が、最上位の16ビットには編集の開始時刻を表わすタイム情報が、それぞれ記憶されている。   In the lower 4 bits, a code “0100” indicating that the editing process is smoothing is performed. In the next 8 bits, a time interval from the start to the end of smoothing (smoothing time) is displayed. In the upper 16 bits, Time information representing the start time of editing is stored.

図70は、カッティングの編集情報を表すコードの例を示す図である。   FIG. 70 is a diagram illustrating an example of a code representing cutting editing information.

下位の4ビットには、編集処理がカッティングであることを示すコード「0101」が、次の8ビットにはカッティングの開始から終了までの時間間隔が、最上位の16ビットには編集の開始時刻を表わすタイム情報が、それぞれ記憶されている。   The lower 4 bits are a code “0101” indicating that the editing process is cutting, the next 8 bits are the time interval from the start to the end of cutting, and the most significant 16 bits are the editing start time. Each time information representing is stored.

従って、上記読出部235は、編集情報メモリ234に記憶されたこのような編集情報を、タイム情報に関連付けて、上記原画像メモリ231に記憶された画像データと同期して読み出すようになっている。   Therefore, the reading unit 235 reads such editing information stored in the editing information memory 234 in association with the time information in synchronization with the image data stored in the original image memory 231. .

また、上記編集処理プログラムメモリ237に記憶されている編集処理プログラムは、上記編集情報メモリ234に記憶された編集情報の最下位4ビットに応じた編集パターンを実行するためのプログラムとなっている。   The edit processing program stored in the edit processing program memory 237 is a program for executing an edit pattern corresponding to the least significant 4 bits of the edit information stored in the edit information memory 234.

そして、上記編集処理部236は、読出部235により読み出された編集情報から上記編集パターンを読み取って、この編集パターンに対応した編集処理プログラムを編集処理プログラムメモリ237から読み出し、所定の編集処理を実行する。   Then, the editing processing unit 236 reads the editing pattern from the editing information read by the reading unit 235, reads an editing processing program corresponding to the editing pattern from the editing processing program memory 237, and performs predetermined editing processing. Execute.

こうして編集処理された画像が、上記表示部238により表示される。   The edited image is displayed on the display unit 238.

なお、上述したような動的編集処理は、自動的に行われるものとなっている。しかし、使用者が個々人の好みに応じて編集処理を行うことができると便利であるために、本実施例では、上記図60に示したように、操作部232とプログラム修正部233とを設けて、上記編集情報メモリ234に記憶されている編集情報を、手動により外部から修正することができるようにしている。   The dynamic editing process as described above is automatically performed. However, since it is convenient if the user can perform editing processing according to individual preference, in this embodiment, as shown in FIG. 60, an operation unit 232 and a program correction unit 233 are provided. Thus, the editing information stored in the editing information memory 234 can be manually corrected from the outside.

すなわち、編集情報を修正する際には、再生に関する公知の機能、つまり、再生の一次停止、戻し、スロー再生などを用いることにより、画像を表示部238により観察しながら、図62、図64、図66、図68、図69、図70に示したような編集情報を変更することになる。このときには、編集結果を該表示部238により確認することができ、さらに原画像が上述したように保存されているために、何度でも編集作業を行うことができて、最終的に、使用者の好みに最適な編集画像を得ることが可能となる。   That is, when editing the editing information, a known function related to playback, that is, primary stop, return, slow playback, etc. of playback is used to observe the image on the display unit 238 while FIG. 62, FIG. The editing information as shown in FIGS. 66, 68, 69, and 70 is changed. At this time, the editing result can be confirmed by the display unit 238, and since the original image is stored as described above, the editing operation can be performed any number of times. It is possible to obtain an edited image that best suits the user's preference.

また、上述したような視線方向の検出は、高度の技術と高いコストとを要するために、単に上述した編集処理のみに利用するために視線方向検出装置を設けるのは、コストパフォーマンスが良いとはいえない。従って、単に上述したような編集処理に利用するのみであれば、視線情報の代わりに角速度情報を用いて制御を行っても、ほぼ同等の効果を得ながら、かつコストパフォーマンスを改善することができる。この場合には、角速度情報に基づいて、頭部の角度変化が所定時間以上一定範囲内であるときには、観察者が被写体のほぼ一方向を観察しているものとして扱い、図59に示したような視線情報に基づく処理(例えば、ステップS74のズームアップ処理)と同様の処理を行うことが考えられる。   In addition, since the detection of the gaze direction as described above requires a high level of technology and high cost, it is cost effective to provide a gaze direction detection device for use only in the editing process described above. I can't say that. Therefore, if only the editing process as described above is used, even if the control is performed using the angular velocity information instead of the line-of-sight information, the cost performance can be improved while obtaining substantially the same effect. . In this case, based on the angular velocity information, when the change in the angle of the head is within a certain range for a predetermined time or more, it is assumed that the observer is observing almost one direction of the subject, as shown in FIG. It is conceivable to perform the same processing as the processing based on accurate line-of-sight information (for example, the zoom-up processing in step S74).

上記図60〜図70に示したような動的編集処理装置を用いれば、編集処理後の画像データを記憶するための記録媒体が不要になるために、特に動画データの記録を行う場合に、メモリ容量の節約効果を大きく得ることができる。また、自動編集処理を行うための編集情報を、使用者が好みに応じて変更することができるために、個々人の意思を忠実に反映した編集処理を行うことができる。   When the dynamic editing processing apparatus as shown in FIGS. 60 to 70 is used, a recording medium for storing the image data after the editing process becomes unnecessary, and particularly when recording moving image data. A large memory saving effect can be obtained. In addition, since the user can change the editing information for performing the automatic editing process according to his / her preference, the editing process reflecting the intention of each individual can be performed.

なお、上記図54〜図59に示した処理の内、撮像に関する処理と視線方向検出に関する処理は、主に上記第2CPU121が行うようになっている。また、シースルー画像表示に関する処理と測距のための投光処理は、主に上記第4CPU111が行うようになっている。さらに、AF処理とAE処理は、主に第3CPU103が行うようになっている。そして、画像データの記録処理と編集処理と再生処理と操作スイッチの検出処理は、主に第1CPU161が行うようになっている。このように、各関連する機能を有する周辺装置が接続されているCPUが、主にその機能に関連する処理を実行するように構成されている。ただし、各CPUはそれぞれ相互に接続されているために、処理能力に応じて、適宜処理を分散させるようにしても構わない。   Of the processes shown in FIGS. 54 to 59, the process related to imaging and the process related to line-of-sight direction detection are mainly performed by the second CPU 121. Further, the fourth CPU 111 mainly performs processing relating to see-through image display and light projection processing for distance measurement. Further, the AF processing and AE processing are mainly performed by the third CPU 103. The first CPU 161 mainly performs image data recording processing, editing processing, reproduction processing, and operation switch detection processing. As described above, the CPU to which the peripheral device having each related function is connected is configured to mainly execute processing related to the function. However, since the CPUs are connected to each other, the processing may be appropriately distributed according to the processing capability.

また、上述した説明においては、シースルー画像表示部6のコンバイナとしてHOE25を用いたが、これに代えて、ガラスやプラスチック等を素材とする凸レンズ光学系や凹レンズ光学系、ハーフミラー、自由曲面光学系、またはこれらの組み合わせを用いることも可能である。   In the above description, the HOE 25 is used as the combiner of the see-through image display unit 6, but instead, a convex lens optical system, a concave lens optical system, a half mirror, a free-form surface optical system made of glass, plastic, or the like. It is also possible to use a combination of these.

さらに、上述ではシースルー画像表示部6において画像を投影する手段として、LED113や集光レンズ114やLCD115を用いたが、これらの代わりに、EL(Electro Luminescence)パネルや自己発光型のプラズマディスプレイなどの他の表示素子を用いても良い。   Further, in the above description, the LED 113, the condenser lens 114, and the LCD 115 are used as means for projecting an image in the see-through image display unit 6, but instead of these, an EL (Electro Luminescence) panel, a self-luminous plasma display, or the like is used. Other display elements may be used.

このような実施例1によれば、撮影者自身の動きに関連する生体情報を記録しておき、記録された生体情報に基づいて、記録された画像データに対し事後的に所定の編集処理を行うことが可能となるようにしたために、カメラの構成を簡単にすることが可能になると共に、撮影者は、撮影動作に専念する必要なく撮影を行うことができる。従って、撮影者は撮影の負担を感じることなく、撮影者以外の者と同様の自然な行動をとることができる。そして、画像編集を撮影者の生体情報に基づいて行うようにしたために、撮影者の意図に添った画像編集を自動的に行うことが可能となる。記録後の画像データに対して編集処理を行う場合には、撮影中にリアルタイムで編集処理を行う場合に必要となる例えば予測処理等の複雑な処理が不要となるために、比較的簡単に編集処理を行うことが可能となる。加えて、編集後の画像を表示することができるために、見易い状態となった画像を楽しむことが可能となる。   According to the first embodiment, biological information related to the movement of the photographer himself / herself is recorded, and a predetermined editing process is subsequently performed on the recorded image data based on the recorded biological information. Since the camera can be configured, the configuration of the camera can be simplified, and the photographer can perform shooting without having to concentrate on the shooting operation. Therefore, the photographer can take the same natural action as a person other than the photographer without feeling the burden of photographing. Since the image editing is performed based on the photographer's biological information, it is possible to automatically perform image editing in accordance with the photographer's intention. When editing image data after recording, it is relatively easy to edit because it eliminates the need for complicated processing such as prediction processing, which is necessary when editing in real time during shooting. Processing can be performed. In addition, since the edited image can be displayed, it is possible to enjoy an image that is easy to view.

また、撮像部と視線方向/角速度検出部とを撮影者の頭部に装着し得るようにしたために、撮影者の観察している被写体を高い精度で検出することが可能となる。   In addition, since the imaging unit and the line-of-sight direction / angular velocity detection unit can be mounted on the photographer's head, the subject that the photographer is observing can be detected with high accuracy.

さらに、撮影者の頭部自体の回転を角速度により検出するようにしたために、頭部のぶれに起因する画像ぶれの補正や、カッティングや、記録時間の引き延ばしなどの編集処理を自動的に行うことが可能となる。   Furthermore, since the rotation of the photographer's head itself is detected based on the angular velocity, editing processing such as correction of image blur due to head shake, cutting, and extended recording time is automatically performed. Is possible.

そして、撮影者の注視点の方向である視線方向を検出するようにしたために、電子ズーミング(拡大/縮小)やトリミングなどの編集処理を自動的に行うことが可能となる。このとき、視線方向情報として、視線方向の移動速度と、視線方向の連続的な移動量と、の少なくとも一方を含むようにしたために、撮影者の意志をより忠実に反映することができる。   Since the gaze direction, which is the direction of the photographer's gazing point, is detected, editing processing such as electronic zooming (enlargement / reduction) and trimming can be automatically performed. At this time, since the line-of-sight direction information includes at least one of the movement speed in the line-of-sight direction and the continuous movement amount in the line-of-sight direction, the will of the photographer can be reflected more faithfully.

また、視線方向/角速度検出部と、撮像部と、のパララックスを考慮して、視線方向/角速度検出部により検出された視線方向θに対応する撮像部からみた角度θ’を求めるようにしているために、被写体が近距離にある場合でも、撮影者の視線方向に対応する撮像部による撮影範囲(撮像される画像における撮影者の注視点)を正確に把握することが可能となり、視線情報に基づく編集処理等を正確に行うことができる。   Further, in consideration of the parallax between the line-of-sight direction / angular velocity detection unit and the imaging unit, an angle θ ′ viewed from the imaging unit corresponding to the line-of-sight direction θ detected by the line-of-sight direction / angular velocity detection unit is obtained. Therefore, even when the subject is at a short distance, it is possible to accurately grasp the imaging range (the photographer's point of sight in the captured image) by the imaging unit corresponding to the photographer's gaze direction. Editing processing based on can be performed accurately.

さらに、自然な行動をしながら観察が可能な頭部装着型表示装置は、例えば歩行中や車の運転中などにも使用してしまいがちである。このような状態で使用すると、表示手段に表示される撮影情報等の表示に気をとられて、前方物体と衝突したりする可能性があるが、本実施例のカメラは、このような使用状態を検出して、検出時には警告を行ったり表示を禁止したりするようにしたために、未然に防止することができる。   Furthermore, a head-mounted display device that allows observation while performing natural behavior tends to be used, for example, while walking or driving a car. If it is used in such a state, the display of shooting information displayed on the display means may be distracted, and there is a possibility of colliding with a front object. Since the state is detected and a warning is given or display is prohibited at the time of detection, this can be prevented beforehand.

また、視線検出を行う際に、他の領域に比べて極めて明るい角膜反射光を利用しているために、瞳孔の存在するおよその位置を、簡単に求めることができる。このとき、角膜反射光を得るための照明として、赤外線を照射するLEDを用いているために、観察者による被写体の観察を妨げることはない。   In addition, when performing line-of-sight detection, corneal reflected light that is extremely brighter than other regions is used, so that the approximate position of the pupil can be easily obtained. At this time, since an LED that emits infrared rays is used as illumination for obtaining corneal reflected light, observation of the subject by the observer is not hindered.

さらに、角膜反射光の位置を含む所定範囲の領域の中から、最小値を有する画素を検出し、この最小値に所定の値を加えた値(これは、該最小の画素値よりも大きく、虹彩の画素値よりも小さい所定値である。)を閾値として、該閾値よりも画素値が小さい画素群を瞳孔の像に属する画素群として判別しているために、瞳孔の領域を簡単にかつ精度良く求めることができる。   Further, the pixel having the minimum value is detected from the region of the predetermined range including the position of the corneal reflection light, and a value obtained by adding the predetermined value to the minimum value (this is larger than the minimum pixel value, Since a pixel group having a pixel value smaller than the threshold value is determined as a pixel group belonging to the pupil image, the pupil region can be easily and It can be obtained with high accuracy.

そして、瞳孔の領域の重心を瞳孔中心としているために、画素データの中に幾らかのノイズが含まれていたとしても、瞳孔中心の位置を確実に精度良く求めることが可能となる。   Since the center of the pupil region is the center of the pupil, even if some noise is included in the pixel data, the position of the pupil center can be obtained accurately and accurately.

加えて、上述したようにして求めた瞳孔中心の位置と、角膜反射光の位置と、に基づいて、視線方向を簡単にかつ精度良く求めることができる。   In addition, the line-of-sight direction can be easily and accurately obtained based on the position of the pupil center obtained as described above and the position of the corneal reflected light.

一方、編集処理前の原画像データを記録媒体から読み出して、生体情報に基づく編集情報によって編集処理を実行しながら、編集処理後の画像を表示するようにする場合には、編集処理後の画像データを記憶するための記録媒体が不要になり、特に動画データを記録するための記録媒体のメモリ容量を大幅に節約することができる。   On the other hand, when the original image data before the editing process is read from the recording medium and the image after the editing process is displayed while executing the editing process based on the editing information based on the biometric information, the image after the editing process is displayed. A recording medium for storing data becomes unnecessary, and in particular, the memory capacity of the recording medium for recording moving image data can be greatly saved.

このとき、自動編集処理を行うための編集情報を、使用者が好みに応じて変更することができるようにしたために、個々人の意思を忠実に反映した編集処理を行うことができる。   At this time, the editing information for performing the automatic editing process can be changed by the user according to his / her preference, so that the editing process reflecting the intention of each individual can be performed.

また、視度調整用のレンズを透明光学部材の前面にそれぞれ配置するようにしたために、視力が異なる観察者でも、実質的に直接観察する(すなわち、この場合には、視度調整用のレンズを介して観察する)被写体に所定の画像を重ねて観察することができる。   In addition, since the diopter adjusting lenses are arranged on the front surface of the transparent optical member, even observers with different visual acuity can observe substantially directly (that is, in this case, the diopter adjusting lens). It is possible to superimpose a predetermined image on the subject.

さらに、簡単な構成で、デザイン的に美しく自然な感じの略めがね型のカメラを構成することが可能となる。   In addition, it is possible to construct an eyeglass-type camera with a simple structure and a beautiful and natural design.

そして、視度調整用のレンズを透明光学部材とは別々に簡単に取り外すことができるように構成したために、表示装置毎にユーザーに応じた視度調整を容易に行うことが可能となる。加えて、このときには、左眼と右眼の視力が異なっていたとしても、各眼に合わせたレンズを装着することが可能となる。   Since the diopter adjustment lens can be easily detached separately from the transparent optical member, diopter adjustment according to the user can be easily performed for each display device. In addition, at this time, even if the visual acuity of the left eye and the right eye is different, it is possible to wear a lens suitable for each eye.

加えて、透明光学部材と撮像部とはフレーム部に一体的に保持されているために、視度調整用のレンズを交換しても、これら透明光学部材と撮像部との角度調整等をその度に行う必要がなく、使い勝手の良い視度調整用レンズ付頭部装着型カメラとなる。   In addition, since the transparent optical member and the imaging unit are integrally held by the frame unit, even if the diopter adjustment lens is replaced, the angle adjustment between the transparent optical member and the imaging unit can be performed. This is a user-friendly head mounted camera with a diopter adjustment lens.

なお、本発明は上述した実施例に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。   In addition, this invention is not limited to the Example mentioned above, Of course, a various deformation | transformation and application are possible within the range which does not deviate from the main point of invention.

本発明は、画像データに編集処理を行うための画像編集装置、画像編集方法、画像編集プログラム、画像編集プログラムを記録する記録媒体に好適に利用することができる。   The present invention can be suitably used for an image editing apparatus, an image editing method, an image editing program, and a recording medium for recording an image editing program for performing editing processing on image data.

本発明の実施例1における頭部装着型カメラの使用形態を示す斜視図。1 is a perspective view showing a usage pattern of a head-mounted camera in Embodiment 1 of the present invention. 上記実施例1における頭部装着部を示す正面図。The front view which shows the head mounting part in the said Example 1. FIG. 上記実施例1における頭部装着部を示す平面図。The top view which shows the head mounting part in the said Example 1. FIG. 上記実施例1における頭部装着部を示す右側面図。The right view which shows the head mounting part in the said Example 1. FIG. 上記実施例1において、操作パネルを閉じた状態の制御/記録部を示す平面図。In the said Example 1, the top view which shows the control / recording part of the state which closed the operation panel. 上記実施例1において、操作パネルを閉じた状態の制御/記録部を示す右側面図。In the said Example 1, the right view which shows the control / recording part of the state which closed the operation panel. 上記実施例1において、操作パネルを閉じた状態の制御/記録部を示す左側面図。In the said Example 1, the left view which shows the control / recording part of the state which closed the operation panel. 上記実施例1において、操作パネルに配置された操作スイッチ類を示す平面図。In the said Example 1, the top view which shows the operation switches arrange | positioned at the operation panel. 上記実施例1において、操作パネルを開いた状態の制御/記録部を示す斜視図。In the said Example 1, the perspective view which shows the control / recording part of the state which opened the operation panel. 上記実施例1におけるリモコン部の構成を示す平面図。The top view which shows the structure of the remote control part in the said Example 1. FIG. 上記実施例1における頭部装着型カメラの主として電子回路に係る構成を示すブロック図。FIG. 3 is a block diagram illustrating a configuration mainly related to an electronic circuit of the head-mounted camera in the first embodiment. 上記実施例1におけるシースルー画像表示部の光学系の原理を説明するための図。FIG. 3 is a diagram for explaining the principle of the optical system of the see-through image display unit in the first embodiment. 上記実施例1におけるシースルー画像表示部の光学系の構成を示す一部断面を含む正面図。FIG. 3 is a front view including a partial cross section illustrating a configuration of an optical system of a see-through image display unit in the first embodiment. 上記実施例1におけるシースルー画像表示部の光学系の構成を示す左側面図。FIG. 3 is a left side view illustrating the configuration of the optical system of the see-through image display unit in the first embodiment. 上記実施例1における視線方向検出部の光学系の一構成例を示す一部断面を含む正面図。FIG. 3 is a front view including a partial cross section showing a configuration example of an optical system of a line-of-sight direction detection unit in the first embodiment. 上記実施例1における視線方向検出部の光学系の一構成例を示す左側面図。FIG. 4 is a left side view illustrating a configuration example of an optical system of a line-of-sight direction detection unit in the first embodiment. 上記実施例1における視線方向検出部の光学系の他の構成例を示す一部断面を含む正面図。The front view including the partial cross section which shows the other structural example of the optical system of the gaze direction detection part in the said Example 1. FIG. 上記実施例1における視線方向検出部の光学系の他の構成例を示す左側面図。FIG. 7 is a left side view illustrating another configuration example of the optical system of the line-of-sight direction detection unit in the first embodiment. 上記実施例1において、撮像部をフレーム部に取り付ける構成を示す平面図および右側面図。In the said Example 1, the top view and right view which show the structure which attaches an imaging part to a frame part. 上記実施例1において、撮像部を取り付けるためにフレーム部に設けられた孔の構成を示す右側面図。In the said Example 1, the right view which shows the structure of the hole provided in the flame | frame part in order to attach an imaging part. 上記実施例1のシースルー表示における初期状態の表示例を示す図。The figure which shows the example of a display of the initial state in the see-through display of the said Example 1. FIG. 上記実施例1において、テレへのズームが行われたときの表示例を示す図。In the said Example 1, the figure which shows the example of a display when zoom to tele is performed. 上記実施例1において、ワイドへのズームおよび露出補正が行われたときの表示例を示す図。The figure which shows the example of a display when zoom to wide and exposure correction | amendment are performed in the said Example 1. FIG. 上記実施例1において、電子ビュー表示を行うときの表示例を示す図。The figure which shows the example of a display when performing electronic view display in the said Example 1. FIG. 上記実施例1において、動画を録画中の表示例を示す図。The figure which shows the example of a display during video recording in the said Example 1. FIG. 上記実施例1において、マニュアルモード時の表示例を示す図。In the said Example 1, the figure which shows the example of a display at the time of manual mode. 上記実施例1において、フルオートモードで動画を録画中の表示例を示す図。The figure which shows the example of a display during video recording in the full auto mode in the said Example 1. FIG. 上記実施例1において、撮影光学系の焦点距離が焦点調節可能な下限値に達しているにもかかわらず、さらに小さい方へ操作されようとしている場合にシースルー表示される警告表示の例を示す図。FIG. 6 is a diagram illustrating an example of a warning display that is displayed in a see-through manner when an attempt is made to operate the photographing optical system to a smaller one in spite of the fact that the focal length of the photographing optical system has reached a lower limit value that allows focus adjustment. . 上記実施例1において、撮影光学系の焦点距離が焦点調節可能な上限値に達しているにもかかわらず、さらに大きい方へ操作されようとしている場合にシースルー表示される警告表示の例を示す図。FIG. 6 is a diagram illustrating an example of a warning display that is displayed in a see-through manner when an attempt is made to operate the photographic optical system in a larger direction even though the focal length of the photographing optical system has reached an upper limit value that allows focus adjustment. . 上記実施例1において、静止画を撮影する操作が行われたときの表示例を示す図。FIG. 6 is a diagram illustrating a display example when an operation for capturing a still image is performed in the first embodiment. 上記実施例1のキャリブレーションモードにおける表示例を示す図。FIG. 6 is a diagram illustrating a display example in a calibration mode according to the first embodiment. 上記実施例1において、被写体と撮影光学系とCCDとの光学的な関係を説明するための図。FIG. 3 is a diagram for explaining an optical relationship among a subject, a photographing optical system, and a CCD in the first embodiment. 上記実施例1において、HOEとこのHOEにより形成される虚像と眼との光学的な関係を説明するための図。In the said Example 1, the figure for demonstrating the optical relationship between HOE, the virtual image formed by this HOE, and eyes. 上記実施例1において、パララックスを補正するのに必要な虚像のシフト量を説明するための図。FIG. 6 is a diagram for explaining a virtual image shift amount necessary to correct parallax in the first embodiment. 上記実施例1において、視線方向にある被写体を撮像部から見るときの角度の関係を示す図。FIG. 4 is a diagram illustrating an angle relationship when a subject in the line-of-sight direction is viewed from the imaging unit in the first embodiment. 上記実施例1において、照明光束の光軸Lmと眼の視線方向の視軸Lm’とが一致しているときの、該光軸Lmおよび視軸Lm’を含む面による眼の断面図。FIG. 6 is a cross-sectional view of the eye by a plane including the optical axis Lm and the visual axis Lm ′ when the optical axis Lm of the illumination light beam and the visual axis Lm ′ in the eye sight line direction coincide with each other in the first embodiment. 上記実施例1において、光軸Lmに垂直に交差する線を横軸として、眼の像を視線方向/角速度検出部により撮像したときのCCDの出力信号を縦軸方向にプロットした図。FIG. 4 is a diagram in which CCD output signals are plotted in the vertical axis direction when an eye image is picked up by the line-of-sight direction / angular velocity detection unit with the line perpendicular to the optical axis Lm perpendicular to the horizontal axis in the first embodiment. 上記実施例1において、照明光束の光軸Lmと眼の視線方向の視軸Lm’とが交差しているときの、該光軸Lmおよび視軸Lm’を含む面による眼の断面図。FIG. 3 is a cross-sectional view of the eye by a plane including the optical axis Lm and the visual axis Lm ′ when the optical axis Lm of the illumination light beam intersects with the visual axis Lm ′ in the eye viewing direction in the first embodiment. 上記実施例1において、光軸Lmおよび視軸Lm’に交差し該光軸Lmに垂直な線を横軸として、眼の像を視線方向/角速度検出部により撮像したときのCCDの出力信号を縦軸方向にプロットした図。In the first embodiment, the CCD output signal when the eye image is captured by the visual line direction / angular velocity detector with the line intersecting the optical axis Lm and the visual axis Lm ′ and perpendicular to the optical axis Lm as the horizontal axis. The figure plotted in the vertical axis direction. 上記実施例1において、2次元の撮像素子から得られる眼の像を示す図。FIG. 3 is a diagram showing an eye image obtained from a two-dimensional image sensor in the first embodiment. 上記実施例1において、プルキンエ像を中心として眼の像に設定される所定の領域を示す図。In the said Example 1, the figure which shows the predetermined area | region set to the image of an eye centering on a Purkinje image. 上記実施例1において、多重化回路から出力される信号の時系列的な構成を示す図。In the said Example 1, the figure which shows the time-sequential structure of the signal output from a multiplexing circuit. 上記図54のステップS8の処理において記録される各種データの構造を示す図。The figure which shows the structure of the various data recorded in the process of step S8 of the said FIG. 上記実施例1において、動画データ管理エリアの詳細な構成を示す図。In the said Example 1, the figure which shows the detailed structure of a moving image data management area. 上記実施例1において、動画データ管理エリアを参照して得られる情報表示の一例を示す図。The figure which shows an example of the information display obtained by referring the moving image data management area in the said Example 1. FIG. 上記実施例1において、編集済動画データ管理エリアの詳細な構成を示す図。In the said Example 1, the figure which shows the detailed structure of the edited moving image data management area. 上記実施例1において、X方向の視線位置の時間変化を示す図。In the said Example 1, the figure which shows the time change of the gaze position of a X direction. 上記実施例1において、Y方向の視線位置の時間変化を示す図。In the said Example 1, the figure which shows the time change of the eyes | visual_axis position of a Y direction. 上記実施例1におけるズーミングの時間変化を示す図。The figure which shows the time change of the zooming in the said Example 1. FIG. 上記実施例1における角速度の時間変化を示す線図。The diagram which shows the time change of the angular velocity in the said Example 1. FIG. 上記実施例1における角速度の絶対値の時間変化を示す線図。The diagram which shows the time change of the absolute value of angular velocity in the said Example 1. FIG. 上記実施例1における角速度の時間積分値の変化の様子を示す線図。The diagram which shows the mode of the change of the time integral value of the angular velocity in the said Example 1. FIG. 上記実施例1において、カッティングを行った後に孤立した画像が残っている様子を示す図。In the said Example 1, the figure which shows a mode that the isolated image remains after performing cutting. 上記実施例1におけるカメラの動作の一部を示すフローチャート。7 is a flowchart showing a part of the operation of the camera in the first embodiment. 上記実施例1におけるカメラの動作の他の一部を示すフローチャート。9 is a flowchart showing another part of the operation of the camera in the first embodiment. 上記図54のステップS4に示した危険防止のサブルーチンの詳細を示すフローチャート。The flowchart which shows the detail of the danger prevention subroutine shown to step S4 of the said FIG. 上記実施例1において、瞳孔中心の位置とプルキンエ像の位置とを求める処理を示すフローチャート。7 is a flowchart showing processing for obtaining the position of the pupil center and the position of the Purkinje image in the first embodiment. 上記実施例1において、視線方向検出に係るキャリブレーションの処理を示すフローチャート。7 is a flowchart illustrating calibration processing according to gaze direction detection in the first embodiment. 上記実施例1における編集処理を示すフローチャート。7 is a flowchart showing editing processing in the first embodiment. 上記実施例1における動的編集処理装置の構成の要部を示すブロック図。FIG. 3 is a block diagram illustrating a main part of the configuration of the dynamic editing processing apparatus according to the first embodiment. 上記実施例1における第1のズーミングのパターンを示す図。FIG. 3 is a diagram illustrating a first zooming pattern in the first embodiment. 上記実施例1における第1のズーミングパターンに応じて編集情報メモリに記憶されているズーミングに関する編集情報を示す図。The figure which shows the edit information regarding the zooming memorize | stored in the edit information memory according to the 1st zooming pattern in the said Example 1. FIG. 上記実施例1における第2のズーミングのパターンを示す図。The figure which shows the pattern of the 2nd zooming in the said Example 1. FIG. 上記実施例1における第2のズーミングパターンに応じて編集情報メモリに記憶されているズーミングに関する編集情報を示す図。The figure which shows the edit information regarding the zooming memorize | stored in the edit information memory according to the 2nd zooming pattern in the said Example 1. FIG. 上記実施例1における第3のズーミングのパターンを示す図。The figure which shows the pattern of the 3rd zooming in the said Example 1. FIG. 上記実施例1における第3のズーミングパターンに応じて編集情報メモリに記憶されているズーミングに関する編集情報を示す図。The figure which shows the edit information regarding the zooming memorize | stored in the edit information memory according to the 3rd zooming pattern in the said Example 1. FIG. 上記実施例1における第4のズーミングのパターンを示す図。The figure which shows the pattern of the 4th zooming in the said Example 1. FIG. 上記実施例1における第4のズーミングパターンに応じて編集情報メモリに記憶されているズーミングに関する編集情報を示す図。The figure which shows the edit information regarding the zooming memorize | stored in the edit information memory according to the 4th zooming pattern in the said Example 1. FIG. 上記実施例1において、スムージングの編集情報を表すコードの例を示す図。In the said Example 1, the figure which shows the example of the code | cord | chord showing the edit information of smoothing. 上記実施例1において、カッティングの編集情報を表すコードの例を示す図。In the said Example 1, the figure which shows the example of the code | symbol showing the edit information of cutting.

符号の説明Explanation of symbols

1…頭部装着型カメラ
2…頭部装着部
3…ケーブル
4…制御/記録部(画像データ記録手段、生体情報記録手段、処理手段、パララックス補正手段、演算手段、危険防止手段、相対速度検出手段、相対速度距離検出手段、歩行検出手段、角膜反射光検出手段、領域設定手段、最小値検出手段、瞳孔検出手段、視線方向演算手段)
5…リモートコントロール部(リモコン部)
6…シースルー画像表示部(表示手段、危険防止手段)
7…視線方向/角速度検出部(生体情報検出手段、視線方向検出手段、角速度検出手段)
11…フロント部
12…テンプル部
13…フレーム部
14,15…透明光学部材
16…投光用発光部(測距手段)
16a…投光用LED
16b…集光レンズ
17…第1マイク
18…第2マイク
19…鼻パッド
20…リム(取付手段)
21,22…視度調整用のレンズ
24…ホログラフィー光学素子(HOE、赤外光投影手段)
25…ホログラフィー光学素子(HOE)
26…先セルモダン
27…収納部
30…撮像部(撮像手段、測距手段)
31…撮影光学系
32…ケーブル接続端子
33…台座(調整手段)
34,35…ビス(ピッチ方向調整手段)
36,37…ビス(ヨー方向調整手段)
39…スイッチ(危険防止操作手段)
41…制御/記録本体部
42…操作パネル
44…電源スイッチ
48…LCD表示素子(表示手段)
49…ケーブル接続端子
50…AV/S接続端子
51…PC接続端子
54…記録用メモリ挿入口
55…バッテリ挿入口
56…スピーカ
59…再生/停止スイッチ
61,62…スイッチ
63…メニューボタン
65…確定スイッチ
66,67,68,69…メニュー選択スイッチ
71…FA/A/Mスイッチ(切換手段)
72…F/Vスイッチ(切換手段)
73…レリーズスイッチ
74…録画スイッチ
75…ズームスイッチ(撮影画枠設定手段)
76…露出補正スイッチ
78,79…丁番
87…CCD(撮像素子)
88…CDS/AGC回路(信号処理手段)
89…A/D変換回路(信号処理手段)
90…タイミングジェネレータ(TG)
91…CCDドライバ
92,93,94…超音波モータ(USM)
95…USMドライバ
96…絞りシャッタドライバ
97…オート露出処理回路(AE処理回路)
98…オートフォーカス処理回路(AF処理回路)
102…EEPROM
103…第3CPU
104…多重化回路
111…第4CPU
112…LEDドライバ
113…LED(投影手段)
114…集光レンズ(投影手段)
115…LCD表示素子(投影手段、表示素子)
116…ホログラフィー光学素子(HOE)
117…LCDドライバ(補正手段、視角調整手段)
118…LEDドライバ
121…第2CPU(制御手段)
122…RAM
123…タイマ
124…LEDドライバ(赤外光投影手段)
125…LED(赤外光投影手段)
126…集光レンズ(赤外光投影手段)
127…反射ミラー(赤外光投影手段)
128…ハーフミラー
129…ホログラフィー光学素子(HOE)
131…反射ミラー
132…結像レンズ
133…バンドパスフィルタ
134…CCD(二次元の光電変換手段)
135…CCDドライバ
136…CDS/AGC回路
137…A/D変換回路
138…TG
141,142…角速度センサ(角速度検出手段)
151…分離回路
152…DSP回路
153…遅延回路
154…多重化回路
155…メモリ
156…圧縮/伸張回路
157…記録用メモリ(画像データ記録手段、生体情報記録手段)
158…D/A変換回路
160…LCDドライバ
161…第1CPU(制御手段)
162…第1操作スイッチ
163…受信回路
164…電源回路
171…第2操作スイッチ
172…デコーダ
173…送信回路
174…電源回路
191…孔(ピッチ方向調整手段)
192…長孔(ピッチ方向調整手段)
193…孔(ヨー方向調整手段)
194…長孔(ヨー方向調整手段)
201…撮影画枠
203…電子画像
202,204,205,206,207,210,211…情報表示
208,209…警告表示
231…原画像メモリ(画像データ記録手段)
232…操作部(操作手段)
233…プログラム修正部(編集情報修正手段)
234…編集情報メモリ(生体情報記録手段)
235…読出部(処理手段)
236…編集処理部(処理手段)
237…編集処理プログラムメモリ(処理手段)
238…表示部(表示手段)
代理人 弁理士 伊 藤 進
DESCRIPTION OF SYMBOLS 1 ... Head-mounted camera 2 ... Head mounting part 3 ... Cable 4 ... Control / recording part (Image data recording means, biological information recording means, processing means, parallax correction means, calculation means, danger prevention means, relative speed Detection means, relative speed distance detection means, walking detection means, corneal reflected light detection means, region setting means, minimum value detection means, pupil detection means, eye direction calculation means)
5. Remote control part (remote control part)
6 ... See-through image display section (display means, danger prevention means)
7: Gaze direction / angular velocity detection unit (biological information detection means, gaze direction detection means, angular velocity detection means)
DESCRIPTION OF SYMBOLS 11 ... Front part 12 ... Temple part 13 ... Frame part 14, 15 ... Transparent optical member 16 ... Light emission part for light projection (ranging means)
16a ... LED for floodlight
16b ... Condensing lens 17 ... First microphone 18 ... Second microphone 19 ... Nose pad 20 ... Rim (mounting means)
21, 22 ... Diopter adjustment lens 24 ... Holographic optical element (HOE, infrared light projection means)
25. Holographic optical element (HOE)
26: Cell modern 27: Storage unit 30: Imaging unit (imaging means, ranging means)
31 ... Shooting optical system 32 ... Cable connection terminal 33 ... Base (adjustment means)
34, 35 ... Screw (pitch direction adjusting means)
36, 37 ... screws (yaw direction adjusting means)
39 ... Switch (Danger prevention operation means)
41 ... Control / Recording main body 42 ... Operation panel 44 ... Power switch 48 ... LCD display element (display means)
49 ... Cable connection terminal 50 ... AV / S connection terminal 51 ... PC connection terminal 54 ... Recording memory insertion port 55 ... Battery insertion port 56 ... Speaker 59 ... Play / Stop switch 61, 62 ... Switch 63 ... Menu button 65 ... Confirm Switch 66, 67, 68, 69 ... Menu selection switch 71 ... FA / A / M switch (switching means)
72 ... F / V switch (switching means)
73 ... Release switch 74 ... Recording switch 75 ... Zoom switch (photographing frame setting means)
76 ... Exposure compensation switch 78, 79 ... Hinge 87 ... CCD (imaging device)
88 ... CDS / AGC circuit (signal processing means)
89... A / D conversion circuit (signal processing means)
90 ... Timing generator (TG)
91 ... CCD driver 92, 93, 94 ... Ultrasonic motor (USM)
95 ... USM driver 96 ... Aperture shutter driver 97 ... Auto exposure processing circuit (AE processing circuit)
98 ... Autofocus processing circuit (AF processing circuit)
102 ... EEPROM
103 ... 3rd CPU
104: Multiplexing circuit 111: Fourth CPU
112 ... LED driver 113 ... LED (projection means)
114 ... Condensing lens (projection means)
115 ... LCD display element (projection means, display element)
116: Holographic optical element (HOE)
117 ... LCD driver (correction means, viewing angle adjustment means)
118 ... LED driver 121 ... 2nd CPU (control means)
122 ... RAM
123 ... Timer 124 ... LED driver (infrared light projection means)
125 ... LED (infrared light projection means)
126 ... Condensing lens (infrared light projection means)
127: Reflection mirror (infrared light projection means)
128 ... half mirror 129 ... holographic optical element (HOE)
131: Reflecting mirror 132 ... Imaging lens 133 ... Band pass filter 134 ... CCD (two-dimensional photoelectric conversion means)
135 ... CCD driver 136 ... CDS / AGC circuit 137 ... A / D conversion circuit 138 ... TG
141, 142 ... Angular velocity sensor (angular velocity detecting means)
151 ... Separation circuit 152 ... DSP circuit 153 ... Delay circuit 154 ... Multiplexing circuit 155 ... Memory 156 ... Compression / decompression circuit 157 ... Memory for recording (image data recording means, biological information recording means)
158 ... D / A conversion circuit 160 ... LCD driver 161 ... first CPU (control means)
162 ... 1st operation switch 163 ... reception circuit 164 ... power supply circuit 171 ... 2nd operation switch 172 ... decoder 173 ... transmission circuit 174 ... power supply circuit 191 ... hole (pitch direction adjusting means)
192 ... long hole (pitch direction adjusting means)
193 ... hole (yaw direction adjusting means)
194 ... slot (yaw direction adjusting means)
201 ... Shooting image frame 203 ... Electronic images 202, 204, 205, 206, 207, 210, 211 ... Information display 208, 209 ... Warning display 231 ... Original image memory (image data recording means)
232 ... Operation unit (operation means)
233 ... Program correction section (editing information correction means)
234 ... Editing information memory (biological information recording means)
235 ... Reading unit (processing means)
236 ... Editing processing section (processing means)
237 ... Editing processing program memory (processing means)
238 ... Display section (display means)
Agent Patent Attorney Susumu Ito

Claims (11)

被写体を観察するときの撮影者の動きに関連する生体情報を、該生体情報が記録された時刻に関するタイム情報に関連付けて記録する生体情報記録手段と、
上記タイム情報に関連付けて画像データを記録するための画像データ記録手段と、
上記画像データ記録手段により記録された画像データを読み出して、読み出した画像データと同時刻に記録された上記生体情報に基づいて、該画像データに所定の編集処理を行う処理手段と、
を具備したことを特徴とする画像編集装置。
Biometric information recording means for recording biometric information related to the movement of the photographer when observing the subject in association with time information relating to the time when the biometric information was recorded;
Image data recording means for recording image data in association with the time information;
Processing means for reading the image data recorded by the image data recording means, and performing a predetermined editing process on the image data based on the biometric information recorded at the same time as the read image data;
An image editing apparatus comprising:
上記画像データは、撮影者の頭部に装着された状態のカメラにより撮影して得られたものであることを特徴とする請求項1に記載の画像編集装置。   The image editing apparatus according to claim 1, wherein the image data is obtained by photographing with a camera mounted on a photographer's head. 上記生体情報は、撮影者の頭部の角速度に係る角速度情報であることを特徴とする請求項1に記載の画像編集装置。   The image editing apparatus according to claim 1, wherein the biological information is angular velocity information related to an angular velocity of a photographer's head. 上記角速度情報に基づいて、記録された画像データの、カッティングと、ぶれ補正と、記録時間の引き延ばしと、電子ズーミングと、の内の少なくとも1つを、上記編集処理として行うように構成されたものであることを特徴とする請求項3に記載の画像編集装置。   Based on the angular velocity information, recorded image data is configured to perform at least one of cutting, blurring correction, recording time extension, and electronic zooming as the editing process. The image editing apparatus according to claim 3, wherein: 上記生体情報は、撮影者の視線方向に係る視線方向情報であることを特徴とする請求項1に記載の画像編集装置。   The image editing apparatus according to claim 1, wherein the biological information is gaze direction information related to a gaze direction of a photographer. 上記視線方向情報に基づいて、記録された画像データの電子ズーミングを、上記編集処理として行うように構成されたものであることを特徴とする請求項5に記載の画像編集装置。   The image editing apparatus according to claim 5, wherein electronic zooming of recorded image data is performed as the editing process based on the line-of-sight direction information. 上記視線方向情報は、視線方向の移動速度と、視線方向の連続的な移動量と、の少なくとも一方を含む情報であることを特徴とする請求項5に記載の画像編集装置。   The image editing apparatus according to claim 5, wherein the line-of-sight direction information is information including at least one of a movement speed in the line-of-sight direction and a continuous movement amount in the line-of-sight direction. 編集処理に関する情報を、手動操作により修正し得るように構成されたものであることを特徴とする請求項1に記載の画像編集装置。   The image editing apparatus according to claim 1, wherein the information on the editing process is configured to be corrected by a manual operation. 被写体を観察するときの撮影者の動きに関連する生体情報及び画像データを、上記生体情報及び画像データが記録された時刻に関するタイム情報に関連付けて記録するステップと、
上記記録された画像データを読み出して、読み出した画像データと同時刻に記録された上記生体情報に基づいて、該画像データに所定の編集処理を行うステップと、
を含むことを特徴とする画像編集方法。
Recording biometric information and image data related to the movement of the photographer when observing the subject in association with time information related to the time when the biometric information and image data were recorded;
Reading the recorded image data and performing a predetermined editing process on the image data based on the biometric information recorded at the same time as the read image data;
An image editing method comprising:
被写体を観察するときの撮影者の動きに関連する生体情報及び画像データを、上記生体情報及び画像データが記録された時刻に関するタイム情報に関連付けて記録するステップと、
上記記録された画像データを読み出して、読み出した画像データと同時刻に記録された上記生体情報に基づいて、該画像データに所定の編集処理を行うステップと、
をコンピュータに実行させるための画像編集プログラム。
Recording biometric information and image data related to the movement of the photographer when observing the subject in association with time information related to the time when the biometric information and image data were recorded;
Reading the recorded image data and performing a predetermined editing process on the image data based on the biometric information recorded at the same time as the read image data;
An image editing program for causing a computer to execute.
被写体を観察するときの撮影者の動きに関連する生体情報及び画像データを、上記生体情報及び画像データが記録された時刻に関するタイム情報に関連付けて記録するステップと、
上記記録された画像データを読み出して、読み出した画像データと同時刻に記録された上記生体情報に基づいて、該画像データに所定の編集処理を行うステップと、
をコンピュータに実行させるための画像編集プログラムを記録する記録媒体。
Recording biometric information and image data related to the movement of the photographer when observing the subject in association with time information related to the time when the biometric information and image data were recorded;
Reading the recorded image data and performing a predetermined editing process on the image data based on the biometric information recorded at the same time as the read image data;
A recording medium for recording an image editing program for causing a computer to execute.
JP2004061438A 2004-03-04 2004-03-04 Method, and program for image editing and recording medium for recording image-editing program Pending JP2005252733A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004061438A JP2005252733A (en) 2004-03-04 2004-03-04 Method, and program for image editing and recording medium for recording image-editing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004061438A JP2005252733A (en) 2004-03-04 2004-03-04 Method, and program for image editing and recording medium for recording image-editing program

Publications (1)

Publication Number Publication Date
JP2005252733A true JP2005252733A (en) 2005-09-15

Family

ID=35032792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004061438A Pending JP2005252733A (en) 2004-03-04 2004-03-04 Method, and program for image editing and recording medium for recording image-editing program

Country Status (1)

Country Link
JP (1) JP2005252733A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01125068A (en) * 1987-11-09 1989-05-17 Matsushita Electric Ind Co Ltd Blur correcting device
JPH04503289A (en) * 1989-02-06 1992-06-11 ドイチェ トムソン―ブラント ゲゼルシャフト ミット ベシュレンクテル ハフツング Equipment with a video camera and video recorder
JPH05191699A (en) * 1992-01-08 1993-07-30 Nippon Telegr & Teleph Corp <Ntt> Multi-information camera
JP2001281520A (en) * 2000-03-30 2001-10-10 Minolta Co Ltd Optical device
JP2003230099A (en) * 2002-02-01 2003-08-15 Teruyoshi Maruyama Camera system for recording video on occurrence of shock

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01125068A (en) * 1987-11-09 1989-05-17 Matsushita Electric Ind Co Ltd Blur correcting device
JPH04503289A (en) * 1989-02-06 1992-06-11 ドイチェ トムソン―ブラント ゲゼルシャフト ミット ベシュレンクテル ハフツング Equipment with a video camera and video recorder
JPH05191699A (en) * 1992-01-08 1993-07-30 Nippon Telegr & Teleph Corp <Ntt> Multi-information camera
JP2001281520A (en) * 2000-03-30 2001-10-10 Minolta Co Ltd Optical device
JP2003230099A (en) * 2002-02-01 2003-08-15 Teruyoshi Maruyama Camera system for recording video on occurrence of shock

Similar Documents

Publication Publication Date Title
JP2005252732A (en) Imaging device
JP4364047B2 (en) Display device, imaging device
US10666856B1 (en) Gaze-directed photography via augmented reality feedback
US7447330B2 (en) Image capturing apparatus
JP4364002B2 (en) Head-mounted camera and photographing method using head-mounted camera
JP4635572B2 (en) Video display device
JP2009075610A (en) See-through type display device with hazard prevention function and hazard prevention method when see-through type display device is used
JP2011101300A (en) Photographing device and remote operation support system
JP2008123257A (en) Remote operation support system and display control method
JP2005252734A (en) Head-mounted camera
US20100315537A1 (en) Zoom lens and imaging apparatus
JP2005303842A (en) Head-mounting camera
JP2000201289A (en) Image input-output device and image acquiring method
JP2005252735A (en) Head-mounted display having danger prevention function
JP2006050163A (en) Image pickup device
JP2005245791A (en) Direction detector for line of vision
JP2006050164A (en) Image editing apparatus, image editing program and recording medium
JP2005252736A (en) Image reproducing device, image reproducing method, image reproducing program and recording medium for recording image reproducing program
JP2005277567A (en) Image recording device
JP2005221887A (en) Display device and imaging device
JP2007219069A (en) Image display
JP2005252733A (en) Method, and program for image editing and recording medium for recording image-editing program
JP2004215062A (en) Imaging device
JP2005223751A (en) Adjustment apparatus for head-mounted camera, and adjusting method for head-mounted camera
JP2005221888A (en) Head-mounted type display device and head-mounted type camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080924

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090203