JP2008177656A - Imaging unit - Google Patents

Imaging unit Download PDF

Info

Publication number
JP2008177656A
JP2008177656A JP2007006906A JP2007006906A JP2008177656A JP 2008177656 A JP2008177656 A JP 2008177656A JP 2007006906 A JP2007006906 A JP 2007006906A JP 2007006906 A JP2007006906 A JP 2007006906A JP 2008177656 A JP2008177656 A JP 2008177656A
Authority
JP
Japan
Prior art keywords
imaging
unit
optical system
imaging optical
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007006906A
Other languages
Japanese (ja)
Inventor
Kentaro Iida
健太郎 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2007006906A priority Critical patent/JP2008177656A/en
Publication of JP2008177656A publication Critical patent/JP2008177656A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging unit capable of appropriately performing a remote operation support by facilitating an appropriate communication between an operator and an instructor by reducing differences between an object of operation that the operator is viewing and an image of the object of operation which is being viewed by the instructor and captured by an electronic camera to enable the operator and instructor to share the same image information. <P>SOLUTION: The imaging unit controls an exposure value based upon a previously stored exposure value or focuses an image of a subject based upon a previously stored focusing position in a direction that an imaging optical system faces to reduce differences between the object of operation that the operator is viewing and the image of the object of operation which is being viewed by the instructor and captured by the electronic camera to enable the operator and instructor to share the same image information, so the imaging unit provides accurate remote operation assistance by accelerating accurate communication between the operator and instructor. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像ユニットに関し、特に、撮像光学系が向いている方向での以前に記憶された露出値に基づいて露出値を制御する、あるいは撮像光学系が向いている方向での以前に記憶された合焦位置に基づいて被写体の像を合焦させる撮像ユニットに関する。   The present invention relates to an imaging unit, and in particular, controls an exposure value based on a previously stored exposure value in a direction in which the imaging optical system faces, or stores it in a direction in which the imaging optical system faces. The present invention relates to an imaging unit that focuses an image of a subject based on the focused position.

従来、観察者の頭部や顔面に着脱自在に装着され、小型の液晶表示素子等の画像表示素子に表示される画像を接眼光学系によって観察者の眼球に直接投影させて、あたかも該画像が空中に拡大投影されているかのような虚像の観察を可能にした頭部装着式画像表示装置、すなわちHMD(Head Mount Display)が知られている。HMDは、DVD(Digital Video Disc)やビデオ等のコンテンツ画像の観賞用や、産業機器若しくは医療機器等における遠隔操作用の表示装置として利用され、その用途は多岐に渡っている。   Conventionally, an image that is detachably mounted on the observer's head or face and displayed on an image display element such as a small liquid crystal display element is projected directly onto the observer's eyeball by an eyepiece optical system, and the image is as if A head-mounted image display device that enables observation of a virtual image as if it has been enlarged and projected in the air, that is, an HMD (Head Mount Display) is known. The HMD is used as a display device for viewing a content image such as a DVD (Digital Video Disc) or a video, or for remote operation in an industrial device or a medical device, and has a wide variety of uses.

遠隔操作用としては、作業者が電子カメラを備えたHMDを装着し、電子カメラが捉えた作業対象物の画像を、遠隔地にいる指示者が例えばホストコンピュータ等のモニタで観察しながら、作業者の装着したHMDに画像による適切な情報を送信して提供し、必要に応じて音声による指示等も併用して作業指示を行う、といった遠隔作業支援システムが種々提案されている(例えば、特許文献1参照)。   For remote operation, an operator wears an HMD equipped with an electronic camera, and an operator at a remote location observes an image of a work object captured by the electronic camera on a monitor such as a host computer. Various remote work support systems have been proposed (for example, patents) that send and provide appropriate information by an image to an HMD worn by a person and perform work instructions in combination with voice instructions if necessary (for example, patents) Reference 1).

この様な遠隔作業支援システムにおいては、作業者が行う作業に伴って、作業者の頭部が頻繁に動いて所謂手ブレ状態のようになる場合が多く、その度に電子カメラの自動露出制御(以下、AEと言う)機能や自動焦点調節(以下、AFと言う)機能が働いて、遠隔地にいる指示者が見ているモニタ上の画像の露出やピントが度々変化して画像が非常に見苦しくなり、作業者と指示者との情報の共有化や的確な遠隔作業支援の妨げとなる。   In such a remote operation support system, the operator's head frequently moves in a so-called camera shake state with the work performed by the worker, and the automatic exposure control of the electronic camera is performed each time. (Hereinafter referred to as AE) and automatic focus adjustment (hereinafter referred to as AF) functions, and the exposure and focus of the image on the monitor viewed by the remote instructor often changes, resulting in an extremely This makes it difficult to share information between the worker and the instructor and to support accurate remote work.

そこで、手ブレなどが生じた際にも、自動焦点調節手段が頻繁に動作して見苦しい撮像画像が得られないように、撮像された画像の動き状態を検出し、該動き状態と光学系の駆動態様とが所定の条件を満たした場合は手ブレと判断して、自動焦点調節手段の作動を禁止する手段を備えたビデオカメラが提案されている(例えば、特許文献2参照)。   Therefore, even when camera shake occurs, the movement state of the captured image is detected so that the automatic focus adjustment means frequently operates and an unsightly captured image is not obtained. There has been proposed a video camera provided with means for prohibiting the operation of the automatic focus adjustment means by determining that a camera shake is caused when the drive mode satisfies a predetermined condition (see, for example, Patent Document 2).

また、横切り被写体の影響を防止するためにオートフォーカス動作を停止していても、パーンおよびチルトを検出したときはオートフォーカス動作を再開するビデオカメラのオートフォーカス装置が提案されている(例えば、特許文献3参照)。   In addition, there has been proposed an autofocus device for a video camera that resumes autofocus operation when panning and tilt are detected even when autofocus operation is stopped to prevent the influence of a crossing subject (for example, a patent) Reference 3).

さらに、カメラ位置の移動の間の不要なオートフォーカス動作を除去するために、旋回雲台が稼働中はオートフォーカス動作を停止するテレビ会議端末のカメラ制御方式が提案されている(例えば、特許文献4参照)。
特開2002−132487号公報 特開平5−336426号公報 特開平6−153053号公報 特開平7−274054号公報
Furthermore, in order to eliminate unnecessary autofocus operation during the movement of the camera position, a camera control method for a video conference terminal that stops the autofocus operation while the swivel head is operating has been proposed (for example, Patent Documents). 4).
JP 2002-132487 A JP-A-5-336426 Japanese Patent Laid-Open No. 6-153053 JP-A-7-274054

特許文献2乃至4で提案された方法によれば、所謂手ブレ状態への対応としては一定の効果が期待できる。しかし、例えば、作業対象物を異なる角度から観察するために作業者が首を動かした場合、電子カメラの画像の露出やピントがずれてしまい、AE機能やAF機能が応答して露出やピントを合わせ直して画像が正常になるまでの間、遠隔地にいる指示者は作業者と同じ画像情報を共有することができなくなるという課題には対応できない。   According to the methods proposed in Patent Documents 2 to 4, a certain effect can be expected as a response to a so-called camera shake state. However, for example, when the operator moves his / her neck to observe the work object from a different angle, the exposure and focus of the image of the electronic camera are shifted, and the AE function and AF function respond to the exposure and focus. Until the image is restored and the image becomes normal, the instructor at the remote location cannot cope with the problem that the same image information as the worker cannot be shared.

よって、作業者が目視している作業対象物と、遠隔地にいる指示者がモニタ上で見ている電子カメラが捉えた作業対象物の画像とが異なる、つまり、特許文献2乃至4で提案された方法は、作業者と指示者の持つ情報が異なり、作業者と指示者との的確なコミュニケーションの妨げとなるという課題への解決策とはならない。   Therefore, the work object visually recognized by the worker is different from the image of the work object captured by the electronic camera viewed on the monitor by the instructor in the remote place, that is, proposed in Patent Documents 2 to 4. This method does not provide a solution to the problem that the information held by the operator and the instructor is different and hinders accurate communication between the operator and the instructor.

本発明は、上記事情に鑑みてなされたもので、作業者が目視している作業対象物と遠隔地にいる指示者がモニタ上で見ている電子カメラが捉えた作業対象物の画像が異なる状態を極力少なくすることで、作業者と指示者とが同じ画像情報を共有することができるようにして、作業者と指示者との的確なコミュニケーションを促進し、的確な遠隔作業支援を行うことのできる撮像ユニットを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an image of a work object captured by an electronic camera viewed on a monitor by an instructor in a remote place is different from a work object viewed by an operator. By reducing the state as much as possible, the operator and the instructor can share the same image information, promote accurate communication between the operator and the instructor, and provide accurate remote work support. An object of the present invention is to provide an imaging unit capable of performing the above.

本発明の目的は、下記構成により達成することができる。   The object of the present invention can be achieved by the following constitution.

1.被写体の像を撮像するための撮像素子と、
被写体の像を前記撮像素子の撮像面に結像するための撮像光学系と、
前記撮像素子によって撮像される被写体の像の露出値を制御するための露出制御部と、
前記撮像光学系の位置を移動させて、被写体の像を前記撮像素子の撮像面に合焦させるための合焦制御部とを備えた撮像ユニットにおいて、
前記撮像光学系の向きの変化を検知する向き変化検知部と、
前記向き変化検知部の検知結果に基づいて前記撮像光学系の向きを算出する向き算出部と、
前記向き算出部によって算出された前記撮像光学系の向きに対応する記憶位置に、その向きでの前記露出制御部によって制御された露出値と、前記合焦制御部によって制御された前記撮像光学系の合焦位置とを記憶する記憶部と、
前記記憶部の前記向き算出部によって算出された前記撮像光学系の向きに対応する記憶位置に記憶されたその向きでの露出値に基づいて前記露出制御部に露出制御を行わせ、
前記記憶部の前記向き算出部によって算出された前記撮像光学系の向きに対応する記憶位置に記憶されたその向きでの合焦位置に基づいて前記合焦制御部に合焦制御を行わせる撮像制御部とを備えたことを特徴とする撮像ユニット。
1. An image sensor for capturing an image of a subject;
An imaging optical system for forming an image of a subject on the imaging surface of the imaging device;
An exposure control unit for controlling an exposure value of an image of a subject imaged by the imaging device;
In an imaging unit comprising: a focus control unit for moving the position of the imaging optical system to focus an image of a subject on the imaging surface of the imaging element;
An orientation change detection unit for detecting a change in orientation of the imaging optical system;
A direction calculation unit that calculates a direction of the imaging optical system based on a detection result of the direction change detection unit;
At the storage position corresponding to the orientation of the imaging optical system calculated by the orientation calculation unit, the exposure value controlled by the exposure control unit in that orientation and the imaging optical system controlled by the focus control unit A storage unit for storing the in-focus position;
Causing the exposure control unit to perform exposure control based on the exposure value in the direction stored in the storage position corresponding to the direction of the imaging optical system calculated by the direction calculation unit of the storage unit;
Imaging that causes the focusing control unit to perform focusing control based on the in-focus position stored in the storage position corresponding to the orientation of the imaging optical system calculated by the orientation calculating unit of the storage unit An imaging unit comprising a control unit.

2.前記露出制御部は、露出値を前記記憶部に記憶された露出値に設定した後、前記記憶部に記憶された露出値を起点として、露出値を制御することを特徴とする1に記載の撮像ユニット。   2. 2. The exposure control unit according to claim 1, wherein the exposure control unit sets the exposure value to the exposure value stored in the storage unit, and then controls the exposure value using the exposure value stored in the storage unit as a starting point. Imaging unit.

3.前記合焦制御部は、前記撮像光学系の位置を前記記憶部に記憶された合焦位置に設定した後、前記記憶部に記憶された合焦位置を起点として、被写体の像を前記撮像素子の撮像面に合焦させることを特徴とする1に記載の撮像ユニット。   3. The focus control unit sets the position of the imaging optical system to the focus position stored in the storage unit, and then uses the focus position stored in the storage unit as a starting point to capture the image of the subject in the image sensor. 2. The imaging unit according to 1, wherein the imaging unit is focused on.

4.前記露出制御部は、前記向き算出部で算出された前記撮像光学系の向きに対応した露出値が前記記憶部に記憶されていない場合、直前の撮像時の露出値を起点として被写体の像の露出値を制御し、
前記記憶部は、露出制御完了後に、前記向き算出部によって算出された前記撮像光学系の向きに対応する記憶位置に前記露出値を記憶することを特徴とする1または2に記載の撮像ユニット。
4). When the exposure value corresponding to the orientation of the imaging optical system calculated by the orientation calculation unit is not stored in the storage unit, the exposure control unit starts the exposure value at the time of the previous imaging as a starting point. Control the exposure value,
The imaging unit according to 1 or 2, wherein the storage unit stores the exposure value in a storage position corresponding to the orientation of the imaging optical system calculated by the orientation calculation unit after completion of exposure control.

5.前記合焦制御部は、前記向き算出部で算出された前記撮像光学系の向きに対応した前記撮像光学系の合焦位置が前記記憶部に記憶されていない場合、直前の撮像時の合焦位置を起点として被写体の像を前記撮像素子の撮像面に合焦させ、
前記記憶部は、合焦後に、前記向き算出部によって算出された前記撮像光学系の向きに対応する記憶位置に前記撮像光学系の合焦位置を記憶することを特徴とする1または3に記載の撮像ユニット。
5. The focus control unit is configured to focus at the time of previous imaging when the in-focus position of the imaging optical system corresponding to the orientation of the imaging optical system calculated by the orientation calculation unit is not stored in the storage unit. Focus the image of the subject on the imaging surface of the image sensor starting from the position,
The said storage part memorize | stores the focus position of the said imaging optical system in the memory | storage position corresponding to the direction of the said imaging optical system calculated by the said direction calculation part after focusing. Imaging unit.

6.前記記憶部は、前記撮像光学系の向きに対応する記憶位置に記憶された露出値および合焦位置を、常に最新の値に更新することを特徴とする1乃至5の何れか1項に記載の撮像ユニット。   6). 6. The storage device according to claim 1, wherein the storage unit constantly updates the exposure value and the focus position stored in the storage position corresponding to the orientation of the imaging optical system to the latest value. Imaging unit.

7.前記撮像ユニットの電源投入時に、前記記憶部に記憶された露出値および合焦位置を初期化することを特徴とする1乃至6の何れか1項に記載の撮像ユニット。   7. The imaging unit according to any one of 1 to 6, wherein an exposure value and a focus position stored in the storage unit are initialized when the imaging unit is powered on.

本発明によれば、撮像光学系が向いている方向での以前に記憶された露出値に基づいて露出値を制御する、あるいは撮像光学系が向いている方向での以前に記憶された合焦位置に基づいて被写体の像を合焦させることで、作業者が目視している作業対象物と遠隔地にいる指示者がモニタ上で見ている電子カメラが捉えた作業対象物の画像とが異なる状態を極力少なくすることができるので、作業者と指示者とが同じ画像情報を共有することが可能となり、作業者と指示者との的確なコミュニケーションを促進し、的確な遠隔作業支援を行うことのできる撮像ユニットを提供することができる。   According to the present invention, the exposure value is controlled based on the previously stored exposure value in the direction in which the imaging optical system is facing, or the previously stored focus in the direction in which the imaging optical system is facing. By focusing the image of the subject based on the position, the work object viewed by the worker and the image of the work object captured by the electronic camera viewed on the monitor by the remote operator are displayed. Since the number of different states can be reduced as much as possible, it is possible for the operator and the instructor to share the same image information, promoting accurate communication between the operator and the instructor, and providing accurate remote work support. An imaging unit capable of performing the above can be provided.

以下、本発明を図示の実施の形態に基づいて説明するが、本発明は該実施の形態に限られない。なお、図中、同一あるいは同等の部分には同一の番号を付与し、重複する説明は省略する。   Hereinafter, the present invention will be described based on the illustrated embodiment, but the present invention is not limited to the embodiment. In the drawings, the same or equivalent parts are denoted by the same reference numerals, and redundant description is omitted.

最初に、遠隔作業支援システム1の構成を図1を用いて説明する。図1は、遠隔作業支援システム1の全体構成の概要を示す模式図である。   First, the configuration of the remote work support system 1 will be described with reference to FIG. FIG. 1 is a schematic diagram showing an outline of the overall configuration of the remote work support system 1.

図1において、遠隔作業支援システム1は、HMD2、サーバ装置4等から構成される。サーバ装置4は、ホストコンピュータ5、画像・音声記録サーバ6およびコンテンツサーバ7等から構成される。   In FIG. 1, a remote work support system 1 is composed of an HMD 2, a server device 4, and the like. The server device 4 includes a host computer 5, an image / audio recording server 6, a content server 7, and the like.

ホストコンピュータ5と画像・音声記録サーバ6、コンテンツサーバ7は、例えばネットワークENを介して結ばれ、ホストコンピュータ5とHMD2は、例えばインターネットINや、携帯電話や無線LAN(Local Area Network)等の公衆回線網PN等を介して結ばれている。   The host computer 5 is connected to the image / sound recording server 6 and the content server 7 via, for example, the network EN. It is connected via a line network PN or the like.

この様な構成の遠隔作業支援システム1は、作業者Bが後に詳述する撮像ユニット28を備えたHMD2を装着し、撮像ユニット28が捉えた作業対象物の画像を、指示者Aが例えば遠隔地に設けられたサーバ装置4のモニタ53で観察しながら、サーバ装置4により作業者Bに画像や音声による適切な情報や指示を提供し、作業支援SPTを行うものである。作業支援SPTを受けて作業者Bによって行われた作業は、作業記録RPTとして画像・音声記録サーバ6に記録される。   In the remote work support system 1 having such a configuration, the operator B wears the HMD 2 including the imaging unit 28, which will be described in detail later. While observing on the monitor 53 of the server device 4 provided on the ground, the server device 4 provides the worker B with appropriate information and instructions using images and sounds to perform the work support SPT. The work performed by the worker B in response to the work support SPT is recorded in the image / sound recording server 6 as a work record RPT.

遠隔作業支援システム1を用いて作業者Bが作業する場面では、作業者Bが向いている向きが同じであれば、被写体の明るさおよび距離も大きな変化はないと考えられるので、作業者Bの向き即ち撮像ユニット28の向きが同じであれば、その向きでの撮像ユニット28の露出およびピント位置も大きな変化はないと考えてよい。   In a scene where the worker B works using the remote work support system 1, if the direction in which the worker B is facing is the same, it is considered that the brightness and distance of the subject do not change significantly. If the direction of the image pickup unit 28 is the same, the exposure and focus position of the image pickup unit 28 in that direction may be considered not to change significantly.

従って、撮像ユニット28の向きを検出し、撮像ユニット28の露出とピント位置とを、その向きでの以前の露出とピント位置とに合わせ、その露出とピント位置とを起点にしてAEおよびAFを行って露出とピントとを微調整することで、露出とピントの合った画像を素早く得ることができる。よって、作業者Bが目視している作業対象物と遠隔地にいる指示者Aがモニタ上で見ている撮像ユニット28が捉えた作業対象物の画像とが異なる状態を極力少なくすることができる。本発明は、この考えに基づいて考案されている。   Therefore, the orientation of the image pickup unit 28 is detected, the exposure and focus position of the image pickup unit 28 are matched with the previous exposure and focus position in that orientation, and the AE and AF are set based on the exposure and focus position. By going and fine-tuning the exposure and focus, it is possible to quickly obtain an image with exposure and focus. Therefore, it is possible to reduce as much as possible the state where the work object visually recognized by the worker B and the image of the work object captured by the imaging unit 28 viewed on the monitor by the instructor A at a remote location are different. . The present invention is devised based on this idea.

次に、上述したHMD2の構成を図2を用いて説明する。図2は、HMD2の全体構成を示す模式図である。   Next, the structure of HMD2 mentioned above is demonstrated using FIG. FIG. 2 is a schematic diagram showing the overall configuration of the HMD 2.

図2において、HMD2は、テンプル21R,21L、ブリッジ22、鼻当て23R,23L、透明基板24R,24L、表示ユニット25、撮像ユニット28、イヤホン29R,29L、マイク30、および制御ユニット31等を有している。   In FIG. 2, the HMD 2 includes temples 21R and 21L, a bridge 22, nose pads 23R and 23L, transparent substrates 24R and 24L, a display unit 25, an imaging unit 28, earphones 29R and 29L, a microphone 30, a control unit 31, and the like. is doing.

HMD2は、サーバ装置4から伝送された画像や文字等の情報を表示ユニット25によって装着者の眼球に直接投影することで、あたかも該画像が空中に拡大投影されているかのような虚像の観察を可能にしている。   The HMD 2 projects information such as images and characters transmitted from the server device 4 directly onto the wearer's eye by the display unit 25, thereby observing a virtual image as if the image was enlarged and projected in the air. It is possible.

テンプル21R,21Lは、可撓性を有する弾性材等により構成された長尺状の部材であり、装着者の耳や側頭部に掛止され、HMD2の装着者に対する頭部への保持および装着位置の調整を行う為のものである。尚、テンプル21R,21Lは、回動部21Ra,21Laにおいて矢印P,Q方向に回動可能に構成されており、HMD2を使用しない場合には、テンプル21R,21Lを矢印P,Q方向に回動させて透明基板24R,24Lに沿わせることにより、コンパクト化することができる。   The temples 21R and 21L are long members made of a flexible elastic material or the like. The temples 21R and 21L are hooked on the wearer's ears or the temporal region, and are held on the head of the wearer by the wearer of the HMD2. This is for adjusting the mounting position. The temples 21R and 21L are configured to be rotatable in the directions of arrows P and Q in the rotating portions 21Ra and 21La. When the HMD 2 is not used, the temples 21R and 21L are rotated in the directions of the arrows P and Q. It can be made compact by moving it along the transparent substrates 24R and 24L.

ブリッジ22は、HMD2の装着者に対する顔面への保持を行う鼻当て23R,23Lを備え、透明基板24R,24Lの互いに対向する所定位置に架け渡された短尺の棒状部材で、透明基板24Rと透明基板24Lとを一定の間隙を介した相対位置関係に保持する。透明基板24R,24Lは、それぞれ一方の眼球に対応した位置にU字型のスペース24Rsを形成する略平板状の透明体である。また、透明基板24Rに囲まれて形成されるU字型のスペース24Rsには、接眼光学系27が嵌め込まれている。   The bridge 22 includes nose pads 23R and 23L that hold the HMD 2 on the face of the wearer, and is a short rod-like member that spans a predetermined position on the transparent substrates 24R and 24L facing each other, and is transparent to the transparent substrate 24R. The substrate 24L is held in a relative positional relationship with a fixed gap. The transparent substrates 24R and 24L are substantially flat transparent bodies that each form a U-shaped space 24Rs at a position corresponding to one eyeball. An eyepiece optical system 27 is fitted in a U-shaped space 24Rs formed by being surrounded by the transparent substrate 24R.

表示ユニット25は、サーバ装置4から伝送された画像や文字等の情報を表示するLCD表示部26、およびLCD表示部26に表示された情報を装着者の眼球に直接投影する接眼光学系27等を有し、制御ユニット31に設けられた後述する通信部36を介してサーバ装置4から伝送された画像を表示する。撮像ユニット28については図3で詳述する。イヤホン29R,29Lは、装着者の耳に挿入され、装着者に音声を提供する。マイク30は、装着者の音声を音声信号に変換する。   The display unit 25 includes an LCD display unit 26 that displays information such as images and characters transmitted from the server device 4, an eyepiece optical system 27 that directly projects the information displayed on the LCD display unit 26 onto the wearer's eyeball, and the like. And displays an image transmitted from the server apparatus 4 via a communication unit 36 (described later) provided in the control unit 31. The imaging unit 28 will be described in detail with reference to FIG. Earphones 29R and 29L are inserted into the ears of the wearer and provide sound to the wearer. The microphone 30 converts the voice of the wearer into an audio signal.

制御ユニット31は、マイクロコンピュータ等で構成され、電源スイッチ351、操作スイッチ352等を有し、これら各種操作スイッチからの信号、およびサーバ装置4からの制御信号等を受けて、HMD2で行われる表示動作や撮像動作等を統括的に制御する。なお、本例では撮像ユニット28および表示ユニット25と制御ユニット31とは別体として図示したが、制御ユニット31を撮像ユニットおよび表示ユニット25と一体化することでもよい。   The control unit 31 includes a microcomputer and has a power switch 351, an operation switch 352, and the like, and displays on the HMD 2 in response to signals from these various operation switches, control signals from the server device 4, and the like. Controls overall operations and imaging operations. In this example, the imaging unit 28, the display unit 25, and the control unit 31 are illustrated as separate bodies. However, the control unit 31 may be integrated with the imaging unit and the display unit 25.

次に、HMD2の構成について、図3を用いて説明する。図3は、HMD2の内部構成を示すブロック図である。   Next, the configuration of the HMD 2 will be described with reference to FIG. FIG. 3 is a block diagram showing the internal configuration of the HMD 2.

図3において、HMD2は、表示ユニット25、撮像ユニット28および制御ユニット31等から構成される。   In FIG. 3, the HMD 2 includes a display unit 25, an imaging unit 28, a control unit 31, and the like.

表示ユニット25については図2で詳述したので、説明は省略する。   The display unit 25 has been described in detail with reference to FIG.

撮像ユニット28は、撮像光学系281、撮像素子282、AFE(Analog Front End)283、画像処理部284、撮像制御部285、AFモータ286、絞り287、水平方向(パン方向。以下、P方向と言う)センサ288、上下方向(チルト方向。以下、T方向と言う)センサ289および記憶部285m等で構成される。   The imaging unit 28 includes an imaging optical system 281, an imaging element 282, an AFE (Analog Front End) 283, an image processing unit 284, an imaging control unit 285, an AF motor 286, an aperture 287, and a horizontal direction (pan direction; hereinafter referred to as “P direction”). A sensor 288, a vertical direction (tilt direction; hereinafter referred to as a T direction) sensor 289, a storage unit 285m, and the like.

撮像光学系281で集光された被写体からの光は、絞り287で光量調節されて撮像素子282の撮像面に結像される。結像された被写体の像は、撮像素子282で光電変換され、撮像素子282の電子シャッタ機能によるシャッタ速度で撮像される。撮像素子282で撮像された画像は、AFE283でゲイン調整されてからアナログ/デジタル変換(以下、A/D変換と言う)され、画像処理部284で所定の画像処理が施されたデジタル画像データ284aに変換されて、撮像制御部285を介して制御ユニット31に送信される。   The light from the subject condensed by the imaging optical system 281 is adjusted in light quantity by the diaphragm 287 and imaged on the imaging surface of the imaging element 282. The formed subject image is photoelectrically converted by the image sensor 282 and captured at a shutter speed by the electronic shutter function of the image sensor 282. The image captured by the image sensor 282 is subjected to analog / digital conversion (hereinafter referred to as A / D conversion) after gain adjustment by the AFE 283, and digital image data 284a subjected to predetermined image processing by the image processing unit 284. And transmitted to the control unit 31 via the imaging control unit 285.

また、撮像素子282で撮像された画像は、AFE283でゲイン調整されてからA/D変換されて、撮像制御部285でのAEやAFに用いられる。AEは絞り287の絞り値および撮像素子282の電子シャッタ速度を制御することで行われるが、撮像素子282の電子シャッタ機能の代わりにメカニカルシャッタを用いてもよい。また、AFは撮像光学系281の位置を光軸方向に移動させることで行われるが、撮像素子282の位置を光軸方向に移動させることでもよい。詳細は図5以降に詳述する。   An image captured by the image sensor 282 is A / D converted after gain adjustment by the AFE 283 and used for AE and AF in the image capturing control unit 285. Although AE is performed by controlling the aperture value of the aperture 287 and the electronic shutter speed of the image sensor 282, a mechanical shutter may be used instead of the electronic shutter function of the image sensor 282. In addition, AF is performed by moving the position of the imaging optical system 281 in the optical axis direction, but the position of the imaging element 282 may be moved in the optical axis direction. Details will be described in detail after FIG.

ここに、撮像光学系281、撮像素子282、AFE283、撮像制御部285およびAFモータ286は本発明における合焦制御部として機能し、撮像素子282、AFE283、撮像制御部285および絞り287は本発明における露出制御部として機能する。   Here, the image pickup optical system 281, the image pickup element 282, the AFE 283, the image pickup control unit 285, and the AF motor 286 function as a focus control unit in the present invention, and the image pickup element 282, AFE 283, image pickup control unit 285, and diaphragm 287 are included in the present invention. Functions as an exposure control unit.

さらに、P方向センサ288およびT方向センサ289は、例えば角速度センサで構成され、角速度を一定時間積分することで、撮像光学系281が現在どの方向を向いているかを検出する。P方向センサ288あるいはT方向センサ289で検出された撮像光学系281の現在の向きと、同様にして1回前に検出された向きとが所定値以上異なっている場合は、撮像光学系281の向きが変化したと判定されて、所定の処理が行われる。これらの検出、判定および所定の処理は、撮像制御部285により制御される。これについても、図5以降に詳述する。   Further, the P-direction sensor 288 and the T-direction sensor 289 are constituted by angular velocity sensors, for example, and detect which direction the imaging optical system 281 is currently facing by integrating the angular velocity for a certain period of time. If the current orientation of the imaging optical system 281 detected by the P-direction sensor 288 or the T-direction sensor 289 is different from the orientation previously detected in the same manner by a predetermined value or more, the imaging optical system 281 It is determined that the orientation has changed, and a predetermined process is performed. The detection, determination, and predetermined processing are controlled by the imaging control unit 285. This will also be described in detail after FIG.

ここに、P方向センサ288、T方向センサ289、撮像制御部285および記憶部285mは本発明における向き変化検知部として機能し、撮像制御部285および記憶部285mは本発明における向き算出部として機能する。   Here, the P direction sensor 288, the T direction sensor 289, the imaging control unit 285, and the storage unit 285m function as an orientation change detection unit in the present invention, and the imaging control unit 285 and the storage unit 285m function as an orientation calculation unit in the present invention. To do.

記憶部285mは、上述した撮像制御部285によるAEやAF、P方向センサ288およびT方向センサ289を用いた撮像光学系281の向きの変化の判定や所定の処理等に際して、各種データを記憶するのに利用される。例えば、撮像光学系281の向きとその向きでの撮像時のAEの制御値(以下、記憶AE値SAEと言う)およびAFの制御値(以下、記憶AF値SAFと言う)を記憶する。これについては、図4以降に詳述する。   The storage unit 285m stores various types of data when the above-described imaging control unit 285 determines AE or AF, changes in the orientation of the imaging optical system 281 using the P direction sensor 288, and the T direction sensor 289, predetermined processing, and the like. Used for For example, the direction of the imaging optical system 281 and the AE control value (hereinafter referred to as the stored AE value SAE) and the AF control value (hereinafter referred to as the stored AF value SAF) during imaging in that direction are stored. This will be described in detail after FIG.

制御ユニット31は、制御部32、画像メモリ33、操作部35、通信部36等で構成される。制御部32は、図示しない各制御プログラム等を記憶するROM(Read Only Memory)、演算処理や制御処理等のデータを一時的に格納するRAM(Random Access Memory)、および制御プログラム等をROMから読み出して実行するCPU(中央演算処理装置)等からなり、図2で説明した操作部35の各操作スイッチからの信号およびサーバ装置4からの制御信号等を受けて、HMD2で行われる表示動作や撮像動作および画像信号処理動作等を統括的に制御する。   The control unit 31 includes a control unit 32, an image memory 33, an operation unit 35, a communication unit 36, and the like. The control unit 32 reads a ROM (Read Only Memory) that stores each control program (not shown), a RAM (Random Access Memory) that temporarily stores data such as arithmetic processing and control processing, and a control program from the ROM. CPU (central processing unit) and the like that are executed in response to the signals from the operation switches of the operation unit 35 and the control signals from the server device 4 described in FIG. Controls overall operations and image signal processing operations.

画像メモリ33は、撮像ユニット28から送信されたデジタル画像データ284aを通信部36および公衆回線網PNを介してサーバ装置4に送信する際に、デジタル画像データ284aを一時的に記憶したり、公衆回線網PNおよび通信部36を介してサーバ装置4から送信される画像や文字等の情報を表示ユニット25のLCD表示部26に表示する際に、画像や文字等の情報を一時的に記憶したりするための一時メモリである。   The image memory 33 temporarily stores the digital image data 284a when transmitting the digital image data 284a transmitted from the imaging unit 28 to the server device 4 via the communication unit 36 and the public line network PN. When displaying information such as images and characters transmitted from the server device 4 via the network PN and the communication unit 36 on the LCD display unit 26 of the display unit 25, information such as images and characters is temporarily stored. It is a temporary memory for

通信部36は、HMD2を公衆回線網PNに接続し、サーバ装置4との間で交信を行い、画像、音声、および各種制御信号等の入出力を行う。   The communication unit 36 connects the HMD 2 to the public line network PN, communicates with the server device 4, and inputs / outputs images, sounds, various control signals, and the like.

次に、記憶部285mにおける、撮像光学系281のP方向およびT方向の向きとその向きでの撮像時の記憶AE値SAEおよび記憶AF値SAFの記憶について、図4を用いて説明する。図4は、撮像光学系281のP方向およびT方向の向きと、その向きでの記憶AE値SAEおよび記憶AF値SAFを記憶する記憶テーブルPTTの構成を示す模式図である。記憶AE値SAEは本発明における記憶された露出値であり、記憶AF値SAFは本発明における記憶された合焦位置である。   Next, the storage direction of the imaging optical system 281 in the storage unit 285m in the P direction and the T direction and storage of the stored AE value SAE and the stored AF value SAF during imaging in that direction will be described with reference to FIG. FIG. 4 is a schematic diagram illustrating the configuration of the storage table PTT that stores the P-direction and T-direction orientations of the imaging optical system 281 and the storage AE value SAE and storage AF value SAF in the orientations. The stored AE value SAE is a stored exposure value in the present invention, and the stored AF value SAF is a stored in-focus position in the present invention.

図4において、記憶テーブルPTTは、P方向(例えば−180°から+180°までの範囲)とT方向(例えば−90°から+90°までの範囲)のマトリクス状のテーブルで、テーブル上の各マス目は本発明における撮像光学系281の向きに対応する記憶位置である。記憶テーブルPTTの例えばP方向=T方向=0°の位置PT(0,0)には、P方向=T方向=0°の向きでの記憶AE値SAEであるシャッタ速度SS00と絞り値F00、および記憶AF値SAFである撮像光学系281の光軸方向の位置d00が記憶される。   In FIG. 4, the storage table PTT is a matrix table in the P direction (for example, a range from −180 ° to + 180 °) and the T direction (for example, a range from −90 ° to + 90 °). The eye is a storage position corresponding to the orientation of the imaging optical system 281 in the present invention. For example, at the position PT (0, 0) where the P direction = T direction = 0 ° of the storage table PTT, the shutter speed SS00 and the aperture value F00, which are the stored AE values SAE in the direction of P direction = T direction = 0 °, Further, the position d00 in the optical axis direction of the imaging optical system 281 that is the stored AF value SAF is stored.

同様に、記憶テーブルPTTの例えばP方向=m°、T方向=n°の位置PT(m,n)には、その向きでの記憶AE値SAEであるシャッタ速度SSmnと絞り値Fmn、および記憶AF値SAFである撮像光学系281の光軸方向の位置dmnが記憶される。テーブルのP方向およびT方向の刻みは、遠隔作業支援システム1からHMD2に要求される性能に合わせて適宜設定されればよい。   Similarly, at the position PT (m, n) of the storage table PTT, for example, in the P direction = m ° and the T direction = n °, the shutter speed SSmn and the aperture value Fmn, which are the stored AE values SAE in that direction, and the storage are stored. The position dmn in the optical axis direction of the imaging optical system 281 that is the AF value SAF is stored. The step in the P direction and the T direction of the table may be appropriately set according to the performance required from the remote work support system 1 to the HMD 2.

記憶テーブルPTTに記憶された各記憶値は、例えば図5で後述するHMD2の初期化のステップで初期化されてもよいし、HMD2が常に同じ状況で使用されるのであれば、初期化せずに、使用に合わせて随時更新されてもよい。各記憶値の記憶と更新については、図5以降で述べる。   Each storage value stored in the storage table PTT may be initialized, for example, in the initialization step of the HMD 2 described later with reference to FIG. 5, or if the HMD 2 is always used in the same situation, it is not initialized. In addition, it may be updated at any time according to use. The storage and update of each stored value will be described in FIG.

次に、撮像ユニット28のAEおよびAFの実施の形態について、図5乃至図9を用いて説明する。図5乃至図9は、撮像ユニット28のAEおよびAFの実施の形態を示すフローチャートで、図5がメインルーチン、図6が図5のサブルーチン、図7乃至図9が図6のサブルーチンである。   Next, embodiments of AE and AF of the imaging unit 28 will be described with reference to FIGS. FIGS. 5 to 9 are flowcharts showing embodiments of AE and AF of the image pickup unit 28. FIG. 5 is a main routine, FIG. 6 is a subroutine of FIG. 5, and FIGS. 7 to 9 are subroutines of FIG.

ここでは、作業者が目視している作業対象物と遠隔地にいる指示者がモニタ上で見ている撮像ユニット28が捉えた作業対象物の画像とが異なる状態を極力少なくするために、撮像ユニット28の向いている方向での露出値および合焦位置の過去の記憶値に基づいてAEおよびAFを行う方法について説明する。   Here, in order to minimize the state where the work object visually observed by the worker and the image of the work object captured by the imaging unit 28 viewed on the monitor by the instructor in the remote place are different, the imaging is performed. A method for performing AE and AF based on the exposure value in the direction in which the unit 28 faces and the past stored value of the in-focus position will be described.

図5において、ステップS101で、制御ユニット31上の電源スイッチ351がオンされてHMD2に電源が投入されると、ステップS111でHMD2が初期化される。図4で述べたように、このステップで、記憶部285mの記憶テーブルPTTに記憶された記憶AE値SAEおよび記憶AF値SAFを初期化してもよい。初期化した場合には、以降の撮像動作において、撮像光学系281の向きが変化する度に、記憶部285mの記憶テーブルPTTに記憶AE値SAEおよび記憶AF値SAFが記憶されて蓄積され、あるいは上書きされて更新されていくことになる。   In FIG. 5, when the power switch 351 on the control unit 31 is turned on in step S101 and the HMD 2 is powered on, the HMD 2 is initialized in step S111. As described in FIG. 4, in this step, the storage AE value SAE and the storage AF value SAF stored in the storage table PTT of the storage unit 285m may be initialized. In the case of initialization, the stored AE value SAE and the stored AF value SAF are stored and accumulated in the storage table PTT of the storage unit 285m each time the orientation of the imaging optical system 281 changes in the subsequent imaging operation, or It will be overwritten and updated.

例えば初心者教育等のためにHMD2が同一の状況で繰り返し使用される場合は、記憶テーブルPTTに記憶された記憶AE値SAEおよび記憶AF値SAFを初期化せずにそのまま残しておけば、電源投入直後から記憶AE値SAEおよび記憶AF値SAFを用いたAEおよびAFを行うことができる。   For example, when the HMD2 is repeatedly used in the same situation for beginner education etc., if the stored AE value SAE and stored AF value SAF stored in the storage table PTT are left as they are without being initialized, the power is turned on. Immediately thereafter, AE and AF using the stored AE value SAE and the stored AF value SAF can be performed.

次に、ステップS113で撮像ユニット28の撮像動作が開始される。ステップS120で、図6に示す「AE/AFサブルーチン」が実行されて、被写体に露出とピントが合った状態となる。続いて、ステップS131で1コマの動画撮像が行われ、ステップS133で、ステップS131で撮像された1コマの動画像が通信部36を介してサーバ装置4に送信される。ステップS135で、既定のコマ数だけ撮像が行われたか否かが確認される。既定のコマ数が撮像されるまでステップS131からステップS135が繰り返される。   Next, the imaging operation of the imaging unit 28 is started in step S113. In step S120, the “AE / AF subroutine” shown in FIG. 6 is executed, and the subject is in focus and in exposure. Subsequently, in step S131, one frame of moving image is captured, and in step S133, the single frame moving image captured in step S131 is transmitted to the server device 4 via the communication unit. In step S135, it is confirmed whether or not imaging has been performed for a predetermined number of frames. Steps S131 to S135 are repeated until a predetermined number of frames is captured.

既定のコマ数だけ撮像が行われたら(ステップS135;Yes)ステップS141で、撮像を終了するか否かが確認される。撮像の終了は、例えば制御ユニット31上の電源スイッチ351がオフされる、あるいはサーバ装置4から終了コマンドが送信される等によって指示される。撮像を終了する場合(ステップS141;Yes)には、そのまま一連の動作が終了される。撮像を終了しない場合(ステップS141;No)にはステップS120に戻って「AE/AFサブルーチン」が実行され、以後上述した動作が繰り返される。   When the predetermined number of frames has been imaged (step S135; Yes), in step S141, it is confirmed whether or not to end the imaging. The end of imaging is instructed by, for example, turning off the power switch 351 on the control unit 31 or transmitting an end command from the server device 4. When the imaging is finished (step S141; Yes), a series of operations is finished as it is. When the imaging is not finished (step S141; No), the process returns to step S120, the “AE / AF subroutine” is executed, and the above-described operation is repeated thereafter.

ここでは、既定のコマ数毎にステップS120「AE/AFサブルーチン」が実行されるとして説明したが、それに限るものではなく、例えばP方向センサ288あるいはT方向センサ289が撮像光学系281の動きを検出した場合に随時ステップS120「AE/AFサブルーチン」が実行される等であってもよい。   Here, it has been described that step S120 “AE / AF subroutine” is executed for each predetermined number of frames. However, the present invention is not limited to this. For example, the P direction sensor 288 or the T direction sensor 289 controls the movement of the imaging optical system 281. If detected, step S120 “AE / AF subroutine” may be executed as needed.

図6は、図5のステップS120「AE/AFサブルーチン」である。   FIG. 6 shows the step S120 “AE / AF subroutine” of FIG.

図6において、まず、撮像光学系281の向きの変化を検出するための、図7に示すステップS200「移動検出サブルーチン」が実行される。続いて、ステップS211で、ステップS200で撮像光学系281の向きの変化が検出されたか否かが確認される。向きの変化が検出されたか否かは、図7で後述するP方向移動フラグFpまたはT方向移動フラグFtの少なくとも何れか一方がセットされているか否かで確認される。   6, first, step S200 “movement detection subroutine” shown in FIG. 7 for detecting a change in the orientation of the imaging optical system 281 is executed. Subsequently, in step S211, it is confirmed whether or not a change in the orientation of the imaging optical system 281 is detected in step S200. Whether or not a change in direction has been detected is confirmed by whether or not at least one of a P-direction movement flag Fp and a T-direction movement flag Ft, which will be described later with reference to FIG. 7, is set.

向きの変化が検出されなかった場合(ステップS211;No)、図8に示すステップS220「通常AEサブルーチン」が実行され、次に、図9に示すステップS230「通常AFサブルーチン」が実行されて、ステップS291に進む。ステップS220でのAEの動作の起点となるシャッタ速度と絞り値は、その直前の撮像動作で用いられていたシャッタ速度と絞り値である。またステップS230でのAF動作の起点となる撮像光学系281の光軸方向の位置は、その直前の撮像動作での撮像光学系281の光軸方向の位置である。   If no change in direction is detected (step S211; No), step S220 “normal AE subroutine” shown in FIG. 8 is executed, and then step S230 “normal AF subroutine” shown in FIG. 9 is executed. Proceed to step S291. The shutter speed and aperture value, which are the starting points of the AE operation in step S220, are the shutter speed and aperture value used in the immediately preceding imaging operation. The position in the optical axis direction of the imaging optical system 281 that is the starting point of the AF operation in step S230 is the position in the optical axis direction of the imaging optical system 281 in the immediately preceding imaging operation.

撮像光学系281の向きの変化が検出された場合(ステップS211;Yes)、ステップS241で、ステップS200で検出された撮像光学系281の現在のP方向およびT方向の向きに対応する記憶AE値SAEが、記憶部285mの記憶テーブルPTTから読み出される。ステップS251で、記憶テーブルPTTから記憶AE値SAEを読み出すことができたか否かが確認される。   When a change in the orientation of the imaging optical system 281 is detected (step S211; Yes), in step S241, a stored AE value corresponding to the current orientation of the imaging optical system 281 detected in step S200 in the P direction and the T direction. SAE is read from the storage table PTT of the storage unit 285m. In step S251, it is confirmed whether or not the stored AE value SAE can be read from the storage table PTT.

読み出すことができた、即ち記憶テーブルPTT上に記憶AE値SAEが既に存在していた場合(ステップS251;Yes)、ステップS261で、撮像ユニット28の絞り287の絞り値と撮像素子282のシャッタ速度とが記憶AE値SAEを満足する絞り値とシャッタ速度とに設定され、この絞り値とシャッタ速度とを起点として、ステップS220「通常AEサブルーチン」が実行される。   If the stored AE value SAE already exists on the storage table PTT (step S251; Yes), the aperture value of the aperture 287 of the imaging unit 28 and the shutter speed of the image sensor 282 are read in step S261. Are set to an aperture value and a shutter speed that satisfy the stored AE value SAE, and starting from the aperture value and the shutter speed, step S220 “normal AE subroutine” is executed.

このように、AEの起点として撮像光学系281の現在の向きで適正露出となる可能性が一番高い記憶AE値SAEを用いることで、撮像光学系281の向きが変化した時の画像の露出のズレ、即ち作業者が目視している作業対象物と遠隔地にいる指示者がモニタ上で見ている電子カメラが捉えた作業対象物の画像が異なる状態を極力少なくすることができる。   Thus, by using the stored AE value SAE that is most likely to be the appropriate exposure in the current orientation of the imaging optical system 281 as the starting point of AE, the exposure of the image when the orientation of the imaging optical system 281 is changed. That is, the state where the image of the work object captured by the electronic camera viewed on the monitor by the instructor at the remote place is different as much as possible.

記憶AE値SAEを読み出すことができなかった、即ち記憶テーブルPTT上に記憶AE値SAEが存在しなかった場合(ステップS251;No)は、直前の撮像動作での絞り値とシャッタ速度とを起点として、ステップS220「通常AEサブルーチン」が実行される。   When the stored AE value SAE cannot be read, that is, when the stored AE value SAE does not exist on the storage table PTT (step S251; No), the starting point is the aperture value and shutter speed in the immediately preceding imaging operation. Step S220 “normal AE subroutine” is executed.

次に、ステップS263で、ステップS200で検出された撮像光学系281の現在のP方向およびT方向の向きに対応する記憶AF値SAFが、記憶部285mの記憶テーブルPTTから読み出される。ステップS271で、記憶テーブルPTTから記憶AF値SAFを読み出すことができたか否かが確認される。   Next, in step S263, the stored AF values SAF corresponding to the current P direction and T direction of the imaging optical system 281 detected in step S200 are read from the storage table PTT of the storage unit 285m. In step S271, it is confirmed whether or not the storage AF value SAF can be read from the storage table PTT.

読み出すことができた、即ち記憶テーブルPTT上に記憶AF値SAFが既に存在していた場合(ステップS271;Yes)、ステップS281で、撮像光学系281の光軸方向の位置が、記憶AF値SAFに設定され、この位置を起点として、ステップS230「通常AFサブルーチン」が実行される。   If the stored AF value SAF already exists on the storage table PTT (step S271; Yes), the position in the optical axis direction of the imaging optical system 281 is stored in the storage AF value SAF in step S281. From this position, step S230 “normal AF subroutine” is executed.

このように、AFの起点として撮像光学系281の現在の向きで合焦となる可能性が一番高い記憶AF値SAFを用いることで、撮像光学系281の向きが変化した時の画像のピントのズレ、即ち作業者が目視している作業対象物と遠隔地にいる指示者がモニタ上で見ている電子カメラが捉えた作業対象物の画像が異なる状態を極力少なくすることができる。   Thus, by using the stored AF value SAF that is most likely to be in focus in the current orientation of the imaging optical system 281 as the AF starting point, the focus of the image when the orientation of the imaging optical system 281 changes is used. That is, the state where the image of the work object captured by the electronic camera viewed on the monitor by the instructor at the remote place is different as much as possible.

記憶AF値SAFを読み出すことができなかった、即ち記憶テーブルPTT上に記憶AF値SAFが存在しなかった場合(ステップS271;No)は、直前の撮像動作での撮像光学系281の光軸方向の位置を起点として、ステップS230「通常AFサブルーチン」が実行され、ステップS291に進む。   When the stored AF value SAF cannot be read, that is, when the stored AF value SAF does not exist on the storage table PTT (step S271; No), the optical axis direction of the imaging optical system 281 in the immediately preceding imaging operation Step S230 “Normal AF Subroutine” is executed starting from the position of, and the process proceeds to Step S291.

ステップS291で、記憶部285mの記憶テーブルPTT上に、ステップS200「移動検出サブルーチン」で検出された撮像光学系281の現在のP方向およびT方向の向きに対応する記憶AE値SAEが存在する場合は、記憶テーブルPTT上の記憶AE値SAEが、ステップS220「通常AEサブルーチン」で検出された最新のAE値で上書きされて更新される。   When the stored AE value SAE corresponding to the current P-direction and T-direction orientations of the imaging optical system 281 detected in step S200 “movement detection subroutine” exists in the storage table PTT of the storage unit 285m in step S291 Is updated by overwriting the stored AE value SAE on the storage table PTT with the latest AE value detected in step S220 “normal AE subroutine”.

記憶テーブルPTT上に撮像光学系281の現在のP方向およびT方向の向きに対応する記憶AE値SAEが存在しない場合は、ステップS220「通常AEサブルーチン」で検出された最新のAE値が、撮像光学系281の現在のP方向およびT方向の向きに対応する記憶AE値SAEとして記憶テーブルPTT上に新たに記憶される。記憶AE値SAEは、露出定数であるEv値であってもよいし、Ev値を満足する絞り値とシャッタ速度との組であってもよい。   When the storage AE value SAE corresponding to the current P direction and T direction of the imaging optical system 281 does not exist on the storage table PTT, the latest AE value detected in step S220 “normal AE subroutine” is captured. A new storage AE value SAE corresponding to the current P direction and T direction of the optical system 281 is newly stored on the storage table PTT. The stored AE value SAE may be an Ev value that is an exposure constant, or may be a set of an aperture value and a shutter speed that satisfy the Ev value.

続いて、ステップS293で、記憶部285mの記憶テーブルPTT上に、ステップS200「移動検出サブルーチン」で検出された撮像光学系281の現在のP方向およびT方向の向きに対応する記憶AF値SAFが存在する場合は、記憶テーブルPTT上の記憶AF値SAFが、ステップS230「通常AFサブルーチン」で検出された最新のAF値で上書きされて更新される。   Subsequently, in step S293, the stored AF values SAF corresponding to the current P-direction and T-direction directions of the imaging optical system 281 detected in step S200 “movement detection subroutine” are stored on the storage table PTT of the storage unit 285m. If it exists, the stored AF value SAF on the storage table PTT is overwritten and updated with the latest AF value detected in step S230 “Normal AF subroutine”.

記憶テーブルPTT上に撮像光学系281の現在のP方向およびT方向の向きに対応する記憶AF値SAFが存在しない場合は、ステップS230「通常AFサブルーチン」で検出された最新のAF値が、撮像光学系281の現在のP方向およびT方向の向きに対応する記憶AF値SAFとして記憶テーブルPTT上に新たに記憶され、図5のメインルーチンのステップS120に戻る。記憶AF値SAFは、撮像光学系281の光軸方向の位置を示す値(例えば、AFモータ286の送りステップ数等)であり、撮像光学系281が複数の光学素子で構成されている場合は、その各々の位置を示す値である。   If there is no stored AF value SAF corresponding to the current P direction and T direction of the imaging optical system 281 on the storage table PTT, the latest AF value detected in step S230 “normal AF subroutine” is captured. A new stored AF value SAF corresponding to the current P direction and T direction of the optical system 281 is newly stored on the storage table PTT, and the process returns to step S120 of the main routine of FIG. The stored AF value SAF is a value indicating the position of the imaging optical system 281 in the optical axis direction (for example, the number of feeding steps of the AF motor 286, etc.), and when the imaging optical system 281 is composed of a plurality of optical elements. , A value indicating the position of each.

これによって、撮像光学系281の向きに対応する記憶AE値SAEおよび記憶AF値SAFが常に最新の値に更新されるとともに、いままで撮像光学系281が向けられたことのなかった方向についても、記憶AE値SAEおよび記憶AF値SAFを順次記憶していく学習機能を実現することができる。   Thereby, the stored AE value SAE and the stored AF value SAF corresponding to the orientation of the imaging optical system 281 are always updated to the latest values, and the direction in which the imaging optical system 281 has not been directed so far is also A learning function for sequentially storing the stored AE value SAE and the stored AF value SAF can be realized.

なお、ここでは、白飛び画像や黒潰れ画像によってAFが行えない不具合を発生させないように、最初にAEを行って画像を適正露出に合わせてからAFを行うようにして説明したが、AEとAFとを適宜並行的に進めてもよい。その場合でも、AEを先行させて、極端な白飛び画像や黒潰れ画像を排除してからAFを行うことが望ましい。更に、白飛び画像や黒潰れ画像が存在する場合は、一旦AFを中断して、AEにより白飛び画像や黒潰れ画像を排除してからAFを再開するようにすれば、なお良い。   Here, in order to prevent a problem that AF cannot be performed due to a whiteout image or a blackout image, the AE is first performed and the image is adjusted to an appropriate exposure, and then the AF is performed. AF may be performed in parallel as appropriate. Even in such a case, it is desirable to perform AF after AE is preceded to eliminate extreme whiteout images and blackout images. Furthermore, if there is a whiteout image or a blackout image, it is better to temporarily stop AF and remove the whiteout image or blackout image by AE and restart the AF.

図7は、図6のステップS200「移動検出サブルーチン」である。   FIG. 7 shows the step S200 “movement detection subroutine” of FIG.

図7において、ステップS301で、水平方向(P方向)センサ288で検出された角速度が一定時間の間積分され、ステップS303で、ステップS301で積分された角速度から撮像光学系281の現在のP方向の向きが算出される。同様に、ステップS305で、上下方向(T方向)センサ289で検出された角速度が一定時間の間積分され、ステップS307で、ステップS305で積分された角速度から撮像光学系281の現在のT方向の向きが算出される。ステップS301およびS303と、ステップS305およびS307とは同時並行で実行されてもよい。   In FIG. 7, in step S301, the angular velocity detected by the horizontal direction (P direction) sensor 288 is integrated for a fixed time, and in step S303, the current P direction of the imaging optical system 281 is calculated from the angular velocity integrated in step S301. Is calculated. Similarly, in step S305, the angular velocity detected by the vertical direction (T direction) sensor 289 is integrated for a predetermined time, and in step S307, the angular velocity integrated in step S305 is calculated in the current T direction of the imaging optical system 281. The orientation is calculated. Steps S301 and S303 and steps S305 and S307 may be executed in parallel.

ステップS311で、ステップS303で算出された撮像光学系281の現在のP方向の向きが、前回のP方向の向きの算出時の向きから所定値以上変化しているか否かが確認される。所定値以上変化していない場合(ステップS311;No)は、そのままステップS331に進む。所定値以上変化している場合(ステップS311;Yes)は、ステップS321で、ステップS303で算出された撮像光学系281の現在のP方向の向きが記憶部285mに記憶され、ステップS323でP方向移動フラグFpがセットされて、ステップS331に進む。   In step S311, it is confirmed whether or not the current P direction orientation of the imaging optical system 281 calculated in step S303 has changed by a predetermined value or more from the previous P direction orientation calculation. When it has not changed more than the predetermined value (step S311; No), the process proceeds to step S331 as it is. If it has changed by a predetermined value or more (step S311; Yes), in step S321, the current P direction orientation of the imaging optical system 281 calculated in step S303 is stored in the storage unit 285m, and in step S323, the P direction. The movement flag Fp is set, and the process proceeds to step S331.

ステップS331で、ステップS307で算出された撮像光学系281の現在のT方向の向きが、前回のT方向の向きの算出時の向きから所定値以上変化しているか否かが確認される。所定値以上変化していない場合(ステップS331;No)は、そのまま図6のステップS200に戻る。所定値以上変化している場合(ステップS331;Yes)は、ステップS341で、ステップS307で算出された撮像光学系281の現在のT方向の向きが記憶部285mに記憶され、ステップS343でT方向移動フラグFtがセットされて、図6のステップS200に戻る。   In step S331, it is confirmed whether or not the current T-direction orientation of the imaging optical system 281 calculated in step S307 has changed by a predetermined value or more from the previous T-direction orientation calculation. If it has not changed more than the predetermined value (step S331; No), the process directly returns to step S200 in FIG. If it has changed by a predetermined value or more (step S331; Yes), in step S341, the current T direction orientation of the imaging optical system 281 calculated in step S307 is stored in the storage unit 285m, and in step S343, the T direction. The movement flag Ft is set, and the process returns to step S200 in FIG.

P方向移動フラグFpあるいはT方向移動フラグFtの少なくとも何れか一方がセットされていれば、図6のステップS211で撮像光学系281の向きの変化が検出されることになる。なお、上述したP方向およびT方向の向きの変化の判定値となる所定値は、遠隔作業支援システム1からHMD2に要求される性能に合わせて適宜設定されればよい。   If at least one of the P-direction movement flag Fp and the T-direction movement flag Ft is set, a change in the direction of the imaging optical system 281 is detected in step S211 in FIG. It should be noted that the predetermined value that is the determination value of the change in the direction of the P direction and the T direction described above may be appropriately set according to the performance required from the remote work support system 1 to the HMD 2.

図8は、図6のステップS220「通常AEサブルーチン」である。   FIG. 8 shows step S220 “normal AE subroutine” of FIG.

図8において、ステップS401で1コマ撮像が行われる。ステップS401の撮像時に用いられる撮像素子282のシャッタ速度および絞り287の絞り値は、ステップS220「通常AEサブルーチン」が図6のステップS261の後に実行される場合は、ステップS261で設定された、記憶テーブルPTT上に既存の記憶AE値SAEを満足するシャッタ速度と絞り値である。   In FIG. 8, one-frame imaging is performed in step S401. The shutter speed of the image sensor 282 and the aperture value of the aperture 287 used at the time of imaging in step S401 are stored in step S261 when step S220 “normal AE subroutine” is executed after step S261 in FIG. The shutter speed and aperture value satisfy the existing stored AE value SAE on the table PTT.

また、ステップS220「通常AEサブルーチン」が図6のステップS211のNoの後、あるいはステップS251のNoの後に実行される場合は、その直前の撮像動作で用いられていたシャッタ速度と絞り値である
次に、ステップS403で、撮像素子282の撮像面の全面あるいは一部に設定されたAEエリアの内部にある画素の輝度信号が読み出され、ステップS405で、ステップS403で読み出された輝度信号の輝度分布が算出される。
Further, when step S220 “normal AE subroutine” is executed after step S211 of FIG. 6 or after step S251 of No, it is the shutter speed and aperture value used in the immediately preceding imaging operation. Next, in step S403, the luminance signal of the pixels within the AE area set on the entire imaging surface or a part of the imaging surface of the imaging element 282 is read out, and in step S405, the luminance signal read out in step S403 is read out. Is calculated.

ステップS411で、ステップS405で算出された輝度分布が適正な範囲にあるか否かが確認される。適正な範囲にあるか否かは、(1)輝度分布の最高輝度が白レベルを超えて飽和(所謂白飛び)していないか、(2)輝度分布の最低輝度が黒レベル以下となって黒潰れしていないか、(3)輝度分布の平均値が白レベルと黒レベルとの中央値近傍にあるかどうか、等により判断される。   In step S411, it is confirmed whether or not the luminance distribution calculated in step S405 is within an appropriate range. Whether or not it is in an appropriate range depends on whether (1) the maximum luminance of the luminance distribution exceeds the white level and is not saturated (so-called whiteout), or (2) the minimum luminance of the luminance distribution is below the black level. Whether or not black is crushed, (3) whether or not the average value of the luminance distribution is in the vicinity of the median between the white level and the black level is determined.

輝度分布が適正な範囲にない場合(ステップS411;No)、ステップS421で、一般的なAE演算を用いて適正なシャッタ速度が算出され、ステップS423で、同様に一般的なAE演算を用いて適正な絞り値が算出される。ステップS421とS423とは同時並行で実行されてもよい。ステップS425で、ステップS421およびステップS423で算出された適正シャッタ速度と適正絞り値とが、最新のAE値として記憶部285mに記憶され、図6のステップS220「通常AEサブルーチン」に戻る。   If the luminance distribution is not within the proper range (step S411; No), an appropriate shutter speed is calculated using a general AE calculation in step S421, and similarly using a general AE calculation in step S423. An appropriate aperture value is calculated. Steps S421 and S423 may be executed simultaneously. In step S425, the appropriate shutter speed and the appropriate aperture value calculated in steps S421 and S423 are stored in the storage unit 285m as the latest AE value, and the process returns to step S220 “normal AE subroutine” in FIG.

輝度分布が適正な範囲にある場合(ステップS411;Yes)、ステップS431で、ステップS401で撮像された時のシャッタ速度と絞り値とが最新のAE値として記憶部285mに記憶され、図6のステップS220「通常AEサブルーチン」に戻る。   When the luminance distribution is in an appropriate range (step S411; Yes), in step S431, the shutter speed and the aperture value at the time of imaging in step S401 are stored in the storage unit 285m as the latest AE value. The process returns to step S220 “normal AE subroutine”.

ここでは、最新のAE値としてシャッタ速度と絞り値の組を記憶するとしたが、その代わりに、例えばシャッタ速度と絞り値から求められる露出定数であるEv値を記憶してもよい。   Here, the set of shutter speed and aperture value is stored as the latest AE value, but instead, for example, an Ev value that is an exposure constant obtained from the shutter speed and aperture value may be stored.

図9は、図6のステップS230「通常AFサブルーチン」である。   FIG. 9 shows the step S230 “normal AF subroutine” of FIG.

図9において、まず、ステップS501で、シャッタ速度と絞り値とを図8で記憶された最新のAE値に設定して、1コマ撮像が行われる。次に、ステップS503で、撮像素子282の撮像面の全面あるいは一部に設定されたAFエリアの内部にある画素の輝度信号が読み出されて、輝度信号間の差分すなわちコントラストが算出される。ステップS505で、撮像光学系281が既定の量だけ遠側すなわち撮像素子282に近づく方向に移動され、ステップS507で、ステップS503と同様にAFエリア内のコントラストが算出される。   In FIG. 9, first, in step S501, the shutter speed and the aperture value are set to the latest AE values stored in FIG. Next, in step S503, the luminance signal of the pixels within the AF area set on the entire imaging surface or a part of the imaging element 282 is read, and the difference between the luminance signals, that is, the contrast is calculated. In step S505, the imaging optical system 281 is moved by a predetermined amount in the far side, that is, in the direction approaching the imaging element 282. In step S507, the contrast in the AF area is calculated in the same manner as in step S503.

ステップS511で、ステップS503で算出されたコントラストとステップS507で算出されたコントラストとが比較され、ステップS507の方がコントラストが増大したか否かが確認される。増大した場合(ステップS511;Yes)、ステップS505に戻り、コントラストが増大しなくなるまで、ステップS505からステップS511が繰り返される。繰り返しの場合にステップ507で算出されたコントラストと比較されるのは、1回前のステップS507で算出されたコントラストである。   In step S511, the contrast calculated in step S503 is compared with the contrast calculated in step S507, and it is confirmed whether or not the contrast is increased in step S507. If it has increased (step S511; Yes), the process returns to step S505, and steps S505 to S511 are repeated until the contrast does not increase. In the case of repetition, the contrast calculated in step S507 is compared with the contrast calculated in the previous step S507.

コントラストが増大しなかった場合(ステップS511;No)、ステップS521で、撮像光学系281が既定の量だけ近側すなわち撮像素子282から離れる方向に移動される。続いて、ステップS523で、ステップS503、S507と同様に、AFエリア内のコントラストが算出される。   If the contrast has not increased (step S511; No), in step S521, the imaging optical system 281 is moved by a predetermined amount in the near side, that is, in the direction away from the imaging element 282. Subsequently, in step S523, the contrast in the AF area is calculated as in steps S503 and S507.

ステップS531で、ステップ507で算出されたコントラストとステップS523で算出されたコントラストとが比較され、ステップS523の方がコントラストが増大したか否かが確認される。増大した場合(ステップS531;Yes)、ステップS521に戻り、コントラストが増大しなくなるまで、ステップS521からステップS531が繰り返される。繰り返しの場合にステップ523で算出されたコントラストと比較されるのは、1回前のステップS523で算出されたコントラストである。   In step S531, the contrast calculated in step 507 is compared with the contrast calculated in step S523, and it is confirmed whether or not the contrast is increased in step S523. If it has increased (step S531; Yes), the process returns to step S521, and steps S521 to S531 are repeated until the contrast does not increase. In the case of repetition, the contrast calculated in step 523 is compared with the contrast calculated in the previous step S523.

コントラストが増大しなかった場合(ステップS531;No)、ステップS541で、撮像光学系281の移動が停止され、ステップS543で、現在の撮像光学系281の位置が最新のAF値として記憶部285mに記憶され、図6のステップS230「通常AFサブルーチン」に戻る。   If the contrast does not increase (step S531; No), the movement of the imaging optical system 281 is stopped in step S541, and the current position of the imaging optical system 281 is stored in the storage unit 285m as the latest AF value in step S543. The process returns to step S230 “Normal AF subroutine” in FIG.

なお、ステップS511およびステップS531のコントラストの比較においては、一般によく行われるように、判定レベルにヒステリシスを持たせ、撮像光学系281が小刻みに移動を繰り返す所謂ハンチングを防止する対応をとることが望ましい。また、上述した撮像光学系281を移動させる既定の量は、遠隔作業支援システム1からHMD2に要求されるピント性能に合わせて適宜設定されればよい。   In contrast comparison in steps S511 and S531, it is desirable to give a hysteresis to the determination level and take measures to prevent so-called hunting in which the imaging optical system 281 repeatedly moves in small increments, as is generally done. . Further, the predetermined amount by which the imaging optical system 281 described above is moved may be set as appropriate in accordance with the focus performance required from the remote work support system 1 to the HMD 2.

以上に述べたように、本発明によれば、撮像光学系が向いている方向での以前に記憶された露出値に基づいて露出値を制御する、あるいは撮像光学系が向いている方向での以前に記憶された合焦位置に基づいて被写体の像を合焦させることで、作業者が目視している作業対象物と遠隔地にいる指示者がモニタ上で見ている電子カメラが捉えた作業対象物の画像が異なる状態を極力少なくすることができるので、作業者と指示者とが同じ画像情報を共有することが可能となり、作業者と指示者との的確なコミュニケーションを促進し、的確な遠隔作業支援を行うことのできる撮像ユニットを提供することができる。   As described above, according to the present invention, the exposure value is controlled based on the previously stored exposure value in the direction in which the imaging optical system is facing, or in the direction in which the imaging optical system is facing. By focusing the image of the subject based on the previously stored in-focus position, the work object viewed by the operator and the electronic camera viewed on the monitor by the remote instructor are captured. Since it is possible to minimize the state where the images of the work object are different, it is possible for the worker and the instructor to share the same image information, and promotes accurate communication between the operator and the instructor. It is possible to provide an imaging unit capable of performing remote work support.

尚、本発明に係る撮像ユニットを構成する各構成の細部構成および細部動作に関しては、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。   The detailed configuration and detailed operation of each component constituting the imaging unit according to the present invention can be changed as appropriate without departing from the spirit of the present invention.

遠隔作業支援システムの全体構成の概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the whole structure of a remote work assistance system. HMDの全体構成を示す模式図である。It is a schematic diagram which shows the whole structure of HMD. HMDの内部構成を示すブロック図である。It is a block diagram which shows the internal structure of HMD. 撮像光学系のP方向およびT方向の向きと、その向きでの記憶AE値および記憶AF値を記憶する記憶テーブルの構成を示す模式図である。It is a schematic diagram showing the configuration of a storage table that stores the directions of the imaging optical system in the P direction and the T direction, and stored AE values and stored AF values in the directions. 撮像ユニットのAEおよびAFの制御の実施の形態を示すフローチャートのメインルーチンである。It is the main routine of the flowchart which shows embodiment of AE and AF control of an imaging unit. 図5のサブルーチン(1/1)である。This is the subroutine (1/1) in FIG. 図6のサブルーチン(1/3)である。This is the subroutine (1/3) in FIG. 図6のサブルーチン(2/3)である。This is the subroutine (2/3) in FIG. 図6のサブルーチン(3/3)である。This is the subroutine (3/3) in FIG.

符号の説明Explanation of symbols

1 遠隔作業支援システム
2 HMD
4 サーバ装置
5 ホストコンピュータ
53 モニタ
6 画像・音声記録サーバ
7 コンテンツサーバ
25 表示ユニット
26 LCD表示部
27 接眼光学系
28 撮像ユニット
281 撮像光学系
282 撮像素子
283 AFE
284 画像処理部
284a デジタル画像データ
285 撮像制御部
285m 記憶部
286 AFモータ
287 絞り
288 水平方向(P方向)センサ
289 上下方向(T方向)センサ
31 制御ユニット
32 制御部
33 画像メモリ
35 操作部
36 通信部
A 指示者
B 作業者(装着者)
EN ネットワーク
IN インターネット
PN 公衆回線網
SPT 作業支援
RPT 作業記録
SAE 記憶AE値
SAF 記憶AF値
Fp P方向移動フラグ
Ft T方向移動フラグ
1 Remote work support system 2 HMD
4 Server Device 5 Host Computer 53 Monitor 6 Image / Audio Recording Server 7 Content Server 25 Display Unit 26 LCD Display Unit 27 Eyepiece Optical System 28 Imaging Unit 281 Imaging Optical System 282 Imaging Element 283 AFE
284 Image processing unit 284a Digital image data 285 Imaging control unit 285m Storage unit 286 AF motor 287 Aperture 288 Horizontal direction (P direction) sensor 289 Vertical direction (T direction) sensor 31 Control unit 32 Control unit 33 Image memory 35 Operation unit 36 Communication Part A Instructor B Worker (wearer)
EN network IN internet PN public line network SPT work support RPT work record SAE storage AE value SAF storage AF value Fp P direction movement flag Ft T direction movement flag

Claims (7)

被写体の像を撮像するための撮像素子と、
被写体の像を前記撮像素子の撮像面に結像するための撮像光学系と、
前記撮像素子によって撮像される被写体の像の露出値を制御するための露出制御部と、
前記撮像光学系の位置を移動させて、被写体の像を前記撮像素子の撮像面に合焦させるための合焦制御部とを備えた撮像ユニットにおいて、
前記撮像光学系の向きの変化を検知する向き変化検知部と、
前記向き変化検知部の検知結果に基づいて前記撮像光学系の向きを算出する向き算出部と、
前記向き算出部によって算出された前記撮像光学系の向きに対応する記憶位置に、その向きでの前記露出制御部によって制御された露出値と、前記合焦制御部によって制御された前記撮像光学系の合焦位置とを記憶する記憶部と、
前記記憶部の前記向き算出部によって算出された前記撮像光学系の向きに対応する記憶位置に記憶されたその向きでの露出値に基づいて前記露出制御部に露出制御を行わせ、
前記記憶部の前記向き算出部によって算出された前記撮像光学系の向きに対応する記憶位置に記憶されたその向きでの合焦位置に基づいて前記合焦制御部に合焦制御を行わせる撮像制御部とを備えたことを特徴とする撮像ユニット。
An image sensor for capturing an image of a subject;
An imaging optical system for forming an image of a subject on the imaging surface of the imaging device;
An exposure control unit for controlling an exposure value of an image of a subject imaged by the imaging device;
In an imaging unit comprising: a focus control unit for moving the position of the imaging optical system to focus an image of a subject on the imaging surface of the imaging element;
An orientation change detection unit for detecting a change in orientation of the imaging optical system;
A direction calculation unit that calculates a direction of the imaging optical system based on a detection result of the direction change detection unit;
At the storage position corresponding to the orientation of the imaging optical system calculated by the orientation calculation unit, the exposure value controlled by the exposure control unit in that orientation and the imaging optical system controlled by the focus control unit A storage unit for storing the in-focus position;
Causing the exposure control unit to perform exposure control based on the exposure value in the direction stored in the storage position corresponding to the direction of the imaging optical system calculated by the direction calculation unit of the storage unit;
Imaging that causes the focusing control unit to perform focusing control based on the in-focus position stored in the storage position corresponding to the orientation of the imaging optical system calculated by the orientation calculating unit of the storage unit An imaging unit comprising a control unit.
前記露出制御部は、露出値を前記記憶部に記憶された露出値に設定した後、前記記憶部に記憶された露出値を起点として、露出値を制御することを特徴とする請求項1に記載の撮像ユニット。 2. The exposure control unit according to claim 1, wherein the exposure control unit sets the exposure value to the exposure value stored in the storage unit, and then controls the exposure value using the exposure value stored in the storage unit as a starting point. The imaging unit described. 前記合焦制御部は、前記撮像光学系の位置を前記記憶部に記憶された合焦位置に設定した後、前記記憶部に記憶された合焦位置を起点として、被写体の像を前記撮像素子の撮像面に合焦させることを特徴とする請求項1に記載の撮像ユニット。 The focus control unit sets the position of the imaging optical system to the focus position stored in the storage unit, and then uses the focus position stored in the storage unit as a starting point to capture the image of the subject in the image sensor. The imaging unit according to claim 1, wherein the imaging unit is focused on. 前記露出制御部は、前記向き算出部で算出された前記撮像光学系の向きに対応した露出値が前記記憶部に記憶されていない場合、直前の撮像時の露出値を起点として被写体の像の露出値を制御し、
前記記憶部は、露出制御完了後に、前記向き算出部によって算出された前記撮像光学系の向きに対応する記憶位置に前記露出値を記憶することを特徴とする請求項1または2に記載の撮像ユニット。
When the exposure value corresponding to the orientation of the imaging optical system calculated by the orientation calculation unit is not stored in the storage unit, the exposure control unit starts the exposure value at the time of the previous imaging as a starting point. Control the exposure value,
The imaging according to claim 1, wherein the storage unit stores the exposure value in a storage position corresponding to the orientation of the imaging optical system calculated by the orientation calculation unit after completion of exposure control. unit.
前記合焦制御部は、前記向き算出部で算出された前記撮像光学系の向きに対応した前記撮像光学系の合焦位置が前記記憶部に記憶されていない場合、直前の撮像時の合焦位置を起点として被写体の像を前記撮像素子の撮像面に合焦させ、
前記記憶部は、合焦後に、前記向き算出部によって算出された前記撮像光学系の向きに対応する記憶位置に前記撮像光学系の合焦位置を記憶することを特徴とする請求項1または3に記載の撮像ユニット。
The focus control unit is configured to focus at the time of previous imaging when the in-focus position of the imaging optical system corresponding to the orientation of the imaging optical system calculated by the orientation calculation unit is not stored in the storage unit. Focus the image of the subject on the imaging surface of the image sensor starting from the position,
The said storage part memorize | stores the focus position of the said imaging optical system in the memory | storage position corresponding to the direction of the said imaging optical system calculated by the said orientation calculation part after focusing. The imaging unit described in 1.
前記記憶部は、前記撮像光学系の向きに対応する記憶位置に記憶された露出値および合焦位置を、常に最新の値に更新することを特徴とする請求項1乃至5の何れか1項に記載の撮像ユニット。 6. The storage unit according to claim 1, wherein the storage unit constantly updates the exposure value and the focus position stored in the storage position corresponding to the orientation of the imaging optical system to the latest values. The imaging unit described in 1. 前記撮像ユニットの電源投入時に、前記記憶部に記憶された露出値および合焦位置を初期化することを特徴とする請求項1乃至6の何れか1項に記載の撮像ユニット。 The imaging unit according to claim 1, wherein an exposure value and a focus position stored in the storage unit are initialized when the imaging unit is turned on.
JP2007006906A 2007-01-16 2007-01-16 Imaging unit Pending JP2008177656A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007006906A JP2008177656A (en) 2007-01-16 2007-01-16 Imaging unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007006906A JP2008177656A (en) 2007-01-16 2007-01-16 Imaging unit

Publications (1)

Publication Number Publication Date
JP2008177656A true JP2008177656A (en) 2008-07-31

Family

ID=39704375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007006906A Pending JP2008177656A (en) 2007-01-16 2007-01-16 Imaging unit

Country Status (1)

Country Link
JP (1) JP2008177656A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141677A (en) * 2010-12-28 2012-07-26 Lapis Semiconductor Co Ltd Fingerprint authentication device
JP2013040985A (en) * 2011-08-11 2013-02-28 Nikon Corp Imaging device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141677A (en) * 2010-12-28 2012-07-26 Lapis Semiconductor Co Ltd Fingerprint authentication device
JP2013040985A (en) * 2011-08-11 2013-02-28 Nikon Corp Imaging device

Similar Documents

Publication Publication Date Title
CN101301236B (en) Eyesight protection system based on three-dimensional camera shooting and method
JP5223486B2 (en) Electronic binoculars
US20110234475A1 (en) Head-mounted display device
JP2007081682A (en) Image processor, image processing method, and executable program by information processor
JP2005172851A (en) Image display apparatus
CN106488181B (en) Display control device, display control method, and recording medium
JP2015007750A (en) Optical instrument, and control method and control program of the same
EP3396645B1 (en) Control apparatus, control method, and program
JP4816431B2 (en) Monitoring system, driving assist system
JP2008177656A (en) Imaging unit
JP2008123257A (en) Remote operation support system and display control method
JP2008113317A (en) Remote operation support system
JP2007333929A (en) Video display system
JP2003287708A (en) Vision expansion device and display system
JP2001100264A (en) Camera
JP6080825B2 (en) Imaging apparatus and control method thereof
JPH11168755A (en) Stereoscopic video image-pickup device
JP2015080167A (en) Imaging device, control method thereof, and control program
JPH10148859A (en) Shake discriminating device and shake correcting device
US20230308753A1 (en) Camera system for focusing on and tracking objects
US20200236293A1 (en) Imaging apparatus and control method
JP7446780B2 (en) display device
US20210360167A1 (en) Image pickup control device, image pickup device, control method for image pickup device, non-transitory computer-readable storage medium
JP2010087676A (en) Video camera system having feature determination function
JP7228190B2 (en) Imaging device for forehead band and image control method