JP2000101898A - Electronic camera - Google Patents

Electronic camera

Info

Publication number
JP2000101898A
JP2000101898A JP10266760A JP26676098A JP2000101898A JP 2000101898 A JP2000101898 A JP 2000101898A JP 10266760 A JP10266760 A JP 10266760A JP 26676098 A JP26676098 A JP 26676098A JP 2000101898 A JP2000101898 A JP 2000101898A
Authority
JP
Japan
Prior art keywords
image
photographer
unit
camera
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10266760A
Other languages
Japanese (ja)
Other versions
JP4013100B2 (en
JP2000101898A5 (en
Inventor
Mitsufumi Misawa
充史 三沢
Takashi Misawa
岳志 三沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP26676098A priority Critical patent/JP4013100B2/en
Publication of JP2000101898A publication Critical patent/JP2000101898A/en
Publication of JP2000101898A5 publication Critical patent/JP2000101898A5/ja
Application granted granted Critical
Publication of JP4013100B2 publication Critical patent/JP4013100B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow the user to operate the camera without touching the camera and the need for using an operation member such as a remote controller and to easily and properly conduct operations such as zooming and framing in the case that the camera is mounted on part of the body of the user such as the head or the shoulder of the user. SOLUTION: An eyeglass display device 10, a camera section 14 and a microphone 20 or the like are placed on an eyeglass type frame of the electronic camera system 2. A photographer 4 mounts this electronic camera system 2 on its head like a eyeglass and decides a layout of a picture to be recorded by using both hands while observing an object. The camera section 14 detects positions of both the hands of the photographer and sets a segmentation range of the picture based on the positions of both the hands. When the photographer utters words to instruct release of a shutter, the microphone 20 detects the utterance and instructs the camera section 14 to release the shutter. Thus, the picture within the segmented range is segmented from a picture within a full photographing range of the camera section 14 and the picture is stored in a memory.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は電子カメラに係り、
特に撮像範囲内の撮影者の手の位置や形状に基づいて撮
像動作や撮像した画像の画像処理を制御する電子カメラ
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic camera,
In particular, the present invention relates to an electronic camera that controls an imaging operation and image processing of a captured image based on a position and a shape of a photographer's hand in an imaging range.

【0002】[0002]

【従来の技術】近年、バーチャル・リアリティ(仮想現
実感)を用いて種々の入力を行う装置や、バーチャル・
リアリティの技術に関連してユーザの手や指の3次元位
置や形状を測定する方法が知られている。例えば、特開
平6−175778号公報には、使用者の目にビュー装
置を装着して仮想空間を作り、この仮想空間に電話機等
の通信機器を立体視させると共に、使用者の指や手の位
置を3次元的に検出することによって、仮想空間内で通
信機器をあたかも現実に操作しているかのように扱える
ようにしたものが開示されている。
2. Description of the Related Art In recent years, a device for performing various inputs using virtual reality (virtual reality),
A method of measuring a three-dimensional position or shape of a user's hand or finger has been known in connection with reality technology. For example, Japanese Patent Application Laid-Open No. HEI 6-175778 discloses that a virtual space is created by attaching a view device to a user's eyes, and a communication device such as a telephone is stereoscopically viewed in the virtual space, and a finger or a hand of the user is used. There is disclosed a device in which a communication device can be handled as if it is actually operated in a virtual space by detecting a position three-dimensionally.

【0003】また、特開平9−185456号公報に
は、ユーザの手の形状や動きを認識し、この手の形状や
動きによって機器の操作を行えるようにすることで、キ
ーボードやマウス等の入力装置を不要にしたインタフェ
ース装置が提案されている。また、特開平9−6524
5号及び特開平9−197336号公報には、使用者の
頭部又は顔面に保持して眼球に映像を投影する頭部又は
顔面装着式の画像表示装置が開示されている。
[0003] Japanese Patent Application Laid-Open No. 9-185456 discloses a technique of recognizing the shape and movement of a user's hand and allowing the user to operate a device by using the shape and movement of the user's hand. An interface device that does not require a device has been proposed. Also, Japanese Patent Application Laid-Open No. 9-6524
No. 5 and Japanese Patent Application Laid-Open No. 9-197336 disclose a head-mounted or face-mounted image display device that holds a user's head or face and projects an image on an eyeball.

【0004】[0004]

【発明が解決しようとする課題】ところで、従来、デジ
タルスチルカメラ等の電子カメラで撮影を行う場合、ま
ず、撮影者がカメラを把持し、カメラを被写体に向けて
構え、光学ファインダーや液晶ファインダ等で構図を確
認する。そして、構図が決まるとレリーズスイッチを指
で押して画像をメモリに記録させるというのが一般的な
操作手順である。
Conventionally, when photographing with an electronic camera such as a digital still camera, first, a photographer grasps the camera, holds the camera toward a subject, and uses an optical viewfinder, a liquid crystal viewfinder, or the like. Confirm the composition with. When the composition is determined, a general operation procedure is to press the release switch with a finger to record an image in a memory.

【0005】しかしながら、このような一連の操作は煩
雑な手間を要し、予め、カメラをもって撮影の準備をし
ていないとシャッターチャンスを逃す場合が少なくなか
った。一方、シャッターチャンスを逃さないようにカメ
ラを手でもっていつでも撮影を行えるように準備してお
くと、手が自由でなく他の動作に支障をきたす場合があ
った。
[0005] However, such a series of operations requires troublesome work, and unless a camera is prepared in advance for taking a picture, there are many cases where a photo opportunity is missed. On the other hand, if the camera is prepared so that a photographer can always take a picture with his / her hand so as not to miss a photo opportunity, the hand may not be free and may interfere with other operations.

【0006】そこで、撮影者の頭部等の体の一部にカメ
ラを装着しておき、所望の時にそのままの状態で撮影を
行うことができれば、カメラをもってカメラを被写体に
向けて構えるといった煩わしい動作が不要となり、シャ
ッターチャンスを逃すといった不具合が解消される。ま
た、少なくとも撮影時以外では手も自由に使えて便利で
ある。一方、このようにした場合には、カメラの各種操
作部材を操作するのが困難で(例えば、カメラを頭部に
装着した場合には操作部材が見えない。)、また、カメ
ラを操作するためリモコン等を別個に用意するようにし
たのでは撮影に備えてそのリモコンをもっていなければ
ならない等の煩わしさがある。このため、シャッターレ
リーズ等のカメラ操作をカメラに触れることなく、ま
た、リモコン等の操作部材を用いることなく、簡単に行
えるようにする必要がある。また、特にこのようなカメ
ラでは、ファインダーを使用することができないため、
ズーミングやフレーミングの操作が適切に行えず撮影者
が望む構図の画像を得ることができないという問題があ
る。
Therefore, if the camera is mounted on a part of the body such as the head of the photographer and the photographing can be performed as desired at the desired time, the troublesome operation of pointing the camera at the subject with the camera is required. Becomes unnecessary, and the problem of missing a photo opportunity is eliminated. In addition, the hand can be used freely, at least except during shooting, which is convenient. On the other hand, in this case, it is difficult to operate various operation members of the camera (for example, when the camera is mounted on the head, the operation members are not visible), and the camera is operated. If a remote controller or the like is prepared separately, there is a trouble such that the user must have the remote controller in preparation for shooting. Therefore, it is necessary to easily perform a camera operation such as a shutter release without touching the camera and without using an operation member such as a remote controller. Also, especially with such cameras, the viewfinder cannot be used,
There is a problem in that zooming and framing operations cannot be performed properly and an image having a composition desired by the photographer cannot be obtained.

【0007】本発明はこのような事情に鑑みてなされた
もので、頭や肩等の体の一部に装着して使用する電子カ
メラにおいて、カメラに触れることなく、また、リモコ
ン等の操作部材を使用することなくカメラの操作を行え
るようにし、また、ズーミングやフレーミングの操作を
適切且つ容易に行えるようした電子カメラを提供するこ
とを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and in an electronic camera used by being attached to a part of a body such as a head or a shoulder, an operation member such as a remote controller can be used without touching the camera. It is an object of the present invention to provide an electronic camera capable of performing a camera operation without using a camera and performing a zooming and framing operation appropriately and easily.

【0008】[0008]

【課題を解決するための手段】前記目的を達成するため
に請求項1に記載の発明は、撮影者の頭部又はその近傍
に装着可能な撮像手段と、前記撮像手段からの画像に基
づいて該撮像手段の撮像範囲内に撮影者の手が位置する
場合にその手の位置及び/又は形を認識する認識手段
と、前記認識手段によって認識した手の位置及び/又は
形に基づいて前記撮像手段による撮像動作及び/又は撮
像した画像の画像処理を制御する制御手段と、を備えた
ことを特徴としている。
According to a first aspect of the present invention, there is provided an image forming apparatus, comprising: an image pickup means which can be mounted on or near a head of a photographer; Recognition means for recognizing the position and / or shape of the hand of the photographer when the hand of the photographer is located within the imaging range of the imaging means; and the imaging based on the position and / or shape of the hand recognized by the recognition means And control means for controlling an image pickup operation by the means and / or image processing of the picked-up image.

【0009】本発明によれば、頭部又はその近傍に撮像
手段を装着し、その撮像手段による撮像動作及び/又は
撮像した画像の画像処理の制御を、撮像手段の撮像範囲
内に映る撮影者の手の位置や形に基づいて行うようにし
たため、カメラの操作部材を操作することなく、カメラ
の操作を容易に行うことができる。また、請求項2に記
載の発明によれば、前記認識手段によって手が撮像範囲
を決める構図を示していることが認識されると、前記制
御手段は、前記撮像範囲内の画像のみを記録すべくズー
ミングやフレーミングを制御するようにしたため、撮影
者は、ファインダを使用することなく被写体を直接見な
がら手で構図を決めることができ、ズーミングやフレー
ミングの制御を的確且つ容易に行うことができる。
According to the present invention, the imaging means is mounted on or near the head, and the imaging operation of the imaging means and / or the control of the image processing of the captured image is controlled by the photographer who is within the imaging range of the imaging means. Since the operation is performed based on the position and shape of the hand, the operation of the camera can be easily performed without operating the operation member of the camera. According to the second aspect of the present invention, when the recognition unit recognizes that the hand shows the composition for determining the imaging range, the control unit records only the image within the imaging range. Since the zooming and framing are controlled as desired, the photographer can determine the composition by hand while directly looking at the subject without using the viewfinder, and can control the zooming and framing accurately and easily.

【0010】[0010]

【発明の実施の形態】以下添付図面に従って本発明に係
る電子カメラの好ましい実施の形態について詳説する。
図1は本発明に係る電子カメラが適用された電子カメラ
システムの斜視図であり、図2は、本電子カメラシステ
ムを使用している様子を示した図である。これらの図に
示すように、電子カメラシステム2は、眼鏡のように撮
影者4の耳と鼻で保持される形状となっており、アイグ
ラスディスプレイ10の中央下部10Aが撮影者4の鼻
に当接し、アイグラスディスプレイ10の左右両端に固
設された蔓12、12の先端の湾曲部12A、12Aが
撮影者4の耳にかけられることで、本システム2が撮影
者4の頭部に装着されるようになっている。本システム
2を装着した際には、撮影者4の目に近接してアイグラ
スディスプレイ10が配置され、このアイグラスディス
プレイ10によって撮影者4の視野全体が覆われる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of an electronic camera according to the present invention will be described below in detail with reference to the accompanying drawings.
FIG. 1 is a perspective view of an electronic camera system to which an electronic camera according to the present invention is applied, and FIG. 2 is a diagram showing a state in which the present electronic camera system is used. As shown in these drawings, the electronic camera system 2 has a shape that is held by the ears and nose of the photographer 4 like eyeglasses, and the lower central portion 10A of the eyeglass display 10 is placed on the nose of the photographer 4. The system 2 is mounted on the head of the photographer 4 by placing the curved portions 12A, 12A at the tips of the vines 12, 12 fixed to the left and right ends of the eyeglass display 10 on the ears of the photographer 4. It is supposed to be. When the present system 2 is mounted, the eyeglass display 10 is arranged near the eyes of the photographer 4, and the eyeglass display 10 covers the entire visual field of the photographer 4.

【0011】右耳にかけられる蔓12の基端部、即ち、
アイグラスディスプレイ10の右端には上下左右にパン
・チルト動作可能なカメラ部14が設置され、左耳にか
けられる蔓12の基端部、即ち、アイグラスディスプレ
イ10の左端には音声検知装置16が設置される。音声
検知装置16からはアーム18が撮影者4の口もとまで
延設され、そのアーム18の先端にマイクロホン20が
設置される。また、アイグラスディスプレイ10の内面
側(顔と対向する側)には撮影者4の視線方向を検知す
る視線方向検知装置22が設置されている。
[0011] The proximal end of the vine 12 placed on the right ear,
At the right end of the eyeglass display 10, a camera unit 14 capable of panning and tilting operations is provided in the up, down, left and right directions. Will be installed. An arm 18 extends from the voice detection device 16 to the mouth of the photographer 4, and a microphone 20 is installed at the tip of the arm 18. A gaze direction detection device 22 that detects the gaze direction of the photographer 4 is installed on the inner surface side (the side facing the face) of the eyeglass display 10.

【0012】前記アイグラスディスプレイ10は、上面
10B側に図示しない画像表示素子が設けられ、この画
像表示素子に表示された画像がアイグラスディスプレイ
10内に配置された光学系を介して撮影者4の眼球に導
かれるようになっている。また、このアイグラスディス
プレイ10は、外界からの光を透過させるため、撮影者
4は、外界の被写体像を通常通り見ることができる。従
って、撮影者4には、外界の被写体像と画像表示素子に
表示された像とが重なって見えるようになっている。こ
の画像表示素子には、カメラ部14の撮影モード、残り
撮影可能枚数、バッテリー残量等の各種情報や後述する
ように撮像範囲を示す枠等が表示される。
The eyeglass display 10 is provided with an image display element (not shown) on the upper surface 10B side, and an image displayed on the image display element is taken by the photographer 4 via an optical system arranged in the eyeglass display 10. Of the eyeball. In addition, since the eyeglass display 10 transmits light from the outside, the photographer 4 can see the subject image in the outside as usual. Therefore, the photographer 4 can see the image of the object in the outside world and the image displayed on the image display element in an overlapping manner. The image display element displays various information such as the shooting mode of the camera unit 14, the remaining number of shootable images, the remaining battery level, and a frame indicating an imaging range as described later.

【0013】前記カメラ部14は、電源がオンされると
CCD撮像素子によって被写体像を常時撮像し、シャッ
ターレリーズの指示が加えられるとそのときの静止画像
をメモリに記録する。このカメラ部14は、前記視線方
向検知部22によって撮影者4の視線方向を検知し、撮
影者4の視線方向に合わせてモータ駆動によりパン・チ
ルト動作するようになっている。従って、撮影者4が見
ている方向の被写体像が常にカメラ部14の撮影範囲に
収められるようになっている。また、カメラ部14は、
撮影画像内に映された撮影者4の左右の指の位置を検知
し、この左右の指の位置に基づいてフレーミングを行
い、CCD撮像素子の撮影画像に対してメモリに記録す
る記録画像の切り出し範囲を設定する。即ち、撮影者4
は、図2に示すように実際観察している被写体像に対し
て両手5A、5Bの指で記録画像の構図(枠)を決める
だけで、メモリに記録する記録画像のフレーミングを行
うことができるようになっている。尚、このフレーミン
グの操作については後述する。
When the power is turned on, the camera section 14 constantly captures a subject image by a CCD image pickup device, and when a shutter release instruction is given, records a still image at that time in a memory. The camera unit 14 detects the gaze direction of the photographer 4 by the gaze direction detection unit 22 and performs a pan / tilt operation by driving a motor in accordance with the gaze direction of the photographer 4. Therefore, the subject image in the direction that the photographer 4 is looking at is always included in the photographing range of the camera unit 14. Also, the camera unit 14
The positions of the left and right fingers of the photographer 4 projected in the photographed image are detected, framing is performed based on the positions of the left and right fingers, and a recorded image to be recorded in the memory is captured from the photographed image of the CCD image sensor. Set the range. That is, photographer 4
As shown in FIG. 2, the framing of the recorded image to be recorded in the memory can be performed only by deciding the composition (frame) of the recorded image with the fingers of both hands 5A and 5B with respect to the object image actually observed as shown in FIG. It has become. The framing operation will be described later.

【0014】前記音声検知装置16、前記マイクロホン
20によりユーザの発する言葉を取り込み、言葉の内容
に応じてカメラ部14に所定のコマンドを送る。例え
ば、「シャッター」という言葉を検知すると、これに連
動してカメラ部14にシャッターレリーズのコマンドを
送る。これにより、カメラ部14は、CCD撮像素子に
よって取り込まれた全範囲の撮影画像から上述のように
フレーミングによって設定された切り出し範囲の画像を
抽出し、この画像をメモリに記録する。
The speech detection device 16 and the microphone 20 take in a word spoken by the user, and send a predetermined command to the camera unit 14 according to the content of the word. For example, when the word “shutter” is detected, a shutter release command is sent to the camera unit 14 in conjunction with the detection. As a result, the camera unit 14 extracts the image of the cut-out range set by the framing from the captured image of the entire range captured by the CCD image sensor, and records this image in the memory.

【0015】次に、上記電子カメラシステム2で撮影を
行う際の撮影者4の操作について説明する。まず、撮影
を行う際には図3に示すように撮影者4の手5の人指し
指に座標検出用のリング30を装着する。このリング3
0には所定形状のマーク32が描画されており、カメラ
部14が撮影画像からこのマーク32の位置をパターン
検出の処理によって検出することができるようになって
いる。即ち、撮影者4は、このリング30を両手の人指
し指に装着することで、両手の人指し指の位置をカメラ
部14が撮影画像から認識できるようにする。尚、必ず
しもリング30を人指し指に装着する必要はなく、他の
指でもよい。
Next, the operation of the photographer 4 when photographing with the electronic camera system 2 will be described. First, when taking a picture, a ring 30 for detecting coordinates is attached to the index finger of the hand 5 of the photographer 4, as shown in FIG. This ring 3
A mark 32 of a predetermined shape is drawn on 0, so that the camera unit 14 can detect the position of the mark 32 from the captured image by a pattern detection process. That is, the photographer 4 attaches the ring 30 to the index finger of both hands so that the camera unit 14 can recognize the position of the index finger of both hands from the captured image. The ring 30 does not necessarily need to be attached to the index finger, but may be another finger.

【0016】次に撮影時に撮影者4は、図2に示したよ
うに、実際に観測している被写体像に対してメモリに保
存する記録画像の構図(枠)を両手の人指し指と親指と
を使って決める。このとき、撮影者4の両手5A(右
手)、5B(左手)の指は、図4(A)に示すようにカ
メラ部14によって撮影される。尚、同図に示す外枠4
0は、カメラ部14のCCD撮像素子によって撮像され
る撮影範囲(画像認識範囲40)を示している。カメラ
部14は、撮影者4の両手5A、5Bの人指し指に装着
された2つのリング30の位置を撮影画像から検出し、
これらの2つのリング30の位置に基づいて、メモリに
記録する記録画像の切り出し範囲を画像認識範囲40に
対して設定する。この記録画像の切り出し範囲は、図4
(A)の枠42で示されており、この枠42が示すよう
にリング30、30の位置を矩形枠の対角とするのでは
なく、人指し指の一般的な長さとリング30を人指し指
に装着する位置(予めリング30を人指し指のどの位置
に装着するかを約束しておく)とを考慮して、略左右の
手5A、5Bの人指し指と親指の付け根辺りが対角とな
るように設定される。また、カメラ部14は、上述のよ
うに記録画像の切り出し範囲を設定すると、その切り出
し範囲が実際にどの位置に設定されたかを撮影者が確認
できるように、設定した切り出し範囲の位置に基づいて
その切り出し範囲を示す切り出し枠(内枠)42をアイ
グラスディスプレイ10の画像表示素子の所定位置に表
示させ、その切り出し枠42を撮影者4が被写体像に重
ねて見えるようにしている。尚、画像認識範囲を示す外
枠40も同様に画像表示素子に表示して撮影者4が把握
できるようにしてもよい。
Next, as shown in FIG. 2, the photographer 4 sets the composition (frame) of the recorded image to be stored in the memory with respect to the actually observed subject image by using the forefinger and thumb of both hands. Use and decide. At this time, the fingers of both hands 5A (right hand) and 5B (left hand) of the photographer 4 are photographed by the camera unit 14 as shown in FIG. The outer frame 4 shown in FIG.
0 indicates a photographing range (image recognition range 40) where the image is captured by the CCD image pickup device of the camera unit 14. The camera unit 14 detects the positions of the two rings 30 attached to the index fingers of both hands 5A and 5B of the photographer 4 from the photographed image,
Based on the positions of these two rings 30, the cut-out range of the recorded image to be recorded in the memory is set for the image recognition range 40. The cut-out range of this recorded image is shown in FIG.
The position of the rings 30, 30 is not diagonal to the rectangular frame as shown by the frame 42 of FIG. 2A, but the general length of the forefinger and the ring 30 are attached to the forefinger. In consideration of the position where the ring 30 is to be attached to the index finger in advance, it is set so that the index finger of the left and right hands 5A and 5B and the base of the thumb are diagonal. You. Further, when the cutout range of the recorded image is set as described above, the camera unit 14 determines the cutout range based on the position of the set cutout range so that the photographer can check which position is actually set. A cut-out frame (inner frame) 42 indicating the cut-out range is displayed at a predetermined position on the image display element of the eyeglass display 10 so that the photographer 4 can see the cut-out frame 42 superimposed on the subject image. Note that the outer frame 40 indicating the image recognition range may be similarly displayed on the image display element so that the photographer 4 can grasp it.

【0017】このように撮影者4が実際に観測している
被写体像に対して自分の手で枠を作れば記録画像の切り
出し範囲(切り出し枠42)が設定されるが、撮影者4
が手の位置を動かせばこれに連動してその切り出し範囲
も移動する。例えば、撮影者4が図4(A)に示す指の
位置から左斜め下方向(図4(B)の矢印S方向)に両
手5A、5Bを動かすと、これに伴って図4(B)に示
すように切り出し枠42が左斜め下方向にシフトし、更
にこの位置から右手5Aのみ右斜め上方向(図4(C)
の矢印S方向)に動かすと、これに伴って図4(C)に
示すように切り出し枠42の右上隅の位置が右斜め上方
向にシフトし、切り出し範囲が拡大する。
As described above, if the photographer 4 forms a frame with his / her own hand on the subject image actually observed, the cut-out range (cut-out frame 42) of the recorded image is set.
If he moves his hand, the cutout area moves in conjunction with this. For example, when the photographer 4 moves his / her hands 5A and 5B diagonally downward and to the left (in the direction of arrow S in FIG. 4B) from the position of the finger shown in FIG. As shown in FIG. 4, the cutout frame 42 shifts obliquely downward to the left, and from this position, only the right hand 5A moves obliquely upward to the right (see FIG.
(In the direction of arrow S), the position of the upper right corner of the cutout frame 42 shifts obliquely upward to the right as shown in FIG. 4C, and the cutout range is enlarged.

【0018】また、図5に示すように、手をカメラ部1
4の画像認識範囲40の内側から外側に移動させると、
光学ズームによりズームレンズがワイド側に移動し、画
像認識範囲40が同図画像認識範囲40′のように拡大
すると共に切り出し枠42の設定範囲が拡大するように
なっている。尚、画像認識範囲40の内側の領域41は
光学ズームを行うための領域であり、この領域41で上
述とは逆に画像認識範囲40の外側から内側に向かって
手を動かすと光学ズームによりズームレンズがテレ側に
移動するようになっている。
Further, as shown in FIG.
4 from the inside to the outside of the image recognition range 40,
The optical zoom moves the zoom lens to the wide side, so that the image recognition range 40 is enlarged like an image recognition range 40 'in the figure and the setting range of the cutout frame 42 is enlarged. Note that an area 41 inside the image recognition range 40 is an area for performing optical zoom, and conversely, in this area 41, when a hand is moved from the outside to the inside of the image recognition range 40, zooming is performed by optical zoom. The lens moves to the tele side.

【0019】このようにして記録画像の切り出し範囲を
決定した後、その切り出し範囲の画像をメモリに記録さ
せる場合には、まず、撮影者4は、人指し指のリング3
0を即座に隠し、又は、画像認識範囲40の外に退避さ
せて切り出し範囲を固定する。カメラ部14は、リング
30位置が所定速度以上で移動した場合には切り出し範
囲の設定を変更しないようにしているため、このように
して切り出し範囲を固定することができる。そして、撮
影者4は切り出し範囲に手が入らないようにして、「シ
ャッター」という言葉を発してカメラ部14にシャッタ
ーレリーズを実行させる。これにより、カメラ部14の
メモリに切り出し範囲の画像が記録される。
After the cut-out range of the recorded image is determined in this way, when the image of the cut-out range is to be recorded in the memory, first, the photographer 4 first moves the index finger ring 3
0 is immediately hidden or retracted out of the image recognition range 40 to fix the cutout range. Since the camera section 14 does not change the setting of the cutout range when the position of the ring 30 moves at a predetermined speed or more, the cutout range can be fixed in this manner. Then, the photographer 4 makes the camera section 14 execute the shutter release by issuing the word “shutter” while keeping the hand out of the cutout range. As a result, the image of the cut-out range is recorded in the memory of the camera unit 14.

【0020】次に上述の如く処理を行う電子カメラシス
テム2の処理ブロックの構成について説明する。図6
は、その処理ブロックを示した図である。頭部装着カメ
ラユニット2は、上述したようにアイグラスディスプレ
イ10、カメラ部14、音声検知装置16、視線方向検
知装置22を備え、アイグラスディスプレイ10は主と
して画像を表示する画像表示素子52と画像表示素子5
2を制御するCPU50等から構成され、音声検知装置
16は主としてマイクロホン20とマイクロホン20に
よって取得した音声信号を処理するCPU54とから構
成される。また、カメラ部14は主としてレンズ部6
0、撮像部62、画像処理部64、画像切り出し部6
6、メモリ68、CPU70及びパン・チルトモータ7
2等から構成される。
Next, the configuration of the processing blocks of the electronic camera system 2 that performs the above-described processing will be described. FIG.
Is a diagram showing the processing block. The head-mounted camera unit 2 includes the eyeglass display 10, the camera unit 14, the voice detection device 16, and the line-of-sight direction detection device 22 as described above. The eyeglass display 10 mainly includes an image display element 52 for displaying an image and an image. Display element 5
The voice detection device 16 mainly includes a microphone 20 and a CPU 54 that processes a voice signal acquired by the microphone 20. The camera section 14 is mainly composed of the lens section 6.
0, imaging section 62, image processing section 64, image cutout section 6
6, memory 68, CPU 70 and pan / tilt motor 7
2 etc.

【0021】前記カメラ部14のレンズ部60は、フォ
ーカスレンズやズームレンズを備え、これらのレンズは
CPU70からのコマンドによってモータ駆動されるよ
うになっている。このレンズ部60を通過した被写体光
は撮像部62のCCD撮像素子によって電気信号に変換
され画像処理部64に転送される。画像処理部64は、
ホワイトバランス調整やガンマ補正等の一般的な画像処
理を行うほか、画像信号から上記リング30のマーク3
2の位置を検出するためのパターン検出処理を行う。C
PU70は画像処理部64から2つのリング30の位置
を取得し、CCD撮像素子によって撮像される画像認識
範囲の画像に対してメモリ68に記録する記録画像の切
り出し範囲を設定する。そして、この設定した切り出し
範囲の位置をアイグラスディスプレイ10のCPU50
に出力する。アイグラスディスプレイ10のCPU50
は、カメラ部14から入力された切り出し範囲の位置に
基づいて、その切り出し範囲を示す切り出し枠(図4符
号42参照)を画像表示素子52に表示させ、撮影者4
が被写体像と重ねてその切り出し枠を見えるようにす
る。
The lens section 60 of the camera section 14 includes a focus lens and a zoom lens, and these lenses are driven by a motor according to a command from the CPU 70. The subject light passing through the lens unit 60 is converted into an electric signal by the CCD image pickup device of the image pickup unit 62 and transferred to the image processing unit 64. The image processing unit 64
In addition to performing general image processing such as white balance adjustment and gamma correction, a mark 3
A pattern detection process for detecting the position 2 is performed. C
The PU 70 acquires the positions of the two rings 30 from the image processing unit 64, and sets the cut-out range of the recorded image to be recorded in the memory 68 for the image in the image recognition range captured by the CCD image sensor. Then, the position of the set cutting range is determined by the CPU 50 of the eyeglass display 10.
Output to CPU 50 of eyeglass display 10
Displays the cutout frame (see reference numeral 42 in FIG. 4) indicating the cutout range on the image display element 52 based on the position of the cutout range input from the camera unit 14.
Superimpose on the subject image to make the cutout frame visible.

【0022】尚、視線方向検知装置22によって撮影者
4の視線方向が検知されると、この視線方向に合わせて
パン・チルトモータ72がカメラ部14をパン・チルト
動作させ、撮影者4の視線方向とカメラ部14の撮影方
向とを一致させるようにしている。一方、音声検知装置
16のCPU54は、マイクロホン20によって取り込
まれた音声信号を解析し、撮影者4が発した言葉を認識
する。例えば、撮影者が「シャッター」という音声を発
すると、CPU54は、これを認識しカメラ部14のC
PU70にシャッターレリーズのコマンドを送る。カメ
ラ部14のCPU70は、音声検知装置16のCPU5
4からシャッターレリーズのコマンドが入力されると、
画像切り出し部66に上述のように設定した記録画像の
切り出し範囲を指定する。画像切り出し部66は、画像
処理部64から入力される画像認識範囲の画像信号から
CPU70に指定された切り出し範囲の画像信号を切り
出し、この画像信号に電子ズームの処理を施して所定の
大きさの画像信号に変換する。そして、この電子ズーム
の処理を施した画像信号をメモリ68に記憶させる。
When the line-of-sight direction of the photographer 4 is detected by the line-of-sight direction detecting device 22, the pan / tilt motor 72 causes the camera unit 14 to perform a pan / tilt operation in accordance with the line of sight. The direction and the shooting direction of the camera unit 14 are made to match. On the other hand, the CPU 54 of the voice detection device 16 analyzes the voice signal captured by the microphone 20 and recognizes words spoken by the photographer 4. For example, when the photographer utters a sound “shutter”, the CPU 54 recognizes the sound and
A shutter release command is sent to the PU 70. The CPU 70 of the camera unit 14 is
When a shutter release command is input from 4,
The cutout range of the recorded image set as described above is designated in the image cutout unit 66. The image cutout unit 66 cuts out an image signal in the cutout range designated by the CPU 70 from the image signal in the image recognition range input from the image processing unit 64, performs an electronic zoom process on the image signal, and performs processing of a predetermined size. Convert to image signal. Then, the image signal subjected to the electronic zoom processing is stored in the memory 68.

【0023】尚、音声検知装置16は、上述のようにシ
ャッターレリーズを指示する言葉だけでなく、ズームや
フォーカス等の操作を指示するする言葉を認識し、指示
に応じたコマンドをカメラのCPU70に送信するよう
にしてもよい。この場合にはカメラ部14のCPU70
は、音声検知装置16から入力される指示に従って各種
制御を行うことで、撮影者4の音声によるカメラ部14
の種々の操作を可能にすることができる。
The voice detecting device 16 recognizes not only the word for instructing the shutter release as described above, but also the word for instructing operations such as zoom and focus, and sends a command corresponding to the instruction to the CPU 70 of the camera. You may make it transmit. In this case, the CPU 70 of the camera unit 14
Performs various controls in accordance with an instruction input from the voice detection device 16, and thereby the camera unit 14 using the voice of the photographer 4
Various operations can be enabled.

【0024】以上のように、撮影者は実際に見ている被
写体像に対して手で枠を作る動作を行うだけで記録した
い画像の構図を設定することができるため、容易にズー
ミングやフレーミングといった操作を行うことができる
ようになる。また、カメラに触れることなくカメラ操作
を行うことができるため、カメラの操作を簡単に行うこ
とができる。
As described above, since the photographer can set the composition of the image to be recorded simply by performing the operation of manually forming a frame with respect to the image of the subject actually viewed, it is possible to easily perform zooming and framing. You will be able to perform operations. Further, since the camera can be operated without touching the camera, the operation of the camera can be easily performed.

【0025】以上、上記実施の形態では、撮影者の手
(指)の位置をリング30によって検出するようにした
が、撮影者の手の位置を検出する方法はこれに限らな
い。リング30を装着しなくても撮影画像から手の位置
や形状を検知することは可能である。また、上記実施の
形態では、音声によってカメラ部14の各種制御を行う
ようにしたが、これに代わって、又はこれと合わせて、
手の位置や形によってカメラ部14の各種制御(撮像動
作や撮像した画像の画像処理の内容)を行えるようにし
てもよい。例えば、撮影者が手を所定形状にしたこと或
いは所定動作させたことを検知するとシャッターレリー
ズを実行するようにしてもよい。また、撮影者が手を上
向きを指し示す形状にしたことを検知すると例えば操作
ダイヤルをアップ方向に回動させる操作に相当させ、下
向きを指し示す形状にしたことを検知すると操作ダイヤ
ルをダウン方向に回動させる操作に相当させるようにし
て通常のカメラに設置されているような操作部材の操作
を手の形状等で指定できるようにしてもよい。更に、ア
イグラスディスプレイ10によって仮想空間に操作部材
(操作スイッチや操作ダイヤル等)を表示し、撮影者が
その操作部材を操作する動作をカメラ部14の撮影画像
から検知するようにし、これに基づいてカメラ部14の
各種制御を行うようにしてもよい。これにより撮影者は
あたかも現実に存在する操作部材を操作してカメラ部1
4の操作を行うことができるようになる。
As described above, in the above-described embodiment, the position of the photographer's hand (finger) is detected by the ring 30, but the method of detecting the position of the photographer's hand is not limited to this. It is possible to detect the position and shape of the hand from the captured image without wearing the ring 30. Further, in the above-described embodiment, various controls of the camera unit 14 are performed by voice. However, instead of or in addition to this,
Various controls of the camera unit 14 (contents of an image capturing operation and image processing of a captured image) may be performed according to the position and shape of the hand. For example, the shutter release may be performed when it is detected that the photographer has made the hand into a predetermined shape or performed a predetermined operation. In addition, when detecting that the photographer has made the hand pointing up, the operation dial is equivalent to, for example, rotating the operation dial in the up direction, and when detecting that the photographer is pointing down, the operation dial is turned in the down direction. The operation of the operation member, which is installed in a normal camera, may be designated by the shape of a hand or the like so as to correspond to the operation to be performed. Further, operation members (operation switches, operation dials, and the like) are displayed in the virtual space by the eyeglass display 10, and an operation of the photographer operating the operation members is detected from a captured image of the camera unit 14, and based on this, Various controls of the camera unit 14 may be performed. This allows the photographer to operate the operating member as if it were a real camera.
4 can be performed.

【0026】また、上記電子カメラシステム2でメモリ
68に記録した記録画像をアイグラスディスプレイ10
を用いて再生できるようにしてもよい。例えば、アイグ
ラスディスプレイ10によって仮想空間にアルバム(バ
ーチャルアルバム)を表示させ、このアルバムを撮影者
がめくる動作を検知すると、そのアルバムのページに合
わせてメモリ68に記録した所定の記録画像をアイグラ
スディスプレイ10によって仮想空間に表示させるよう
にしてもよい。
The image recorded in the memory 68 by the electronic camera system 2 is stored in the eyeglass display 10.
It may be made to be able to be reproduced by using. For example, an album (virtual album) is displayed in a virtual space by the eyeglass display 10, and when an operation of turning the album is detected by the photographer, a predetermined recorded image recorded in the memory 68 in accordance with the page of the album is stored in the eyeglass. You may make it display on a virtual space by the display 10.

【0027】また、上記実施の形態では、撮影者が記録
画像の切り出し枠42(図4参照)を確認できるように
アイグラスディスプレイ10によってその切り出し枠4
2等を表示させるようにしたが、必ずしも切り出し枠4
2を表示させる必要はなく、アイグラスディスプレイ1
0のような画像表示手段も必ずしも必要ではない。ま
た、上記実施の形態では、撮影者が手で切り出し枠を指
定するとその範囲の画像をカメラ部14の撮影画像から
切り出すようにしたが、撮影者が手で枠を指定すると、
その方向にカメラ部14がパン・チルト動作すると共に
光学ズームにより指定された枠内の画像を拡大して撮影
するようにしてもよい。
Further, in the above embodiment, the cutout frame 4 (see FIG. 4) of the recorded image is displayed by the eyeglass display 10 so that the photographer can confirm the cutout frame 4 (see FIG. 4).
2 etc. are displayed, but the cutout frame 4
No need to display 2;
Image display means such as 0 is not always necessary. Further, in the above embodiment, when the photographer manually specifies the cutout frame, the image in the range is cut out from the image captured by the camera unit 14. However, when the photographer manually specifies the cutout frame,
The camera unit 14 may perform a pan / tilt operation in that direction and magnify and photograph an image in a frame designated by optical zoom.

【0028】また、上記実施の形態では、カメラ部14
を眼鏡型のアイグラスディスプレイ10に装着して撮影
者の頭部に装着するようにしたが、これに限らず、撮影
者の肩等他の部分に装着できるようにしてもよい。ま
た、上記実施の形態では、撮影画像の構図を手で位置で
設定するようにしたが、音声によって行えるようにして
もよい。例えば、アイグラスディスプレイ10にカメラ
部14の撮影範囲を表示し、撮影者がその撮影範囲の位
置や大きさを音声で指定すれば、それに合わせてカメラ
部が自動でパン・チルト動作、光学ズーム、電子ズー
ム、フレーミング等の制御を行うようにすることもでき
る。
In the above embodiment, the camera unit 14
Is mounted on the eyeglass display 10 and is mounted on the photographer's head, but is not limited thereto, and may be mounted on another part such as the photographer's shoulder. Further, in the above-described embodiment, the composition of the captured image is manually set by the position, but the composition may be performed by voice. For example, when the photographing range of the camera unit 14 is displayed on the eyeglass display 10, and the photographer specifies the position and size of the photographing range by voice, the camera unit automatically performs pan / tilt operation and optical zoom in accordance with the designation. , Electronic zoom, framing, and the like.

【0029】[0029]

【発明の効果】以上説明したように本発明によれば、頭
部又はその近傍に撮像手段を装着し、その撮像手段によ
る撮像動作及び/又は撮像した画像の画像処理の制御
を、撮像手段の撮像範囲内に映る撮影者の手の位置や形
に基づいて行うようにしたため、カメラの操作部材を操
作することなく、カメラの操作を容易に行うことがで
き、シャッターチャンスを逃すといった不具合や、カメ
ラをもって撮影しなければならないといった煩わしさを
軽減することができる。
As described above, according to the present invention, the imaging means is mounted on the head or in the vicinity thereof, and the control of the imaging operation by the imaging means and / or the image processing of the captured image is controlled by the imaging means. Because it is based on the position and shape of the photographer's hand reflected in the imaging range, it is possible to easily operate the camera without operating the camera's operation members, The trouble of having to take a picture with a camera can be reduced.

【0030】また、撮影範囲の手の位置によって構図を
設定することができるため、撮影者は、ファインダを使
用することなく被写体を直接見ながらズーミングやフレ
ーミングの制御を的確且つ容易に行うことができるよう
になる。
Further, since the composition can be set according to the position of the hand in the photographing range, the photographer can control the zooming and framing accurately and easily while directly looking at the subject without using the viewfinder. Become like

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、本発明に係る電子カメラが適用された
電子カメラシステムの斜視図である。
FIG. 1 is a perspective view of an electronic camera system to which an electronic camera according to the present invention is applied.

【図2】図2は、電子カメラシステムを使用している様
子を示した図である。
FIG. 2 is a diagram illustrating a state in which an electronic camera system is used.

【図3】図3は、座標検出用リングの一実施の形態を示
した図である。
FIG. 3 is a diagram illustrating an embodiment of a coordinate detection ring.

【図4】図4は、フレーミングの操作の説明に用いた説
明図である。
FIG. 4 is an explanatory diagram used for describing a framing operation.

【図5】図5は、フレーミングの操作の説明に用いた説
明図である。
FIG. 5 is an explanatory diagram used for describing a framing operation.

【図6】図6は、電子カメラシステムの処理ブロックの
構成を示した図である。
FIG. 6 is a diagram showing a configuration of a processing block of the electronic camera system.

【符号の説明】[Explanation of symbols]

2…電子カメラシステム 10…アイグラスディスプレイ 14…カメラ部 16…音声検知装置 20…マイクロホン 22…視線方向検知装置 2 ... Electronic camera system 10 ... Eye glass display 14 ... Camera unit 16 ... Sound detection device 20 ... Microphone 22 ... Gaze direction detection device

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C022 AA13 AB62 AB65 AB66 AC01 AC12 AC21 AC31 AC52 AC69 AC71 AC72 5C052 AA17 GA01 GA03 GB01 GB07 GB09 GC03 GE04 5C053 FA05 FA08 KA03 KA24 LA01 LA06  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C022 AA13 AB62 AB65 AB66 AC01 AC12 AC21 AC31 AC52 AC69 AC71 AC72 5C052 AA17 GA01 GA03 GB01 GB07 GB09 GC03 GE04 5C053 FA05 FA08 KA03 KA24 LA01 LA06

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 撮影者の頭部又はその近傍に装着可能な
撮像手段と、 前記撮像手段からの画像に基づいて該撮像手段の撮像範
囲内に撮影者の手が位置する場合にその手の位置及び/
又は形を認識する認識手段と、 前記認識手段によって認識した手の位置及び/又は形に
基づいて前記撮像手段による撮像動作及び/又は撮像し
た画像の画像処理を制御する制御手段と、 を備えたことを特徴とする電子カメラ。
An imaging unit that can be mounted on or near the head of the photographer; and a hand of the photographer when the photographer's hand is located within an imaging range of the imaging unit based on an image from the imaging unit. Location and / or
Or a recognition unit for recognizing a shape, and a control unit for controlling an imaging operation of the imaging unit and / or an image processing of a captured image based on the position and / or shape of the hand recognized by the recognition unit. An electronic camera, characterized in that:
【請求項2】 前記認識手段によって手が撮像範囲を決
める構図を示していることが認識されると、前記制御手
段は、前記撮像範囲内の画像のみを記録すべくズーミン
グ及びフレーミングを制御することを特徴とする請求項
1の電子カメラ。
2. When the recognizing unit recognizes that the hand shows a composition for determining an imaging range, the control unit controls zooming and framing so as to record only an image within the imaging range. The electronic camera according to claim 1, wherein:
【請求項3】 前記撮像手段を光学的にズーミングさせ
る駆動手段を備え、 前記認識手段によって手が撮像範囲を決める構図を示し
ていることが認識されると、前記制御手段は、前記撮像
手段を前記撮像範囲内の画角に一致させるべく前記駆動
手段を制御することを特徴とする請求項1の電子カメ
ラ。
3. A drive unit for optically zooming the image pickup unit, and when the recognition unit recognizes that the hand shows a composition for determining an image pickup range, the control unit controls the image pickup unit. 2. The electronic camera according to claim 1, wherein the driving unit is controlled to match the angle of view within the imaging range.
【請求項4】 前記撮影者の視線方向を検知する視線方
向検知手段と、前記撮像手段の撮影方向と前記視線方向
検知手段によって検知された前記撮影者の視線方向とが
一致するように前記撮像手段をパン・チルト動作させる
駆動手段と、を備えたことを特徴とする請求項1の電子
カメラ。
4. A gaze direction detecting means for detecting a gaze direction of the photographer, and the imaging is performed such that a photographing direction of the imaging means coincides with a gaze direction of the photographer detected by the gaze direction detection means. 2. The electronic camera according to claim 1, further comprising: a driving unit for causing the unit to perform a pan / tilt operation.
【請求項5】 前記撮影者が観測している被写体に所要
の画像を重ねて見えるようにした眼鏡型の表示手段を備
え、該表示手段によって前記撮像手段による撮像動作及
び/又は撮像した画像の画像処理の内容を設定又は確認
するための情報を表示することを特徴とする請求項1の
電子カメラ。
5. An eyeglass-shaped display means for superimposing a required image on a subject observed by the photographer, wherein the display means performs an image pickup operation by the image pickup means and / or 2. The electronic camera according to claim 1, wherein information for setting or confirming the content of the image processing is displayed.
【請求項6】 前記撮影者の音声を検知する音声検知手
段を備え、前記制御手段は、前記音声検知手段によって
検知した音声に基づいて前記撮像手段による撮像動作及
び/又は撮像した画像の画像処理を制御することを特徴
とする請求項1の電子カメラ。
6. A sound detecting means for detecting a sound of the photographer, wherein the control means performs an image pickup operation by the image pickup means and / or an image processing of the picked up image based on the sound detected by the sound detecting means. The electronic camera according to claim 1, wherein the electronic camera is controlled.
JP26676098A 1998-09-21 1998-09-21 Electronic camera Expired - Lifetime JP4013100B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26676098A JP4013100B2 (en) 1998-09-21 1998-09-21 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26676098A JP4013100B2 (en) 1998-09-21 1998-09-21 Electronic camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007196482A Division JP4203863B2 (en) 2007-07-27 2007-07-27 Electronic camera

Publications (3)

Publication Number Publication Date
JP2000101898A true JP2000101898A (en) 2000-04-07
JP2000101898A5 JP2000101898A5 (en) 2006-11-02
JP4013100B2 JP4013100B2 (en) 2007-11-28

Family

ID=17435337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26676098A Expired - Lifetime JP4013100B2 (en) 1998-09-21 1998-09-21 Electronic camera

Country Status (1)

Country Link
JP (1) JP4013100B2 (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6657673B2 (en) * 1999-12-27 2003-12-02 Fuji Photo Film Co., Ltd. Method and apparatus for detecting and recording images
JP2005202653A (en) * 2004-01-15 2005-07-28 Canon Inc Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
EP1564585A1 (en) * 2004-02-06 2005-08-17 Olympus Corporation Head-mounted camera with field-of-view indicating and selecting means
US7487468B2 (en) 2002-09-30 2009-02-03 Canon Kabushiki Kaisha Video combining apparatus and method
JP2009200691A (en) * 2008-02-20 2009-09-03 Konica Minolta Holdings Inc Head-mounted video display device
JP2010028446A (en) * 2008-07-18 2010-02-04 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP2010034633A (en) * 2008-07-25 2010-02-12 Nikon Corp Electronic camera
JP2010038879A (en) * 2008-08-08 2010-02-18 Ntt Docomo Inc System and method for recognizing object shape
JP2010081261A (en) * 2008-09-25 2010-04-08 Casio Computer Co Ltd Imaging apparatus, program therefor, and electronic device
US7750966B2 (en) 2003-10-15 2010-07-06 Olympus Corporation Camera with framing means
WO2010082270A1 (en) * 2009-01-15 2010-07-22 ブラザー工業株式会社 Head-mounted display
JP2010183230A (en) * 2009-02-04 2010-08-19 Seiko Epson Corp Image input device, image display apparatus, and image display system
KR20100119440A (en) * 2009-04-30 2010-11-09 엘지전자 주식회사 Display method of mobile terminal and apparatus thereof
JP2011076503A (en) * 2009-09-30 2011-04-14 Brother Industries Ltd Head mounted display
WO2011058707A1 (en) * 2009-11-11 2011-05-19 コニカミノルタオプト株式会社 Imaging device and remote operations support system
JP2012008290A (en) * 2010-06-23 2012-01-12 Softbank Mobile Corp Spectacle type display device and server
JP2012503244A (en) * 2008-09-20 2012-02-02 リングボー,エルティーディー. Device worn on finger, interaction method and communication method
JP2012054785A (en) * 2010-09-01 2012-03-15 Canon Inc Imaging apparatus, control method and program of the same, and recording medium
JP2014174747A (en) * 2013-03-08 2014-09-22 Sony Corp Information processing apparatus, information processing method, and program
JP2014191386A (en) * 2013-03-26 2014-10-06 Seiko Epson Corp Head-mounted display device and method of controlling the same
JP2014200034A (en) * 2013-03-29 2014-10-23 富士通株式会社 Image capturing device, image capturing method, image capturing program, and mobile communication terminal
WO2016092950A1 (en) * 2014-12-11 2016-06-16 ソニー株式会社 Spectacle-type display device for medical use, information processing device, and information processing method
WO2016199731A1 (en) * 2015-06-10 2016-12-15 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display, display control method, and program
JP2017142857A (en) * 2017-05-08 2017-08-17 株式会社ニコン Input device
KR101810039B1 (en) * 2015-12-31 2018-01-18 홍익대학교 산학협력단 Visual Aid System
JP2018201240A (en) * 2013-07-31 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Remote control method and terminal
US10747225B2 (en) 2013-07-31 2020-08-18 SZ DJI Technology Co., Ltd. Remote control method and terminal
US11134196B2 (en) 2013-10-08 2021-09-28 Sz Dji Osmo Technology Co., Ltd. Apparatus and methods for stabilization and vibration reduction
US11140322B2 (en) 2011-09-09 2021-10-05 Sz Dji Osmo Technology Co., Ltd. Stabilizing platform
US11153472B2 (en) 2005-10-17 2021-10-19 Cutting Edge Vision, LLC Automatic upload of pictures from a camera
WO2021261463A1 (en) * 2020-06-24 2021-12-30 株式会社電通 Program, head-mounted display, and information processing device
JP2022524511A (en) * 2018-03-05 2022-05-06 ヒンドサイト テクノロジーズ,エルエルシー Continuous Video Capture Glasses Inventor: Armaan Saini, Casey Speaker, and Vivek CiNii

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6456428A (en) * 1987-08-27 1989-03-03 Oki Electric Ind Co Ltd Control system for camera by sound
JPH01191839A (en) * 1988-01-28 1989-08-01 Konica Corp Speech recognizing camera
JPH086708A (en) * 1994-04-22 1996-01-12 Canon Inc Display device
JPH0832860A (en) * 1994-07-20 1996-02-02 Fujitsu General Ltd Automatic posture controller for camera
JPH1023319A (en) * 1996-06-28 1998-01-23 Fujitsu Ltd Image pickup device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6456428A (en) * 1987-08-27 1989-03-03 Oki Electric Ind Co Ltd Control system for camera by sound
JPH01191839A (en) * 1988-01-28 1989-08-01 Konica Corp Speech recognizing camera
JPH086708A (en) * 1994-04-22 1996-01-12 Canon Inc Display device
JPH0832860A (en) * 1994-07-20 1996-02-02 Fujitsu General Ltd Automatic posture controller for camera
JPH1023319A (en) * 1996-06-28 1998-01-23 Fujitsu Ltd Image pickup device

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6657673B2 (en) * 1999-12-27 2003-12-02 Fuji Photo Film Co., Ltd. Method and apparatus for detecting and recording images
US7487468B2 (en) 2002-09-30 2009-02-03 Canon Kabushiki Kaisha Video combining apparatus and method
US7750966B2 (en) 2003-10-15 2010-07-06 Olympus Corporation Camera with framing means
JP2005202653A (en) * 2004-01-15 2005-07-28 Canon Inc Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
US8094881B2 (en) 2004-01-15 2012-01-10 Canon Kabushiki Kaisha Action recognition apparatus and method, moving-object recognition apparatus and method, device control apparatus and method, and program
JP4481663B2 (en) * 2004-01-15 2010-06-16 キヤノン株式会社 Motion recognition device, motion recognition method, device control device, and computer program
EP1564585A1 (en) * 2004-02-06 2005-08-17 Olympus Corporation Head-mounted camera with field-of-view indicating and selecting means
US7573525B2 (en) 2004-02-06 2009-08-11 Olympus Corporation Camera and photographing method for setting focal distance of photographing optical system so as to correspond to information that indicates photographic range inputted via an operation section
US11153472B2 (en) 2005-10-17 2021-10-19 Cutting Edge Vision, LLC Automatic upload of pictures from a camera
US11818458B2 (en) 2005-10-17 2023-11-14 Cutting Edge Vision, LLC Camera touchpad
JP2009200691A (en) * 2008-02-20 2009-09-03 Konica Minolta Holdings Inc Head-mounted video display device
JP2010028446A (en) * 2008-07-18 2010-02-04 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP2010034633A (en) * 2008-07-25 2010-02-12 Nikon Corp Electronic camera
JP2010038879A (en) * 2008-08-08 2010-02-18 Ntt Docomo Inc System and method for recognizing object shape
JP2012503244A (en) * 2008-09-20 2012-02-02 リングボー,エルティーディー. Device worn on finger, interaction method and communication method
JP2010081261A (en) * 2008-09-25 2010-04-08 Casio Computer Co Ltd Imaging apparatus, program therefor, and electronic device
JP2010164784A (en) * 2009-01-15 2010-07-29 Brother Ind Ltd Head mounted display
WO2010082270A1 (en) * 2009-01-15 2010-07-22 ブラザー工業株式会社 Head-mounted display
JP2010183230A (en) * 2009-02-04 2010-08-19 Seiko Epson Corp Image input device, image display apparatus, and image display system
KR20100119440A (en) * 2009-04-30 2010-11-09 엘지전자 주식회사 Display method of mobile terminal and apparatus thereof
KR101587103B1 (en) * 2009-04-30 2016-01-20 엘지전자 주식회사 Display method of mobile terminal and apparatus thereof
JP2011076503A (en) * 2009-09-30 2011-04-14 Brother Industries Ltd Head mounted display
WO2011058707A1 (en) * 2009-11-11 2011-05-19 コニカミノルタオプト株式会社 Imaging device and remote operations support system
JP2012008290A (en) * 2010-06-23 2012-01-12 Softbank Mobile Corp Spectacle type display device and server
JP2012054785A (en) * 2010-09-01 2012-03-15 Canon Inc Imaging apparatus, control method and program of the same, and recording medium
US11140322B2 (en) 2011-09-09 2021-10-05 Sz Dji Osmo Technology Co., Ltd. Stabilizing platform
JP2014174747A (en) * 2013-03-08 2014-09-22 Sony Corp Information processing apparatus, information processing method, and program
JP2014191386A (en) * 2013-03-26 2014-10-06 Seiko Epson Corp Head-mounted display device and method of controlling the same
JP2014200034A (en) * 2013-03-29 2014-10-23 富士通株式会社 Image capturing device, image capturing method, image capturing program, and mobile communication terminal
US10747225B2 (en) 2013-07-31 2020-08-18 SZ DJI Technology Co., Ltd. Remote control method and terminal
US11385645B2 (en) 2013-07-31 2022-07-12 SZ DJI Technology Co., Ltd. Remote control method and terminal
JP2018201240A (en) * 2013-07-31 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Remote control method and terminal
US11134196B2 (en) 2013-10-08 2021-09-28 Sz Dji Osmo Technology Co., Ltd. Apparatus and methods for stabilization and vibration reduction
US11962905B2 (en) 2013-10-08 2024-04-16 Sz Dji Osmo Technology Co., Ltd. Apparatus and methods for stabilization and vibration reduction
WO2016092950A1 (en) * 2014-12-11 2016-06-16 ソニー株式会社 Spectacle-type display device for medical use, information processing device, and information processing method
US10715735B2 (en) 2015-06-10 2020-07-14 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program
EP3310043A4 (en) * 2015-06-10 2019-01-16 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program
WO2016199731A1 (en) * 2015-06-10 2016-12-15 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display, display control method, and program
JPWO2016199731A1 (en) * 2015-06-10 2017-09-28 株式会社ソニー・インタラクティブエンタテインメント Head mounted display, display control method and program
KR101810039B1 (en) * 2015-12-31 2018-01-18 홍익대학교 산학협력단 Visual Aid System
JP2017142857A (en) * 2017-05-08 2017-08-17 株式会社ニコン Input device
JP2022524511A (en) * 2018-03-05 2022-05-06 ヒンドサイト テクノロジーズ,エルエルシー Continuous Video Capture Glasses Inventor: Armaan Saini, Casey Speaker, and Vivek CiNii
WO2021261463A1 (en) * 2020-06-24 2021-12-30 株式会社電通 Program, head-mounted display, and information processing device
JP2022006502A (en) * 2020-06-24 2022-01-13 株式会社電通 Program, head-mounted display and information processing device
JP7057393B2 (en) 2020-06-24 2022-04-19 株式会社電通 Programs, head-mounted displays and information processing equipment

Also Published As

Publication number Publication date
JP4013100B2 (en) 2007-11-28

Similar Documents

Publication Publication Date Title
JP4013100B2 (en) Electronic camera
JP4449082B2 (en) Electronic camera
JP4203863B2 (en) Electronic camera
CN107026973B (en) Image processing device, image processing method and photographic auxiliary equipment
US6549231B1 (en) Image recording apparatus
US6346929B1 (en) Display apparatus which detects an observer body part motion in correspondence to a displayed element used to input operation instructions to start a process
JP4510713B2 (en) Digital camera
JP6693060B2 (en) Display system, display device, display device control method, and program
CN108371533B (en) Endoscope operation support system
JP2010530144A (en) Remote control of image capture unit in portable electronic devices
CN112219393A (en) Portable information terminal
JP2000101898A5 (en)
JP2015192436A (en) Transmission terminal, reception terminal, transmission/reception system and program therefor
JP2015149552A (en) Wearable electronic apparatus
JP6711885B2 (en) Transmission terminal, reception terminal, transmission/reception system, and its program
JP2001028046A (en) Image recognizing device
JP2011101300A (en) Photographing device and remote operation support system
JP2020071587A (en) Display device and method for controlling display device
WO2011058707A1 (en) Imaging device and remote operations support system
JP3307075B2 (en) Imaging equipment
JP2018042004A (en) Display device, head-mounted type display device, and method for controlling display device
KR100846355B1 (en) method for the vision assistance in head mount display unit and head mount display unit therefor
JP2016090853A (en) Display device, control method of display device and program
JP2015162822A (en) Electronic apparatus, imaging apparatus, and communication apparatus
JP2004104652A (en) Image pickup device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060919

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070829

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110921

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130921

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term