JP4596330B2 - Imaging system - Google Patents

Imaging system Download PDF

Info

Publication number
JP4596330B2
JP4596330B2 JP2006214301A JP2006214301A JP4596330B2 JP 4596330 B2 JP4596330 B2 JP 4596330B2 JP 2006214301 A JP2006214301 A JP 2006214301A JP 2006214301 A JP2006214301 A JP 2006214301A JP 4596330 B2 JP4596330 B2 JP 4596330B2
Authority
JP
Japan
Prior art keywords
subject
imaging
information
video camera
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006214301A
Other languages
Japanese (ja)
Other versions
JP2008042522A (en
Inventor
一英 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2006214301A priority Critical patent/JP4596330B2/en
Publication of JP2008042522A publication Critical patent/JP2008042522A/en
Application granted granted Critical
Publication of JP4596330B2 publication Critical patent/JP4596330B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、遠方で移動する被写体を的確に捉える撮像システムに関する。   The present invention relates to an imaging system that accurately captures a subject moving far away.

近年のビデオカメラは高倍率のズームレンズを搭載しているので比較的遠方の被写体をクローズアップで撮影することが可能である。しかしながら、このようなビデオカメラであっても、動いている多人数の中から瞬時に特定の人物を捉えるのは難しい。例えば、子供の運動会で、走る一団の中から自分の子供を見つけてクローズアップ撮影する場合などである。   Recent video cameras are equipped with a high-magnification zoom lens, so it is possible to photograph a relatively distant subject in close-up. However, even with such a video camera, it is difficult to instantly capture a specific person from a large number of moving people. For example, when a child's athletic meet finds his child from a running group and takes a close-up shot.

このような場合に、撮影したい被写体に無線発振装置をつけて、その装置からの発振信号をビデオカメラ側で受信して被写体の位置を特定し、クローズアップ撮影する方法が考えられる。被写体の位置を特定する方法としては、例えば、被写体から音波等の特殊な信号を発振し、この信号をビデオカメラ側の2ヶ所で受信して受信信号の時間差(位相差)から位置を算出する方法や、被写体自身がGPS(Global Positioning System:人工衛星からの電波を用いた位置測定システム)を利用して位置情報を得て、その位置情報をビデオカメラ側に無線送信で知らせる被写体位置検出装置を所持する方法などがある。   In such a case, a method of attaching a wireless oscillation device to a subject to be photographed, receiving an oscillation signal from the device on the video camera side, specifying the position of the subject, and performing close-up photography is conceivable. As a method for specifying the position of the subject, for example, a special signal such as a sound wave is oscillated from the subject, and this signal is received at two positions on the video camera side, and the position is calculated from the time difference (phase difference) of the received signal. Method and subject position detection apparatus that obtains position information by using a GPS (Global Positioning System: position measurement system using radio waves from an artificial satellite) and informs the position information by wireless transmission to the video camera. There is a way to possess.

GPSを利用して位置情報を得る方法は比較的手軽に実施できるので便利であるが、GPSは衛星からの電波を使用するので、一般に電離層の状態や水蒸気・気圧の影響、衛星配置などにより測定値に誤差が発生し、ビデオカメラで撮影する遠方の被写体の位置情報としては精度に問題が有る。
下記特許文献1では、GPSを利用して取得する被写体の位置情報の誤差を少なくするために、被写体側とビデオカメラ側の双方でGPSによる位置情報を取得することにより、2つの位置情報から相対的な位置を算出することで上記の誤差要因をキャンセルする方法が提案されている。
特開2004−112615号公報
The method of obtaining position information using GPS is convenient because it can be implemented relatively easily. However, since GPS uses radio waves from satellites, it is generally measured based on the ionospheric state, the influence of water vapor and atmospheric pressure, satellite positioning, etc. An error occurs in the value, and there is a problem in accuracy as position information of a distant subject photographed with a video camera.
In Patent Document 1 below, in order to reduce an error in the position information of a subject acquired using GPS, the position information by GPS is acquired on both the subject side and the video camera side, so that the relative position is calculated from the two position information. There has been proposed a method of canceling the above error factors by calculating a specific position.
JP 2004-112615 A

しかしながら、GPSの誤差要因としては、前記した大気の条件や衛星配置の他に建造物や地面での電波の反射(多重反射)等もあり、この誤差要因は位置情報を取得する離れた2ヶ所では受ける影響が異なることもあって、特許文献1のように、2つの測定値の差分をとっても必ずしも誤差要因がキャンセルされない場合がある。このため、測定した位置情報が不正確になり、例えば、静止している被写体を撮影している場合でも時折測定値が変動し、被写体の位置が変化している値として算出されてしまうことが起きる。したがって、このような測定値を使って被写体を追尾する場合には、画面から被写体が外れてしまうという問題が発生する。   However, GPS error factors include the reflection of radio waves (multiple reflection) on buildings and the ground in addition to the atmospheric conditions and satellite arrangements described above. However, since the influence is different, there are cases where the error factor is not always canceled even if the difference between the two measurement values is taken as in Patent Document 1. For this reason, the measured position information becomes inaccurate. For example, even when a stationary subject is photographed, the measured value sometimes fluctuates and is calculated as a value in which the subject position changes. Get up. Therefore, when tracking a subject using such measurement values, there arises a problem that the subject comes off the screen.

また、従来、遠方の被写体を撮影するときの別の問題として、被写体側から撮影しているビデオカメラの位置が分らないために、肝心なときに被写体の正面がビデオカメラの方角に向いていなくて、良い表情の画像を撮り損なうことが起きていた。   In addition, conventionally, another problem when shooting a distant subject is that the position of the video camera shooting from the subject side is unknown, so the front of the subject is not oriented in the direction of the video camera when it is important. It was happening that it was difficult to take images with good expressions.

本発明は、このような従来の問題点に鑑みなされたものであり、遠方の移動する被写体を撮影する撮像システムに使われるビデオカメラと被写体位置検出装置において、GPSを利用した位置測定における誤差を排除し、被写体までの正確な距離と方角を取得できると共に、被写体側でも撮影しているビデオカメラの位置と動作状況を知ることが可能となる撮像システムを提供することを目的とする。   The present invention has been made in view of such a conventional problem, and in a video camera and a subject position detection device used in an imaging system for photographing a subject moving far away, an error in position measurement using GPS is eliminated. An object of the present invention is to provide an imaging system that can acquire an accurate distance and direction to a subject, and can know the position and operating state of a video camera that is also photographing on the subject side.

本発明は、上記課題を解決する手段として以下の(1)(2)(3)に記載の構成からなる。すなわち、
(1)被写体を撮像すると共に、送受信を行うビデオカメラと、前記被写体に付帯され、前記被写体の位置情報と前記被写体が向いている方角を示す方位情報とを取得し、前記ビデオカメラと送受信可能な被写体位置検出装置とを備えた撮像システムにおいて、
前記ビデオカメラは、
前記被写体を撮影して得られた被写体像を光電変換して画像信号を生成する撮像手段と、
前記撮像手段で生成された前記画像信号を記録する記録手段と、
前記撮像手段で生成された前記画像信号を表示する画像表示手段と、
GPSから送られる信号を受信し、前記被写体を撮像している撮像位置情報を取得する撮像位置取得手段と、
前記被写体を撮像している撮像方角に基づいて、撮像方位情報を生成する撮像方位生成手段と、
前記撮像位置情報、前記撮像方位情報及び前記記録手段への記録の可否を示す記録動作情報を前記被写体位置検出装置へ送信する無線送信手段と、
前記被写体位置検出装置から送信される前記被写体の前記位置情報と前記被写体の前記方位情報とを受信する無線受信手段と、
前記撮像位置取得手段で取得した前記撮像位置情報、前記撮像方位生成手段で生成した前記撮像方位情報、前記無線受信手段で受信した前記被写体の前記位置情報及び前記被写体の前記方位情報とを用いて、前記被写体までの距離と前記被写体の存在する方角の演算を行って、その結果を前記画像表示手段に出力する演算手段と、
を有することを特徴とする撮像システムを提供する。
(2)請求項1記載の撮像システムにおいて、
前記無線受信手段において受信した前記被写体の位置情報と方位情報とを記憶するメモリ手段と、
前記メモリ手段に記憶されている前記被写体の方位情報と、前記無線受信手段において新たに受信した被写体の方位情報とを比較し、差分が予め設定されている値以下のときは前記無線受信手段において受信した被写体の位置情報を廃棄し、前記メモリ手段に記憶されている被写体の位置情報を演算に使用する演算手段と、
を併せ有することを特徴とする撮像システムを提供する。
(3)被写体を撮像すると共に、送受信を行うビデオカメラと、前記被写体に付帯され、前記被写体の位置情報と前記被写体が向いている方角を示す方位情報とを取得し、前記ビデオカメラと送受信可能な被写体位置検出装置とを備えた撮像システムにおいて、
前記被写体位置検出装置は、
GPSから送られる信号を受信し、前記被写体の位置情報を取得する被写体位置取得手段と、
前記被写体の向いている方角を検出して方位情報を生成する被写体方位生成手段と、
前記被写体位置情報と前記被写体方位情報とを送信する無線送信手段と、
前記ビデオカメラが送信するビデオカメラの撮像位置情報とビデオカメラが撮影している撮像方位情報とビデオカメラの記録の可否状態を示す記録動作情報とを受信する無線受信手段と、
前記被写体位置取得手段で取得した前記被写体位置情報、前記被写体方位生成手段で生成した前記被写体方位情報、前記無線受信手段で受信したビデオカメラの撮像位置情報及び撮像方位情報とを用いて、前記ビデオカメラまでの距離と前記ビデオカメラの存在する方角の演算を行うと共に、算出された距離と方角と前記記録動作情報とを表す画像信号を生成する演算手段と、
前記演算手段で生成された前記画像信号を表示する画像表示手段と、
を有することを特徴とする撮像システムを提供する。
The present invention includes the following configurations (1), (2), and (3) as means for solving the above-described problems. That is,
(1) A video camera that captures an image of a subject and transmits / receives the image, and the position information of the subject attached to the subject and direction information indicating the direction in which the subject is facing can be acquired and transmitted / received to / from the video camera. In an imaging system including a subject position detection device,
The video camera
Imaging means for photoelectrically converting a subject image obtained by photographing the subject to generate an image signal;
Recording means for recording the image signal generated by the imaging means;
Image display means for displaying the image signal generated by the imaging means;
Imaging position acquisition means for receiving a signal sent from the GPS and acquiring imaging position information for imaging the subject;
Imaging orientation generation means for generating imaging orientation information based on an imaging direction in which the subject is imaged;
Wireless transmission means for transmitting the imaging position information, the imaging orientation information, and recording operation information indicating whether or not recording to the recording means is possible, to the subject position detection device;
Wireless receiving means for receiving the position information of the subject and the orientation information of the subject transmitted from the subject position detection device;
Using the imaging position information acquired by the imaging position acquisition unit, the imaging direction information generated by the imaging direction generation unit, the position information of the subject received by the wireless reception unit, and the direction information of the subject Calculating means for calculating the distance to the subject and the direction in which the subject exists, and outputting the result to the image display means;
An imaging system is provided.
(2) In the imaging system according to claim 1,
Memory means for storing position information and azimuth information of the subject received by the wireless receiving means;
The azimuth information of the subject stored in the memory means is compared with the azimuth information of the subject newly received by the wireless receiving means. When the difference is equal to or less than a preset value, the wireless receiving means Computing means for discarding the received subject position information and using the subject position information stored in the memory means for computation;
In addition, an imaging system is provided.
(3) A video camera that captures an image of a subject and transmits / receives it, and is attached to the subject and acquires position information of the subject and direction information indicating a direction in which the subject is facing, and can be transmitted / received to / from the video camera. In an imaging system including a subject position detection device,
The subject position detection device includes:
Subject position acquisition means for receiving a signal sent from the GPS and acquiring position information of the subject;
Subject orientation generation means for detecting orientation of the subject and generating orientation information;
Wireless transmission means for transmitting the subject position information and the subject orientation information;
Radio receiving means for receiving imaging position information of the video camera transmitted by the video camera, imaging orientation information captured by the video camera, and recording operation information indicating whether the video camera is recordable,
Using the subject position information acquired by the subject position acquisition unit, the subject direction information generated by the subject direction generation unit, the imaging position information and imaging direction information of the video camera received by the wireless reception unit, the video A calculation means for calculating a distance to the camera and a direction in which the video camera exists, and generating an image signal representing the calculated distance and direction and the recording operation information;
Image display means for displaying the image signal generated by the computing means;
An imaging system is provided.

本発明に係る請求項1の構成により、被写体とビデオカメラの双方で夫々GPSを利用して取得した位置情報を用いて被写体までの距離と被写体の方角を算出するので、GPSを利用して取得した位置情報に含まれる誤差分がキャンセルされた正確な被写体の位置を算出できると共に、算出した被写体までの距離と被写体の方角を分かり易く画像表示するので、撮影者は表示された画像に従ってビデオカメラの撮影方向を動かすことで被写体のクローズアップシーンを取り逃すことなく迅速に撮影することが可能となる。
また、本発明に係る請求項2の構成により、被写体が動いていないときにはGPSを利用して取得した被写体の位置情報は演算に使用せず、メモリに記憶されている前回取得した位置情報を使用するようにしているので、静止しているにも拘わらず取得情報が変化するという誤差成分を含むGPSの位置情報を排除することが可能となり、算出された被写体までの距離と被写体の方角の信頼性が向上する。
また、本発明に係る請求項3の構成により、被写体側ではビデオカメラの位置と現在のビデオカメラの動作状態を表示画像で確認することができるので、被写体自身が、自分がどの場所から撮影されているのか一目で分り、撮影されている方向を向くことができるようになる。これにより、正面を向いた良い表情の画像を撮影することが可能となりビデオカメラの利便性が向上する。
According to the configuration of the first aspect of the present invention, the distance to the subject and the direction of the subject are calculated using the positional information obtained by using both the subject and the video camera by using the GPS. In addition to being able to calculate the exact position of the subject where the error contained in the position information is canceled and displaying the calculated distance to the subject and the direction of the subject in an easy-to-understand manner, the photographer can use the video camera according to the displayed image. By moving the shooting direction, it is possible to quickly shoot without missing the close-up scene of the subject.
According to the second aspect of the present invention, when the subject is not moving, the position information of the subject acquired using the GPS is not used for the calculation, but the previously acquired position information stored in the memory is used. As a result, it is possible to eliminate GPS position information including an error component that the acquired information changes even when the object is stationary, and the reliability of the calculated distance to the subject and the direction of the subject is reliable. Improves.
Further, according to the configuration of the third aspect of the present invention, since the position of the video camera and the current operation state of the video camera can be confirmed on the display side on the subject side, the subject itself can be photographed from which location. You can see at a glance whether you are shooting or not. As a result, it is possible to take an image with a good expression facing the front, and the convenience of the video camera is improved.

以下、本発明の実施形態に係る撮像システムについて、図面を参照して説明する。
図1は、本発明に係る撮像システムに用いられるビデオカメラの一実施例を示すブロック図、図2は、撮影対象の被写体が所持している被写体位置検出装置の一実施例を示したブロック図、図3は、ビデオカメラの画像表示部における表示画面を説明するための図で、(a)は撮影対象の被写体が画面外の状態を示す図、(b)は(a)の状態でクローズアップしたときの画面を示す図、(c)は撮影方向を修正して撮影対象の被写体が画面に入っている場合を示す図である。図4は、被写体位置検出装置の画像表示部における表示画面を説明するための図で、(a)は被写体がビデオカメラの方向を向いていない場合の表示画面、(b)はビデオカメラの方向に向いている場合の表示画面である。図5は、被写体位置の算出方法を説明するための図、図6は、ビデオカメラの位置算出方法を説明するための図、図7は、被写体位置算出の誤差を除去する方法を説明するための図である。
Hereinafter, an imaging system according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing an embodiment of a video camera used in the imaging system according to the present invention, and FIG. 2 is a block diagram showing an embodiment of a subject position detection apparatus possessed by a subject to be photographed. FIGS. 3A and 3B are diagrams for explaining a display screen in the image display unit of the video camera. FIG. 3A is a diagram showing a state where a subject to be photographed is off the screen, and FIG. 3B is a closed view in the state of FIG. The figure which shows the screen when it is up, (c) is a figure which shows the case where the to-be-photographed object has entered the screen by correcting the photographing direction. 4A and 4B are diagrams for explaining a display screen in the image display unit of the subject position detection device. FIG. 4A is a display screen when the subject is not facing the video camera, and FIG. 4B is a direction of the video camera. It is a display screen when it is suitable for. 5 is a diagram for explaining a method for calculating a subject position, FIG. 6 is a diagram for explaining a method for calculating the position of a video camera, and FIG. 7 is a diagram for explaining a method for removing an error in subject position calculation. FIG.

最初に、図1を用いて、本発明の実施形態に係るビデオカメラ100の構成と各ブロックの作用を説明する。同図で、撮像部101は、内部にズームレンズと撮像素子を有し、被写体像を電気信号に変換して連続した画像信号を生成するブロックである。記録部102は、撮像部101で生成した画像信号を磁気テープ、HDD、若しくは磁気ディスク等の記録メディア(図示せず)に記録及び再生を行うブロックであり、画像表示部103は、撮像部101で生成した画像信号と被写体までの距離や方向を表示するブロックである。制御部104は、撮像部101、記録部102、画像表示部103、及び、後述の演算部109等の動作を制御するブロックである。   First, the configuration of the video camera 100 according to the embodiment of the present invention and the operation of each block will be described with reference to FIG. In the figure, an image pickup unit 101 is a block that includes a zoom lens and an image pickup element inside, and generates a continuous image signal by converting a subject image into an electric signal. The recording unit 102 is a block that records and reproduces the image signal generated by the imaging unit 101 on a recording medium (not shown) such as a magnetic tape, HDD, or magnetic disk, and the image display unit 103 is an imaging unit 101. This is a block that displays the image signal generated in step 1 and the distance and direction to the subject. The control unit 104 is a block that controls operations of the imaging unit 101, the recording unit 102, the image display unit 103, a calculation unit 109, which will be described later, and the like.

撮像方位生成部105は、ビデオカメラが現在どの方角に向いて撮影しているかを検出し、検出した方角の方位情報を生成するブロックである。撮像位置取得部106は、GPS衛星から緯度と経度に関する情報を取得し、ビデオカメラの現在の位置情報を得るブロックである。
無線送信部107は、後述の演算部109を介して、前記撮像方位生成部105で生成した方位情報と前記撮像位置取得部106で取得した位置情報及び、記録部102が記録中か否かの状態を示す動作情報などを撮影対象の被写体に無線で送信するブロックである。無線受信部108は、後述する被写体側から送信される被写体の位置情報と方位情報とを受信するためのブロックである。
The imaging azimuth generation unit 105 is a block that detects which direction the video camera is currently shooting and generates azimuth information of the detected direction. The imaging position acquisition unit 106 is a block that acquires information on latitude and longitude from GPS satellites and obtains current position information of the video camera.
The wireless transmission unit 107 transmits the azimuth information generated by the imaging azimuth generation unit 105, the positional information acquired by the imaging position acquisition unit 106, and whether or not the recording unit 102 is recording via the calculation unit 109 described later. This is a block that wirelessly transmits operation information indicating a state to a subject to be imaged. The wireless receiving unit 108 is a block for receiving subject position information and azimuth information transmitted from the subject side, which will be described later.

演算部109は、撮像方位生成部105からの方位情報と撮像位置取得部106からの位置情報、及び、前記無線受信部108で受信した被写体の位置情報と方位情報とを用いてビデオカメラから被写体までの距離と方角を算出し、更に算出された距離と方角の情報を撮影者が判別しやすい画像信号に生成し、前記画像表示部103に供給するブロックである。メモリ110は、前記無線受信部108で受信した被写体の位置情報と方位情報とを一時記憶しておくブロックである。
演算部109は、無線受信部108で受信した被写体の方位情報と、メモリ110内の前回受信した方位情報とを比較して被写体の動きを判別し、被写体に動きがない場合は今回受信した被写体の位置情報を無効とし、メモリ110に記憶されている前回の位置情報を用いるようにする。なお、この動作の詳細は後述する。
The calculation unit 109 uses the azimuth information from the imaging azimuth generation unit 105, the positional information from the imaging position acquisition unit 106, and the positional information and azimuth information of the subject received by the wireless reception unit 108 to obtain a subject from the video camera. The distance and the direction are calculated, and the information on the calculated distance and the direction is generated into an image signal that can be easily identified by the photographer, and is supplied to the image display unit 103. The memory 110 is a block that temporarily stores the position information and the direction information of the subject received by the wireless reception unit 108.
The calculation unit 109 compares the azimuth information of the subject received by the wireless reception unit 108 with the previous azimuth information received in the memory 110 to determine the movement of the subject, and when the subject has no movement, the subject received this time Is invalidated, and the previous position information stored in the memory 110 is used. Details of this operation will be described later.

次に、図2を用いて、撮影対象の被写体が所持する被写体位置検出装置200の構成と各ブロックの作用を説明する。同図で、被写体方位生成部201は、被写体位置検出装置200が現在どの方角を向いているかを検出し、検出した方角の方位情報を生成する機能を有するブロックである。被写体位置取得部202は、GPS衛星から緯度と経度に関する情報を取得して被写体位置検出装置200の現在の位置情報を得るブロックである。   Next, the configuration of the subject position detection apparatus 200 possessed by the subject to be imaged and the operation of each block will be described with reference to FIG. In the figure, a subject direction generation unit 201 is a block having a function of detecting which direction the subject position detection device 200 is currently facing and generating direction information of the detected direction. The subject position acquisition unit 202 is a block that acquires information on latitude and longitude from a GPS satellite and obtains current position information of the subject position detection device 200.

無線送信部203は、後述の演算部205を介して、前記被写体方位生成部201で生成した方位情報と前記被写体位置取得部202で取得した位置情報とを前記ビデオカメラ側に無線送信するブロックである。無線受信部204は、ビデオカメラ内の無線送信部107から送信されたビデオカメラの方位情報と位置情報及び、記録部102が記録中か否かの状態を示す動作情報を受信するためのブロックである。   The wireless transmission unit 203 is a block that wirelessly transmits the azimuth information generated by the subject azimuth generation unit 201 and the position information acquired by the subject position acquisition unit 202 to the video camera side via a calculation unit 205 described later. is there. The wireless reception unit 204 is a block for receiving azimuth information and position information of the video camera transmitted from the wireless transmission unit 107 in the video camera, and operation information indicating whether the recording unit 102 is recording. is there.

演算部205は、被写体方位生成部201からの方位情報と被写体位置取得部202からの位置情報及び、前記無線受信部204で受信したビデオカメラからの送信情報を用い、被写体からビデオカメラまでの距離と方角を算出し、更に算出された距離と方角と、ビデオカメラ内の記録部102が記録中か否かの状態を示す動作情報とを被写体の人物が見て判別しやすい画像信号に生成して画像表示部206に供給するブロックである。画像表示部206は、演算部205から供給された画像信号を表示するブロックである。 The calculation unit 205 uses the direction information from the subject direction generation unit 201, the position information from the subject position acquisition unit 202, and the transmission information from the video camera received by the wireless reception unit 204, and the distance from the subject to the video camera. And the calculated distance and direction, and the operation information indicating whether the recording unit 102 in the video camera is recording or not are generated into an image signal that is easy for the person of the subject to see and determine. The block is supplied to the image display unit 206. The image display unit 206 is a block that displays the image signal supplied from the calculation unit 205.

メモリ207は、前記無線受信部204で受信したビデオカメラの位置情報と方位情報とを一時記憶するブロックである。演算部205は、無線受信部204で受信した方位情報と、メモリ207内の前回受信した方位情報とを比較してビデオカメラの動きを判別し、ビデオカメラに動きがない場合は今回受信した位置情報を無効とし、メモリ207に記憶されている前回の位置情報を用いるようにする。   The memory 207 is a block for temporarily storing the position information and direction information of the video camera received by the wireless reception unit 204. The calculation unit 205 compares the azimuth information received by the wireless reception unit 204 with the previous azimuth information received in the memory 207 to determine the motion of the video camera. If the video camera has no motion, the position received this time The information is invalidated and the previous position information stored in the memory 207 is used.

次に、図3、図4を用い、ビデオカメラの画像表示部103と、被写体が所持している被写体位置検出装置の画像表示部206の各表示画像を使って本実施例におけるビデオカメラの撮影方法を述べる。
図3はビデオカメラ100内の画像表示部103の表示画像の一例である。ビデオカメラ100は撮影を開始すると、同図(a)に示すように、撮像部101で撮影した画像信号が表示されると共に、画面の右上には演算部109から供給された画像信号により、撮影対象となる被写体が位置する方向を示す矢印と被写体までの距離を示す数値が重畳表示される。同図は、撮影対象となる被写体は右方向15mの位置にあることを示している。
Next, referring to FIG. 3 and FIG. 4, the video camera in this embodiment is photographed using the display images of the image display unit 103 of the video camera and the image display unit 206 of the subject position detection device possessed by the subject. Describe the method.
FIG. 3 is an example of a display image of the image display unit 103 in the video camera 100. When the video camera 100 starts shooting, the image signal shot by the image pickup unit 101 is displayed as shown in FIG. 5A, and the image signal supplied from the calculation unit 109 is displayed at the upper right of the screen. An arrow indicating the direction in which the subject subject is located and a numerical value indicating the distance to the subject are superimposed and displayed. This figure shows that the subject to be imaged is at a position 15 m to the right.

同図(b)は、(a)の状態からクローズアップを行なった場合の画像であるが、この状態ではクローズアップしても撮影対象となる被写体は映らず、右方向15mの位置にあるという表示が出たままである。
そこで、撮影者は、ビデオカメラが撮影している方向を矢印が示す右方向にゆっくり動かしていくと、ある時点で矢印は上方向を示すようになる。同図(c)はこの状態を示しており、矢印は真上を指していて、撮影対象となる被写体がクローズアップで画面に捉えられている。
(B) in the figure is an image when the close-up is performed from the state of (a). However, in this state, the subject to be photographed is not shown even if the close-up is performed, and is at a position 15 m in the right direction. The display remains on.
Therefore, when the photographer slowly moves the direction in which the video camera is photographing in the right direction indicated by the arrow, the arrow indicates the upward direction at a certain point in time. FIG. 5C shows this state, where the arrow points directly above, and the subject to be imaged is captured on the screen in close-up.

すなわち、本実施例では、画像表示部103の画面に表示されている矢印が示す方向にビデオカメラの向きを変え、矢印が真上を向いたときが撮影対象となる被写体が画面の中央に捉えられたときである。なお、上記の実施例では、クローズアップ状態でビデオカメラの撮影方向を変えている表現になっているが、これに限ることなく、撮影対象となる被写体を画面に捉えてからクローズアップしても良いのは明らかである。   In other words, in this embodiment, the direction of the video camera is changed in the direction indicated by the arrow displayed on the screen of the image display unit 103, and the subject to be photographed is captured at the center of the screen when the arrow is pointing directly above. It is when In the above embodiment, the video camera shooting direction is changed in the close-up state. However, the present invention is not limited to this, and even if the subject to be shot is captured on the screen and then close-up is performed. It is clear that it is good.

図4は被写体位置検出装置200内の画像表示部206の表示画像の一例である。なお、本実施例では、撮影対象の被写体の前方の方角を被写体位置検出装置200内の被写体方位生成部201が検出するように被写体位置検出装置を被写体に固定してあるものとする(例えば、ズボンのベルトのバックル部分に固定する等)。
同図(a)の画面は、矢印はビデオカメラの在る方向を、数値はビデオカメラまでの距離を示している。また、「録画中」の表示は現在のビデオカメラの動作状態である。
この画面を見て被写体である人物は、ビデオカメラの在る方向と距離を知り、ビデオカメラが現在録画中であるならば、必要に応じて、同図(b)の表示のように矢印が上を向くように体の向きを変える。これにより、被写体の向きはビデオカメラ側に向くので、ビデオカメラは被写体の正面の表情を撮影することが可能となる。
FIG. 4 is an example of a display image of the image display unit 206 in the subject position detection apparatus 200. In the present embodiment, it is assumed that the subject position detection device is fixed to the subject so that the subject direction generation unit 201 in the subject position detection device 200 detects the forward direction of the subject to be photographed (for example, Fixed to the buckle part of the belt of the pants).
In the screen of FIG. 6A, the arrow indicates the direction in which the video camera is present, and the numerical value indicates the distance to the video camera. The “recording” display is the current operating state of the video camera.
Looking at this screen, the person who is the subject knows the direction and distance of the video camera, and if the video camera is currently recording, an arrow is displayed as shown in FIG. Change your body's orientation to face up. Thereby, since the direction of the subject is directed to the video camera side, the video camera can photograph the frontal expression of the subject.

次に、図5、図6を用い、ビデオカメラ側から見た被写体の方角と被写体側から見たビデオカメラの方角を求める算出方法について説明する。
まず、ビデオカメラ側から被写体の方角を算出する例を図5で説明する。
ビデオカメラ内の撮像方位生成部105で得られた方位情報により、ビデオカメラが現在向いている方角と、予め選定した特定の方角(本実施例では北)との間の「角度A」が求められる。次いで、撮像位置取得部106で取得したビデオカメラの位置情報(Xc,Yc)と無線受信部108で受信した被写体の位置情報(Xt,Yt)から、両者の相対位置を特定できるので、ビデオカメラがどの方角に向けば被写体を捉えることができるかの「角度B」が次式で算出される。
角度B=角度A+tan−1((Xt−Xc)/(Yt−Yc))―――(1)
このようにして、ビデオカメラは(1)式で求めた「角度B」の角度だけ向きを変えることで被写体を正面に捉えて撮影することができる。
Next, a calculation method for obtaining the direction of the subject viewed from the video camera side and the direction of the video camera viewed from the subject side will be described with reference to FIGS.
First, an example in which the direction of the subject is calculated from the video camera side will be described with reference to FIG.
Based on the azimuth information obtained by the imaging azimuth generation unit 105 in the video camera, an “angle A” between the direction in which the video camera is currently facing and a specific direction selected in advance (north in this embodiment) is obtained. It is done. Next, since the relative position of both can be specified from the position information (Xc, Yc) of the video camera acquired by the imaging position acquisition unit 106 and the position information (Xt, Yt) of the subject received by the wireless reception unit 108, the video camera The "angle B" that the subject can be captured in which direction is calculated by the following equation.
Angle B = Angle A + tan-1 ((Xt-Xc) / (Yt-Yc)) --- (1)
In this way, the video camera can capture the subject in front by photographing by changing the direction of the “angle B” obtained by the equation (1).

次に、被写体側からビデオカメラの方角を算出する例を図6で説明する。
まず、被写体が所持する被写体位置検出装置200内の被写体方位生成部201で得られた方位情報により、被写体が現在向いている方角と、予め選定した特定の方角との間の「角度C」が求められる。次いで、被写体位置取得部202で取得した被写体の位置情報(Xt,Yt)と無線受信部204で受信したビデオカメラの位置情報(Xc,Yc)から、両者の相対位置を特定できるので、被写体がどの方角に向けばビデオカメラの方向に向くことができるかの「角度D」が次式で算出される。
角度D=角度C+tan−1((Xc−Xt)/(Yc−Yt))―――(2)
このようにして、被写体は(2)式で求めた「角度D」の角度だけ向きを変えることでビデオカメラを正面に捉えることができる。
Next, an example of calculating the direction of the video camera from the subject side will be described with reference to FIG.
First, based on the orientation information obtained by the subject orientation generation unit 201 in the subject position detection device 200 possessed by the subject, an “angle C” between the direction in which the subject is currently facing and a specific direction selected in advance is obtained. Desired. Next, the relative position of both can be specified from the position information (Xt, Yt) of the subject acquired by the subject position acquisition unit 202 and the position information (Xc, Yc) of the video camera received by the wireless reception unit 204. The “angle D” that indicates which direction the video camera can face is calculated by the following equation.
Angle D = Angle C + tan−1 ((Xc−Xt) / (Yc−Yt)) −− (2)
In this way, the video camera can be caught in front by changing the direction of the subject by the angle “angle D” obtained by the equation (2).

次に、図7を用い、GPSを利用して取得した位置情報の使用の可否を判別する方法を説明する。前記したように、GPSを利用して取得した位置情報は誤差を含んでいるが、その中で、静止しているにも拘らず位置情報が変化してしまう場合がある。このような位置情報を用いるとビデオカメラの撮影する方角を変えることになるので、その指示に従うと被写体が画面から外れてしまう。そこで、本実施例では、被写体が静止している場合には、GPSで取得した位置情報は使用しないようにすることで、こうした誤差の影響を排除している。   Next, a method for determining whether or not position information acquired using GPS can be used will be described with reference to FIG. As described above, the position information acquired using the GPS includes an error, but the position information may change even though it is stationary. If such position information is used, the shooting direction of the video camera is changed, and the subject will be removed from the screen if the instruction is followed. Therefore, in this embodiment, when the subject is stationary, the position information acquired by the GPS is not used, thereby eliminating the influence of such an error.

本実施例では、被写体の動きを次のように判定する。図7に示すように、初め被写体(移動前)はビデオカメラに正対していて、次いで地点Aに移動したとすると、被写体の向いている方角は同図に示す矢印の方向に変化するので、被写体方位生成部201で得られる方位情報は変化する。そこで、ビデオカメラ側では、無線受信部108で受信した被写体の方位情報と、メモリ110内の前回受信した方位情報とを比較することで被写体が動いたか否かを判別できる。すなわち、比較する2つの方位情報の差が予め設定した範囲を超えていれば動いていると判定し、範囲内であれば静止していると判定する。
前記の方法で被写体が動いていると判定されればそのまま受信した位置情報を使用するが、静止していると判定されたならば、GPSから取得した被写体の位置情報は、含まれる誤差の大小に関係なく使用しないこととして、メモリ110内の前回受信した位置情報を使用する。こうすることで位置情報の信頼度を向上することができる。
In this embodiment, the movement of the subject is determined as follows. As shown in FIG. 7, if the subject (before moving) is first facing the video camera and then moved to point A, the direction in which the subject is facing changes to the direction of the arrow shown in FIG. The orientation information obtained by the subject orientation generation unit 201 changes. Therefore, the video camera side can determine whether or not the subject has moved by comparing the azimuth information of the subject received by the wireless reception unit 108 with the azimuth information received last time in the memory 110. That is, if the difference between the two azimuth information items to be compared exceeds a preset range, it is determined that the object is moving, and if it is within the range, it is determined that the object is stationary.
If it is determined that the subject is moving by the above method, the received position information is used as it is. If it is determined that the subject is stationary, the position information of the subject acquired from the GPS is the size of the included error. The position information received last time in the memory 110 is used as it is not used regardless of whether or not. By doing so, the reliability of the position information can be improved.

しかしながら、前記の方法で被写体の動きを判定する場合には、同図で示すB地点への移動のように、被写体がビデオカメラに向かって来る(あるいは離れていく)場合には、被写体の位置情報は変化するが方位情報は変化しないので静止状態と判定されてしまう。そこで本実施例では、このような場合に対処する為に、被写体の方位情報に変化が無くとも、受信した現在の被写体の位置情報(X,Y)が次式を満足する場合には被写体に動きがあったものとして受信した被写体の位置情報を使用する。
Y≒(Yt−Yc)/(Xt−Xc)×(X−Xt)+Yt ―――(3)
(3)式は被写体の移動前位置(Xt,Yt)とビデオカメラの位置(Xc,Yc)の2点間の直線の方程式で、現在の被写体位置(X,Y)がこの式を満足するということは、被写体は2点間の直線上にあるということ、すなわち、ビデオカメラに向かって近づいてくる(または遠ざかる)ということを表わしている。
However, when the movement of the subject is determined by the above-described method, when the subject comes toward (or moves away from) the video camera as in the movement to the point B shown in FIG. Since the information changes but the azimuth information does not change, it is determined to be in a stationary state. Therefore, in this embodiment, in order to deal with such a case, even if there is no change in the azimuth information of the subject, if the received current subject position information (X, Y) satisfies the following formula, The subject position information received as having moved is used.
Y≈ (Yt−Yc) / (Xt−Xc) × (X−Xt) + Yt (3)
Equation (3) is an equation of a straight line between two points of the subject before movement position (Xt, Yt) and the video camera position (Xc, Yc), and the current subject position (X, Y) satisfies this equation. This means that the subject is on a straight line between two points, that is, approaching (or moving away) toward the video camera.

以上詳述したごとく、本発明に係るビデオカメラにおいては、撮影対象の被写体に被写体位置検出装置200を持たせ、この装置により被写体自身の位置情報と被写体が向いている方角を示す方位情報とを得て、これらの情報をビデオカメラ100へ無線送信するようにしており、ビデオカメラ100では、受信したこれらの情報と、ビデオカメラ自身の位置情報及び方位情報とを用い、被写体までの距離と被写体の在る方角を算出し画面表示するようにしている。これにより、撮影者は、画面表示で指示された方角にビデオカメラを向けることで撮影対象の被写体のクローズアップシーンを取り逃すことなく迅速に撮影することが可能となる。   As described above in detail, in the video camera according to the present invention, the subject to be imaged is provided with the subject position detection device 200, and by this device, the position information of the subject itself and the direction information indicating the direction in which the subject is facing are obtained. Thus, these pieces of information are wirelessly transmitted to the video camera 100, and the video camera 100 uses the received information and the position information and orientation information of the video camera itself to determine the distance to the subject and the subject. The direction in which there is is calculated and displayed on the screen. As a result, the photographer can quickly shoot without missing the close-up scene of the subject to be photographed by pointing the video camera in the direction instructed on the screen display.

また、被写体の動きを判定し、動きのないときはGPSで取得した位置情報を使用しないようにしているので、位置情報の誤差変動によって算出した被写体までの距離や方角が不安定になることも排除できる。
更に、被写体側でビデオカメラの位置と現在の動作状態を確認することができるので、被写体自身が、自分がどの場所から撮影されているのか一目で分り、撮影されている方向を向くことができるようになる。
Also, since the movement of the subject is determined and the position information acquired by GPS is not used when there is no movement, the distance and direction to the subject calculated due to error fluctuations in the position information may become unstable. Can be eliminated.
Furthermore, since the position of the video camera and the current operating state can be confirmed on the subject side, the subject can know at a glance from where the subject is photographed and can point in the direction in which the subject is photographed. It becomes like this.

本発明に係るビデオカメラの一実施例を示すブロック図である。It is a block diagram which shows one Example of the video camera which concerns on this invention. 撮影対象の被写体が所持している被写体位置検出装置の一実施例を示したブロック図である。It is the block diagram which showed one Example of the to-be-photographed object position detection apparatus which the to-be-photographed object has. ビデオカメラの画像表示部における表示画面を説明するための図で、(a)は撮影対象の被写体が画面外の状態を示す図、(b)は(a)の状態でクローズアップしたときの画面を示す図、(c)は撮影方向を修正して撮影対象の被写体が画面に入っている場合を示す図である。4A and 4B are diagrams for explaining a display screen in an image display unit of a video camera, in which FIG. 4A is a diagram showing a state where a subject to be photographed is outside the screen, and FIG. 4B is a screen when a close-up is performed in the state of FIG. FIG. 4C is a diagram illustrating a case where the subject to be photographed is on the screen with the photographing direction corrected. 被写体位置検出装置の画像表示部における表示画面を説明するための図で、(a)は被写体がビデオカメラの方向を向いていない場合の表示画面、(b)はビデオカメラの方向に向いている場合の表示画面である。It is a figure for demonstrating the display screen in the image display part of a to-be-photographed object position detection apparatus, (a) is a display screen when a to-be-photographed object is not facing the direction of a video camera, (b) is facing the direction of a video camera. This is a display screen. 被写体位置の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of a to-be-photographed object position. ビデオカメラの位置算出方法を説明するための図である。It is a figure for demonstrating the position calculation method of a video camera. 被写体位置算出の誤差を除去する方法を説明するための図である。It is a figure for demonstrating the method of removing the error of a to-be-photographed object position calculation.

符号の説明Explanation of symbols

100…ビデオカメラ
101…撮像部(撮像手段)
102…記録部(記録手段)
103…画像表示部(画像表示手段)
104…制御部
105…撮像方位生成部(撮像方位生成手段)
106…撮像位置取得部(撮像位置取得手段)
107…無線送信部(無線送信手段)
108…無線受信部(無線受信手段)
109…演算部(演算手段)
110…メモリ(メモリ手段)
200…被写体位置検出装置
201…被写体方位生成部(被写体方位生成手段)
202…被写体位置取得部(被写体位置取得手段)
203…無線送信部(無線送信手段)
204…無線受信部(無線受信手段)
205…演算部(演算手段)
206…画像表示部(画像表示手段)
207…メモリ

DESCRIPTION OF SYMBOLS 100 ... Video camera 101 ... Imaging part (imaging means)
102: Recording section (recording means)
103: Image display unit (image display means)
104... Control unit 105... Imaging direction generation unit (imaging direction generation means)
106: Imaging position acquisition unit (imaging position acquisition means)
107: Wireless transmission section (wireless transmission means)
108: Wireless receiver (wireless receiver)
109: Calculation unit (calculation means)
110 ... Memory (memory means)
200 ... Subject position detection device 201 ... Subject orientation generation unit (subject orientation generation means)
202 ... Subject position acquisition unit (Subject position acquisition means)
203 ... Wireless transmission unit (wireless transmission means)
204 ... Wireless receiver (wireless receiver)
205 ... Calculation unit (calculation means)
206: Image display unit (image display means)
207 ... Memory

Claims (3)

被写体を撮像すると共に、送受信を行うビデオカメラと、前記被写体に付帯され、前記被写体の位置情報と前記被写体が向いている方角を示す方位情報とを取得し、前記ビデオカメラと送受信可能な被写体位置検出装置とを備えた撮像システムにおいて、
前記ビデオカメラは、
前記被写体を撮影して得られた被写体像を光電変換して画像信号を生成する撮像手段と、
前記撮像手段で生成された前記画像信号を記録する記録手段と、
前記撮像手段で生成された前記画像信号を表示する画像表示手段と、
GPSから送られる信号を受信し、前記被写体を撮像している撮像位置情報を取得する撮像位置取得手段と、
前記被写体を撮像している撮像方角に基づいて、撮像方位情報を生成する撮像方位生成手段と、
前記撮像位置情報、前記撮像方位情報及び前記記録手段への記録の可否を示す記録動作情報を前記被写体位置検出装置へ送信する無線送信手段と、
前記被写体位置検出装置から送信される前記被写体の前記位置情報と前記被写体の前記方位情報とを受信する無線受信手段と、
前記撮像位置取得手段で取得した前記撮像位置情報、前記撮像方位生成手段で生成した前記撮像方位情報、前記無線受信手段で受信した前記被写体の前記位置情報及び前記被写体の前記方位情報とを用いて、前記被写体までの距離と前記被写体の存在する方角の演算を行って、その結果を前記画像表示手段に出力する演算手段と、
を有することを特徴とする撮像システム。
A video camera that captures an image of a subject and transmits / receives the subject, and a subject position that is attached to the subject and that acquires position information of the subject and direction information indicating a direction in which the subject is facing, and can be transmitted / received to / from the video camera. In an imaging system comprising a detection device,
The video camera
Imaging means for photoelectrically converting a subject image obtained by photographing the subject to generate an image signal;
Recording means for recording the image signal generated by the imaging means;
Image display means for displaying the image signal generated by the imaging means;
Imaging position acquisition means for receiving a signal sent from the GPS and acquiring imaging position information for imaging the subject;
Imaging orientation generation means for generating imaging orientation information based on an imaging direction in which the subject is imaged;
Wireless transmission means for transmitting the imaging position information, the imaging orientation information, and recording operation information indicating whether or not recording to the recording means is possible, to the subject position detection device;
Wireless receiving means for receiving the position information of the subject and the orientation information of the subject transmitted from the subject position detection device;
Using the imaging position information acquired by the imaging position acquisition unit, the imaging direction information generated by the imaging direction generation unit, the position information of the subject received by the wireless reception unit, and the direction information of the subject Calculating means for calculating the distance to the subject and the direction in which the subject exists, and outputting the result to the image display means;
An imaging system comprising:
請求項1記載の撮像システムにおいて、
前記無線受信手段において受信した前記被写体の位置情報と方位情報とを記憶するメモリ手段と、
前記メモリ手段に記憶されている前記被写体の方位情報と、前記無線受信手段において新たに受信した被写体の方位情報とを比較し、差分が予め設定されている値以下のときは前記無線受信手段において受信した被写体の位置情報を廃棄し、前記メモリ手段に記憶されている被写体の位置情報を演算に使用する演算手段と、
を併せ有することを特徴とする撮像システム。
The imaging system according to claim 1.
Memory means for storing position information and azimuth information of the subject received by the wireless receiving means;
The azimuth information of the subject stored in the memory means is compared with the azimuth information of the subject newly received by the wireless receiving means. When the difference is equal to or less than a preset value, the wireless receiving means Computing means for discarding the received subject position information and using the subject position information stored in the memory means for computation;
An imaging system characterized by comprising the above.
被写体を撮像すると共に、送受信を行うビデオカメラと、前記被写体に付帯され、前記被写体の位置情報と前記被写体が向いている方角を示す方位情報とを取得し、前記ビデオカメラと送受信可能な被写体位置検出装置とを備えた撮像システムにおいて、
前記被写体位置検出装置は、
GPSから送られる信号を受信し、前記被写体の位置情報を取得する被写体位置取得手段と、
前記被写体の向いている方角を検出して方位情報を生成する被写体方位生成手段と、
前記被写体位置情報と前記被写体方位情報とを送信する無線送信手段と、
前記ビデオカメラが送信するビデオカメラの撮像位置情報とビデオカメラが撮影している撮像方位情報とビデオカメラの記録の可否状態を示す記録動作情報とを受信する無線受信手段と、
前記被写体位置取得手段で取得した前記被写体位置情報、前記被写体方位生成手段で生成した前記被写体方位情報、前記無線受信手段で受信したビデオカメラの撮像位置情報及び撮像方位情報とを用いて、前記ビデオカメラまでの距離と前記ビデオカメラの存在する方角の演算を行うと共に、算出された距離と方角と前記記録動作情報とを表す画像信号を生成する演算手段と、
前記演算手段で生成された前記画像信号を表示する画像表示手段と、
を有することを特徴とする撮像システム。

A video camera that captures an image of a subject and transmits / receives the subject, and a subject position that is attached to the subject and that acquires position information of the subject and direction information indicating a direction in which the subject is facing, and can be transmitted / received to / from the video camera. In an imaging system comprising a detection device,
The subject position detection device includes:
Subject position acquisition means for receiving a signal sent from the GPS and acquiring position information of the subject;
Subject orientation generation means for detecting orientation of the subject and generating orientation information;
Wireless transmission means for transmitting the subject position information and the subject orientation information;
Radio receiving means for receiving imaging position information of the video camera transmitted by the video camera, imaging orientation information captured by the video camera, and recording operation information indicating whether the video camera is recordable,
Using the subject position information acquired by the subject position acquisition unit, the subject direction information generated by the subject direction generation unit, the imaging position information and imaging direction information of the video camera received by the wireless reception unit, the video A calculation means for calculating a distance to the camera and a direction in which the video camera exists, and generating an image signal representing the calculated distance and direction and the recording operation information;
Image display means for displaying the image signal generated by the computing means;
An imaging system comprising:

JP2006214301A 2006-08-07 2006-08-07 Imaging system Expired - Fee Related JP4596330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006214301A JP4596330B2 (en) 2006-08-07 2006-08-07 Imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006214301A JP4596330B2 (en) 2006-08-07 2006-08-07 Imaging system

Publications (2)

Publication Number Publication Date
JP2008042522A JP2008042522A (en) 2008-02-21
JP4596330B2 true JP4596330B2 (en) 2010-12-08

Family

ID=39177057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006214301A Expired - Fee Related JP4596330B2 (en) 2006-08-07 2006-08-07 Imaging system

Country Status (1)

Country Link
JP (1) JP4596330B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101422587B1 (en) * 2008-04-22 2014-07-24 삼성전자주식회사 Apparatus and method for digital picturing image
JP5397004B2 (en) * 2009-05-13 2014-01-22 株式会社ニコン camera
US8749634B2 (en) 2012-03-01 2014-06-10 H4 Engineering, Inc. Apparatus and method for automatic video recording
WO2014008504A1 (en) * 2012-07-06 2014-01-09 H4 Engineering, Inc. A remotely controlled automatic camera tracking system
WO2014161092A1 (en) * 2013-04-05 2014-10-09 Cinema Control Laboratories Inc. System and method for controlling an equipment related to image capture

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5758468A (en) * 1980-09-25 1982-04-08 Nippon Kogaku Kk <Nikon> Electronic camera having monitor
JPH07336567A (en) * 1994-06-06 1995-12-22 Tokyo Hoso:Kk Television relay system
JPH11252439A (en) * 1998-03-05 1999-09-17 Sony Corp Remote controller and recording system using the same
JP2002247416A (en) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> Prompter
JP2003060953A (en) * 2001-08-15 2003-02-28 Fuji Photo Film Co Ltd Imaging system, imaging method, camera, recording medium and program
JP2006025182A (en) * 2004-07-08 2006-01-26 Matsushita Electric Ind Co Ltd Photographing apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5758468A (en) * 1980-09-25 1982-04-08 Nippon Kogaku Kk <Nikon> Electronic camera having monitor
JPH07336567A (en) * 1994-06-06 1995-12-22 Tokyo Hoso:Kk Television relay system
JPH11252439A (en) * 1998-03-05 1999-09-17 Sony Corp Remote controller and recording system using the same
JP2002247416A (en) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> Prompter
JP2003060953A (en) * 2001-08-15 2003-02-28 Fuji Photo Film Co Ltd Imaging system, imaging method, camera, recording medium and program
JP2006025182A (en) * 2004-07-08 2006-01-26 Matsushita Electric Ind Co Ltd Photographing apparatus

Also Published As

Publication number Publication date
JP2008042522A (en) 2008-02-21

Similar Documents

Publication Publication Date Title
KR101713921B1 (en) System for following an object marked by a tag device with a camera
JP4600515B2 (en) Information presenting apparatus, information presenting method, imaging apparatus, and computer program
JP5347144B2 (en) Camera capable of fixed point shooting
JP5738657B2 (en) Imaging device
JP2010136302A (en) Imaging apparatus, imaging method and program
JP2010088085A (en) Imaging apparatus, imaging method, and program
JP4596330B2 (en) Imaging system
US7627240B2 (en) Optical device with improved autofocus performance and method related thereto
JP2006270274A (en) Object recognition apparatus and method
KR20120035887A (en) Image capturing apparatus, image capturing method, and storage medium
JP2011058854A (en) Portable terminal
JP2019039851A (en) Photogrammetry system and photogrammetry method
JP4269908B2 (en) Electronic camera, electronic camera control program
JP5886241B2 (en) Portable imaging device
JP5543870B2 (en) Camera, camera control method, and program
JP2009118375A (en) Aerial photography device, aerial photographic system and image correction method of aerial photograph
KR20110078655A (en) A method and a system of filming using multiple camera
JP2006025182A (en) Photographing apparatus
JP2011199358A (en) Imaging device with positioning function
KR101019185B1 (en) A Digital Camera for Providing Geometric Information
JP2009224900A (en) Photography device and photography method
JP6336810B2 (en) Portable photographing apparatus and photographing program
JP2012124554A (en) Imaging apparatus
JP2005184266A (en) Imaging device
KR101028492B1 (en) A camera flash module with GIS data recording apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100827

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100909

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees