JP2005184266A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2005184266A
JP2005184266A JP2003420094A JP2003420094A JP2005184266A JP 2005184266 A JP2005184266 A JP 2005184266A JP 2003420094 A JP2003420094 A JP 2003420094A JP 2003420094 A JP2003420094 A JP 2003420094A JP 2005184266 A JP2005184266 A JP 2005184266A
Authority
JP
Japan
Prior art keywords
image
target object
unit
imaging
attention point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003420094A
Other languages
Japanese (ja)
Inventor
Shinzo Matsui
紳造 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003420094A priority Critical patent/JP2005184266A/en
Publication of JP2005184266A publication Critical patent/JP2005184266A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device for clipping a part of a high definition image under automatic control in which the image size does not deviate from a remarked object and the image can be clipped accurately. <P>SOLUTION: The imaging device comprises an imaging means 11, a remarked point detecting means 12, a remarked point detection state acquiring means 13, and an image clipping means 23. The remarked point detecting means 12 detects a remarked point arranged at a predetermined position with respect to a remarked object among images photographed by the imaging means 11. The remarked point detection state acquiring means 13 acquires the state (e.g. error state) where the remarked point detecting means 12 detects a remarked point. The image clipping means 23 clips a part of a photographed image accurately by performing automatic alteration control of an image clip range being set for a remarked point detected by the remarked point detecting means 12 depending on the detection state of the remarked point detection state acquiring means 13. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、注目対象物に追従して画像を切り出す際に、誤差等の検出状態に応じて切出しサイズを制御する撮像装置に関する。   The present invention relates to an imaging apparatus that controls a cut-out size according to a detection state such as an error when cutting an image following an object of interest.

従来、注目対象者に追従して画像を撮像する場合には、注目対象者を撮像するにあたって、注目対象物が移動するに伴って、カメラの方向や撮像サイズを変更する必要がある。しかし、カメラの方向は、手持ちカメラでは、手で方向を変え、大型のカメラでは、キャスターなどのカメラ台を軸に回転するようにしていた。   Conventionally, when an image is picked up following an attention target person, it is necessary to change the direction of the camera and the imaging size as the attention object moves in order to pick up the attention target person. However, the direction of the camera is changed by hand in a handheld camera, and in a large camera, the camera is rotated around a camera stand such as a caster.

また、撮像サイズは、レンズの操作を変えるか、或いは、注目対象物とカメラの距離を変えるために、カメラ操作者がカメラを持って移動するなどをしていた。   In addition, the imaging size is changed by operating the lens, or by moving the camera operator with the camera in order to change the distance between the target object and the camera.

また、従来、撮像信号より注目対象者を画像処理して注目対象者を含む画像を切り出し出力する装置の技術も開示されている。この技術では、注目対象者が装着する特定のマーカを撮像するカメラの信号により画像処理するなどして注目対象者を特定していたが、そのマーカを注目対象者自身が隠すなどした場合、注目対象者を検出できないなどの課題が発生し易かった。   Conventionally, there has also been disclosed a technique of an apparatus that performs image processing on a target person of interest from an imaging signal and cuts out and outputs an image including the target person of interest. In this technology, the target person of interest is specified by performing image processing on the signal of the camera that captures the specific marker worn by the target person of interest, but if the target person hides the marker, Problems such as the inability to detect the subject were likely to occur.

ところで、従来、無線で得た情報とカメラで撮影した情報とを表示する装置を開示したものがある。例えば特許文献1には、競技用ボール及び各プレーヤの位置情報画像と、カメラで撮影した画像とを同一画面上に表示することが記載されている。   By the way, there has been disclosed an apparatus that displays information obtained wirelessly and information captured by a camera. For example, Patent Document 1 describes that a position information image of a game ball and each player and an image photographed by a camera are displayed on the same screen.

また、注目点に追従するカメラとして、注目点に追従してカメラの雲台を制御するカメラを開示したものがある。例えば特許文献2には、テレビ会議システムなどで、発言者などの被写体を自動追尾し、かつ遠隔地から見たい部分を自由に指定できることが記載されている。   Further, as a camera that follows the attention point, there is a camera that discloses a camera that controls the camera platform by following the attention point. For example, Patent Document 2 describes that a video conference system or the like can automatically track a subject such as a speaker and can freely designate a portion to be viewed from a remote place.

一方、静止画や動画のカメラは、高精細化が進み、800万画素など広い撮像領域を密に解像して撮像することができるようになってきている。   On the other hand, high-definition cameras for still images and moving images have advanced, and a wide imaging area such as 8 million pixels can be densely resolved and captured.

サッカー中継などでの撮影にあたって、撮影中の注目対象物が移動する場合などの撮影では、カメラ操作者がカメラの方向を変更するパンニングや拡大縮小するズームなどを行っている。   When shooting at a soccer broadcast or the like, the camera operator performs panning for changing the direction of the camera, zooming for enlargement / reduction, or the like for shooting when the target object being shot moves.

勿論、サッカー中継などでは、1台のカメラでは、所定位置の撮影において一方向からの撮影しかできないなど、様々な場面の撮影が困難である。   Of course, it is difficult to shoot various scenes, such as in a soccer broadcast, where one camera can only shoot from one direction when shooting at a predetermined position.

複数のカメラで撮影することでその課題を解決できるが、カメラ1台に1人の操作者がついて撮影することが必要である。   Although the problem can be solved by shooting with a plurality of cameras, it is necessary that one operator be attached to each camera.

一方、特許文献3には、例えばファインダー光学系と撮影光学系とが別々に設けられた撮像装置において、ファインダー光学系の撮像素子によって撮像している被写体像と表示手段に表示される被写体像の画像信号の対応関係を制御することにより、表示手段に表示するべき画像信号の範囲を正確に選択することができ、ファインダー光学系と撮影光学系間のパララックスを解消できることが記載されている。
特開平10−314357号公報 特開平08−046943号公報 特公平08−13099号公報
On the other hand, in Patent Document 3, for example, in an imaging apparatus in which a finder optical system and a photographing optical system are separately provided, a subject image captured by an image sensor of the finder optical system and a subject image displayed on a display unit are disclosed. It is described that the range of image signals to be displayed on the display means can be accurately selected by controlling the correspondence between the image signals, and the parallax between the viewfinder optical system and the photographing optical system can be eliminated.
Japanese Patent Laid-Open No. 10-314357 Japanese Patent Laid-Open No. 08-046943 Japanese Patent Publication No. 08-13099

しかしながら、上記の何れの特許文献についても、自動的に所望の注目対象物に対する最適な領域を撮像し、撮像画像における注目対象物の拡大画像を含む多様な再生画像等を簡単な操作のみで表示できるものはなかった。   However, in any of the above-mentioned patent documents, an optimum region for a desired target object is automatically captured, and various reproduced images including an enlarged image of the target object in the captured image are displayed with a simple operation. There was nothing I could do.

そこで、本発明の第1の目的は、上述した課題を解決し、カメラ操作者の操作、労力なく、自動的に撮像方向とサイズを変更可能で、且つ、人の操作では難しい、高速の該変更を可能にするもので、主に固定カメラで撮影するにあたって、注目点が移動するのに伴って撮像する領域の位置とサイズを自動的、高速に変更可能な撮像装置を提供することである。   Accordingly, a first object of the present invention is to solve the above-mentioned problems, and to change the imaging direction and size automatically without the operation and effort of the camera operator, and at high speed, which is difficult for human operation. An image pickup apparatus that can change the position and size of an area to be imaged automatically and at high speed as the point of interest moves, mainly when shooting with a fixed camera. .

また、本発明の第2の目的は、注目対象物に追従して画像を切り出し、所謂、拡大表示することが可能な撮像装置を提供することである。   A second object of the present invention is to provide an imaging device capable of cutting out an image following a target object and performing so-called enlarged display.

さらに、本発明の第3の目的は、動画において注目対象物を自動的に追従し出力できるだけでなく、静止画において注目対象物の近傍を切り出し画像出力することが可能な撮像装置を提供することである。   Furthermore, a third object of the present invention is to provide an imaging apparatus that can not only automatically follow and output a target object in a moving image but also output a cut-out image of the vicinity of the target object in a still image. It is.

またさらに、本発明の第4の目的は、例えば高精細カメラから取得した高精細な画像から一部の画像を自動的に制御し切り出す撮像装置を構成する際に、その切り出す画像サイズが、注目対象を外すことがない的確な切り出しを行うことが可能な撮像装置を提供することである。   Furthermore, a fourth object of the present invention is to provide an image size that is cut out when configuring an imaging apparatus that automatically controls and cuts out a part of an image from a high-definition image acquired from a high-definition camera, for example. It is an object of the present invention to provide an imaging device capable of performing accurate cutout without removing a target.

本発明による撮像装置は、画像を撮像する撮像手段と、この撮像手段により撮影された画像の中から、注目対象物に対して所定の位置に配置された注目点を検出する注目点検出手段と、前記注目点検出手段が注目点を検出するその状態を取得する注目点検出状態取得手段と、前記撮像手段により撮影された画像の一部を切り出す画像切出し手段とを備え、前記画像切出し手段は、注目点検出手段で検出した注目点に対して設定する画像切出し範囲を、前記注目点検出状態取得手段の検出状態によって変更制御することを特徴とする。   An imaging apparatus according to the present invention includes an imaging unit that captures an image, and an attention point detection unit that detects an attention point arranged at a predetermined position with respect to the target object from the images captured by the imaging unit. The attention point detection means includes attention point detection state acquisition means for acquiring the state of attention point detection, and image extraction means for cutting out a part of the image photographed by the imaging means. The image cutout range set for the attention point detected by the attention point detection means is controlled to be changed according to the detection state of the attention point detection state acquisition means.

この発明によれば、注目点検出手段が注目点を検出するその検出状態(例えば、誤差の状態)に応じて、画像切出し範囲を自動的に変更制御するので、全体画像の中から所望の切出し位置の画像を的確に切り出すことが可能となる。   According to the present invention, the image extraction range is automatically changed and controlled according to the detection state (for example, error state) in which the attention point detection unit detects the attention point. It is possible to accurately cut out the image of the position.

本発明において、前記注目点検出状態取得手段は、前記注目点検出手段により検出される注目点の検出位置の誤差推定量を保持する記憶部を有するとともに、この誤差推定量に応じて注目点に対して一定の位置にある注目対象物の位置を推定する注目対象物位置推定手段を更に有し、この注目対象物位置推定手段により推定された位置にある注目対象物を、前記画像切出し手段により切り出すことを特徴とする。   In the present invention, the attention point detection state acquisition unit includes a storage unit that holds an error estimation amount of a detection position of the attention point detected by the attention point detection unit, and the attention point detection state acquisition unit obtains the attention point according to the error estimation amount. On the other hand, it further has an attention object position estimation means for estimating the position of the attention object at a fixed position, and the image extraction means extracts the attention object at the position estimated by the attention object position estimation means. It is characterized by cutting out.

本発明において、前記注目対象物位置推定手段は、注目対象物の移動情報により注目対象物の位置を推定し、前記画像切出し手段は、注目対象物の移動情報に応じて、前記撮像手段により撮影された画像の一部を切り出す範囲を変更することを特徴とする。   In the present invention, the target object position estimating means estimates the position of the target object based on movement information of the target object, and the image cutout means is photographed by the imaging means according to the movement information of the target object. It is characterized in that a range for cutting out a part of the processed image is changed.

本発明において、前記注目対象物位置推定手段は、注目対象物の移動速度情報により注目対象物の位置を推定する際に、前記撮像手段の撮影タイミング処理と前記注目対象物位置推定手段の検出タイミングとの時間差および前記注目対象物位置推定手段の出力の変化を検出することを特徴とする。   In the present invention, the target object position estimating unit is configured to estimate the position of the target object based on the moving speed information of the target object, and the imaging timing process of the imaging unit and the detection timing of the target object position estimating unit. And a change in the output of the target object position estimating means.

本発明において、前記注目点検出手段はセンサを含んでおり、このセンサと前記注目対象物との位置関係は既知であるとともに、この位置関係をもとに前記注目対象物推定手段は前記注目対象物の位置を推定し、前記画像切出し手段は前記注目対象物を切り出すことを特徴とする。   In the present invention, the attention point detection means includes a sensor, and the positional relationship between the sensor and the attention object is known, and the attention object estimation means based on the positional relationship is the attention object. The position of the object is estimated, and the image cutout means cuts out the target object.

本発明において、前記注目対象物推定手段は、前記注目点検出手段により検出される前記注目点の検出位置の誤差推定量が前記センサの計測誤差推定量であることを特徴とする。   In the present invention, the target object estimation unit is characterized in that the error estimation amount of the detected position of the target point detected by the target point detection unit is a measurement error estimation amount of the sensor.

本発明において、前記注目対象物位置推定手段は、注目対象物の実物の大きさと注目点からの実際の距離を用いて注目対象物の位置を推定し、前記画像切出し手段は推定された注目対象物の情報に基づき、前記撮像手段により撮影された画像の一部を切り出す範囲を変更することを特徴とする。   In the present invention, the target object position estimating means estimates the position of the target object using the actual size of the target object and the actual distance from the target point, and the image cutout means is the estimated target object. A range for cutting out a part of an image photographed by the imaging means is changed based on information on an object.

本発明において、前記注目対象物位置推定手段は、注目対象物の移動方向に大きく対象物の大きさを設定し、前記画像切出し手段は、前記撮像手段により撮影された画像の一部を切り出す範囲を、前記注目対象物の移動方向に垂直な方向よりも移動方向に沿った方向に大きく変更することを特徴とする。   In the present invention, the target object position estimating unit sets a size of the target object in a moving direction of the target object, and the image cutout unit cuts out a part of an image photographed by the imaging unit. Is largely changed in a direction along the moving direction rather than a direction perpendicular to the moving direction of the target object.

本発明において、前記注目点検出手段は、電波を利用して注目点の位置を検出することを特徴とする。   In the present invention, the attention point detection means detects the position of the attention point using radio waves.

本発明において、前記注目点検出手段は、音波を利用して注目点の位置を検出することを特徴とする。   In the present invention, the attention point detecting means detects the position of the attention point using sound waves.

本発明において、前記注目点検出手段は、前記撮像手段により撮影された画像を画像処理することにより注目点の位置を検出することを特徴とする。   In the present invention, the attention point detecting means detects the position of the attention point by performing image processing on an image photographed by the imaging means.

本発明において、前記注目点検出手段は、注目対象物の移動方向のパラメータを保持するパラメータ保持手段をさらに有しており、このパラメータ保持手段のパラメータにより、注目対象物が前記撮像手段に対して近づくように移動していることが検出された場合には、注目対象物の検出位置を中心として、前記画像切出し手段による画像の切出し範囲を拡大することを特徴とする。   In the present invention, the attention point detection unit further includes a parameter holding unit that holds a parameter of the moving direction of the target object, and the target object is detected by the parameter holding unit with respect to the imaging unit. When it is detected that the object is moving so as to approach, the image cutout range by the image cutout means is expanded with the detection position of the target object as the center.

本発明において、前記注目点検出手段は、注目対象物の移動方向のパラメータを保持するパラメータ保持手段をさらに有しており、このパラメータ保持手段のパラメータにより、注目対象物が前記撮像手段に対して遠ざかるように移動していることが検出された場合には、注目対象物の検出位置を中心として、前記画像切出し手段による画像の切出し範囲を縮小することを特徴とする。   In the present invention, the attention point detection unit further includes a parameter holding unit that holds a parameter of the moving direction of the target object, and the target object is detected by the parameter holding unit with respect to the imaging unit. When it is detected that the object is moving away, the image extraction range by the image extraction means is reduced with the detection position of the target object as the center.

本発明によれば、カメラ操作者の操作、労力なく、自動的に撮像方向とサイズを変更可能で、且つ、人の操作では難しい、高速の該変更を可能にするもので、主に固定カメラで撮影するにあたって、注目点が移動するのに伴って撮像する領域の位置とサイズを自動的、高速に変更可能となる。   According to the present invention, it is possible to change the imaging direction and size automatically without the operation and effort of the camera operator, and to enable the change at high speed, which is difficult for human operation. When shooting with, the position and size of the area to be imaged can be automatically and rapidly changed as the point of interest moves.

また、本発明によれば、注目対象に追従して画像を切り出し、所謂、拡大表示可能となる。   Further, according to the present invention, an image can be cut out following the target of interest, and so-called enlarged display can be performed.

さらに、本発明によれば、動画において注目対象を自動的に追従することに限らず、静止画において注目者の近傍を切り出し画像出力することが可能となる。   Furthermore, according to the present invention, it is possible not only to automatically follow a target of interest in a moving image, but also to output a cut-out image of the vicinity of the viewer in a still image.

またさらに、本発明によれば、例えば高精細カメラから取得した高精細な画像から一部の画像を自動的に制御し切り出す撮像装置を構成する際に、その切り出す画像サイズが、注目対象を外すことがない的確な切り出しを行うことが可能となる。   Furthermore, according to the present invention, for example, when configuring an imaging apparatus that automatically controls and cuts out a part of an image from a high-definition image acquired from a high-definition camera, the cut-out image size excludes the target of attention. It is possible to perform accurate cutout without any problems.

発明の実施の形態について図面を参照して説明する。 Embodiments of the invention will be described with reference to the drawings.

本発明の実施の形態では、カメラ操作者なしに自動的にカメラの方向や撮像サイズを変更する方法として、例えば高精細なカメラを固定して使用し、注目対象が撮像される領域を切出し出力する撮像装置を構成するものである。   In the embodiment of the present invention, as a method for automatically changing the camera direction and the imaging size without a camera operator, for example, a high-definition camera is fixedly used, and an area in which a target object is imaged is cut out and output. The imaging apparatus which comprises is comprised.

しかし、注目対象が移動する際に、検出した際の検出位置と検出時と、その検出結果に応じて撮像画像より画像を切出す時間との時間差によって発生する計測誤差や、注目対象物が移動することなく静止していたとしてもセンサなどの検出手段そのものの計測誤差によって、注目対象物の所望する領域を前記切出し出力することができないという課題がある。前記計測誤差とは、前記検出手段の仕様書などに記載されている誤差(例えばGPSでは10m)など、様々な条件下で予め規定した誤差値などで、確率的に発生する誤差の最大値や誤差の標準偏差値などから規定した3σなどである。従って、実際の位置とセンサ検出結果による位置との実際の誤差は、リアルタイムに測定することは難しい。   However, when the target object moves, the measurement error that occurs due to the time difference between the detection position at the time of detection and the detection time, and the time to cut out the image from the captured image according to the detection result, or the target object moves Even if the object is stationary without being detected, there is a problem in that the desired region of the target object cannot be cut out and output due to the measurement error of the detection means such as a sensor. The measurement error is an error value defined in advance under various conditions such as an error (for example, 10 m for GPS) described in a specification of the detection unit, and the like. It is 3σ defined from the standard deviation value of the error. Therefore, it is difficult to measure the actual error between the actual position and the position based on the sensor detection result in real time.

そこで、本実施の形態では、例えば高精細なカメラからの高精細画像から一部の画像を自動的に制御し切り出す際に、上記課題を解決し、その切り出す画像の位置及びサイズが、注目対象の所望の位置及び範囲を外すことがなく、的確な画像切出しが可能な撮像装置を提供する。   Therefore, in the present embodiment, for example, when a part of an image is automatically controlled and cut out from a high-definition image from a high-definition camera, the above problem is solved, and the position and size of the cut-out image It is possible to provide an imaging apparatus capable of accurately cutting out an image without deviating the desired position and range.

図1は本発明の実施例1の撮像装置の構成を示すブロック図である。
まず、本実施例1及び以降の実施例で用いられる用語の定義をする。
・注目対象物:カメラで撮影し出力させたい対象物、人、或いは、その一部を示す。
FIG. 1 is a block diagram illustrating the configuration of the image pickup apparatus according to the first embodiment of the present invention.
First, terms used in the first embodiment and the following embodiments are defined.
-Target object: Indicates an object, a person, or a part of the object, a person, or a part to be captured and output by the camera.

・注目点 :注目対象物に含まれ、或いは、注目対象物の近傍にある点で、後述するセンサ等の検出手段の検出対象を指す。例えば、注目対象物が人であり、その人が位置検出センサを身につけている場合には、そのセンサの位置が注目点である。点に限定するものではなく、検出方法によっては所定の範囲を有する場合もある。 -Attention point: A point included in the attention object or in the vicinity of the attention object, and indicates a detection target of a detection unit such as a sensor described later. For example, when the target object is a person and the person wears a position detection sensor, the position of the sensor is the target point. It is not limited to a point, and may have a predetermined range depending on the detection method.

・フィールド:注目対象物を含んだ位置情報を検出可能な空間(領域)で、この空間の所定の基準位置に対する注目点の相対的な位置を位置情報として算出可能な1つの座標系を指す。例えば、GPS受信機をセンサとして用いて注目対象物の位置を検出する場合には、地球全体がフィールドである。また、競技場におけるサッカー試合において、注目するサッカー選手の位置を測定する場合には、サッカー場がフィールドに相当する。 Field: A space (area) in which position information including the target object can be detected, and refers to one coordinate system in which the relative position of the target point with respect to a predetermined reference position in this space can be calculated as position information. For example, when the position of a target object is detected using a GPS receiver as a sensor, the entire earth is a field. Further, in the case of measuring the position of a focused soccer player in a soccer game on the stadium, the soccer field corresponds to the field.

・撮像領域 :カメラ毎の撮像領域を示す。また、カメラの視野範囲にあり、更に、カメラの光学系におけるピント調整度合いが、所定レベル以上の領域を指す。原則として、フィールド内を撮像する場合における撮像領域を指す。 -Imaging area: Indicates the imaging area for each camera. Moreover, it is in the field of view of the camera, and further indicates an area where the degree of focus adjustment in the optical system of the camera is not less than a predetermined level. As a general rule, it refers to an imaging region when imaging in a field.

図1に示す撮像装置は、画像を撮像するカメラで構成される撮像手段11と、この撮像手段11により撮影された画像の中から、注目対象物に対して所定の位置に配置された注目点を検出する注目点検出手段12と、この注目点検出手段12が注目点を検出するその状態を取得する注目点検出状態取得手段13と、前記撮像手段11により撮影された画像の一部を切り出す画像切出し手段23と、切出し画像信号を出力する切出し画像出力手段24と、を備えており、画像切出し手段23は、前記注目点検出手段12で検出した注目点に対して設定する画像切出し範囲を、前記注目点検出状態取得手段13の検出状態によって変更制御する。   The image pickup apparatus shown in FIG. 1 includes an image pickup unit 11 including a camera for picking up an image, and an attention point arranged at a predetermined position with respect to an object of interest from among images captured by the image pickup unit 11. Attention point detection means 12 for detecting the attention point, attention point detection state acquisition means 13 for acquiring the state in which the attention point detection means 12 detects the attention point, and a part of the image photographed by the imaging means 11 is cut out. An image cutout unit 23 and a cutout image output unit 24 that outputs a cutout image signal are provided. The image cutout unit 23 sets an image cutout range to be set for the attention point detected by the attention point detection unit 12. The change control is performed according to the detection state of the attention point detection state acquisition means 13.

上記注目点検出状態取得手段13は、前記注目点検出手段12により検出される注目点の検出位置の誤差推定量を保持する誤差推定情報記憶部14を有するとともに、この誤差推定量に応じて注目点に対して一定の位置にある前記注目対象物の位置を推定する注目対象物位置推定手段15を更に有しており、この注目対象物位置推定手段15により推定された位置にある注目対象物を、前記画像切出し手段23により切り出す。   The attention point detection state acquisition unit 13 includes an error estimation information storage unit 14 that holds an error estimation amount of the detection position of the attention point detected by the attention point detection unit 12, and attention is paid according to the error estimation amount. The target object position estimation means 15 for estimating the position of the target object at a fixed position with respect to the point is further included, and the target object at the position estimated by the target object position estimation means 15 Is cut out by the image cutout means 23.

撮像手段11は、フィールド空間を撮像し、動画像信号を出力する。注目点検出手段12は、注目対象物における注目点のフィールド上の位置を検出する。   The imaging means 11 images the field space and outputs a moving image signal. The point of interest detection means 12 detects the position of the point of interest in the field of interest on the field.

切出し中心位置設定部18は、注目点検出手段12からのフィールド上の注目点(例えばサッカー選手がベルト位置にセンサを装着していればそのセンサの位置を指す)の位置情報と後述の注目対象物指定部21に記憶してある検出手段(センサ)から切出し位置(例えば選手の顔)までの距離情報とに基づいて撮像素子(例えばCCD)平面(例えば所定数のフォトダイオードなどの受光素子アレイで構成される縦×横の撮像画素数で表される平面)上の切出し中心位置情報を求める。切出し中心位置情報は、撮像素子平面上の縦横の画素(ドット)位置で表される。   The cut-out center position setting unit 18 receives position information on a point of interest on the field from the point-of-interest detection means 12 (for example, if a soccer player wears a sensor at the belt position, indicates the position of the sensor) and a target of interest described later. An image sensor (for example, CCD) plane (for example, a light receiving element array such as a predetermined number of photodiodes) based on distance information from a detection means (sensor) stored in the object designating unit 21 to a cut-out position (for example, a player's face). (The plane represented by the number of vertical x horizontal imaging pixels) is obtained. The cut-out center position information is represented by vertical and horizontal pixel (dot) positions on the image sensor plane.

誤差推定情報記憶部14は、注目点検出手段12に用いられる検出手段(センサ)の計測誤差や注目点の移動に伴って生じる時間的誤差を予め記憶しておく。   The error estimation information storage unit 14 stores in advance a measurement error of a detection unit (sensor) used in the attention point detection unit 12 and a temporal error caused by the movement of the attention point.

上記誤差推定情報記憶部14は、注目点検出手段12の計測誤差情報を予め記憶するもので、注目点検出手段12に用いられる検出手段(センサ)の仕様書に記載(例えばGPSセンサでは誤差10mなどの記載)されている誤差を推定誤差として予め記憶しておく注目点検出手段の計測誤差情報記憶部16と、注目点の移動に伴う時間的な推定誤差を記憶するもので、移動に伴って生じる注目点検出時と撮像時との時間的誤差(移動していない状態での注目点検出時と撮像時との時間的誤差も含む)を予め記憶しておく注目点検出時と撮像時の時間差情報記憶部17と、を有している。   The error estimation information storage unit 14 stores in advance the measurement error information of the attention point detection means 12, and is described in the specification of the detection means (sensor) used for the attention point detection means 12 (for example, an error of 10 m in the GPS sensor). The measurement error information storage unit 16 of the attention point detecting means for storing in advance the estimated error as an estimation error, and the temporal estimation error associated with the movement of the attention point. At the time of attention point detection and at the time of imaging, the time error between the time of attention point detection and the time of imaging (including the time error between the time of attention point detection and the time of imaging when not moving) is stored in advance. The time difference information storage unit 17 is provided.

注目対象物位置推定手段15は、切出し中心位置設定部18と、切出し中心誤差予測部19と、移動に伴う誤差予測部20と、注目対象物指定部21と、切出しサイズ設定部22と、を有している。   The target object position estimating means 15 includes a cut-out center position setting unit 18, a cut-out center error prediction unit 19, an error prediction unit 20 accompanying movement, a target object specifying unit 21, and a cut-out size setting unit 22. Have.

切出し中心位置設定部18は、注目点検出手段12からのフィールド上の注目点の検出位置と注目対象物指定部21に予め記憶してある注目点(センサ)と切出し位置までの距離情報に基づいて撮像素子平面上の切出し中心位置を算出する。   The extraction center position setting unit 18 is based on the detection position of the attention point on the field from the attention point detection means 12 and the distance information to the attention point (sensor) and the extraction position stored in advance in the attention object specifying unit 21. Then, the cut-out center position on the image sensor plane is calculated.

切出し中心誤差予測部19は、誤差推定情報記憶部14に予め記憶してある検出手段(センサ)の計測誤差と注目点検出手段12で検出したカメラから注目点までの距離の情報とに基づいて撮像素子平面上の切出し中心位置の誤差値を予測する。   The cut-out center error prediction unit 19 is based on the measurement error of the detection means (sensor) stored in advance in the error estimation information storage unit 14 and information on the distance from the camera to the attention point detected by the attention point detection means 12. An error value of the cut-out center position on the image sensor plane is predicted.

移動に伴う誤差予測部20は、注目点検出時と撮像時の時間差情報記憶部17に記憶してある移動に伴って生じる時間的誤差と注目点検出手段12で検出した移動状態の変化情報とに基づいて移動に伴う誤差値(例えば、誤差値)を予測する。   The error predicting unit 20 accompanying the movement includes a time error generated by the movement stored in the time difference information storage unit 17 at the time of attention point detection and imaging, and change information of the movement state detected by the point of interest detection means 12. Based on the above, an error value (for example, an error value) accompanying the movement is predicted.

注目対象物指定部21は、フィールド上での、注目対象物に付けた注目点(センサ)の位置から実際の切出し位置までの距離や方向を予め記憶しておく。   The target object specifying unit 21 stores in advance the distance and direction from the position of the target point (sensor) attached to the target object to the actual cutout position on the field.

切出しサイズ設定部22は、計測誤差情報記憶部16に予め記憶してある注目点検出手段(センサ)の計測誤差情報と、注目点検出時と撮像時の時間差情報記憶部17に予め記憶してある注目点の移動に伴う推定誤差情報とに応じて、切出しサイズを制御するもので、この切出しサイズの制御は例えば推定誤差が大きいほど切出しサイズを大きくし注目対象が含まれるようにサイズ設定する。   The cut-out size setting unit 22 stores in advance the measurement error information of the attention point detection means (sensor) stored in advance in the measurement error information storage unit 16 and the time difference information storage unit 17 at the time of attention point detection and imaging. The cutout size is controlled in accordance with the estimation error information accompanying the movement of a certain point of interest. For example, the cutout size is controlled so that the cutout size is increased and the target of interest is included as the estimation error increases. .

画像切出し手段23は、撮像手段11からの動画像信号を入力し、切出し中心位置設定部18からの切出し中心位置情報に含まれる座標情報と切出しサイズ設定部22からの切出しサイズ情報に基づいて、自動的に切出しサイズを変更し切り出すように動画像信号を制御し、切出した画像を出力する。切出し画像出力手段24は、切り出された所定の画像サイズの切出し動画像信号を所定の信号形式及び所定のレベルにして出力する。   The image cutout unit 23 receives the moving image signal from the image pickup unit 11, and based on the coordinate information included in the cutout center position information from the cutout center position setting unit 18 and the cutout size information from the cutout size setting unit 22. The moving image signal is controlled so that the cut size is automatically changed and cut out, and the cut out image is output. The cut-out image output means 24 outputs the cut-out moving image signal having a predetermined image size in a predetermined signal format and a predetermined level.

以上の構成においては、計測誤差情報記憶部16に予め記憶してある検出手段(センサ)の計測誤差情報に応じて切出しサイズを制御する一方、注目点検出時と撮像時の時間差情報記憶部17に予め記憶してある注目点の移動に伴う推定誤差情報と注目点の移動する速度とに応じて、移動に伴う誤差推定をして、切出しサイズを制御する。この切出しサイズの制御を行う際には、推定誤差が大きいほど例えば移動速度が速いときほど、切出しサイズを大きくして、注目対象が含まれるように切出しサイズを設定する。これにより、切出しサイズが狭すぎて、注目対象が切出し画像より外れ、注目対象を含まない切出し画像を出力することがなく、或いは、切出しサイズが広すぎて、注目対象の拡大率が低く分からなくなるといったことがなく、切出しサイズを出来るだけ狭め、かつ注目対象を外すことががない撮像装置を実現することが可能となる。   In the above configuration, the cut-out size is controlled according to the measurement error information of the detection means (sensor) stored in advance in the measurement error information storage unit 16, while the time difference information storage unit 17 at the time of attention point detection and imaging. The presumed error information associated with the movement of the point of interest and the speed of movement of the point of interest are estimated in accordance with the estimated error information associated with the movement of the point of interest and the extraction size is controlled. When controlling the cutout size, the cutout size is set so that the target of interest is included by increasing the cutout size as the estimation error increases, for example, as the moving speed increases. As a result, the cut-out size is too narrow and the target object is out of the cut-out image, so that a cut-out image that does not include the target object is not output, or the cut-out size is too wide and the enlargement rate of the target object is low. Therefore, it is possible to realize an imaging apparatus that can reduce the cut-out size as much as possible and does not remove the target object.

上記注目対象物位置推定手段15は、注目対象物の実物の大きさと注目点からの実際の距離を用いて注目対象物の位置を推定し、画像切出し手段23は推定された注目対象物の位置情報に基づき、撮像手段11により撮影された画像の一部を切り出す範囲を変更することが可能である。   The attention object position estimation means 15 estimates the position of the attention object using the actual size of the attention object and the actual distance from the attention point, and the image cutout means 23 estimates the position of the attention object. Based on the information, it is possible to change the range in which a part of the image photographed by the imaging means 11 is cut out.

また、注目対象物位置推定手段15は、注目対象物の移動方向に大きく該注目対象物の大きさを設定し、画像切出し手段23は、撮像手段により撮影された画像の一部を切り出す範囲を、注目対象物の移動方向に垂直な方向よりも移動方向に沿った方向に大きく変更することが可能である。   Further, the target object position estimating unit 15 sets the size of the target object to be large in the moving direction of the target object, and the image cutout unit 23 sets a range in which a part of the image captured by the imaging unit is cut out. It is possible to greatly change in the direction along the moving direction rather than the direction perpendicular to the moving direction of the target object.

注目点検出手段12は、電波や音波を利用して注目点の位置を検出するものであってもよい。或いは、注目点検出手段12は、撮像手段11により撮影された画像を画像処理することにより注目点の位置を検出するものであってもよい。その際の注目点には、例えば、所定の色のマーカを注目対象物の所定位置に装着し、そのマーカをその色情報を使用して画像中より検出する。   The point of interest detection means 12 may detect the position of the point of interest using radio waves or sound waves. Alternatively, the attention point detection unit 12 may detect the position of the attention point by performing image processing on the image captured by the imaging unit 11. At that time, for example, a marker of a predetermined color is attached to a predetermined position of the target object, and the marker is detected from the image using the color information.

注目点検出手段12は、注目対象物の移動方向のパラメータを保持するパラメータ保持手段をさらに有しており、このパラメータ保持手段のパラメータにより、注目対象物が撮像手段11に対して近づくように移動していることが検出された場合には、注目対象物の検出位置を中心として、画像切出し手段23による画像の切出し範囲を拡大することが可能である。或いは、注目点検出手段12は、このパラメータ保持手段のパラメータにより、注目対象物が撮像手段11に対して遠ざかるように移動していることが検出された場合には、注目対象物の検出位置を中心として、画像切出し手段23による画像の切出し範囲を縮小することが可能である。   The point-of-interest detection unit 12 further includes a parameter holding unit that holds a parameter of the moving direction of the target object, and the target object moves so as to approach the imaging unit 11 by the parameter of the parameter holding unit. When it is detected that the image has been detected, the image extraction range by the image extraction means 23 can be expanded with the detection position of the target object as the center. Alternatively, when it is detected by the parameters of the parameter holding unit that the target object is moving away from the imaging unit 11, the target point detection unit 12 determines the target object detection position. As a center, it is possible to reduce the image extraction range by the image extraction means 23.

図2は本発明の実施例2の撮像装置の構成を示すブロック図であり、図1の実施例1をより具体化した構成例を示している。図3及び図4は図2における撮像手段の構成例を示すブロック図、図5及び図6は撮像対象の撮像対象領域を示す図、図7及び図8は撮像画像の全体画像と計測誤差との関係を示す関係図である。   FIG. 2 is a block diagram showing the configuration of the image pickup apparatus according to the second embodiment of the present invention, and shows a more specific configuration example of the first embodiment in FIG. 3 and 4 are block diagrams showing a configuration example of the imaging means in FIG. 2, FIGS. 5 and 6 are diagrams showing the imaging target area of the imaging target, and FIGS. 7 and 8 are the entire image and measurement error of the captured image. FIG.

本実施例2は、注目点検出手段がGPSなどのように複数の電波の受信によって位置検出をする場合の実施例を示している。   The second embodiment shows an embodiment in which the attention point detecting means detects the position by receiving a plurality of radio waves such as GPS.

図2において、撮像装置は、撮像手段11と、精度向上化手段を含む注目点検出手段12Aと、注目点検出手段の計測誤差情報記憶部16と、対注目点の注目対象物の位置指定部21と、座標変換手段25と、注目点検出時と撮像時の時間差情報記憶部17と、切出し中心位置設定部18と、位置指定の誤差推定部26と、移動に伴う誤差推定部20Aと、総合誤差算出部22Aと、切出し縦&横サイズ設定部22Bと、画像切出し手段23と、切出し画像出力手段24と、を備えて構成されている。
撮像手段11は、フィールド空間を撮像し、動画像信号及び撮像領域情報を出力する。 図3は撮像手段11の第1の構成例を示し、図4は撮像手段11の第2の構成例を示している。
In FIG. 2, the imaging apparatus includes an imaging unit 11, an attention point detection unit 12 </ b> A including an accuracy improvement unit, a measurement error information storage unit 16 of the attention point detection unit, and an attention target position designation unit for the attention point 21, coordinate conversion means 25, time difference information storage unit 17 at the time of attention point detection and imaging, cut-out center position setting unit 18, position designation error estimation unit 26, error estimation unit 20A accompanying movement, The total error calculation unit 22A, a cutout vertical & horizontal size setting unit 22B, an image cutout unit 23, and a cutout image output unit 24 are configured.
The imaging means 11 images the field space and outputs a moving image signal and imaging area information. FIG. 3 shows a first configuration example of the imaging means 11, and FIG. 4 shows a second configuration example of the imaging means 11.

図3に示す撮像手段11は、被写体像を撮像面に集光する撮影レンズ部111と、撮像素子平面上の全領域に集光された光電変換し、画素毎の動画像信号として出力する撮像素子であるイメージセンサ112と、イメージセンサ112にて撮像された動画像信号をデジタル信号に変換し出力するA/D変換回路113と、イメージセンサ112を同期信号を含むタイミングパルスにて駆動する駆動回路114と、を備えて構成されている。   The imaging unit 11 shown in FIG. 3 has a photographic lens unit 111 that condenses a subject image on an imaging surface, and photoelectric conversion that is focused on the entire area on the imaging element plane and outputs it as a moving image signal for each pixel. An image sensor 112 that is an element, an A / D conversion circuit 113 that converts a moving image signal captured by the image sensor 112 into a digital signal, and a drive that drives the image sensor 112 with timing pulses including a synchronization signal. And a circuit 114.

一方、図4に示す撮像手段11は、被写体像を撮像面に集光する撮影レンズ部111と、撮像素子平面上の全領域に集光された光電変換し、画素毎の動画像信号として出力する撮像素子であるイメージセンサ112と、イメージセンサ112にて撮像された動画像信号をデジタル信号に変換して出力するA/D変換回路113と、イメージセンサ112を同期信号を含むタイミング駆動パルスにて駆動する駆動回路114と、A/D変換回路113からのイメージセンサが出力する動画像信号のn画面分ディレイさせた動画像信号を出力するn画面分のメモリ部(書き込みと読み出しの制御を含む)115と、駆動回路114からのタイミング駆動パルスに基づいてn画面分のメモリ部115を同期信号を含む第2のタイミング駆動パルスにて駆動する駆動回路116と、を備えて構成されている。   On the other hand, the imaging unit 11 shown in FIG. 4 performs a photoelectric conversion on the entire area on the imaging element plane, and a photographing lens unit 111 that collects the subject image on the imaging surface, and outputs it as a moving image signal for each pixel. An image sensor 112 that is an image pickup device, an A / D conversion circuit 113 that converts a moving image signal picked up by the image sensor 112 into a digital signal, and a timing drive pulse including a synchronization signal. A drive circuit 114 that drives and a memory unit for n screens that outputs a moving image signal delayed by n screens of the moving image signal output from the image sensor from the A / D conversion circuit 113 (control of writing and reading) 115) and the memory portion 115 for n screens based on the timing driving pulse from the driving circuit 114 as a second timing driving pulse including a synchronization signal. And it is configured to include a drive circuit 116 for driving, the.

上記のn画面分のメモリ部115は、イメージセンサが出力する動画像信号のn画面分ディレイさせた動画像信号で、注目点検出手段12の時間遅れに相当するディレイとなるようにnを調整して動画像信号を出力するものである。すなわち、図4に示す構成例は、注目点検出手段12AとしてGPS(全地球測位システム、Global Positioning Systemの略)のような位置検出にある程度の算出時間を要するセンサを用いた場合などに、同時点で検出した撮影画像と時間遅れを生じる位置検出情報との時間的ずれを無くすための構成として使用することができる。   The memory unit 115 for the n screens described above is a moving image signal delayed by n screens of the moving image signal output from the image sensor, and adjusts n so as to be a delay corresponding to the time delay of the attention point detection unit 12. Thus, a moving image signal is output. That is, in the configuration example shown in FIG. 4, when a sensor that requires a certain amount of calculation time for position detection, such as GPS (abbreviation of Global Positioning System), is used as the attention point detection unit 12A. It can be used as a configuration for eliminating a time lag between a captured image detected at a point and position detection information causing a time delay.

注目点検出手段12Aは、GPSのように注目対象物に装着するセンサによって、そのセンサの位置情報を検出する手段、或いは、注目対象物にセンサなどを装着しないで位置検出する手段である。注目点検出手段12Aの検出結果とは、フィールド座標における注目点の位置情報(時にサイズ情報を含んでも良い)である。ただし、これに限定するものではなく、注目点検出手段12Aと座標変換部251に代えて、撮影された画像を画像処理することにより画像中における注目点の位置を検出する検出手段を備えてもよい。   The attention point detection means 12A is a means for detecting position information of a sensor by a sensor attached to the attention object such as GPS, or a position detection means without attaching a sensor or the like to the attention object. The detection result of the attention point detection means 12A is position information of the attention point in the field coordinates (sometimes size information may be included). However, the present invention is not limited to this. Instead of the attention point detection unit 12A and the coordinate conversion unit 251, a detection unit that detects the position of the attention point in the image by performing image processing on the captured image may be provided. Good.

また、注目点検出手段12Aが上記センサで注目点を検出するには、該注目点検出手段12Aにそのセンサ以外に基地局として表現する受信機、或いは、送信機を構成する必要がある。基地局が送信機である場合には、センサが受信機として、基地局の位置に対応したセンサ位置を検出する。また、基地局が受信機である場合には、センサが送信機として、基地局の位置に対応したセンサ位置を検出する。   In addition, in order for the attention point detection unit 12A to detect the attention point by the sensor, it is necessary to configure a receiver or a transmitter expressed as a base station in addition to the sensor in the attention point detection unit 12A. When the base station is a transmitter, the sensor serves as a receiver to detect a sensor position corresponding to the position of the base station. When the base station is a receiver, the sensor serves as a transmitter to detect a sensor position corresponding to the position of the base station.

注目点検出手段12Aは、例えば、GPS受信機とそのGPS受信機で算出した緯度、経度、高さの3次元位置情報を送信する送信機とからなる。   The attention point detection means 12A includes, for example, a GPS receiver and a transmitter that transmits three-dimensional position information of latitude, longitude, and height calculated by the GPS receiver.

ただし位置検出は、GPSに限定するものではない。無線LANなどの無線電波を使用し三角測量などによって位置情報を特定する方法、電波に限らず超音波を含む音や光など、タッチパネルなどで使用される位置検出方法など検出する精度、撮像する領域の広さに応じて様々な方法がある。GPSシステムと上述した他の位置検出方法とを組み合わせても良い。   However, position detection is not limited to GPS. A method for specifying position information by triangulation using wireless radio waves such as a wireless LAN, a position detection method used for touch panels such as sound and light including ultrasonic waves as well as radio waves, detection accuracy, imaging area There are various methods depending on the size of the. You may combine a GPS system and the other position detection method mentioned above.

また、注目点検出手段12Aに含まれている精度向上化手段12A-1は、検出された位置情報の位置精度を向上させるために、例えば、一定時間内に複数回の位置情報検出を行い、複数位置情報の平均化をして精度を上げるようにするなど、精度を向上させる手段である。   In addition, the accuracy improving unit 12A-1 included in the attention point detecting unit 12A performs, for example, position information detection a plurality of times within a predetermined time in order to improve the position accuracy of the detected position information. It is means for improving accuracy, for example, by averaging multiple pieces of position information to increase accuracy.

複数位置情報の平均化方法以外で精度を向上させる手段には、移動する注目点の場合は、ジャイロなどで移動する方向を検出するなどして、注目点の位置検出の精度向上を図ることもできる。   As a means for improving accuracy other than the averaging method of multiple position information, in the case of a moving attention point, the direction of movement can be improved by detecting the direction of movement with a gyro etc. it can.

対注目点の注目対象物の位置指定部21は、注目点であるGPS位置に対する注目対象物の位置関係を指定する設定部である。例えば、ベルトの真中にGPS受信機及び送信機を装着し、注目対象物における切出し位置を人の顔とした場合、対注目点の注目対象物の位置指定部21では、注目点(センサ)のあるベルトの真中の位置に対する顔のある位置をフィールド座標における距離と方向として指定するものである。   The position specifying unit 21 of the target object of the point of interest is a setting unit that specifies the positional relationship of the target object with respect to the GPS position that is the target point. For example, when a GPS receiver and a transmitter are mounted in the middle of the belt and the cutout position of the target object is a human face, the target target position specifying unit 21 for the target point of interest has a target point (sensor). The position of the face with respect to the middle position of a certain belt is designated as the distance and direction in the field coordinates.

具体例としては、図5に示すように高さ方向に40cmの点を中心として縦40cm、横30cmの実物サイズを指定する。なお、前記対注目点の注目対象物の位置指定部21で設定する注目対象物の位置情報は、実物サイズで設定するとして説明したが、それに限定するものではない。予め撮像方法などが固定している場合には、前述したような実物サイズに限定することなく、撮像素子平面上の撮像領域(画像領域)での画素数などであっても良い。注目対象物の位置指定の計算は、実物サイズで設定するよりもむしろ、画素数などで設定する方が簡単で高速に計算することができる。   As a specific example, as shown in FIG. 5, an actual size of 40 cm in length and 30 cm in width is specified around a point of 40 cm in the height direction. The position information of the target object set by the position specifying unit 21 of the target object of the point of interest has been described as being set by the actual size, but the present invention is not limited to this. When the imaging method or the like is fixed in advance, the number of pixels in the imaging region (image region) on the imaging element plane may be used without being limited to the actual size as described above. It is easier and faster to set the position of the target object by setting the number of pixels rather than setting the actual size.

注目点検出手段の計測誤差情報記憶部16は、図1でも述べたように、注目点検出手段12Aの特性に応じて決まる計測精度(GPSであれば誤差10mなど)を予め記憶しておくものである。   As described in FIG. 1, the measurement error information storage unit 16 of the point of interest detection unit stores in advance measurement accuracy determined according to the characteristics of the point of interest detection unit 12A (such as an error of 10 m for GPS). It is.

注目点検出時と撮像時の時間差情報記憶部17は、撮像手段11からの撮像ディレイ情報と注目点検出手段12Aからの注目点検出ディレイ情報との違いに基づく、注目点が移動することに伴ない生ずる時間的な推定誤差を記憶するもので、その時間差情報を記憶手段に予め記憶させておくものである。   The time difference information storage unit 17 at the time of attention point detection and at the time of imaging is accompanied by the movement of the attention point based on the difference between the imaging delay information from the imaging means 11 and the attention point detection delay information from the attention point detection means 12A. This is for storing a temporal estimation error that does not occur, and for storing the time difference information in the storage means in advance.

計測誤差情報記憶部16及び時間差情報記憶部17の記憶手段としては、ROMやフラッシュメモリやハードディスクなど様々な記憶手段であっても良い。或いは、ユーザー入力可能とするようにしても良い。   The storage means of the measurement error information storage unit 16 and the time difference information storage unit 17 may be various storage means such as a ROM, a flash memory, and a hard disk. Alternatively, user input may be allowed.

座標変換手段25は、注目点検出手段12A,注目点検出手段の計測誤差情報記憶部16,対注目点の注目対象物の位置指定部21それぞれからのフィールド空間上での距離情報や移動情報を、撮像素子平面座標に変換するものであって、画像領域での画素数によって表される座標への変換を行う。座標変換手段25は、図2では、注目点検出手段12Aからの注目点の位置情報の座標変換を行う座標変換部251と、注目点検出手段12Aからの注目点の移動情報(速度、方向)の座標変換を行う座標変換部252と、注目点検出手段の計測誤差情報記憶部16からの計測誤差の座標変換を行う座標変換部253と、対注目点の注目対象物の位置指定部21からの対注目点の切出し位置までの距離情報を座標変換する座標変換部254とを含んでいる。   The coordinate conversion means 25 includes distance information and movement information on the field space from the attention point detection means 12A, the measurement error information storage section 16 of the attention point detection means, and the position designation section 21 of the target object of interest. The image sensor is converted into the plane coordinates of the image sensor, and is converted into coordinates represented by the number of pixels in the image area. In FIG. 2, the coordinate conversion unit 25 performs coordinate conversion of the position information of the target point from the target point detection unit 12A, and movement information (speed, direction) of the target point from the target point detection unit 12A. From the coordinate conversion unit 252 that performs the coordinate conversion, the coordinate conversion unit 253 that performs the coordinate conversion of the measurement error from the measurement error information storage unit 16 of the attention point detection unit, and the position designation unit 21 of the target object of interest as the target point of interest And a coordinate conversion unit 254 that converts the distance information to the cut-out position of the point of interest.

切出し中心位置設定部18は、注目点検出手段12で検出されたフィールド座標上の注目点の位置情報と注目対象物指定部21に予め記憶してある検出手段(センサ)から切出し位置までの距離情報とに基づいて、撮像素子平面座標上の切出し中心位置情報を求める。   The cut-out center position setting unit 18 includes the position information of the target point on the field coordinates detected by the target point detection unit 12 and the distance from the detection unit (sensor) stored in advance in the target object specifying unit 21 to the cut-out position. Based on the information, cut-out center position information on the image sensor plane coordinates is obtained.

移動に伴う誤差推定部20Aは、注目点検出時と撮像時の時間差情報記憶部17に予め記憶している時間差情報と、注目点検出手段12Aで検出される注目点が移動する速度及び方向と、撮像手段11から得られる撮像領域情報とに応じて、移動に伴う誤差推定を行う。   The error estimation unit 20A associated with the movement includes time difference information stored in advance in the time difference information storage unit 17 at the time of attention point detection and imaging, and the speed and direction in which the point of interest detected by the attention point detection unit 12A moves. In accordance with the imaging area information obtained from the imaging means 11, error estimation associated with movement is performed.

位置指定の誤差推定部26は、注目対象物指定部21に予め記憶してある検出手段(センサ)から注目対象物における中心位置(切出し位置)までの実際の距離情報に基づいて、撮像素子平面上の画像切出し位置の誤差を推定する。   The position specifying error estimating unit 26 is based on the actual distance information from the detection means (sensor) stored in advance in the target object specifying unit 21 to the center position (cutout position) of the target object. Estimate the error of the upper image cutout position.

総合誤差算出部22Aは、移動に伴う誤差推定部20Aからの推定誤差と、位置指定の誤差推定部26からの推定誤差と、注目点検出手段の計測誤差情報記憶部16に予め記憶している注目点検出手段の計測誤差情報とに基づいて、総合的な推定誤差情報を算出し出力する。   The total error calculation unit 22A stores in advance the estimation error from the error estimation unit 20A accompanying the movement, the estimation error from the position specifying error estimation unit 26, and the measurement error information storage unit 16 of the attention point detection unit. Comprehensive estimation error information is calculated and output based on the measurement error information of the point of interest detection means.

切出し縦&横サイズ設定部22Bは、総合誤差算出部22Aで算出された推定誤差情報に基づいて、切出し画像の縦,横の各サイズ情報を生成出力して、画像切出し手段23に供給する。   The cutout vertical & horizontal size setting unit 22B generates and outputs vertical and horizontal size information of the cutout image based on the estimated error information calculated by the total error calculation unit 22A, and supplies the generated information to the image cutout unit 23.

画像切出し手段23は、切出し中心位置設定部18からの切出し中心位置情報と、切出し縦&横サイズ設定部22Bからの切出し縦,横サイズ情報に基づいて、撮像手段11の全撮像領域に対して画像切出しする部分の領域を指定し切出し処理を施すものである。全画像領域をx、y座標で示し、その画像切出し領域の中心画素の座標(x0、y0)と切出す上下左右の切出しサイズ(xc、yc)を指定し、撮像手段11の撮像信号から画像を切出し出力する。切出し画像の領域は、左上座標(x0−xc/2、y0+yc/2)、右下座標(x0+xc/2、y0−yc/2)となる。   The image cutout unit 23 applies to the entire image pickup area of the image pickup unit 11 based on the cutout center position information from the cutout center position setting unit 18 and the cutout vertical and horizontal size information from the cutout vertical & horizontal size setting unit 22B. The area of the part to be cut out is designated and cut out. The entire image area is indicated by x and y coordinates, the coordinates (x0, y0) of the center pixel of the image cutout area, the top and bottom cutout sizes (xc, yc) to be cut out are designated, and the image from the image pickup signal of the image pickup means 11 Is cut out and output. The cut-out image area has upper left coordinates (x0−xc / 2, y0 + yc / 2) and lower right coordinates (x0 + xc / 2, y0−yc / 2).

切出し画像出力手段24は、切り出された所定の画像サイズの切出し動画像信号を所定の信号形式及び所定のレベルにして出力する。   The cut-out image output means 24 outputs the cut-out moving image signal having a predetermined image size in a predetermined signal format and a predetermined level.

次に、作用効果を説明する。
本発明実施例では、カメラ操作者なしに自動的にカメラの方向や撮像サイズを変更する方法として、高精細なカメラを使って固定し、注目対象が撮像される領域を切出し出力する撮像装置を実現するものである。しかしながら、注目対象が移動する際に、検出した際の位置と検出時と、その検出結果に応じて撮像画像より画像を切出す時間との時間差によって発生する計測誤差や、注目対象が移動することなく静止していたとしてもセンサなどの検出手段そのものの計測誤差によって、注目対象の所望する領域を前記切出し画像で撮像できない課題がある。また、実際の位置と検出結果による位置との実際の誤差は、リアルタイムに測定することは難しいという課題もある。。
Next, the function and effect will be described.
In the embodiment of the present invention, as a method of automatically changing the camera direction and the imaging size without a camera operator, an imaging apparatus that fixes and uses a high-definition camera and cuts out and outputs an area in which a target object is imaged is output. It is realized. However, when the target object moves, the measurement error caused by the time difference between the position at the time of detection and the time of detection and the time to cut out the image from the captured image according to the detection result, or the target object moves Even if it is stationary, there is a problem that it is impossible to capture the desired region of interest with the cut-out image due to the measurement error of the detection means such as a sensor. In addition, there is a problem that it is difficult to measure the actual error between the actual position and the position based on the detection result in real time. .

図6は、複数のセンサ(GPSなど)をフィールド内に配置し、そのセンサごとの誤差エリアを示している。誤差精度を5mとして大地と平行な面内で5mの円で示す誤差を生じるものとして説明する。ここでは、高さの誤差をないものとして説明するが、これに限定するものではない。   FIG. 6 shows a plurality of sensors (such as GPS) arranged in the field and an error area for each sensor. The description will be made assuming that the error accuracy is 5 m and an error indicated by a circle of 5 m is generated in a plane parallel to the ground. Here, the description will be made assuming that there is no height error, but the present invention is not limited to this.

また、図7は、図6で示した撮像シーンでの画像を示した。選手A,B,Cのそれぞれのリング状の曲線が各選手の誤差エリアである。この誤差エリアは、被写体サイズと同様にカメラからの距離が長いほど誤差エリアの画像内影響度も小さくなる。   FIG. 7 shows an image in the imaging scene shown in FIG. Each player's A, B, C ring-shaped curve is the error area of each player. In the error area, as in the subject size, the influence in the image of the error area becomes smaller as the distance from the camera is longer.

図8には、本発明実施例において、検出手段であるセンサ121の出力する位置情報の計測誤差を、センサやその計測手段の性能を予め知り、推定誤差を取得しておき、その推定誤差範囲を考慮して、画像の切出しサイズを制御する関係を示している。   In FIG. 8, in the embodiment of the present invention, the measurement error of the position information output from the sensor 121 as the detection means, the performance of the sensor and the measurement means are known in advance, the estimation error is acquired, and the estimation error range is shown. The relationship for controlling the cutout size of the image is shown in consideration of the above.

選手Cについてベルト位置に装着したセンサ121の位置に対して顔を切出し位置とする場合に、符号Jは誤差がない時の切出し位置とサイズを示している。そして、センサ121(例えばGPS)による位置算出(検出)を行った場合に、符号Hは実際に算出(検出)されたセンサ検出位置を示し、その検出位置Hに対して(即ちHを基準値として)誤差がないものとした際の顔の切出し位置(範囲)Iとその中心位置I1を示してある。そして、移動に伴う誤差推定部20Aからの移動に伴う推定誤差、注目点検出手段の計測誤差情報記憶部16からの計測誤差、位置指定の誤差推定部26からの注目対象位置(注目点に対する切出し位置)の推定誤差に基づいて、総合誤差算出部22Aで推定誤差を得、画像切出し手段23ではその推定誤差に応じて切出しサイズを変更した切出し画像領域Kを求めて切出しを行う。   When the face is set as the cutout position with respect to the position of the sensor 121 attached to the belt position for the player C, the symbol J indicates the cutout position and size when there is no error. When the position calculation (detection) is performed by the sensor 121 (for example, GPS), the symbol H indicates the sensor detection position actually calculated (detected), and the detection position H (that is, H is a reference value). ) Shows a face cutout position (range) I and its center position I1 when there is no error. Then, the estimation error accompanying the movement from the error estimation unit 20A accompanying the movement, the measurement error from the measurement error information storage unit 16 of the attention point detecting means, and the target position of interest (cutting out of the attention point) from the position specifying error estimation unit 26 Based on the (position) estimation error, the total error calculation unit 22A obtains the estimation error, and the image cutout means 23 obtains a cutout image region K in which the cutout size is changed according to the estimation error, and performs cutout.

本発明の実施例によれば、高精細なカメラからの高精細画像から一部の画像を自動的に制御し切り出す撮像装置であって、その切り出す画像サイズが、注目対象を外すことがない的確な切り出しが可能な撮像装置を実現することが可能となる。   According to an embodiment of the present invention, an image pickup apparatus that automatically controls and cuts out a part of an image from a high-definition image from a high-definition camera, and the size of the cut-out image does not detract from the target of attention. It is possible to realize an imaging device that can be cut out smoothly.

尚、上述したように、画像切出し領域を設定するにあたり、以下のような誤差が発生する場合がある。   As described above, the following error may occur when setting the image cutout region.

1) 設定された撮像対象領域と実際の領域との誤差
2) 計測誤差=GPSで位置を検出する際の誤差(精度向上化手段の出力結果の誤差を示す)
3) 注目対象の移動によって発生する計測時と切出しを行う画像の撮像時の時間差で発生する誤差
4) 各手段での演算などの精度による誤差なども含む
本発明における注目対象物位置推定手段は、このように様々な誤差を考慮して、撮像対象を確実に捉え、切出し画像中に撮像対象が全部含まれるように制御するものである。
1) Error between the set imaging target area and the actual area 2) Measurement error = Error when detecting the position with GPS (indicating an error in the output result of the accuracy improving means)
3) An error caused by a time difference between the time of measurement that occurs due to the movement of the target of interest and the time of capturing an image to be cut out 4) Including the error due to the accuracy of the calculation in each means, etc. Thus, in consideration of various errors, the imaging target is surely captured, and control is performed so that the entire imaging target is included in the cut-out image.

また、その誤差は、注目点のカメラからの距離に応じて、時々刻々と変化するものである。   Further, the error changes every moment according to the distance from the camera of the point of interest.

そこで、注目対象物位置推定手段は、上記様々な誤差を時々刻々と検出し、総合的な誤差に応じて画像切出しサイズを制御するようにしたものである。   Therefore, the target object position estimating means detects the above various errors every moment, and controls the image cutout size according to the total error.

また、検出位置と、誤差がないものとした場合の切出し位置の中心との画像中の距離は、カメラからのセンサまでの距離によって異なり、また、計測誤差も同様に異なる。   Further, the distance in the image between the detection position and the center of the cutout position when there is no error differs depending on the distance from the camera to the sensor, and the measurement error is also different.

そこで、カメラとセンサの距離を測定してその距離に応じて計測誤差の画像中誤差を算出し、最適な切出し領域を設定するようにする。   Therefore, the distance between the camera and the sensor is measured, the error in the image of the measurement error is calculated according to the distance, and the optimum cutout area is set.

注目点検出手段は、GPSを利用した例を示したがそれに限定しない。注目点検出手段の変形例として、勿論、電波でなく音や光を利用した位置検出であっても良い。タッチパネルのタッチする位置を検出する様々な方法も同様に有効であり、感圧センサなどであっても良い。   Although the attention point detection means has shown an example using GPS, it is not limited thereto. As a modification of the point of interest detection means, of course, position detection using sound or light instead of radio waves may be used. Various methods for detecting the touch position of the touch panel are also effective, and may be a pressure sensor or the like.

図2の撮像手段の出力の画像信号より信号処理して注目点を検出する場合であっても良い。その際の注目点には、所定の色のマーカを注目対象物である選手のベルトに装着し、そのマーカを前記色情報を使用して画像中より検出する。この場合の計測誤差は、僅かに抑えることができる。   The point of interest may be detected by performing signal processing based on the image signal output from the imaging means in FIG. At that time, a marker of a predetermined color is attached to the belt of the player who is the object of interest, and the marker is detected from the image using the color information. The measurement error in this case can be suppressed slightly.

また、前記撮像手段ではない別なカメラで注目点を位置検出するなどの方法も考えられる。   Also, a method of detecting the position of a point of interest with another camera that is not the imaging means is also conceivable.

更に、切出し画像の出力は、動画に限定することなく、静止画であっても良い。   Furthermore, the output of the clipped image is not limited to a moving image, and may be a still image.

静止画カメラで注目対象物を写す際、その注目対象物にGPSなどのセンサを装着し、シャッターを押すと注目対象物が写っている切出し画像を出力することができ、固定したカメラであっても的確に注目対象物を拡大した画像を残せる。また、固定しない場合であっても、適当なカメラワークであっても注目対象物を外すことなく写すことができる。   When shooting a target object with a still image camera, a sensor such as GPS is attached to the target object, and when a shutter button is pressed, a clipped image showing the target object can be output. It is possible to leave an image in which the target object is magnified accurately. Moreover, even if it is not fixed, even if it is suitable camera work, it can be copied without removing the target object.

本発明の撮像装置は、静止画カメラ、動画カメラ、または静止画及び動画像の両方を撮影可能なカメラに適用可能であり、これらのカメラの被写体に追従して撮像データの一部を切出し出力(表示も)する撮像画像処理機能並びに撮像画素記録機能を有した装置というべきものである。   The image pickup apparatus of the present invention can be applied to a still image camera, a moving image camera, or a camera capable of shooting both still images and moving images, and cuts out and outputs a part of image pickup data following the subjects of these cameras. It should be a device having a captured image processing function (also displaying) and a captured pixel recording function.

本発明の実施例1の撮像装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment of the present invention. 本発明の実施例2の撮像装置の構成を示すブロック図。FIG. 5 is a block diagram illustrating a configuration of an imaging apparatus according to a second embodiment of the present invention. 図2における撮像手段の構成例を示すブロック図。The block diagram which shows the structural example of the imaging means in FIG. 図2における撮像段の他の構成例を示すブロック図。The block diagram which shows the other structural example of the imaging stage in FIG. 撮像対象の撮像対象領域を示す図。The figure which shows the imaging object area | region of imaging object. 複数のセンサのセンサごとの誤差エリアを示す図。The figure which shows the error area for every sensor of a some sensor. 撮像画像の全体画像における遠近関係にある画像の計測誤差(誤差エリア)を示す図。The figure which shows the measurement error (error area) of the image in perspective relation in the whole image of a captured image. 推定誤差範囲を考慮して画像の切出しサイズを変更制御する関係を示す図。The figure which shows the relationship which changes and controls the cutout size of an image in consideration of an estimation error range.

符号の説明Explanation of symbols

11…撮像手段
12…注目点検出手段
13…注目点検出状態取得手段
14…誤差推定情報記憶部
15…注目対象物位置推定手段
16…画像切出し手段
代理人 弁理士 伊 藤 進
DESCRIPTION OF SYMBOLS 11 ... Imaging means 12 ... Attention point detection means 13 ... Attention point detection state acquisition means
14 ... Error estimation information storage unit 15 ... Target object position estimation means 16 ... Image cut-out means
Agent Patent Attorney Susumu Ito

Claims (13)

画像を撮像する撮像手段と、
この撮像手段により撮影された画像の中から、注目対象物に対して所定の位置に配置された注目点を検出する注目点検出手段と、
前記注目点検出手段が注目点を検出するその状態を取得する注目点検出状態取得手段と、
前記撮像手段により撮影された画像の一部を切り出す画像切出し手段とを備え、
前記画像切出し手段は、前記注目点検出手段で検出した注目点に対して設定する画像切出し範囲を、前記注目点検出状態取得手段の検出状態によって変更制御することを特徴とする撮像装置。
An imaging means for capturing an image;
Attention point detection means for detecting an attention point arranged at a predetermined position with respect to the target object from the image photographed by the imaging means;
Attention point detection state acquisition means for acquiring the state where the attention point detection means detects the attention point;
Image cutting means for cutting out a part of the image taken by the imaging means,
The imaging apparatus, wherein the image cutout unit changes and controls an image cutout range set for a target point detected by the target point detection unit according to a detection state of the target point detection state acquisition unit.
前記注目点検出状態取得手段は、前記注目点検出手段により検出される注目点の検出位置の誤差推定量を保持する記憶部を有するとともに、この誤差推定量に応じて注目点に対して一定の位置にある前記注目対象物の位置を推定する注目対象物位置推定手段を更に有し、
この注目対象物位置推定手段により推定された位置にある注目対象物を、前記画像切出し手段により切り出すことを特徴とする請求項1に記載の撮像装置。
The attention point detection state acquisition unit includes a storage unit that holds an error estimation amount of a detection position of the attention point detected by the attention point detection unit, and a certain amount of the attention point is determined according to the error estimation amount. A target object position estimating means for estimating a position of the target object at a position;
The imaging apparatus according to claim 1, wherein the target object at the position estimated by the target object position estimating unit is cut out by the image cutting unit.
前記注目対象物位置推定手段は、注目対象物の移動情報により注目対象物の位置を推定し、
前記画像切出し手段は、注目対象物の移動情報に応じて、前記撮像手段により撮影された画像の一部を切り出す範囲を変更することを特徴とする請求項2に記載の撮像装置。
The target object position estimating means estimates the position of the target object from the movement information of the target object,
The imaging apparatus according to claim 2, wherein the image cutout unit changes a range of cutting out a part of an image shot by the imaging unit according to movement information of the target object.
前記注目対象物位置推定手段は、注目対象物の移動速度情報により注目対象物の位置を推定する際に、
前記撮像手段の撮影タイミング処理と前記注目対象物位置推定手段の検出タイミングとの時間差および前記注目対象物位置推定手段の出力の変化を検出することを特徴とする請求項3に記載の撮像装置。
The target object position estimating means, when estimating the position of the target object from the moving speed information of the target object,
The imaging apparatus according to claim 3, wherein a time difference between an imaging timing process of the imaging unit and a detection timing of the target object position estimating unit and a change in output of the target object position estimating unit are detected.
前記注目点検出手段はセンサを含んでおり、このセンサと前記注目対象物との位置関係は既知であるとともに、この位置関係をもとに前記注目対象物推定手段は前記注目対象物の位置を推定し、前記画像切出し手段は前記注目対象物を切り出すことを特徴とする請求項2に記載の撮像装置。   The attention point detection means includes a sensor, and the positional relationship between the sensor and the attention object is known, and the attention object estimation means determines the position of the attention object based on the positional relationship. The imaging apparatus according to claim 2, wherein the image cutting unit estimates and cuts the target object. 前記注目対象物推定手段は、前記注目点検出手段により検出される前記注目点の検出位置の誤差推定量が前記センサの計測誤差推定量であることを特徴とする請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the target object estimation unit is configured such that an error estimation amount of the detection position of the target point detected by the target point detection unit is a measurement error estimation amount of the sensor. . 前記注目対象物位置推定手段は、注目対象物の実物の大きさと注目点からの実際の距離を用いて注目対象物の位置を推定し、前記画像切出し手段は推定された注目対象物の位置情報に基づき、前記撮像手段により撮影された画像の一部を切り出す範囲を変更することを特徴とする請求項2に記載の撮像装置。   The target object position estimating means estimates the position of the target object using the actual size of the target object and the actual distance from the target point, and the image cutout means is the estimated position information of the target object. The imaging apparatus according to claim 2, wherein a range in which a part of an image photographed by the imaging unit is cut out is changed based on the above. 前記注目対象物位置推定手段は、注目対象物の移動方向に大きく該注目対象物の大きさを設定し、前記画像切出し手段は、前記撮像手段により撮影された画像の一部を切り出す範囲を、前記注目対象物の移動方向に垂直な方向よりも移動方向に沿った方向に大きく変更することを特徴とする請求項2に記載の撮像装置。   The target object position estimating means sets the size of the target object to be large in the moving direction of the target object, and the image cutout means is a range for cutting out a part of the image taken by the image pickup means, The imaging apparatus according to claim 2, wherein the imaging apparatus is largely changed in a direction along a moving direction rather than a direction perpendicular to the moving direction of the target object. 前記注目点検出手段は、電波を利用して注目点の位置を検出することを特徴とする請求項2に記載の撮像装置。 The imaging apparatus according to claim 2, wherein the attention point detection unit detects a position of the attention point using radio waves. 前記注目点検出手段は、音波を利用して注目点の位置を検出することを特徴とする請求項2に記載の撮像装置。 The imaging apparatus according to claim 2, wherein the attention point detection unit detects a position of the attention point using sound waves. 前記注目点検出手段は、前記撮像手段により撮影された画像を画像処理することにより注目点の位置を検出することを特徴とする請求項2に記載の撮像装置。 The imaging apparatus according to claim 2, wherein the attention point detection unit detects a position of the attention point by performing image processing on an image captured by the imaging unit. 前記注目点検出手段は、注目対象物の移動方向のパラメータを保持するパラメータ保持手段をさらに有しており、このパラメータ保持手段のパラメータにより、注目対象物が前記撮像手段に対して近づくように移動していることが検出された場合には、注目対象物の検出位置を中心として、前記画像切出し手段による画像の切出し範囲を拡大することを特徴とする請求項1に記載の撮像装置。 The attention point detection means further includes parameter holding means for holding a parameter of the moving direction of the target object, and the target object moves so as to approach the imaging means by the parameter of the parameter holding means. 2. The image pickup apparatus according to claim 1, wherein, when it is detected that the image is cut, an image cut-out range by the image cut-out unit is expanded with a detection position of the target object as a center. 前記注目点検出手段は、注目対象物の移動方向のパラメータを保持するパラメータ保持手段をさらに有しており、このパラメータ保持手段のパラメータにより、注目対象物が前記撮像手段に対して遠ざかるように移動していることが検出された場合には、注目対象物の検出位置を中心として、前記画像切出し手段による画像の切出し範囲を縮小することを特徴とする請求項1に記載の撮像装置。
The attention point detection unit further includes a parameter holding unit that holds a parameter of the moving direction of the target object, and the target target object moves away from the imaging unit by the parameter of the parameter holding unit. 2. The imaging apparatus according to claim 1, wherein, when it is detected that an image is being detected, an image extraction range by the image extraction unit is reduced with a detection position of the target object as a center.
JP2003420094A 2003-12-17 2003-12-17 Imaging device Pending JP2005184266A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003420094A JP2005184266A (en) 2003-12-17 2003-12-17 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003420094A JP2005184266A (en) 2003-12-17 2003-12-17 Imaging device

Publications (1)

Publication Number Publication Date
JP2005184266A true JP2005184266A (en) 2005-07-07

Family

ID=34781768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003420094A Pending JP2005184266A (en) 2003-12-17 2003-12-17 Imaging device

Country Status (1)

Country Link
JP (1) JP2005184266A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010011441A (en) * 2008-05-26 2010-01-14 Sanyo Electric Co Ltd Imaging apparatus and image playback device
JP2010288207A (en) * 2009-06-15 2010-12-24 Casio Computer Co Ltd Moving image recording apparatus and program
CN110742631A (en) * 2019-10-23 2020-02-04 深圳蓝韵医学影像有限公司 Imaging method and device for medical image
US11263769B2 (en) 2015-04-14 2022-03-01 Sony Corporation Image processing device, image processing method, and image processing system
JP2022517528A (en) * 2019-01-22 2022-03-09 テンパス・エクス・マキーナ・インコーポレーテッド Systems and methods for splitting video feeds to split live player activity

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010011441A (en) * 2008-05-26 2010-01-14 Sanyo Electric Co Ltd Imaging apparatus and image playback device
JP2010288207A (en) * 2009-06-15 2010-12-24 Casio Computer Co Ltd Moving image recording apparatus and program
US11263769B2 (en) 2015-04-14 2022-03-01 Sony Corporation Image processing device, image processing method, and image processing system
JP2022517528A (en) * 2019-01-22 2022-03-09 テンパス・エクス・マキーナ・インコーポレーテッド Systems and methods for splitting video feeds to split live player activity
JP7197710B2 (en) 2019-01-22 2022-12-27 テンパス・エクス・マキーナ・インコーポレーテッド Systems and methods for splitting video feeds to separate live player activity
US11754662B2 (en) 2019-01-22 2023-09-12 Tempus Ex Machina, Inc. Systems and methods for partitioning a video feed to segment live player activity
CN110742631A (en) * 2019-10-23 2020-02-04 深圳蓝韵医学影像有限公司 Imaging method and device for medical image
CN110742631B (en) * 2019-10-23 2024-02-20 深圳蓝影医学科技股份有限公司 Imaging method and device for medical image

Similar Documents

Publication Publication Date Title
EP2779621B1 (en) Image generation device, image generation method and program
EP2041620B1 (en) A method in relation to acquiring panoramic images
JP4745769B2 (en) Camera head unit
JP5206095B2 (en) Composition determination apparatus, composition determination method, and program
JP5769813B2 (en) Image generating apparatus and image generating method
JP5865388B2 (en) Image generating apparatus and image generating method
US20050117033A1 (en) Image processing device, calibration method thereof, and image processing
KR101694689B1 (en) Method for generating video data and image photographing device thereof
EP2779620A1 (en) Image generation device, and image generation method
JP2007110575A (en) Object image retrieval device, digital camera and control method thereof
JP2005045820A (en) Method and apparatus for setting marker on object and tracking the position of the object
WO2018014517A1 (en) Information processing method, device and storage medium
JPH05344403A (en) Image pickup device
JP2008281385A (en) Image processing device
JP2005184266A (en) Imaging device
JP2005266520A (en) Imaging apparatus and imaging method
JP2010200084A (en) Imaging apparatus
JP2013141090A (en) Imaging apparatus and processing method of the same
JP2006115322A (en) Camera capable of panning photography and program for motion picture editing
JP2008283477A (en) Image processor, and image processing method
JP2006140605A (en) Photographing apparatus and its method
JP6362735B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND CONTROL PROGRAM
JP7316105B2 (en) Video correction device and program
JP6169963B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6375114B2 (en) Image reproducing apparatus and method for controlling image reproducing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090331