JP2005352988A - Image extracting apparatus - Google Patents
Image extracting apparatus Download PDFInfo
- Publication number
- JP2005352988A JP2005352988A JP2004175818A JP2004175818A JP2005352988A JP 2005352988 A JP2005352988 A JP 2005352988A JP 2004175818 A JP2004175818 A JP 2004175818A JP 2004175818 A JP2004175818 A JP 2004175818A JP 2005352988 A JP2005352988 A JP 2005352988A
- Authority
- JP
- Japan
- Prior art keywords
- image
- trajectory
- acquisition unit
- unit
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 claims abstract description 25
- 230000010354 integration Effects 0.000 claims description 12
- 238000000034 method Methods 0.000 abstract description 13
- 238000005259 measurement Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、ある領域内の画像から移動体の画像を抽出するための画像抽出装置に関するものである。 The present invention relates to an image extraction apparatus for extracting an image of a moving object from an image in a certain area.
下記非特許文献1〜3に示されるように、本発明者らは、移動体(例えば歩行者)の移動軌跡を抽出する技術を提案している。この技術によれば、複数のレーザスキャナ(レーザセンサ)を用いることにより、精度良く軌跡を抽出することができる。 As shown in the following Non-Patent Documents 1 to 3, the present inventors have proposed a technique for extracting a moving locus of a moving body (for example, a pedestrian). According to this technique, a trajectory can be extracted with high accuracy by using a plurality of laser scanners (laser sensors).
ところで、異なる時間に取得された軌跡に対応する移動体の同一性を判定するためには、移動体の画像と軌跡とを対応させることが好ましい。
本発明は、このような事情に鑑みてなされたものである。本発明の目的は、軌跡に対応する移動体の画像を抽出するための装置および方法を提供することである。 The present invention has been made in view of such circumstances. An object of the present invention is to provide an apparatus and method for extracting an image of a moving object corresponding to a trajectory.
本発明に係る画像抽出装置は、画像取得部と、軌跡取得部と、処理部とを備えている。前記画像取得部は、対象領域の画像を取得する構成となっている。前記軌跡取得部は、移動体の軌跡を取得する構成となっている。前記処理部は、(1)前記画像取得部で取得される画像の座標系と、前記軌跡取得部で取得される軌跡の座標系とを統合する機能、および(2)前記軌跡上に位置する移動体の画像を前記画像取得部で取得された画像から抽出する機能を備えている。 An image extraction apparatus according to the present invention includes an image acquisition unit, a trajectory acquisition unit, and a processing unit. The image acquisition unit is configured to acquire an image of the target area. The locus acquisition unit is configured to acquire a locus of a moving object. The processing unit is (1) a function of integrating the coordinate system of the image acquired by the image acquisition unit and the coordinate system of the trajectory acquired by the trajectory acquisition unit, and (2) located on the trajectory. A function of extracting an image of the moving body from the image acquired by the image acquisition unit is provided.
前記画像取得部と前記軌跡取得部と前記処理部とは、ネットワークにより接続されていてもよい。 The image acquisition unit, the trajectory acquisition unit, and the processing unit may be connected by a network.
前記画像取得部は、カメラとカメラ用端末とを備えていてもよい。 The image acquisition unit may include a camera and a camera terminal.
前記軌跡取得部は、レーザスキャナとスキャナ用端末とを備えていてもよい。 The trajectory acquisition unit may include a laser scanner and a scanner terminal.
前記軌跡取得部は、水平にスキャンしてレンジ画像を得るセンサとセンサ用端末とを備えていてもよい。前記センサは、例えばレーザスキャナであり、前記センサ用端末は、例えばスキャナ用端末である。 The trajectory acquisition unit may include a sensor that scans horizontally to obtain a range image and a sensor terminal. The sensor is, for example, a laser scanner, and the sensor terminal is, for example, a scanner terminal.
本発明に係る画像処理装置は、統合部と抽出部と記憶部とを備えている。前記統合部は、画像取得装置で取得される移動体の画像における座標系と、軌跡取得装置で取得される移動体の軌跡における座標系とを統合する構成となっている。前記抽出部は、前記軌跡上に位置する移動体の画像を前記画像取得部で取得された画像から抽出する構成となっている。 An image processing apparatus according to the present invention includes an integration unit, an extraction unit, and a storage unit. The integration unit is configured to integrate the coordinate system in the image of the moving object acquired by the image acquisition device and the coordinate system in the locus of the moving object acquired by the locus acquisition device. The extraction unit is configured to extract an image of a moving body located on the trajectory from the image acquired by the image acquisition unit.
前記抽出部は、前記軌跡から推測される前記移動体の向きに対応する属性を前記抽出された移動体の画像に付して、前記移動体の画像を前記記憶部に保存する構成であってもよい。 The extraction unit is configured to attach an attribute corresponding to the orientation of the moving body estimated from the trajectory to the extracted moving body image and store the image of the moving body in the storage unit. Also good.
本発明に係る画像抽出方法は、以下のステップを備えている:
(1)対象領域における画像を取得するステップ;
(2)移動体の軌跡を取得するステップ;
(3)取得される画像の座標系と、取得される軌跡の座標系とを統合するステップ;
(4)前記軌跡上に位置する移動体の画像を、前記対象領域における画像から抽出するステップ。
The image extraction method according to the present invention comprises the following steps:
(1) obtaining an image in the target region;
(2) obtaining a trajectory of the moving object;
(3) integrating the coordinate system of the acquired image and the coordinate system of the acquired trajectory;
(4) A step of extracting an image of the moving body located on the locus from the image in the target area.
本発明によれば、軌跡に対応する移動体の画像を、比較的正確に抽出することが可能となる。 According to the present invention, it is possible to extract a moving body image corresponding to a trajectory relatively accurately.
(実施形態の構成)
以下、本発明の一実施形態に係る画像抽出装置を、添付図面を参照して説明する。この装置は、画像取得部1と、軌跡取得部2と、処理部3とを主体として構成されている(図1参照)。これらは、ネットワーク4に接続されており、これを介して、相互に情報の伝達を行うことができるようになっている。
(Configuration of the embodiment)
Hereinafter, an image extraction apparatus according to an embodiment of the present invention will be described with reference to the accompanying drawings. This apparatus is mainly composed of an image acquisition unit 1, a
画像取得部1は、複数のカメラ11と、これらのカメラ11にそれぞれ接続されたカメラ用端末12とを備えている(図2参照)。カメラ11は、通常は動画用カメラであるが、静止画用カメラであっても良い。カメラ11は、カメラ用端末12からの制御信号に基づいて、対象領域の画像を取得する構成となっている。対象領域は、使用者により適宜に設定される(後述)。カメラ用端末12は、コンピュータにより構成されている。カメラ用端末12の機能は、本実施形態の動作の説明において詳述する。
The image acquisition unit 1 includes a plurality of
軌跡取得部2は、複数のレーザスキャナ21と、これらのスキャナ21にそれぞれ接続されたスキャナ用端末22とを備えている(図2参照)。レーザスキャナ21は、水平方向にスキャンすることにより、対象物までの距離を測定して、レンジ画像を得ることができるものである。これにより、軌跡取得部2は、移動体の軌跡を取得できるようになっている。軌跡取得部2の構成は、前記した非特許文献に記載された軌跡取得装置と同様なので、詳細な説明を省略する。なお、レーザスキャナに代えて、レンジ画像を得られる他のセンサ(例えばUWB(Ultra Wide Band)を用いたレーダ、ミリ波レーダなど)を用いることもできる。
The
処理部3は、コンピュータ(いわゆるサーバ)により構成されている。処理部3は、コンピュータハードウエアおよびコンピュータソフトウエアにより、機能要素として、座標統合部31と抽出部32と記憶部33とを備えたものとなっている。座標統合部31は、画像取得部1で取得される画像の座標系と、軌跡取得部2で取得される軌跡の座標系とを統合する機能を有している。なお、この実施形態では、取得された画像の統合は、画像取得部1で行っている。もちろん、画像の統合を処理部3で行っても良い。抽出部32は、軌跡上に位置する移動体の画像を、画像取得部1で取得された画像から抽出する機能を有している。処理部3の各機能は、本実施形態の動作の説明において詳述する。
The
(実施形態の動作)
次に、本実施形態に係る画像抽出装置の動作を説明する。この実施形態では、画像取得部1のカメラ11と、軌跡取得部2のレーザスキャナ21とが、所定の位置に配置されている(図3参照)。この状態では、カメラ11は、操作者が設定する領域における画像を取得できるようになっている。また、レーザスキャナ21は、操作者が設定する領域における移動体の位置を取得できるようになっている。なお、図4には、キャリブレーション動作(後述)のためにマーカ51,52,53およびキャリブレーションブロック6を対象領域内に配置した状態を示している。
(Operation of the embodiment)
Next, the operation of the image extraction apparatus according to this embodiment will be described. In this embodiment, the
(ステップSa1〜2)
図5に示されるように、まず、処理部3は、カメラ用端末12およびスキャナ用端末22(図においてはクライアントと総称)に同期信号を送る。
(Step Sa1-2)
As shown in FIG. 5, first, the
(ステップSb1〜2およびSc1〜2)
図8に示されるように、レーザ用端末22は、同期信号を受信すると、時刻同期を行う。同様に、図9に示されるように、カメラ用端末12は、同期信号を受信すると、時刻同期を行う。このように時刻同期を行うことにより、各端末で取得されたデータの取得時間を一致させることができる。
(Steps Sb1-2 and Sc1-2)
As shown in FIG. 8, when the
(ステップSa3〜6)
この実施形態の説明では、レーザスキャナ21のキャリブレーション全体を図5のステップSa3で参照する。ステップSa3は、ステップSa4〜6を有している。ステップSa3において、まず、処理部3は、各スキャナ用端末22にリクエスト信号を送る(ステップSa4)。各スキャナ用端末22の動作は後述する。
(Steps Sa3-6)
In the description of this embodiment, the entire calibration of the
各スキャナ用端末22からサンプルデータを受信すると(ステップSa5)、処理部3の統合部31は、サンプルデータをマッチングして、各レーザスキャナ21の座標系から、ある統合座標系への変換パラメータを求める(ステップSa6)。
When sample data is received from each scanner terminal 22 (step Sa5), the
(ステップSb3〜4)
各レーザ用端末22は、処理部3からリクエスト信号を受け取ると(ステップSb3)、各レーザスキャナ21により、既知移動体を1回スキャンして、サンプルデータを取得し、このサンプルデータを処理部3に送る(ステップSb4)。サンプルデータで取得された移動体の形状や位置や既知なので、サンプルデータを用いることにより、座標系を変換ないし統合するパラメータを得ることができる。
(Steps Sb3-4)
When each
(ステップSa7〜12)
つぎに、カメラ11のキャリブレーション全体をステップSa7として参照しながら説明する。
(Steps Sa7-12)
Next, the entire calibration of the
まず、処理部3は、カメラ用端末12のうちの1台に、データリクエスト信号を送る(ステップSa8)。カメラ用端末12の動作は後述する。
First, the
ついで、処理部3は、当該カメラ用端末12から、サンプルデータと、内部標定パラメータとを受信する(ステップSa9)。
Next, the
ついで、処理部3の統合部31は、当該カメラ用端末12に接続されたカメラ11の座標系から、ある統合座標系への外部標定パラメータを決める(ステップSa10)。
Next, the
ついで、使用者は、処理部3を介して、カメラ11が画像を取得する領域(つまりカメラ画像と軌跡との座標系を対応させる領域)を設定する(ステップSa11)。この領域を以下「トラッキングエリア」と称することがある。また、使用者は、リアルタイムトラッキング及びオーバレイ表示を行うかどうかを設定する。ステップSa11が終了した後、次のカメラ11があれば、ステップSa8〜12を繰り返す(ステップSa12)。
Next, the user sets an area where the
(ステップSc3〜4)
カメラ用端末12は、処理部3からネットワーク4を介してデータリクエスト信号(ステップSa18)を受け取る(Sc3)。
(Steps Sc3-4)
The
ついで、カメラ用端末12は、カメラ11から、1ショット分の画像を取得する(ステップSc4)。この画像には、例えば、位置が既知である複数のマーカ51〜53またはキャリブレーションブロック6のいずれかを含む画像とする。キャリブレーションブロック6をキャリブレーションに用いる場合には、ブロック6の隅、辺、面の位置などの情報が利用される。カメラ用端末12は、この画像をサンプルデータとして制御部3に送る。さらに、制御部3は、カメラ11の内部標定パラメータを制御部3に送る(ステップSa9参照)。
Next, the
(ステップSa13)
操作者は、その他のトラッキングエリアを設定し、そのエリアにおけるリアルタイムトラッキングの要否を設定する。
(Step Sa13)
The operator sets another tracking area and sets whether or not real-time tracking is necessary in that area.
(ステップSa14)
ついで、処理部3は、各カメラ用端末12およびスキャナ用端末22に、制御開始信号を送る。
(Step Sa14)
Next, the
(ステップSb5〜10:軌跡取得部の動作)
軌跡取得部2のスキャナ用端末22は、計測開始信号を処理部3から受け取ると(ステップSb5)、レーザスキャナ21を動作させて、1スキャン分のデータを取得する(ステップSb6)。
(Steps Sb5 to 10: Operation of the trajectory acquisition unit)
When receiving the measurement start signal from the processing unit 3 (step Sb5), the
さらに、スキャナ用端末22は、1スキャン分のデータから背景データを生成する。つまり、初回の動作では、最初に取得したデータが背景データとなる。スキャナ用端末22は、その後のスキャン結果に基づいて、1時間毎に背景データを更新する(ステップSb7)。
Further, the
さらに、スキャナ用端末22は、その後のスキャンデータと背景との差分に基づいて、動体データを抽出する(ステップSb8)。
Further, the
ついで、スキャナ用端末22は、動体データ(つまり移動体の位置データ)を処理部3に送信する(ステップSb9)。
Next, the
処理部3から計測終了信号を受信するまで、スキャナ用端末22は、ステップSb6〜10を繰り返す(ステップSb10)。
Until the measurement end signal is received from the
(ステップSc5〜6:画像取得部の動作)
画像取得部1のカメラ用端末12は、処理部3から計測開始信号を受け取ると(ステップSc5)、カメラ11を動作させて、一定のフレームレートで動画像を記録する(ステップSc6)。取得した画像と移動体の軌跡との画像上の統合(いわゆるオーバレイ)は、後述する処理部3のステップSa15〜24の後に、画像取得部1において行われる(後述するステップSc7〜8)。
(Steps Sc5-6: Operation of Image Acquisition Unit)
When receiving the measurement start signal from the processing unit 3 (Step Sc5), the
(ステップSa15〜25:処理部の動作)
処理部3は、スキャナ用端末22から動体データを受け取り(ステップSa15)、記憶部33に保存する。ついで、処理部3の座標統合部31は、動体データを座標変換し、画像と同一の座標系に統合する(ステップSa16)。ついで、トラッキングエリア毎に、次のサブルーチン(ステップSa18〜24)により、軌跡を抽出する。
(Steps Sa15-25: Operation of the processing unit)
The
(ステップSa18〜24:軌跡抽出のサブルーチン)
まず、該当トラッキングエリアがリアルタイムトラッキングを行い、かつオーバレイ表示も行う場合は(ステップSa18)、処理部3の抽出部32は、該当トラッキングエリアにある移動体データを抽出し(ステップSa19)、これらを記憶部33に保存する。そうでない場合はステップSa24に進む。
(Steps Sa18-24: Trajectory extraction subroutine)
First, when the corresponding tracking area performs real-time tracking and overlay display (step Sa18), the
さらに、リアルタイムトラッキングを行う場合には(ステップSa20)、抽出部32は、該当する移動体データを用いて、移動体の移動軌跡を抽出する(ステップSa21)。抽出された軌跡情報も記憶部33に保存する。
Furthermore, when performing real-time tracking (step Sa20), the
さらに、オーバレイ表示を行う場合には(ステップSa22)、当該移動体を撮影したカメラ11のための端末12に、移動体データと軌跡データとを送る(ステップSa23)。次のトラッキングエリアがあれば(ステップSa24)、ステップSa18〜24を繰り返す。そうでなければステップSa25に進む。
Further, when overlay display is performed (step Sa22), the moving body data and the trajectory data are sent to the terminal 12 for the
(ステップSa25〜26)
ついで、軌跡測定の処理が終了すると(ステップSa25)、処理部3は、各カメラ用端末12及び各スキャナ用端末22に、計測終了信号を送る(ステップSa26)。軌跡測定処理の終了は、操作者が指定しても良いし、何らかの条件に基づいて自動的に行っても良い。
(Steps Sa25-26)
Next, when the trajectory measurement process is completed (step Sa25), the
(ステップSc7〜8)
カメラ用端末12は、移動体の軌跡データを処理部3から受信する(ステップSa23参照)。さらに、カメラ用端末12は、カメラ11から得た動画像と軌跡データとをオーバレイ表示する。
(Steps Sc7-8)
The
(ステップSb10)
スキャナ用端末22は、処理部3から計測終了信号を受け取ると、そこにおける処理を停止する。
(Step Sb10)
Upon receiving the measurement end signal from the
(ステップSc9)
同様に、カメラ用端末12は、処理部3から計測終了信号を受け取ると、そこにおける処理を停止する。
(Step Sc9)
Similarly, when receiving the measurement end signal from the
前記した処理においては、軌跡に対応した位置にある画像を切り出すことができる。例えば、移動体が移動中の状況を連続動画撮影した場合には、軌跡の鉛直線上に位置する差分データを移動体の画像として取り出すことができる。一般に、移動体の画像が重なっている場合には、画像処理だけでこれらを切り分けることは難しい。本実施形態によれば、軌跡情報を用いて移動体の画像を切り出すので、軌跡に対応する移動体の画像を、比較的正確に抽出することが可能となる。なお、移動体が画像撮影の間、静止状態を続けていたり、画像が静止画像撮影の結果である場合には、その画像を切り出す場合、たとえば移動体が歩行者であれば、移動体は軌跡の鉛直線上に存在すると仮定して、身長に対応する所定の高さまでの画像を切り出せばよい。 In the processing described above, an image at a position corresponding to the trajectory can be cut out. For example, in the case where a moving image is captured while the moving body is moving, difference data located on the vertical line of the trajectory can be extracted as an image of the moving body. In general, when images of moving objects are overlapped, it is difficult to separate them only by image processing. According to this embodiment, since the image of the moving object is cut out using the trajectory information, the image of the moving object corresponding to the trajectory can be extracted relatively accurately. Note that if the moving body continues to be stationary during image shooting, or if the image is the result of still image shooting, when the image is cut out, for example, if the moving body is a pedestrian, the moving body And an image up to a predetermined height corresponding to the height may be cut out.
従来の方法では、多数の動画像を用いて移動体を切り出しているので、多数のカメラが必要になってしまう。これに対して、本実施形態の方法によれば、カメラの台数が少なくても移動体の画像を切り出すことができる。また、設置箇所の制約も少ない。したがって、この実施形態の装置によれば、カメラの台数や配置の自由度を高めることができるという利点がある。 In the conventional method, since a moving body is cut out using a large number of moving images, a large number of cameras are required. On the other hand, according to the method of the present embodiment, an image of a moving body can be cut out even if the number of cameras is small. Moreover, there are few restrictions on an installation location. Therefore, according to the apparatus of this embodiment, there is an advantage that the number of cameras and the degree of freedom of arrangement can be increased.
また、本実施形態においては、軌跡に対応した、時系列で変化する位置および向きに基づいて、求める移動体画像の向き(正面画像、側面画像など)に対して、撮影条件の最も良いカメラ及び撮影時刻を選定し、選定された時刻における軌跡の位置にある選定されたカメラ画像を切り出すことができる。なお、良い撮影条件の判断基準は、例えば、(1)求める移動体画像の向きと最も近い、(2)カメラが該当軌跡を撮影する光軸にほかの軌跡がない、ことである。 Further, in the present embodiment, the camera with the best shooting conditions for the orientation of the moving body image (front image, side image, etc.) to be obtained based on the position and orientation that change in time series corresponding to the trajectory The photographing time can be selected, and the selected camera image at the position of the locus at the selected time can be cut out. Note that the criteria for determining good imaging conditions are, for example, (1) the closest to the desired moving body image orientation, and (2) that there is no other trajectory on the optical axis at which the camera captures the trajectory.
本実施形態の装置を用いた実施例を以下に説明する。 An example using the apparatus of this embodiment will be described below.
(実施例)
本実施形態の装置によれば、軌跡に対応した移動体の画像を切り出すことができる。このとき、軌跡情報を用いると、移動体の向きが判る。したがって、切り出された画像に、移動体の向きの属性を付して、記憶部33に保存しておく。すると、移動体の画像を、正面画像、側面画像などの種類に分類して保存しておくことができる。移動体が静止している場合は、向き不明として保存しておけばよい。
(Example)
According to the apparatus of the present embodiment, it is possible to cut out an image of a moving body corresponding to a trajectory. At this time, if the trajectory information is used, the direction of the moving body can be determined. Therefore, the orientation of the moving object is attached to the cut out image and stored in the
このように属性を付した画像は、例えば次のように使用される。
(軌跡が途絶えた場合の移動体の同一性判定)
レーザスキャナ21の計測領域の外、あるいは他の移動体の影に移動体が移動して、軌跡が途絶えることがある。その後再び軌跡が現れた場合に、新しい軌跡に対応する画像と、前記のように保存した画像とを、属性(向き)情報も加味して照合する。これにより、移動体の同一性の判定精度を向上させることができる。
(以前に当該領域に進入した移動体との同一性判定)
対象エリアに進入した軌跡に対応する移動体の画像と、以前に保存してある画像とを、属性(向き)情報も加味して照合する。これにより、進入した移動体が、過去にもその領域に進入したことがあるかどうかを、精度良く判定できる。すると、同じ領域に何度も進入する者を特定しやすくなり、不審者検出に有効となる。
An image with such attributes is used as follows, for example.
(Identification of moving objects when the trajectory stops)
The moving object may move outside the measurement area of the
(Identity determination with a mobile that has previously entered the area)
The moving body image corresponding to the trajectory that has entered the target area and the previously stored image are collated in consideration of attribute (orientation) information. Thereby, it is possible to accurately determine whether the mobile body that has entered has entered the area in the past. Then, it becomes easy to specify a person who enters the same area many times, and it is effective for suspicious person detection.
なお、前記実施形態の記載は単なる一例に過ぎず、本発明に必須の構成を示したものではない。各部の構成は、本発明の趣旨を達成できるものであれば、上記に限らない。
さらに、前記した機能ブロックどうしは、複合して一つの機能ブロックに集約されても良い。また、一つの機能ブロックの機能が複数の機能ブロックの協働により実現されても良い。さらに、前記した機能ブロックは、機能として存在していればよく、機能実現のための手段としては、ハードウエア、コンピュータソフトウエア、これらの組み合わせなどの、任意のものを用いることができる。一つの機能ブロックが、物理的に離散した位置に配置されたハードウエアやコンピュータソフトウエアの協働により実現されてもよい。
The description of the embodiment is merely an example, and does not indicate a configuration essential to the present invention. The configuration of each part is not limited to the above as long as the gist of the present invention can be achieved.
Furthermore, the above-described functional blocks may be combined into a single functional block. Further, the function of one functional block may be realized by cooperation of a plurality of functional blocks. Furthermore, the functional blocks described above only have to exist as functions, and any means such as hardware, computer software, or a combination thereof can be used as means for realizing the functions. One functional block may be realized by cooperation of hardware and computer software arranged at physically discrete positions.
1 画像取得部
11 カメラ
12 カメラ用端末
2 軌跡取得部
21 レーザスキャナ(センサ)
22 スキャナ用端末(センサ用端末)
3 処理部
31 統合部
32 抽出部
33 記憶部
4 ネットワーク
DESCRIPTION OF SYMBOLS 1
22 Scanner terminal (sensor terminal)
3 Processing
Claims (9)
前記画像取得部は、対象領域の画像を取得する構成となっており、
前記軌跡取得部は、移動体の軌跡を取得する構成となっており、
前記処理部は、
(1)前記画像取得部で取得される画像の座標系と、前記軌跡取得部で取得される軌跡の座標系とを統合する機能、および
(2)前記軌跡上に位置する移動体の画像を前記画像取得部で取得された画像から抽出する機能
を備えていることを特徴とする画像抽出装置。 An image acquisition unit, a trajectory acquisition unit, and a processing unit;
The image acquisition unit is configured to acquire an image of the target area,
The locus acquisition unit is configured to acquire a locus of a moving object,
The processor is
(1) a function of integrating the coordinate system of the image acquired by the image acquisition unit and the coordinate system of the trajectory acquired by the trajectory acquisition unit; and (2) an image of a moving body located on the trajectory. An image extraction apparatus having a function of extracting from an image acquired by the image acquisition unit.
前記統合部は、画像取得装置で取得される移動体の画像における座標系と、軌跡取得装置で取得される移動体の軌跡における座標系とを統合する構成となっており、
前記抽出部は、前記軌跡上に位置する移動体の画像を前記画像取得部で取得された画像から抽出する構成となっていることを特徴とする画像処理装置。 An integration unit, an extraction unit, and a storage unit;
The integration unit is configured to integrate a coordinate system in the image of the moving object acquired by the image acquisition device and a coordinate system in the locus of the moving object acquired by the locus acquisition device,
The image processing apparatus, wherein the extraction unit is configured to extract an image of a moving body located on the trajectory from an image acquired by the image acquisition unit.
(1)対象領域における画像を取得するステップ;
(2)移動体の軌跡を取得するステップ;
(3)取得される画像の座標系と、取得される軌跡の座標系とを統合するステップ;
(4)前記軌跡上に位置する移動体の画像を、前記対象領域における画像から抽出するステップ。 An image extraction method characterized by comprising the following steps:
(1) obtaining an image in the target region;
(2) obtaining a trajectory of the moving object;
(3) integrating the coordinate system of the acquired image and the coordinate system of the acquired trajectory;
(4) A step of extracting an image of the moving body located on the locus from the image in the target area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004175818A JP4590546B2 (en) | 2004-06-14 | 2004-06-14 | Image extraction device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004175818A JP4590546B2 (en) | 2004-06-14 | 2004-06-14 | Image extraction device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005352988A true JP2005352988A (en) | 2005-12-22 |
JP4590546B2 JP4590546B2 (en) | 2010-12-01 |
Family
ID=35587399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004175818A Expired - Lifetime JP4590546B2 (en) | 2004-06-14 | 2004-06-14 | Image extraction device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4590546B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI392952B (en) * | 2009-09-03 | 2013-04-11 | Nat Univ Tsing Hua | Imaging system with multiple perspective angles and method thereof |
JP2020030190A (en) * | 2018-08-24 | 2020-02-27 | 独立行政法人日本スポーツ振興センター | Position tracking system and position tracking method |
CN112136314A (en) * | 2018-05-18 | 2020-12-25 | 高途乐公司 | System and method for stabilizing video |
US11979662B2 (en) | 2018-09-19 | 2024-05-07 | Gopro, Inc. | Systems and methods for stabilizing videos |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07160856A (en) * | 1993-12-01 | 1995-06-23 | Mitsui Constr Co Ltd | Locus acquiring device of moving object |
JP2002117403A (en) * | 2000-10-05 | 2002-04-19 | Fuji Xerox Co Ltd | Image processor and image processing method |
JP2002208073A (en) * | 2001-01-10 | 2002-07-26 | Secom Co Ltd | Intrusion monitor |
-
2004
- 2004-06-14 JP JP2004175818A patent/JP4590546B2/en not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07160856A (en) * | 1993-12-01 | 1995-06-23 | Mitsui Constr Co Ltd | Locus acquiring device of moving object |
JP2002117403A (en) * | 2000-10-05 | 2002-04-19 | Fuji Xerox Co Ltd | Image processor and image processing method |
JP2002208073A (en) * | 2001-01-10 | 2002-07-26 | Secom Co Ltd | Intrusion monitor |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI392952B (en) * | 2009-09-03 | 2013-04-11 | Nat Univ Tsing Hua | Imaging system with multiple perspective angles and method thereof |
CN112136314A (en) * | 2018-05-18 | 2020-12-25 | 高途乐公司 | System and method for stabilizing video |
JP2020030190A (en) * | 2018-08-24 | 2020-02-27 | 独立行政法人日本スポーツ振興センター | Position tracking system and position tracking method |
US11979662B2 (en) | 2018-09-19 | 2024-05-07 | Gopro, Inc. | Systems and methods for stabilizing videos |
Also Published As
Publication number | Publication date |
---|---|
JP4590546B2 (en) | 2010-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4379493B2 (en) | Imaging apparatus, information processing apparatus, information processing method, and computer program | |
KR100729280B1 (en) | Iris Identification System and Method using Mobile Device with Stereo Camera | |
JP4864502B2 (en) | Imaging apparatus and imaging condition guide method | |
US10397471B2 (en) | Image processing apparatus, location information adding method | |
US20090232417A1 (en) | Method and Apparatus of Annotating Digital Images with Data | |
EP3358480B1 (en) | Drawing creation device and drawing creation method | |
US20130182010A2 (en) | Device for capturing and displaying images of objects, in particular digital binoculars, digital camera or digital video camera | |
US9294682B2 (en) | Information processing device, information processing method, and program for light source estimation | |
CN103945109A (en) | Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus | |
JP2019135483A (en) | Three-dimensional image processing apparatus and method | |
CN102202176A (en) | Camera with function of automatically setting shooting conditions and shooting method | |
KR101038918B1 (en) | Apparatus, system and method for generating vector information of image | |
JPWO2011096343A1 (en) | Shooting position proposal system, shooting position proposal device, shooting position proposal method, and shooting position proposal program | |
JP4590546B2 (en) | Image extraction device | |
JP6216353B2 (en) | Information identification system, information identification method, and program thereof | |
KR20180100890A (en) | Method and apparatus for remote multi biometric | |
JP5543870B2 (en) | Camera, camera control method, and program | |
JP5428821B2 (en) | Analysis device, imaging device, server device, analysis method, program, and analysis system | |
JP2023169914A (en) | Image processing device, image processing method, and computer program | |
JP5332497B2 (en) | Imaging apparatus and image transfer method | |
JP6168926B2 (en) | Information processing apparatus, display system, and control method | |
JP7027171B2 (en) | Information processing equipment, information processing methods and programs | |
JP7207586B2 (en) | Imaging control device and imaging system | |
JP7124411B2 (en) | Imaging control device and imaging system | |
JP2008153998A (en) | Electronic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070405 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100506 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100817 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4590546 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
EXPY | Cancellation because of completion of term |