JP2005352988A - Image extracting apparatus - Google Patents

Image extracting apparatus Download PDF

Info

Publication number
JP2005352988A
JP2005352988A JP2004175818A JP2004175818A JP2005352988A JP 2005352988 A JP2005352988 A JP 2005352988A JP 2004175818 A JP2004175818 A JP 2004175818A JP 2004175818 A JP2004175818 A JP 2004175818A JP 2005352988 A JP2005352988 A JP 2005352988A
Authority
JP
Japan
Prior art keywords
image
trajectory
acquisition unit
unit
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004175818A
Other languages
Japanese (ja)
Other versions
JP4590546B2 (en
Inventor
Ryosuke Shibazaki
亮介 柴崎
Kisei Cho
卉菁 趙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2004175818A priority Critical patent/JP4590546B2/en
Publication of JP2005352988A publication Critical patent/JP2005352988A/en
Application granted granted Critical
Publication of JP4590546B2 publication Critical patent/JP4590546B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus and method for extracting an image of a moving object, corresponding to a trajectory. <P>SOLUTION: The image extraction apparatus, comprising an image capture unit 1 for capturing an image from a target area, a trajectory capture unit 2 for capturing the trajectory of the moving object, a processing unit 3 for having the functions: (1) integrating the trajectory captured by the image capture unit 1 with the trajectory captured by the trajectory capture unit 2 and (2) extracting the image of the moving object, located on the trajectory from the image captured by the image capture unit 1; while the image capture unit 1 the trajectory capture unit 2 and the processing unit 3 are connected by a network 4. The image capture unit 1 is equipped with a camera 11 and a terminal for camera 12, and the trajectory capture unit 2 is equipped with a laser scanner 21 and a terminal for a scanner 22. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ある領域内の画像から移動体の画像を抽出するための画像抽出装置に関するものである。   The present invention relates to an image extraction apparatus for extracting an image of a moving object from an image in a certain area.

下記非特許文献1〜3に示されるように、本発明者らは、移動体(例えば歩行者)の移動軌跡を抽出する技術を提案している。この技術によれば、複数のレーザスキャナ(レーザセンサ)を用いることにより、精度良く軌跡を抽出することができる。   As shown in the following Non-Patent Documents 1 to 3, the present inventors have proposed a technique for extracting a moving locus of a moving body (for example, a pedestrian). According to this technique, a trajectory can be extracted with high accuracy by using a plurality of laser scanners (laser sensors).

ところで、異なる時間に取得された軌跡に対応する移動体の同一性を判定するためには、移動体の画像と軌跡とを対応させることが好ましい。
中村克行、趙卉菁、柴崎亮介、坂本圭司、大鋸朋生、鈴川尚毅、マルチレーザスキャナを用いた歩行者の抽出、第10回画像センシングシンポジウム予稿集、2004 H. Zhao, R. Shibasaki, "Pedestrian Tracking using Multiple Laser Range Scanners ", Proc. of Computers on Urban Planning and Urban Management, May. 2003 Sendai, Japan. H. Zhao, R. Shibasaki, N.Ishihara, "Pedestrian Tracking using Single-row Laser Range Scanners ", Proc. of IAPR Workshop on Machine Vision Application, Dec. 2002 Nara, Japan.
By the way, in order to determine the identity of the moving object corresponding to the trajectory acquired at different times, it is preferable to associate the image of the moving object with the trajectory.
Katsuyuki Nakamura, Tsuji, Ryosuke Shibasaki, Koji Sakamoto, Yayoi Osogori, Naosuke Suzukawa, Extraction of pedestrians using a multi-laser scanner, Proc. Of the 10th Image Sensing Symposium, 2004 H. Zhao, R. Shibasaki, "Pedestrian Tracking using Multiple Laser Range Scanners", Proc. Of Computers on Urban Planning and Urban Management, May. 2003 Sendai, Japan. H. Zhao, R. Shibasaki, N. Ishihara, "Pedestrian Tracking using Single-row Laser Range Scanners", Proc. Of IAPR Workshop on Machine Vision Application, Dec. 2002 Nara, Japan.

本発明は、このような事情に鑑みてなされたものである。本発明の目的は、軌跡に対応する移動体の画像を抽出するための装置および方法を提供することである。   The present invention has been made in view of such circumstances. An object of the present invention is to provide an apparatus and method for extracting an image of a moving object corresponding to a trajectory.

本発明に係る画像抽出装置は、画像取得部と、軌跡取得部と、処理部とを備えている。前記画像取得部は、対象領域の画像を取得する構成となっている。前記軌跡取得部は、移動体の軌跡を取得する構成となっている。前記処理部は、(1)前記画像取得部で取得される画像の座標系と、前記軌跡取得部で取得される軌跡の座標系とを統合する機能、および(2)前記軌跡上に位置する移動体の画像を前記画像取得部で取得された画像から抽出する機能を備えている。   An image extraction apparatus according to the present invention includes an image acquisition unit, a trajectory acquisition unit, and a processing unit. The image acquisition unit is configured to acquire an image of the target area. The locus acquisition unit is configured to acquire a locus of a moving object. The processing unit is (1) a function of integrating the coordinate system of the image acquired by the image acquisition unit and the coordinate system of the trajectory acquired by the trajectory acquisition unit, and (2) located on the trajectory. A function of extracting an image of the moving body from the image acquired by the image acquisition unit is provided.

前記画像取得部と前記軌跡取得部と前記処理部とは、ネットワークにより接続されていてもよい。   The image acquisition unit, the trajectory acquisition unit, and the processing unit may be connected by a network.

前記画像取得部は、カメラとカメラ用端末とを備えていてもよい。   The image acquisition unit may include a camera and a camera terminal.

前記軌跡取得部は、レーザスキャナとスキャナ用端末とを備えていてもよい。   The trajectory acquisition unit may include a laser scanner and a scanner terminal.

前記軌跡取得部は、水平にスキャンしてレンジ画像を得るセンサとセンサ用端末とを備えていてもよい。前記センサは、例えばレーザスキャナであり、前記センサ用端末は、例えばスキャナ用端末である。   The trajectory acquisition unit may include a sensor that scans horizontally to obtain a range image and a sensor terminal. The sensor is, for example, a laser scanner, and the sensor terminal is, for example, a scanner terminal.

本発明に係る画像処理装置は、統合部と抽出部と記憶部とを備えている。前記統合部は、画像取得装置で取得される移動体の画像における座標系と、軌跡取得装置で取得される移動体の軌跡における座標系とを統合する構成となっている。前記抽出部は、前記軌跡上に位置する移動体の画像を前記画像取得部で取得された画像から抽出する構成となっている。   An image processing apparatus according to the present invention includes an integration unit, an extraction unit, and a storage unit. The integration unit is configured to integrate the coordinate system in the image of the moving object acquired by the image acquisition device and the coordinate system in the locus of the moving object acquired by the locus acquisition device. The extraction unit is configured to extract an image of a moving body located on the trajectory from the image acquired by the image acquisition unit.

前記抽出部は、前記軌跡から推測される前記移動体の向きに対応する属性を前記抽出された移動体の画像に付して、前記移動体の画像を前記記憶部に保存する構成であってもよい。   The extraction unit is configured to attach an attribute corresponding to the orientation of the moving body estimated from the trajectory to the extracted moving body image and store the image of the moving body in the storage unit. Also good.

本発明に係る画像抽出方法は、以下のステップを備えている:
(1)対象領域における画像を取得するステップ;
(2)移動体の軌跡を取得するステップ;
(3)取得される画像の座標系と、取得される軌跡の座標系とを統合するステップ;
(4)前記軌跡上に位置する移動体の画像を、前記対象領域における画像から抽出するステップ。
The image extraction method according to the present invention comprises the following steps:
(1) obtaining an image in the target region;
(2) obtaining a trajectory of the moving object;
(3) integrating the coordinate system of the acquired image and the coordinate system of the acquired trajectory;
(4) A step of extracting an image of the moving body located on the locus from the image in the target area.

本発明によれば、軌跡に対応する移動体の画像を、比較的正確に抽出することが可能となる。   According to the present invention, it is possible to extract a moving body image corresponding to a trajectory relatively accurately.

(実施形態の構成)
以下、本発明の一実施形態に係る画像抽出装置を、添付図面を参照して説明する。この装置は、画像取得部1と、軌跡取得部2と、処理部3とを主体として構成されている(図1参照)。これらは、ネットワーク4に接続されており、これを介して、相互に情報の伝達を行うことができるようになっている。
(Configuration of the embodiment)
Hereinafter, an image extraction apparatus according to an embodiment of the present invention will be described with reference to the accompanying drawings. This apparatus is mainly composed of an image acquisition unit 1, a trajectory acquisition unit 2, and a processing unit 3 (see FIG. 1). These are connected to the network 4 and can transmit information to each other through the network 4.

画像取得部1は、複数のカメラ11と、これらのカメラ11にそれぞれ接続されたカメラ用端末12とを備えている(図2参照)。カメラ11は、通常は動画用カメラであるが、静止画用カメラであっても良い。カメラ11は、カメラ用端末12からの制御信号に基づいて、対象領域の画像を取得する構成となっている。対象領域は、使用者により適宜に設定される(後述)。カメラ用端末12は、コンピュータにより構成されている。カメラ用端末12の機能は、本実施形態の動作の説明において詳述する。   The image acquisition unit 1 includes a plurality of cameras 11 and camera terminals 12 connected to the cameras 11 (see FIG. 2). The camera 11 is usually a moving image camera, but may be a still image camera. The camera 11 is configured to acquire an image of the target area based on a control signal from the camera terminal 12. The target area is appropriately set by the user (described later). The camera terminal 12 is configured by a computer. The function of the camera terminal 12 will be described in detail in the description of the operation of the present embodiment.

軌跡取得部2は、複数のレーザスキャナ21と、これらのスキャナ21にそれぞれ接続されたスキャナ用端末22とを備えている(図2参照)。レーザスキャナ21は、水平方向にスキャンすることにより、対象物までの距離を測定して、レンジ画像を得ることができるものである。これにより、軌跡取得部2は、移動体の軌跡を取得できるようになっている。軌跡取得部2の構成は、前記した非特許文献に記載された軌跡取得装置と同様なので、詳細な説明を省略する。なお、レーザスキャナに代えて、レンジ画像を得られる他のセンサ(例えばUWB(Ultra Wide Band)を用いたレーダ、ミリ波レーダなど)を用いることもできる。   The locus acquisition unit 2 includes a plurality of laser scanners 21 and scanner terminals 22 connected to the scanners 21 (see FIG. 2). The laser scanner 21 can obtain a range image by measuring the distance to the object by scanning in the horizontal direction. Thereby, the locus | trajectory acquisition part 2 can acquire the locus | trajectory of a moving body. Since the configuration of the trajectory acquisition unit 2 is the same as that of the trajectory acquisition device described in the non-patent document, detailed description thereof is omitted. Instead of the laser scanner, other sensors that can obtain a range image (for example, radar using UWB (Ultra Wide Band), millimeter wave radar, etc.) can be used.

処理部3は、コンピュータ(いわゆるサーバ)により構成されている。処理部3は、コンピュータハードウエアおよびコンピュータソフトウエアにより、機能要素として、座標統合部31と抽出部32と記憶部33とを備えたものとなっている。座標統合部31は、画像取得部1で取得される画像の座標系と、軌跡取得部2で取得される軌跡の座標系とを統合する機能を有している。なお、この実施形態では、取得された画像の統合は、画像取得部1で行っている。もちろん、画像の統合を処理部3で行っても良い。抽出部32は、軌跡上に位置する移動体の画像を、画像取得部1で取得された画像から抽出する機能を有している。処理部3の各機能は、本実施形態の動作の説明において詳述する。   The processing unit 3 is configured by a computer (so-called server). The processing unit 3 includes a coordinate integration unit 31, an extraction unit 32, and a storage unit 33 as functional elements using computer hardware and computer software. The coordinate integration unit 31 has a function of integrating the coordinate system of the image acquired by the image acquisition unit 1 and the coordinate system of the trajectory acquired by the trajectory acquisition unit 2. In this embodiment, the acquired images are integrated by the image acquisition unit 1. Of course, the processing unit 3 may perform image integration. The extraction unit 32 has a function of extracting an image of the moving body located on the trajectory from the image acquired by the image acquisition unit 1. Each function of the processing unit 3 will be described in detail in the description of the operation of the present embodiment.

(実施形態の動作)
次に、本実施形態に係る画像抽出装置の動作を説明する。この実施形態では、画像取得部1のカメラ11と、軌跡取得部2のレーザスキャナ21とが、所定の位置に配置されている(図3参照)。この状態では、カメラ11は、操作者が設定する領域における画像を取得できるようになっている。また、レーザスキャナ21は、操作者が設定する領域における移動体の位置を取得できるようになっている。なお、図4には、キャリブレーション動作(後述)のためにマーカ51,52,53およびキャリブレーションブロック6を対象領域内に配置した状態を示している。
(Operation of the embodiment)
Next, the operation of the image extraction apparatus according to this embodiment will be described. In this embodiment, the camera 11 of the image acquisition unit 1 and the laser scanner 21 of the trajectory acquisition unit 2 are arranged at predetermined positions (see FIG. 3). In this state, the camera 11 can acquire an image in an area set by the operator. The laser scanner 21 can acquire the position of the moving body in the region set by the operator. FIG. 4 shows a state in which the markers 51, 52, 53 and the calibration block 6 are arranged in the target area for a calibration operation (described later).

(ステップSa1〜2)
図5に示されるように、まず、処理部3は、カメラ用端末12およびスキャナ用端末22(図においてはクライアントと総称)に同期信号を送る。
(Step Sa1-2)
As shown in FIG. 5, first, the processing unit 3 sends a synchronization signal to the camera terminal 12 and the scanner terminal 22 (generically referred to as a client in the figure).

(ステップSb1〜2およびSc1〜2)
図8に示されるように、レーザ用端末22は、同期信号を受信すると、時刻同期を行う。同様に、図9に示されるように、カメラ用端末12は、同期信号を受信すると、時刻同期を行う。このように時刻同期を行うことにより、各端末で取得されたデータの取得時間を一致させることができる。
(Steps Sb1-2 and Sc1-2)
As shown in FIG. 8, when the laser terminal 22 receives the synchronization signal, it performs time synchronization. Similarly, as shown in FIG. 9, when the camera terminal 12 receives the synchronization signal, it performs time synchronization. By performing time synchronization in this way, it is possible to match the acquisition times of data acquired at each terminal.

(ステップSa3〜6)
この実施形態の説明では、レーザスキャナ21のキャリブレーション全体を図5のステップSa3で参照する。ステップSa3は、ステップSa4〜6を有している。ステップSa3において、まず、処理部3は、各スキャナ用端末22にリクエスト信号を送る(ステップSa4)。各スキャナ用端末22の動作は後述する。
(Steps Sa3-6)
In the description of this embodiment, the entire calibration of the laser scanner 21 is referred to in step Sa3 in FIG. Step Sa3 has steps Sa4-6. In step Sa3, first, the processing unit 3 sends a request signal to each scanner terminal 22 (step Sa4). The operation of each scanner terminal 22 will be described later.

各スキャナ用端末22からサンプルデータを受信すると(ステップSa5)、処理部3の統合部31は、サンプルデータをマッチングして、各レーザスキャナ21の座標系から、ある統合座標系への変換パラメータを求める(ステップSa6)。   When sample data is received from each scanner terminal 22 (step Sa5), the integration unit 31 of the processing unit 3 matches the sample data, and converts conversion parameters from the coordinate system of each laser scanner 21 to a certain integrated coordinate system. Obtain (step Sa6).

(ステップSb3〜4)
各レーザ用端末22は、処理部3からリクエスト信号を受け取ると(ステップSb3)、各レーザスキャナ21により、既知移動体を1回スキャンして、サンプルデータを取得し、このサンプルデータを処理部3に送る(ステップSb4)。サンプルデータで取得された移動体の形状や位置や既知なので、サンプルデータを用いることにより、座標系を変換ないし統合するパラメータを得ることができる。
(Steps Sb3-4)
When each laser terminal 22 receives a request signal from the processing unit 3 (step Sb3), each laser scanner 21 scans a known moving body once to acquire sample data. (Step Sb4). Since the shape and position of the moving object acquired from the sample data are known, parameters for converting or integrating the coordinate system can be obtained by using the sample data.

(ステップSa7〜12)
つぎに、カメラ11のキャリブレーション全体をステップSa7として参照しながら説明する。
(Steps Sa7-12)
Next, the entire calibration of the camera 11 will be described with reference to step Sa7.

まず、処理部3は、カメラ用端末12のうちの1台に、データリクエスト信号を送る(ステップSa8)。カメラ用端末12の動作は後述する。   First, the processing unit 3 sends a data request signal to one of the camera terminals 12 (step Sa8). The operation of the camera terminal 12 will be described later.

ついで、処理部3は、当該カメラ用端末12から、サンプルデータと、内部標定パラメータとを受信する(ステップSa9)。   Next, the processing unit 3 receives sample data and internal orientation parameters from the camera terminal 12 (step Sa9).

ついで、処理部3の統合部31は、当該カメラ用端末12に接続されたカメラ11の座標系から、ある統合座標系への外部標定パラメータを決める(ステップSa10)。   Next, the integration unit 31 of the processing unit 3 determines external orientation parameters from the coordinate system of the camera 11 connected to the camera terminal 12 to a certain integrated coordinate system (step Sa10).

ついで、使用者は、処理部3を介して、カメラ11が画像を取得する領域(つまりカメラ画像と軌跡との座標系を対応させる領域)を設定する(ステップSa11)。この領域を以下「トラッキングエリア」と称することがある。また、使用者は、リアルタイムトラッキング及びオーバレイ表示を行うかどうかを設定する。ステップSa11が終了した後、次のカメラ11があれば、ステップSa8〜12を繰り返す(ステップSa12)。   Next, the user sets an area where the camera 11 acquires an image (that is, an area that associates the coordinate system of the camera image and the locus) via the processing unit 3 (step Sa11). Hereinafter, this region may be referred to as a “tracking area”. The user also sets whether to perform real-time tracking and overlay display. After step Sa11 is completed, if there is a next camera 11, steps Sa8 to 12 are repeated (step Sa12).

(ステップSc3〜4)
カメラ用端末12は、処理部3からネットワーク4を介してデータリクエスト信号(ステップSa18)を受け取る(Sc3)。
(Steps Sc3-4)
The camera terminal 12 receives a data request signal (step Sa18) from the processing unit 3 via the network 4 (Sc3).

ついで、カメラ用端末12は、カメラ11から、1ショット分の画像を取得する(ステップSc4)。この画像には、例えば、位置が既知である複数のマーカ51〜53またはキャリブレーションブロック6のいずれかを含む画像とする。キャリブレーションブロック6をキャリブレーションに用いる場合には、ブロック6の隅、辺、面の位置などの情報が利用される。カメラ用端末12は、この画像をサンプルデータとして制御部3に送る。さらに、制御部3は、カメラ11の内部標定パラメータを制御部3に送る(ステップSa9参照)。   Next, the camera terminal 12 acquires an image for one shot from the camera 11 (step Sc4). This image is, for example, an image including any of the plurality of markers 51 to 53 or the calibration block 6 whose positions are known. When the calibration block 6 is used for calibration, information such as the corners, sides, and surface positions of the block 6 is used. The camera terminal 12 sends this image to the control unit 3 as sample data. Furthermore, the control unit 3 sends the internal orientation parameters of the camera 11 to the control unit 3 (see step Sa9).

(ステップSa13)
操作者は、その他のトラッキングエリアを設定し、そのエリアにおけるリアルタイムトラッキングの要否を設定する。
(Step Sa13)
The operator sets another tracking area and sets whether or not real-time tracking is necessary in that area.

(ステップSa14)
ついで、処理部3は、各カメラ用端末12およびスキャナ用端末22に、制御開始信号を送る。
(Step Sa14)
Next, the processing unit 3 sends a control start signal to each camera terminal 12 and scanner terminal 22.

(ステップSb5〜10:軌跡取得部の動作)
軌跡取得部2のスキャナ用端末22は、計測開始信号を処理部3から受け取ると(ステップSb5)、レーザスキャナ21を動作させて、1スキャン分のデータを取得する(ステップSb6)。
(Steps Sb5 to 10: Operation of the trajectory acquisition unit)
When receiving the measurement start signal from the processing unit 3 (step Sb5), the scanner terminal 22 of the trajectory acquisition unit 2 operates the laser scanner 21 to acquire data for one scan (step Sb6).

さらに、スキャナ用端末22は、1スキャン分のデータから背景データを生成する。つまり、初回の動作では、最初に取得したデータが背景データとなる。スキャナ用端末22は、その後のスキャン結果に基づいて、1時間毎に背景データを更新する(ステップSb7)。   Further, the scanner terminal 22 generates background data from data for one scan. That is, in the first operation, the first acquired data becomes the background data. The scanner terminal 22 updates the background data every hour based on the subsequent scan result (step Sb7).

さらに、スキャナ用端末22は、その後のスキャンデータと背景との差分に基づいて、動体データを抽出する(ステップSb8)。   Further, the scanner terminal 22 extracts moving object data based on the difference between the subsequent scan data and the background (step Sb8).

ついで、スキャナ用端末22は、動体データ(つまり移動体の位置データ)を処理部3に送信する(ステップSb9)。   Next, the scanner terminal 22 transmits moving body data (that is, position data of the moving body) to the processing unit 3 (step Sb9).

処理部3から計測終了信号を受信するまで、スキャナ用端末22は、ステップSb6〜10を繰り返す(ステップSb10)。   Until the measurement end signal is received from the processing unit 3, the scanner terminal 22 repeats Steps Sb6 to 10 (Step Sb10).

(ステップSc5〜6:画像取得部の動作)
画像取得部1のカメラ用端末12は、処理部3から計測開始信号を受け取ると(ステップSc5)、カメラ11を動作させて、一定のフレームレートで動画像を記録する(ステップSc6)。取得した画像と移動体の軌跡との画像上の統合(いわゆるオーバレイ)は、後述する処理部3のステップSa15〜24の後に、画像取得部1において行われる(後述するステップSc7〜8)。
(Steps Sc5-6: Operation of Image Acquisition Unit)
When receiving the measurement start signal from the processing unit 3 (Step Sc5), the camera terminal 12 of the image acquisition unit 1 operates the camera 11 to record a moving image at a constant frame rate (Step Sc6). Integration (so-called overlay) of the acquired image and the trajectory of the moving object on the image is performed in the image acquisition unit 1 after steps Sa15 to 24 of the processing unit 3 described later (steps Sc7 to 8 described later).

(ステップSa15〜25:処理部の動作)
処理部3は、スキャナ用端末22から動体データを受け取り(ステップSa15)、記憶部33に保存する。ついで、処理部3の座標統合部31は、動体データを座標変換し、画像と同一の座標系に統合する(ステップSa16)。ついで、トラッキングエリア毎に、次のサブルーチン(ステップSa18〜24)により、軌跡を抽出する。
(Steps Sa15-25: Operation of the processing unit)
The processing unit 3 receives moving object data from the scanner terminal 22 (step Sa15) and stores it in the storage unit 33. Next, the coordinate integration unit 31 of the processing unit 3 performs coordinate conversion of the moving object data and integrates it into the same coordinate system as the image (step Sa16). Next, for each tracking area, a trajectory is extracted by the following subroutine (steps Sa18 to 24).

(ステップSa18〜24:軌跡抽出のサブルーチン)
まず、該当トラッキングエリアがリアルタイムトラッキングを行い、かつオーバレイ表示も行う場合は(ステップSa18)、処理部3の抽出部32は、該当トラッキングエリアにある移動体データを抽出し(ステップSa19)、これらを記憶部33に保存する。そうでない場合はステップSa24に進む。
(Steps Sa18-24: Trajectory extraction subroutine)
First, when the corresponding tracking area performs real-time tracking and overlay display (step Sa18), the extraction unit 32 of the processing unit 3 extracts mobile body data in the corresponding tracking area (step Sa19). Save in the storage unit 33. Otherwise, the process proceeds to step Sa24.

さらに、リアルタイムトラッキングを行う場合には(ステップSa20)、抽出部32は、該当する移動体データを用いて、移動体の移動軌跡を抽出する(ステップSa21)。抽出された軌跡情報も記憶部33に保存する。   Furthermore, when performing real-time tracking (step Sa20), the extraction part 32 extracts the movement locus | trajectory of a moving body using applicable moving body data (step Sa21). The extracted trajectory information is also stored in the storage unit 33.

さらに、オーバレイ表示を行う場合には(ステップSa22)、当該移動体を撮影したカメラ11のための端末12に、移動体データと軌跡データとを送る(ステップSa23)。次のトラッキングエリアがあれば(ステップSa24)、ステップSa18〜24を繰り返す。そうでなければステップSa25に進む。   Further, when overlay display is performed (step Sa22), the moving body data and the trajectory data are sent to the terminal 12 for the camera 11 that has captured the moving body (step Sa23). If there is a next tracking area (step Sa24), steps Sa18 to 24 are repeated. Otherwise, the process proceeds to step Sa25.

(ステップSa25〜26)
ついで、軌跡測定の処理が終了すると(ステップSa25)、処理部3は、各カメラ用端末12及び各スキャナ用端末22に、計測終了信号を送る(ステップSa26)。軌跡測定処理の終了は、操作者が指定しても良いし、何らかの条件に基づいて自動的に行っても良い。
(Steps Sa25-26)
Next, when the trajectory measurement process is completed (step Sa25), the processing unit 3 sends a measurement end signal to each camera terminal 12 and each scanner terminal 22 (step Sa26). The end of the trajectory measurement process may be designated by the operator or may be automatically performed based on some condition.

(ステップSc7〜8)
カメラ用端末12は、移動体の軌跡データを処理部3から受信する(ステップSa23参照)。さらに、カメラ用端末12は、カメラ11から得た動画像と軌跡データとをオーバレイ表示する。
(Steps Sc7-8)
The camera terminal 12 receives the trajectory data of the moving object from the processing unit 3 (see step Sa23). Further, the camera terminal 12 displays the moving image obtained from the camera 11 and the trajectory data in an overlay manner.

(ステップSb10)
スキャナ用端末22は、処理部3から計測終了信号を受け取ると、そこにおける処理を停止する。
(Step Sb10)
Upon receiving the measurement end signal from the processing unit 3, the scanner terminal 22 stops the processing there.

(ステップSc9)
同様に、カメラ用端末12は、処理部3から計測終了信号を受け取ると、そこにおける処理を停止する。
(Step Sc9)
Similarly, when receiving the measurement end signal from the processing unit 3, the camera terminal 12 stops the processing there.

前記した処理においては、軌跡に対応した位置にある画像を切り出すことができる。例えば、移動体が移動中の状況を連続動画撮影した場合には、軌跡の鉛直線上に位置する差分データを移動体の画像として取り出すことができる。一般に、移動体の画像が重なっている場合には、画像処理だけでこれらを切り分けることは難しい。本実施形態によれば、軌跡情報を用いて移動体の画像を切り出すので、軌跡に対応する移動体の画像を、比較的正確に抽出することが可能となる。なお、移動体が画像撮影の間、静止状態を続けていたり、画像が静止画像撮影の結果である場合には、その画像を切り出す場合、たとえば移動体が歩行者であれば、移動体は軌跡の鉛直線上に存在すると仮定して、身長に対応する所定の高さまでの画像を切り出せばよい。   In the processing described above, an image at a position corresponding to the trajectory can be cut out. For example, in the case where a moving image is captured while the moving body is moving, difference data located on the vertical line of the trajectory can be extracted as an image of the moving body. In general, when images of moving objects are overlapped, it is difficult to separate them only by image processing. According to this embodiment, since the image of the moving object is cut out using the trajectory information, the image of the moving object corresponding to the trajectory can be extracted relatively accurately. Note that if the moving body continues to be stationary during image shooting, or if the image is the result of still image shooting, when the image is cut out, for example, if the moving body is a pedestrian, the moving body And an image up to a predetermined height corresponding to the height may be cut out.

従来の方法では、多数の動画像を用いて移動体を切り出しているので、多数のカメラが必要になってしまう。これに対して、本実施形態の方法によれば、カメラの台数が少なくても移動体の画像を切り出すことができる。また、設置箇所の制約も少ない。したがって、この実施形態の装置によれば、カメラの台数や配置の自由度を高めることができるという利点がある。   In the conventional method, since a moving body is cut out using a large number of moving images, a large number of cameras are required. On the other hand, according to the method of the present embodiment, an image of a moving body can be cut out even if the number of cameras is small. Moreover, there are few restrictions on an installation location. Therefore, according to the apparatus of this embodiment, there is an advantage that the number of cameras and the degree of freedom of arrangement can be increased.

また、本実施形態においては、軌跡に対応した、時系列で変化する位置および向きに基づいて、求める移動体画像の向き(正面画像、側面画像など)に対して、撮影条件の最も良いカメラ及び撮影時刻を選定し、選定された時刻における軌跡の位置にある選定されたカメラ画像を切り出すことができる。なお、良い撮影条件の判断基準は、例えば、(1)求める移動体画像の向きと最も近い、(2)カメラが該当軌跡を撮影する光軸にほかの軌跡がない、ことである。   Further, in the present embodiment, the camera with the best shooting conditions for the orientation of the moving body image (front image, side image, etc.) to be obtained based on the position and orientation that change in time series corresponding to the trajectory The photographing time can be selected, and the selected camera image at the position of the locus at the selected time can be cut out. Note that the criteria for determining good imaging conditions are, for example, (1) the closest to the desired moving body image orientation, and (2) that there is no other trajectory on the optical axis at which the camera captures the trajectory.

本実施形態の装置を用いた実施例を以下に説明する。   An example using the apparatus of this embodiment will be described below.

(実施例)
本実施形態の装置によれば、軌跡に対応した移動体の画像を切り出すことができる。このとき、軌跡情報を用いると、移動体の向きが判る。したがって、切り出された画像に、移動体の向きの属性を付して、記憶部33に保存しておく。すると、移動体の画像を、正面画像、側面画像などの種類に分類して保存しておくことができる。移動体が静止している場合は、向き不明として保存しておけばよい。
(Example)
According to the apparatus of the present embodiment, it is possible to cut out an image of a moving body corresponding to a trajectory. At this time, if the trajectory information is used, the direction of the moving body can be determined. Therefore, the orientation of the moving object is attached to the cut out image and stored in the storage unit 33. Then, the moving body image can be classified and stored in a type such as a front image and a side image. When the moving body is stationary, it may be stored as unknown orientation.

このように属性を付した画像は、例えば次のように使用される。
(軌跡が途絶えた場合の移動体の同一性判定)
レーザスキャナ21の計測領域の外、あるいは他の移動体の影に移動体が移動して、軌跡が途絶えることがある。その後再び軌跡が現れた場合に、新しい軌跡に対応する画像と、前記のように保存した画像とを、属性(向き)情報も加味して照合する。これにより、移動体の同一性の判定精度を向上させることができる。
(以前に当該領域に進入した移動体との同一性判定)
対象エリアに進入した軌跡に対応する移動体の画像と、以前に保存してある画像とを、属性(向き)情報も加味して照合する。これにより、進入した移動体が、過去にもその領域に進入したことがあるかどうかを、精度良く判定できる。すると、同じ領域に何度も進入する者を特定しやすくなり、不審者検出に有効となる。
An image with such attributes is used as follows, for example.
(Identification of moving objects when the trajectory stops)
The moving object may move outside the measurement area of the laser scanner 21 or in the shadow of another moving object, and the locus may be interrupted. Thereafter, when a trajectory appears again, the image corresponding to the new trajectory and the image stored as described above are collated in consideration of attribute (orientation) information. Thereby, the determination precision of the identity of a moving body can be improved.
(Identity determination with a mobile that has previously entered the area)
The moving body image corresponding to the trajectory that has entered the target area and the previously stored image are collated in consideration of attribute (orientation) information. Thereby, it is possible to accurately determine whether the mobile body that has entered has entered the area in the past. Then, it becomes easy to specify a person who enters the same area many times, and it is effective for suspicious person detection.

なお、前記実施形態の記載は単なる一例に過ぎず、本発明に必須の構成を示したものではない。各部の構成は、本発明の趣旨を達成できるものであれば、上記に限らない。
さらに、前記した機能ブロックどうしは、複合して一つの機能ブロックに集約されても良い。また、一つの機能ブロックの機能が複数の機能ブロックの協働により実現されても良い。さらに、前記した機能ブロックは、機能として存在していればよく、機能実現のための手段としては、ハードウエア、コンピュータソフトウエア、これらの組み合わせなどの、任意のものを用いることができる。一つの機能ブロックが、物理的に離散した位置に配置されたハードウエアやコンピュータソフトウエアの協働により実現されてもよい。
The description of the embodiment is merely an example, and does not indicate a configuration essential to the present invention. The configuration of each part is not limited to the above as long as the gist of the present invention can be achieved.
Furthermore, the above-described functional blocks may be combined into a single functional block. Further, the function of one functional block may be realized by cooperation of a plurality of functional blocks. Furthermore, the functional blocks described above only have to exist as functions, and any means such as hardware, computer software, or a combination thereof can be used as means for realizing the functions. One functional block may be realized by cooperation of hardware and computer software arranged at physically discrete positions.

本発明の一実施形態に係る画像抽出装置の全体的な構成を説明するためのブロック図である。It is a block diagram for demonstrating the whole structure of the image extraction apparatus which concerns on one Embodiment of this invention. 処理部を中心として各端末を配置した状態でのブロック図である。It is a block diagram in the state where each terminal was arranged centering on a processing part. カメラ及びレーザスキャナの配置状態を説明するための説明図である。It is explanatory drawing for demonstrating the arrangement | positioning state of a camera and a laser scanner. キャリブレーションの一方法を説明するための説明図である。It is explanatory drawing for demonstrating one method of calibration. 処理部の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of a process part. 処理部の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of a process part. 処理部の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of a process part. スキャナ用端末の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the terminal for scanners. カメラ用端末の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the terminal for cameras.

符号の説明Explanation of symbols

1 画像取得部
11 カメラ
12 カメラ用端末
2 軌跡取得部
21 レーザスキャナ(センサ)
22 スキャナ用端末(センサ用端末)
3 処理部
31 統合部
32 抽出部
33 記憶部
4 ネットワーク
DESCRIPTION OF SYMBOLS 1 Image acquisition part 11 Camera 12 Camera terminal 2 Trajectory acquisition part 21 Laser scanner (sensor)
22 Scanner terminal (sensor terminal)
3 Processing Unit 31 Integration Unit 32 Extraction Unit 33 Storage Unit 4 Network

Claims (9)

画像取得部と、軌跡取得部と、処理部とを備えており、
前記画像取得部は、対象領域の画像を取得する構成となっており、
前記軌跡取得部は、移動体の軌跡を取得する構成となっており、
前記処理部は、
(1)前記画像取得部で取得される画像の座標系と、前記軌跡取得部で取得される軌跡の座標系とを統合する機能、および
(2)前記軌跡上に位置する移動体の画像を前記画像取得部で取得された画像から抽出する機能
を備えていることを特徴とする画像抽出装置。
An image acquisition unit, a trajectory acquisition unit, and a processing unit;
The image acquisition unit is configured to acquire an image of the target area,
The locus acquisition unit is configured to acquire a locus of a moving object,
The processor is
(1) a function of integrating the coordinate system of the image acquired by the image acquisition unit and the coordinate system of the trajectory acquired by the trajectory acquisition unit; and (2) an image of a moving body located on the trajectory. An image extraction apparatus having a function of extracting from an image acquired by the image acquisition unit.
前記画像取得部と前記軌跡取得部と前記処理部とは、ネットワークにより接続されていることを特徴とする請求項1に記載の画像抽出装置。   The image extraction apparatus according to claim 1, wherein the image acquisition unit, the trajectory acquisition unit, and the processing unit are connected by a network. 前記画像取得部は、カメラとカメラ用端末とを備えていることを特徴とする請求項1または2に記載の画像抽出装置。   The image extraction apparatus according to claim 1, wherein the image acquisition unit includes a camera and a camera terminal. 前記軌跡取得部は、レーザスキャナとスキャナ用端末とを備えていることを特徴とする請求項1〜3のいずれか1項に記載の画像抽出装置。   The image extraction apparatus according to claim 1, wherein the trajectory acquisition unit includes a laser scanner and a scanner terminal. 前記軌跡取得部は、水平にスキャンしてレンジ画像を得るセンサとセンサ用端末とを備えていることを特徴とする請求項1〜3のいずれか1項に記載の画像抽出装置。   The image extraction apparatus according to claim 1, wherein the trajectory acquisition unit includes a sensor that scans horizontally to obtain a range image and a sensor terminal. 前記センサはレーザスキャナであり、前記センサ用端末はスキャナ用端末であることを特徴とする請求項5に記載の画像抽出装置。   The image extracting apparatus according to claim 5, wherein the sensor is a laser scanner, and the sensor terminal is a scanner terminal. 統合部と抽出部と記憶部とを備えており、
前記統合部は、画像取得装置で取得される移動体の画像における座標系と、軌跡取得装置で取得される移動体の軌跡における座標系とを統合する構成となっており、
前記抽出部は、前記軌跡上に位置する移動体の画像を前記画像取得部で取得された画像から抽出する構成となっていることを特徴とする画像処理装置。
An integration unit, an extraction unit, and a storage unit;
The integration unit is configured to integrate a coordinate system in the image of the moving object acquired by the image acquisition device and a coordinate system in the locus of the moving object acquired by the locus acquisition device,
The image processing apparatus, wherein the extraction unit is configured to extract an image of a moving body located on the trajectory from an image acquired by the image acquisition unit.
前記抽出部は、前記軌跡から推測される前記移動体の向きに対応する属性を前記抽出された移動体の画像に付して、前記移動体の画像を前記記憶部に保存することを特徴とする請求項7に記載の画像処理装置。   The extraction unit attaches an attribute corresponding to the orientation of the moving object estimated from the trajectory to the extracted moving object image, and stores the image of the moving object in the storage unit. The image processing apparatus according to claim 7. 以下のステップを備えたことを特徴とする画像抽出方法:
(1)対象領域における画像を取得するステップ;
(2)移動体の軌跡を取得するステップ;
(3)取得される画像の座標系と、取得される軌跡の座標系とを統合するステップ;
(4)前記軌跡上に位置する移動体の画像を、前記対象領域における画像から抽出するステップ。
An image extraction method characterized by comprising the following steps:
(1) obtaining an image in the target region;
(2) obtaining a trajectory of the moving object;
(3) integrating the coordinate system of the acquired image and the coordinate system of the acquired trajectory;
(4) A step of extracting an image of the moving body located on the locus from the image in the target area.
JP2004175818A 2004-06-14 2004-06-14 Image extraction device Expired - Lifetime JP4590546B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004175818A JP4590546B2 (en) 2004-06-14 2004-06-14 Image extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004175818A JP4590546B2 (en) 2004-06-14 2004-06-14 Image extraction device

Publications (2)

Publication Number Publication Date
JP2005352988A true JP2005352988A (en) 2005-12-22
JP4590546B2 JP4590546B2 (en) 2010-12-01

Family

ID=35587399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004175818A Expired - Lifetime JP4590546B2 (en) 2004-06-14 2004-06-14 Image extraction device

Country Status (1)

Country Link
JP (1) JP4590546B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI392952B (en) * 2009-09-03 2013-04-11 Nat Univ Tsing Hua Imaging system with multiple perspective angles and method thereof
JP2020030190A (en) * 2018-08-24 2020-02-27 独立行政法人日本スポーツ振興センター Position tracking system and position tracking method
CN112136314A (en) * 2018-05-18 2020-12-25 高途乐公司 System and method for stabilizing video
US11979662B2 (en) 2018-09-19 2024-05-07 Gopro, Inc. Systems and methods for stabilizing videos

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160856A (en) * 1993-12-01 1995-06-23 Mitsui Constr Co Ltd Locus acquiring device of moving object
JP2002117403A (en) * 2000-10-05 2002-04-19 Fuji Xerox Co Ltd Image processor and image processing method
JP2002208073A (en) * 2001-01-10 2002-07-26 Secom Co Ltd Intrusion monitor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160856A (en) * 1993-12-01 1995-06-23 Mitsui Constr Co Ltd Locus acquiring device of moving object
JP2002117403A (en) * 2000-10-05 2002-04-19 Fuji Xerox Co Ltd Image processor and image processing method
JP2002208073A (en) * 2001-01-10 2002-07-26 Secom Co Ltd Intrusion monitor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI392952B (en) * 2009-09-03 2013-04-11 Nat Univ Tsing Hua Imaging system with multiple perspective angles and method thereof
CN112136314A (en) * 2018-05-18 2020-12-25 高途乐公司 System and method for stabilizing video
JP2020030190A (en) * 2018-08-24 2020-02-27 独立行政法人日本スポーツ振興センター Position tracking system and position tracking method
US11979662B2 (en) 2018-09-19 2024-05-07 Gopro, Inc. Systems and methods for stabilizing videos

Also Published As

Publication number Publication date
JP4590546B2 (en) 2010-12-01

Similar Documents

Publication Publication Date Title
JP4379493B2 (en) Imaging apparatus, information processing apparatus, information processing method, and computer program
KR100729280B1 (en) Iris Identification System and Method using Mobile Device with Stereo Camera
JP4864502B2 (en) Imaging apparatus and imaging condition guide method
US10397471B2 (en) Image processing apparatus, location information adding method
US20090232417A1 (en) Method and Apparatus of Annotating Digital Images with Data
EP3358480B1 (en) Drawing creation device and drawing creation method
US20130182010A2 (en) Device for capturing and displaying images of objects, in particular digital binoculars, digital camera or digital video camera
US9294682B2 (en) Information processing device, information processing method, and program for light source estimation
CN103945109A (en) Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus
JP2019135483A (en) Three-dimensional image processing apparatus and method
CN102202176A (en) Camera with function of automatically setting shooting conditions and shooting method
KR101038918B1 (en) Apparatus, system and method for generating vector information of image
JPWO2011096343A1 (en) Shooting position proposal system, shooting position proposal device, shooting position proposal method, and shooting position proposal program
JP4590546B2 (en) Image extraction device
JP6216353B2 (en) Information identification system, information identification method, and program thereof
KR20180100890A (en) Method and apparatus for remote multi biometric
JP5543870B2 (en) Camera, camera control method, and program
JP5428821B2 (en) Analysis device, imaging device, server device, analysis method, program, and analysis system
JP2023169914A (en) Image processing device, image processing method, and computer program
JP5332497B2 (en) Imaging apparatus and image transfer method
JP6168926B2 (en) Information processing apparatus, display system, and control method
JP7027171B2 (en) Information processing equipment, information processing methods and programs
JP7207586B2 (en) Imaging control device and imaging system
JP7124411B2 (en) Imaging control device and imaging system
JP2008153998A (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Ref document number: 4590546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term