JP4110323B2 - Information output method and apparatus, program, and computer-readable storage medium storing information output program - Google Patents

Information output method and apparatus, program, and computer-readable storage medium storing information output program Download PDF

Info

Publication number
JP4110323B2
JP4110323B2 JP2003398024A JP2003398024A JP4110323B2 JP 4110323 B2 JP4110323 B2 JP 4110323B2 JP 2003398024 A JP2003398024 A JP 2003398024A JP 2003398024 A JP2003398024 A JP 2003398024A JP 4110323 B2 JP4110323 B2 JP 4110323B2
Authority
JP
Japan
Prior art keywords
event
image
person
information
information output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003398024A
Other languages
Japanese (ja)
Other versions
JP2005157134A (en
Inventor
準二 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003398024A priority Critical patent/JP4110323B2/en
Publication of JP2005157134A publication Critical patent/JP2005157134A/en
Application granted granted Critical
Publication of JP4110323B2 publication Critical patent/JP4110323B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、情報出力方法及び装置及びプログラム及び情報出力プログラムを格納したコンピュータ読み取り可能な記憶媒体に係り、特に、大規模な画面に対して、一人または複数の人物の動作に応じて、静止画、動画、文字情報等の出力を動的に変化させる情報出力方法及び装置及びプログラム及び情報出力プログラムを格納したコンピュータ読み取り可能な記憶媒体に関する。   The present invention relates to an information output method and apparatus, a program, and a computer-readable storage medium storing the information output program, and more particularly to a still image according to the operation of one or more persons on a large screen. The present invention relates to an information output method and apparatus for dynamically changing the output of moving images, character information, etc., a program, and a computer-readable storage medium storing an information output program.

コンピュータの処理能力の進歩や、ディスプレイの低廉化等によって、駅構内やビルの入り口等の公共空間において、プラズマディスプレイやプロジェクタ等を利用した情報提供が始まってきている。   Due to advances in computer processing capacity and cheaper displays, information provision using plasma displays, projectors, and the like has begun in public spaces such as station premises and building entrances.

一方、センサ技術の発達によって、人の動作に応じて、情報出力を動的に変化させるといった試みが行われてきている(例えば、特許文献1,2、非特許文献1参照)。このような技術としては、監視カメラの撮影画像を用いて人物の位置や動きを検出するもの、IDを発信する無線タグを用いて人物に関連付けられた属性(性別、年齢等)を特定するもの、マイクを用いて音声を取得するもの等があり、主にエンタテイメント施設やパビリオン等において利用されている。   On the other hand, attempts have been made to dynamically change information output in accordance with human movements due to the development of sensor technology (see, for example, Patent Documents 1 and 2 and Non-Patent Document 1). Such technologies include detecting the position and movement of a person using an image captured by a surveillance camera, and specifying an attribute (gender, age, etc.) associated with the person using a wireless tag that transmits an ID. There are those that acquire sound using a microphone, and are used mainly in entertainment facilities and pavilions.

本発明では、駅構内やビルの入り口といった大規模な空間の中で、人物の動作に応じて最適な情報(特に広告情報)を提供することを目的としている。具体的な例を以下に示す。   An object of the present invention is to provide optimal information (especially advertisement information) according to the movement of a person in a large-scale space such as a station premises or a building entrance. Specific examples are shown below.

・フローティング広告:
当該フローティング広告は、図11に示すように、大画面に、広告等の情報を表示する一つまたは複数の情報表示用ウィンドウを出力する。人物の動作に応じて以下のように出力を変化させる。
・ Floating advertisement:
As shown in FIG. 11, the floating advertisement outputs one or a plurality of information display windows for displaying information such as advertisements on a large screen. The output is changed as follows according to the movement of the person.

−人物がウィンドウの前を通りすぎるとウィンドウのサイズを拡大する。   -Increase the size of the window when a person passes in front of the window.

−人物が立ち止まると詳細情報を表示する。   -Display detailed information when a person stops.

−長時間停滞する、指差す、声を出す等の動作を行うと地図やクーポン情報等を表示する。   -A map, coupon information, or the like is displayed when an operation such as stagnation for a long time, pointing, or making a voice is performed.

−各ウィンドウに表示する情報は、検出された無線タグのIDに基づき選択する。例えば、男性に関連付けられた無線タグを持っている人物が近くに存在する場合は、男性向けの広告情報を表示する。   -The information displayed in each window is selected based on the ID of the detected wireless tag. For example, when there is a person nearby who has a wireless tag associated with a man, advertisement information for men is displayed.

・マップ広告:
マップ広告は、図12に示すように、初期状態では、大画面の背景に地図を表示する。人物の動作に応じて以下のように出力を変化させる。
・ Map advertisement:
As shown in FIG. 12, the map advertisement displays a map on the background of the large screen in the initial state. The output is changed as follows according to the movement of the person.

−地図の決められた位置の前に人物が立ち止まると、情報表示用ウィンドウをポップアップする。   -Pop up an information display window when a person stops in front of a predetermined position on the map.

−対応する位置にあるお店の情報を表示する。   -Display information about the store at the corresponding location.

−画面に人物が近付くと詳細情報を表示する。   -Display detailed information when a person approaches the screen.

これらの情報提供方法では、人物の自然な動作に従い、その人物に適した情報を提供することができる。例えば、関心のない人に対しては、興味を引くような情報提供を行い、興味を持った人には詳細情報、さらに興味を持った人には、お店に誘導するための地図やクーポン情報を適宜提供することができる。
特開2001−43384号公報「マルチメディア情報空間の入力方法及び入力装置及び入出力連携方法及び入出力連携装置及び入力プログラム及び入出力連携プログラムを記録した記録媒体」 特開2001−216527号公報「マルチメディア情報空間入力装置及びその方法、ならびにそのプログラムを記録した記録媒体」 木原民雄、草原真知子、安田浩「場のアートとネットワークアート」情報処理学会論文誌Vol.44 No2, 2003年
In these information providing methods, information suitable for a person can be provided in accordance with the natural operation of the person. For example, for those who are not interested, provide information that attracts interest, for those who are interested, detailed information, and for those who are interested, maps and coupons to guide you to the store Information can be provided as appropriate.
JP 2001-43384 A "Multimedia Information Space Input Method, Input Device, Input / Output Cooperation Method, Input / Output Cooperation Device, Input Program, and Recording Medium Recording Input / Output Cooperation Program" Japanese Patent Application Laid-Open No. 2001-216527 “Multimedia Information Space Input Device and Method, and Recording Medium Recording the Program” Tamio Kihara, Machiko Prairie, Hiroshi Yasuda “The Art of the Place and Network Art” Information Processing Society of Japan Vol.44 No2, 2003

しかしながら、上記で述べたような情報提供方法を実現するためには、従来の技術では以下のような問題がある。   However, in order to realize the information providing method as described above, the conventional technique has the following problems.

第1には、アプリケーションの制限という問題である。   The first is the problem of application limitations.

従来技術の多くは、エンタテイメント施設等での利用が主な目的であったため、アプリケーション毎に全ての機能を作りこんでいる。そのため、上記2つの情報提供法を柔軟に切り替えたり、組み合わせたりして利用することや、人物の動作に応じて、きめ細かに出力方法を設定することが難しい。このため、ある特定の目的で開発されたシステムを、別の場所や違った種類の情報を提供するために利用するためには、非常に大きなコストがかかるという問題がある。   Many of the prior arts are mainly used in entertainment facilities and the like, so all functions are built for each application. For this reason, it is difficult to flexibly switch or combine the two information providing methods, and to set an output method in detail according to the action of a person. For this reason, there is a problem that it takes a very large cost to use a system developed for a specific purpose in order to provide different places and different types of information.

第2には、適用場所の制限という問題である。   Secondly, there is a problem of restriction of application place.

動作の検出を行うためには、通常、検出領域の真上に設置された1台の監視カメラを利用している。しかしながら、監視カメラの画角は限られているため、天井が低い場所では、広い領域の人物の動作を検出することが難しい。上記のような情報提供では、既存の空間を対象としているため、様々な大きさや形状の監視領域やカメラの設置位置の制限等に柔軟に対応する必要があるため、従来技術を適用することは難しい。   In order to detect the operation, usually, one surveillance camera installed right above the detection area is used. However, since the angle of view of the surveillance camera is limited, it is difficult to detect the movement of a person in a wide area in a place where the ceiling is low. Since the provision of information as described above targets the existing space, it is necessary to flexibly deal with restrictions on the monitoring area of various sizes and shapes, the installation position of the camera, etc. difficult.

本発明は、上記の点に鑑みなされたもので、アプリケーションの制限や適用場所の制限の問題を解決し、様々な公共空間において、フローティング広告やマップ広告等の人物の動作に応じた様々な情報提供を行うことが可能な情報出力方法及び装置及びプログラム及び情報出力プログラムを格納したコンピュータ読み取り可能な記憶媒体を提供することを目的とする。   The present invention has been made in view of the above points, solves the problems of application restrictions and application place restrictions, and various information according to the actions of persons such as floating advertisements and map advertisements in various public spaces. It is an object to provide an information output method and apparatus, a program, and a computer-readable storage medium storing the information output program.

図1は、本発明の原理を説明するための図である。   FIG. 1 is a diagram for explaining the principle of the present invention.

本発明(請求項1)は、一人または複数の人物の動作に応じて、表示装置への情報の出力を動的に変化させる情報出力方法において、
センサ手段が、種々の検出対象から入力に基づいて解析するセンサ過程(ステップ1)と、
イベント発生手段が、センサ手段から解析結果を取得し、該解析結果がある特定の条件を満たした場合に、イベントを発生させるイベント発生過程(ステップ2)と、
スクリプト実行手段が、発生されたイベントに応じて規定された関数を実行するスクリプト実行過程(ステップ3)と、
画像制御手段が、関数の中で指定された画面制御命令に応じて、表示するコンテンツの切り替え、または、出力位置、または、出力サイズの変更を実行する画面制御過程(ステップ4)と、からなり、
センサ過程において、
複数の監視カメラから撮影画像を取得し、該撮影画像を解析し、該撮影画像の各ピクセルを、背景を表す白と、背景との差分がある閾値を超えたものを表す黒の2値に変換し、黒のピクセルの連続領域を閉領域として取得し、該閉領域の重心を人物の位置とすることにより撮影画像から人物の位置検出を行い、
閉領域の重心と閉領域の黒のピクセルとの距離を計算し、該距離が最大となるピクセルを求め、最大の距離がある閾値を超える場合には、該重心から該最大の距離を持つピクセルへ結んだベクトルの方向を求め、これを該閉領域に対する人物の指差し方向とし、最大の距離がある閾値を超えない場合には、指差しが行われていないと判定する複数画像同期解析過程を行い、
ベント発生過程において、
指差し方向の値に応じてイベントを発生し、
スクリプト実行過程において、
発生されたイベントに応じて規定された関数を実行し、
画面制御過程において、
実行された関数の中で指定された人物の位置の時間変化に対する条件または指差しの有無に応じて、表示するコンテンツ情報の切り替えを実行する。
The present invention (Claim 1) is an information output method for dynamically changing the output of information to a display device in accordance with the operation of one or more persons.
A sensor process (step 1) in which the sensor means analyzes based on inputs from various detection targets;
Event generating means acquires the analysis result from the sensor means, when certain conditions are met where there is a result of the analysis, the Louis vent developmental process caused the event (step 2),
A script execution process (step 3) in which the script execution means executes a function defined according to the generated event;
A screen control process (step 4) in which the image control means executes switching of contents to be displayed or change of the output position or output size in accordance with the screen control command specified in the function. ,
In the sensor process,
Captured images are obtained from a plurality of surveillance cameras, the captured images are analyzed, and each pixel of the captured image is converted to binary representing white and black representing the difference between the background and a background that exceeds a certain threshold. Converting, obtaining a continuous region of black pixels as a closed region, detecting the position of the person from the captured image by setting the center of gravity of the closed region as the position of the person,
The distance between the centroid of the closed region and the black pixel of the closed region is calculated, the pixel having the maximum distance is obtained, and when the maximum distance exceeds a certain threshold, the pixel having the maximum distance from the centroid seek direction vector connecting to, this as a pointing direction of the person with respect to the closed area, maximum when the distance does not exceed a certain threshold of multiple images synchronization analysis to determine the pointing is not performed It performs excess degree,
In the event the development process,
Generate an event according to the value of the pointing direction,
In the script execution process,
Execute the specified function according to the event that occurred,
In the screen control process,
The content information to be displayed is switched in accordance with the condition for the time change of the position of the person specified in the executed function or the presence / absence of pointing .

本発明(請求項2)は、複数画像同期解析過程において、
監視カメラの撮影画像の四隅を手動で調整された1つまたは複数の撮影画像をコンテンツの画面上にマッピングし、マッピングされた画面上で、監視領域を指定することができるユーザインタフェースを有し、マッピングされた形状の撮影画像を自動的に歪ませ、該ユーザインタフェースを介して指定された監視領域のみに対して人物の動作の検出を行う。
The present invention (Claim 2) , in the multiple image synchronization analysis process,
A user interface capable of mapping one or a plurality of captured images manually adjusted at the four corners of the captured image of the monitoring camera on the content screen, and designating a monitoring area on the mapped screen; The captured image having the mapped shape is automatically distorted, and the motion of the person is detected only for the monitoring area designated via the user interface.

本発明(請求項3)は、複数画像同期解析過程において、
複数の監視カメラの画像をマッピングした時に、撮影領域が互いに重なるようにした場合には、重なった領域のピクセルは、黒のピクセルの論理和をとることによって、1つの合成された画像を作成し、該合成された画像に対して人物の位置の検出を行う。
The present invention (Claim 3) , in the multiple image synchronization analysis process,
When the images of multiple surveillance cameras are mapped, if the shooting areas overlap each other, the pixels in the overlapped areas are ORed with the black pixels to create one combined image. Then, the position of the person is detected with respect to the synthesized image.

本発明(請求項4)は、イベント発生過程において、
スクリプト実行手段から、監視対象のイベントリストを取得し、センサ手段からの解析結果を記憶手段に蓄積し、蓄積された解析結果集合が各イベントの発生条件を満たした場合には、イベントを発生させる。
The present invention (Claim 4) , in the event generation process,
Obtain a list of events to be monitored from the script execution means, accumulate the analysis results from the sensor means in the storage means, and generate an event if the accumulated analysis result set satisfies the conditions for occurrence of each event .

図2は、本発明の原理構成図である。   FIG. 2 is a principle configuration diagram of the present invention.

本発明(請求項5)は、一人または複数の人物の動作に応じて、表示装置への情報の出力を動的に変化させる情報出力装置であって、
監視カメラ、無線タグ受信機、マイクを含む各装置から取得した情報に基づいて解析を行うセンサ手段15と、
センサ手段15から解析結果を取得し、該解析結果がある特定の条件を満たした場合に、イベントを発生させるイベント発生手段40と、
発生されたイベントに応じて規定された関数を実行するスクリプト実行手段50と、
関数の中で指定された画面制御命令に応じて、表示するコンテンツの切り替え、または、出力位置、または、出力サイズの変更を実行する画面制御手段60と、を有し、
センサ手段15は、
複数の監視カメラの撮影画像を解析し、人物の位置や動きを検出する複数画像同期解析手段を有し
複数画像同期解析手段は、
複数の監視カメラから撮影画像を取得し、該撮影映像を解析し、該撮影画像の各ピクセルを、背景を表す白と、背景との差分がある閾値を超えたものを表す黒の2値に変換し、黒のピクセルの連続領域を閉領域として取得し、該閉領域の重心を人物の位置とすることにより撮影画像から人物の位置検出を行う手段と、
閉領域の重心と閉領域の黒のピクセルとの距離を計算し、該距離が最大となるピクセルを求め、最大の距離がある閾値を超える場合には、該重心から該最大の距離を持つピクセルに結んだベクトルの方向を求め、これを該閉領域に対する人物の指差し方向とし、最大の距離がある閾値を超えない場合には、指差しが行われていないと判定する手段と、を含み、
イベント発生手段40は、
指差し方向の値に応じてイベントを発生する手段を含み、
スクリプト実行手段50は、
イベント発生手段40で発生されたイベントに応じて規定された関数を実行する手段を含み、
画面制御手段60は、
スクリプト実行手段で実行された関数の中で指定された人物の位置の時間変化に対する条件または指差しの有無に応じて、表示するコンテンツ情報の切り替えを実行する手段を含む。
The present invention (Claim 5) is an information output device that dynamically changes the output of information to a display device in accordance with the action of one or more persons,
Sensor means 15 for performing analysis based on information acquired from each device including a monitoring camera, a wireless tag receiver, and a microphone;
An event generation means 40 for acquiring an analysis result from the sensor means 15 and generating an event when the analysis result satisfies a certain condition;
Script execution means 50 for executing a function defined according to the generated event;
Screen control means 60 for switching the content to be displayed or changing the output position or the output size in accordance with the screen control command specified in the function,
The sensor means 15
Analyzing the captured images of a plurality of monitoring cameras, a plurality image synchronization analysis means to detect the position and movement of a person,
Multiple image synchronization analysis means
Captured images are obtained from a plurality of surveillance cameras, the captured images are analyzed, and each pixel of the captured images is converted into binary values of white representing the background and black representing the difference between the background and a certain threshold. Means for converting, obtaining a continuous area of black pixels as a closed area, and detecting the position of the person from the captured image by setting the center of gravity of the closed area as the position of the person;
The distance between the centroid of the closed region and the black pixel of the closed region is calculated, the pixel having the maximum distance is obtained, and when the maximum distance exceeds a certain threshold, the pixel having the maximum distance from the centroid connecting it obtains a direction vector, which was used as a pointing direction of the person with respect to the closed region, if not exceeding a certain threshold maximum distance, means for determining the pointing is not performed, the Including
The event generation means 40
Including means for generating an event according to the value of the pointing direction;
The script execution means 50
Means for executing a function defined in accordance with an event generated by the event generation means 40;
The screen control means 60
It includes means for executing switching of content information to be displayed according to a condition with respect to time change of the position of the person designated in the function executed by the script execution means or presence / absence of pointing .

本発明(請求項6)は、複数画像同期解析手段において
監視カメラの撮影画像の四隅を手動で調整された1つまたは複数の撮影画像をコンテンツの画面上にマッピングする手段と、
マッピングされた画面上で、監視領域を指定することができるユーザインタフェースと、
マッピングされた形状の撮影画像を自動的に歪ませ、該ユーザインタフェースを介して指定された監視領域のみに対して人物の動作の検出を行う手段と、を含む。
The present invention (Claim 6), in the plurality of images synchronized analysis means,
Means for mapping one or a plurality of photographed images manually adjusted at the four corners of the photographed image of the surveillance camera on the content screen;
A user interface that allows you to specify the monitoring area on the mapped screen;
Means for automatically distorting the captured image of the mapped shape and detecting the movement of the person only in the monitoring area designated via the user interface.

本発明(請求項7)は、複数画像同期解析手段において、
複数の監視カメラの画像をマッピングした時に、撮影領域が互いに重なるようにした場合には、重なった領域のピクセルは、黒のピクセルの論理和をとることによって、1つの合成された画像を作成する手段と、
合成された画像に対して人物の位置の検出を行う手段と、を含む。
According to the present invention (Claim 7) , in the multiple image synchronization analysis means ,
When the images of a plurality of surveillance cameras are mapped, if the shooting areas are overlapped with each other, the pixels in the overlapped areas are ORed with the black pixels to create one synthesized image. Means,
Means for detecting the position of a person with respect to the synthesized image.

本発明(請求項8)は、イベント発生手段において、
スクリプト実行手段から、監視対象のイベントリストを取得し、センサ手段からの解析結果を記憶手段に蓄積し、蓄積された解析結果集合が各イベントの発生条件を満たした場合には、イベントを発生させる手段を含む。
The present invention (Claim 8 ) provides an event generating means ,
Obtain a list of events to be monitored from the script execution means, accumulate the analysis results from the sensor means in the storage means, and generate an event if the accumulated analysis result set satisfies the conditions for occurrence of each event Including means.

本発明(請求項9)は、請求項5乃至7のいずれか1項に記載の情報出力装置を構成する各手段としてコンピュータを機能させる情報出力プログラムである。 The present invention (Claim 9) is an information output program for causing a computer to function as each means constituting the information output apparatus according to any one of Claims 5 to 7.

本発明(請求項10)は、請求項9項に記載の出力プログラムを格納したコンピュータ読み取り可能な記憶媒体である。
The present invention (Claim 10) is a computer-readable storage medium storing the output program according to Claim 9.

本発明では、アプリケーションの制限、適用場所の制限の問題を解決できるので、様々な公共空間において、フローティング広告、マップ広告等の人物の動作に応じた様々な情報提供を容易に実現することが可能である。   In the present invention, the problem of application restriction and application place restriction can be solved, so it is possible to easily provide various information according to the actions of people such as floating advertisements and map advertisements in various public spaces. It is.

図3は、本発明の一実施の形態における情報出力装置の構成を示し、図4は、本発明の一実施の形態における情報出力装置の動作を示すシーケンスチャートでる。   FIG. 3 shows the configuration of the information output apparatus according to the embodiment of the present invention, and FIG. 4 is a sequence chart showing the operation of the information output apparatus according to the embodiment of the present invention.

同図に示す情報出力装置1は、複数画像同期解析部10、無線タグ管理部20、音声入力部30、センサイベント発生部40、スクリプト実行部50、画面制御部60からなり、複数画像同期解析部10、無線タグ管理装置20、音声入力装置30の3つをまとめてセンサ装置と呼ぶ。   The information output apparatus 1 shown in FIG. 1 includes a multiple image synchronization analysis unit 10, a wireless tag management unit 20, a voice input unit 30, a sensor event generation unit 40, a script execution unit 50, and a screen control unit 60. The unit 10, the wireless tag management device 20, and the voice input device 30 are collectively referred to as a sensor device.

各装置の処理は以下の通りである。   The processing of each device is as follows.

複数画像同期解析装置10は、1つまたは、複数の監視カメラで撮影された撮影画像に対して、画像解析処理処理(ステップ10)を実行し、画像解析結果をセンサイベント発生部40へ送信する。終了命令を取得するまでこれらの処理は繰り返される。画像解析処理(ステップ10)では、複数の撮影画像を合成し、監視領域に写っている人物(以下、影と呼ぶ)の位置、速度、加速度、指差し方向を検出し、画像解析結果として出力する。画像解析処理の詳細を図5に示し、詳細については後述する。   The multiple-image synchronization analysis apparatus 10 performs image analysis processing (step 10) on the captured image captured by one or a plurality of surveillance cameras, and transmits the image analysis result to the sensor event generation unit 40. . These processes are repeated until an end command is acquired. In the image analysis process (step 10), a plurality of photographed images are combined, and the position, speed, acceleration, and pointing direction of a person (hereinafter referred to as a shadow) in the monitoring area are detected and output as an image analysis result. To do. Details of the image analysis processing are shown in FIG. 5 and details will be described later.

無線タグ管理装置20は、1つまたは、複数の無線タグ受信機が受信した無線タグのIDに対して、無線タグ解析処理(ステップ20)を実行し、無線タグ情報解析結果をセンサイベント発生装置40へ送信する。終了命令を取得するまでこれらの処理は繰り返される。無線タグ解析処理(ステップ20)では、まず、各無線タグ受信機から、各受信機の感知領域内に存在する無線タグのIDを取得し、無線タグ情報解析結果(時刻、無線タグ受信機ID、感知された無線タグID、位置)を出力する。この処理は既存技術を用いる。   The wireless tag management device 20 executes wireless tag analysis processing (step 20) on the ID of the wireless tag received by one or a plurality of wireless tag receivers, and uses the wireless tag information analysis result as a sensor event generation device. 40. These processes are repeated until an end command is acquired. In the wireless tag analysis process (step 20), first, the ID of the wireless tag existing in the sensing area of each receiver is acquired from each wireless tag receiver, and the wireless tag information analysis result (time, wireless tag receiver ID) , Sensed wireless tag ID, position). This process uses existing technology.

音声入力装置30は、1つまたは複数のマイクから入力された音声に対して、音声解析処理(ステップ30)を実行し、音声解析結果をセンサイベント発生装置40へ送信する。終了命令を取得するまでこれらの処理は繰り返される。音声解析処理(ステップ30)では、各マイクから音声を取得し、音声を解析し、音声解析結果(時刻、マイクID、音量または音声認識の結果)を出力する。この処理は既存技術を用いる。   The voice input device 30 performs voice analysis processing (step 30) on the voice input from one or a plurality of microphones, and transmits the voice analysis result to the sensor event generation device 40. These processes are repeated until an end command is acquired. In the voice analysis process (step 30), voice is acquired from each microphone, the voice is analyzed, and a voice analysis result (time, microphone ID, volume, or voice recognition result) is output. This process uses existing technology.

センサイベント発生装置40は、各センサ装置(複数画像同期解析部10、無線タグ管理装置20、音声入力装置30)から解析結果を取得し、イベント発生処理(ステップ40)を実行する。イベント発生処理(ステップ40)では、各解析結果を蓄積し、蓄積された解析結果の集合が予め設定された特定の条件を満たした場合に、イベントを発生させ、スクリプト実行部50に送信する。イベントを発生させる条件は、監視イベント設定要求に基づき設定される。ここでは、イベントの発生条件は特に限定しないが、例えば、以下のものがある。   The sensor event generating device 40 acquires an analysis result from each sensor device (the multiple image synchronization analyzing unit 10, the wireless tag managing device 20, and the voice input device 30), and executes an event generating process (step 40). In the event generation process (step 40), each analysis result is accumulated, and an event is generated and transmitted to the script execution unit 50 when the set of accumulated analysis results satisfies a specific condition set in advance. Conditions for generating an event are set based on a monitoring event setting request. Here, the event generation conditions are not particularly limited, but examples include the following.

・画像解析結果:特定の位置への影の進入、退出、一定時間の停滞、速度が一定値を超える、加速度が一定値を超える、監視領域全体で認識されている影の個数の増加、減少、指差し等の動きの検出等:
・無線タグ情報解析結果:各無線タグ受信機の特定領域内への無線タグの進入、退出、感知領域内の一定時間の停滞等:
・音声解析結果:音量が一定値を超える、一定値を下回る、特定の言葉が音声認識で検出される等:
上記のイベント発生処理の詳細については図6に示し、詳細については後述する。
-Image analysis results: Shadow entry and exit to a specific position, stagnation for a certain period of time, speed exceeds a certain value, acceleration exceeds a certain value, and the number of shadows recognized and increased in the entire monitoring area Detection of movements such as pointing, etc .:
-RFID tag information analysis results: RFID tags entering and exiting specific areas of each RFID tag receiver, stagnation within a certain time in the sensing area, etc .:
-Voice analysis results: Volume exceeds a certain value, falls below a certain value, a specific word is detected by speech recognition, etc .:
Details of the above event generation processing are shown in FIG. 6, and details will be described later.

また、センサイベント発生部40は、スクリプト実行部50からのセンサ状態取得要求に応じて、センサ状態取得処理(ステップ50)を実行し、センサ状態を送信する。ここでは、センサ状態は特に限定しないが、例えば、以下のものがあり、各センサの解析結果から抽出される。   Further, the sensor event generation unit 40 executes a sensor state acquisition process (step 50) in response to the sensor state acquisition request from the script execution unit 50, and transmits the sensor state. Here, although the sensor state is not particularly limited, for example, there are the following, which are extracted from the analysis result of each sensor.

・画像解析結果:監視領域内の影の個数、各影の位置、速度、加速度、動きの判定(指差し方向)、影のサイズ、各影が初めて認識された時刻等):
・無線タグ情報解析結果:各無線タグ受信機の感知領域内に存在する無線タグの個数、各無線タグのID、位置、各IDが初めて認識された時刻等:
・音声解析結果:現在の音量(dB)、音声解析結果(テキスト)等;
スクリプト実行部50は、アクションスクリプトで70から、アクションスクリプトを取得し、スクリプト実行処理(ステップ60)を実行する。スクリプト実行処理(ステップ60)では、センサイベント発生部40からイベントを取得すると、センサ状態取得命令、画面状態取得命令、画面制御命令、コマンド実行命令、演算・制御命令の組み合わせで構成される関数(以下、イベントハンドラ)を実行する。スクリプト実行処理の詳細を図7に示し、詳細については後述する。
Image analysis results: number of shadows in the monitoring area, position, speed, acceleration, determination of movement (pointing direction), shadow size, time when each shadow was first recognized, etc .:
Wireless tag information analysis result: number of wireless tags present in the sensing area of each wireless tag receiver, ID and position of each wireless tag, time when each ID was first recognized, etc .:
-Voice analysis result: current volume (dB), voice analysis result (text), etc .;
The script execution unit 50 acquires an action script from 70 as an action script, and executes a script execution process (step 60). In the script execution process (step 60), when an event is acquired from the sensor event generation unit 40, a function (a combination of a sensor state acquisition instruction, a screen state acquisition instruction, a screen control instruction, a command execution instruction, and a calculation / control instruction) The event handler is executed below. Details of the script execution processing are shown in FIG. 7, and details will be described later.

画面制御部60は、スクリプト実行部50から画面制御要求を取得し、画面制御処理(ステップ8)を実行する。画面制御処理(ステップ80)では、指定された位置、サイズのウィンドウに、コンテンツ(静止画、動画、テキスト等)を表示する。コンテンツは、コンテンツデータベース80に格納されているか、または、ネットワーク90経由で配信されるものとする。   The screen control unit 60 acquires a screen control request from the script execution unit 50 and executes a screen control process (step 8). In the screen control process (step 80), content (still image, moving image, text, etc.) is displayed in a window having a designated position and size. It is assumed that the content is stored in the content database 80 or distributed via the network 90.

また、スクリプト実行部50からの画面状態取得要求に応じて、画面状態取得処理(ステップ70)を実行し、画面状態を返却する。ここで、画面状態とは、特に限定しないが、例えば、表示しているウィンドウの個数、各ウィンドウの位置、サイズ、表示しているコンテンツ名、動画の再生状態等である。   Further, in response to a screen state acquisition request from the script execution unit 50, a screen state acquisition process (step 70) is executed and the screen state is returned. Here, the screen state is not particularly limited, but includes, for example, the number of displayed windows, the position and size of each window, the displayed content name, the playback state of a moving image, and the like.

次に、上記の各処理について詳細に説明する。   Next, each of the above processes will be described in detail.

最初に図5に示す画像解析処理(ステップ50)について説明する。   First, the image analysis process (step 50) shown in FIG. 5 will be described.

複数の画像同期解析部10では、この処理を行う前に、予め、現実の監視カメラの撮影領域に合うように、撮影画像をコンピュータの画面上に手動でマッピングする。図8に2台の監視カメラを使用した場合の実際の撮影領域と撮影画像を示す。図8にあるように2台の監視カメラは互いに重なった領域が撮影できるように配置されている。また、監視カメラは撮影領域の真上には設置できず、図の下方向から撮影していることを想定している。このため、各監視カメラの実際の撮影領域は台形となっている。図8のように監視カメラから得られる撮影画像はあくまで長方形なので、実際の台形の撮影領域は長方形に歪むことになる。   Before performing this processing, the plurality of image synchronization analysis units 10 manually map the captured image on the computer screen so as to match the actual imaging region of the surveillance camera. FIG. 8 shows an actual shooting area and a shot image when two monitoring cameras are used. As shown in FIG. 8, the two surveillance cameras are arranged so as to be able to capture an area where they overlap each other. Also, it is assumed that the surveillance camera cannot be installed directly above the shooting area and is shooting from below in the figure. For this reason, the actual imaging area of each surveillance camera is trapezoidal. Since the captured image obtained from the surveillance camera is rectangular as shown in FIG. 8, the actual trapezoidal imaging region is distorted into a rectangle.

図9は、このような歪んだ撮影画像をコンピュータの画面上のユーザインタフェースを用いて管理者が手動で、マッピングしている様子を表している。各撮影画像(図9a)の四隅をユーザインタフェース上で手動で行うことによって、実際の撮影映像に近い形(図9b)にマッピングを行う。次に、実際に解析に利用する監視領域を指定する。   FIG. 9 shows a state where the administrator manually maps such a distorted captured image using a user interface on the computer screen. By manually performing the four corners of each captured image (FIG. 9a) on the user interface, mapping is performed in a form close to the actual captured image (FIG. 9b). Next, the monitoring area actually used for analysis is designated.

以下、このマッピングが既に行ってあるものとして、画像解析処理(図5)の各ステップを説明する。   Hereinafter, each step of the image analysis process (FIG. 5) will be described on the assumption that this mapping has already been performed.

ステップ101) 1つまたは複数の各監視カメラから撮影画像を取得する。   Step 101) Captured images are acquired from one or more monitoring cameras.

ステップ102) 撮影画像に対して、各ピクセルを白と黒の2値に変換する。ここで背景色を白とし、背景色との差分がある閾値を越えたものを『黒』とする。すなわち、人物の存在する領域のピクセルは『黒』となる。   Step 102) For each captured image, each pixel is converted into a binary value of white and black. Here, the background color is white, and the difference from the background color exceeds a certain threshold is “black”. That is, the pixel in the region where the person exists is “black”.

ステップ103) 2値化された画像を合成する。各ステップは以下の通りである。   Step 103) The binarized image is synthesized. Each step is as follows.

(a)図9のように実際の撮影領域の形(台形)に合うように、取得画像(長方形)を歪ませる。   (A) As shown in FIG. 9, the acquired image (rectangle) is distorted so as to match the shape (trapezoid) of the actual shooting area.

(b)監視領域の部分のみを切り出す。   (B) Cut out only the portion of the monitoring area.

(c)重なっている部分のピクセルに関して論理和をとる。つまりどちらかが、『黒』の場合は、そのピクセルの値を黒とする(図9c)。   (C) Perform a logical OR with respect to overlapping pixels. That is, when either is “black”, the value of the pixel is black (FIG. 9c).

ステップ104) フレーム画像から、閉領域リストを作成する。ここで、閉領域とは、黒のピクセルが連続する領域であり、かつ、面積(黒ピクセルの個数)がある閾値を越えるものである。図9cでは、2つの閉領域が抽出されている。   Step 104) A closed region list is created from the frame image. Here, the closed region is a region in which black pixels are continuous and has an area (the number of black pixels) that exceeds a certain threshold. In FIG. 9c, two closed regions are extracted.

ステップ105) 現在時刻tを取得する。   Step 105) The current time t is acquired.

ステップ106) 閉領域リストが空かどうかを判定する。空の場合はステップ115へ、空でない場合はステップ107に移行する。   Step 106) Determine whether the closed region list is empty. If it is empty, the process proceeds to step 115. If it is not empty, the process proceeds to step 107.

ステップ107) リストの先頭の閉領域kを取り出す。kに適当なIDを割り当てる。   Step 107) The closed region k at the head of the list is taken out. An appropriate ID is assigned to k.

ステップ108) kに含まれる全ての黒ピクセルの重心位置を計算する。   Step 108) Calculate the barycentric positions of all black pixels included in k.

ステップ109) kに含まれる各ピクセルから重心までの距離をそれぞれ計算し、その距離が最も長いピクセルpとその長さを特定する。この長さがある閾値を超える場合、kからpへ結んだピクセルの方向を取得し、これを指差し方向とする。超えない場合は、指差しなしとする。   Step 109) The distance from each pixel included in k to the center of gravity is calculated, and the pixel p having the longest distance and the length thereof are specified. When this length exceeds a certain threshold value, the direction of the pixel connected from k to p is acquired, and this is set as the pointing direction. If it does not exceed, there is no pointing.

ステップ110) 現在の処理が2フレーム目以降かどうかの判定を行う。2フレーム目以降の場合は、ステップ111へ、そうでない場合はステップ114へ移行する。   Step 110) It is determined whether or not the current process is the second frame or later. If it is the second frame or later, the process proceeds to step 111, and if not, the process proceeds to step 114.

ステップ111) 内部記憶領域へ保存された、前回の解析結果の中で最も重心の位置がkと近い影1を見つける。kの重心と1の重心の差分dを計算する。d0<d<d1の場合には、dをkの速度とする。ここで、d0、d1は、定数であり、それぞれ、移動があったかどうかを表す下限、同じ影と特定できるのかどうかの上限を表す。また、d<d1のときには、kのIDに1のIDを代入する。   Step 111) Find the shadow 1 whose center of gravity is closest to k among the previous analysis results saved in the internal storage area. The difference d between the centroid of k and the centroid of 1 is calculated. If d0 <d <d1, d is the speed of k. Here, d0 and d1 are constants, and respectively represent a lower limit indicating whether or not there is a movement and an upper limit whether or not the same shadow can be specified. When d <d1, ID 1 is substituted for ID k.

ステップ112) 現在の処理が3フレーム目以降かどうかの判定を行う。3フレーム目以降の場合は、ステップ113へ、そうでない場合はステップ114へ移行する。   Step 112) It is determined whether the current process is the third frame or later. If it is after the third frame, the process proceeds to step 113; otherwise, the process proceeds to step 114.

ステップ113) kの速度と1の速度の差分を計算し、これをkの加速度とする。   Step 113) The difference between the speed of k and the speed of 1 is calculated, and this is set as the acceleration of k.

ステップ114) 『現在時刻t、閉領域kのID,重心の位置、速度、加速度、指差し方向』を影リストへ追加する。   Step 114) “Current time t, ID of closed region k, position of center of gravity, velocity, acceleration, pointing direction” is added to the shadow list.

ステップ115) 影リストを画像解析結果として、センサイベント発生装置へ送信する。   Step 115) The shadow list is transmitted to the sensor event generator as an image analysis result.

ステップ116) 影リストを前回の解析結果として、内部記憶領域へ保存する。   Step 116) The shadow list is stored in the internal storage area as the previous analysis result.

次に、センサイベント発生部40における、イベント発生処理(ステップ40)について図6のフローチャートに沿って説明する。   Next, event generation processing (step 40) in the sensor event generation unit 40 will be described with reference to the flowchart of FIG.

ステップ401) スクリプト実行部50から、監視イベントのリストを取得する。numに監視イベントの個数、iに0を代入する。   Step 401) A list of monitoring events is acquired from the script execution unit 50. Substitute the number of monitoring events in num and 0 in i.

ステップ402) 画像解析結果を取得し、内部記憶に蓄積する。画像解析結果は以下のレコードの集合であり、『時刻+影ID』をキーとして、時刻でソートされて保存される。   Step 402) Acquire an image analysis result and store it in the internal memory. The image analysis result is a set of the following records, and is sorted and stored by time using “time + shadow ID” as a key.

レコード:『時刻、影ID,重心の位置、速度、加速度、指差し方向』
ステップ403) 無線タグ情報解析結果を取得し、内部記憶に蓄積する。無線タグ情報解析結果は以下のレコードの集合であり、『時刻+無線タグ受信機ID+無線タグID』をキーとして、時刻でソートされて保存される。
Record: “Time, shadow ID, center of gravity, speed, acceleration, pointing direction”
Step 403) The wireless tag information analysis result is acquired and stored in the internal memory. The wireless tag information analysis result is a set of the following records, and is sorted and stored by time using “time + wireless tag receiver ID + wireless tag ID” as a key.

レコード:『時刻,無線タグ受信機ID,無線タグID,位置』
ステップ404) 音声解析結果を取得し、内部記憶に蓄積する。音声解析結果は、以下のレコードの集合であり、『時刻+マイクID』をキーとして、時刻でソートされて保存される。
Record: “Time, RFID tag receiver ID, RFID tag ID, position”
Step 404) Acquire voice analysis results and store them in the internal memory. The voice analysis result is a set of the following records, and is sorted and stored by time using “time + microphone ID” as a key.

レコード:『時刻,マイクID,音量または音声認識結果』
ステップ405) 監視イベントリストを最後まで処理したかを判定する。i<numの場合はステップ406へ、それ以外の場合はステップ411へ移行する。
Record: “Time, microphone ID, volume or voice recognition result”
Step 405) It is determined whether the monitoring event list has been processed to the end. If i <num, go to Step 406; otherwise, go to Step 411.

ステップ406) リストのi番目の監視イベントeを取得する。   Step 406) The i-th monitoring event e in the list is acquired.

ステップ407) iにi+1を代入する。   Step 407) Substitute i + 1 for i.

ステップ408) eのイベント発生条件が満たされるかどうかを、内部記憶に蓄積された解析結果を調べることによって判定する。ここでは、発生条件を満たすかどうかの詳細な処理は規定しないが、例えば、監視領域にいる人物の数が増加というイベントを発生する場合には、以下の条件判定処理を行う。   Step 408) It is determined whether or not the event occurrence condition of e is satisfied by examining the analysis result stored in the internal memory. Here, detailed processing for determining whether or not the generation condition is satisfied is not defined, but for example, when an event that the number of persons in the monitoring area increases, the following condition determination processing is performed.

(a)画像解析結果の最新の時刻を持つレコード数mを取得する。   (A) The number m of records having the latest time of the image analysis result is acquired.

(b)1つ前の時刻を持つレコード数nを取得する。   (B) The number n of records having the previous time is acquired.

(c)m−nが正の場合、人数の増加イベントを発生する。   (C) When mn is positive, an event of increasing the number of people is generated.

ステップ409) イベント発生条件を満たしたかどうかで、以下の分岐処理を行う。満たす場合にはステップ410へ、満たさない場合にはステップ405へ移行する。   Step 409) The following branch processing is performed depending on whether the event occurrence condition is satisfied. If yes, go to step 410; otherwise, go to step 405.

ステップ410) 条件を満たしたイベント名とイベントに付随する変数をスクリプト実行部50に送信する。ここで、引数とは例えば、図10のアクションスクリプトの例にあるように、進入した人物の影(shadow)である。図10の詳細な説明は後述する。   Step 410) The event name satisfying the condition and the variable associated with the event are transmitted to the script execution unit 50. Here, the argument is, for example, the shadow of the person who has entered, as in the example of the action script of FIG. Details of FIG. 10 will be described later.

ステップ411) 終了命令が管理者によって実行されたかどうかを判定する。実行された場合は終了し、実行されていない場合にはステップ402へ移行する。   Step 411) It is determined whether an end command has been executed by the administrator. If it has been executed, the process ends. If it has not been executed, the process proceeds to step 402.

次に、スクリプト実行部部50における、スクリプト実行処理(ステップ60)について、図7のフローチャートに沿って説明する。   Next, the script execution process (step 60) in the script execution part 50 is demonstrated along the flowchart of FIG.

アクションスクリプトには、イベントが発生したときに呼び出される関数(イベントハンドラ)の集合を記述する。アクションスクリプトは手動または自動的に作成され、アクションスクリプトデータベース70に格納されているものとする。イベントハンドラには、センサ状態取得命令、画面状態取得命令、画面制御命令、コマンド実行命令、演算・制御命令を指定できる。アクションスクリプトの例を図10に示す。詳細は、実施例で後述する。管理者がアクションスクリプトを選択し、実行すると、以下のスクリプト実行処理が実行される。   The action script describes a set of functions (event handlers) that are called when an event occurs. It is assumed that the action script is created manually or automatically and stored in the action script database 70. In the event handler, a sensor status acquisition command, a screen status acquisition command, a screen control command, a command execution command, and a calculation / control command can be specified. An example of the action script is shown in FIG. Details will be described later in Examples. When the administrator selects and executes an action script, the following script execution process is executed.

ステップ601) アクションスクリプトデータベース70から、アクションスクリプトを取得する。   Step 601) An action script is acquired from the action script database 70.

ステップ602) アクションスクリプトに記述されているイベントハンドラの名前を監視イベントとして、センサイベント発生部40へ送信する。   Step 602) The name of the event handler described in the action script is transmitted to the sensor event generating unit 40 as a monitoring event.

ステップ603) 終了命令が管理者によって実行されたかどうかを判定する。実行された場合には終了し、実行されていない場合にはステップ604へ移行する。   Step 603) It is determined whether an end command has been executed by the administrator. If it has been executed, the process ends. If it has not been executed, the process proceeds to step 604.

ステップ604) センサイベント発生部40からイベントを取得する。   Step 604) An event is acquired from the sensor event generator 40.

ステップ605) イベントに対応するイベントハンドラを解析し、命令の実行順にソートされた命令列を作成する。イベントハンドラの解析方法と命令列の作成方法は既存技術による。   Step 605) The event handler corresponding to the event is analyzed, and an instruction sequence sorted in the execution order of the instructions is created. The event handler analysis method and instruction sequence creation method are based on existing technology.

ステップ606) 命令列が空かどうかを判定する。空の場合ステップ603へ移行し、空でない場合にはステップ607へ移行する。   Step 606) It is determined whether the instruction sequence is empty. If it is empty, the process proceeds to step 603. If it is not empty, the process proceeds to step 607.

ステップ607) 命令列の先頭の命令eを取得する。   Step 607) The first instruction e in the instruction sequence is acquired.

ステップ608) 以下の分岐処理を行う。eがセンサ状態取得命令の場合にはステップ609へ、それ以外の場合にはステップ610へ移行する。   Step 608) The following branch processing is performed. If e is a sensor state acquisition command, the process proceeds to step 609; otherwise, the process proceeds to step 610.

ステップ609) eに指定されたセンサ状態取得要求をセンサイベント発生部40へ送信し、結果として得られたセンサ状態を内部記憶に蓄積する。   Step 609) The sensor state acquisition request specified in e is transmitted to the sensor event generating unit 40, and the sensor state obtained as a result is stored in the internal memory.

ステップ610) 以下の分岐処理を行う。eが画面状態取得命令の場合にはステップ611へ、それ以外の場合にはステップ612へ移行する。   Step 610) The following branch processing is performed. If e is a screen state acquisition command, the process proceeds to step 611; otherwise, the process proceeds to step 612.

ステップ611) eに指定された画面状態取得要求を画面制御部60へ送信し、結果として得られた画面状態を内部記憶に蓄積する。   Step 611) The screen state acquisition request designated in e is transmitted to the screen control unit 60, and the resulting screen state is stored in the internal memory.

ステップ612) 以下の分岐処理を行う。eが画面制御命令の場合にはステップ613へ、それ以外の場合にはステップ614へ移行する。   Step 612) The following branch processing is performed. If e is a screen control command, the process proceeds to step 613; otherwise, the process proceeds to step 614.

ステップ613) 内部記憶のセンサ状態、画面状態の情報を用いて、ウィンドウのサイズ、位置、コンテンツの種類等を決定し、画面制御部60へ送信する。   Step 613) Using the sensor state and screen state information stored in the internal memory, the window size, position, content type, and the like are determined and transmitted to the screen control unit 60.

ステップ614) 以下の分岐処理を行う。eがコマンド実行命令の場合にはステッ615へ、それ以外の場合にはステップ616へ移行する。   Step 614) The following branch processing is performed. If e is a command execution instruction, the process proceeds to step 615; otherwise, the process proceeds to step 616.

ステップ615) メール送信、管理者画面への状態出力等のコマンドを実行する。ここで、内部記憶のセンサ状態、画面状態の情報を用いる。また、利用できるコマンドは特に限定しない。   Step 615) Commands such as mail transmission and status output to the administrator screen are executed. Here, the sensor state and screen state information stored in the internal memory is used. In addition, usable commands are not particularly limited.

ステップ616) 内部記憶の情報を用いて、算術演算、比較演算、変数の設定、制御命令等を実行し、結果を内部記憶へ蓄積する。   Step 616) Using the information stored in the internal memory, arithmetic operations, comparison operations, variable settings, control instructions, etc. are executed, and the results are stored in the internal memory.

以下に、実際の動作例の説明に、図11のフローティング広告を用いる。フローティング広告を実現するスクリプトの一部を図10に示す。関数「InArea」「OutArea」「RemainArea」がそれぞれイベントハンドラである。   Hereinafter, the floating advertisement in FIG. 11 is used to describe an actual operation example. FIG. 10 shows a part of a script for realizing a floating advertisement. The functions “InArea”, “OutArea”, and “RemainArea” are event handlers.

図10において、「shadow」、「win」は、それぞれ画像解析処理で検出された人物の各影を表すオブジェクト、画面上に表示されている各情報表示用ウィンドウを表すオブジェクトである。各オブジェクトは、以下のメソッドを持ち、メソッドは“オブジェクト名.メソッド名”によって呼び出される。   In FIG. 10, “shadow” and “win” are an object representing each shadow of a person detected by the image analysis process and an object representing each information display window displayed on the screen. Each object has the following methods, which are called by “object name.method name”.

・Shadowオブジェクト
・x( ),y( ):位置取得
・handUp( ):指差しが行われているかどうかの判定
・waitedTime( ):同一箇所での停滞時間
これらのメソッドはセンサ状態を取得するためのものであるので、センサ状態取得命令である。
・ Shadow object ・ x (), y (): Position acquisition ・ HandUp (): Judgment whether or not pointing is being performed ・ waitedTime (): Stagnation time at the same location These methods are used to acquire the sensor status This is a sensor state acquisition command.

・winオブジェクト
・setSize(width,height):ウィンドウサイズを幅width、高さheightに変更する。
-Win object -setSize (width, height): Change the window size to width width and height height.

・setContents(“文字列”):文字列で指定されるコンテンツに表示情報を変更する。   SetContents (“character string”): The display information is changed to the content specified by the character string.

これらのメソッドは画面を制御するための命令であるので、画面制御命令である。   Since these methods are instructions for controlling the screen, they are screen control instructions.

また、イベントハンドラ内で利用されている関数の機能は以下の通りである。   The functions of the functions used in the event handler are as follows.

Convert(x,y):画像解析処理で検出された影の位置(x,y)を画面上の位置(wx,wy)に変換して返却する。この命令は演算・制御命令である。   Convert (x, y): The position (x, y) of the shadow detected by the image analysis process is converted into a position (wx, wy) on the screen and returned. This instruction is an arithmetic / control instruction.

・select_window(wx,wy):wx,wyで指定された位置をその範囲に囲むウィンドウ(win)を返却する。この命令は画面状態取得命令である。   • select_window (wx, wy): Returns the window (win) that surrounds the position specified by wx, wy. This command is a screen state acquisition command.

各イベントハンドラのイベント発生条件と処理概要は以下の通りである。   The event generation conditions and processing outline of each event handler are as follows.

・InArea(shadow)
イベント発生条件:ある人物の影(shadow)が予め指定した領域に進入した場合に発生する。
・ InArea (shadow)
Event occurrence condition: Occurs when a shadow of a person enters a predetermined area.

処理概要:進入した人物の影の位置を取得し、その位置に対応する画面上の情報表示ウィンドウ(win)のサイズを大きくする。   Process overview: The position of the shadow of the person who has entered is acquired, and the size of the information display window (win) on the screen corresponding to that position is increased.

・OutArea(shadow)
イベント発生条件:ある人物の影(shadow)が予め指定した領域から退出した場合に発生する。
・ OutArea (shadow)
Event occurrence condition: Occurs when a shadow of a person leaves a predetermined area.

処理概要:退出した人物の影が最後にいた位置を取得し、その位置に対応する画面上の情報表示ウィンドウ(win)を特定する。そのウィンドウのサイズを通常の大きさにし、表示コンテンツを初期画面用のものにする。   Process overview: Acquires the position where the shadow of the person who left was last, and specifies the information display window (win) on the screen corresponding to the position. The window size is set to the normal size, and the display content is for the initial screen.

・RemainArea(shadow)
イベント発生条件:ある人物の影(shadow)が予め指定した領域に、一定時間停滞した場合に発生する。
・ RemainArea (shadow)
Event occurrence condition: Occurs when a shadow of a certain person stays in a predetermined area for a certain period of time.

処理概要:停滞している人物の影の位置を取得し、その位置に対応する画面上の情報表示ウィンドウ(win)を特定する。停滞時間がある決められた時間(t0)よりも長いか、指差しが行われている場合は、地図画面を出力し、そうでなければ詳細情報を出力する。   Process overview: The position of a shadow of a stagnant person is acquired, and the information display window (win) on the screen corresponding to the position is specified. If the stagnation time is longer than a predetermined time (t0) or if pointing is performed, a map screen is output, and if not, detailed information is output.

人物がある広告の前に一定時間立ち止まり、また、動いた場合に実際に呼び出される処理は以下の通りである。   The process that is actually called when a person stops for a certain time before an advertisement and moves is as follows.

(1)ある人物が情報表示用ウィンドウの前を通る。   (1) A person passes in front of an information display window.

(2)画像解析処理の結果、その人物を表す影(shadow)が検出され、規定された位置に入る。   (2) As a result of the image analysis process, a shadow representing the person is detected and enters a specified position.

(3)進入イベントが発生し、進入したshadowを引数として、イベントハンドラInAreaが呼び出される。   (3) An entry event occurs, and the event handler InArea is called with the entered shadow as an argument.

(4)InAreaでは、図10の処理が行われ、目の前にある情報表示用ウィンドウのサイズを拡大する。   (4) In Inrea, the process of FIG. 10 is performed, and the size of the information display window in front of you is enlarged.

(5)立ち止まった時間が一定時間を越えると、立ち止まっているshadowを引数として、イベントハンドラRemainAreaが呼び出される。   (5) When the stopped time exceeds a certain time, the event handler RemainArea is called with the stopped shadow as an argument.

(6)RemainAreaでは、図10の処理が実行され、この時点ではt0より停滞時間が短いため、表示情報が詳細情報に変わる。   (6) In RemainArea, the processing of FIG. 10 is executed, and at this time, the stagnation time is shorter than t0, so the display information is changed to detailed information.

(7)さらに、時間が経つと何度か同様にRemainAreaが呼び出される。停滞時間がt0を超えた時点で、地図画面が表示される。また、t0を超えていなくても指差しをしていれば、即座に地図画面が表示される。   (7) Furthermore, RemainArea is called several times in the same way over time. A map screen is displayed when the stagnation time exceeds t0. Further, the map screen is immediately displayed if the finger is pointing even if it does not exceed t0.

(8)人物が動き、予め規定された領域からshadowを退出すると、イベントハンドラOutAreaが呼び出される。   (8) When the person moves and leaves the shadow from the predefined area, the event handler OutArea is called.

(9)OutAreaでは、図10の処理が実行され、目の前にある情報表示ウィンドウのサイズを通常のサイズに戻し、初期画面を表示する。   (9) In OutArea, the processing of FIG. 10 is executed, the size of the information display window in front of the eyes is returned to the normal size, and the initial screen is displayed.

このように、図10のような簡単なスクリプトを記述するだけで、フローティング広告といった人物の動作に応じた情報出力を行うことができる。同様に、無線タグ管理部20、音声入力装置30に対するイベントハンドラやセンサ状態取得命令をスクリプトに記述することによって、これらのセンサ装置を利用した情報出力を行うことができる。   In this way, by writing a simple script as shown in FIG. 10, it is possible to output information corresponding to the action of a person such as a floating advertisement. Similarly, by writing event handlers and sensor state acquisition commands for the wireless tag management unit 20 and the voice input device 30 in a script, information output using these sensor devices can be performed.

以下に、前述したアプリケーションの制限という問題がどのように解決されるのかを示す。   The following shows how the above-mentioned problem of application limitation is solved.

スクリプト実行装置では、スクリプトに記述されたイベントが発生したタイミングで、センサ状態や画面状態を確認し、適切なアクション(画面制御)を実行することができる。このため、簡単なスクリプトを記述することによって、様々なセンサ情報を組み合わせた画面制御を容易に実現することができる。さらに、コマンド実行命令を用いれば、画面制御装置以外の機器を利用したアクション(人数が多くなったらメールで連絡)等にも拡張できる。また、スクリプトに記述されたイベントだけを監視対象とすることで、高速に処理が可能である。このように、本発明は、ある特定の目的のために開発されたシステムを、別の目的の様々なアプリケーションに容易に適用することができる。   The script execution device can check the sensor state and the screen state at the timing when the event described in the script occurs, and can execute an appropriate action (screen control). For this reason, the screen control which combined various sensor information is easily realizable by describing a simple script. Furthermore, if a command execution command is used, it can be extended to actions using devices other than the screen control device (contact by e-mail when the number of people increases). In addition, since only events described in the script are monitored, high-speed processing is possible. As described above, the present invention can easily apply a system developed for a specific purpose to various applications for another purpose.

次に、前述した適用場所の制限という問題がどのように解決されるのかを示す。   Next, it will be shown how the above-mentioned problem of limitation of application place is solved.

複数画像同期解析部10では、n個のカメラの撮影画像を合成した画像から人物の位置を特定することができる。また、監視カメラの設置位置が監視対象領域の真上でない場合の補正も行うことができる。従って、天井が低いため、1台の監視カメラの画角ではカバーしきれないような広い領域や監視カメラの設置位置が真上にない場合でも、画像合成機能と補正機能によってその領域をカバーできる。また、監視カメラの撮影領域と監視領域の対応は、ユーザインタフェースを用いて簡単に設定可能であるため、あらゆる形状の領域、例えば、曲がり角があるような場合でも、監視領域をくまなく作成することができる。
さらに、解析結果としてはあくまで合成された一つの領域としてイベント発生部40からは見えることになるので、イベントや状態取得の際に各監視カメラ画像を個別に取り扱う必要がない。そのため、スクリプトを書くことが容易となる。このように、本発明では、適用場所の制限の問題を解決することができる。
The multiple image synchronization analysis unit 10 can specify the position of a person from an image obtained by combining images taken by n cameras. In addition, it is possible to perform correction when the installation position of the monitoring camera is not directly above the monitoring target area. Therefore, since the ceiling is low, even if the wide area that cannot be covered by the angle of view of one surveillance camera or the installation position of the surveillance camera is not directly above, the area can be covered by the image composition function and the correction function. . In addition, since the correspondence between the imaging area of the surveillance camera and the surveillance area can be easily set using the user interface, even if there are areas of any shape, for example, when there are corners, the surveillance area should be created all over. Can do.
Furthermore, since the analysis result can be seen from the event generation unit 40 as a single combined area, it is not necessary to handle each monitoring camera image individually when acquiring an event or state. This makes it easier to write scripts. As described above, the present invention can solve the problem of restriction of the application location.

また、図3に示す出力情報装置の各構成要素を個々の装置として構成し、出力情報システムとして構成することも可能である。   Further, each component of the output information device shown in FIG. 3 can be configured as an individual device to be configured as an output information system.

また、本発明は、前述の図4〜図7に示す動作をプログラムとして構築し、情報出力装置として利用されるコンピュータにインストールし、CPU等の制御手段で実行する、または、ネットワークを介して流通させることが可能である。   In the present invention, the operations shown in FIGS. 4 to 7 are constructed as a program, installed in a computer used as an information output device, executed by a control means such as a CPU, or distributed through a network. It is possible to make it.

また、構築されたプログラムを情報出力装置として利用されるコンピュータに接続されるハードディスクや、フレキシブルディスク、CD−ROM等の可搬記憶媒体に格納して置き、実行時にコンピュータにインストールすることも可能である。   It is also possible to store the built program in a portable storage medium such as a hard disk, a flexible disk, or a CD-ROM connected to a computer used as an information output device, and install it on the computer at the time of execution. is there.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

エンタテイメント施設やパビリオン、駅構内、ビルの入り口等の大規模な空間の中で、人物の動作に応じて広告情報を提供する技術に適用可能である。   The present invention can be applied to a technology that provides advertisement information according to the movement of a person in a large-scale space such as an entertainment facility, a pavilion, a station premises, or a building entrance.

本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の原理構成図である。It is a principle block diagram of this invention. 本発明の一実施の形態における情報出力装置の構成図である。It is a block diagram of the information output device in one embodiment of this invention. 本発明の一実施の形態における情報出力装置の概要動作のシーケンス図である。It is a sequence diagram of the outline | summary operation | movement of the information output device in one embodiment of this invention. 本発明の一実施の形態における画像解析処理のフローチャートである。It is a flowchart of the image analysis process in one embodiment of the present invention. 本発明の一実施の形態におけるイベント発生処理のフローチャートである。It is a flowchart of the event generation process in one embodiment of this invention. 本発明の一実施の形態におけるスクリプト実行処理のフローチャートである。It is a flowchart of the script execution process in one embodiment of this invention. 本発明の一実施の形態における撮影領域と撮影画像である。It is the imaging | photography area | region and picked-up image in one embodiment of this invention. 本発明の一実施の形態における撮影画像の合成方法である。3 is a method for synthesizing captured images according to an embodiment of the present invention. 本発明の一実施の形態におけるアクションスクリプトの例である。It is an example of the action script in one embodiment of this invention. フローティング広告の例である。It is an example of a floating advertisement. マップ広告の例である。It is an example of a map advertisement.

符号の説明Explanation of symbols

1 情報出力装置
10 複数画像同期解析部
15 センサ手段
20 無線タグ管理部
30 音声入力部
40 イベント発生手段、センサイベント発生部
50 スクリプト実行手段、スクリプト実行部
60 画像制御手段、画像制御部
70 アクションスクリプトデータベース
80 コンテンツデータベース
90 ネットワーク
DESCRIPTION OF SYMBOLS 1 Information output device 10 Multiple image synchronous analysis part 15 Sensor means 20 Wireless tag management part 30 Audio | voice input part 40 Event generation means, sensor event generation part 50 Script execution means, Script execution part 60 Image control means, Image control part 70 Action script Database 80 Content database 90 Network

Claims (10)

一人または複数の人物の動作に応じて、表示装置への情報の出力を動的に変化させる情報出力方法において、
センサ手段が、種々の検出対象から入力に基づいて解析するセンサ過程と、
イベント発生手段が、前記センサ手段から解析結果を取得し、該解析結果がある特定の条件を満たした場合に、イベントを発生させるイベント発生過程と、
スクリプト実行手段が、発生された前記イベントに応じて規定された関数を実行するスクリプト実行過程と、
画像制御手段が、前記関数の中で指定された画面制御命令に応じて、表示するコンテンツの切り替え、または、出力位置、または、出力サイズの変更を実行する画面制御過程と、からなり、
前記センサ過程において、
複数の監視カメラから撮影画像を取得し、該撮影画像を解析し、該撮影画像の各ピクセルを、背景を表す白と、背景との差分がある閾値を超えたものを表す黒の2値に変換し、黒のピクセルの連続領域を閉領域として取得し、該閉領域の重心を人物の位置とすることにより撮影画像から人物の位置検出を行い、
前記閉領域の重心と前記閉領域の黒のピクセルとの距離を計算し、該距離が最大となるピクセルを求め、最大の距離がある閾値を超える場合には、該重心から該最大の距離を持つピクセルへ結んだベクトルの方向を求め、これを該閉領域に対する人物の指差し方向とし、最大の距離がある閾値を超えない場合には、指差しが行われていないと判定する複数画像同期解析過程を行い、
記イベント発生過程において、
前記指差し方向の値に応じてイベントを発生し、
前記スクリプト実行過程において、
前記発生されたイベントに応じて規定された関数を実行し、
前記画面制御過程において、
前記実行された関数の中で指定された人物の位置の時間変化に対する条件または指差しの有無に応じて、表示するコンテンツ情報の切り替えを実行する
ことを特徴とする情報出力方法。
In an information output method for dynamically changing the output of information to a display device according to the action of one or more persons,
A sensor process in which sensor means analyzes based on inputs from various detection targets;
If the event generating means acquires the analysis result from said sensor means, satisfies a specific condition where there is a result of the analysis, and event generation process of generating an event,
A script execution means for executing a function defined according to the generated event;
The image control means comprises a screen control process for switching the content to be displayed or changing the output position or the output size in accordance with the screen control command specified in the function,
In the sensor process,
Captured images are obtained from a plurality of surveillance cameras, the captured images are analyzed, and each pixel of the captured image is converted to binary representing white and black representing the difference between the background and a background that exceeds a certain threshold. Converting, obtaining a continuous region of black pixels as a closed region, detecting the position of the person from the captured image by setting the center of gravity of the closed region as the position of the person,
The distance between the centroid of the closed area and the black pixel of the closed area is calculated, and the pixel having the maximum distance is obtained. When the maximum distance exceeds a certain threshold, the maximum distance from the centroid is calculated. seek direction vector connecting the pixels with, this as a pointing direction of the person with respect to the closed region, if not exceeding a certain threshold maximum distance plurality determines that pointing is not performed image to synchronize analysis excessive degree,
In the previous Symbol event occurrence process,
Generate an event according to the value of the pointing direction,
In the script execution process,
Execute a function defined according to the generated event;
In the screen control process,
An information output method for executing switching of content information to be displayed according to a condition with respect to a temporal change in a position of a person designated in the executed function or presence / absence of pointing .
前記複数画像同期解析過程において、
前記監視カメラの撮影画像の四隅を手動で調整された1つまたは複数の撮影画像をコンテンツの画面上にマッピングし、マッピングされた画面上で、監視領域を指定することができるユーザインタフェースを有し、マッピングされた形状の撮影画像を自動的に歪ませ、該ユーザインタフェースを介して指定された監視領域のみに対して人物の動作の検出を行う請求項1記載の情報出力方法。
In the multiple image synchronization analysis process,
It has a user interface capable of mapping one or a plurality of photographed images manually adjusted at the four corners of the photographed image of the surveillance camera on the content screen and designating a surveillance area on the mapped screen. The information output method according to claim 1, wherein the photographed image having the mapped shape is automatically distorted, and the motion of the person is detected only for the monitoring area designated via the user interface.
前記複数画像同期解析過程において、
前記複数の監視カメラの画像をマッピングした時に、撮影領域が互いに重なるようにした場合には、重なった領域のピクセルは、黒のピクセルの論理和をとることによって、1つの合成された画像を作成し、該合成された画像に対して人物の位置の検出を行う請求項1または2記載の情報出力方法。
In the multiple image synchronization analysis process,
When mapping an image of said plurality of surveillance cameras, when such imaging regions overlap each other, the pixel of the overlapping region, by taking a logical sum of black pixels, create one synthesized image and, the combined claims 1 or 2 information output method according to detect the position of the person on the image.
前記イベント発生過程において、
前記スクリプト実行手段から、監視対象のイベントリストを取得し、前記センサ手段からの解析結果を記憶手段に蓄積し、蓄積された解析結果集合が各イベントの発生条件を満たした場合には、イベントを発生させる請求項1記載の情報出力方法。
In the event generation process,
From the script execution unit acquires an event list of monitored, the analysis result from the sensor means to accumulate in the storage means, when the accumulated analysis result set satisfies the generation condition for each event, the event The information output method according to claim 1 to be generated.
一人または複数の人物の動作に応じて、表示装置への情報の出力を動的に変化させる情報出力装置であって、
監視カメラ、無線タグ受信機、マイクを含む各装置から取得した情報に基づいて解析を行うセンサ手段と、
前記センサ手段から解析結果を取得し、該解析結果がある特定の条件を満たした場合に、イベントを発生させるイベント発生手段と、
発生された前記イベントに応じて規定された関数を実行するスクリプト実行手段と、
前記関数の中で指定された画面制御命令に応じて、表示するコンテンツの切り替え、または、出力位置、または、出力サイズの変更を実行する画面制御手段と、を有し、
前記センサ手段は、
複数の監視カメラの撮影画像を解析し、人物の位置や動きを検出する複数画像同期解析手段を有し
前記複数画像同期解析手段は、
複数の監視カメラから撮影画像を取得し、該撮影映像を解析し、該撮影画像の各ピクセルを、背景を表す白と、背景との差分がある閾値を超えたものを表す黒の2値に変換し、黒のピクセルの連続領域を閉領域として取得し、該閉領域の重心を人物の位置とすることにより撮影画像から人物の位置検出を行う手段と、
前記閉領域の重心と前記閉領域の黒のピクセルとの距離を計算し、該距離が最大となるピクセルを求め、最大の距離がある閾値を超える場合には、該重心から該最大の距離を持つピクセルに結んだベクトルの方向を求め、これを該閉領域に対する人物の指差し方向とし、最大の距離がある閾値を超えない場合には、指差しが行われていないと判定する手段と、を含み、
前記イベント発生手段は、
前記指差し方向の値に応じてイベントを発生する手段を含み、
前記スクリプト実行手段は、
前記イベント発生手段で前記発生されたイベントに応じて規定された関数を実行する手段を含み、
前記画面制御手段は、
前記スクリプト実行手段で実行された関数の中で指定された人物の位置の時間変化に対する条件または指差しの有無に応じて、表示するコンテンツ情報の切り替えを実行する手段を含む
ことを特徴とする情報出力装置。
An information output device that dynamically changes the output of information to a display device according to the action of one or more persons,
Sensor means for performing analysis based on information acquired from each device including a monitoring camera, a wireless tag receiver, and a microphone;
Event generation means for acquiring an analysis result from the sensor means and generating an event when the analysis result satisfies a certain condition;
Script execution means for executing a function defined according to the generated event;
Screen control means for switching the content to be displayed, or changing the output position or the output size in accordance with the screen control command specified in the function,
The sensor means includes
Analyzing the captured images of a plurality of monitoring cameras, a plurality image synchronization analysis means to detect the position and movement of a person,
The multiple image synchronization analysis means includes:
Captured images are obtained from a plurality of surveillance cameras, the captured images are analyzed, and each pixel of the captured images is converted into binary values of white representing the background and black representing the difference between the background and a certain threshold. Means for converting, obtaining a continuous area of black pixels as a closed area, and detecting the position of the person from the captured image by setting the center of gravity of the closed area as the position of the person;
The distance between the centroid of the closed area and the black pixel of the closed area is calculated, and the pixel having the maximum distance is obtained. When the maximum distance exceeds a certain threshold, the maximum distance from the centroid is calculated. seek direction vector connecting the pixels with, this as a pointing direction of the person with respect to the closed region, if not exceeding a certain threshold maximum distance, means for determining the pointing is not performed Including,
The event generating means includes
Means for generating an event in accordance with the value of the pointing direction;
The script execution means includes
Means for executing a function defined in accordance with the generated event by the event generating means;
The screen control means includes
Information including: means for executing switching of content information to be displayed according to a condition with respect to time change of a position of a person designated in the function executed by the script execution means or presence / absence of pointing Output device.
前記複数画像同期解析手段は、
前記監視カメラの撮影画像の四隅を手動で調整された1つまたは複数の撮影画像をコンテンツの画面上にマッピングする手段と、
マッピングされた画面上で、監視領域を指定することができるユーザインタフェースと、
マッピングされた形状の撮影画像を自動的に歪ませ、該ユーザインタフェースを介して指定された監視領域のみに対して人物の動作の検出を行う手段と、を含む請求項記載の情報出力装置。
The multiple image synchronization analysis means includes:
Means for mapping one or a plurality of photographed images obtained by manually adjusting the four corners of the photographed image of the monitoring camera on the content screen;
A user interface that allows you to specify the monitoring area on the mapped screen;
6. An information output apparatus according to claim 5 , further comprising means for automatically distorting the photographed image of the mapped shape and detecting a human motion only on a monitoring area designated via the user interface.
前記複数画像同期解析手段は、
前記複数の監視カメラの画像をマッピングした時に、撮影領域が互いに重なるようにした場合には、重なった領域のピクセルは、黒のピクセルの論理和をとることによって、1つの合成された画像を作成する手段と、
前記合成された画像に対して人物の位置の検出を行う手段と、を含む請求項5または6記載の情報出力装置。
The multiple image synchronization analysis means includes:
If the imaging areas overlap each other when the images of the plurality of surveillance cameras are mapped, the pixels in the overlapping areas are ORed with the black pixels to create one synthesized image. Means to
7. An information output apparatus according to claim 5 , further comprising means for detecting a position of a person with respect to the synthesized image.
前記イベント発生手段は、
前記スクリプト実行手段から、監視対象のイベントリストを取得し、前記センサ手段からの解析結果を記憶手段に蓄積し、蓄積された解析結果集合が各イベントの発生条件を満たした場合には、イベントを発生させる手段を含む請求項記載の情報出力装置。
The event generating means includes
An event list to be monitored is acquired from the script execution means, the analysis results from the sensor means are accumulated in the storage means, and if the accumulated analysis result set satisfies the occurrence conditions of each event, the event is 6. The information output device according to claim 5 , further comprising means for generating.
請求項5乃至7のいずれか1項に記載の情報出力装置を構成する各手段としてコンピュータを機能させる情報出力プログラム。8. An information output program for causing a computer to function as each means constituting the information output apparatus according to claim 5. 請求項9項に記載の出力プログラムを格納したコンピュータ読み取り可能な記憶媒体。A computer-readable storage medium storing the output program according to claim 9.
JP2003398024A 2003-11-27 2003-11-27 Information output method and apparatus, program, and computer-readable storage medium storing information output program Expired - Lifetime JP4110323B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003398024A JP4110323B2 (en) 2003-11-27 2003-11-27 Information output method and apparatus, program, and computer-readable storage medium storing information output program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003398024A JP4110323B2 (en) 2003-11-27 2003-11-27 Information output method and apparatus, program, and computer-readable storage medium storing information output program

Publications (2)

Publication Number Publication Date
JP2005157134A JP2005157134A (en) 2005-06-16
JP4110323B2 true JP4110323B2 (en) 2008-07-02

Family

ID=34723010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003398024A Expired - Lifetime JP4110323B2 (en) 2003-11-27 2003-11-27 Information output method and apparatus, program, and computer-readable storage medium storing information output program

Country Status (1)

Country Link
JP (1) JP4110323B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005157135A (en) * 2003-11-27 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> Information display method, system and program
JP4544429B2 (en) * 2005-11-11 2010-09-15 ブラザー工業株式会社 Image processing device
JP4632362B2 (en) * 2005-11-29 2011-02-16 日本電信電話株式会社 Information output system, information output method and program
WO2008014442A2 (en) * 2006-07-28 2008-01-31 David Michael Marmour Methods and apparatus for surveillance and targeted advertising
JP2008170637A (en) * 2007-01-10 2008-07-24 Brother Ind Ltd Controller for presentation system, and presentation system
JP2009198698A (en) * 2008-02-20 2009-09-03 Dainippon Printing Co Ltd Immersive display device
EP2360663B1 (en) * 2008-12-16 2016-04-20 Panasonic Intellectual Property Corporation of America Information display device and information display method
EP2395420B1 (en) * 2009-02-05 2018-07-11 Panasonic Intellectual Property Corporation of America Information display device and information display method
JP5345113B2 (en) * 2010-09-08 2013-11-20 シャープ株式会社 Content output system, output control apparatus, output control method, and computer program
DE102011082403A1 (en) * 2011-09-09 2013-03-14 Robert Bosch Gmbh Device and method for operating a display device arranged on a road
JP5635559B2 (en) * 2012-05-28 2014-12-03 ヤフー株式会社 Display device, display method, and display program

Also Published As

Publication number Publication date
JP2005157134A (en) 2005-06-16

Similar Documents

Publication Publication Date Title
CN105872452B (en) System and method for browsing abstract images
US10424341B2 (en) Dynamic video summarization
JP5527423B2 (en) Image processing system, image processing method, and storage medium storing image processing program
US8249397B2 (en) Playback of digital images
US20140149865A1 (en) Information processing apparatus and method, and program
CN109657533A (en) Pedestrian recognition methods and Related product again
US11676389B2 (en) Forensic video exploitation and analysis tools
CN106791710A (en) Object detection method, device and electronic equipment
JP4110323B2 (en) Information output method and apparatus, program, and computer-readable storage medium storing information output program
KR101484844B1 (en) Apparatus and method for privacy masking tool that provides real-time video
JP2009294740A (en) Data processor and program
CN110709857A (en) Apparatus, method and program for managing number of people
JP2005157135A (en) Information display method, system and program
JP6707715B2 (en) Learning device, estimating device, learning method and program
WO2024022301A1 (en) Visual angle path acquisition method and apparatus, and electronic device and medium
JP5850188B2 (en) Image display system
JP5376403B2 (en) Video display device and program
JP2006163527A (en) Image retrieval device and method
JP5962383B2 (en) Image display system and image processing apparatus
JP2020071717A (en) Information processing device, information processing method, and program
CN116895032A (en) Target tracking method, device, terminal equipment and storage medium
US20210097269A1 (en) Smart directing method
JP6820489B2 (en) Image processing device and image processing program
JP2017028688A (en) Image managing device, image managing method and program
JP2008148262A (en) Imaging apparatus, its control method, program, and storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080324

R150 Certificate of patent or registration of utility model

Ref document number: 4110323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120418

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140418

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term