JP2002260166A - Information distribution device and information distribution system - Google Patents

Information distribution device and information distribution system

Info

Publication number
JP2002260166A
JP2002260166A JP2001057082A JP2001057082A JP2002260166A JP 2002260166 A JP2002260166 A JP 2002260166A JP 2001057082 A JP2001057082 A JP 2001057082A JP 2001057082 A JP2001057082 A JP 2001057082A JP 2002260166 A JP2002260166 A JP 2002260166A
Authority
JP
Japan
Prior art keywords
information
distribution
image
image data
meaningful
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001057082A
Other languages
Japanese (ja)
Inventor
Hideyuki Kobayashi
秀行 小林
Tanichi Ando
丹一 安藤
Shinichi Mukogawa
信一 向川
Atsushi Shimizu
敦 清水
Masa Mitsuda
雅 満田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2001057082A priority Critical patent/JP2002260166A/en
Publication of JP2002260166A publication Critical patent/JP2002260166A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an information distribution device capable of easily performing determination even by a user with less knowledge and experiences. SOLUTION: Image processing is performed on image data D from an image pick-up means to extract meaningful information I associated with the image data. The meaningful information is distributed to a terminal 5 of a user 5' together with the picked-up image D or the appropriately processed image D'. The user can easily perform determination by referring to the meaningful information.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、情報配信装置及
び情報配信システムに関するものであり、より具体的に
は、携帯電話などの双方向の無線通信を使用し、渋滞情
報その他の交通関係情報などを配信するシステムに関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information distributing apparatus and an information distributing system, and more specifically, to traffic information and other traffic-related information using two-way wireless communication such as a mobile phone. Related to a delivery system.

【0002】[0002]

【従来の技術】交通情報として一般的なものは、高速道
路上のハイウェイラジオや、一般のラジオ放送中に流さ
れる交通情報がある。これらの情報は、放送されている
場所が限定されていたり(前者の場合)、放送される時
刻が決まっている(後者の場合)ので、聞きたいときに
必要な情報を得るのは困難であった。さらに、現在の情
報をリアルタイムで取得することもできなかった。
2. Description of the Related Art As general traffic information, there are a highway radio on an expressway and traffic information broadcast during general radio broadcasting. It is difficult to obtain necessary information when the user wants to listen to such information because the broadcasting place is limited (in the former case) or the broadcasting time is fixed (in the latter case). Was. Furthermore, the current information could not be obtained in real time.

【0003】係る問題を解決するため、道路上の渋滞箇
所などの状況をビデオカメラで撮像し、その撮像した画
像データをサーバに保管する。そして、そのサーバに格
納された画像データは、インターネットなどを介して所
定の端末に配信する。換言すると、ユーザは、画像デー
タを表示可能な端末を操作し、上記したサーバにアクセ
スする。そして、自分が見たい地点を撮像した画像情報
を選択する。この選択に伴い、サーバに格納された画像
データが、端末の表示画面に出力される。
In order to solve such a problem, a situation such as a traffic congestion point on a road is captured by a video camera, and the captured image data is stored in a server. Then, the image data stored in the server is distributed to a predetermined terminal via the Internet or the like. In other words, the user operates a terminal capable of displaying image data and accesses the server described above. Then, the user selects the image information obtained by imaging the point he wants to see. With this selection, the image data stored in the server is output to the display screen of the terminal.

【0004】すると、サーバには、現在ビデオカメラで
撮像中の画像データが逐次格納されているので、端末に
も係る撮像中の画像データを配信することがでる。よっ
て、ユーザは、見たいときに、必要な場所(ビデオカメ
ラが設置されている所定の場所)の状態を画像情報とし
て取得することができる。これにより、ユーザは、その
取得した画像情報を見て、混雑の程度や、その混雑の原
因などを知ることができる。
Then, since the image data currently being picked up by the video camera is sequentially stored in the server, the image data being picked up by the terminal can also be distributed. Therefore, the user can acquire the state of a necessary place (a predetermined place where the video camera is installed) as image information when he / she wants to see it. Thus, the user can see the acquired image information and know the degree of congestion, the cause of the congestion, and the like.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、従来の
システムでは、配信された画像データに基づいて多くの
情報を得ることができるものの、係る情報を取得するた
めには、ユーザが画像データを見てその内容を理解する
必要がある。つまり、有益な情報を取得するには、ある
程度ユーザ側で知識と経験が必要となる。さらには、取
得した情報を有効に活用することは、なおさらユーザの
知識並びに経験が左右し、必ずしも全てのユーザが正し
い情報を取得するとともに活用することは困難であっ
た。
However, in the conventional system, much information can be obtained based on the distributed image data. However, in order to obtain such information, the user needs to look at the image data. You need to understand its contents. That is, to obtain useful information, the user needs some knowledge and experience. Furthermore, the effective use of the acquired information depends more on the knowledge and experience of the users, and it has been difficult for all users to acquire and utilize the correct information.

【0006】この発明は、配信する画像情報を活用しや
すいとともに、知識・経験が少ないユーザであっても判
断が容易に行うことができる情報配信装置及び情報配信
システムを提供することを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an information distribution apparatus and an information distribution system in which image information to be distributed can be easily used and a user having little knowledge and experience can easily make a decision. .

【0007】[0007]

【課題を解決するための手段】この発明による情報配信
装置は、ネットワークを介してユーザへの情報を配信す
る情報配信装置である。そして、撮像手段からの画像デ
ータに対し、画像処理を行いその画像データに付随する
有意味情報を抽出する情報抽出手段と、前記画像データ
から配信用画像データを生成する手段と、前記配信用画
像データと前記有意味情報を合成して配信情報を生成す
る配信情報生成手段と、その配信情報をネットワークに
出力する通信手段とを備えたものである。
An information distribution apparatus according to the present invention is an information distribution apparatus for distributing information to a user via a network. An information extracting unit that performs image processing on the image data from the imaging unit and extracts meaningful information attached to the image data; a unit that generates distribution image data from the image data; It is provided with distribution information generating means for generating distribution information by synthesizing data and the meaningful information, and communication means for outputting the distribution information to a network.

【0008】「ユーザへの情報を配信する」とは、情報
配信装置がユーザの端末に直接情報を配信する場合はも
ちろんのこと、別の装置に一旦送信し、その装置を介し
て間接的にユーザの端末に配信する場合を含む。有意味
情報とは、配信されてきた画像から判断するに際し、そ
の判断を正確かつ迅速に行うために適した情報である。
画像からでは判断しにくい情報もあれば、判断するのに
時間がかかったり、経験・知識等が必要なものを予め有
意味情報として抽出する。実施の形態では、文字情報と
して表示するようにしているが、各種の記号などでもよ
い。
[0008] "Distributing information to a user" refers to not only a case where an information distribution device directly distributes information to a user's terminal, but also a case where information is transmitted once to another device and indirectly transmitted through that device. This includes the case of distribution to the user's terminal. The meaningful information is information suitable for making an accurate and prompt determination when making a determination from a distributed image.
If there is information that is difficult to determine from the image, information that takes time to make a determination or requires experience / knowledge is extracted as meaningful information in advance. In the embodiment, the information is displayed as character information, but may be various symbols.

【0009】有意味情報抽出手段は、撮像手段から送ら
れてきた画像データを直接受け取り、処理をするように
しても良いし、係る画像データを一旦画像記憶手段に格
納し、それを読み出して処理をするようにしても良い。
配信用画像データを生成する手段は、実施の形態では、
前処理部17aにより実現されている。なお、「配信用
画像データを生成する」とあるが、実施の形態のように
必ずしも画像に対する加工処理を行う必要はない。撮像
手段から送られてきた画像データをそのまま配信するこ
とができる場合には、加工は行わずに、必要な画像デー
タを選択する等の処理を行うものでも良い。
The meaningful information extracting means may directly receive and process the image data sent from the imaging means, or may temporarily store the image data in the image storing means, read it out and process the image data. You may make it.
The means for generating the image data for distribution is, in the embodiment,
This is realized by the preprocessing unit 17a. It should be noted that although “generation of distribution image data” is described, it is not always necessary to perform processing on an image as in the embodiment. If the image data sent from the imaging means can be delivered as it is, processing such as selecting necessary image data without processing may be performed.

【0010】この発明によると、画像データを配信する
に際し、有意味情報も併せて配信するので、受け取った
ユーザは、画像とともにその有意味情報を見ることによ
り、知識・経験の多少に関係なく迅速かつ正確な判断を
行うことができる。さらに、通常通り画像も送られてく
るので、個人の能力に応じて有意味情報では得られない
各種の情報を得ることができる。
According to the present invention, when image data is distributed, meaningful information is also distributed. Therefore, the user who receives the image data can quickly view the meaningful information together with the image regardless of knowledge and experience. And accurate judgment can be made. Furthermore, since an image is sent as usual, various kinds of information that cannot be obtained from meaningful information can be obtained according to the ability of the individual.

【0011】この発明の好ましい一実施態様において
は、画像以外の情報を取得するセンサを備え、前記配信
情報生成手段は、前記センサから得られた有意味情報も
合成して出力する機能を備えることである。もちろん、
係るセンサ等は必ずしも設ける必要はない。このように
センサを設けると、画像ではわかりにくい情報を併せて
配信することができるようになるので、より正確な判断
を迅速に行うことができるようになる。
[0011] In a preferred embodiment of the present invention, a sensor for acquiring information other than an image is provided, and the distribution information generating means has a function of synthesizing and outputting meaningful information obtained from the sensor. It is. of course,
Such a sensor or the like does not necessarily need to be provided. When the sensor is provided in this manner, information that is difficult to understand in an image can be distributed together, so that more accurate determination can be quickly performed.

【0012】また、配信する有意味情報は、各種のもの
が用意される。従って、予め設定したものを全て配信す
るようにしても良いし、前記配信情報生成手段は、前記
ネットワークを介して受信した要求に応じて合成する有
意味情報の種類を決定するようにしてもよい。後者のよ
うにすると、ユーザが必要とする情報のみを送るので、
ユーザにとっては無駄な情報が無く、必要な情報をすぐ
に見て判断することができるので好ましい。特に、端末
が表示画面が小さいものの場合、配信する有意味情報が
多いと画像が見にくくなり、画像を見て判断する際の妨
げとなるおそれもあるが、必要なもののみ送ることによ
って係る問題は解消される。
Various kinds of meaningful information to be distributed are prepared. Therefore, all of the preset information may be distributed, or the distribution information generating unit may determine the type of meaningful information to be combined in response to a request received via the network. . In the latter case, only the information the user needs is sent,
This is preferable because there is no useless information for the user, and necessary information can be seen and determined immediately. In particular, if the terminal has a small display screen, if there is too much meaningful information to distribute, it will be difficult to see the image, which may hinder the judgment by looking at the image, but the problem of sending only the necessary ones is a problem. Will be resolved.

【0013】なお、前記撮像手段は、道路を撮像するも
のであり、前記有意味情報は、前記道路の交通関係情報
とすることができる。係る利用分野によれば、渋滞状況
などがリアルタイムで取得することができ、走行するル
ートを決定する際などに役に立つ。なお、交通関係情報
とは、渋滞状況などの車両の走行状態と、路面その他の
道路の状態など交通に関する各種のものを含む。
[0013] The imaging means is for imaging a road, and the meaningful information may be traffic-related information of the road. According to the field of use, traffic conditions and the like can be acquired in real time, which is useful when determining a traveling route. The traffic-related information includes various types of traffic-related information such as a running state of a vehicle such as a traffic jam and a state of a road surface or other roads.

【0014】本発明に係る情報配信システムでは、撮像
手段からの画像データに対し、画像処理を行いその画像
データに付随する有意味情報を抽出する情報抽出手段
と、前記画像データから配信用画像データを生成する手
段と、前記配信用画像データと前記有意味情報を合成し
て配信情報を生成する配信情報生成手段を含む情報配信
装置を複数備える。さらに、それら複数の情報配信装置
から出力される情報を受け取り、統合して統合有意味情
報を生成するとともに、前記統合有意味情報をネットワ
ークに出力する統合処理装置を備えるものである。
In the information distribution system according to the present invention, information extraction means for performing image processing on the image data from the image pickup means and extracting meaningful information accompanying the image data, and image data for distribution from the image data , And a plurality of information distribution apparatuses including distribution information generating means for generating distribution information by synthesizing the distribution image data and the meaningful information. The information processing apparatus further includes an integrated processing device that receives information output from the plurality of information distribution apparatuses, integrates the information to generate integrated meaningful information, and outputs the integrated meaningful information to a network.

【0015】各情報配信装置は、必ずしも同一の種類と
する必要はなく、異なる機能を持つものでも良い。ま
た、情報配信装置は、上記した各機能以外に、例えば外
部センサを設けるなどその他の機能を付加してももちろ
ん良い。このように統合的判断をして統合有意味情報を
生成することにより、より複雑で高度な情報を配信する
ことができる。
The information distribution devices do not necessarily need to be of the same type, but may have different functions. In addition, the information distribution device may of course add other functions, such as providing an external sensor, in addition to the functions described above. By generating integrated meaningful information by performing integrated judgment in this way, more complex and sophisticated information can be distributed.

【0016】この発明の以上説明した構成要素は可能な
限り組み合わせることができる。この発明による情報配
信装置を構成する各手段を専用のハードウエア回路によ
って実現することができるし、プログラムされたコンピ
ュータによって実現することもできる。
The above-described components of the present invention can be combined as much as possible. Each means constituting the information distribution apparatus according to the present invention can be realized by a dedicated hardware circuit, or can be realized by a programmed computer.

【0017】[0017]

【発明の実施の形態】図1は、本発明が適用されるネッ
トワークを使用した情報配信システム全体の一例を示し
ている。同図に示すように、複数の情報収集装置1と、
サーバ2が、インターネットなどのネットワーク3に接
続されており、その情報収集装置1で収集した画像その
他の情報を、ネットワーク3を経由して逐次サーバ2に
伝達する。この送られてきた情報は、サーバ2上で加工
や整理され、配信に適した形に変換される。
FIG. 1 shows an example of an entire information distribution system using a network to which the present invention is applied. As shown in FIG.
The server 2 is connected to a network 3 such as the Internet, and sequentially transmits images and other information collected by the information collection device 1 to the server 2 via the network 3. The transmitted information is processed and arranged on the server 2 and converted into a form suitable for distribution.

【0018】また、使用者は端末5をネットワーク3に
接続することにより、所望の情報収集装置1で収集した
情報を端末5にダウンロードなどして、取得する。つま
り、サーバ2は、使用者(端末)から発せられた要求に
応じて、蓄積した所定の情報をネットワーク3を経由し
て使用者の端末5に配信する。
Further, the user connects the terminal 5 to the network 3 to download the information collected by the desired information collecting device 1 to the terminal 5 and acquire the information. That is, the server 2 distributes the stored predetermined information to the user's terminal 5 via the network 3 in response to a request issued from the user (terminal).

【0019】従って、使用者は、ネットワーク3に接続
できる環境,状況にあればいつでも情報収集装置1で収
集された情報を取得することができる。よって、情報収
集装置1が取得した情報をサーバ2にリアルタイムで伝
送し、蓄積するように運営することによって、使用者
は、いつでも必要な情報を取得し、判断をすることがで
きる。
Therefore, the user can acquire the information collected by the information collecting device 1 at any time in an environment and a state where the user can connect to the network 3. Thus, by operating the information collection device 1 to transmit and accumulate the acquired information to the server 2 in real time, the user can always acquire necessary information and make a determination at any time.

【0020】情報収集装置1は、道路の周囲に設置さ
れ、その設置された道路の状況を撮像する撮像装置を備
えている。具体的には、図2,図3に示すようになって
いる。同図に示すように、撮像装置10は、CCDを使
用したビデオカメラからなり、設置された周辺の道路の
混雑状態や交差点の様子の動画像を撮影し、Motio
nJPEG形式などのデジタルデータ(デジタル動画情
報)として出力する。この出力されたデジタル動画情報
が、データ処理装置11に与えられる。
The information collecting device 1 is provided around a road and includes an image pickup device for picking up an image of the condition of the road where the information is set. Specifically, it is as shown in FIGS. As shown in FIG. 1, the imaging device 10 includes a video camera using a CCD, and captures a moving image of a congested state of an installed peripheral road or a state of an intersection.
It is output as digital data (digital moving image information) such as nJPEG format. The outputted digital moving image information is provided to the data processing device 11.

【0021】ビデオカメラからなる撮像装置10が、監
視エリアの道路の状態を撮像し、動画データを得る。そ
して、この撮影処理は、図5に示すフローチャートを実
施するように動作する。すなわち、撮像装置10は、内
部タイマを持ち、規定時間(撮影間隔)が経過する都
度、CCDカメラで撮影する(ST11〜ST13)。
ここで撮影する映像は動画を想定しており、解像度は7
20×480ピクセルを満たす比較的高い解像度の映像
である。撮影間隔としては、例えば30フレーム/秒と
する。このようにして所定間隔毎に撮影された画像デー
タは、デジタルデータに変換され(ST14)、得られ
た画像データは、画像一時記憶デバイスに一時記憶され
(ST15)、データ処理装置11に転送する。撮影処
理は、上記した処理を繰り返し実行する。
An image pickup device 10 comprising a video camera picks up an image of a road condition in a monitoring area to obtain moving image data. Then, this photographing process operates to carry out the flowchart shown in FIG. That is, the imaging device 10 has an internal timer, and captures an image with the CCD camera every time a specified time (imaging interval) elapses (ST11 to ST13).
The image taken here is assumed to be a moving image, and the resolution is 7
This is a relatively high-resolution image that satisfies 20 × 480 pixels. The shooting interval is, for example, 30 frames / second. The image data photographed at predetermined intervals in this manner is converted into digital data (ST14), and the obtained image data is temporarily stored in an image temporary storage device (ST15) and transferred to the data processing device 11. . The photographing process repeatedly executes the above process.

【0022】データ処理装置11は、通常のPCレベル
の処理能力を持ち、撮像装置10が撮影したデジタル動
画像情報を加工し、されに利用し易い情報を抽出した
り、圧縮したり、不要なデータを削除することなどによ
り回線容量の小さいネットワークに接続された端末に対
しても配信し易いデータ量に変更する。
The data processing device 11 has a normal PC level processing capability, processes digital moving image information photographed by the imaging device 10, extracts information which can be easily used, compresses the information, and performs unnecessary processing. By deleting data or the like, the data amount is changed to a data amount that can be easily distributed to a terminal connected to a network having a small line capacity.

【0023】また、データ処理装置11には、ハードデ
ィスクその他の記憶媒体で構成されるストレージ12が
接続され、データ処理装置11で加工処理された画像
や、加工処理するためのデータを格納する。係る加工処
理するためのデータとしては、撮像装置10で撮像し、
送られてきた処理対象の画像と比較するための画像であ
ったり、解像度を変更した画像や抽出したデータ等があ
る。
The data processing device 11 is connected to a storage 12 constituted by a hard disk or other storage medium, and stores images processed by the data processing device 11 and data for processing. As data for such processing, an image is taken by the imaging device 10,
The image may be an image for comparison with the transmitted image to be processed, an image with a changed resolution, extracted data, or the like.

【0024】そして、データ処理装置11で加工処理さ
れた画像その他の情報が、通信装置13に与えられる。
通信装置13は、取得した画像その他の情報を、ネット
ワーク3に対して送信する。つまり、送信先のサーバ2
のアドレスを付加した送信フレーム等を生成し、ネット
ワーク3上に送信することにより、上記した加工された
画像その他の情報がサーバ2に収集され、蓄積される。
The image and other information processed by the data processing device 11 are provided to the communication device 13.
The communication device 13 transmits the acquired image and other information to the network 3. That is, the destination server 2
By generating a transmission frame or the like to which the above-mentioned address is added and transmitting it on the network 3, the above-mentioned processed image and other information are collected and stored in the server 2.

【0025】データ処理装置11の内部構成は、図3の
ようになる。すなわち、撮像装置10の出力データを受
け取ったり、通信装置13を介して受信した情報を取得
する入力部15を有する。入力部15で取得した情報
(データ)は、CPU17に与えられる。
The internal configuration of the data processing device 11 is as shown in FIG. That is, it has an input unit 15 that receives output data of the imaging device 10 and obtains information received via the communication device 13. The information (data) obtained by the input unit 15 is provided to the CPU 17.

【0026】CPU17は、外部記憶装置(ストレー
ジ)12に格納された所定のデータを読み出すととも
に、ワークメモリとしてのメモリ14を適宜使用して、
入力部15から受け取った画像データに対して所定の加
工処理を実行する。そして、生成された加工データを出
力部16に渡す。出力部16は、受け取った加工データ
を通信装置13に渡し、送信可能としている。なお、各
処理部間は、バスに接続されて、そのバスを介してデー
タの転送を行う。さらに、データ処理装置11と通信装
置13は、例えば、パソコンにより実現することができ
る。
The CPU 17 reads out predetermined data stored in the external storage device (storage) 12 and appropriately uses the memory 14 as a work memory.
A predetermined processing is performed on the image data received from the input unit 15. Then, the generated processing data is passed to the output unit 16. The output unit 16 passes the received processed data to the communication device 13 so that the data can be transmitted. The processing units are connected to a bus and transfer data via the bus. Further, the data processing device 11 and the communication device 13 can be realized by, for example, a personal computer.

【0027】ここで本発明では、図4に示すように、デ
ータ処理装置11における加工処理が、単なる画像処理
ではなく、取得した画像データD或いはその画像データ
Dから得られた前処理済み画像データD′に基づき特徴
抽出を行い、有意味情報Iを生成する。なお、実際に
は、インターネット上での伝送を考慮し、配信する画像
は前処理してデータ容量を軽くした画像データD′とし
ている。また、特徴抽出は、画像データD(明瞭にする
べく補正をしたD′でも良い)に基づいて行う。そし
て、画像データ(D′)と有意味情報Iを対にして、配
信を行うようにしている。つまり、画像から取り出した
有意味情報Iが画像と同時に配信されるようにしてい
る。実際には、係る関連づけた画像データD′と有意味
情報Iをサーバ2に蓄積し、使用者5′はサーバ2をア
クセスして端末5に係る画像データD′と有意味情報I
をダウンロードし、表示する。
Here, in the present invention, as shown in FIG. 4, the processing in the data processing device 11 is not a simple image processing, but is a process in which acquired image data D or pre-processed image data obtained from the image data D is processed. Feature extraction is performed based on D ′ to generate meaningful information I. Actually, in consideration of transmission on the Internet, an image to be distributed is pre-processed as image data D 'whose data capacity is reduced. The feature extraction is performed based on the image data D (or D 'corrected for clarity). Then, the image data (D ') and the meaningful information I are paired and distributed. That is, the meaningful information I extracted from the image is distributed simultaneously with the image. Actually, the associated image data D 'and meaningful information I are stored in the server 2, and the user 5' accesses the server 2 to access the image data D 'related to the terminal 5 and the meaningful information I.
Download and display.

【0028】そして、使用者5′は、表示された画像デ
ータD′と有意味情報Iを見ながら、最終的な判断を行
う。このとき、有意味情報Iが画像とともに表示される
ので、判断するために必要な経験や知識が少なくても、
その有意味情報Iに基づいて正確な判断を、容易かつ迅
速に行うことができる。なお、係る判断内容としては、
例えば、「渋滞してきているので、ルートを変えよ
う」,「今混んでいるが、該当箇所に到着するころには
渋滞が解消しているので、このままのルートで行こう」
等がある。
Then, the user 5 'makes a final decision while looking at the displayed image data D' and the meaningful information I. At this time, since the meaningful information I is displayed together with the image, even if there is little experience or knowledge necessary for making a judgment,
Accurate determination can be made easily and quickly based on the meaningful information I. In addition, as the content of the judgment,
For example, "change the route because it's getting jammed,""it's crowded now, but by the time you arrive at the location, the jam is gone, so let's go on the same route."
Etc.

【0029】上記した有意味情報Iの抽出を行うための
CPU17のソフトウェア構成は図6に示すようにな
る。すなわち、撮像装置10から所定間隔毎に1フレー
ムずつ画像データが転送されてくるので、CPU17
は、入力部15を介して、係る画像データ(撮影デー
タ)を取得する。具体的には、前処理部17aに与え
る。また、画像データは、そのまま、外部記憶装置(ス
トレージ)12にも記憶される。
FIG. 6 shows a software configuration of the CPU 17 for extracting the meaningful information I described above. That is, since image data is transferred from the imaging device 10 one frame at a predetermined interval, the CPU 17
Acquires such image data (photographing data) via the input unit 15. Specifically, it is provided to the preprocessing unit 17a. Further, the image data is also stored in the external storage device (storage) 12 as it is.

【0030】有意味情報を正しく抽出するために、撮像
装置10では、高精度な画像データを撮像するようにし
ている。その結果、1フレームに必要な容量が大きくな
り、そのままだと、インターネットを前提とした動画配
信が困難となる。そこで、前処理部17aは、インター
ネットを前提として動画像配信が可能なように表現する
色数を減らしたり、解像度やフレームレートを落とす処
理を実行する。さらに、画像の不鮮明な部分を見易くし
たり、コントラストやフォーカスの改善明暗のダイナミ
ックレンジを改善するための処理を行う。この前処理済
みの画像データは一旦ストレージ12に蓄積し、その他
の作業や画像配信に利用する。
In order to correctly extract meaningful information, the imaging device 10 captures highly accurate image data. As a result, the capacity required for one frame increases, and if it is left as it is, it becomes difficult to distribute moving images on the premise of the Internet. Therefore, the preprocessing unit 17a executes a process of reducing the number of colors to be expressed so as to be able to deliver a moving image on the premise of the Internet, or reducing the resolution and the frame rate. Further, processing is performed to make the unclear portion of the image easier to see, and to improve the contrast and focus and to improve the dynamic range of light and dark. The preprocessed image data is temporarily stored in the storage 12 and used for other operations and image distribution.

【0031】この例では、撮像され、転送されてきた全
ての画像データに対して実行するようにしたが、例え
ば、配信要求を受け、実際に情報の配信を行う際に必要
な画像に対して行うようにしても良い。係る場合には、
例えば、図7に示すフローチャートに示す手順により実
施できる。つまり、要求画像データの入力を受けると、
ストレージ(画像一時記憶デバイス)12から必要画像
を取得する(ST21,ST22)。そして、適した画
像が無い場合には、ステップ1に飛び、新たな画像の転
送に伴う入力を待つ(ST23)。
In this example, the process is executed for all the image data that has been imaged and transferred. For example, for an image required when a distribution request is received and information is actually distributed, It may be performed. In such cases,
For example, it can be implemented by the procedure shown in the flowchart shown in FIG. In other words, when the request image data is received,
A required image is obtained from the storage (temporary image storage device) 12 (ST21, ST22). If there is no suitable image, the process jumps to step 1 and waits for an input accompanying transfer of a new image (ST23).

【0032】適する画像が入手できると、色数の変更,
解像度の変更などの画像処理を行う(ST24,ST2
5)。ステップ21で受けた要求が動画像か否かを判断
(ST26)し、動画像の場合には、必要な画像の収集
を行う(ST27)。この必要な画像についても、色数
の変更,解像度の変更などを行う。そして、フォーマッ
トの変更を行う(ST28)。なお、このフォーマット
を変更して生成された画像データ(配信画像データ)
は、例えば、ストレージ12内の配信画像データ記憶部
に一旦保存するようにしてもよいし、配信情報生成部1
7cに渡すようにしてもよい。
When a suitable image is available, the number of colors can be changed,
Perform image processing such as changing the resolution (ST24, ST2)
5). It is determined whether the request received in step 21 is a moving image (ST26). If the request is a moving image, necessary images are collected (ST27). For this necessary image, the number of colors, the resolution, etc. are changed. Then, the format is changed (ST28). Note that image data generated by changing this format (delivery image data)
May be temporarily stored in, for example, a distribution image data storage unit in the storage 12, or the distribution information generation unit 1
7c.

【0033】また、有意味情報を抽出するための情報抽
出部17bは、ストレージ12に格納された撮影した画
像データを抽出し、そこから有意味情報を抽出する。具
体的には、図8に示すフローチャートを実施する。
The information extracting section 17b for extracting meaningful information extracts the photographed image data stored in the storage 12, and extracts meaningful information therefrom. Specifically, the flowchart shown in FIG. 8 is performed.

【0034】すなわち、同図に示すように、データ処理
装置11は、撮像装置10から転送されてきた高精度の
画像データを画像一時記憶デバイスであるストレージ1
2から読み込む(ST31)。そして、画像中の必要部
分の切り出しを行う(ST32)。この切り出しは、例
えば、ストレージ12等に記憶保持されている車道範囲
データに基づき、画像中の車道部分を切り出す。
That is, as shown in FIG. 1, the data processing device 11 stores the high-precision image data transferred from the imaging device 10 in the storage 1 as a temporary image storage device.
2 (ST31). Then, a necessary portion in the image is cut out (ST32). This cutout cuts out the roadway portion in the image, for example, based on the roadway range data stored in the storage 12 or the like.

【0035】そして、切り出した画像に対し、移動物体
の検出を行う(ST33)。この移動体の検出は、一般
的な車両抽出アルゴリズムとして提供される「背景差分
法」や「時間差分法」などを用いることにより行える。
すなわち、背景差分法は、予め車両や落下物のない画像
(背景画像)を用意し、その背景画像と処理対象の画像
の差分をとることにより、移動物体を検出する。また、
時間差分法は、時間間隔δ間の異なる画像で比較演算を
することにより、それら2枚の画像間で移動した物体を
抽出する。
Then, a moving object is detected from the clipped image (ST33). The detection of the moving object can be performed by using a “background difference method” or a “time difference method” provided as a general vehicle extraction algorithm.
That is, in the background subtraction method, a moving object is detected by preparing an image (background image) without a vehicle or a falling object in advance, and calculating the difference between the background image and the image to be processed. Also,
The time difference method extracts an object moved between the two images by performing a comparison operation on different images during the time interval δ.

【0036】上記2つの車両抽出アルゴリズムのうち、
いずれか一方を用いても良いが、それぞれ一長一短があ
ることから、本形態では、両方を採用し、状況に応じて
適宜切り替えて抽出することにしている。つまり、背景
差分法は、移動物体並びに静止物体(例えば、一時停止
中の車両)を検出するのには適しているが、検出精度は
背景画像の精度に起因し、例えば、日射しや陰の急激な
変動があると、背景画像の信頼性が低下する。つまり、
環境変動への対応が弱い。これに対し、時間差分法で
は、環境変動への対応並びに移動物体の抽出は高精度に
行えるものの、静止物体の抽出はできないと言う問題が
ある。そこで、環境変動の有無(程度)を判断し、変動
が少ない場合には背景差分法による抽出を行い、変動が
大きい場合には時間差分法による抽出を行うようにし
た。
Of the above two vehicle extraction algorithms,
Either one may be used, but each has advantages and disadvantages, and therefore, in the present embodiment, both are adopted and appropriately switched and extracted according to the situation. That is, the background subtraction method is suitable for detecting a moving object and a stationary object (for example, a vehicle that is temporarily stopped), but the detection accuracy is caused by the accuracy of the background image. If there is such a fluctuation, the reliability of the background image is reduced. That is,
Poor response to environmental change. On the other hand, in the time difference method, there is a problem that although it is possible to respond to environmental changes and extract a moving object with high accuracy, it is not possible to extract a stationary object. Therefore, the presence / absence (degree) of the environmental change is determined, and if the change is small, the extraction is performed by the background difference method, and if the change is large, the extraction is performed by the time difference method.

【0037】次に、抽出された移動物体から車両を特定
するとともに、通過台数をカウントする(ST34)。
そして、通過台数を文字情報として出力する。実際に
は、ストレージ12内の通過台数記憶部内に計数した日
時データとともに格納する。
Next, a vehicle is specified from the extracted moving objects, and the number of vehicles passing therethrough is counted (ST34).
Then, the number of passing vehicles is output as character information. Actually, it is stored together with the counted date and time data in the passing number storage unit in the storage 12.

【0038】この車両の台数カウントは、例えば、以下
に示すアルゴリズムにより対処できる。切り出した領域
中の所定位置に、長方形状の通過車両検知エリアを設定
する。この長方形の大きさは、車両の前面が入ることが
できるようにし、各車線毎に設置する。すると、車両は
その前面は水平エッジが多いことを利用して、上記通過
車両検知エリア内に微分フィルタをかける。これによ
り、抽出された移動物体が車両であり、係る車両の前面
が上記エリア内を通過すると、微分フィルタの出力にピ
ークがでるので、係るピークの有無により車両の有無を
判断する。そして、単位時間あたりの車両検知数(ピー
クの数)が、求める通過台数となる。
The counting of the number of vehicles can be dealt with, for example, by the following algorithm. A rectangular passing vehicle detection area is set at a predetermined position in the cut-out area. The size of this rectangle allows the front of the vehicle to enter and is installed for each lane. Then, by utilizing the fact that the front surface of the vehicle has many horizontal edges, a differential filter is applied to the passing vehicle detection area. As a result, when the extracted moving object is a vehicle and the front of the vehicle passes through the area, a peak appears in the output of the differential filter. Therefore, the presence or absence of the vehicle is determined based on the presence or absence of the peak. Then, the number of detected vehicles (the number of peaks) per unit time is the required number of passing vehicles.

【0039】更に、車両を追跡することにより、車両の
速度を測定する(ST35)。そして、車両速度を文字
情報として出力する。実際には、ストレージ12内の車
両速度記憶部内に、測定した日時データとともに格納す
る。
Further, the speed of the vehicle is measured by tracking the vehicle (ST35). Then, the vehicle speed is output as character information. Actually, it is stored together with the measured date and time data in the vehicle speed storage unit in the storage 12.

【0040】この車両の速度計測は、例えば、以下に示
すアルゴリズムにより対処できる。すなわち、各車線
に、速度計測用エリアを設定する。この速度計測用エリ
アは、車線に沿って一定の距離(車両の1台分の長さよ
りも十分に長い距離)に相当するように設定する。そし
て、このエリア内を移動する車両を追跡する。そして、
車両の追跡を開始した位置と、終了した位置から移動距
離を求めるとともに、追跡していた時間から、速度を算
出する。
This vehicle speed measurement can be dealt with, for example, by the following algorithm. That is, a speed measurement area is set for each lane. This speed measurement area is set to correspond to a fixed distance (a distance sufficiently longer than the length of one vehicle) along the lane. Then, the vehicle moving in this area is tracked. And
The travel distance is calculated from the position where the tracking of the vehicle has started and the position where the tracking has ended, and the speed is calculated from the time during which the vehicle was tracked.

【0041】実際の追跡は、例えば、上記したエリアよ
り更に上流側に、台数計数アルゴリズムと同様の車両検
知アルゴリズムにより、追跡対象の車両を検出し、その
車両の画像データをテンプレートとして登録する。そし
て、その後に入出する画像データに対してテンプレート
マッチングを行い、上記したエリア内にテンプレートに
一致する車両が進入してきたことを検知したならば、そ
の車両を追跡する。車両の追跡は、車両の移動方向を想
定し、当該想定した領域に対してテンプレートマッチン
グを行うことにより実行できる。
In actual tracking, for example, a vehicle to be tracked is detected by a vehicle detection algorithm similar to the number counting algorithm further upstream from the above-mentioned area, and image data of the vehicle is registered as a template. Then, template matching is performed on the image data that enters and exits thereafter, and when it is detected that a vehicle that matches the template has entered the above-described area, the vehicle is tracked. The tracking of the vehicle can be executed by assuming the moving direction of the vehicle and performing template matching on the assumed area.

【0042】さらに、上記のようにして求めた通行台数
と速度から渋滞距離を算出する(ST36)。そして、
求めた渋滞距離を文字情報として出力する。実際には、
ストレージ12内の渋滞情報記憶部内に日時データとと
もに格納する。
Further, the congestion distance is calculated from the number of vehicles and the speed obtained as described above (ST36). And
The obtained congestion distance is output as character information. actually,
It is stored together with the date and time data in the congestion information storage unit in the storage 12.

【0043】この渋滞距離の算出は、例えば、以下に示
すアルゴリズムにより対処できる。すなわち、例えば、
走行速度が早い場合には、渋滞は発生していないと推定
できる。また、走行速度が極端に遅い場合でも、ある時
間内での通過台数も極端に遅い場合には、たまたまその
車両がゆっくり走行していたもので、渋滞は発生してい
ないといえる。これに対し、速度が遅い場合でも、ある
程度の台数が通過している場合には、渋滞が発生してい
ると推定できる。さらに、渋滞中の車両の走行状態(速
度)の特徴として、停止と発進が繰り返されることか
ら、低速度内で速度変動が頻繁に生じる場合も渋滞中と
推定できる。更に、渋滞中の場合、停止している時間が
長いほど、並びに速度が遅いほど渋滞距離は長いと推定
できる。そこで、通過台数と速度などの車両の走行状況
(入力条件)に対する渋滞距離を関連づけたテーブルを
予め作成し、ストレージ12等に記憶保持させておき、
ステップ36の算出処理では、上記テーブルを参照する
ことにより求めることができる。
The calculation of the congestion distance can be dealt with, for example, by the following algorithm. That is, for example,
When the traveling speed is high, it can be estimated that no congestion has occurred. Further, even when the traveling speed is extremely low, if the number of vehicles passing through within a certain period of time is extremely slow, it can be said that the vehicle accidentally traveled slowly and no traffic congestion has occurred. On the other hand, even when the speed is low, if a certain number of vehicles have passed, it can be estimated that congestion has occurred. Further, as a characteristic of the traveling state (speed) of the vehicle during traffic congestion, stop and start are repeated, so that it can be estimated that traffic congestion occurs even when the speed changes frequently within a low speed. Furthermore, in the case of traffic congestion, it can be estimated that the longer the time of stoppage and the lower the speed, the longer the congestion distance. Therefore, a table in which traffic congestion distances are associated with the traveling conditions (input conditions) of the vehicle such as the number of passing vehicles and the speed is created in advance, and stored in the storage 12 or the like.
In the calculation processing in step 36, the value can be obtained by referring to the table.

【0044】もちろん、これ以外にも、例えば、道路に
沿って複数のカメラを設置し、渋滞の先頭と、最後尾を
判断し、その間の距離から渋滞距離を算出することもで
きる。
Of course, besides this, for example, a plurality of cameras may be installed along the road, the head and the tail of the congestion may be determined, and the congestion distance may be calculated from the distance therebetween.

【0045】さらに、渋滞距離の時系列データから、現
在渋滞が進行・拡大しているのか、解消に向かっている
のかを求め、それを記憶保持させても良い。これは、例
えば、過去何回分の渋滞距離の平均を0%とし、増加し
ている場合には+X%,減少している場合には−%等と
表示することができる。比較基準の渋滞距離は、上記し
た例では平均としているが、前回或いは所定回数前の1
回の渋滞距離と比較するようにしても良い。さらに、渋
滞距離の変化の軌跡から、一定時間経過後の渋滞距離を
予測するようにしても良い。
Further, from the time-series data of the traffic congestion distance, it may be determined whether the traffic congestion is currently progressing / expanding or going to be resolved, and may be stored. For example, the average of the number of traffic congestion distances in the past can be set to 0%, + X% when increasing,-% when decreasing, and the like. The congestion distance of the comparison standard is the average in the above example,
You may make it compare with the traffic jam distance of a round. Further, the congestion distance after a certain period of time may be predicted from the trajectory of the change in the congestion distance.

【0046】さらにまた、抽出する有意味情報として
は、上記したもの以外に、例えば、車両の方向,間隔,
密度車両の大きさを基準とした車種の比率などを算出し
たり、撮影するカメラからの情報を加味して、撮影範囲
の明るさを判定したり、明部の検索・追跡から車のライ
トの点灯率等を計測することもできる。
Further, the meaningful information to be extracted includes, in addition to the above-mentioned meaningful information, for example, the direction, interval,
Calculates the ratio of vehicle types based on the size of the high-density vehicle, determines the brightness of the shooting range by taking into account information from the camera that is shooting, The lighting rate and the like can be measured.

【0047】配信情報生成部17cは、情報抽出部17
bで求めた有意味情報と、前処理部17aで加工した画
像データを統合し配信するもので、具体的には、図9に
示すフローチャートを実施する。すなわち、配信要求を
待ち(ST41,ST42)、要求があったならば、該
当する配信画像データを、ストレージ12内の配信画像
データ記憶部から読み出す(ST43)。
The distribution information generation unit 17 c
The meaningful information obtained in b and the image data processed by the preprocessing unit 17a are integrated and distributed. Specifically, the flowchart shown in FIG. 9 is implemented. In other words, it waits for a distribution request (ST41, ST42), and if so, reads out the corresponding distribution image data from the distribution image data storage unit in the storage 12 (ST43).

【0048】合成する文字情報の有無を判断し(通常は
あり)、存在する場合には該当する文字情報、つまり有
意味情報を読み込む(ST44,ST45)。このとき
読み出す有意味情報の種類は、予め固定していても良い
し、使用者からの配信要求とともに送られる条件に従っ
て、必要なものを読み出すようにしても良い。
It is determined whether or not there is character information to be synthesized (usually). If there is, the corresponding character information, that is, meaningful information is read (ST44, ST45). At this time, the type of meaningful information to be read may be fixed in advance, or necessary information may be read according to a condition sent together with a distribution request from the user.

【0049】そして、読み出した文字情報と、前処理し
た配信画像データを合成し、得られた配信画像(文字情
報付き)を出力する(ST46,ST47)。この配信
画像の出力先は、例えば出力部を経由した通信装置13
とし、そのままネットワークに発信するようにしても良
いし、一旦ストレージ12に一時格納し、その後発信す
るようにしても良い。なお、配信する映像は基本的に遅
延の少ないライブ映像を使用し、リアルタイム性を失わ
ない情報提供を行う。
Then, the read character information and the preprocessed distribution image data are combined, and the obtained distribution image (with character information) is output (ST46, ST47). The output destination of the distribution image is, for example, the communication device 13 via the output unit.
The message may be transmitted to the network as it is, or may be temporarily stored in the storage 12 once and then transmitted. It should be noted that a video to be distributed is basically a live video with a small delay, and information is provided without losing the real-time property.

【0050】これにより、例えば、上記の情報と画像自
身を統合し、ネットワークを通じて受信した使用者の要
求に応じた情報配信を行うことができる。一例を示す
と、従来は、図10に示すように、監視領域の道路の状
況を撮像した画像が提供されるだけであったのに対し、
本形態によれば、図11に示すように、端末5の表示画
面には、文字情報が併せて表示される。このように映像
データ及び映像から抽出したデータを使用者の要求に応
じて発信することで、映像だけでは判断が難しかった情
報を容易に受けることが可能になる。
Thus, for example, the above information and the image itself can be integrated, and information distribution according to the user's request received through the network can be performed. For example, as shown in FIG. 10, conventionally, only an image obtained by capturing the state of the road in the monitoring area is provided.
According to the present embodiment, as shown in FIG. 11, character information is also displayed on the display screen of the terminal 5. By transmitting the video data and the data extracted from the video according to the request of the user in this manner, it is possible to easily receive information that is difficult to determine only with the video.

【0051】なお、上記した移動物体(車両)の検出並
びにそれに付随する各処理は、例えば、「交通流監視画
像処理システムの開発」(OMRON TECHNIC
SVol.38 No.1 1998の第10〜13
頁)や、「画像処理を用いたリアルタイム交通流計測シ
ステム」(三菱重工技報 Vol34 No.6(19
97−11)第418から421頁)等に開示された技
術を用いて実施することができる。
The above-described detection of a moving object (vehicle) and processes associated therewith are described in, for example, "Development of Traffic Flow Monitoring Image Processing System" (OMRON TECHNIC).
SVol. 38 No. 1 1998 10th-13th
Page) and “Real-time traffic flow measurement system using image processing” (Mitsubishi Heavy Industries Technical Report Vol 34 No. 6 (19)
97-11), pp. 418 to 421).

【0052】しかも、係る情報を入手したい使用者は、
通常運転者或いは同乗者というように、車両内にいるこ
とが多い。従って、端末5としても携帯電話やそれに類
する携帯端末というように表示画面が小さいことが多
い。しかも、画像データは解像度が低下されたり、色数
を落としたものであるので、たとえ経験,知識があって
も画像のみでは判断しにくいことがあるが、文字情報を
付加することにより、そのように表示画面が小さい端末
であっても容易かつ迅速に理解することができ、必要な
判断を正しく行える。
Further, a user who wants to obtain such information,
It is often in a vehicle, such as a normal driver or a passenger. Therefore, the display screen of the terminal 5 is often small, such as a mobile phone or a similar mobile terminal. Moreover, since the image data has a reduced resolution or a reduced number of colors, it may be difficult to determine the image data using only the image, even if the user has the experience and knowledge. In addition, even a terminal having a small display screen can easily and quickly understand, and can make necessary judgments correctly.

【0053】なお、撮像装置10はビデオカメラ以外に
も動画像を撮ることができれば同様の効果を得ることが
できる。また、通常のCCDによる可視光だけでなく赤
外線カメラを使用すれば、昼間だけでなく夜間の撮影や
温度差に応じた画像を撮影することができる。さらに、
画像の解像度はフレームレートは提供する情報に適した
設定を選べば良く、上記の方法に限定されるものではな
い。
It should be noted that the same effect can be obtained if the imaging device 10 can take a moving image other than the video camera. Further, if an infrared camera is used in addition to ordinary CCD visible light, not only daytime but also nighttime shooting and an image corresponding to a temperature difference can be taken. further,
As for the resolution of the image, the frame rate may be set to a setting suitable for the information to be provided, and is not limited to the above method.

【0054】また、本実施例では撮像装置とデータ処理
装置が接続されているが、これらの接続は有線である必
要はなく、例えば図12に示すように、撮像装置10
(カメラ部)に送信装置18を接続し、無線によるデー
タ送信を行い、受信装置19によって遠隔でデータを受
信してデータ処理装置11に画像データを与えそこにお
いて処理をしても同様の効果が得られる。
In this embodiment, the image pickup device and the data processing device are connected. However, these connections do not need to be wired. For example, as shown in FIG.
The same effect can be obtained by connecting the transmitting device 18 to the (camera unit), transmitting data wirelessly, receiving the data remotely by the receiving device 19, providing the image data to the data processing device 11, and processing there. can get.

【0055】なおまた、ストレージ12はHDD以外の
記憶装置を用いても良い。さらに、機能を限定し、撮影
した画像を一時的にも蓄積する必要がなければストレー
ジを省略した構成も可能である。また、ネットワーク3
は、インターネットだけでなくローカルなネットワーク
や無線LAN等他の手法を使用した配信方法でも同様の
効果を得ることができる。
The storage 12 may use a storage device other than the HDD. Furthermore, a configuration in which the functions are limited and the storage is omitted if there is no need to temporarily store captured images is also possible. Network 3
The same effect can be obtained by a distribution method using not only the Internet but also other methods such as a local network and a wireless LAN.

【0056】さらに、画像から情報を抽出する方法は上
記以外にも、視界の深さを撮影した画像のホワイトバラ
ンスや透明度の指標によって算出したり、特定の対象を
画像から抽出することで車両以外の数を数えたり、点滅
物体を探すことで画像中の異常な状況を把握したりする
ことが可能である。また、異なる時間に同じ位置から撮
影した画像と比較することで、現在の画像中の異なる部
分を察知したり、状況の変化を把握することができる。
さらに、撮像装置10は、固定した定点からの撮影だけ
でなく、予めプログラムされた動きや使用者の要求に応
じて動作するカメラを用いることもできる。
In addition to the above-mentioned methods for extracting information from an image, the depth of field of view can be calculated by using the white balance or transparency index of the photographed image, or by extracting a specific object from the image to obtain information other than the vehicle. It is possible to grasp the abnormal situation in the image by counting the number of objects and searching for a blinking object. In addition, by comparing images captured from the same position at different times, it is possible to detect different portions in the current image or to grasp changes in the situation.
Further, the imaging apparatus 10 can use not only a fixed fixed point but also a camera that operates according to pre-programmed movement or a user's request.

【0057】この例では、個々の情報収集装置1が収集
した情報を一旦ネットワーク3を経由してサーバ2に与
えるようにしたが、本発明はこれに限ることはなく、例
えば情報収集装置1にサーバ機能を持たせ、各使用者
は、情報を収集したい場所に設置された情報収集装置1
に対して直接アクセスして、情報を取得するようにして
も良い。なお、その場合に使用者の便宜を図るために
は、図2に示すシステム構成におけるサーバ2をポータ
ルサイトとすると良い。
In this example, the information collected by the individual information collecting apparatuses 1 is provided to the server 2 via the network 3 once, but the present invention is not limited to this. A server function is provided, and each user can use an information collection device 1 installed at a place where information is to be collected.
May be directly accessed to acquire information. In this case, for the convenience of the user, the server 2 in the system configuration shown in FIG. 2 may be used as a portal site.

【0058】図13〜図15は、本発明の第2の実施の
形態を示している。同図に示すように、第1の実施の形
態を基本とし、さらに外部センサ20を設置し、その外
部センサ20のセンサ出力もデータ処理装置11に送
る。外部センサ20は、例えば温度などの環境情報(こ
の例では気温)を計測するものである。
FIGS. 13 to 15 show a second embodiment of the present invention. As shown in the figure, based on the first embodiment, an external sensor 20 is further provided, and the sensor output of the external sensor 20 is also sent to the data processing device 11. The external sensor 20 measures, for example, environmental information such as temperature (temperature in this example).

【0059】データ処理装置11のCPU17内のソフ
トウェア構成は、図14に示すようになり、外部センサ
20からのセンサ情報を処理するセンサデータ加工部1
7dを有している。
The software configuration in the CPU 17 of the data processing device 11 is as shown in FIG. 14, and the sensor data processing unit 1 for processing sensor information from the external sensor 20
7d.

【0060】このセンサデータ加工部17dは、取得し
たセンサ情報(付加情報)に基づき、有意味情報として
提供するデータを生成するものである。つまり、センサ
出力が意味する内容を文字情報に変換する機能を持つ。
例えば、外部センサ20が温度センサの場合、検出した
温度を認識し、「気温X℃」(Xは、実際の温度)とい
うような文字情報を生成し、ストレージ12内のセンサ
情報記憶部に記憶する。
The sensor data processing section 17d generates data to be provided as meaningful information based on the acquired sensor information (additional information). In other words, it has a function of converting the content represented by the sensor output into character information.
For example, when the external sensor 20 is a temperature sensor, the detected temperature is recognized, character information such as “air temperature X ° C.” (X is an actual temperature) is generated, and stored in the sensor information storage unit in the storage 12. I do.

【0061】更に、係るセンサに基づく有意味情報を生
成する機能も持つ。一例としては、気温の情報を得るこ
とで、道路の氷結に関する情報を得ることができる。例
えば、気温が低い場合には、「凍結注意」などの注意情
報を生成することができる。なお、実際には、気温と表
示する内容を対応づけたテーブルを作成しておき、テー
ブル参照方式により求めることができる。
Further, it has a function of generating meaningful information based on the sensor. As an example, by obtaining information on the temperature, information on icing on the road can be obtained. For example, when the temperature is low, it is possible to generate caution information such as "freezing caution". Actually, a table in which the temperature and the contents to be displayed are associated with each other is created, and the table can be obtained by the table reference method.

【0062】そして、配信情報生成部17cでは、前処
理部17aで生成した画像データに、情報抽出部17b
並びにセンサデータ加工部17dで生成した有意味情報
(文字情報)を合成することにより配信画像を生成し出
力する。
Then, the distribution information generation unit 17c adds the information extraction unit 17b to the image data generated by the preprocessing unit 17a.
In addition, a distribution image is generated and output by synthesizing the meaningful information (character information) generated by the sensor data processing unit 17d.

【0063】これにより、例えば、図16に示すような
情報を配信することが可能になる。本例では、気温とそ
の情報から判断した「凍結注意」との注意情報を配信し
ている。
Thus, for example, it is possible to distribute information as shown in FIG. In this example, the caution information of "freezing caution" determined from the temperature and the information is distributed.

【0064】このような構成により、画像情報と同時に
他のセンサによる情報も同時に得ることができる。ま
た、この外部センサ20から得た情報を利用して、画像
データを加工したり、画像データより抽出した情報の正
確度を上昇させることができる。
With such a configuration, information from other sensors can be obtained simultaneously with image information. Further, using the information obtained from the external sensor 20, the image data can be processed or the accuracy of the information extracted from the image data can be increased.

【0065】なお、本実施例では温度センサを利用して
気温を交通情報に利用したが、その他に外部センサ20
を通じて利用できるデータとしては、風力,湿度,雨
量,震度,波の高さなど気象情報や、GPSによるカメ
ラの正確な位置や、対象物の移動方向や高さなどの位置
情報や、車両の車種判別やナンバープレートの読み取り
情報などを利用して情報発信することでより詳しい情報
を提供することができる。つまり、配信可能な情報とし
ては、図17に示すように各種のものを用意することが
できる。
In this embodiment, the temperature is used for the traffic information by using the temperature sensor.
Data that can be used through the Internet include weather information such as wind power, humidity, rainfall, seismic intensity, and wave height, the exact position of the camera using GPS, position information such as the direction and height of the target, and the type of vehicle. More detailed information can be provided by transmitting information using discrimination, license plate read information, and the like. That is, various kinds of distributable information can be prepared as shown in FIG.

【0066】また、撮影に使用したカメラの絞りやシャ
ッタースピード,撮影方向,レンズの種類,パン及びチ
ルト速度やCCDの解像度などの情報と撮影した画像か
ら対象の大きさや移動速度移動方向などを算出すること
ができる。このように、他の有意味情報を抽出する際の
補助的なデータとしても用いることができる。
The size of the object, the moving speed, and the like are calculated from information such as the aperture and shutter speed of the camera used for shooting, the shooting direction, the type of lens, the pan and tilt speed, the resolution of the CCD, and the shot image. can do. Thus, it can be used also as auxiliary data when extracting other meaningful information.

【0067】さらに、予め撮影する範囲の地理的情報を
入手し、撮影地点とマッピングすることで対象物との正
確な距離や移動方向などを知ることができる。また、画
像上の一部にマスクをかけて、配信時に非公開にするこ
とで個人のプライバシーやセキュリティーに対応した画
像の配信を実現することができる。なお、その他の構成
並びに作用効果は、上記した第1の実施の形態と同様で
あるので、対応する部材に同一符号を付し、その詳細な
説明を省略する。
Further, by obtaining geographical information of a range to be photographed in advance and mapping it to a photographing point, it is possible to know an accurate distance and a moving direction with respect to the object. Further, by distributing an image corresponding to personal privacy and security, it is possible to mask a part of the image and keep it private when the image is distributed. Note that the other configuration and operation and effect are the same as those of the above-described first embodiment, and therefore, corresponding members are denoted by the same reference numerals and detailed description thereof will be omitted.

【0068】図18,図19は、本発明の第3の実施の
形態を示している。本実施の形態では、第2の実施の形
態を基本としている。同図に示すように、複数の情報収
集装置1で収集されて生成された各画像データD′と有
意味情報Iが、一旦統合処理装置21に収集され、統合
される。そして、統合された統合有意味情報が配信され
る。このように、最終的な配信情報を収集するための装
置を複数持つことでより複雑なデータ処理が可能とな
り、1ケ所では得ることのできなかったデータを分析し
て得ることが可能になる。統合有意味情報としては、例
えば、複数箇所の有意味情報などから、正確な渋滞情報
(渋滞距離,渋滞が解消中か否かなど)等を求めること
ができる。
FIGS. 18 and 19 show a third embodiment of the present invention. This embodiment is based on the second embodiment. As shown in the figure, each image data D ′ and meaningful information I collected and generated by a plurality of information collecting devices 1 are once collected and integrated by an integrated processing device 21. Then, the integrated integrated meaning information is distributed. As described above, by having a plurality of devices for collecting final distribution information, more complicated data processing becomes possible, and it becomes possible to analyze and obtain data that could not be obtained in one place. As the integrated meaningful information, for example, accurate congestion information (congestion distance, whether or not congestion is being resolved, and the like) can be obtained from meaningful information at a plurality of locations.

【0069】より具体的には、例えば、渋滞情報であれ
ば実際の道路の画像と画像から判断した車線のどちらの
向きがどの程度の流れで渋滞しているか否か情報が抽出
される。1つの情報収集装置では、1つの観測点の流れ
しか分からないが、ある道路沿いの各交差点に全て情報
収集装置を設置すると、各交差点での渋滞情報を知るこ
とができる。これを統合処理装置に収集することで、地
図とリンクした道路情報の配信が可能になる。これは、
統合処理装置に各情報処理装置の位置を記録しておき、
各画像を収集して地図上の位置を示す情報と統合するこ
とで可能になる。
More specifically, for example, in the case of traffic jam information, information is extracted as to which direction of the actual road image and which direction of the lane determined from the image are and how much traffic is flowing. With one information collecting device, only the flow of one observation point can be known. However, if all the information collecting devices are installed at each intersection along a certain road, the traffic congestion information at each intersection can be known. By collecting this in the integrated processing device, it becomes possible to distribute road information linked to the map. this is,
Record the position of each information processing device in the integrated processing device,
This is made possible by collecting each image and integrating it with information indicating the location on the map.

【0070】また、渋滞の開始及び終了位置を特定する
ことができる。これは、道路に沿った情報を順に収集す
ることにより可能になる。統合処理装置は画像及び有意
味情報を受けるとともに、各情報収集装置自体の情報も
統合することでより有益な情報を得ることができる。
Further, the start and end positions of the traffic jam can be specified. This is made possible by collecting information along the road in sequence. The integrated processing device can obtain more useful information by receiving the image and the meaningful information and also integrating the information of each information collecting device itself.

【0071】上記した例は渋滞情報による説明である
が、単純に複数の情報収集装置の有意味情報を統合し、
その状態の分布を計算するだけでも新しい有意味情報を
抽出することができる。例えば、各観光地の人手の情報
やショッピングスポットの人手の多さを有意味情報とし
て抽出することでその日の人手の多さやより空いている
スポットの情報などを抽出することができる。
Although the above example is based on traffic congestion information, simply integrating meaningful information from a plurality of information collecting devices,
New meaningful information can be extracted simply by calculating the distribution of the state. For example, by extracting information on the number of people at each sightseeing spot and the number of people at shopping spots as meaningful information, it is possible to extract information on the number of people at that day and spots that are more vacant.

【0072】これらは有意味情報が画像の情報をよりコ
ンピュータが処理しやすい情報に変換していることによ
って可能になる。実際には、単純なソートや集計などの
演算処理を行うことで、抽出元の画像を有効に活用する
情報を引き出すことが可能になる。
This is made possible by the fact that the meaningful information converts image information into information which can be more easily processed by a computer. Actually, it is possible to extract information that makes effective use of the extraction source image by performing a simple sort, aggregation, or other arithmetic processing.

【0073】なお、図18の例では、統合処理装置21
と各情報収集装置1を直接通信回線で接続するように示
したが、情報の伝達の形態としては、ネットワークを通
じて行うようにしてももちろん良い。また、本実施の形
態は第2の実施の形態を基本としたが、統合処理装置2
1に接続する情報収集装置1は、外部センサのない第1
の実施の形態に示すものでも良いし、両者を混在させて
も良い。
In the example of FIG. 18, the integrated processing device 21
And the respective information collecting apparatuses 1 are shown to be directly connected by a communication line. However, the form of information transmission may be of course through a network. Although the present embodiment is based on the second embodiment, the integrated processing device 2
1 is connected to the first information collecting device 1 having no external sensor.
The above-described embodiment may be used, or both may be mixed.

【0074】図20〜図22は、本発明の第4の実施の
形態を示している。本実施の形態では、上記した第1の
実施の形態を基本とし、情報抽出部17bの機能を変え
ている。すなわち、交差点の付近では、信号の状態によ
って走行状態が制御される。当然のことながらに、走行
車線が赤信号の時には、車両は停止する。従って、係る
車両が停止している場合には、渋滞ではないと判定する
必要がある。一方、青信号にもかかわらず車両が走行し
ない場合には、渋滞していると推定できる。
FIGS. 20 to 22 show a fourth embodiment of the present invention. In the present embodiment, the function of the information extracting unit 17b is changed based on the first embodiment. That is, in the vicinity of the intersection, the traveling state is controlled by the state of the traffic light. Naturally, when the traffic lane is at a red light, the vehicle stops. Therefore, when the vehicle is stopped, it is necessary to determine that the traffic is not congested. On the other hand, when the vehicle does not run despite the green light, it can be estimated that there is traffic.

【0075】そこで、本形態では、情報抽出部17bの
機能を図20に示すフローチャートのようにした。すな
わち、図8と比較すると明らかなように、ステップ37
から39の処理が追加されており、その他の各処理は共
通する。具体的には、処理対象の画像データ(図21参
照)を読み込んだなら(ST31)、信号部分データに
基づき、画像中の信号部分(図22中R1)を切り出す
(ST37)。そして、切り出した領域内の色や明るさ
の変化を見ることで、撮影時の信号の状態、つまり信号
の色が「青」であるか否かを判断する(ST38,ST
39)。
Therefore, in the present embodiment, the function of the information extracting unit 17b is as shown in the flowchart of FIG. That is, as apparent from comparison with FIG.
To 39 are added, and the other processes are common. Specifically, when image data to be processed (see FIG. 21) is read (ST31), a signal portion (R1 in FIG. 22) in the image is cut out based on the signal portion data (ST37). Then, by observing the change in color and brightness in the cut-out region, it is determined whether the state of the signal at the time of shooting, that is, whether the color of the signal is "blue" (ST38, ST38).
39).

【0076】そして、信号が青でない場合には、正確な
渋滞情報が得られないので、ステップ31に戻り次の画
像データの処理に移行する。そして、「青」の場合の画
像データに対してのみステップ32以降の車両の台数,
速度,渋滞距離などを求める。なお、その他の構成並び
に作用効果は、上記した各実施の形態と同様であるの
で、その詳細な説明を省略する。
If the traffic light is not green, accurate traffic information cannot be obtained, so that the process returns to step 31 and shifts to the processing of the next image data. Then, only for the image data in the case of "blue", the number of vehicles after step 32,
Find speed, congestion distance, etc. Note that the other configuration, operation, and effect are the same as those of the above-described embodiments, and thus detailed description thereof will be omitted.

【0077】[0077]

【発明の効果】以上のように、この発明では、画像とと
もに有意味情報を併せて配信するようにしたため、配信
する画像情報を活用しやすいとともに、知識・経験が少
ないユーザであっても判断が容易に行うことができる。
As described above, according to the present invention, meaningful information is distributed together with an image, so that the image information to be distributed can be easily used, and even if the user has little knowledge and experience, judgment can be made. It can be done easily.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態が適用される情報配
信システムの一例を示す図である。
FIG. 1 is a diagram illustrating an example of an information distribution system to which a first embodiment of the present invention is applied.

【図2】本発明に係る第1の実施の形態における情報収
集装置(情報配信装置)の内部構造を示す図である。
FIG. 2 is a diagram showing an internal structure of an information collection device (information distribution device) according to the first embodiment of the present invention.

【図3】本発明に係る第1の実施の形態における情報収
集装置(情報配信装置)の内部構造を示す図である。
FIG. 3 is a diagram illustrating an internal structure of an information collection device (information distribution device) according to the first embodiment of the present invention.

【図4】本発明に係る第1の実施の形態の概念(情報・
データの流れ)を示す図である。
FIG. 4 is a conceptual diagram (information and information) of the first embodiment according to the present invention.
FIG.

【図5】撮像装置の動作を説明する図である。FIG. 5 is a diagram illustrating an operation of the imaging device.

【図6】データ処理装置11の内部構造の要部(主にC
PU)を示す図である。
FIG. 6 shows a main part of the internal structure of the data processing device 11 (mainly C
FIG.

【図7】前処理部の機能を説明するフローチャートであ
る。
FIG. 7 is a flowchart illustrating functions of a preprocessing unit.

【図8】情報抽出部の機能を説明するフローチャートで
ある。
FIG. 8 is a flowchart illustrating a function of an information extraction unit.

【図9】配信情報生成部の機能を説明するフローチャー
トである。
FIG. 9 is a flowchart illustrating a function of a distribution information generation unit.

【図10】作用を説明する図である(撮像画像)。FIG. 10 is a diagram illustrating an operation (a captured image).

【図11】作用を説明する図である(端末への表示画
像)。
FIG. 11 is a diagram illustrating an operation (a display image on a terminal).

【図12】変形例を示す図である。FIG. 12 is a diagram showing a modification.

【図13】本発明に係る第2の実施の形態における情報
収集装置(情報配信装置)の内部構造を示す図である。
FIG. 13 is a diagram illustrating an internal structure of an information collection device (information distribution device) according to a second embodiment of the present invention.

【図14】本発明に係る第2の実施の形態の概念(情報
・データの流れ)を示す図である。
FIG. 14 is a diagram showing the concept (flow of information and data) of the second embodiment according to the present invention.

【図15】データ処理装置11の内部構造の要部(主に
CPU)を示す図である。
FIG. 15 is a diagram showing a main part (mainly a CPU) of an internal structure of the data processing device 11;

【図16】作用を説明する図である(端末への表示画
像)。
FIG. 16 is a diagram illustrating an operation (a display image on a terminal).

【図17】配信情報の種類を説明する図である。FIG. 17 is a diagram illustrating types of distribution information.

【図18】本発明に係る第3の実施の形態における情報
収集装置(情報配信装置)の内部構造を示す図である。
FIG. 18 is a diagram illustrating an internal structure of an information collection device (information distribution device) according to a third embodiment of the present invention.

【図19】本発明に係る第3の実施の形態の概念(情報
・データの流れ)を示す図である。
FIG. 19 is a diagram showing a concept (flow of information and data) of a third embodiment according to the present invention.

【図20】本発明に係る第4の実施の形態の要部となる
情報抽出部の機能を説明するフローチャートである。
FIG. 20 is a flowchart illustrating a function of an information extraction unit that is a main part of the fourth embodiment according to the present invention.

【図21】作用を説明する図である(撮像画像)。FIG. 21 is a diagram illustrating an operation (a captured image).

【図22】作用を説明する図である。FIG. 22 is a diagram illustrating an operation.

【符号の説明】[Explanation of symbols]

1 情報収集装置 2 サーバ 3 ネットワーク 5 端末 5′ 使用者(ユーザ) 10 撮像装置 11 データ処理装置 12 ストレージ(外部記憶装置) 13 通信装置 15 入力部 16 出力部 17 CPU 17a 前処理部 17b 情報抽出部 17c 配信情報生成部 17d センサデータ加工部 18 送信装置 19 受信装置 20 外部センサ 21 統合処理装置 Reference Signs List 1 information collection device 2 server 3 network 5 terminal 5 'user (user) 10 imaging device 11 data processing device 12 storage (external storage device) 13 communication device 15 input unit 16 output unit 17 CPU 17a preprocessing unit 17b information extraction unit 17c Distribution information generating unit 17d Sensor data processing unit 18 Transmitting device 19 Receiving device 20 External sensor 21 Integrated processing device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/173 610 G08G 1/00 A // G08G 1/00 1/09 A 1/09 H04B 7/26 M (72)発明者 向川 信一 京都府京都市下京区塩小路通堀川東入南不 動堂町801番地 オムロン株式会社内 (72)発明者 清水 敦 京都府京都市下京区塩小路通堀川東入南不 動堂町801番地 オムロン株式会社内 (72)発明者 満田 雅 京都府京都市下京区塩小路通堀川東入南不 動堂町801番地 オムロン株式会社内 Fターム(参考) 5B057 AA16 AA19 BA02 BA29 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CB19 CC01 DA07 DA12 DA13 DA20 DB02 DB06 DB09 DC30 DC36 5C022 AA01 AC42 5C064 BA07 BB10 BC18 BC23 BD02 BD08 5H180 AA01 BB02 CC05 DD02 DD04 DD08 DD09 EE03 5K067 AA21 BB04 DD52 EE02 EE16 FF02 FF23 HH23 KK15 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 7/173 610 G08G 1/00 A // G08G 1/00 1/09 A 1/09 H04B 7/26 M (72) Inventor Shinichi Mukogawa 801 Shidoji Horikawa Higashiiri Minamifudo-cho, Shimogyo-ku, Kyoto-shi, Kyoto Inside Omron Co., Ltd. 801 No. Jido-cho OMRON Corporation (72) Inventor Masaru Mitsuda 801 Minami-Fuji, Shimogyo-shi, Shimogyo-ku, Kyoto CA16 CB01 CB08 CB12 CB16 CB19 CC01 DA07 DA12 DA13 DA20 DB02 DB06 DB09 DC30 DC36 5C022 AA01 AC42 5C064 BA07 BB10 BC18 BC23 BD02 BD08 5H180 AA01 BB02 CC05 DD02 DD04 DD08 DD09 EE03 5 K067 AA21 BB04 DD52 EE02 EE16 FF02 FF23 HH23 KK15

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 ネットワークを介してユーザへの情報を
配信する情報配信装置であって撮像手段からの画像デー
タに対し、画像処理を行いその画像データに付随する有
意味情報を抽出する情報抽出手段と、 前記画像データから配信用画像データを生成する手段
と、 前記配信用画像データと前記有意味情報を合成して配信
情報を生成する配信情報生成手段と、 その配信情報を前記ネットワークに出力する通信手段と
を備えた情報配信装置。
1. An information distribution device for distributing information to a user via a network, wherein the information extraction device performs image processing on image data from an imaging unit and extracts meaningful information attached to the image data. Means for generating distribution image data from the image data; distribution information generating means for synthesizing the distribution image data and the meaningful information to generate distribution information; and outputting the distribution information to the network. An information distribution device comprising communication means.
【請求項2】 画像以外の情報を取得するセンサを備
え、 前記配信情報生成手段は、前記センサから得られた有意
味情報も合成して出力する機能を備えたことを特徴とす
る請求項1に記載の情報配信装置。
2. The apparatus according to claim 1, further comprising: a sensor for acquiring information other than an image, wherein the distribution information generating means has a function of combining and outputting meaningful information obtained from the sensor. An information distribution device according to claim 1.
【請求項3】 前記配信情報生成手段は、前記ネットワ
ークを介して受信した要求に応じて合成する有意味情報
の種類を決定するものである請求項1または2に記載の
情報配信装置。
3. The information distribution apparatus according to claim 1, wherein the distribution information generation unit determines a type of the meaningful information to be combined in response to a request received via the network.
【請求項4】 前記撮像手段は、道路を撮像するもので
あり、 前記有意味情報は、前記道路の交通関係情報であること
を特徴とする請求項1〜3のいずれか1項に記載の情報
配信装置。
4. The apparatus according to claim 1, wherein the image capturing unit captures an image of a road, and the meaningful information is traffic-related information of the road. Information distribution device.
【請求項5】 撮像手段からの画像データに対し、画像
処理を行いその画像データに付随する有意味情報を抽出
する情報抽出手段と、 前記画像データから配信用画像データを生成する手段
と、 前記配信用画像データと前記有意味情報を合成して配信
情報を生成する配信情報生成手段を含む複数の情報配信
装置と、 それら複数の情報配信装置から出力される情報を受け取
り、統合して統合有意味情報を生成するとともに、前記
統合有意味情報をネットワークに出力する統合処理装置
を備えた情報配信システム。
5. An information extracting unit for performing image processing on image data from an imaging unit and extracting meaningful information attached to the image data, a unit for generating distribution image data from the image data, A plurality of information distribution devices including distribution information generating means for generating distribution information by synthesizing distribution image data and the meaningful information; receiving information output from the plurality of information distribution devices; An information distribution system including an integrated processing device that generates semantic information and outputs the integrated meaningful information to a network.
JP2001057082A 2001-03-01 2001-03-01 Information distribution device and information distribution system Withdrawn JP2002260166A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001057082A JP2002260166A (en) 2001-03-01 2001-03-01 Information distribution device and information distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001057082A JP2002260166A (en) 2001-03-01 2001-03-01 Information distribution device and information distribution system

Publications (1)

Publication Number Publication Date
JP2002260166A true JP2002260166A (en) 2002-09-13

Family

ID=18917017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001057082A Withdrawn JP2002260166A (en) 2001-03-01 2001-03-01 Information distribution device and information distribution system

Country Status (1)

Country Link
JP (1) JP2002260166A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038680A1 (en) * 2003-10-15 2005-04-28 Fujitsu Limited Information distribution service providing system, information distribution method used in the system, and server system used in the system
JP2006092097A (en) * 2004-09-22 2006-04-06 Sumitomo Electric Ind Ltd Vehicle sensing device
JP2006295827A (en) * 2005-04-14 2006-10-26 Sony Ericsson Mobilecommunications Japan Inc Mobile terminal instrument
JP2008052453A (en) * 2006-08-23 2008-03-06 Hokkaido Development Engineering Center Traveling support system
JP2010108420A (en) * 2008-10-31 2010-05-13 Toshiba Corp Road traffic information providing system and method
JP2015095754A (en) * 2013-11-12 2015-05-18 株式会社カスタム Function expansion unit of monitor camera
WO2019194084A1 (en) * 2018-04-04 2019-10-10 パナソニック株式会社 Traffic monitoring system and traffic monitoring method
CN111431958A (en) * 2019-01-09 2020-07-17 哈曼国际工业有限公司 Scalable distributed data architecture
JP2021082166A (en) * 2019-11-22 2021-05-27 小湊鉄道株式会社 Operation management system and computer program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038680A1 (en) * 2003-10-15 2005-04-28 Fujitsu Limited Information distribution service providing system, information distribution method used in the system, and server system used in the system
JP2006092097A (en) * 2004-09-22 2006-04-06 Sumitomo Electric Ind Ltd Vehicle sensing device
JP2006295827A (en) * 2005-04-14 2006-10-26 Sony Ericsson Mobilecommunications Japan Inc Mobile terminal instrument
JP2008052453A (en) * 2006-08-23 2008-03-06 Hokkaido Development Engineering Center Traveling support system
JP2010108420A (en) * 2008-10-31 2010-05-13 Toshiba Corp Road traffic information providing system and method
JP2015095754A (en) * 2013-11-12 2015-05-18 株式会社カスタム Function expansion unit of monitor camera
WO2019194084A1 (en) * 2018-04-04 2019-10-10 パナソニック株式会社 Traffic monitoring system and traffic monitoring method
JP2019185220A (en) * 2018-04-04 2019-10-24 パナソニック株式会社 Traffic monitoring system and method for monitoring traffic
JP7092540B2 (en) 2018-04-04 2022-06-28 パナソニックホールディングス株式会社 Traffic monitoring system and traffic monitoring method
US11869347B2 (en) 2018-04-04 2024-01-09 Panasonic Holdings Corporation Traffic monitoring system and traffic monitoring method
CN111431958A (en) * 2019-01-09 2020-07-17 哈曼国际工业有限公司 Scalable distributed data architecture
US11803245B2 (en) 2019-01-09 2023-10-31 Harman International Industries, Incorporated Scalable distributed data architecture
JP2021082166A (en) * 2019-11-22 2021-05-27 小湊鉄道株式会社 Operation management system and computer program
JP7082350B2 (en) 2019-11-22 2022-06-08 小湊鉄道株式会社 Operation management system and computer program

Similar Documents

Publication Publication Date Title
KR102189262B1 (en) Apparatus and method for collecting traffic information using edge computing
US8947262B2 (en) Image data collection from mobile vehicles with computer, GPS, and IP-based communication
KR100578041B1 (en) Network camera apparatus having a traffic information collection and addition function and the traffic information process method
JP7070683B2 (en) Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, program
KR20130088480A (en) Integration control system and method using surveillance camera for vehicle
US20220044558A1 (en) Method and device for generating a digital representation of traffic on a road
KR101621822B1 (en) Device for security and recognizing number of license plate based on hybrid image transmission, and method for recognizing and providing number of license plate using the same
KR20190043396A (en) Method and system for generating and providing road weather information by using image data of roads
JP2002260166A (en) Information distribution device and information distribution system
US11189162B2 (en) Information processing system, program, and information processing method
US11373409B2 (en) Photography system
JP2006202000A (en) Method for monitoring vehicle, apparatus for recognizing particular character pattern, and vehicle monitoring system
WO2020211593A1 (en) Digital reconstruction method, apparatus, and system for traffic road
JPH11175694A (en) Congestion informing device
JP2002190013A (en) System and method for detecting congestion by image recognition
KR102484789B1 (en) Intelligent crossroad integration management system with unmanned control and traffic information collection function
JP5404453B2 (en) Vehicle monitoring device
JP7082538B2 (en) Image processing equipment and programs
KR20070090299A (en) Apparatus and system for displaying speed of car using image detection
JP2017034638A (en) Image processing system and image processing method
JP2016166794A (en) Image creating apparatus, image creating method, program for image creating apparatus, and image creating system
JP7182121B2 (en) image acquisition system
JP2002008181A (en) Remote monitoring system and remote monitoring method
CN111031252A (en) Monitoring system and augmented reality AR terminal
KR100255997B1 (en) Video image detector by cctv

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080513