JP2004180235A - Video distribution system - Google Patents

Video distribution system Download PDF

Info

Publication number
JP2004180235A
JP2004180235A JP2002347202A JP2002347202A JP2004180235A JP 2004180235 A JP2004180235 A JP 2004180235A JP 2002347202 A JP2002347202 A JP 2002347202A JP 2002347202 A JP2002347202 A JP 2002347202A JP 2004180235 A JP2004180235 A JP 2004180235A
Authority
JP
Japan
Prior art keywords
image
mobile terminal
person
cpu
intruder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002347202A
Other languages
Japanese (ja)
Other versions
JP4490626B2 (en
Inventor
Tsutomu Ito
励 伊藤
Hirotada Ueda
博唯 上田
Seiichi Hirai
誠一 平井
Mitsue Ito
光恵 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2002347202A priority Critical patent/JP4490626B2/en
Publication of JP2004180235A publication Critical patent/JP2004180235A/en
Application granted granted Critical
Publication of JP4490626B2 publication Critical patent/JP4490626B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video distribution system, report server and mobile terminal which enable a concerned part desired to watch to be displayed on the mobile terminal in a easily understandable manner. <P>SOLUTION: The video distribution system is provided which is composed of: an imaging unit 100; the report server 103 for detecting a person or an object in an image imaged by the imaging unit and composed of a video signal and distributing an image where the person or the object is marked to the mobile terminal; and the mobile terminal 105 for displaying the image acquired from the report server on a display screen, the report server and the mobile terminal are also provided. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、撮像装置で撮像した映像信号をモバイル端末に配信する映像配信システムおよび通報サーバならびにモバイル端末に関する。
【0002】
【従来の技術】
従来のネットワーク型監視システムについて説明する。
【0003】
図20は、ネットワーク型監視システムの構成を示すブロック図である(文献公知発明に係わるものではない)。ネットワーク型監視システムは、監視カメラ100、監視装置2000、モバイル端末105によって構成される。各構成要素の内、監視カメラ100と監視装置2000は映像ケーブル110で接続され、監視装置2000とモバイル端末105は通信媒体113で接続されている。
【0004】
図20の各構成要素の役割を説明する。監視カメラ100は撮影した映像信号を、映像ケーブル110を通して監視装置2000に送信する。監視装置2000は、単体の装置でもよいし、複数の装置が通信媒体で接続されたネットワーク型のシステムでもよい。監視装置2000は、撮影した映像信号の1フレームの画像に対して画像認識処理を行い、フレーム画像に侵入者がいた場合にはそれを検知し、警報をユーザに通知するため、電子メールにフレーム画像(これを警告画像と称する)を添付して、通信媒体113を通して、電子メールを見る手段を持つモバイル端末105に電子メールを送信する。モバイル端末105を携帯しているユーザは、電子メールに添付された警告画像をモバイル端末105の表示画面で閲覧できる。
【0005】
結果のモバイル端末の表示画面を図5(A)に示す。モバイル端末105−1の表示画面600では、3本の木620の中に複数の侵入者630、635がいる場合の表示例を示した。また結果のモバイル端末の表示画面の例を図5(D)に示す。モバイル端末105−4の表示画面600では、人込み640の中に複数の特定の人650、655(例えば指名手配の人)が混じっている場合の表示例を示した。
【0006】
【発明が解決しようとする課題】
しかしながら、いずれの例も、表示面積(画素数)の限られた表示画面600で警告画像601を見ると、侵入者630、635の表示は小さく、また木620の中に混じっているので、侵入者630、635がどこにいるのか分かりにくい。また、表示画面600は表示色も限られているため、特に侵入者630、635が木620と同系色の服を着ていた場合は、木620との区別がつかなくなり、侵入者630、635がどこにいるのか更に分かりにくくなる。
【0007】
また、画像認識処理によって侵入者を検知した場合、その検知の信頼度の高低に関らず同じ内容の電子メールが送信されるため、ユーザにとって、警戒の度合が分かりにくくなる。
【0008】
本発明の目的は、モバイル端末で見たい注目箇所を分かりやすく表示することが可能な映像配信システムおよび通報サーバならびにモバイル端末を提供することにある。
【0009】
本発明の他の目的は、モバイル端末で見たい注目箇所を少ない画像で配信することが可能な映像配信システムおよび通報サーバならびにモバイル端末を提供することにある。
【0010】
本発明のさらに他の目的は、モバイル端末で人または物体の検知の信頼度がわかる通報サーバを提供することにある。
【0011】
【課題を解決するための手段】
本発明は、撮像装置と、該撮像装置で撮像した映像信号からなる画像に対して人または物体の検知を行い且つ該人または物体にマークを付けた画像をモバイル端末に配信する通報サーバと、該通報サーバより取得した画像を表示画面に表示する前記モバイル端末からなることを特徴とする映像配信システムである。
【0012】
本発明は、撮像装置で撮像した映像信号からなる画像に対して人または物体の検知を行い且つ該人または物体にマークを付けた画像をモバイル端末に配信することを特徴とする通報サーバである。
【0013】
本発明は、上記記載において、前記通報サーバは、前記マークを付けた人または物体のみを切り出した画像を前記モバイル端末に配信することを特徴とする映像配信システムまたは通報サーバである。
【0014】
本発明は、上記記載において、前記通報サーバは、前記マークを付けた人または物体よりやや大きい領域の画像を前記モバイル端末に配信することを特徴とする映像配信システムまたは通報サーバである。
【0015】
本発明は、上記記載において、前記通報サーバは、前記マークを付けた人または物体以外を単一色で塗りつぶした画像を前記モバイル端末に配信することを特徴とする映像配信システムまたは通報サーバである。
【0016】
本発明は、上記記載において、前記通報サーバは、前記マークを付けた人または物体を拡大し且つ前記マークを付けた人または物体以外を縮小した画像を前記モバイル端末に配信することを特徴とする映像配信システムまたは通報サーバである。
【0017】
本発明は、通報サーバよりマークを付けた人または物体の画像と前記マークの位置情報を取得し、該位置情報をもとに前記マークを表示画面の中央に表示し、前記画像の他の部分を見るときには該画像をスクロールすることが可能であることを特徴とするモバイル端末である。
【0018】
本発明は、通報サーバよりマークを付けた人または物体の画像と前記マークの位置情報を取得し、該位置情報をもとに前記マークを表示画面の任意の位置に表示することが可能であることを特徴とするモバイル端末である。
【0019】
本発明は、撮像装置で撮像した映像信号からなる画像に対して人または物体の検知を行い該検知の信頼度に応じてモバイル端末に配信する通報の内容を変えることを特徴とする通報サーバである。
【0020】
【発明の実施の形態】
本発明の第1の実施の形態を図1〜5によって説明する。
【0021】
図1は、ネットワーク型監視システムの構成を示すブロック図である。ネットワーク型監視システムは、監視カメラ100、ウェブエンコーダ101、映像蓄積配信サーバ102(以降、蓄配サーバと称す)、通報サーバ103(以降、本サーバと称す)、モバイル端末105によって構成される。各構成要素の内、監視カメラ100とウェブエンコーダ101は映像ケーブル110で接続され、ウェブエンコーダ101、蓄配サーバ102、本サーバ103、モバイル端末105は通信媒体111〜113で接続されている。
【0022】
図1の各構成要素の役割を説明する。監視カメラ100は撮影した映像信号を、映像ケーブル110を通してウェブエンコーダ101に送信する。ウェブエンコーダ101は、撮影した映像信号を通信媒体111〜113に送信できるようなデータ形式に変換し、変換したデータ(これを映像データと称する)を蓄配サーバ102に送信する。蓄配サーバ102は映像データをサーバ自身がもっている記憶装置に蓄積する。本サーバ103は通信媒体112を通して蓄配サーバ102に蓄積された映像データから1フレームの画像を取得し、フレーム画像に対して画像認識処理を行い、フレーム画像に侵入者がいた場合にはそれを検知し、警報をユーザに通知するため、電子メールにフレーム画像(これを警告画像と称する)を添付して、通信媒体113を通して、電子メールを見る手段を持つモバイル端末105に電子メールを送信する。モバイル端末105を携帯しているユーザは、電子メールに添付された警告画像をモバイル端末105の表示画面で閲覧できる。
【0023】
図2は、図1の本サーバ103の構成を示すブロック図である。200はCPU(Central Processing Unit)、201はメモリ、202は通信インターフェース、203は通信媒体、204は記憶装置、205はバスである。
【0024】
CPU200はバス205を介して、メモリ201、通信インターフェース202、記憶装置204と接続されており、通信インターフェース202は通信媒体203を介して図1の他の構成要素と接続されている。CPU200は、バス205を介して接続されている他の構成要素と信号を送受し合い、各構成要素はCPU200からのアクセス信号により制御される。
【0025】
図4は、図2のCPU200が行う処理を示す第1の実施の形態のフローチャートであり、図3は、図2のCPU200が処理の最中にメモリ201に作成するデータ領域である。以下、図4のフローチャートを説明する。
【0026】
CPU200の侵入者検知にさきだち、CPU200は侵入者のない画像を蓄配サーバ102から通信媒体203と通信インターフェース202を経由してフレーム画像(これをフレーム画像Aと称する)を取得し、画像認識処理を行い、その結果の画像(これを認識対象画像と称する)をメモリ201に格納している。
【0027】
CPU200が処理を開始すると、ステップ400で、CPU200は、蓄配サーバ102から通信媒体203と通信インターフェース202を経由してフレーム画像Aを取得し、メモリ201に格納し、ステップ401に移行する。
【0028】
ステップ401で、CPU200は、フレーム画像Aに対し画像認識処理を行い、ステップ402に移行する。
【0029】
ステップ402で、CPU200は、前ステップ401の処理の結果を受け、上記認識対象画像と比較して、侵入者を検知したかを判断する。検知した場合は、ステップ403に移行して処理を続け、検知していない場合は、何も処理をせずにステップ408に移行する。
【0030】
ステップ403で、CPU200は、検知した侵入者の数(仮にN人とする)の分だけ、図3の侵入者管理テーブル300(cobj[N])をメモリ201に確保し、ステップ404に移行する。
【0031】
ステップ404で、CPU200は、侵入者管理テーブル300の各要素301〜303(cobj[0]〜cobj[N−1]のN個)が各々指している侵入者管理構造体350(cobj)のメンバ関数351〜355に、フレーム画像Aのフレーム番号とフレーム画像Aに映っている侵入者の外接矩形の座標を格納する。具体的には、フレーム番号351(frame)にはフレーム画像Aのフレーム番号を格納し、x座標352(x0)には外接矩形の左上のx座標を格納し、y座標353(y0)には外接矩形の左上のy座標を格納し、x座標354(x1)には外接矩形の右下のx座標を格納し、y座標355(y1)には外接矩形の右下のy座標を格納する。
【0032】
ステップ405で、CPU200は、フレーム画像Aに対して侵入者管理テーブル300のデータをもとに、侵入者の外接矩形の箇所(N箇所)に枠を描画するか、もしくは該箇所を切り取り(これが警告画像となる)、ステップ406に移行する(ここで、枠を描画した場合の警告画像は1個、切り取りをした場合の警告画像はN個である。)。
【0033】
ステップ406で、CPU200は、警告画像を記憶装置204に圧縮してファイル保存し(これを警告画像ファイルと称する)、ステップ407に移行する(ここで、枠を描画した場合の警告画像ファイルは1個、切り取りをした場合の警告画像ファイルはN個である。)。尚、前記圧縮はJPEGなどの適当な圧縮方式で行われる。
【0034】
ステップ407で、CPU200は、警告画像ファイルを電子メールに添付し、電子メールを通信インターフェース202と通信媒体203を経由してモバイル端末105に送信し、ステップ408に移行する。
【0035】
ステップ408で、CPU200は本サーバ103の処理が終了したかを判断する。終了した場合は本処理を終了し、終了していない場合はステップ400に戻り、今まで述べてきた処理を繰り返す。
【0036】
この結果により、モバイル端末105を携帯しているユーザは、電子メールに添付された警告画像をモバイル端末105の表示画面で閲覧できる。
【0037】
結果のモバイル端末の表示画面を図5に示す。105−1〜105−6はモバイル端末、600は表示画面、601〜603、611〜613は警告画像、604〜605、614〜615は侵入者の外接矩形を表示した枠である。
【0038】
図5(A)から(C)のモバイル端末105−1〜105−3の表示画面600では、3本の木620の間に侵入者630、635がいる場合の表示例を示した。従来の技術で述べたように、モバイル端末105−1の表示面積(画素数)が限られた表示画面600で警告画像601を見ると、侵入者630、635の表示は小さく、また木620の中に混じっているので、侵入者630、635がどこにいるのか分かりにくい。また、表示画面600の表示色も限られているため、特に侵入者630、635が木620と同系色の服を着ていた場合は、木620との区別がつかなくなり、侵入者630、635がどこにいるのか更に分かりにくくなる。
【0039】
しかしながら図5(B)のモバイル端末105−2の警告画像602では、侵入者に枠604、605が表示されているため、侵入者630、635がいることが一目で分かる。同時に、警告画像602全体のどこにいるのかもすぐに分かるので、ユーザは警戒の度合すぐに把握することができる。
【0040】
また、図5(C)のモバイル端末105−3の警告画像603、604では、侵入者630、635のみが切り取られているため、侵入者630、635が誰なのか一目で分かる。それと同時に、送信されるデータ量が減るので、それに比例して通信コストを下げることができる。
【0041】
また、図5(D)から(F)のモバイル端末105−4〜105−6の警告画面600では、人込み640の中にある特定の人650、655(例えば指名手配の人)がいる場合の表示例を示した。(この場合、図4のステップ401の画像認識処理の中で顔認識処理を行う)。従来の技術で述べたように、モバイル端末105−4の表示面積(画素数)の限られた表示画面600で警告画像611を見ると、指名手配の人650、655の顔の表示は小さく、また人込み640の中に混じっているので、指名手配の人650、655がどこにいるのか分かりにくい。また、表示画面600の表示色も限られているため、特に指名手配の人650、655が人込み640と同系色の顔の場合は、人込み640との区別がつかなくなり、指名手配の人650、655がどこにいるのか更に分かりにくくなる。
【0042】
しかしながら、図5(E)のモバイル端末105−5の警告画像612では、指名手配の人650、655に枠614、615が表示されているため、指名手配の人650、655がいることが一目で分かる。それと同時に、警告画像612全体のどこにいるのかもすぐに分かるので、ユーザは警戒の度合すぐに把握することができる。
【0043】
また、図5(F)のモバイル端末105−6の警告画像613、614では、指名手配の人650、655のみが切り取られているため指名手配の人650、655が誰なのか一目で分かる。それと同時に、送信されるデータ量が減るので、それに比例して通信コストを下げることができる。
【0044】
次に、本発明の第2の実施の形態を図6〜7によって説明する。
前記第1の実施の形態では、警告画像内の注目箇所の外接矩形を切り取る形態を述べたが、切り取る領域は、外接矩形よりもやや大きい領域でもよい。該領域を切り取ると、該領域には侵入者だけでなく、その周辺の背景も多少入るので、ユーザは、侵入者が警告画像内のどの場所にいるのか分かりやすくなり、警戒の度合を把握しやすくなる。
【0045】
図6は、図2のCPU200が行う処理を示す第2の実施の形態のフローチャートである。以下、図6のフローチャートを説明する。
【0046】
CPU200の侵入者検知にさきだち、CPU200は侵入者のない画像を蓄配サーバ102から通信媒体203と通信インターフェース202を経由してフレーム画像(これをフレーム画像Aと称する)を取得し、画像認識処理を行い、その結果の画像(これを認識対象画像と称する)をメモリ201に格納している。
【0047】
ステップ690〜ステップ692までの処理は、図4のステップ400〜404までの処理と同じである。
【0048】
ステップ693で、CPU200は、N個の各侵入者管理構造体350のメンバ関数352〜355(外接矩形の座標)の値を外接矩形が大きくなるように変更する。即ち、左上のx座標352(x0)をΔx0だけ左にシフトし、左上のy座標353(y0)をΔy0だけ上にシフトし、右下のx座標354(x1)をΔx1だけ右にシフトし、右下のy座標355(y1)をΔy1だけ下にシフトし、ステップ694に移行する(尚、Δx0、Δy0、Δx1、Δy1は正の値であり、侵入者の周辺を見るのに適当な値である。)。
【0049】
ステップ694で、CPU200は、フレーム画像Aに対して侵入者管理テーブル300のデータをもとに、前ステップで設定された領域を切り取り(これが警告画像となる)、ステップ695に移行する。
【0050】
ステップ695〜ステップ408までの処理は、図4のステップ406〜408の処理と同じである。
【0051】
この結果により、モバイル端末105を携帯しているユーザは、電子メールに添付された警告画像をモバイル端末105の表示画面で閲覧できる。
【0052】
結果のモバイル端末の表示画面を図7に示す。105−7はモバイル端末、600は表示画面、701〜702は警告画像である。
【0053】
モバイル端末105−7の表示画面600では、図5(A)から(C)のモバイル端末105−1〜105−3と同様、3本の木620の間に侵入者630、635がいる場合の表示例を示した。
【0054】
モバイル端末105−7の表示画像701、702は、侵入者630、635の外接矩形よりもやや大きい領域であるため、侵入者635が(左端の)木620の隣にいることが一目で分かる。また、侵入者630が(右端と真ん中の)木620の間にいることが一目で分かる。例えば、警告画像の左ほど警戒レベルが高いとき、表示画像701を見れば、(左端の)木620の隣に侵入者635がいることがユーザに一目でわかり、ユーザは警戒の度合を把握しやすくなる。それと同時に、送信されるデータ量が減るので(但し、モバイル端末105−3の警告画像603、604よりは多い)、それに比例して通信コストを下げることができる。
【0055】
次に、本発明の第3の実施の形態を図8〜9によって説明する。
前記第1の実施の形態では、警告画像内の注目箇所の外接矩形を切り取る形態を述べたが、これと同様の効果として、注目箇所の中の領域はそのままにして、注目箇所の外の領域は任意の単一色で塗りつぶしてもよい。このようにすると、侵入者が警告画像内のどの場所に位置するのか分かりやすくなり、警戒の度合を把握しやすくなる。
【0056】
図8は、図2のCPU200が行う処理を示す第3の実施の形態のフローチャートである。以下、図8のフローチャートを説明する。
【0057】
CPU200の侵入者検知にさきだち、CPU200は侵入者のない画像を蓄配サーバ102から通信媒体203と通信インターフェース202を経由してフレーム画像(これをフレーム画像Aと称する)を取得し、画像認識処理を行い、その結果の画像(これを認識対象画像と称する)をメモリ201に格納している。
【0058】
ステップ800〜ステップ802までの処理は、図4のステップ400〜404までの処理と同じである。
【0059】
ステップ803で、CPU200は、フレーム画像Aに対して侵入者管理テーブル300のデータをもとに、侵入者の外接矩形(N箇所)の外の領域を任意の単一色で塗りつぶし、ステップ804に移行する(これを警告画像とする。)。
【0060】
ステップ804〜ステップ408までの処理は、図4のステップ406〜408までの処理と同じである。
【0061】
この結果により、モバイル端末105を携帯しているユーザは、電子メールに添付された警告画像をモバイル端末105の表示画面で閲覧できる。
【0062】
結果のモバイル端末の表示画面を図9に示す。105−8はモバイル端末、600は表示画面、901は警告画像、902は外接矩形の中の領域、903は外接矩形の外の領域である。
【0063】
モバイル端末105−8の表示画面600では、モバイル端末105−1〜105−3と同様、3本の木620の間に侵入者630、635がいる場合の表示例を示した。
【0064】
モバイル端末105−8の表示画像901は、侵入者630、635が警告画像901内のどの場所に位置するのか分かる。例えば、警告画像の左ほど警戒レベルが高いとき、警告画像901を見れば、左側に侵入者635がいることがユーザに一目でわかり、ユーザは警戒の度合を把握しやすくなる。それと同時に、送信されるデータ量が減るので(原画像に比べ、外接矩形の外の領域903が単一色で塗りつぶしてあるため、圧縮してファイルに保存するとデータ量は減る)、それに比例して通信コストを下げることができる。
【0065】
次に、本発明の第4の実施の形態を図10〜11によって説明する。
警告画像内の侵入者がいる箇所をユーザに注目させる場合、注目箇所の画像は拡大し、注目箇所以外の画像を縮小してもよい。このようにすると、侵入者の映像が拡大され、侵入者が誰なのかよりはっきり分かり、かつ、侵入者が警告画像内のどの場所に位置するのかも分かり、警戒の度合を把握しやすくなる。
【0066】
図10は、図2のCPU200が行う処理を示す第4の実施の形態のフローチャートである。以下、図10のフローチャートを説明する。
【0067】
CPU200の侵入者検知にさきだち、CPU200は侵入者のない画像を蓄配サーバ102から通信媒体203と通信インターフェース202を経由してフレーム画像(これをフレーム画像Aと称する)を取得し、画像認識処理を行い、その結果の画像(これを認識対象画像と称する)をメモリ201に格納している。
【0068】
ステップ1000〜ステップ1002までの処理は、図4のステップ400〜404までの処理と同じである。
【0069】
ステップ1003で、CPU200は、フレーム画像Aに対して侵入者管理テーブル300のデータをもとに、侵入者の外接矩形で囲まれた領域(これを領域Bとする。N箇所ある。)を適当な比率で拡大し、領域B以外の領域(これを領域Cとする)を領域Bから離れるほど縮小するように画像処理し、ステップ1004に移行する(これを警告画像とする。)。
【0070】
ステップ1004〜408の処理は、図4のステップ406〜408の処理と同じである。
【0071】
この結果により、モバイル端末105を携帯しているユーザは、電子メールに添付された警告画像をモバイル端末105の表示画面で閲覧できる。
【0072】
結果のモバイル端末の表示画面を図11に示す。105−9はモバイル端末、600は表示画面、1100は警告画像、630−1、635−1は拡大表示された侵入者、620−1は縮小表示された3本の木である。
【0073】
モバイル端末105−9の表示画面600では、図5(A)から(C)のモバイル端末105−1〜105−3と同様、3本の木の間に侵入者が2人いる場合の表示例を示した。
【0074】
侵入者630−1、635−1は、モバイル端末105−1の表示画面600にいる侵入者630、635よりも拡大表示されているので、警告画像1100内に侵入者がいること、そして侵入者が誰なのかがよりはっきりとわかる。また、木620−1は、モバイル端末105−1の表示画面600にある木620よりも縮小表示されているものの、侵入者630−1、635−1との位置関係は変わらないので、侵入者630−1、635−1が警告画像1100内のどの場所に位置するのか分かる。よって、例えば、警告画像の左ほど警戒レベルが高いとき、警告画像1100を見れば、左側に侵入者635−1がいることがユーザに一目でわかり、ユーザは警戒の度合を把握しやすくなる。
【0075】
次に、本発明の第5の実施の形態を図12〜15によって説明する。
前記第1の実施の形態では、警告画像内の注目箇所に外接矩形枠を描画する形態を述べ、モバイル端末の表示画面で警告画像をみた場合の表示例を、図5(B)のモバイル端末105−2に示し、侵入者630、635に枠604、605が表示されることを述べたが、モバイル端末の表示画面で警告画像をスクロール操作できるような場合は、枠の一つがモバイル端末の表示画面の中央に表示されるようにしてもよい。このようにすると、大事な箇所をまずユーザが見て、その後で、スクロール操作によって警告画像の見たい部分をチェックできるようになり、モバイル端末の操作性がよくなる。
【0076】
初めに、本サーバ103の処理について説明する。
【0077】
図12は、図2のCPU200が行う第5の実施の形態の処理を示すフローチャートである。以下、図12のフローチャートを説明する。
【0078】
CPU200の侵入者検知にさきだち、CPU200は侵入者のない画像を蓄配サーバ102から通信媒体203と通信インターフェース202を経由してフレーム画像(これをフレーム画像Aと称する)を取得し、画像認識処理を行い、その結果の画像(これを認識対象画像と称する)をメモリ201に格納している。
【0079】
ステップ1200〜ステップ1202までの処理は、図4のステップ400〜404までの処理と同じである。
【0080】
ステップ1203で、CPU200は、フレーム画像Aに対して侵入者管理テーブル300のデータをもとに、侵入者の外接矩形の箇所(N箇所)に枠を描画し、ステップ406に移行する(これを警告画像とする。)。
【0081】
ステップ1204で、CPU200は、侵入者管理テーブル300のデータをもとに、侵入者の外接矩形の中心座標を計算し、該座標(N個)と侵入者の数(N)を電子メールの本文に記述する。
【0082】
ステップ1205〜408の処理は、図4のステップ406〜408の処理と同じである。
【0083】
次に、モバイル端末105の処理について説明する。
【0084】
図13は、図1のモバイル端末105の構成を示すブロック図である。1300はCPU、1301はメモリ、1302は通信インターフェース、1303は通信媒体、1304は記憶装置、1305はバス、1306はボタンインターフェース、1307は表示画面である。
【0085】
CPU1300は、バス1305を介して、メモリ1301、通信インターフェース1302、記憶装置1304、ボタンインターフェース1306、表示画面1307と接続されており、通信インターフェース1302は、通信媒体1303を介して図1の他の構成要素と接続されている。CPU1300は、バス1305を介して接続されている他の構成要素と信号を送受し合い、各構成要素はCPU1300からのアクセス信号により制御される。
【0086】
図14は、図13のCPU1300が行う第5の実施の形態の処理を示すフローチャートであり、図3は、CPU200と同様に、CPU1300が処理の最中にメモリ1301に作成するデータ領域である。以下、図14のフローチャートを説明する。
【0087】
CPU1300が処理を開始すると、ステップ1400で、CPU1300は、本サーバ103から通信媒体1303と通信インターフェース1302を経由して電子メール(これを電子メールAと称する)を取得し、記憶装置1304に格納し、ステップ1401に移行する。
【0088】
ステップ1401で、ボタンインターフェース1306からCPU1300に電子メールAに添付された警告画像ファイル(これを警告画像ファイルAと称する)を閲覧する要求が来たかどうかを判断する。要求が来た場合はステップ1402に移行し、要求が来ない場合はステップ1401に戻り、本ステップの処理を繰り返す。
【0089】
ステップ1402で、CPU1300は、記憶装置1304から警告画像ファイルAの画像データをメモリ1301に読み込み(これを警告画像Aとする)、ステップ1403に移行する。
【0090】
ステップ1403で、CPU1300は、記憶装置1304から電子メールAの本文の文字データをメモリ1301に読み込み(これを本文Aとする)、ステップ1404に移行する。
【0091】
ステップ1404で、CPU1300は、本文Aに記述された侵入者の数(N)の分だけ侵入者管理テーブル300をメモリ1301に確保し、ステップ1405に移行する。
【0092】
ステップ1405で、CPU1300は、本文Aに記述された侵入者の外接矩形の中心座標を、侵入者管理テーブル300の各要素301〜303(N個)が各々指している侵入者管理構造体350のメンバ変数、x座標352、y座標353に格納し、ステップ1406に移行する。
【0093】
ステップ1406で、CPU1300は、侵入者管理テーブル300のデータをもとに、一つの侵入者の外接矩形の中心が表示画面1307の中心に来るように、警告画像Aを表示画面1307に表示し、本処理を終了する。尚、表示画面1307の中心に表示される侵入者として、例えば、警告画像Aの右側ほど警戒レベルが高い場合、最も右側に位置している侵入者などが考えられる。
【0094】
この結果により、モバイル端末105を携帯しているユーザは、電子メールに添付された警告画像をモバイル端末105の表示画面で閲覧できる。
【0095】
結果のモバイル端末の表示画面を図15に示す。105−10はモバイル端末、600は表示画面、1500は警告画像、630は侵入者、620は木、604は外接矩形枠、1501はボタン群である。
【0096】
モバイル端末105−10の表示画面600では、図5(A)から(C)のモバイル端末105−1〜105−3と同様、3本の木620の間に侵入者630、635がいる場合の一部分を示した。
【0097】
ボタン群1501は、図13のボタンインターフェース1306に相当し、表示画面600に表示される警告画像1500をスクロールすることができる。また、警告画像1500の面積は、図5(B)のモバイル端末105−2の警告画像602より大きめに表示されている。また、モバイル端末150−10では、枠604の中心が表示画面600の中心にくるように、即ち、侵入者630が中央にくるように表示されている。
【0098】
このようにモバイ端末150−10で、警告画像の表示を制御することで、ユーザはまず大事な箇所を見ることができ、その後、ボタン群1501を操作して警告画像1500をスクロールし、警告画像1500の見たい部分をチェックできるようになり、モバイル端末150−10の操作性がよくなる。
【0099】
次に、本発明の第6の実施の形態を図16〜18によって説明する。
前記第1の実施の形態では、警告画像内の注目箇所の外接矩形を切り取る形態を述べ、モバイル端末の表示画面で、切り出した警告画像をみた場合の表示例を図5(B)のモバイル端末105−3に示し、表示画面600に侵入者630、635のみが映された警告画像603、604が表示されることを述べたが、注目箇所の位置情報を利用して、モバイル端末の表示画面上でも、切り出した警告画像を適切な位置に表示するようにしてもよい。このようにすると、侵入者が警告画像内のどの場所に位置するのか分かりやすくなり、警戒の度合を把握しやすくなる。
【0100】
初めに、本サーバ103の処理について説明する。
【0101】
図16は、図2のCPU200が行う処理を示す第6の実施の形態のフローチャートである。以下、図16のフローチャートを説明する。
【0102】
CPU200の侵入者検知にさきだち、CPU200は侵入者のない画像を蓄配サーバ102から通信媒体203と通信インターフェース202を経由してフレーム画像(これをフレーム画像Aと称する)を取得し、画像認識処理を行い、その結果の画像(これを認識対象画像と称する)をメモリ201に格納している。
【0103】
ステップ1600〜ステップ1602の処理は、図4のステップ400〜404の処理と同じである。
【0104】
ステップ1603で、CPU200は、フレーム画像Aに対して侵入者管理テーブル300のデータをもとに、侵入者の外接矩形の箇所(N箇所)を切り取り、ステップ1604に移行する(これを警告画像とする。)。
【0105】
ステップ1604で、CPU200は、侵入者管理テーブル300のデータをもとに、侵入者の外接矩形の座標(N個)と侵入者の数(N)を電子メールの本文に記述する。
【0106】
ステップ1605〜408の処理は、図4のステップ406〜408の処理と同じである。
【0107】
次に、モバイル端末105の処理について説明する。
【0108】
図17は、図13のCPU1300が行う第6の実施の形態の処理を示すフローチャートであり、図3は、CPU200と同様に、CPU1300が該処理の最中にメモリ1301に作成するデータ領域である。以下、図17のフローチャートを説明する。
【0109】
CPU1300が処理を開始すると、ステップ1700で、CPU1300は図14のステップ1400と同じ処理をし、ステップ1701に移行する。
【0110】
ステップ1701で、ボタンインターフェース1306(図13)からCPU1300に、電子メールAに添付された警告画像ファイル(これを警告画像ファイルAと称する。N個ある。)を閲覧する要求が来たかどうかを判断する。要求が来た場合はステップ1702に移行し、要求が来ない場合はステップ1701に戻り、本ステップの処理を繰り返す。
【0111】
ステップ1702で、CPU1300は、記憶装置1304から警告画像ファイルAの画像データをメモリ1301に読み込み(これを警告画像Aとする。N個ある。)、ステップ1703に移行する。
【0112】
ステップ1703で、CPU1300は、図14のステップ1403と同じ処理をし、ステップ1704に移行する。
【0113】
ステップ1704で、CPU1300は、図14のステップ1404と同じ処理をし、ステップ1705に移行する。
【0114】
ステップ1705で、CPU1300は、本文Aに記述された侵入者の外接矩形の座標を、侵入者管理テーブル300の各要素301〜303(N個)が各々指している侵入者管理構造体350のメンバ変数、x座標352、y座標353(以上、左上の座標)、x座標354、y座標355(以上、右下の座標)に格納し、ステップ1706に移行する。
【0115】
ステップ1706で、CPU1300は、侵入者管理テーブル300のデータをもとに、格納された座標の座標値を変えることにより、警告画像A(N個)を表示画面1307上の任意の位置に表示し、本処理を終了する。
【0116】
この結果により、モバイル端末105を携帯しているユーザは、電子メールに添付された警告画像をモバイル端末105の表示画面で閲覧できる。
【0117】
結果のモバイル端末の表示画面を図18に示す。105−11はモバイル端末、600は表示画面、603、604は警告画像、630、635は侵入者である。
【0118】
モバイル端末105−11の表示画面600では、図5(A)から(C)のモバイル端末105−1〜105−3と同様、3本の木620の間に侵入者630、635がいる場合の表示例を示した。
【0119】
モバイル端末105−11の警告画像603、604で、侵入者630、635が警告画像全体の中どの場所に位置するのか分かる。よって、例えば、警告画像の左ほど警戒レベルが高いとき、警告画像604を見れば、左側に侵入者635がいることがユーザに一目でわかり、ユーザは警戒の度合を把握しやすくなる。それと同時に、送信されるデータ量が減るので、それに比例して通信コストを下げることができる。
【0120】
次に、本発明の第7の実施の形態を図19によって説明する。
前記第1から第6の実施の形態では、監視カメラからの映像に対して画像認識処理を行い、侵入者を検知した場合、検知時の画像を電子メールに添付し、電子メールをモバイル端末に送信していたが、その検知の信頼度に応じて、電子メールの内容を変えてもよい。このようにすると、電子メールの内容によって、ユーザは警戒の度合を認識しやすくなり、場合によっては、送信するデータも減り、通信コストを下げることもできる。
【0121】
図19は、図13のCPU200が行う第7の実施の形態の処理を示すフローチャートである。以下、図19のフローチャートを説明する。
【0122】
CPU200の侵入者検知にさきだち、CPU200は侵入者のない画像を蓄配サーバ102から通信媒体203と通信インターフェース202を経由してフレーム画像(これをフレーム画像Aと称する)を取得し、画像認識処理を行い、その結果の画像(これを認識対象画像と称する)をメモリ201に格納している。
【0123】
ステップ1900の処理は、図4のステップ400〜401の処理と同じである。
【0124】
ステップ1901で、CPU200は、前ステップ1900の処理の結果を受け、上記認識対象画像と比較して、侵入者を検知したか判断する。検知した場合は、ステップ1902に移行して処理を続け、検知していない場合は、何も処理をせずにステップ408に移行する。
【0125】
ステップ1902で、CPU200は、ステップ1900の処理の結果を受けて、検知信頼度を電子メールの本文に記述し、ステップ1903に移行する。検知信頼度としては、例えば、ステップ1900の画像認識処理において顔認識処理を行った結果、認識対象の顔と、特定の人(例えば指名手配の人)の顔がどの程度合致しているかを示す値などが考えられる。値は百分率でよいし、A、B、Cの様なランク付けでもよい。
【0126】
ステップ1903で、CPU200は、検知信頼度が適当な条件を満たしたかどうかを判断する。満たした場合は、ステップ1904に移行し、満たしていない場合は、ステップ1906に移行する。適当な条件としては、顔認識の例でいえば、検知信頼度が90%以上であった場合、即ち90%以上の割合で顔が一致している場合などが考えられるし、またその逆でもよい。
【0127】
ステップ1904の処理は、図4のステップ403〜406の処理と同じである。
【0128】
ステップ1905で、CPU200は、警告画像ファイルを電子メールに添付し、ステップ1906に移行する。
【0129】
ステップ1906で、CPU200は、電子メールを通信インターフェース202と通信媒体203を経由して、モバイル端末105に送信し、ステップ408に移行する。
【0130】
ステップ408で、CPU200は、本サーバ103の処理が終了したかを判断する。終了した場合は本処理を終了し、終了していない場合はステップ1900に戻り、今まで述べてきた処理を繰り返す。
【0131】
この結果、電子メールの内容によって、ユーザは警戒の度合を認識しやすくなる。例えば前述の顔認識の例でいうと、ステップ1903の条件が検知信頼度70%以上であったとすると、電子メールに警告画像が添付してあった場合、指名手配の人に70%以上似ている人が検知された事を示しているので、ユーザはこのことから、警戒の度合が高いことを理解する。一方、電子メールに警告画像が添付していなかった場合、指名手配の人に70%までは似ていない人が検知された事を示しているので、ユーザはこのことから、警戒の度合が低いことを理解する。また、後者の場合、警告画像のデータは送信されないので、それに比例して通信コストを下げることができる。
【0132】
また、ステップ1903の条件が検知信頼度90%未満、50%以上であったとすると、電子メールに警告画像が添付してあった場合、指名手配の人に似ていそうだけどはっきりしない人が検知された事を示しているので、ユーザはこのことから、警告画像を自分の目で判断しなければならないことを理解する。一方、電子メールに警告画像が添付していなかった場合、検知信頼度が90%以上なら、指名手配の人であるとほぼはっきりしており、また検知信頼度が50%未満であれば、指名手配の人ではないとほぼはっきりしているので、両者共に警告画像をあえてみる必要が無くなり、ユーザの手間が省け、また、通信コストを下げることができる。
【0133】
なお、上記の本発明の各実施の形態においては、進入者すなわち人を検知したが、それにかぎらず、特定の物体を検知するのでも良く、また画像を電子メールに添付して送信しているが、画像を直接送信するようにしても良く、またカメラは監視カメラに限定されず、通常のカメラであっても良く、また監視カメラに限定されず、他の映像配信システムであっても良く、また本発明の構成として図1では映像蓄積配信サーバを介在させているが、本発明においては必須の構成ではないので削除しても良いことはいうまでもない。
【0134】
【発明の効果】
本発明によれば、モバイル端末で見たい注目箇所を分かりやすく表示することが可能な映像配信システムおよび通報サーバならびにモバイル端末を得ることができる。また本発明によれば、モバイル端末で見たい注目箇所を少ない画像で配信することが可能な映像配信システムおよび通報サーバならびにモバイル端末を得ることができる。さらに本発明によれば、モバイル端末で人または物体の検知の信頼度がわかる通報サーバを得ることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態のネットワーク型監視システムを構成するブロック図である。
【図2】図1の通報サーバを構成するブロック図である。
【図3】図2のCPUが処理の最中にメモリに作成するデータ領域である。
【図4】図2のCPUが行う処理を示す第1の実施の形態のフローチャートである。
【図5】従来と第1の実施の形態の結果のモバイル端末の表示画面を示す図である。
【図6】図2のCPUが行う処理を示す第2の実施の形態のフローチャートである。
【図7】第2の実施の形態の結果のモバイル端末の表示画面を示す図である。
【図8】図2のCPUが行う処理を示す第3の実施の形態のフローチャートである。
【図9】第3の実施の形態の結果のモバイル端末の表示画面を示す図である。
【図10】図2のCPUが行う処理を示す第4の実施の形態のフローチャートである。
【図11】第4の実施の形態の結果のモバイル端末の表示画面を示す図である。
【図12】図2のCPUが行う第5の実施の形態処理を示すフローチャートである。
【図13】図1のモバイル端末の構成を示すブロック図である。
【図14】図13のCPUが行う第5の実施の形態の処理を示すフローチャートである。
【図15】第5の実施の形態の結果のモバイル端末の表示画面を示す図である。
【図16】図2のCPUが行う第6の実施の形態の処理を示すフローチャートである。
【図17】図13のCPUが行う第6の実施の形態の処理を示すフローチャートである。
【図18】第6の実施の形態の結果のモバイル端末の表示画面を示す図である。
【図19】図13のCPUが行う第7の実施の形態の処理を示すフローチャートである。
【図20】従来のネットワーク型監視システムを構成するブロック図である。
【符号の説明】
100…監視カメラ、101…ウェブエンコーダ、102…映像蓄積配信サーバ、103…通報サーバ、105…モバイル端末、110…映像ケーブル、111〜113…通信媒体、200…CPU、201…メモリ、202…通信インターフェース、203…通信媒体、204…記憶装置、205…バス、300…侵入者管理テーブル、301〜303…配列要素、350…侵入者管理構造体、351…フレーム番号、352…x座標、353…y座標、354…x座標、355…y座標、105−1〜105−11…モバイル端末、600…表示画面、601〜604、611〜614、701〜702、901、1100、1500…警告画像、604〜605、614〜615…外接矩形枠、620、620−1…木、630、635、630−1、635−1…侵入者、640…人込み、650、655…指名手配の人、902…外接矩形の中の領域、903…外接矩形の外、1300…CPU、1301…メモリ、1302…通信インターフェース、1303…通信媒体、1304…記憶装置、1305…バス、1306…ボタンインターフェース、1307…表示画面、1501…ボタン群、2000…監視装置。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a video distribution system that distributes a video signal captured by an imaging device to a mobile terminal, a notification server, and a mobile terminal.
[0002]
[Prior art]
A conventional network type monitoring system will be described.
[0003]
FIG. 20 is a block diagram showing the configuration of a network-type monitoring system (not related to the invention disclosed in the literature). The network-type monitoring system includes a monitoring camera 100, a monitoring device 2000, and a mobile terminal 105. Among the components, the monitoring camera 100 and the monitoring device 2000 are connected by a video cable 110, and the monitoring device 2000 and the mobile terminal 105 are connected by a communication medium 113.
[0004]
The role of each component in FIG. 20 will be described. The monitoring camera 100 transmits the captured video signal to the monitoring device 2000 via the video cable 110. The monitoring device 2000 may be a single device or a network-type system in which a plurality of devices are connected by a communication medium. The monitoring apparatus 2000 performs image recognition processing on an image of one frame of the captured video signal, detects an intruder in the frame image, and notifies the user of an alarm. An e-mail is attached to the mobile terminal 105 having means for viewing the e-mail via the communication medium 113 with an image (this is called a warning image) attached. The user carrying the mobile terminal 105 can browse the warning image attached to the e-mail on the display screen of the mobile terminal 105.
[0005]
The resulting display screen of the mobile terminal is shown in FIG. The display screen 600 of the mobile terminal 105-1 shows a display example in the case where a plurality of intruders 630 and 635 are present in three trees 620. FIG. 5D shows an example of the resulting display screen of the mobile terminal. The display screen 600 of the mobile terminal 105-4 shows a display example in the case where a plurality of specific people 650 and 655 (for example, a wanted person) are mixed in the crowd 640.
[0006]
[Problems to be solved by the invention]
However, in any of the examples, when the warning image 601 is viewed on the display screen 600 having a limited display area (number of pixels), the display of the intruders 630 and 635 is small, and the intruders 630 and 635 are mixed in the tree 620. It is difficult to know where the persons 630 and 635 are. In addition, since the display screen 600 has limited display colors, especially when the intruders 630 and 635 are dressed in colors similar to the tree 620, the intruders 630 and 635 cannot be distinguished from the tree 620. Where it is.
[0007]
Further, when an intruder is detected by the image recognition process, an e-mail of the same content is transmitted regardless of the degree of reliability of the detection, so that it is difficult for the user to understand the degree of caution.
[0008]
An object of the present invention is to provide a video distribution system, a report server, and a mobile terminal that can easily display a point of interest to be viewed on the mobile terminal.
[0009]
It is another object of the present invention to provide a video distribution system, a notification server, and a mobile terminal capable of distributing a point of interest to be viewed on the mobile terminal with a small number of images.
[0010]
It is still another object of the present invention to provide a notification server that can detect the reliability of detection of a person or an object in a mobile terminal.
[0011]
[Means for Solving the Problems]
The present invention is an imaging device, a notification server that performs detection of a person or an object on an image composed of a video signal captured by the imaging device, and distributes an image with a mark on the person or the object to a mobile terminal, A video distribution system comprising the mobile terminal for displaying an image acquired from the notification server on a display screen.
[0012]
The present invention is a notification server that detects a person or an object with respect to an image composed of a video signal captured by an imaging device, and distributes an image in which the person or the object is marked to a mobile terminal. .
[0013]
The present invention is the video distribution system or the notification server according to the above description, wherein the notification server distributes an image obtained by cutting out only the marked person or object to the mobile terminal.
[0014]
The present invention is the video distribution system or the notification server according to the above description, wherein the notification server distributes an image of an area slightly larger than the marked person or object to the mobile terminal.
[0015]
The present invention is the video distribution system or the notification server according to the above description, wherein the notification server distributes an image in which a person or an object other than the marked person or object is filled with a single color to the mobile terminal.
[0016]
The present invention is characterized in that, in the above description, the notification server distributes an image obtained by enlarging the marked person or object and reducing an image other than the marked person or object to the mobile terminal. It is a video distribution system or a report server.
[0017]
The present invention obtains an image of a marked person or object and position information of the mark from a notification server, displays the mark at the center of a display screen based on the position information, and displays another portion of the image. Is a mobile terminal characterized in that it is possible to scroll the image when viewing.
[0018]
According to the present invention, it is possible to obtain an image of a marked person or object and position information of the mark from a notification server, and display the mark at an arbitrary position on a display screen based on the position information. A mobile terminal characterized in that:
[0019]
The present invention provides a notification server, which detects a person or an object with respect to an image composed of a video signal captured by an imaging device and changes the content of a notification delivered to a mobile terminal according to the reliability of the detection. is there.
[0020]
BEST MODE FOR CARRYING OUT THE INVENTION
A first embodiment of the present invention will be described with reference to FIGS.
[0021]
FIG. 1 is a block diagram showing the configuration of the network type monitoring system. The network-type monitoring system includes a monitoring camera 100, a web encoder 101, a video accumulation / delivery server 102 (hereinafter, referred to as a storage server), a notification server 103 (hereinafter, referred to as the present server), and a mobile terminal 105. Among the components, the monitoring camera 100 and the web encoder 101 are connected by a video cable 110, and the web encoder 101, the storage server 102, the server 103, and the mobile terminal 105 are connected by communication media 111 to 113.
[0022]
The role of each component in FIG. 1 will be described. Surveillance camera 100 transmits the captured video signal to web encoder 101 via video cable 110. The web encoder 101 converts the captured video signal into a data format that can be transmitted to the communication media 111 to 113, and transmits the converted data (referred to as video data) to the storage server 102. The storage server 102 stores the video data in the storage device of the server itself. The server 103 acquires an image of one frame from the video data stored in the storage server 102 via the communication medium 112, performs image recognition processing on the frame image, and, if there is an intruder in the frame image, deletes it. To detect and notify a user of an alarm, a frame image (referred to as a warning image) is attached to the electronic mail, and the electronic mail is transmitted to the mobile terminal 105 having means for viewing the electronic mail through the communication medium 113. . The user carrying the mobile terminal 105 can browse the warning image attached to the e-mail on the display screen of the mobile terminal 105.
[0023]
FIG. 2 is a block diagram showing the configuration of the server 103 of FIG. 200 is a CPU (Central Processing Unit), 201 is a memory, 202 is a communication interface, 203 is a communication medium, 204 is a storage device, and 205 is a bus.
[0024]
The CPU 200 is connected to a memory 201, a communication interface 202, and a storage device 204 via a bus 205, and the communication interface 202 is connected to other components in FIG. The CPU 200 sends and receives signals to and from other components connected via the bus 205, and each component is controlled by an access signal from the CPU 200.
[0025]
FIG. 4 is a flowchart of the first embodiment showing processing performed by the CPU 200 of FIG. 2, and FIG. 3 is a data area created in the memory 201 by the CPU 200 of FIG. 2 during the processing. Hereinafter, the flowchart of FIG. 4 will be described.
[0026]
Before the CPU 200 detects an intruder, the CPU 200 obtains a frame image (referred to as a frame image A) from the storage server 102 via the communication medium 203 and the communication interface 202 from an image without an intruder, and performs image recognition processing. Is performed, and the resulting image (referred to as a recognition target image) is stored in the memory 201.
[0027]
When the CPU 200 starts processing, the CPU 200 acquires the frame image A from the storage server 102 via the communication medium 203 and the communication interface 202, stores the frame image A in the memory 201, and proceeds to step 401 in step 400.
[0028]
In step 401, the CPU 200 performs an image recognition process on the frame image A, and proceeds to step 402.
[0029]
In step 402, the CPU 200 receives the result of the process in the previous step 401, and compares it with the recognition target image to determine whether an intruder has been detected. If detected, the process proceeds to step 403 to continue the process. If not detected, the process proceeds to step 408 without performing any processing.
[0030]
In step 403, the CPU 200 secures the intruder management table 300 (cobj [N]) of FIG. 3 in the memory 201 for the number of detected intruders (assuming that the number is N), and proceeds to step 404. .
[0031]
At step 404, the CPU 200 determines the members of the intruder management structure 350 (cobj) to which the respective elements 301 to 303 (N of cobj [0] to coobj [N-1]) of the intruder management table 300 respectively point. The functions 351 to 355 store the frame number of the frame image A and the coordinates of the circumscribed rectangle of the intruder shown in the frame image A. Specifically, the frame number of the frame image A is stored in the frame number 351 (frame), the upper left x coordinate of the circumscribed rectangle is stored in the x coordinate 352 (x0), and the y coordinate 353 (y0) is stored. The upper left y coordinate of the circumscribed rectangle is stored, the lower right x coordinate of the circumscribed rectangle is stored in the x coordinate 354 (x1), and the lower right y coordinate of the circumscribed rectangle is stored in the y coordinate 355 (y1). .
[0032]
In step 405, based on the data in the intruder management table 300, the CPU 200 draws a frame at the circumscribed rectangle (N places) of the intruder or cuts out the frame image A (this is The process proceeds to step 406 (where one warning image is displayed when a frame is drawn, and N warning images are obtained when a frame is cut out).
[0033]
In step 406, the CPU 200 compresses the warning image in the storage device 204 and saves the file (this is referred to as a warning image file), and proceeds to step 407 (where the warning image file when the frame is drawn is 1). And the number of warning image files when cut out is N.) The compression is performed by an appropriate compression method such as JPEG.
[0034]
At step 407, CPU 200 attaches the warning image file to the e-mail, transmits the e-mail to mobile terminal 105 via communication interface 202 and communication medium 203, and proceeds to step 408.
[0035]
At step 408, CPU 200 determines whether the processing of server 103 has been completed or not. If the processing has been completed, this processing ends. If not, the processing returns to step 400, and the processing described so far is repeated.
[0036]
As a result, the user carrying the mobile terminal 105 can view the warning image attached to the e-mail on the display screen of the mobile terminal 105.
[0037]
The resulting display screen of the mobile terminal is shown in FIG. 105-1 to 105-6 are mobile terminals, 600 is a display screen, 601 to 603, 611 to 613 are warning images, and 604 to 605 and 614 to 615 are frames displaying a circumscribed rectangle of the intruder.
[0038]
5A to 5C show display examples when the intruders 630 and 635 are present between the three trees 620 on the display screens 600 of the mobile terminals 105-1 to 105-3. As described in the related art, when the warning image 601 is viewed on the display screen 600 having a limited display area (number of pixels) of the mobile terminal 105-1, the displays of the intruders 630 and 635 are small, and the display of the tree 620 is small. Because it is mixed in, it is difficult to know where the intruders 630 and 635 are. In addition, since the display colors of the display screen 600 are also limited, especially when the intruders 630 and 635 are dressed in colors similar to the tree 620, the intruders 630 and 635 cannot be distinguished from the tree 620. Where it is.
[0039]
However, in the warning image 602 of the mobile terminal 105-2 in FIG. 5B, the frames 604 and 605 are displayed for the intruder, so that the intruders 630 and 635 can be seen at a glance. At the same time, the user can immediately know where the entire warning image 602 is located, so that the user can immediately grasp the degree of caution.
[0040]
Further, in the warning images 603 and 604 of the mobile terminal 105-3 in FIG. 5C, only the intruders 630 and 635 are cut out, so that it is possible to know at a glance who the intruders 630 and 635 are. At the same time, since the amount of data to be transmitted is reduced, the communication cost can be reduced in proportion thereto.
[0041]
Also, in the warning screen 600 of the mobile terminal 105-4 to 105-6 in FIGS. 5D to 5F, when there are specific people 650 and 655 (for example, a wanted person) in the crowd 640. An example of display was shown. (In this case, face recognition processing is performed in the image recognition processing in step 401 of FIG. 4). As described in the related art, when the warning image 611 is viewed on the display screen 600 having a limited display area (the number of pixels) of the mobile terminal 105-4, the display of the faces of the wanted persons 650 and 655 is small, Also, since it is mixed in the crowd 640, it is difficult to know where the wanted people 650 and 655 are. In addition, since the display colors of the display screen 600 are also limited, in particular, when the wanted persons 650 and 655 have faces similar in color to the crowd 640, it is difficult to distinguish the people 650 and 655 from the crowd 640, and the wanted person 650 and 655 cannot distinguish between the people 650 and 655. It is even harder to know where 650 and 655 are.
[0042]
However, in the warning image 612 of the mobile terminal 105-5 in FIG. 5E, since the frames 614 and 615 are displayed on the wanted persons 650 and 655, it is obvious that the wanted persons 650 and 655 are present. You can see At the same time, the user can immediately know where the entire warning image 612 is, so that the user can immediately grasp the degree of caution.
[0043]
Further, in the warning images 613 and 614 of the mobile terminal 105-6 in FIG. 5F, only the wanted persons 650 and 655 are cut out, so that it is possible to know at a glance who the wanted persons 650 and 655 are. At the same time, since the amount of data to be transmitted is reduced, the communication cost can be reduced in proportion thereto.
[0044]
Next, a second embodiment of the present invention will be described with reference to FIGS.
In the first embodiment, the mode in which the circumscribed rectangle of the point of interest in the warning image is cut out has been described. However, the area to be cut out may be an area slightly larger than the circumscribed rectangle. When the area is cut out, not only the intruder but also some background around the area enters the area, so that the user can easily understand where the intruder is in the warning image and grasp the degree of alertness. It will be easier.
[0045]
FIG. 6 is a flowchart of the second embodiment illustrating the processing performed by the CPU 200 of FIG. Hereinafter, the flowchart of FIG. 6 will be described.
[0046]
Before the CPU 200 detects an intruder, the CPU 200 obtains a frame image (referred to as a frame image A) from the storage server 102 via the communication medium 203 and the communication interface 202 from an image without an intruder, and performs image recognition processing. Is performed, and the resulting image (referred to as a recognition target image) is stored in the memory 201.
[0047]
The processing from step 690 to step 692 is the same as the processing from step 400 to 404 in FIG.
[0048]
In step 693, the CPU 200 changes the values of the member functions 352 to 355 (coordinates of the circumscribed rectangle) of the N intruder management structures 350 so that the circumscribed rectangle becomes large. That is, the upper left x coordinate 352 (x0) is shifted left by Δx0, the upper left y coordinate 353 (y0) is shifted upward by Δy0, and the lower right x coordinate 354 (x1) is shifted right by Δx1. , The lower right y-coordinate 355 (y1) is shifted downward by Δy1, and the process proceeds to step 694 (note that Δx0, Δy0, Δx1, and Δy1 are positive values and are suitable for viewing the periphery of the intruder. Value.)
[0049]
In step 694, the CPU 200 cuts out the area set in the previous step for the frame image A based on the data in the intruder management table 300 (this becomes a warning image), and proceeds to step 695.
[0050]
The processing from step 695 to step 408 is the same as the processing from step 406 to 408 in FIG.
[0051]
As a result, the user carrying the mobile terminal 105 can view the warning image attached to the e-mail on the display screen of the mobile terminal 105.
[0052]
The resulting display screen of the mobile terminal is shown in FIG. 105-7 is a mobile terminal, 600 is a display screen, and 701 to 702 are warning images.
[0053]
On the display screen 600 of the mobile terminal 105-7, similar to the mobile terminals 105-1 to 105-3 in FIGS. 5A to 5C, when there are intruders 630 and 635 between three trees 620. The display example was shown.
[0054]
Since the display images 701 and 702 of the mobile terminal 105-7 are areas slightly larger than the circumscribed rectangle of the intruders 630 and 635, it can be seen at a glance that the intruder 635 is next to the tree 620 (at the left end). Also, it can be seen at a glance that the intruder 630 is between the trees 620 (right end and the middle). For example, when the alert level is higher toward the left of the warning image, looking at the display image 701, the user can see at a glance that the intruder 635 is next to the tree 620 (at the left end), and the user can grasp the degree of alertness. It will be easier. At the same time, the amount of data to be transmitted is reduced (however, more than the warning images 603 and 604 of the mobile terminal 105-3), so that the communication cost can be reduced in proportion thereto.
[0055]
Next, a third embodiment of the present invention will be described with reference to FIGS.
In the first embodiment, the form in which the circumscribed rectangle of the point of interest in the warning image is cut out has been described. However, as a similar effect, the area inside the point of interest is left as it is, and the area outside the point of interest is removed. May be filled with any single color. By doing so, it is easy to know where the intruder is located in the warning image, and it is easy to grasp the degree of caution.
[0056]
FIG. 8 is a flowchart of the third embodiment showing the processing performed by the CPU 200 of FIG. Hereinafter, the flowchart of FIG. 8 will be described.
[0057]
Before the CPU 200 detects an intruder, the CPU 200 obtains a frame image (referred to as a frame image A) from the storage server 102 via the communication medium 203 and the communication interface 202 from an image without an intruder, and performs image recognition processing. Is performed, and the resulting image (referred to as a recognition target image) is stored in the memory 201.
[0058]
The processing from step 800 to step 802 is the same as the processing from step 400 to 404 in FIG.
[0059]
In step 803, the CPU 200 paints the area outside the circumscribed rectangle (N places) of the intruder with any single color based on the data of the intruder management table 300 for the frame image A, and proceeds to step 804. (This is referred to as a warning image).
[0060]
The processing from step 804 to step 408 is the same as the processing from step 406 to 408 in FIG.
[0061]
As a result, the user carrying the mobile terminal 105 can view the warning image attached to the e-mail on the display screen of the mobile terminal 105.
[0062]
The resulting display screen of the mobile terminal is shown in FIG. 105-8 is a mobile terminal, 600 is a display screen, 901 is a warning image, 902 is an area inside a circumscribed rectangle, and 903 is an area outside the circumscribed rectangle.
[0063]
On the display screen 600 of the mobile terminal 105-8, similar to the mobile terminals 105-1 to 105-3, a display example in which intruders 630 and 635 are present between three trees 620 is shown.
[0064]
The display image 901 of the mobile terminal 105-8 indicates where the intruders 630 and 635 are located in the warning image 901. For example, when the alert level is higher toward the left of the alert image, the alert image 901 allows the user to see at a glance that the intruder 635 is on the left side, and the user can easily grasp the alert level. At the same time, the amount of data to be transmitted is reduced (compared to the original image, the area 903 outside the circumscribed rectangle is filled with a single color, so the data amount is reduced when compressed and saved in a file). Communication costs can be reduced.
[0065]
Next, a fourth embodiment of the present invention will be described with reference to FIGS.
When making the user pay attention to the location of the intruder in the warning image, the image of the location of interest may be enlarged and the image other than the location of interest may be reduced. By doing so, the image of the intruder is enlarged, it is possible to more clearly know who the intruder is, and also to know where the intruder is located in the warning image, and it is easier to grasp the degree of vigilance.
[0066]
FIG. 10 is a flowchart of the fourth embodiment showing the processing performed by the CPU 200 of FIG. Hereinafter, the flowchart of FIG. 10 will be described.
[0067]
Before the CPU 200 detects an intruder, the CPU 200 obtains a frame image (referred to as a frame image A) from the storage server 102 via the communication medium 203 and the communication interface 202 from an image without an intruder, and performs image recognition processing. Is performed, and the resulting image (referred to as a recognition target image) is stored in the memory 201.
[0068]
The processing from step 1000 to step 1002 is the same as the processing from step 400 to 404 in FIG.
[0069]
In step 1003, the CPU 200 appropriately sets an area surrounded by a circumscribed rectangle of the intruder (this area is referred to as an area B. There are N places) based on the data of the intruder management table 300 for the frame image A. Then, image processing is performed so that the area other than the area B (this area is referred to as area C) is reduced as the distance from the area B is reduced, and the process proceeds to step 1004 (this is referred to as a warning image).
[0070]
The processing in steps 1004 to 408 is the same as the processing in steps 406 to 408 in FIG.
[0071]
As a result, the user carrying the mobile terminal 105 can view the warning image attached to the e-mail on the display screen of the mobile terminal 105.
[0072]
The resulting display screen of the mobile terminal is shown in FIG. 105-9 is a mobile terminal, 600 is a display screen, 1100 is a warning image, 630-1 and 635-1 are enlarged intruders, and 620-1 is three reduced trees.
[0073]
The display screen 600 of the mobile terminal 105-9 shows a display example when there are two intruders between three trees, similarly to the mobile terminals 105-1 to 105-3 in FIGS. 5A to 5C. Was.
[0074]
Since the intruders 630-1 and 635-1 are displayed larger than the intruders 630 and 635 on the display screen 600 of the mobile terminal 105-1, the presence of the intruder in the warning image 1100 and the intruder Who is more clearly understood. Although the tree 620-1 is displayed in a smaller size than the tree 620 on the display screen 600 of the mobile terminal 105-1, the positional relationship between the tree 620-1 and the intruders 630-1 and 635-1 does not change. It can be seen where 630-1 and 635-1 are located in the warning image 1100. Therefore, for example, when the alert level is higher toward the left of the alert image, the alert image 1100 allows the user to see at a glance that the intruder 635-1 is on the left side, and the user can easily grasp the alert level.
[0075]
Next, a fifth embodiment of the present invention will be described with reference to FIGS.
In the first embodiment, a form in which a circumscribed rectangular frame is drawn at a point of interest in a warning image is described, and a display example when a warning image is viewed on a display screen of the mobile terminal is shown in FIG. 105-2, it has been described that the frames 604 and 605 are displayed on the intruders 630 and 635. However, when the warning image can be scrolled on the display screen of the mobile terminal, one of the frames is displayed on the mobile terminal. It may be displayed at the center of the display screen. In this way, the user can see important parts first, and then check the desired part of the warning image by scrolling, thereby improving the operability of the mobile terminal.
[0076]
First, the processing of the server 103 will be described.
[0077]
FIG. 12 is a flowchart showing the processing of the fifth embodiment performed by the CPU 200 of FIG. Hereinafter, the flowchart of FIG. 12 will be described.
[0078]
Before the CPU 200 detects an intruder, the CPU 200 obtains a frame image (referred to as a frame image A) from the storage server 102 via the communication medium 203 and the communication interface 202 from an image without an intruder, and performs image recognition processing. Is performed, and the resulting image (referred to as a recognition target image) is stored in the memory 201.
[0079]
The processing of steps 1200 to 1202 is the same as the processing of steps 400 to 404 in FIG.
[0080]
In step 1203, the CPU 200 draws a frame on the frame image A based on the data of the intruder management table 300 at the circumscribed rectangle (N places) of the intruder, and moves to step 406. Warning image.)
[0081]
In step 1204, CPU 200 calculates the center coordinates of the circumscribed rectangle of the intruder based on the data in intruder management table 300, and determines the coordinates (N) and the number of intruders (N) in the body of the e-mail. Describe in.
[0082]
The processing of steps 1205 to 408 is the same as the processing of steps 406 to 408 in FIG.
[0083]
Next, processing of the mobile terminal 105 will be described.
[0084]
FIG. 13 is a block diagram showing a configuration of the mobile terminal 105 in FIG. Reference numeral 1300 denotes a CPU, 1301 denotes a memory, 1302 denotes a communication interface, 1303 denotes a communication medium, 1304 denotes a storage device, 1305 denotes a bus, 1306 denotes a button interface, and 1307 denotes a display screen.
[0085]
The CPU 1300 is connected to a memory 1301, a communication interface 1302, a storage device 1304, a button interface 1306, and a display screen 1307 via a bus 1305. The communication interface 1302 has another configuration shown in FIG. Connected with the element. The CPU 1300 sends and receives signals to and from other components connected via the bus 1305, and each component is controlled by an access signal from the CPU 1300.
[0086]
FIG. 14 is a flowchart showing the processing of the fifth embodiment performed by the CPU 1300 of FIG. 13. FIG. 3 is a data area created in the memory 1301 by the CPU 1300 during the processing, similarly to the CPU 200. Hereinafter, the flowchart of FIG. 14 will be described.
[0087]
When the CPU 1300 starts processing, in step 1400, the CPU 1300 acquires an e-mail (this is referred to as an e-mail A) from the server 103 via the communication medium 1303 and the communication interface 1302, and stores it in the storage device 1304. , To step 1401.
[0088]
In step 1401, it is determined whether a request to view a warning image file attached to the electronic mail A (referred to as a warning image file A) has been received from the button interface 1306 to the CPU 1300. If a request has been received, the process proceeds to step 1402, and if not, the process returns to step 1401 to repeat the processing of this step.
[0089]
In step 1402, the CPU 1300 reads the image data of the warning image file A from the storage device 1304 into the memory 1301 (this is referred to as a warning image A), and proceeds to step 1403.
[0090]
In step 1403, CPU 1300 reads the character data of the body of electronic mail A from storage device 1304 into memory 1301 (this is referred to as body A), and proceeds to step 1404.
[0091]
In step 1404, the CPU 1300 secures the intruder management table 300 in the memory 1301 by the number (N) of intruders described in the text A, and proceeds to step 1405.
[0092]
In step 1405, the CPU 1300 determines the center coordinates of the circumscribed rectangle of the intruder described in the main text A by the elements 301 to 303 (N) of the intruder management table 300 in the intruder management structure 350. The values are stored in the member variables, x coordinate 352 and y coordinate 353, and the process proceeds to step 1406.
[0093]
In step 1406, the CPU 1300 displays the warning image A on the display screen 1307 based on the data of the intruder management table 300 such that the center of the circumscribed rectangle of one intruder is at the center of the display screen 1307. This processing ends. As the intruder displayed at the center of the display screen 1307, for example, when the alert level is higher toward the right side of the warning image A, the intruder located at the rightmost side may be considered.
[0094]
As a result, the user carrying the mobile terminal 105 can view the warning image attached to the e-mail on the display screen of the mobile terminal 105.
[0095]
The resulting display screen of the mobile terminal is shown in FIG. 105-10 is a mobile terminal, 600 is a display screen, 1500 is a warning image, 630 is an intruder, 620 is a tree, 604 is a circumscribed rectangular frame, and 1501 is a button group.
[0096]
On the display screen 600 of the mobile terminal 105-10, as in the case of the mobile terminals 105-1 to 105-3 in FIGS. 5A to 5C, when there are intruders 630 and 635 between three trees 620. Partially shown.
[0097]
The button group 1501 corresponds to the button interface 1306 in FIG. 13, and can scroll the warning image 1500 displayed on the display screen 600. The area of the warning image 1500 is displayed larger than the warning image 602 of the mobile terminal 105-2 in FIG. 5B. Further, in the mobile terminal 150-10, the center of the frame 604 is displayed at the center of the display screen 600, that is, the intruder 630 is displayed at the center.
[0098]
By controlling the display of the warning image on the mobile terminal 150-10 in this manner, the user can first see an important part, and then operate the button group 1501 to scroll the warning image 1500 to display the warning image. The user can check the desired portion of 1500, and the operability of the mobile terminal 150-10 is improved.
[0099]
Next, a sixth embodiment of the present invention will be described with reference to FIGS.
In the first embodiment, a form in which a circumscribed rectangle of a point of interest in a warning image is cut out is described, and a display example when the cut-out warning image is viewed on the display screen of the mobile terminal is shown in FIG. 105-3, it is described that the warning images 603 and 604 in which only the intruders 630 and 635 are displayed on the display screen 600 are displayed. Also above, the clipped warning image may be displayed at an appropriate position. By doing so, it is easy to know where the intruder is located in the warning image, and it is easy to grasp the degree of caution.
[0100]
First, the processing of the server 103 will be described.
[0101]
FIG. 16 is a flowchart of the sixth embodiment illustrating the processing performed by the CPU 200 of FIG. Hereinafter, the flowchart of FIG. 16 will be described.
[0102]
Before the CPU 200 detects an intruder, the CPU 200 obtains a frame image (referred to as a frame image A) from the storage server 102 via the communication medium 203 and the communication interface 202 from an image without an intruder, and performs image recognition processing. Is performed, and the resulting image (referred to as a recognition target image) is stored in the memory 201.
[0103]
The processing in steps 1600 to 1602 is the same as the processing in steps 400 to 404 in FIG.
[0104]
In step 1603, the CPU 200 cuts out the circumscribed rectangle of the intruder (N places) on the frame image A based on the data in the intruder management table 300, and proceeds to step 1604 (this is called a warning image). Yes.)
[0105]
In step 1604, the CPU 200 describes the coordinates (N) of the circumscribed rectangle of the intruder and the number of intruders (N) in the body of the e-mail based on the data of the intruder management table 300.
[0106]
The processing of steps 1605 to 408 is the same as the processing of steps 406 to 408 in FIG.
[0107]
Next, processing of the mobile terminal 105 will be described.
[0108]
FIG. 17 is a flowchart showing processing of the sixth embodiment performed by the CPU 1300 of FIG. 13. FIG. 3 is a data area created by the CPU 1300 in the memory 1301 during the processing, similarly to the CPU 200. . Hereinafter, the flowchart of FIG. 17 will be described.
[0109]
When the CPU 1300 starts the process, the CPU 1300 performs the same process as the step 1400 in FIG.
[0110]
At step 1701, it is determined whether or not a request to view a warning image file attached to the electronic mail A (this is called a warning image file A. There are N) is sent from the button interface 1306 (FIG. 13) to the CPU 1300. I do. If a request has been received, the process proceeds to step 1702, and if not, the process returns to step 1701 to repeat the processing of this step.
[0111]
In step 1702, the CPU 1300 reads the image data of the warning image file A from the storage device 1304 into the memory 1301 (this is referred to as a warning image A. There are N pieces), and the process proceeds to step 1703.
[0112]
In step 1703, the CPU 1300 performs the same process as step 1403 in FIG. 14, and proceeds to step 1704.
[0113]
In step 1704, the CPU 1300 performs the same processing as in step 1404 in FIG. 14, and proceeds to step 1705.
[0114]
In step 1705, the CPU 1300 determines the coordinates of the circumscribed rectangle of the intruder described in the main text A by the members 301 to 303 (N) of the intruder management table 300. The variables are stored in the x coordinate 352, the y coordinate 353 (the upper left coordinate), the x coordinate 354, and the y coordinate 355 (the lower right coordinate), and the process proceeds to step 1706.
[0115]
In step 1706, the CPU 1300 displays the warning image A (N) at an arbitrary position on the display screen 1307 by changing the coordinate values of the stored coordinates based on the data of the intruder management table 300. Then, the present process ends.
[0116]
As a result, the user carrying the mobile terminal 105 can view the warning image attached to the e-mail on the display screen of the mobile terminal 105.
[0117]
The resulting display screen of the mobile terminal is shown in FIG. 105-11 is a mobile terminal, 600 is a display screen, 603 and 604 are warning images, and 630 and 635 are intruders.
[0118]
On the display screen 600 of the mobile terminal 105-11, as in the case of the mobile terminals 105-1 to 105-3 in FIGS. 5A to 5C, when there are intruders 630 and 635 between three trees 620. The display example was shown.
[0119]
The warning images 603 and 604 of the mobile terminal 105-11 indicate where the intruders 630 and 635 are located in the entire warning image. Therefore, for example, when the alert level is higher toward the left of the alert image, the alert image 604 indicates to the user at a glance that the intruder 635 is on the left side, and the user can easily grasp the alert level. At the same time, since the amount of data to be transmitted is reduced, the communication cost can be reduced in proportion thereto.
[0120]
Next, a seventh embodiment of the present invention will be described with reference to FIG.
In the first to sixth embodiments, the image from the surveillance camera is subjected to image recognition processing, and when an intruder is detected, the image at the time of detection is attached to an e-mail, and the e-mail is transmitted to the mobile terminal. Although the content was transmitted, the content of the email may be changed according to the reliability of the detection. This makes it easier for the user to recognize the degree of caution based on the content of the e-mail, and in some cases, reduces the amount of data to be transmitted and lowers communication costs.
[0121]
FIG. 19 is a flowchart showing processing of the seventh embodiment performed by the CPU 200 of FIG. Hereinafter, the flowchart of FIG. 19 will be described.
[0122]
Before the CPU 200 detects an intruder, the CPU 200 obtains a frame image (referred to as a frame image A) from the storage server 102 via the communication medium 203 and the communication interface 202 from an image without an intruder, and performs image recognition processing. Is performed, and the resulting image (referred to as a recognition target image) is stored in the memory 201.
[0123]
The processing in step 1900 is the same as the processing in steps 400 to 401 in FIG.
[0124]
In step 1901, the CPU 200 receives the result of the process of the previous step 1900, and compares it with the recognition target image to determine whether an intruder has been detected. If detected, the process proceeds to step 1902 to continue the process. If not detected, the process proceeds to step 408 without performing any processing.
[0125]
In step 1902, the CPU 200 receives the result of the processing in step 1900, describes the detection reliability in the text of the e-mail, and proceeds to step 1903. The detection reliability indicates, for example, the degree to which the face to be recognized matches the face of a specific person (for example, a wanted person) as a result of performing face recognition processing in the image recognition processing in step 1900. Values can be considered. The value may be a percentage or a ranking such as A, B, C.
[0126]
At step 1903, CPU 200 determines whether or not the detection reliability satisfies an appropriate condition. If so, the process proceeds to step 1904; otherwise, the process proceeds to step 1906. As an appropriate condition, in the case of face recognition, for example, the case where the detection reliability is 90% or more, that is, the case where the faces match at a rate of 90% or more, and vice versa are considered. Good.
[0127]
The processing in step 1904 is the same as the processing in steps 403 to 406 in FIG.
[0128]
In step 1905, CPU 200 attaches the warning image file to the e-mail, and proceeds to step 1906.
[0129]
In step 1906, the CPU 200 transmits the e-mail to the mobile terminal 105 via the communication interface 202 and the communication medium 203, and proceeds to step 408.
[0130]
At step 408, CPU 200 determines whether the processing of server 103 has been completed or not. If the processing has been completed, this processing ends. If not completed, the processing returns to step 1900, and the processing described so far is repeated.
[0131]
As a result, depending on the content of the e-mail, the user can easily recognize the degree of caution. For example, in the above-described example of face recognition, if the condition of step 1903 is 70% or more in detection reliability, and if a warning image is attached to an e-mail, it is more than 70% similar to a wanted person. Since this indicates that a person has been detected, the user understands from this that the degree of caution is high. On the other hand, if the warning image is not attached to the e-mail, it indicates that a person who does not resemble the wanted person by up to 70% has been detected, and the user is thus less alert. Understand that. In the latter case, since the data of the warning image is not transmitted, the communication cost can be reduced in proportion thereto.
[0132]
Further, if the condition of step 1903 is that the detection reliability is less than 90% and 50% or more, if a warning image is attached to the e-mail, a person who looks similar to a wanted person but is not clear is detected. Therefore, the user understands from this that the warning image must be judged with his / her own eyes. On the other hand, when the warning image is not attached to the e-mail, if the detection reliability is 90% or more, it is almost clear that the person is a wanted person, and if the detection reliability is less than 50%, the person is nominated. Since it is almost clear that the person is not an arrangement person, it is not necessary for both of them to dare to check the warning image, so that the user can save time and communication cost.
[0133]
In each of the above embodiments of the present invention, an intruder, that is, a person is detected. However, the present invention is not limited to this, and a specific object may be detected, and an image is attached to an e-mail and transmitted. However, the image may be transmitted directly, and the camera is not limited to the surveillance camera, may be a normal camera, and is not limited to the surveillance camera, and may be another video distribution system. In addition, although the video storage / delivery server is interposed in FIG. 1 as a configuration of the present invention, it is needless to say that the present invention is not essential in the present invention and may be deleted.
[0134]
【The invention's effect】
Advantageous Effects of Invention According to the present invention, it is possible to obtain a video distribution system, a notification server, and a mobile terminal that can easily display a point of interest to be viewed on a mobile terminal. Further, according to the present invention, it is possible to obtain a video distribution system, a notification server, and a mobile terminal capable of distributing a point of interest to be viewed on the mobile terminal with a small number of images. Further, according to the present invention, it is possible to obtain a notification server that can detect the reliability of detection of a person or an object by a mobile terminal.
[Brief description of the drawings]
FIG. 1 is a block diagram of a network-type monitoring system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration of the notification server of FIG. 1;
FIG. 3 is a data area created in a memory by the CPU in FIG. 2 during processing.
FIG. 4 is a flowchart of a first embodiment illustrating a process performed by the CPU of FIG. 2;
FIG. 5 is a diagram showing a display screen of a mobile terminal as a result of the conventional and the first embodiment.
FIG. 6 is a flowchart illustrating a process performed by a CPU in FIG. 2 according to a second embodiment;
FIG. 7 is a diagram illustrating a display screen of a mobile terminal as a result of the second embodiment.
FIG. 8 is a flowchart of a third embodiment illustrating processing performed by the CPU in FIG. 2;
FIG. 9 is a diagram illustrating a display screen of a mobile terminal as a result of the third embodiment.
FIG. 10 is a flowchart of a fourth embodiment illustrating processing performed by the CPU in FIG. 2;
FIG. 11 is a diagram illustrating a display screen of a mobile terminal as a result of the fourth embodiment.
FIG. 12 is a flowchart showing a fifth embodiment process performed by the CPU of FIG. 2;
FIG. 13 is a block diagram showing a configuration of the mobile terminal of FIG.
FIG. 14 is a flowchart illustrating a process according to a fifth embodiment performed by the CPU in FIG. 13;
FIG. 15 is a diagram showing a display screen of a mobile terminal as a result of the fifth embodiment.
FIG. 16 is a flowchart illustrating processing according to a sixth embodiment performed by the CPU in FIG. 2;
FIG. 17 is a flowchart illustrating a process according to a sixth embodiment performed by the CPU in FIG. 13;
FIG. 18 is a diagram illustrating a display screen of a mobile terminal as a result of the sixth embodiment.
FIG. 19 is a flowchart illustrating a process according to a seventh embodiment performed by the CPU in FIG. 13;
FIG. 20 is a block diagram of a conventional network-type monitoring system.
[Explanation of symbols]
Reference Signs List 100 surveillance camera, 101 web encoder, 102 video storage / distribution server, 103 notification server, 105 mobile terminal, 110 video cable, 111-113 communication medium, 200 CPU, 201 memory, 202 communication Interface, 203, communication medium, 204, storage device, 205, bus, 300, intruder management table, 301 to 303, array element, 350, intruder management structure, 351, frame number, 352, x coordinate, 353 y coordinate, 354 x coordinate, 355 y coordinate, 105-1 to 105-11 mobile terminal, 600 display screen, 601 to 604, 611 to 614, 701 to 702, 901, 1100, 1500 ... warning image, 604 to 605, 614 to 615: circumscribed rectangular frame, 620, 620-1: tree, 630, 63 630-1, 635-1 ... intruder, 640 ... crowd, 650, 655 ... wanted person, 902 ... area in the circumscribed rectangle, 903 ... outside the circumscribed rectangle, 1300 ... CPU, 1301 ... memory, 1302 communication interface, 1303 communication medium, 1304 storage device, 1305 bus, 1306 button interface, 1307 display screen, 1501 button group, 2000 monitoring device.

Claims (9)

撮像装置と、該撮像装置で撮像した映像信号からなる画像に対して人または物体の検知を行い且つ該人または物体にマークを付けた画像をモバイル端末に配信する通報サーバと、該通報サーバより取得した画像を表示画面に表示する前記モバイル端末からなることを特徴とする映像配信システム。An imaging device, a notification server that detects a person or an object with respect to an image composed of a video signal captured by the imaging device, and distributes an image in which the person or the object is marked to a mobile terminal; and A video distribution system comprising the mobile terminal for displaying an acquired image on a display screen. 撮像装置で撮像した映像信号からなる画像に対して人または物体の検知を行い且つ該人または物体にマークを付けた画像をモバイル端末に配信することを特徴とする通報サーバ。A notification server that detects a person or an object with respect to an image composed of a video signal captured by an imaging device and distributes an image in which the person or the object is marked to a mobile terminal. 請求項1または2記載において、前記通報サーバは、前記マークを付けた人または物体のみを切り出した画像を前記モバイル端末に配信することを特徴とする映像配信システムまたは通報サーバ。3. The video distribution system or the notification server according to claim 1, wherein the notification server distributes an image obtained by cutting out only the marked person or object to the mobile terminal. 請求項1または2記載において、前記通報サーバは、前記マークを付けた人または物体よりやや大きい領域の画像を前記モバイル端末に配信することを特徴とする映像配信システムまたは通報サーバ。3. The video distribution system or the notification server according to claim 1, wherein the notification server distributes an image of an area slightly larger than the marked person or object to the mobile terminal. 4. 請求項1または2記載において、前記通報サーバは、前記マークを付けた人または物体以外を単一色で塗りつぶした画像を前記モバイル端末に配信することを特徴とする映像配信システムまたは通報サーバ。3. The video distribution system or the notification server according to claim 1, wherein the notification server distributes an image in which a person or an object other than the marked person or the object is filled with a single color to the mobile terminal. 4. 請求項1または2記載において、前記通報サーバは、前記マークを付けた人または物体を拡大し且つ前記マークを付けた人または物体以外を縮小した画像を前記モバイル端末に配信することを特徴とする映像配信システムまたは通報サーバ。3. The mobile phone according to claim 1, wherein the notification server distributes an image obtained by enlarging the marked person or object and reducing an image other than the marked person or object to the mobile terminal. 4. Video distribution system or report server. 通報サーバよりマークを付けた人または物体の画像と前記マークの位置情報を取得し、該位置情報をもとに前記マークを表示画面の中央に表示し、前記画像の他の部分を見るときには該画像をスクロールすることが可能であることを特徴とするモバイル端末。Obtain the image of the marked person or object and the position information of the mark from the notification server, display the mark in the center of the display screen based on the position information, and when viewing another part of the image, A mobile terminal capable of scrolling an image. 通報サーバよりマークを付けた人または物体の画像と前記マークの位置情報を取得し、該位置情報をもとに前記マークを表示画面の任意の位置に表示することが可能であることを特徴とするモバイル端末。It is possible to acquire an image of a marked person or object and position information of the mark from a notification server, and to display the mark at an arbitrary position on a display screen based on the position information. Mobile terminal. 撮像装置で撮像した映像信号からなる画像に対して人または物体の検知を行い該検知の信頼度に応じてモバイル端末に配信する通報の内容を変えることを特徴とする通報サーバ。A notification server, which detects a person or an object from an image formed by a video signal captured by an imaging device and changes the content of a notification to be delivered to a mobile terminal according to the reliability of the detection.
JP2002347202A 2002-11-29 2002-11-29 Video distribution system Expired - Lifetime JP4490626B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002347202A JP4490626B2 (en) 2002-11-29 2002-11-29 Video distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002347202A JP4490626B2 (en) 2002-11-29 2002-11-29 Video distribution system

Publications (2)

Publication Number Publication Date
JP2004180235A true JP2004180235A (en) 2004-06-24
JP4490626B2 JP4490626B2 (en) 2010-06-30

Family

ID=32707877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002347202A Expired - Lifetime JP4490626B2 (en) 2002-11-29 2002-11-29 Video distribution system

Country Status (1)

Country Link
JP (1) JP4490626B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215741A (en) * 2010-03-31 2011-10-27 Nohmi Bosai Ltd Smoke detection device
WO2013008374A1 (en) * 2011-07-13 2013-01-17 日本電気株式会社 Moving image area detection device
JP2014006911A (en) * 2013-07-24 2014-01-16 Nohmi Bosai Ltd Smoke detection device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215741A (en) * 2010-03-31 2011-10-27 Nohmi Bosai Ltd Smoke detection device
WO2013008374A1 (en) * 2011-07-13 2013-01-17 日本電気株式会社 Moving image area detection device
JPWO2013008374A1 (en) * 2011-07-13 2015-02-23 日本電気株式会社 Video area detector
US9367927B2 (en) 2011-07-13 2016-06-14 Nec Corporation Moving image region detection device
JP2014006911A (en) * 2013-07-24 2014-01-16 Nohmi Bosai Ltd Smoke detection device

Also Published As

Publication number Publication date
JP4490626B2 (en) 2010-06-30

Similar Documents

Publication Publication Date Title
CA2064956C (en) Warning timer for users of interactive systems
US20180025233A1 (en) Image-capturing device, recording device, and video output control device
EP2954505B1 (en) Adding user-selected mark-ups to a video stream
US20030043041A1 (en) Method and apparatus for facilitating personal attention via wireless networks
US20150154840A1 (en) System and method for managing video analytics results
CN112286412A (en) Notification message management method and device
US20150201236A1 (en) Display Proximity Control Device
US7496212B2 (en) Change detecting method and apparatus
CN113473074A (en) Detection method, electronic equipment, detection equipment and storage medium
EP3454254B1 (en) Image processing apparatus, image providing apparatus, control methods thereof, and program
CN112230824B (en) Data processing method and device of human-computer interaction system and electronic equipment
CN109614181A (en) Security postures methods of exhibiting, device and the storage medium of mobile terminal
CN110858890A (en) Method, device and system for video monitoring multi-picture display
JP2004180235A (en) Video distribution system
CN111078491B (en) Monitoring information display method and device, monitoring terminal and computer storage medium
JP2019050553A (en) Image processing apparatus, image providing apparatus, control method of the same, and program
EP1503276A2 (en) Graphical user interface for system status alert on videoconference terminal
JP4308633B2 (en) Surveillance camera device
CN115334291A (en) Tunnel monitoring method and device based on hundred million-level pixel panoramic compensation
CN114745767A (en) Power consumption control method and device for electronic equipment, electronic equipment and storage medium
CN112948627B (en) Alarm video generation method, display method and device
CN112463089A (en) Cross-terminal picture synchronous zooming method and device, electronic medium and storage medium
CN112423005A (en) Message display method and device in live broadcast and electronic equipment
CN112468867A (en) Video data processing method, processing device, electronic equipment and storage medium
CN110633117A (en) Data processing method and device, electronic equipment and readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051122

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20051122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4490626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140409

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term