JP2003217055A - Method and system for preventing accident - Google Patents

Method and system for preventing accident

Info

Publication number
JP2003217055A
JP2003217055A JP2002302806A JP2002302806A JP2003217055A JP 2003217055 A JP2003217055 A JP 2003217055A JP 2002302806 A JP2002302806 A JP 2002302806A JP 2002302806 A JP2002302806 A JP 2002302806A JP 2003217055 A JP2003217055 A JP 2003217055A
Authority
JP
Japan
Prior art keywords
user
person
interactive device
interactive
agent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002302806A
Other languages
Japanese (ja)
Other versions
JP3717070B2 (en
Inventor
Shinichi Yamamoto
真一 山本
Junichi Onoe
順一 尾上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002302806A priority Critical patent/JP3717070B2/en
Publication of JP2003217055A publication Critical patent/JP2003217055A/en
Application granted granted Critical
Publication of JP3717070B2 publication Critical patent/JP3717070B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Alarm Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for preventing an accident such as a crime by using an interactive device. <P>SOLUTION: This method prevents the accident by using the interactive device capable of interacting with a person, and includes a step for the interactive device to detect the person, a step for the interactive device to interact with the person, a step for the interactive device to determine whether or not abnormality is caused on the basis of a result of interaction, and a step for the interactive device to report when determining that the abnormality is caused. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、人物と対話を行う
ことが可能な対話型装置を用いて犯罪などの事故を未然
に防止する方法および複数の対話型装置を備えたシステ
ムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for preventing an accident such as a crime by using an interactive device capable of interacting with a person, and a system having a plurality of interactive devices.

【0002】[0002]

【従来の技術】従来、車両を盗難から守るための盗難防
止装置として、イモビライザという装置が知られてい
る。この装置は、キーから送信されたIDコードと、車
両に登録されているIDコードとが一致しない場合に
は、エンジンが始動できないようにしたものである。こ
の装置によれば、不正に複製されたキーによってエンジ
ンが始動されることが防止される。不正に複製されたキ
ーは車両に登録されているIDコードに一致するIDコ
ードを送信することができないからである。従って、こ
の装置は、不正に複製されたキーを用いた車両の盗難を
防止するために有効である。
2. Description of the Related Art Conventionally, a device called an immobilizer is known as a theft prevention device for protecting a vehicle from theft. This device prevents the engine from starting if the ID code transmitted from the key does not match the ID code registered in the vehicle. This device prevents the engine from being started by an illegally duplicated key. This is because an illegally duplicated key cannot transmit an ID code that matches the ID code registered in the vehicle. Therefore, this device is effective for preventing the theft of a vehicle using an illegally duplicated key.

【0003】また、カーナビにおいて使用されているG
PSを利用した車両防犯システムも開発されている。こ
のシステムは、特定の機器を車両に予め装備しておくこ
とにより、その車両が盗難にあったときにその車両の位
置を検索できるようにしたものである。このシステムを
採用する警備会社の中には、盗難車両が発見された現場
に警備員を急行させるサービスを行っているところもあ
る。
The G used in car navigation systems
Vehicle security systems using PS have also been developed. In this system, a vehicle is equipped with a specific device in advance so that the position of the vehicle can be searched when the vehicle is stolen. Some security companies that use this system also provide services to expedite security personnel to the scene where a stolen vehicle is found.

【0004】また、ホームセキュリティシステムと呼ば
れるシステムが知られている。このシステムは、不審者
が住宅家屋に侵入した場合に、防犯センサーが異常を感
知し、ホームコントローラが異常信号をコントロールセ
ンタに送信するようにしたものである。コントロールセ
ンタは、防犯センサーが異常を感知した現場に警備員を
急行させる指示を出すように構成されている。
A system called a home security system is also known. In this system, when a suspicious person invades a house, the security sensor detects an abnormality and the home controller sends an abnormality signal to the control center. The control center is configured to issue an instruction to urge a security guard to the scene where the security sensor detects an abnormality.

【0005】また、人体に装着されたセンサを用いて人
体の異常が検知された場合には、第三者に通報して重大
事故を未然に防止する技術が開示されている(例えば、
特許文献1を参照)。
Further, there is disclosed a technique for preventing a serious accident by notifying a third party when an abnormality of the human body is detected by using a sensor attached to the human body (for example,
See Patent Document 1).

【0006】[0006]

【特許文献1】特開平10−155749号公報[Patent Document 1] Japanese Patent Laid-Open No. 10-155749

【0007】[0007]

【発明が解決しようとする課題】上述したイモビライザ
は、不正に複製されたキーを用いた車両の盗難を防止す
るためには有効であるが、本物のキーを用いた車両の盗
難を防止することはできない。従って、本物のキーを紛
失した場合には、車両の盗難に遭ってしまうおそれがあ
る。
Although the above-described immobilizer is effective in preventing the theft of a vehicle using an illegally duplicated key, it prevents the theft of a vehicle using a real key. I can't. Therefore, if the real key is lost, the vehicle may be stolen.

【0008】また、上述した車両防犯システムでは、窃
盗犯が車両防犯システムを破壊した場合には、盗難車両
の位置を検索することが不可能となるため、盗難車両を
発見することが困難になる。
Further, in the above-mentioned vehicle crime prevention system, when a thief destroys the vehicle crime prevention system, it becomes impossible to search the position of the stolen vehicle, so that it becomes difficult to find the stolen vehicle. .

【0009】また、上述したホームセキュリティシステ
ムでは、例えば、窃盗犯が家の住人になりすますなどし
て防犯センサーが異常を感知することができなければ、
被害に遭ってしまう。
Further, in the above-mentioned home security system, if the thief cannot impersonate the house resident and the security sensor cannot detect the abnormality,
It will be damaged.

【0010】また、上述した特許文献1に記載の技術で
は、被験者にセンサを装着して被検者の健康状態を監視
する必要がある。このため、センサを装着することが煩
わしい、身動きがしづらいなどの不便を被験者は強いら
れていた。
Further, in the technique described in Patent Document 1 mentioned above, it is necessary to attach a sensor to the subject and monitor the health condition of the subject. For this reason, the subject has been forced to inconvenience such as wearing the sensor and being hard to move.

【0011】本発明者は、対話型装置を用いて窃盗犯や
家屋への侵入者を特定することにより、犯罪を未然に防
止することができると考えた。また、本発明者は、複数
の対話型装置を互いに連携して動作させることにより、
犯罪を未然に防止することができると考えた。さらに、
本発明者は、対話型装置を用いて異常の発生を検出する
ことにより、事故を未然に防止することができると考え
た。
The present inventor has thought that crimes can be prevented by identifying a thief or an intruder into a house by using an interactive device. In addition, the present inventor operates a plurality of interactive devices in cooperation with each other,
I thought that crime could be prevented. further,
The present inventor thought that an accident can be prevented in advance by detecting the occurrence of an abnormality using an interactive device.

【0012】本発明の目的は、対話型装置を用いて犯罪
などの事故を未然に防止する方法および複数の対話型装
置を備えたシステムを提供することにある。
An object of the present invention is to provide a method for preventing accidents such as crimes using an interactive device and a system equipped with a plurality of interactive devices.

【0013】[0013]

【課題を解決するための手段】本発明の方法は、人物と
対話を行うことが可能な対話型装置を用いて、事故を未
然に防止する方法であって、前記対話型装置が人物を検
出するステップと、前記対話型装置が前記人物と対話を
行うステップと、前記対話型装置が前記対話の結果に基
づいて異常が発生しているか否かを判定するステップ
と、前記異常が発生したと判定された場合には、前記対
話型装置が通報を行うステップとを包含し、これによ
り、本発明の目的が達成される。
The method of the present invention is a method for preventing an accident by using an interactive device capable of interacting with a person, wherein the interactive device detects a person. The step of performing the dialogue with the person, the interactive apparatus determining whether or not an abnormality has occurred based on the result of the dialogue, and the abnormality has occurred. If so, the interactive device makes a notification, which achieves the object of the invention.

【0014】前記異常は、前記人物が前記対話型装置の
ユーザでないこと、または、前記人物が前記対話型装置
のユーザであり、かつ、前記ユーザの状態が正常状態で
ないことであってもよい。
The abnormality may be that the person is not the user of the interactive apparatus, or that the person is the user of the interactive apparatus and the state of the user is not normal.

【0015】本発明の他の方法は、人物と対話を行うこ
とが可能な対話型装置を用いて、事故を未然に防止する
方法であって、前記対話型装置が人物を検出するステッ
プと、前記対話型装置が前記人物と前記対話型装置のユ
ーザに関する対話を行うステップと、前記対話型装置が
前記対話の結果に基づいて前記人物が前記ユーザである
か否かを判定するステップと、前記人物が前記ユーザで
あると判定された場合には、前記対話型装置が前記ユー
ザの状態が正常状態であるか否かを判定するステップ
と、前記ユーザの状態が正常状態でないと判定された場
合には、前記対話型装置が通報を行うステップとを包含
し、これにより、上記目的が達成される。
Another method of the present invention is a method of preventing an accident using an interactive device capable of interacting with a person, the interactive device detecting the person. Said interactive device having an interaction with said person and a user of said interactive device; said interactive device determining whether said person is said user based on the result of said interaction; When it is determined that the person is the user, the interactive device determines whether the state of the user is normal, and when it is determined that the state of the user is not normal Includes the step of making a notification by the interactive device, whereby the above object is achieved.

【0016】前記対話型装置は、前記ユーザに発話を行
い、前記発話に対する応答を確認することにより、前記
ユーザの状態が正常状態であるか否かを判定してもよ
い。
The interactive apparatus may determine whether or not the state of the user is normal by speaking to the user and confirming the response to the speech.

【0017】本発明の他の方法は、人物と対話を行うこ
とが可能な対話型装置を用いて、犯罪を未然に防止する
方法であって、前記対話型装置が人物を検出するステッ
プと、前記対話型装置が前記対話型装置のユーザの所在
を示す所在情報を受け取るステップと、前記対話型装置
が前記所在情報に基づいて前記人物が前記ユーザである
か否かを判定するステップと、前記人物が前記ユーザで
ないと判定された場合には、前記対話型装置が通報を行
うステップとを包含し、これにより、上記目的が達成さ
れる。
Another method of the present invention is a method for preventing crimes by using an interactive device capable of interacting with a person, the interactive device detecting the person, Said interactive device receiving whereabouts information indicating the whereabouts of the user of said interactive device; said interactive device determining whether said person is said user based on said whereabouts information; If it is determined that the person is not the user, the interactive device makes a notification, thereby achieving the above object.

【0018】前記対話型装置は、通信回線を介して他の
対話型装置から前記所在情報を受け取ってもよい。
The interactive device may receive the location information from another interactive device via a communication line.

【0019】前記対話型装置が前記所在情報に基づいて
前記人物が前記ユーザであるか否かを判定するステップ
は、前記対話型装置が前記所在情報に基づいて前記ユー
ザが不在であるか否かを判定するステップと、前記ユー
ザが不在であると判定された場合には、前記対話型装置
が前記人物と前記ユーザに関する対話を行うステップ
と、前記対話型装置が前記対話の結果に基づいて前記人
物が前記ユーザであるか否かを判定するステップとを包
含してもよい。
The step of the interactive device determining whether the person is the user based on the location information is a step of determining whether the interactive device is absent based on the location information. Determining that the user is absent, the interactive device performs a dialogue regarding the person and the user, and the interactive device performs the dialogue based on a result of the dialogue. Determining whether the person is the user.

【0020】前記人物が前記ユーザであると判定された
場合には、前記対話型装置が前記ユーザの状態が正常状
態であるか否かを判定するステップと、前記ユーザの状
態が正常状態でないと判定された場合には、前記対話型
装置が通報を行うステップとをさらに包含してもよい。
[0020] When it is determined that the person is the user, the interactive device determines whether the state of the user is normal, and the state of the user is not normal. If determined, the interactive device may further comprise making a notification.

【0021】前記対話型装置は、他の対話型装置の対話
履歴データベースから対話履歴を参照してもよい。
The interactive device may refer to the dialog history from a dialog history database of another interactive device.

【0022】前記対話型装置が車に設けられていてもよ
い。
The interactive device may be provided in a vehicle.

【0023】前記対話型装置が家屋に設けられていても
よい。
The interactive device may be provided in a house.

【0024】本発明のシステムは、通信網を介して互い
に接続された複数の対話型装置を備えたシステムであっ
て、前記複数の対話型装置のそれぞれは、人物と対話を
行うことが可能なように構成されており、前記複数の対
話型装置のそれぞれは、人物を検出する検出部と、前記
対話型装置のユーザの所在を示す所在情報を格納する所
在情報メモリと、他の対話型装置の前記所在情報メモリ
から前記所在情報を前記通信網を介して受信する受信部
と、前記他の対話型装置から受信した前記所在情報に基
づいて、前記検出部によって検出された前記人物が前記
ユーザであるか否かを判定する判定部と、前記人物が前
記ユーザでないと判定された場合には、通報を行う通報
部とを含み、これにより、上記目的が達成される。
The system of the present invention is a system including a plurality of interactive devices connected to each other via a communication network, and each of the plurality of interactive devices can interact with a person. Each of the plurality of interactive devices includes a detection unit that detects a person, a location information memory that stores location information indicating the location of the user of the interactive device, and another interactive device. The receiving unit that receives the location information from the location information memory via the communication network, and the person detected by the detecting unit based on the location information received from the other interactive apparatus is the user. And a notification unit that makes a notification when the person is determined not to be the user, thereby achieving the above object.

【0025】前記判定部は、前記所在情報に基づいて前
記ユーザが不在であるか否かを判定し、前記ユーザが不
在であると判定された場合には、前記検出部によって検
出された前記人物と前記ユーザに関する対話を行い、前
記対話の結果に基づいて前記人物が前記ユーザであるか
否かを判定してもよい。
The determination unit determines whether or not the user is absent based on the location information, and when it is determined that the user is absent, the person detected by the detection unit is detected. And a dialogue regarding the user may be performed, and whether or not the person is the user may be determined based on the result of the dialogue.

【0026】前記人物が前記ユーザであると判定された
場合には、前記判定部は、前記ユーザの状態が正常状態
であるか否かをさらに判定し、前記ユーザの状態が正常
状態でないと判定された場合には、前記通報部が通報を
行ってもよい。
When it is determined that the person is the user, the determination unit further determines whether or not the state of the user is normal, and determines that the state of the user is not normal. In the case of being notified, the notification unit may make a notification.

【0027】[0027]

【発明の実施の形態】以下、図面を参照しながら本発明
の実施の形態を説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0028】(実施の形態1)図1Aは、対話型装置の
一例として、対話型エージェント1の構成例を示す。
(First Embodiment) FIG. 1A shows a configuration example of an interactive agent 1 as an example of an interactive apparatus.

【0029】対話型エージェント1は、画像認識部10
と、音声認識部20と、言語処理部30と、音声合成部
40と、音声出力部50と、通信部60と、データベー
ス部70とを含む。
The interactive agent 1 includes an image recognition unit 10
The voice recognition unit 20, the language processing unit 30, the voice synthesis unit 40, the voice output unit 50, the communication unit 60, and the database unit 70 are included.

【0030】画像認識部10は、画像入力部12(例え
ば、カメラ)に接続されており、画像入力部12によっ
て入力された画像に対して画像認識処理を施すことによ
り、その画像から人物を検出する。音声認識部20は、
音声入力部22(例えば、マイク)に接続されており、
音声入力部22によって入力された音声を認識する。
The image recognition section 10 is connected to an image input section 12 (for example, a camera), and performs image recognition processing on the image input by the image input section 12 to detect a person from the image. To do. The voice recognition unit 20
It is connected to the voice input unit 22 (for example, a microphone),
The voice input by the voice input unit 22 is recognized.

【0031】言語処理部30は、音声認識部20から出
力される音声認識結果に基づいて、対話の内容を理解
し、データベース部70を検索して本人の個人情報や対
話の状況に適合した応答文を生成する。
The language processing unit 30 understands the content of the dialogue based on the voice recognition result output from the voice recognition unit 20, searches the database unit 70, and responds to the personal information of the person and the situation of the dialogue. Generate a sentence.

【0032】言語処理部30によって生成された応答文
は、音声合成部40によって音声に合成される。このよ
うにして合成された音声は、音声出力部50(例えば、
スピーカ)によって出力される。
The response sentence generated by the language processing unit 30 is synthesized into a voice by the voice synthesizing unit 40. The voice synthesized in this way is output to the voice output unit 50 (for example,
Speaker).

【0033】通信部60は、通信回線を介して警備会社
や警察に通報を行うために使用される。通信回線は、無
線通信回線であってもよいし、有線通信回線であっても
よい。例えば、無線通信回線が使用される場合には、通
信部60は、アンテナ62を介してデータの送受信を行
う。
The communication unit 60 is used to notify a security company or police via a communication line. The communication line may be a wireless communication line or a wire communication line. For example, when a wireless communication line is used, the communication unit 60 transmits / receives data via the antenna 62.

【0034】データベース部70は、対話のパターンや
応答文の生成規則が格納されている対話データベース7
1と、過去の対話の履歴が格納されている対話履歴デー
タベース72と、本人を特定する情報(例えば、本人の
性別・年齢・名前・職業・性格・趣味・生年月日などの
情報)や、本人しか知り得ない情報が格納されている個
人データベース73と、今日の天気やニュースなどの情
報が格納されている情報データベース74とを含む。今
日の天気やニュースなどの情報は、例えば、対話型エー
ジェント1の外部から通信部60および言語処理部30
を介して取得され、情報データベース74に格納され
る。
The database section 70 is a dialogue database 7 in which dialogue patterns and response sentence generation rules are stored.
1, a dialogue history database 72 in which history of past dialogues is stored, information for identifying the person (for example, information such as gender, age, name, occupation, personality, hobby, date of birth of the person), It includes a personal database 73 that stores information that only the person can know and an information database 74 that stores information such as today's weather and news. Information such as today's weather and news is transmitted from outside the interactive agent 1 from the communication unit 60 and the language processing unit 30, for example.
And is stored in the information database 74.

【0035】ここで、「本人」とは、対話型エージェン
ト1のユーザ(所有者)をいう。ユーザは1人であって
もよいし、複数の人であってもよい。対話型エージェン
ト1のユーザが誰であるかは、例えば、個人データベー
ス73に予め登録され得る。この場合、「本人」とは、
対話型エージェント1のユーザとして個人データベース
73に予め登録されている者をいう。
Here, the "person" means the user (owner) of the interactive agent 1. The number of users may be one or more. The user of the interactive agent 1 can be registered in the personal database 73 in advance, for example. In this case, the "person" is
A person who is registered in advance in the personal database 73 as a user of the interactive agent 1.

【0036】このように、対話型エージェント1は、人
物と対話をすることが可能なように構成されている。対
話型エージェント1は、インターネットのような情報空
間を動き回り、情報検索、フィルタリング、スケジュー
ル調整などの情報処理を人間の代わりに行ってくれる機
能(ソフトウェアエージェントの機能)を有しているこ
とが好ましい。対話型エージェント1はあたかも人間で
あるかのように人物と対話をするため、擬人化エージェ
ントと呼ばれることもある。
As described above, the interactive agent 1 is constructed so that it can interact with a person. It is preferable that the interactive agent 1 has a function (software agent function) that moves around in an information space such as the Internet and performs information processing such as information retrieval, filtering, and schedule adjustment on behalf of a human. Since the interactive agent 1 interacts with a person as if it were a human being, it is sometimes called an anthropomorphic agent.

【0037】対話型エージェント1は、コンピュータの
一種である。対話型エージェント1の構成要素10〜7
4の機能は、例えば、コンピュータ内のメモリ(図示せ
ず)に格納される各種のプログラムをコンピュータ内の
CPU(図示せず)が実行することによって実現され得
る。しかし、対話型エージェント1の構成要素10〜7
4の機能がソフトウェアによって実現されることに限定
されるわけではない。対話型エージェント1の構成要素
10〜74の機能の一部または全部をハードウェアによ
って実現することも可能である。
The interactive agent 1 is a kind of computer. Components 10 to 7 of the interactive agent 1
The function of 4 can be realized by, for example, a CPU (not shown) in the computer executing various programs stored in a memory (not shown) in the computer. However, the components 10 to 7 of the interactive agent 1
The functions of 4 are not limited to being realized by software. It is also possible to realize some or all of the functions of the components 10 to 74 of the interactive agent 1 by hardware.

【0038】なお、対話型エージェントに関する研究の
詳細については、例えば、通商産業省、工業技術院、電
子技術総合研究所、情報統合対話ラボのホームページ
(http://www.etl.go.jp/〜72
33/)を参照されたい。
For details of research on interactive agents, for example, the websites of the Ministry of International Trade and Industry, the Agency of Industrial Science and Technology, the Institute of Electronics Technology, and the Information Integration Dialogue Lab (http://www.etl.go.jp/ ~ 72
33 /).

【0039】図1Bは、運転手80と対話型エージェン
ト1とが対話をしている様子を模式的に示す。対話型エ
ージェント1はダッシュボードなどの車内の任意の場所
に設置され得る。
FIG. 1B schematically shows how the driver 80 and the interactive agent 1 are having a conversation. The interactive agent 1 may be installed anywhere in the vehicle such as a dashboard.

【0040】図2は、図1Aに示される対話型エージェ
ント1によって実行される防犯プログラムの手順の一例
を示す。
FIG. 2 shows an example of the procedure of the crime prevention program executed by the interactive agent 1 shown in FIG. 1A.

【0041】以下、車両の盗難防止を例にとり、図2に
示される防犯プログラムの各ステップを説明する。対話
型エージェント1は、車両に搭載されているものとす
る。
The steps of the crime prevention program shown in FIG. 2 will be described below by taking the vehicle theft prevention as an example. The interactive agent 1 is assumed to be installed in the vehicle.

【0042】ST1では、画像認識部10は、画像入力
部12によって入力された画像から人物を検出する。S
T1において検出された人物は、本人であるかもしれな
いし、本人でない(例えば、窃盗犯)かもしれない。
In ST1, the image recognition section 10 detects a person from the image input by the image input section 12. S
The person detected at T1 may be the principal or may not be the principal (eg, a thief).

【0043】ST2では、画像認識部10は、検出され
た人物が本人である確からしさを求める。検出された人
物が本人である確からしさは、例えば、検出された人物
を示す特徴量と個人データベース73に予め格納された
本人を示す特徴量とを比較することによって計算により
求められる。検出された人物が本人である確からしさ
は、例えば、0%〜100%の範囲の数値によって表現
される。
In ST2, the image recognition section 10 obtains the certainty that the detected person is the person himself. The probability that the detected person is the person is calculated by, for example, comparing the characteristic amount indicating the detected person with the characteristic amount indicating the person stored in advance in the personal database 73. The certainty that the detected person is the person is represented by a numerical value in the range of 0% to 100%, for example.

【0044】ST2において、画像認識部10は、検出
された人物が本人である確からしさが所定の基準(例え
ば、95%以上)を満たすか否かを判定する。その確か
らしさがその所定の基準を満たすと判定された場合に
は、画像認識部10は、検出された人物が本人である
(すなわち、ユーザである)と判定する。その結果、処
理はST6に進み、対話型エージェント1とユーザとの
間で通常モードの対話が行われる。この対話は、言語処
理部30によって制御される。ここで、通常モードの対
話とは、例えば、日常会話である。通常モードの対話
は、対話型エージェント1の発声により開始されてもよ
いし、ユーザの発声により開始されてもよい。
In ST2, the image recognition unit 10 determines whether or not the probability that the detected person is the person himself / herself satisfies a predetermined criterion (for example, 95% or more). When it is determined that the certainty satisfies the predetermined criterion, the image recognition unit 10 determines that the detected person is the person (that is, the user). As a result, the process proceeds to ST6, and the normal mode dialogue is performed between the interactive agent 1 and the user. This dialogue is controlled by the language processing unit 30. Here, the dialogue in the normal mode is, for example, everyday conversation. The dialogue in the normal mode may be started by the utterance of the interactive agent 1 or the utterance of the user.

【0045】以下に、通常モードの対話の例を示す。こ
こで、Sは対話型エージェント1の発話を示し、U1は
ユーザの発話を示す。
The following is an example of normal mode interaction. Here, S represents the utterance of the interactive agent 1, and U1 represents the utterance of the user.

【0046】S: おはよう、Uさん。S: Good morning, Mr. U.

【0047】U1: おはよう。今日のお天気は晴れか
な? S: 今日は一日良い天気だよ。
U1: Good morning. Is the weather fine today? S: It's a nice day today.

【0048】U1: それは良かった。今日のニュース
を聞かせてよ。
U1: That was good. Tell me the news today.

【0049】S: 長嶋監督が辞任したよ。後任は原さ
んだよ。
S: Director Nagashima has resigned. The successor is Mr. Hara.

【0050】ST2において、検出された人物が本人で
ある確からしさが所定の基準(例えば、95%以上)を
満たさないと判定された場合には、画像認識部10は、
検出された人物が本人ではない(すなわち、ユーザでな
い)と判定する。その結果、処理はST3に進み、検出
された人物と対話型エージェント1との間で疑いモード
の対話が行われる。この対話は、言語処理部30によっ
て制御される。ここで、疑いモードの対話とは、検出さ
れた人物が本人ではないことを確認することを目的とし
て、対話型エージェント1が本人に関する質問を提示
し、検出された人物が対話型エージェント1によって提
示された質問に答える形式で行われる。
In ST2, when it is determined that the probability that the detected person is the person does not satisfy the predetermined criterion (for example, 95% or more), the image recognition unit 10
It is determined that the detected person is not the person (that is, not the user). As a result, the process proceeds to ST3, and the dialogue in the doubt mode is performed between the detected person and the interactive agent 1. This dialogue is controlled by the language processing unit 30. Here, in the suspicion mode dialogue, the interactive agent 1 presents a question about the person himself / herself for the purpose of confirming that the detected person is not the person himself, and the detected person is presented by the interactive agent 1. It is done in the form of answering the questions asked.

【0051】以下に、疑いモードの対話の例を示す。こ
こで、Sは対話型エージェント1の発話を示し、U2は
ユーザでない人(例えば、窃盗犯)の発話を示す。
The following is an example of a suspicious mode interaction. Here, S represents the utterance of the interactive agent 1, and U2 represents the utterance of a person who is not the user (for example, a thief).

【0052】S: おはよう、Uさん。誕生日はいつで
した? U2: 4月だよ。
S: Good morning, U. When was your birthday U2: It's April.

【0053】S: 残念でした。10月ですよ。S: It was disappointing. It's October.

【0054】ST4では、言語処理部30は、ST3に
おける疑いモードの対話の結果に基づいて、検出された
人物が本人であるか否かを最終的に判定する。ST4に
おいて、検出された人物が本人であると判定された場合
には処理はST6に進み、疑いモードの対話から通常モ
ードの対話に移行する。ST4において、検出された人
物が本人でないと判定された場合には処理はST5に進
む。
In ST4, the language processing unit 30 finally determines whether or not the detected person is the person based on the result of the dialogue in the doubt mode in ST3. In ST4, if it is determined that the detected person is the person himself / herself, the process proceeds to ST6, and shifts from the doubt mode dialogue to the normal mode dialogue. If it is determined in ST4 that the detected person is not the person himself / herself, the process proceeds to ST5.

【0055】ST5では、言語処理部30は、通信回線
を介して警備会社(または警察)に通報するように通信
部60に指示する。通信部60は、そのような通報をす
るとともに、対話型エージェント1の位置情報を警備会
社(または警察)に送信するようにしてもよい。
In ST5, the language processing section 30 instructs the communication section 60 to notify the security company (or the police) via the communication line. The communication unit 60 may transmit such position information and the position information of the interactive agent 1 to the security company (or the police).

【0056】このように、図2に示される防犯プログラ
ムによれば、ST2において検出された人物が本人であ
る確からしさが低いと判定されると、ST3において疑
いモードの対話を行い、その疑いモードの対話の結果に
基づいて検出された人物が本人であるか否かが最終的に
判定される。ST2およびST4においていずれも「本
人でない」と判定された場合にのみ、通報がなされる。
このように「本人でない」という判定を二重に行うこと
により、検出された人物が本人であるか否かの判定をよ
り確実に行うことができる。
As described above, according to the crime prevention program shown in FIG. 2, when it is determined that the person detected in ST2 is less likely to be the person in question, the suspicious mode dialogue is performed in ST3. Based on the result of the dialogue, whether or not the person detected is the person is finally determined. The notification is given only when it is determined in ST2 and ST4 that the person is not the person himself.
By thus making the double determination that the person is “not the person”, it is possible to more reliably determine whether or not the detected person is the person.

【0057】なお、図2に示されるST2を省略しても
よい。この場合には、ST1において人物が検出される
と、ST3において疑いモードの対話が開始される。S
T2を省略することにより、画像認識部10の処理負担
が低減される。
Note that ST2 shown in FIG. 2 may be omitted. In this case, when a person is detected in ST1, a suspicious mode dialogue is started in ST3. S
By omitting T2, the processing load on the image recognition unit 10 is reduced.

【0058】以上により、本実施の形態によれば、対話
型エージェント1を用いて検出された人物がユーザであ
るか否かを判定することができる。検出された人物がユ
ーザでない(例えば、窃盗犯)と判定された場合には、
警備会社(または警察)に通報される。これにより、犯
罪を未然に防止することが可能になる。
As described above, according to the present embodiment, it is possible to determine whether or not the person detected by using the interactive agent 1 is the user. If it is determined that the detected person is not a user (for example, a thief),
Be notified to the security company (or police). This makes it possible to prevent crime in advance.

【0059】なお、対話型エージェント1が車両に搭載
されている場合において、その車両を駐車するためにそ
の車両を係員に預ける場合には、対話型エージェント1
の電源をオフにすることが好ましい。対話型エージェン
ト1がその係員と対話をしないようにするためである。
あるいは、車両の位置情報を利用して、車両の現在位置
が駐車場、ホテルなどの場合には対話型エージェント1
が疑いモードに入らないようにしてもよい。
If the interactive agent 1 is mounted on a vehicle and the vehicle is to be checked by an attendant to park the vehicle, the interactive agent 1
It is preferable to turn off the power. This is to prevent the interactive agent 1 from interacting with the staff.
Alternatively, the interactive agent 1 is used when the current position of the vehicle is a parking lot, a hotel, etc. by using the vehicle position information.
May not enter suspicion mode.

【0060】なお、対話型エージェント1によって本人
であると判定されるべき人物の数は、1人のみであって
もよいし、複数人であってもよい。例えば、1台の車両
を4人(Aさん、Bさん、Cさん、Dさん)で使用する
場合には、その4人のそれぞれについて、本人を特定す
る情報(例えば、本人の性別・年齢・名前・職業・性格
・趣味・生年月日などの情報)や、本人しか知り得ない
情報を個人データベース73に格納しておけばよい。
It should be noted that the number of persons who should be judged to be the true person by the interactive agent 1 may be only one person or plural persons. For example, when one vehicle is used by four people (Mr. A, Mr. B, Mr. C, and Mr. D), information for identifying each of the four people (for example, sex, age, Information such as name / occupation / personality / hobbies / date of birth) and information that only the person can know may be stored in the personal database 73.

【0061】なお、本実施の形態は、不審者が家屋に侵
入することを未然に防止することにも適用することがで
きる。例えば、対話型エージェント1をインターホンに
設ければ、対話型エージェント1との対話を通じて不審
者が家屋に侵入することを未然に防止することが可能に
なる。また、対話型エージェント1を家屋の中に設置す
れば、万一不審者が家屋に侵入した場合でも窃盗を未然
に防止することが可能になる。
The present embodiment can also be applied to prevent a suspicious person from entering a house. For example, if the interactive agent 1 is provided on the intercom, it is possible to prevent a suspicious person from entering the house through a dialogue with the interactive agent 1. Further, if the interactive agent 1 is installed in a house, it is possible to prevent theft even if a suspicious person intrudes into the house.

【0062】図5は、図2に示されるST6の詳細フロ
ーの一例を示す。
FIG. 5 shows an example of the detailed flow of ST6 shown in FIG.

【0063】ST51では、図2に示されるST1にお
いて検出された人物が本人である(すなわち、ユーザで
ある)ことが確認されているため、対話型エージェント
1とユーザとの間で通常モードの対話が行われる。この
対話は、例えば、言語処理部30によって制御される。
In ST51, since it is confirmed that the person detected in ST1 shown in FIG. 2 is the person (that is, the user), the interactive agent 1 and the user interact in the normal mode. Is done. This dialogue is controlled by the language processing unit 30, for example.

【0064】ST52では、ST51において行われた
対話の結果に基づいて、ユーザの状態が正常状態である
か否かが判定される。このような判定は、例えば、音声
認識部20および言語処理部30によって行われる。例
えば、音声認識部20は、音声入力部22によって入力
されたユーザの音声からキーワードを抽出する。言語処
理部30は、音声認識部20によって抽出されたキーワ
ードが「苦しい」、「助けて」などの所定のキーワード
(すなわち、ユーザが正常でないことを示すキーワー
ド)に一致するか否かを判定する。所定のキーワード
は、例えば、対話データベース71に予め格納されてい
る。言語処理部30は、キーワードが一致した場合に
は、ユーザが正常でない(異常である)と判定し、それ
以外の場合には、ユーザが正常であると判定する。ある
いは、音声認識部20は、音声入力部22によって入力
されたユーザの音声の中に無音期間が所定の期間以上継
続したことを検出した場合には、検出信号を言語処理部
30に出力するようにしてもよい。言語処理部30は、
音声認識部20からの検出信号を受け取った場合には、
ユーザが正常でない(異常である)と判定し、それ以外
の場合には、ユーザが正常であると判定してもよい。
In ST52, it is determined whether or not the user's state is normal based on the result of the dialogue performed in ST51. Such a determination is performed by the voice recognition unit 20 and the language processing unit 30, for example. For example, the voice recognition unit 20 extracts a keyword from the voice of the user input by the voice input unit 22. The language processing unit 30 determines whether or not the keyword extracted by the voice recognition unit 20 matches a predetermined keyword such as “painful” or “help” (that is, a keyword indicating that the user is not normal). . The predetermined keyword is stored in advance in the dialogue database 71, for example. The language processing unit 30 determines that the user is not normal (abnormal) when the keywords match, and otherwise determines that the user is normal. Alternatively, when the voice recognition unit 20 detects in the voice of the user input by the voice input unit 22 that a silent period has continued for a predetermined period or longer, the voice recognition unit 20 outputs a detection signal to the language processing unit 30. You may The language processing unit 30
When the detection signal from the voice recognition unit 20 is received,
It may be determined that the user is not normal (abnormal), and in other cases, it may be determined that the user is normal.

【0065】ST52における判定結果が「YES」で
ある場合には処理はST56に進み、ST52における
判定結果が「NO」である場合には処理はST53に進
む。
If the determination result in ST52 is "YES", the process proceeds to ST56, and if the determination result in ST52 is "NO", the process proceeds to ST53.

【0066】ST53では、異常確認用の発話がユーザ
に対して行われる。この発話は、例えば、言語処理部3
0、音声合成部40および音声出力部50によって行わ
れる。例えば、言語処理部30は、「大丈夫?」などの
応答文を生成し、音声合成部40に出力する。音声合成
部40は、言語処理部30から出力された応答文を音声
に合成する。その合成された音声は、音声出力部50か
ら出力される。その結果、「大丈夫?」などの異常確認
用の発話がユーザに対して行われる。ST54では、S
T53において行われた発話に対するユーザからの応答
(例えば、ユーザからの応答の有無、および/または、
ユーザからの応答の内容)に基づいて、ユーザの状態が
正常状態であるか否かが最終的に判定される。このよう
な判定は、例えば、音声認識部20および言語処理部3
0によって行われる。ここで、ST54における判定
は、例えば、ST52で述べた判定の方法と同一の方法
に従って行われる。
In ST53, the user is uttered for abnormality confirmation. This utterance is, for example, the language processing unit 3
0, the voice synthesis unit 40, and the voice output unit 50. For example, the language processing unit 30 generates a response sentence such as “Is it okay?” And outputs it to the voice synthesis unit 40. The speech synthesis unit 40 synthesizes the response sentence output from the language processing unit 30 into speech. The synthesized voice is output from the voice output unit 50. As a result, an utterance for confirming an abnormality, such as "Is it okay?", Is issued to the user. In ST54, S
A response from the user to the utterance made in T53 (for example, the presence or absence of a response from the user, and / or
Based on the content of the response from the user), it is finally determined whether the user's state is normal. Such determination is performed by, for example, the voice recognition unit 20 and the language processing unit 3
Performed by 0. Here, the determination in ST54 is performed, for example, according to the same method as the determination method described in ST52.

【0067】ST54における判定結果が「YES」で
ある場合には処理はST56に進み、ST54における
判定結果が「NO」である場合には処理はST55に進
む。
If the determination result in ST54 is "YES", the process proceeds to ST56, and if the determination result in ST54 is "NO", the process proceeds to ST55.

【0068】ST55では、言語処理部30は、通信回
線を介して救急センタに通報するように通信部60に指
示する。通信部60は、そのような通報をするととも
に、ユーザの個人情報(例えば、個人データベース73
に格納されているユーザの年齢、性別、病歴など)を救
急センタに送信するようにしてもよいし、対話型エージ
ェント1の位置情報を救急センタに送信するようにして
もよい。
In ST55, the language processing section 30 instructs the communication section 60 to notify the emergency center via the communication line. The communication unit 60 makes such a notification and, at the same time, the user's personal information (for example, the personal database 73).
The age, sex, medical history, etc. of the user stored in the above may be transmitted to the emergency center, or the position information of the interactive agent 1 may be transmitted to the emergency center.

【0069】ST56では、対話型エージェント1とユ
ーザとの間で通常モードの対話が続行される。
At ST56, the normal mode dialogue between the interactive agent 1 and the user is continued.

【0070】このように、図5に示される詳細フローに
よれば、ユーザが正常であるか否かの判定は対話型エー
ジェント1とユーザとの間の対話を通じて行われる。こ
のような判定方法は、人体に装着したセンサや画像など
を用いてユーザが正常であるか否かを判定する従来の判
定方法に比較してユーザフレンドリであるといえる。セ
ンサを人体に装着するという煩わしさがなく、対話型エ
ージェント1に監視されているという感じもしないから
である。
As described above, according to the detailed flow shown in FIG. 5, whether or not the user is normal is determined through the dialogue between the interactive agent 1 and the user. It can be said that such a determination method is more user-friendly than a conventional determination method for determining whether or not the user is normal by using a sensor or an image attached to the human body. This is because the sensor is not bothered to be worn on the human body and the interactive agent 1 does not feel that it is being monitored.

【0071】また、図5に示される詳細フローによれ
ば、ST52においてユーザが正常でないと判定される
と、ST53において異常確認用の発話を行い、ST5
4においてその発話に対する応答の有無(または応答の
内容)に応じてユーザが正常であるか否かが最終的に判
定される。ST52およびST54においていずれも
「ユーザが正常でない」と判定された場合にのみ、通報
がなされる。このように「ユーザが正常でない」という
判定を二重に行うことにより、ユーザが正常であるか否
かの判定をより確実に行うことができる。
Further, according to the detailed flow shown in FIG. 5, if it is determined in ST52 that the user is not normal, an utterance for abnormality confirmation is issued in ST53, and ST5
In 4, it is finally determined whether or not the user is normal, depending on the presence or absence of a response to the utterance (or the content of the response). In both ST52 and ST54, the notification is made only when it is determined that "the user is not normal". By thus making the double determination that "the user is not normal", it is possible to more reliably determine whether or not the user is normal.

【0072】さらに、図5に示される詳細フローによれ
ば、救急センタへの通報は、図2に示されるST1にお
いて検出された人物が本人である(すなわち、ユーザで
ある)ことが確認された後に行われる。従って、ユーザ
が発話できないような状況下でも、通報と同時にユーザ
の個人情報(例えば、年齢、性別、病歴など)を救急セ
ンタに送信することができる。これにより、救急センタ
は、ユーザが救急センタに搬送されてくる前にユーザの
個人情報を入手することができる。その結果、救急セン
タにおいて適切な処置をユーザに迅速に行うことが可能
になる。
Further, according to the detailed flow shown in FIG. 5, in the notification to the emergency center, it is confirmed that the person detected in ST1 shown in FIG. 2 is the person (that is, the user). Will be done later. Therefore, even in a situation where the user cannot speak, the personal information of the user (for example, age, sex, medical history, etc.) can be transmitted to the emergency center simultaneously with the notification. Thereby, the emergency center can obtain the personal information of the user before the user is transported to the emergency center. As a result, it becomes possible to promptly perform appropriate treatment for the user in the emergency center.

【0073】なお、図5に示されるST53およびST
54を省略してもよい。この場合には、ST52におい
てユーザが正常でないと判定されると、ただちに救急セ
ンタに通報されることになる。
Incidentally, ST53 and ST shown in FIG.
54 may be omitted. In this case, if it is determined in ST52 that the user is not normal, the emergency center will be immediately notified.

【0074】以上により、本実施の形態によれば、対話
型エージェント1を用いて検出された人物がユーザであ
るか否かを判定することができる。検出された人物がユ
ーザでないと判定された場合には、警備会社(または警
察)に通報される。これにより、犯罪を未然に防止する
ことが可能になる。また、検出された人物がユーザであ
ると判定された場合には、そのユーザが正常であるか否
か(または異常であるか否か)がさらに判定される。そ
のユーザが正常でない(異常である)と判定された場合
には、救急センタに通報される。これにより、事故を未
然に防止することが可能になる。
As described above, according to this embodiment, it is possible to determine whether or not the person detected by using the interactive agent 1 is the user. When it is determined that the detected person is not the user, the security company (or the police) is notified. This makes it possible to prevent crime in advance. Further, when it is determined that the detected person is the user, it is further determined whether the user is normal (or abnormal). If it is determined that the user is not normal (abnormal), the emergency center is notified. This makes it possible to prevent accidents.

【0075】また、本実施の形態によれば、対話型エー
ジェント1と検出された人物との間で対話が行われ、そ
の対話の結果に基づいて異常が発生したか否かが判定さ
れる。異常が発生したと判定された場合には、通報され
る。ここで、「異常」とは、検出された人物が対話型エ
ージェント1のユーザではないことをいう。あるいは、
「異常」とは、検出された人物が対話型エージェント1
のユーザであり、かつ、そのユーザの状態が正常状態で
はないことをいう。
Further, according to the present embodiment, a dialogue is conducted between the interactive agent 1 and the detected person, and it is determined whether or not an abnormality has occurred based on the result of the dialogue. If it is determined that an abnormality has occurred, a notification is sent. Here, “abnormal” means that the detected person is not the user of the interactive agent 1. Alternatively,
“Abnormal” means that the detected person is the interactive agent 1
It means that the user is a user and the state of the user is not normal.

【0076】(実施の形態2)図3は、図1Aに示され
る対話型エージェント1によって実行される防犯プログ
ラムの手順の一例を示す。
(Second Embodiment) FIG. 3 shows an example of a procedure of a crime prevention program executed by the interactive agent 1 shown in FIG. 1A.

【0077】以下、不審者の家屋への侵入防止を例にと
り、図3に示される防犯プログラムの各ステップを説明
する。対話型エージェント1は、家屋の中、例えばリビ
ングに設けられているものとする。
Each step of the crime prevention program shown in FIG. 3 will be described below by taking an example of preventing a suspicious person from entering a house. It is assumed that the interactive agent 1 is provided in a house, for example, a living room.

【0078】ST11では、画像認識部10は、画像入
力部12によって入力された画像から人物を検出する。
ST11において検出された人物は、本人であるかもし
れないし、本人でない(例えば、窃盗犯)かもしれな
い。
In ST11, the image recognition section 10 detects a person from the image input by the image input section 12.
The person detected in ST11 may be the person or may not be the person (for example, a thief).

【0079】ST12では、言語処理部30は、本人の
所在を示す所在情報を受け取る。言語処理部30は、本
人自身によって入力部(図示せず)を介して対話型エー
ジェント1に入力された所在情報を受け取ってもよい
し、他の対話型エージェントから通信部60を介して所
在情報を受け取ってもよい。
In ST12, the language processing section 30 receives location information indicating the location of the person. The language processing unit 30 may receive the location information input to the interactive agent 1 by the person himself / herself via an input unit (not shown), or the location information from another interactive agent via the communication unit 60. You may receive

【0080】ST13では、言語処理部30は、ST1
2において受け取った所在情報に基づいて、本人が不在
か否かを判定する。
In ST13, the language processing section 30 determines in ST1.
Based on the location information received in 2, it is determined whether the person is absent.

【0081】ST13において、本人が不在である(例
えば、外出中である)と判定された場合には処理はST
14に進む。ST13において、本人が不在でない(例
えば、在宅中である)と判定された場合には処理はST
17に進む。
In ST13, when it is determined that the person is absent (for example, he is out), the process proceeds to ST.
Proceed to 14. When it is determined in ST13 that the person is not absent (for example, at home), the process proceeds to ST.
Proceed to 17.

【0082】ST14〜ST17の処理は、図2に示さ
れるST3〜ST6の処理とそれぞれ同一であるから、
ここではその説明を省略する。なお、実施の形態1と同
様に、図3に示されるST17の詳細フローとして図5
のフローチャートを適用するようにしてもよい。この場
合、上述した効果と同様の効果が得られる。
The processing of ST14 to ST17 is the same as the processing of ST3 to ST6 shown in FIG.
The description is omitted here. As in the first embodiment, the detailed flow of ST17 shown in FIG.
The flow chart of may be applied. In this case, the same effect as that described above can be obtained.

【0083】このように、図3に示される防犯プログラ
ムによれば、ST13において本人が不在であると判定
されると、ST14において疑いモードの対話を行い、
その疑いモードの対話の結果に基づいてST11におい
て検出された人物がユーザであるか否かが最終的に判定
される。ST13において「本人不在」と判定され、か
つ、ST15において「本人でない」と判定された場合
にのみ、通報がなされる。このように「本人不在」とい
う判定と「本人でない」という判定とを重ねて行うこと
により、検出された人物が本人であるか否かの判定をよ
り確実に行うことができる。
As described above, according to the crime prevention program shown in FIG. 3, when it is determined that the person is absent in ST13, the suspicious mode dialogue is performed in ST14,
Based on the result of the dialogue in the doubt mode, it is finally determined whether or not the person detected in ST11 is the user. The notification is given only when it is determined in ST13 that the person is absent, and when it is determined in ST15 that the person is not the person. As described above, the determination of "the person is absent" and the determination of "the person is not the person" are performed repeatedly, so that it is possible to more reliably determine whether the detected person is the person.

【0084】なお、図3に示されるST14、ST15
を省略してもよい。この場合には、ST13において本
人が不在であると判定されると、ただちに警備会社(ま
たは警察)に通報されることになる。
Incidentally, ST14 and ST15 shown in FIG.
May be omitted. In this case, when it is determined that the person is absent in ST13, the security company (or the police) is immediately notified.

【0085】以上により、本実施の形態によれば、対話
型エージェント1を用いて検出された人物がユーザであ
るか否かを判定することができる。検出された人物がユ
ーザでない(例えば、窃盗犯)と判定された場合には、
警備会社(または警察)に通報される。これにより、犯
罪を未然に防止することが可能になる。
As described above, according to the present embodiment, it is possible to determine whether or not the person detected by using the interactive agent 1 is the user. If it is determined that the detected person is not a user (for example, a thief),
Be notified to the security company (or police). This makes it possible to prevent crime in advance.

【0086】図3に示される防犯プログラムの手順は、
例えば、図4に示されるマルチエージェント環境に適し
ている。
The procedure of the crime prevention program shown in FIG.
For example, it is suitable for the multi-agent environment shown in FIG.

【0087】図4は、マルチエージェント環境の一例を
示す。図4に示される例では、家用エージェント81
と、車用エージェント82と、携帯用エージェント83
とが通信網84に接続されている。図4に示されるマル
チエージェント環境は、通信網を介して互いに接続され
た複数の対話型エージェントを含むシステムの一例であ
る。マルチエージェント環境下のエージェントの数が3
に限定されないのはもちろんである。マルチエージェン
ト環境下のエージェントの数は2以上の任意の整数であ
り得る。
FIG. 4 shows an example of a multi-agent environment. In the example shown in FIG. 4, the home agent 81
, A vehicle agent 82, and a portable agent 83
And are connected to the communication network 84. The multi-agent environment shown in FIG. 4 is an example of a system including a plurality of interactive agents connected to each other via a communication network. The number of agents in a multi-agent environment is 3
Of course, it is not limited to. The number of agents in a multi-agent environment can be any integer greater than one.

【0088】これら3つのエージェント81〜83とし
て、図1Aに示される対話型エージェント1が使用され
得る。ただし、エージェント81〜83をマルチエージ
ェント環境下で使用するためには、エージェント81〜
83のそれぞれが所在情報メモリ90をさらに含んでい
る必要がある(図1Aを参照)。所在情報メモリ90の
詳細については後述する。エージェント81〜83は、
通信網84を介して互いにコミュニケーションを行うこ
とにより、互いに連携して動作可能なように構成されて
いる。
As these three agents 81 to 83, the interactive agent 1 shown in FIG. 1A can be used. However, in order to use the agents 81-83 in a multi-agent environment, the agents 81-83
Each of 83 must further include a location information memory 90 (see FIG. 1A). Details of the location information memory 90 will be described later. Agents 81-83
By communicating with each other via the communication network 84, they can operate in cooperation with each other.

【0089】家用エージェント81は、家屋に設けられ
ている。車用エージェント82は、車に設けられてい
る。携帯用エージェント83は、本人が携帯可能なよう
に設けられている。携帯用エージェント83は、携帯性
に優れているという点から腕時計タイプが好ましい。
The home agent 81 is provided in the house. The vehicle agent 82 is provided in the vehicle. The portable agent 83 is provided so that the person can carry it. The portable agent 83 is preferably a wrist watch type in terms of excellent portability.

【0090】例えば、本人が車に乗って外出中であると
する。この場合、車用エージェント82は、本人が車に
乗っていることを検出し、本人が車に乗っている旨の情
報を本人の所在を示す所在情報として家用エージェント
81に連絡する。所在情報の連絡を車用エージェント8
2から受けた家用エージェント81は、本人が外出中で
あることを理解することができる。従って、家用エージ
ェント81は、図3に示すST13において本人が不在
であると判定することができる。
For example, assume that the person is in a car and is out. In this case, the vehicle agent 82 detects that the person himself / herself is in the vehicle, and informs the home agent 81 of the information that the person himself / herself is in the vehicle as location information indicating the location of the person himself / herself. Contact agent for vehicle 8
The home agent 81 received from 2 can understand that the person is out. Therefore, the home agent 81 can determine that the person is absent in ST13 shown in FIG.

【0091】さらに、複数の対話型エージェントを互い
に連携させて動作させることにより、過去の対話を繰り
返さないようにすることも可能である。例えば、ある人
物が朝起きたときに家用エージェント81と今日の天気
に関する対話をした後に、その人物が車に乗って出勤す
る場合には、その車に搭載されている車用エージェント
82は今日の天気に関する対話を繰り返すことなく別の
話題(例えば、今日のスポーツ)に関する対話をその人
物と行うことが好ましい。このような対話の制御は、例
えば、家用エージェント81とその人物との間で行われ
た対話を家用エージェント81の対話履歴データベース
72に蓄積しておき、車用エージェント82が家用エー
ジェント81の対話履歴データベース72を参照して過
去の対話と重複する対話を避けることによって達成され
得る。
Furthermore, by operating a plurality of interactive agents in cooperation with each other, it is possible not to repeat past dialogs. For example, when a person gets up in the morning and has a dialogue with the home agent 81 about the weather today, when the person goes to work by riding in a car, the vehicle agent 82 mounted on the car is It is preferable to have a dialogue with the person on another topic (eg sports today) without repeating the dialogue on. To control such a dialogue, for example, a dialogue between the home agent 81 and the person is accumulated in the dialogue history database 72 of the home agent 81, and the car agent 82 makes the dialogue history of the home agent 81. This can be accomplished by looking up the database 72 and avoiding dialogues that duplicate past dialogues.

【0092】マルチエージェント対応の対話型エージェ
ントは、ユーザの各種の生活シーンにおいて各種のエー
ジェント機能(電子メールの読み上げも含む)を実行す
ることにより、対話を通じて人間とやりとりを行う。こ
のような対話型エージェントは、人間にとって生活に密
着したフレンドリであり、かつ、役に立つ存在となる。
このことから、ユーザは各種の生活シーンにおいて対話
型エージェントを活用することになる。
The multi-agent interactive agent executes various agent functions (including reading of electronic mail) in various life scenes of the user to interact with humans through dialogue. Such interactive agents are friendly and useful to human beings as they are closely related to life.
Therefore, the user will utilize the interactive agent in various life scenes.

【0093】図3に示される防犯プログラムの手順は、
対話型エージェント1のユーザ(所有者)が1人の場合
を想定したものであった。ここでは、マルチエージェン
ト環境下においてユーザが複数の人である場合を想定し
た防犯プログラムの手順を説明する。
The procedure of the crime prevention program shown in FIG.
It is assumed that the number of users (owners) of the interactive agent 1 is one. Here, the procedure of the security program assuming a case where there are a plurality of users in a multi-agent environment will be described.

【0094】図6は、家用エージェント81、車用エー
ジェント82および携帯用エージェント83のそれぞれ
によって実行される防犯プログラムの手順の一例を示
す。ここでは、家用エージェント81、車用エージェン
ト82および携帯用エージェント83のそれぞれは、図
1Aに示される対話型エージェント1の構成と同一の構
成を有しているものと仮定する。また、図4に示される
ように通信網84を介して家用エージェント81、車用
エージェント82および携帯用エージェント83が接続
されるようにマルチエージェントの環境が設定されてい
るものと仮定する。
FIG. 6 shows an example of a procedure of a crime prevention program executed by each of the home agent 81, the vehicle agent 82 and the portable agent 83. Here, it is assumed that each of the home agent 81, the vehicle agent 82, and the portable agent 83 has the same configuration as that of the interactive agent 1 shown in FIG. 1A. It is also assumed that the multi-agent environment is set so that the home agent 81, the vehicle agent 82, and the portable agent 83 are connected via the communication network 84 as shown in FIG.

【0095】ここでは、ユーザは、「ユーザA」および
「ユーザB」の2人であると仮定する。この場合、「ユ
ーザA」のユーザ名称および「ユーザB」のユーザ名称
が、各エージェントの個人データベース73に登録され
る。もちろん、個人データベース73には、実施の形態
1と同様に、ユーザを特定する情報(画像、音声特徴量
など)や、ユーザしか知り得ない情報がユーザごとに格
納されていてもよい。
Here, it is assumed that there are two users, "user A" and "user B". In this case, the user name of “user A” and the user name of “user B” are registered in the personal database 73 of each agent. Of course, as in the first embodiment, the personal database 73 may store, for each user, information that identifies the user (image, audio feature amount, etc.) or information that only the user can know.

【0096】以下、不審者の家屋への侵入防止を例にと
り、図6に示される防犯プログラムの各ステップを説明
する。
Each step of the crime prevention program shown in FIG. 6 will be described below by taking an example of preventing a suspicious person from entering a house.

【0097】ST81の処理は、図2に示されるST1
の処理と同一である。従って、ここではその説明を省略
する。例えば、画像認識部10は、人物を検出する検出
部として機能する。
The processing of ST81 is the same as ST1 shown in FIG.
The process is the same as that of. Therefore, the description thereof is omitted here. For example, the image recognition unit 10 functions as a detection unit that detects a person.

【0098】ST82では、通信部60は、ユーザの所
在を示す所在情報を他のエージェントから受け取る。こ
こで、「他のエージェント」とは、マルチエージェント
環境下にある複数のエージェントのうち自分自身以外の
エージェントをいう。例えば、家用エージェント81の
通信部60は、ユーザAの所在を示す所在情報を車用エ
ージェント82から受け取り、ユーザBの所在を示す所
在情報を携帯用エージェント83から受け取る。
In ST82, the communication section 60 receives location information indicating the location of the user from another agent. Here, the "other agent" refers to an agent other than itself among a plurality of agents in a multi-agent environment. For example, the communication unit 60 of the home agent 81 receives the location information indicating the location of the user A from the vehicle agent 82 and the location information indicating the location of the user B from the portable agent 83.

【0099】このように、通信部60は、他の対話型エ
ージェントの所在情報メモリ90から所在情報を通信網
84を介して受信する受信部として機能する。
As described above, the communication unit 60 functions as a receiving unit that receives the location information from the location information memory 90 of another interactive agent via the communication network 84.

【0100】図7は、家用エージェント81が、ユーザ
Aの所在を示す所在情報を車用エージェント82から受
け取り、ユーザBの所在を示す所在情報を携帯用エージ
ェント83から受け取る様子を模式的に示す。これらの
所在情報は、家用エージェント81の所在情報メモリ9
0に格納される。
FIG. 7 schematically shows how the home agent 81 receives location information indicating the location of the user A from the vehicle agent 82 and location information indicating the location of the user B from the portable agent 83. The location information is stored in the location information memory 9 of the home agent 81.
Stored in 0.

【0101】図8は、家用エージェント81の所在情報
メモリ90の内容の一例を示す。図8に示される例は、
家用エージェント81がユーザAにもユーザBにも使用
されておらず(すなわち、未使用またはユーザ不在)、
車用エージェント82がユーザAに使用されており、携
帯用エージェント83がユーザBに使用されている状態
を示す。なお、所在情報メモリ90の初期状態は、どの
エージェントに対しても未使用の状態となっている。
FIG. 8 shows an example of the contents of the location information memory 90 of the home agent 81. The example shown in FIG. 8 is
The home agent 81 is not used by either user A or user B (that is, unused or absent),
The vehicle agent 82 is used by the user A, and the portable agent 83 is used by the user B. The initial state of the location information memory 90 is unused for any agent.

【0102】ST83では、言語処理部30は、所在情
報メモリ90を参照することにより、複数のユーザのす
べてが他のエージェントを使用しているか否かを判定す
る。
In ST83, the language processing section 30 refers to the location information memory 90 to determine whether all of the plurality of users are using other agents.

【0103】ST83における判定結果が「YES」で
ある場合には処理はST87に進み、ST83における
判定結果が「NO」である場合には処理はST84に進
む。
If the determination result in ST83 is "YES", the process proceeds to ST87, and if the determination result in ST83 is "NO", the process proceeds to ST84.

【0104】例えば、家用エージェント81の所在情報
メモリ90の内容が図8に示されるとおりである場合に
は、ユーザA、Bともに他のエージェント(すなわち、
車用エージェント82、携帯用エージェント83)を使
用していることになる。この場合には、処理はST87
に進む。
For example, when the contents of the location information memory 90 of the home agent 81 are as shown in FIG. 8, both the users A and B have other agents (that is,
This means that the vehicle agent 82 and the portable agent 83) are used. In this case, the process is ST87.
Proceed to.

【0105】ST84、ST85、ST86の処理は、
図2に示されるST2、ST3、ST4の処理と同一で
ある。従って、ここではその説明を省略する。
The processing of ST84, ST85 and ST86 is as follows.
This is the same as the processing of ST2, ST3, and ST4 shown in FIG. Therefore, the description thereof is omitted here.

【0106】このように、言語処理部30は、他のエー
ジェントから受信した所在情報に基づいて、検出された
人物がユーザであるか否かを判定する判定部として機能
する。
As described above, the language processing unit 30 functions as a determination unit that determines whether or not the detected person is the user based on the location information received from another agent.

【0107】ST87では、言語処理部30は、通信回
線を介して警備会社(または警察)に通報するように通
信部60に指示する。
In ST87, the language processing section 30 instructs the communication section 60 to notify the security company (or the police) via the communication line.

【0108】このように、言語処理部30および通信部
60は、検出された人物が本人でないと判定された場合
に通報を行う通報部として機能する。
As described above, the language processing unit 30 and the communication unit 60 function as a reporting unit that reports when it is determined that the detected person is not the person.

【0109】複数のユーザのうちの少なくとも1人が他
のエージェントを使用していないと判定され(ST8
2)、かつ、検出された人物がユーザであると判定され
た(ST84、ST86)場合には、処理はST88に
進む。
It is determined that at least one of the plurality of users is not using another agent (ST8
2) And when it is determined that the detected person is the user (ST84, ST86), the process proceeds to ST88.

【0110】ST88では、言語処理部30は、家用エ
ージェント81の所在情報メモリ90にユーザ名を記録
する。
In ST88, the language processing section 30 records the user name in the location information memory 90 of the home agent 81.

【0111】なお、ST82で受信する他のエージェン
トからの所在情報が、複数のユーザの1人(例えば、ユ
ーザA)が他のエージェントを使用していることを示す
情報であった場合には、ST84におけるユーザの真偽
の判定は複数のユーザから他のエージェントを使用して
いるユーザ名を除くユーザに対して行えばよい。これに
より、判定するユーザの対象者を限定することができ
る。例えば、家用エージェント81の言語処理部30
が、ST84で検出された人物がユーザであると判定し
た(ユーザ名も判定する)場合には、ST88で所在情
報メモリ90の家用エージェントの欄にユーザ名を記憶
するようにすればよい。
If the location information from another agent received in ST82 is information indicating that one of the plurality of users (for example, user A) is using the other agent, The authenticity of the user in ST84 may be determined for a user excluding the user name using another agent from the plurality of users. Thereby, the target persons of the user to be judged can be limited. For example, the language processing unit 30 of the home agent 81
However, if it is determined in ST84 that the person detected is the user (the user name is also determined), the user name may be stored in the home agent field of the location information memory 90 in ST88.

【0112】ST89の処理は、図2に示されるST6
の処理と同一である。従って、ここではその説明を省略
する。なお、実施の形態1と同様に、図6に示されるS
T89の詳細フローとして図5のフローチャートを適用
するようにしてもよい。この場合、上述した効果と同様
の効果が得られる。
The processing of ST89 is the same as ST6 shown in FIG.
The process is the same as that of. Therefore, the description thereof is omitted here. Note that, as in the case of the first embodiment, S shown in FIG.
The flowchart of FIG. 5 may be applied as the detailed flow of T89. In this case, the same effect as that described above can be obtained.

【0113】(実施の形態3)携帯用エージェント83
(図4)は、通常モードの対話においてユーザからの応
答がいつもと異なることを検知した場合には、通常モー
ドから疑いモードに移行し、本人を特定する情報(例え
ば、本人の生年月日)を求める質問形式の会話をユーザ
と行うことが好ましい。もし、ユーザが本人を特定する
情報を求める質問に答えることができなかった場合に
は、本人に危害が加わった可能性が高いか、または、携
帯用エージェント83が盗難にあった可能性が高いと判
断して、携帯用エージェント83が警備会社(または警
察)にその旨を通報することが好ましい。そのような通
報と同時に、携帯用エージェント83の位置情報を警備
会社(または警察)に送信するようにしてもよい。
(Third Embodiment) Portable Agent 83
(FIG. 4), when detecting that the response from the user in the normal mode is different from usual, the normal mode is switched to the suspicious mode, and information identifying the person (for example, the date of birth of the person). It is preferable to have a question-type conversation with the user asking for. If the user is unable to answer the question asking for information identifying the person, there is a high possibility that the person has been harmed or that the portable agent 83 has been stolen. Therefore, it is preferable that the portable agent 83 notify the security company (or the police) of that fact. At the same time as such notification, the location information of the portable agent 83 may be transmitted to the security company (or the police).

【0114】あるいは、携帯用エージェント83と本人
との間でキーワードを予め決めておき、本人の身に危険
が迫った場合には本人がそのキーワードを発することと
し、携帯用エージェント83がそのキーワードを検出す
ると、警備会社(または警察)に通報するようにしても
よい。そのキーワードは、第三者にさとられないような
語句(例えば、「ハッパフミフミ」などの語句)である
ことが好ましい。
Alternatively, a keyword is decided in advance between the portable agent 83 and the person, and when the person is at risk of danger, the person himself or herself will emit the keyword, and the portable agent 83 will output the keyword. If detected, a security company (or police) may be notified. The keyword is preferably a phrase that cannot be captured by a third party (for example, a phrase such as “Happa Fumi Fumi”).

【0115】なお、上述した実施の形態1〜3では、対
話型装置の一例として、対話型エージェントを説明した
が、対話型装置はこれに限定されない。対話型装置は、
人物と対話を行うことが可能なように構成された任意の
装置であり得る。対話型装置は、例えば、対話型の玩具
であってもよい。
In the above-described first to third embodiments, the interactive agent has been described as an example of the interactive device, but the interactive device is not limited to this. Interactive device
It can be any device configured to be able to interact with a person. The interactive device may be, for example, an interactive toy.

【0116】[0116]

【発明の効果】本発明の方法によれば、対話型エージェ
ントを用いて窃盗犯や家屋への侵入者を特定することが
できる。これにより、犯罪を未然に防止することが可能
になる。本発明は、対話型エージェントを用いて身体の
異常状態を判定することができる。これにより、予め設
定された通報先に通報を行うことにより事故を未然に防
止することができる。
According to the method of the present invention, a thief or an intruder into a house can be identified by using an interactive agent. This makes it possible to prevent crime in advance. The present invention can determine an abnormal state of the body using an interactive agent. Thus, it is possible to prevent an accident by notifying the preset addressee.

【図面の簡単な説明】[Brief description of drawings]

【図1A】対話型エージェント1の構成例を示すブロッ
ク図
FIG. 1A is a block diagram showing a configuration example of an interactive agent 1.

【図1B】運転手80と対話型エージェント1とが対話
をしている様子を模式的に示す図
FIG. 1B is a diagram schematically showing how the driver 80 and the interactive agent 1 are having a conversation.

【図2】図1Aに示される対話型エージェント1によっ
て実行される防犯プログラムの手順の一例を示すフロー
チャート
FIG. 2 is a flowchart showing an example of a procedure of a crime prevention program executed by the interactive agent 1 shown in FIG. 1A.

【図3】図1Aに示される対話型エージェント1によっ
て実行される防犯プログラムの手順の一例を示すフロー
チャート
FIG. 3 is a flowchart showing an example of a procedure of a crime prevention program executed by the interactive agent 1 shown in FIG. 1A.

【図4】マルチエージェント環境の一例を示す図FIG. 4 is a diagram showing an example of a multi-agent environment.

【図5】図2に示されるST6の詳細フローの一例を示
すフローチャート
5 is a flowchart showing an example of a detailed flow of ST6 shown in FIG.

【図6】家用エージェント81、車用エージェント82
および携帯用エージェント83のそれぞれによって実行
される防犯プログラムの手順の一例を示すフローチャー
FIG. 6 is a household agent 81 and a vehicle agent 82
And a flowchart showing an example of a procedure of a crime prevention program executed by each of the portable agents 83.

【図7】家用エージェント81が、ユーザAの所在を示
す所在情報を車用エージェント82から受け取り、ユー
ザBの所在を示す所在情報を携帯用エージェント83か
ら受け取る様子を模式的に示す図
FIG. 7 is a diagram schematically showing how the home agent 81 receives the location information indicating the location of the user A from the vehicle agent 82 and the location information indicating the location of the user B from the portable agent 83.

【図8】家用エージェント81の所在情報メモリ90の
内容の一例を示す図
FIG. 8 is a diagram showing an example of contents of a location information memory 90 of a home agent 81.

【符号の説明】[Explanation of symbols]

1 対話型エージェント 10 画像認識部 20 音声認識部 30 言語処理部 40 音声合成部 50 音声出力部 60 通信部 70 データベース部 90 所在情報メモリ 1 Interactive agent 10 Image recognition unit 20 Speech recognition unit 30 Language Processing Department 40 Speech synthesizer 50 voice output section 60 Communication unit 70 Database Department 90 location information memory

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C087 AA02 AA03 BB02 BB19 BB74 BB75 DD03 DD13 DD24 EE05 EE08 FF01 FF04 GG02 GG19 GG20 GG66 GG70 GG83    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 5C087 AA02 AA03 BB02 BB19 BB74                       BB75 DD03 DD13 DD24 EE05                       EE08 FF01 FF04 GG02 GG19                       GG20 GG66 GG70 GG83

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 人物と対話を行うことが可能な対話型装
置を用いて、事故を未然に防止する方法であって、 前記対話型装置が人物を検出するステップと、 前記対話型装置が前記人物と対話を行うステップと、 前記対話型装置が前記対話の結果に基づいて異常が発生
しているか否かを判定するステップと、 前記異常が発生したと判定された場合には、前記対話型
装置が通報を行うステップとを包含する、方法。
1. A method of preventing an accident using an interactive device capable of interacting with a person, the method comprising: detecting the person by the interactive device; A step of interacting with a person, a step of determining whether or not the interactive device has an abnormality based on a result of the interaction, and, if it is determined that the abnormality has occurred, the interactive type A device making a notification.
【請求項2】 前記異常は、前記人物が前記対話型装置
のユーザでないこと、または、前記人物が前記対話型装
置のユーザであり、かつ、前記ユーザの状態が正常状態
でないことである、請求項1に記載の方法。
2. The abnormality is that the person is not a user of the interactive apparatus, or that the person is a user of the interactive apparatus and the state of the user is not normal. The method according to Item 1.
【請求項3】 人物と対話を行うことが可能な対話型装
置を用いて、事故を未然に防止する方法であって、 前記対話型装置が人物を検出するステップと、 前記対話型装置が前記人物と前記対話型装置のユーザに
関する対話を行うステップと、 前記対話型装置が前記対話の結果に基づいて前記人物が
前記ユーザであるか否かを判定するステップと、 前記人物が前記ユーザであると判定された場合には、前
記対話型装置が前記ユーザの状態が正常状態であるか否
かを判定するステップと、 前記ユーザの状態が正常状態でないと判定された場合に
は、前記対話型装置が通報を行うステップとを包含す
る、方法。
3. A method of preventing an accident using an interactive device capable of interacting with a person, the method comprising: detecting the person by the interactive device; Performing a dialogue about a person and a user of the interactive device; determining the person is the user based on the result of the dialogue by the interactive device; and the person is the user. If it is determined that the interactive device determines whether the state of the user is a normal state, and if it is determined that the user state is not normal, the interactive device A device making a notification.
【請求項4】 前記対話型装置は、前記ユーザに発話を
行い、前記発話に対する応答を確認することにより、前
記ユーザの状態が正常状態であるか否かを判定する、請
求項3に記載の方法。
4. The interactive device according to claim 3, wherein the interactive device speaks to the user and confirms a response to the utterance to determine whether or not the user is in a normal state. Method.
【請求項5】 人物と対話を行うことが可能な対話型装
置を用いて、犯罪を未然に防止する方法であって、 前記対話型装置が人物を検出するステップと、 前記対話型装置が前記対話型装置のユーザの所在を示す
所在情報を受け取るステップと、 前記対話型装置が前記所在情報に基づいて前記人物が前
記ユーザであるか否かを判定するステップと、 前記人物が前記ユーザでないと判定された場合には、前
記対話型装置が通報を行うステップとを包含する、方
法。
5. A method for preventing crimes using an interactive device capable of interacting with a person, the method comprising: detecting the person by the interactive device; Receiving location information indicating the location of the user of the interactive device, determining whether the interactive device is the user based on the location information, the interactive device if the person is not the user If determined, the interactive device makes a notification.
【請求項6】 前記対話型装置は、通信回線を介して他
の対話型装置から前記所在情報を受け取る、請求項5に
記載の方法。
6. The method of claim 5, wherein the interactive device receives the location information from another interactive device via a communication line.
【請求項7】 前記対話型装置が前記所在情報に基づい
て前記人物が前記ユーザであるか否かを判定するステッ
プは、 前記対話型装置が前記所在情報に基づいて前記ユーザが
不在であるか否かを判定するステップと、 前記ユーザが不在であると判定された場合には、前記対
話型装置が前記人物と前記ユーザに関する対話を行うス
テップと、 前記対話型装置が前記対話の結果に基づいて前記人物が
前記ユーザであるか否かを判定するステップとを包含す
る、請求項5に記載の方法。
7. The step of the interactive device determining whether the person is the user based on the location information, the interactive device determining whether the user is absent based on the location information. Determining whether or not the user is absent, the interactive device performs a dialog regarding the person and the user, the interactive device based on the result of the dialog. Determining whether the person is the user.
【請求項8】 前記人物が前記ユーザであると判定され
た場合には、前記対話型装置が前記ユーザの状態が正常
状態であるか否かを判定するステップと、 前記ユーザの状態が正常状態でないと判定された場合に
は、前記対話型装置が通報を行うステップとをさらに包
含する、請求項5に記載の方法。
8. If the person is determined to be the user, the interactive device determines whether the state of the user is normal, and the state of the user is normal. The method of claim 5, further comprising the step of: if the interactive device determines not to do so.
【請求項9】 前記対話型装置は、他の対話型装置の対
話履歴データベースから対話履歴を参照する、請求項5
に記載の方法。
9. The interactive device refers to a dialog history from a dialog history database of another interactive device.
The method described in.
【請求項10】 前記対話型装置が車に設けられてい
る、請求項1〜9のいずれかに記載の方法。
10. The method according to claim 1, wherein the interactive device is provided in a vehicle.
【請求項11】 前記対話型装置が家屋に設けられてい
る、請求項1〜9のいずれかに記載の方法。
11. The method according to claim 1, wherein the interactive device is provided in a house.
【請求項12】 通信網を介して互いに接続された複数
の対話型装置を備えたシステムであって、 前記複数の対話型装置のそれぞれは、人物と対話を行う
ことが可能なように構成されており、 前記複数の対話型装置のそれぞれは、 人物を検出する検出部と、 前記対話型装置のユーザの所在を示す所在情報を格納す
る所在情報メモリと、 他の対話型装置の前記所在情報メモリから前記所在情報
を前記通信網を介して受信する受信部と、 前記他の対話型装置から受信した前記所在情報に基づい
て、前記検出部によって検出された前記人物が前記ユー
ザであるか否かを判定する判定部と、 前記人物が前記ユーザでないと判定された場合には、通
報を行う通報部とを含む、システム。
12. A system comprising a plurality of interactive devices connected to each other via a communication network, each of the plurality of interactive devices being configured to be able to interact with a person. Each of the plurality of interactive devices includes a detection unit that detects a person, a location information memory that stores location information indicating the location of the user of the interactive device, and the location information of another interactive device. Whether the person detected by the detecting unit is the user based on the receiving unit that receives the location information from the memory via the communication network and the location information received from the other interactive device. A system that includes a determining unit that determines whether or not the person, and a reporting unit that reports if the person is determined not to be the user.
【請求項13】 前記判定部は、前記所在情報に基づい
て前記ユーザが不在であるか否かを判定し、前記ユーザ
が不在であると判定された場合には、前記検出部によっ
て検出された前記人物と前記ユーザに関する対話を行
い、前記対話の結果に基づいて前記人物が前記ユーザで
あるか否かを判定する、請求項12に記載のシステム。
13. The determination unit determines whether or not the user is absent based on the location information, and when it is determined that the user is absent, it is detected by the detection unit. 13. The system according to claim 12, wherein a dialogue is performed regarding the person and the user, and whether the person is the user is determined based on a result of the dialogue.
【請求項14】 前記人物が前記ユーザであると判定さ
れた場合には、前記判定部は、前記ユーザの状態が正常
状態であるか否かをさらに判定し、前記ユーザの状態が
正常状態でないと判定された場合には、前記通報部が通
報を行う、請求項12に記載のシステム。
14. When it is determined that the person is the user, the determination unit further determines whether or not the state of the user is normal, and the state of the user is not normal. The system according to claim 12, wherein when it is determined that the notification unit makes a notification.
JP2002302806A 2001-10-18 2002-10-17 Method and system for preventing crimes Expired - Fee Related JP3717070B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002302806A JP3717070B2 (en) 2001-10-18 2002-10-17 Method and system for preventing crimes

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001-321177 2001-10-18
JP2001321177 2001-10-18
JP2002302806A JP3717070B2 (en) 2001-10-18 2002-10-17 Method and system for preventing crimes

Publications (2)

Publication Number Publication Date
JP2003217055A true JP2003217055A (en) 2003-07-31
JP3717070B2 JP3717070B2 (en) 2005-11-16

Family

ID=27666316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002302806A Expired - Fee Related JP3717070B2 (en) 2001-10-18 2002-10-17 Method and system for preventing crimes

Country Status (1)

Country Link
JP (1) JP3717070B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220374610A1 (en) * 2021-05-21 2022-11-24 Abhishek Vikram Methods and system for analyzing human communication tension during electronic communications.

Also Published As

Publication number Publication date
JP3717070B2 (en) 2005-11-16

Similar Documents

Publication Publication Date Title
JP6399129B2 (en) Passenger support apparatus, method and program
US9592795B1 (en) Theft deterrence, prevention, and recovery system and method
CN106209138B (en) Vehicle cautious emergency response system and method
CN104002729B (en) For in-car alarm activation and the method and apparatus of response processing
US7406423B2 (en) Remotely enforcing operational protocols
US10604097B1 (en) Detection and classification of events
JP4891113B2 (en) Emergency call system with emergency call function and emergency response function
CN111063162A (en) Silent alarm method and device, computer equipment and storage medium
US20110092249A1 (en) Portable blind aid device
EP3488428B1 (en) Autonomous vehicle providing safety zone to persons in distress
WO2005033858A2 (en) Wearable security system and method
JP2008203985A5 (en)
WO2020003749A1 (en) Cabin monitoring method and cabin monitoring device
JP2009049568A (en) Reporting method and reporting system
EP4141813A1 (en) Detection and mitigation of inappropriate behaviors of autonomous vehicle passengers
JP2002247223A (en) System and method for monitoring by utilizing cellular phone
JP2001014575A (en) On-vehicle abnormality notifying device
AU2016205895B2 (en) Determining entry into or exit from a place while a tracking device is in the place
JP3717070B2 (en) Method and system for preventing crimes
EP1577843A2 (en) Method and system for preventing accident
US10825332B2 (en) Home smart listening device linking to transport vehicle
CN108922595B (en) Soul accompanying method, device, robot and computer storage medium
KR101437406B1 (en) an emergency management and crime prevention system for cars and the method thereof
WO2018143980A1 (en) Theft deterrence, prevention, and recovery system and method
JP4103690B2 (en) Vehicle antitheft device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050627

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050825

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080909

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090909

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees