JP2018005308A - Wandering control device, wandering control method and wandering control program - Google Patents

Wandering control device, wandering control method and wandering control program Download PDF

Info

Publication number
JP2018005308A
JP2018005308A JP2016127175A JP2016127175A JP2018005308A JP 2018005308 A JP2018005308 A JP 2018005308A JP 2016127175 A JP2016127175 A JP 2016127175A JP 2016127175 A JP2016127175 A JP 2016127175A JP 2018005308 A JP2018005308 A JP 2018005308A
Authority
JP
Japan
Prior art keywords
utterance
deaf person
unit
wrinkle suppression
suppression device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016127175A
Other languages
Japanese (ja)
Inventor
石川 和史
Kazufumi Ishikawa
和史 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016127175A priority Critical patent/JP2018005308A/en
Publication of JP2018005308A publication Critical patent/JP2018005308A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a wandering control device that can safely control wandering even for a wanderer who does not follow voice notification.SOLUTION: A wandering control device 12 outputs speech to a wanderer detected, by means of at least one of audio or video when the wanderer is detected in a predetermined region inside a building, determines whether or not the wanderer forgets initial intent to have started wandering based on lapse time from a start of dialogue with the wanderer, and outputs the speech to induce the wanderer to a predetermined induction place by means of the at least one of the audio or the video, when the wanderer is determined to have forgotten the initial intent.SELECTED DRAWING: Figure 1

Description

本開示は、徘徊者による徘徊を抑制するための徘徊抑制装置、徘徊抑制方法及び徘徊抑制プログラムに関し、例えば、介護施設や病院等の施設内、又は、家族と暮らす自宅内において、認知症等を原因として、移動が許容されている許容エリアを出て徘徊しようとする人物(徘徊者)に対し、その行動を抑制するための徘徊抑制装置、徘徊抑制方法、及び徘徊抑制プログラムに関するものである。   The present disclosure relates to a wrinkle suppression device, a wrinkle suppression method, and a wrinkle suppression program for suppressing wrinkles by a deaf person, for example, in a facility such as a nursing facility or a hospital, or in a home living with a family, such as dementia As a cause, the present invention relates to a wrinkle suppression device, a wrinkle suppression method, and a wrinkle suppression program for suppressing the behavior of a person who tries to wander out of an allowable area in which movement is permitted (ie, a wanderer).

従来、徘徊行動に対する対策としては、大きく分けて、拘束や閉じ込めなどによって物理的に徘徊を防止するという方法と、徘徊者の居場所を検出する手段によって徘徊者の発見を容易とし、徘徊行動が発生するたびに、介護者が徘徊者を捜索して発見し、連れ戻すという方法とがあった。   Conventional countermeasures against drowning behavior can be broadly divided into methods that physically prevent wrinkles by restraint and confinement, etc., and methods that detect the whereabouts of the deaf, making it easier to find decoy and generating habits. Each time there was a way for the caregiver to search for and find the deaf person and bring it back.

しかしながら、前者には、拘束や閉じ込めに対して人権的な問題があり、後者には、広範囲な許容エリアに対して、人の出入りをコントロールするための設備やシステムに大きなコストがかかる上、介護者が徘徊者を連れ戻す負担の解決にはなっていない、という問題があった。   However, the former has human rights issues with respect to restraint and confinement, and the latter has a large cost for equipment and systems for controlling access to people in a wide range of allowable areas, as well as nursing care. There was a problem that the burden of bringing back the deaf was not solved.

そこで、徘徊を検知した後に、介護者が介入するのではなく、音声報知によって徘徊者に注意を促し、徘徊を抑制する方法が考えられている。特許文献1は、このような従来の徘徊抑制システムの一例である。   Then, after detecting a wrinkle, the caregiver does not intervene, but the method of alerting a widow by voice alert | reporting and suppressing a wrinkle is considered. Patent document 1 is an example of such a conventional wrinkle suppression system.

特許文献1では、一つの実施の形態として、RFID(Radio Frequency Identification)タグを徘徊者の靴底に設置し、本システムが適用される施設内の居室の出入口や入退出口の通路床面に複数設置されるリーダーによってRFIDタグを検知し、音声報知装置によって徘徊者に「今、○○時(現在時刻)です。○○さん(利用者の氏名)、夜遅いですから寝ましょうね。」と音声報知することで、徘徊を抑制することができる。   In Patent Document 1, as one embodiment, an RFID (Radio Frequency Identification) tag is installed on the sole of a person's shoe, and it is placed on the entrance floor of a living room in a facility to which the present system is applied or on the floor of a passageway. RFID tags are detected by multiple readers, and a voice notification device informs the user, “Now, XX hour (current time). XXX (user name), let's go to bed because it is late at night.” It is possible to suppress wrinkles by voice notification.

特開2015−75974号公報Japanese Patent Laid-Open No. 2015-75974

しかしながら、音声報知装置からは予め用意された音声しか報知できず、報知内容に従わない徘徊者に対しては、徘徊抑制効果がないという課題があった。   However, only a prepared voice can be notified from the voice notification device, and there is a problem that there is no wrinkle suppression effect for a deaf person who does not follow the notification content.

本開示は、上記の課題を解決するためになされたもので、音声報知に従わない徘徊者に対しても、安全に徘徊を抑制することができる徘徊抑制装置、徘徊抑制方法及び徘徊抑制プログラムを提供することを目的とするものである。   This indication was made in order to solve the above-mentioned subject, and is a wrinkle control device, a wrinkle control method, and a wrinkle control program which can control a wrinkle safely also for those who do not follow voice alert. It is intended to provide.

本開示の一態様に係る徘徊抑制装置は、徘徊者による徘徊を抑制するための徘徊抑制装置であって、建物の内部の所定の領域において前記徘徊者が検出されたときに、検出された前記徘徊者に対する発話を音声又は映像の少なくとも一方により出力する発話部と、前記徘徊者と前記発話部との対話の開始からの経過時間に基づき、前記徘徊者が徘徊を始めるに至った初期意図を忘れたか否かを判定する行動意図忘却判定部とを備え、前記発話部は、前記行動意図忘却判定部により前記徘徊者が前記初期意図を忘れたと判定された場合、所定の誘導場所に前記徘徊者を誘導するための発話を音声又は映像の少なくとも一方により出力する。   A wrinkle suppression device according to one aspect of the present disclosure is a wrinkle suppression device for suppressing wrinkles by a deaf person, and is detected when the decoy is detected in a predetermined area inside a building. Based on the utterance part that outputs the speech to the deaf person by at least one of audio or video and the elapsed time from the start of the dialogue between the deaf person and the utterance part, A behavior intention forgetting determination unit that determines whether or not the user has forgotten, and when the behavior intention forgetting determination unit determines that the deaf person has forgotten the initial intention, the utterance unit is placed at a predetermined guidance location. An utterance for guiding a person is output by at least one of audio and video.

本開示によれば、音声報知に従わない徘徊者に対しても、安全に徘徊を抑制することができる。   According to the present disclosure, it is possible to safely suppress wrinkles even for a deaf person who does not follow voice notification.

本開示の一実施の形態に係る徘徊抑制装置を用いた徘徊抑制システムの全体構成を示す図である。It is a figure which shows the whole structure of the wrinkle suppression system using the wrinkle suppression apparatus which concerns on one embodiment of this indication. 図1に示す徘徊抑制装置の一例の構成を示すブロック図である。It is a block diagram which shows the structure of an example of the wrinkle suppression apparatus shown in FIG. 図1に示す徘徊抑制装置による徘徊抑制処理の一例を示すフローチャートである。It is a flowchart which shows an example of the wrinkle suppression process by the wrinkle suppression apparatus shown in FIG.

(本発明の基礎となった知見)
徘徊行動を起こし易い認知症者は、短期記憶障害を伴っていることが多く、認知症のスクリーニングテストでも、短期記憶を確認する設問が含まれている。また、徘徊意図を持った認知症者には、指示に従いにくくなる傾向が見られ、そのような場合、単なる音声報知だけでは、徘徊抑制の効果が出ないという課題があった。
(Knowledge that became the basis of the present invention)
People with dementia who are prone to 徘徊 behavior often have short-term memory impairment, and the screening test for dementia also includes questions to confirm short-term memory. In addition, a person with dementia who has an intention of wandering has a tendency to become difficult to follow the instructions. In such a case, there is a problem that the effect of suppressing wrinkle is not achieved only by voice notification.

このような課題を解決するために、本開示の一態様に係る徘徊抑制装置は、徘徊者による徘徊を抑制するための徘徊抑制装置であって、建物の内部の所定の領域において前記徘徊者が検出されたときに、検出された前記徘徊者に対する発話を音声又は映像の少なくとも一方により出力する発話部と、前記徘徊者と前記発話部との対話の開始からの経過時間に基づき、前記徘徊者が徘徊を始めるに至った初期意図を忘れたか否かを判定する行動意図忘却判定部とを備え、前記発話部は、前記行動意図忘却判定部により前記徘徊者が前記初期意図を忘れたと判定された場合、所定の誘導場所に前記徘徊者を誘導するための発話を音声又は映像の少なくとも一方により出力する。   In order to solve such a problem, the wrinkle suppression device according to one aspect of the present disclosure is a wrinkle suppression device for suppressing wrinkles by a deaf person, wherein the decoy person is in a predetermined region inside the building. Based on the utterance part which outputs the utterance with respect to the said deaf person by at least one of an audio | voice or an image | video when detected, and the elapsed time from the start of the dialogue of the deaf person and the said utterance part, the said deaf person And a behavior intention forgetting determination unit that determines whether or not the initial intention that led to the start of habit has been forgotten, and the utterance unit is determined by the behavior intention forgetting determination unit that the user has forgotten the initial intention In such a case, an utterance for guiding the deaf person to a predetermined guidance location is output by at least one of audio and video.

このような構成により、建物の内部の所定の領域において徘徊者が検出されたときに、検出された徘徊者に対する発話が行われ、徘徊者との対話の開始からの経過時間を基に、徘徊者が徘徊を始めるに至った初期意図を忘れたか否かが判定され、初期意図を忘れたと判定された場合、所定の誘導場所に徘徊者を誘導することができる。   With such a configuration, when a deaf person is detected in a predetermined area inside the building, the detected deaf person is uttered, and based on the elapsed time from the start of the dialogue with the deaf person, It is determined whether or not the person has forgotten the initial intention that has led to starting the habit, and when it is determined that the user has forgotten the initial intention, the person can be guided to a predetermined guidance location.

したがって、短期記憶障害を利用した初期意図の忘却判定を簡易な方法により実現することができるとともに、徘徊者と対話し、対話の開始からの時間経過により、短期記憶障害を利用して徘徊者に初期の徘徊意図を忘れさせた後、所定の誘導場所に徘徊者を誘導することができるので、徘徊者の尊厳を傷付けることなく、安全が確保された誘導場所への誘導に徘徊者を従わせることができる。この結果、音声報知に従わない徘徊者に対しても、安全に徘徊を抑制することができる。   Therefore, it is possible to realize the forgetting determination of the initial intention using short-term memory impairment by a simple method, and to interact with the deaf person, and by using the short-term memory disorder to the deaf person as time elapses from the start of the dialogue. After forgetting the initial intention, the person can be guided to the designated place of guidance, so that the person can be guided to the guidance place where safety is ensured without damaging the dignity of the person. be able to. As a result, wrinkles can be safely suppressed even for a deaf person who does not follow the voice notification.

また、上記の徘徊抑制装置は、前記発話部から出力された前記発話に対する前記徘徊者の応答発話の内容を推定する発話推定部をさらに備え、前記行動意図忘却判定部は、前記発話推定部により推定された前記徘徊者の前記応答発話の内容に基づき、前記徘徊者が前記初期意図を忘れたか否かを判定するようにしてもよい。   The wrinkle suppression device further includes an utterance estimating unit that estimates the content of the response utterance of the deaf person with respect to the utterance output from the utterance unit, and the behavior intention forgetting determination unit is Based on the content of the response utterance of the estimated deaf person, it may be determined whether the deaf person has forgotten the initial intention.

このような構成により、発話部の発話に対する徘徊者の応答発話の内容が推定され、推定された徘徊者の応答発話の内容に基づき、初期意図の忘却判定をより正確に行うことができるとともに、対話により徘徊者自身に働きかけることによって、徘徊に至った初期意図を理解して徘徊者の注意を引く対話を行うことができるので、短期記憶障害を利用して徘徊者に初期の徘徊意図を忘れさせ、徘徊者の尊厳を傷付けることなく、安全が確保された場所への誘導に徘徊者を従わせることができる。   With such a configuration, the content of the deaf person's response utterance to the utterance of the utterance unit is estimated, and based on the estimated content of the deceiver's response utterance, the forgetting determination of the initial intention can be more accurately performed, By interacting with the user himself / herself through dialogue, the user can understand the initial intention that led to the user's understanding and perform a dialogue that draws the user's attention. It is possible to obey the guide to a safe place without damaging the dignity of the user.

また、前記発話部は、前記徘徊者に対する初期の発話において、前記初期意図を確認するための確認発話を行い、前記発話推定部は、前記確認発話に対する前記徘徊者からの応答発話の内容を推定し、前記行動意図忘却判定部は、前記発話推定部により推定された前記確認発話に対する前記徘徊者からの応答発話の内容に基づき、前記徘徊者が前記初期意図を忘れたか否かを判定するようにしてもよい。   The utterance unit performs a confirmation utterance for confirming the initial intention in an initial utterance to the deaf person, and the utterance estimation unit estimates the content of the response utterance from the deaf person for the confirmation utterance. The behavior intention forgetting determination unit determines whether the deaf person has forgotten the initial intention based on a response utterance from the deaf person with respect to the confirmation utterance estimated by the utterance estimation unit. It may be.

このような構成により、初期意図を確認するための確認発話に対する徘徊者からの応答発話の内容が推定されるので、初期意図の忘却判定をより正確に行うことができる。   With such a configuration, the content of the response utterance from the deaf person with respect to the confirmation utterance for confirming the initial intention is estimated, so that the forgetting determination of the initial intention can be performed more accurately.

また、前記確認発話は、前記初期意図に関連する行動とは異なる行動を促すための発話を含み、前記発話推定部は、前記確認発話に対する前記徘徊者からの応答発話に基づき、前記徘徊者が前記確認発話に従うか否かを推定し、前記行動意図忘却判定部は、前記発話推定部により前記徘徊者が前記確認発話に従うことが推定された場合に、前記徘徊者が前記初期意図を忘れたと判定するようにしてもよい。   The confirmation utterance includes an utterance for encouraging an action different from the action related to the initial intention, and the utterance estimation unit is configured so that the deaf person is based on a response utterance from the deaf person with respect to the confirmation utterance. Estimating whether to follow the confirmation utterance, the behavior intention forgetting determination unit, when it is estimated by the utterance estimation unit that the deaf person follows the confirmation utterance, the deaf person forgot the initial intention You may make it determine.

このような構成により、初期意図に関連する行動とは異なる行動を促すための確認発話が行われ、確認発話に対する徘徊者からの応答発話に基づき、徘徊者が確認発話に従うか否かが推定され、徘徊者が確認発話に従うことが推定された場合に、徘徊者が初期意図を忘れたと判定しているので、徘徊を始めるに至った初期意図を徘徊者に思い出させることなく、初期意図の忘却判定をより正確に行うことができるとともに、徘徊者を初期意図とは異なる行動に誘導することができるので、安全が確保された誘導場所に徘徊者をより容易に誘導することができる。   With such a configuration, a confirmation utterance for promoting an action different from the action related to the initial intention is performed, and based on the response utterance from the deaf person to the confirmation utterance, it is estimated whether or not the deaf person follows the confirmation utterance. If it is estimated that the user will follow the confirmation utterance, it is determined that the user has forgotten the initial intention. Forgetting the initial intention without reminding the user of the initial intention to start the user Since the determination can be performed more accurately and the deaf person can be guided to a behavior different from the initial intention, the deaf person can be more easily guided to a guide place where safety is ensured.

また、前記発話部は、前記確認発話の内容を実際に行うための指示内容を含む映像又は音声を出力することにより、前記徘徊者を前記誘導場所に誘導するようにしてもよい。   In addition, the utterance unit may guide the deaf person to the guidance location by outputting video or audio including instruction content for actually performing the content of the confirmation utterance.

このような構成により、初期意図に関連する行動とは異なる行動を促すための確認発話の内容を実際に行うための指示内容を含む映像又は音声を出力しているので、徘徊者に初期意図とは異なる行動を確実に行わせることができ、安全が確保された誘導場所に徘徊者をより確実に誘導することができる。   With such a configuration, since the video or audio including the instruction content for actually performing the content of the confirmation utterance for promoting the action different from the action related to the initial intention is output, Can reliably perform different actions, and can more reliably guide the deaf person to a secure guidance location.

また、前記発話部は、前記行動意図忘却判定部により前記徘徊者が前記初期意図を忘れたと判定された場合、前記徘徊者に対して、前記誘導場所に前記徘徊者を誘導する誘導発話を行うようにしてもよい。   In addition, when the behavior intention forgetting determination unit determines that the deaf person has forgotten the initial intention, the utterance unit performs a guided utterance that guides the deaf person to the guidance location. You may do it.

このような構成により、誘導場所に徘徊者を誘導する誘導発話を行っているので、安全が確保された誘導場所に徘徊者をより確実に誘導することができる。   With such a configuration, since the guidance utterance that guides the deaf person to the guide place is performed, the deaf person can be more reliably guided to the guide place where safety is ensured.

また、前記発話部は、前記徘徊者の誘導が継続中である場合、前記徘徊者が前記誘導に従っているか否かを確認するための誘導確認発話を行うようにしてもよい。   The utterance unit may perform guidance confirmation utterance for confirming whether or not the deaf person is following the guidance when the deaf person's guidance is ongoing.

このような構成により、徘徊者の誘導中に、徘徊者が誘導に従っているか否かを確認するための誘導確認発話を行っているので、徘徊抑制装置による徘徊者の安全な誘導場所までの誘導をより確実に行うことが可能となる。   With such a configuration, since the guidance confirmation utterance for confirming whether or not the user follows the guidance is performed during the guidance of the user, the guidance to the safe guidance location of the user by the bag suppression device is performed. This can be performed more reliably.

また、上記の徘徊抑制装置は、前記建物の内部を移動するための移動部をさらに備え、前記徘徊抑制装置は、前記行動意図忘却判定部により前記徘徊者が前記初期意図を忘れたと判定された場合、前記移動部を用いて前記徘徊者に同伴しながら移動することにより、前記徘徊者を前記誘導場所まで誘導するようにしてもよい。   In addition, the wrinkle suppression device further includes a moving unit for moving inside the building, and the wrinkle suppression device is determined by the behavior intention forgetting determination unit that the deaf person has forgotten the initial intention. In this case, the user may be guided to the guide location by moving while being accompanied by the user using the moving unit.

このような構成により、徘徊者が初期意図を忘れたと判定された場合に、徘徊者に同伴しながら移動することができるので、徘徊抑制装置による徘徊者の安全な誘導場所までの誘導をより確実に行うことが可能となる。   With such a configuration, when it is determined that the user has forgotten the initial intention, the user can move while accompanying the user, so that the user can more reliably guide the user to the safe guide location by the device. Can be performed.

また、上記の徘徊抑制装置は、前記徘徊者に対して身振りを示す可動部をさらに備え、前記可動部は、前記発話部による前記発話の内容に応じて、前記徘徊者に対して身振りを示すための動作を行うようにしてもよい。   In addition, the wrinkle suppression device further includes a movable part that shows a gesture to the deaf person, and the movable part shows a gesture to the deaf person according to the content of the utterance by the utterance part. You may make it perform operation | movement for this.

このような構成により、身振りを伴う発話を行うことができるので、耳の悪い徘徊者や、音声報知だけでは興味を示さない徘徊者に対しても、注意を引きつけることができる。   With such a configuration, it is possible to perform utterances with gestures, so that it is possible to attract attention to a deaf person who is poor in hearing or a deaf person who is not interested only by voice notification.

また、前記発話部は、音声を出力する音声出力部に対して前記発話の内容を表す情報を出力することによって、前記発話を音声により出力するようにしてもよい。   Further, the utterance unit may output the utterance by voice by outputting information representing the content of the utterance to a voice output unit that outputs voice.

このような構成により、音声による発話を具体的に実現することが可能となり、目の悪い徘徊者や、映像表示だけでは興味を示さない徘徊者に対しても、注意を引きつけることができる。   With such a configuration, it is possible to concretely realize speech utterance, and it is possible to attract attention to a poor user who has poor eyes or a deaf person who is not interested only by video display.

また、前記発話部は、映像を出力する映像出力部に対して前記発話の内容を表す情報を出力することによって、前記発話を映像により出力するようにしてもよい。   The utterance unit may output the utterance as a video by outputting information representing the content of the utterance to a video output unit that outputs the video.

このような構成により、映像による発話を具体的に実現することが可能となり、耳の悪い徘徊者や、音声報知だけでは興味を示さない徘徊者に対しても、注意を引きつけることができる。   With such a configuration, it is possible to specifically realize the utterance by the video, and it is possible to attract attention to a deaf person who is poor in hearing or a deaf person who does not show interest only by voice notification.

また、上記の徘徊抑制装置は、前記徘徊者に携帯又は装着された行動通知装置から送信される、前記徘徊者の行動に関する行動情報に基づき、前記徘徊者を検出する徘徊者検出部をさらに備えるようにしてもよい。   In addition, the wrinkle suppression device further includes a deaf person detection unit that detects the deaf person based on behavior information related to the deaf person's behavior that is transmitted from an action notification device that is carried or worn by the deaf person. You may do it.

このような構成により、徘徊者の行動に関する行動情報から徘徊者を検出することができるので、徘徊者をより正確に検出することができる。   With such a configuration, the deaf person can be detected from the behavior information related to the deer's behavior, so that the deaf person can be detected more accurately.

また、上記の徘徊抑制装置は、前記所定の領域の画像を受信し、前記画像を解析することにより、前記徘徊者を検出する徘徊者検出部をさらに備えるようにしてもよい。   The wrinkle suppression device may further include a deaf person detection unit that detects the deaf person by receiving the image of the predetermined region and analyzing the image.

このような構成により、徘徊者は行動通知装置等の付加装置を携帯又は装着する必要がなくなり、徘徊者に不要な負担をかけることなく、徘徊者を検出することができる。   With such a configuration, it is not necessary for the deaf person to carry or wear an additional device such as an action notification device, and the decoy can be detected without placing an unnecessary burden on the deaf person.

また、前記発話推定部は、対話内容を定義したルール情報を参照することにより、前記応答発話の内容を推定するようにしてもよい。   Further, the utterance estimation unit may estimate the content of the response utterance by referring to rule information that defines the conversation content.

このような構成により、簡易な手段によって徘徊者の発話内容を理解することが可能となる。   With such a configuration, it is possible to understand the content of the utterance of the deaf person by simple means.

また、前記発話推定部は、再帰的ニューラルネットワークにより生成された対話モデルを用いることにより、前記応答発話の内容を推定するようにしてもよい。   Further, the utterance estimation unit may estimate the content of the response utterance by using a dialogue model generated by a recursive neural network.

このような構成により、徘徊者の発話内容をより正確に理解することが可能となる。   With such a configuration, it is possible to understand the content of the utterance of the deaf person more accurately.

また、本開示は、以上のような特徴的な構成を備える徘徊抑制装置として実現することができるだけでなく、徘徊抑制装置が備える特徴的な構成に対応する特徴的な処理を実行する徘徊抑制方法などとして実現することもできる。また、このような徘徊抑制方法に含まれる特徴的な処理をコンピュータに実行させるコンピュータプログラムとして実現することもできる。したがって、以下の他の態様でも、上記の徘徊抑制装置と同様の効果を奏することができる。   In addition, the present disclosure can be realized not only as a wrinkle suppression device having the above-described characteristic configuration, but also a wrinkle suppression method that executes characteristic processing corresponding to the characteristic configuration of the wrinkle suppression device. It can also be realized as such. It can also be realized as a computer program that causes a computer to execute characteristic processing included in such a wrinkle suppression method. Therefore, effects similar to those of the above-described wrinkle suppression device can be obtained also in the following other aspects.

本開示の他の態様に係る徘徊抑制方法は、徘徊者による徘徊を抑制するための徘徊抑制装置における徘徊抑制方法であって、建物の内部の所定の領域において前記徘徊者が検出されたときに、検出された前記徘徊者に対する発話を音声又は映像の少なくとも一方により出力し、前記徘徊者との対話の開始からの経過時間に基づき、前記徘徊者が徘徊を始めるに至った初期意図を忘れたか否かを判定し、前記徘徊者が前記初期意図を忘れたと判定した場合、所定の誘導場所に前記徘徊者を誘導するための発話を音声又は映像の少なくとも一方により出力する。   A wrinkle suppression method according to another aspect of the present disclosure is a wrinkle suppression method in a wrinkle suppression device for suppressing wrinkles by a wanderer, when the wrinkle is detected in a predetermined area inside a building. Was the detected utterance to the deaf person output by at least one of audio or video and forgot the initial intention that the deaf person started to deaf based on the elapsed time from the start of the dialogue with the deaf person? If it is determined that the user has forgotten the initial intention, an utterance for guiding the user to a predetermined guidance location is output by voice or video.

本開示の他の態様に係る徘徊抑制プログラムは、徘徊者による徘徊を抑制するための徘徊抑制装置として、コンピュータを機能させるための徘徊抑制プログラムであって、前記コンピュータに、建物の内部の所定の領域において前記徘徊者が検出されたときに、検出された前記徘徊者に対する発話を音声又は映像の少なくとも一方により出力し、前記徘徊者との対話の開始からの経過時間に基づき、前記徘徊者が徘徊を始めるに至った初期意図を忘れたか否かを判定し、前記徘徊者が前記初期意図を忘れたと判定した場合、所定の誘導場所に前記徘徊者を誘導するための発話を音声又は映像の少なくとも一方により出力する、処理を実行させる。   A wrinkle suppression program according to another aspect of the present disclosure is a wrinkle suppression program for causing a computer to function as a wrinkle suppression device for suppressing wrinkles by a deaf person. When the deaf person is detected in the area, the detected utterance for the deaf person is output by at least one of audio and video, and based on the elapsed time from the start of the dialogue with the deaf person, It is determined whether or not the initial intention that led to the start of the habit has been forgotten, and if it is determined that the deaf person has forgotten the initial intention, an utterance for guiding the deaf person to a predetermined guidance location is expressed by voice or video. The process of outputting by at least one is executed.

そして、上記のようなコンピュータプログラムを、CD−ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。   Needless to say, the above-described computer program can be distributed via a computer-readable non-transitory recording medium such as a CD-ROM or a communication network such as the Internet.

また、本開示の一実施の形態に係る徘徊抑制装置の構成要素の一部とそれ以外の構成要素とを複数のコンピュータに分散させたシステムとして構成してもよい。   Moreover, you may comprise as a system which disperse | distributed a part of component of the wrinkle suppression apparatus which concerns on one embodiment of this indication, and the other component to several computers.

なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、全ての実施の形態において、各々の内容を組み合わせることもできる。   Note that each of the embodiments described below shows a specific example of the present disclosure. Numerical values, shapes, components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements. In all the embodiments, the contents can be combined.

(実施の形態)
以下、本開示の実施の形態について、図面を参照しながら説明する。図1は、本開示の一実施の形態に係る徘徊抑制装置を用いた徘徊抑制システムの全体構成を示す図である。図1に示す徘徊抑制システム11は、徘徊抑制装置12、徘徊検出器13及び行動通知装置14を備える。
(Embodiment)
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. FIG. 1 is a diagram illustrating an overall configuration of a wrinkle suppression system using a wrinkle suppression device according to an embodiment of the present disclosure. The wrinkle suppression system 11 illustrated in FIG. 1 includes a wrinkle suppression device 12, a wrinkle detector 13, and a behavior notification device 14.

行動通知装置14は、人物HBに携帯又は装着され、人物HBの行動に関する行動情報を発信する。行動情報とは、例えば、人物HBの現在の位置を示す情報や、人物HBが現在までに移動した経路を示す情報であり、人物HBを識別する情報も含む。行動通知装置14は、例えば、RF(Radio Frequency)タグから構成され、人物HBの身体(例えば、足首)又は靴底等に装着される。この場合、行動通知装置14は、近距離無線通信により徘徊検出器13との通信を行う。   The behavior notification device 14 is carried or attached to the person HB and transmits behavior information regarding the behavior of the person HB. The behavior information is, for example, information indicating the current position of the person HB, information indicating the route the person HB has moved to the present time, and includes information for identifying the person HB. The behavior notification device 14 is composed of, for example, an RF (Radio Frequency) tag, and is attached to the body (for example, ankle) of the person HB or the shoe sole. In this case, the behavior notification device 14 communicates with the eyelid detector 13 by short-range wireless communication.

徘徊検出器13は、建物の内部の所定の領域に設置され、徘徊者の検出を行う。徘徊検出器13は、例えば、介護施設、病院、又は自宅等の建物の出口ED付近のような所定の位置に配置され、人物HBを徘徊者として検出する。徘徊検出器13は、例えば、RFタグリーダーから構成され、近距離無線通信により自身の周辺に行動通知装置14の存在を検出した場合に、徘徊者を検出したと判定する。   The scissors detector 13 is installed in a predetermined area inside the building and detects a scissors. The wrinkle detector 13 is disposed at a predetermined position such as near the exit ED of a building such as a nursing facility, a hospital, or a home, and detects the person HB as a widow. The wrinkle detector 13 is composed of, for example, an RF tag reader, and determines that a deaf person has been detected when the presence of the action notification device 14 is detected around itself by short-range wireless communication.

また、徘徊検出器13は、徘徊者を検出したと判定した場合、例えば、有線又は無線の通信回線により接続された徘徊抑制装置12に対して、徘徊者に関する情報である徘徊者情報を送信する。ここで、徘徊者情報は、少なくとも徘徊者を検出した旨の情報を含む。徘徊者情報は、さらに、上記の行動情報、すなわち、徘徊者の現在位置を示す情報、徘徊者が現在までに移動した経路を示す情報、及び徘徊者を識別する情報等を含んでいてもよい。   In addition, when it is determined that the widow has been detected, for example, the wrinkle detector 13 transmits the widow information that is information about the widow to the wrinkle suppression device 12 connected by a wired or wireless communication line. . Here, the deaf person information includes at least information indicating that the deaf person has been detected. The user information may further include the behavior information described above, that is, information indicating the current position of the user, information indicating a route the user has traveled to the present, information for identifying the user, and the like. .

徘徊抑制装置12は、徘徊者と判定された人物HBに対して、徘徊を抑制するための所定の動作、例えば、発話SPを行い、人物HBは、発話SPに対する応答発話ASを行う。具体的には、徘徊抑制装置12は、対話等の所定の動作を行い、徘徊者と判定された人物HBが徘徊を始めるに至った行動意図(初期意図)を忘却したと判定した場合、安全が確保された所定の誘導場所まで人物HBを誘導する。ここで、所定の動作とは、例えば、短期記憶障害を利用して、徘徊者が徘徊を始めるに至った行動意図を忘却させるための発話や映像及び/又は音声の再生等である。徘徊抑制装置12が行う一連の動作の詳細については後述する。   The wrinkle suppression device 12 performs a predetermined operation for suppressing wrinkles, for example, an utterance SP, on the person HB determined to be a deaf person, and the person HB performs a response utterance AS to the utterance SP. Specifically, the wrinkle suppression device 12 performs a predetermined operation such as dialogue, and when it is determined that the person HB determined to be a widow has forgotten the action intention (initial intention) that has led to wrinkles, The person HB is guided to a predetermined guiding place where is secured. Here, the predetermined operation is, for example, an utterance or a video and / or audio reproduction for forgetting a behavioral intention that the deceased has started to make deception using a short-term memory disorder. Details of a series of operations performed by the wrinkle suppression device 12 will be described later.

徘徊抑制装置12は、例えば、ユーザインターフェースを備えた移動型ロボットから構成され、人型ロボットを用いることができる。この場合、徘徊抑制装置12は、人間の頭を模した頭部、人間の手を模した2本の手部、人間の足を模した2本の足部、及び人間の胴体を模した胴体部等を備える。   For example, the wrinkle suppression device 12 includes a mobile robot having a user interface, and a humanoid robot can be used. In this case, the wrinkle suppression device 12 includes a head simulating a human head, two hands simulating a human hand, two legs simulating a human foot, and a body simulating a human torso. Parts.

上記の構成により、徘徊抑制システム11では、人物HBが何らかの行動意図をもって、建物の出口EDから外部に出ようとする際、徘徊検出器13は、人物HBに装着された行動通知装置14を検出し、人物HBを徘徊者として検出する。徘徊検出器13は、人物HBが徘徊者であることを検出すると、その旨を徘徊抑制装置12に送信する。徘徊抑制装置12は、人物HBが徘徊者であることを受信して徘徊者を検出すると、徘徊者(人物HB)に対して話し掛ける等の所定の働きかけ動作を行う。   With the configuration described above, in the wrinkle suppression system 11, the wrinkle detector 13 detects the action notification device 14 attached to the person HB when the person HB is going out of the building ED with some action intention. Then, the person HB is detected as a deaf person. When it is detected that the person HB is a person, the wrinkle detector 13 transmits that fact to the wrinkle suppression device 12. When it is detected that the person HB is a person, the wrinkle suppression device 12 performs a predetermined action such as talking to the person (person HB).

図2は、図1に示す徘徊抑制装置12の一例の構成を示すブロック図である。図2に示す徘徊抑制装置12は、徘徊者情報受信部21、音声取得部22、音声認識部23、発話推定部24、制御部25、行動意図忘却判定部26、発話文生成部27、発話DB(データベース)28、音声合成部29、音声出力部30、映像生成部31、映像出力部32、移動部33、及び可動部34を備える。   FIG. 2 is a block diagram illustrating a configuration of an example of the wrinkle suppression device 12 illustrated in FIG. 1. The wrinkle suppression device 12 shown in FIG. 2 includes a person information receiving unit 21, a voice acquisition unit 22, a voice recognition unit 23, an utterance estimation unit 24, a control unit 25, an action intention forgetting determination unit 26, an utterance sentence generation unit 27, and an utterance. A DB (database) 28, a voice synthesis unit 29, a voice output unit 30, a video generation unit 31, a video output unit 32, a moving unit 33, and a movable unit 34 are provided.

制御部25は、徘徊者情報受信部21、発話推定部24、行動意図忘却判定部26、発話文生成部27、移動部33、及び可動部34を制御することにより、以下に説明する徘徊抑制装置12の動作を制御する。   The control unit 25 controls the wanderer information receiving unit 21, the utterance estimation unit 24, the action intention forgetting determination unit 26, the utterance sentence generation unit 27, the moving unit 33, and the movable unit 34, thereby suppressing the wrinkle suppression described below. Control the operation of the device 12.

なお、図2では、図示を簡略化して、2本の足部と、これらの部材を駆動するアクチュエータ及び駆動回路等とを、移動部33として図示し、2本の手部と、これらの部材を駆動するアクチュエータ及び駆動回路等とを、可動部34として図示している。また、音声出力部30は、人型ロボットの頭部の口部付近に設けられ、映像出力部32は、人型ロボットの胴体部の胸部付近に設けられている。   In FIG. 2, the illustration is simplified, and two legs, an actuator that drives these members, a drive circuit, and the like are illustrated as a moving portion 33, and two hands and these members are shown. An actuator, a drive circuit, and the like for driving are illustrated as a movable portion 34. The audio output unit 30 is provided near the mouth of the head of the humanoid robot, and the video output unit 32 is provided near the chest of the torso of the humanoid robot.

したがって、徘徊抑制装置12は、移動部33により二足歩行可能であり、建物の内部を移動することができる。また、徘徊抑制装置12は、可動部34により徘徊者に対して種々の身振り動作を行いながら、音声出力部30及び/又は映像出力部32により種々の発話を音声及び/又は映像により出力することができる。なお、徘徊抑制装置12の構成は、上記の例に特に限定されず、2本の足に代えて、車輪等を用いて移動可能にしてもよく、種々の変更が可能である。   Therefore, the wrinkle suppression device 12 can be walked on two legs by the moving unit 33 and can move inside the building. In addition, the wrinkle suppression device 12 outputs various utterances by voice and / or video by the voice output unit 30 and / or the video output unit 32 while performing various gestures for the deaf person by the movable unit 34. Can do. In addition, the structure of the wrinkle suppression apparatus 12 is not specifically limited to said example, It may be made to move using a wheel etc. instead of two legs, and various changes are possible.

徘徊者情報受信部21は、徘徊者に携帯又は装着された行動通知装置14から送信される、徘徊者の行動に関する行動情報に基づき、徘徊者を検出する。具体的には、徘徊者情報受信部21は、徘徊検出器13から、徘徊者に関する情報である徘徊者情報を受信し、徘徊者情報に含まれる行動情報に基づき、徘徊者を検出し、制御部25を介して、検出結果や徘徊者情報を発話文生成部27等へ出力する。   The deaf person information receiving unit 21 detects the deaf person based on the action information related to the deer's behavior transmitted from the action notification device 14 carried or attached to the deaf person. Specifically, the deaf person information receiving unit 21 receives deaf person information, which is information related to the deaf person, from the deaf detector 13, detects the deaf person based on the behavior information included in the deaf person information, and performs control. Through the unit 25, the detection result and the deaf person information are output to the utterance sentence generation unit 27 and the like.

発話文生成部27は、建物の内部の所定の領域において徘徊者が検出されたときに、検出された徘徊者に対する発話を音声又は映像の少なくとも一方により出力するための発話文を生成する。発話DB28には、徘徊者として検出され得る複数の人物の各々に対して適切な発話内容(例えば、呼びかけ用の発話文、雑談用の発話文、確認発話用の発話文、誘導発話用の発話文、及び誘導確認発話用の発話文等)がデータベース形式で予め記憶されている。   The utterance sentence generation unit 27 generates an utterance sentence for outputting an utterance to the detected deaf person by at least one of audio and video when a deaf person is detected in a predetermined area inside the building. In the utterance DB 28, utterance content appropriate for each of a plurality of persons that can be detected as a deaf person (for example, a utterance sentence for calling, an utterance sentence for chat, an utterance sentence for confirmation utterance, an utterance for guided utterance) Sentence, utterance sentence for guidance confirmation utterance, etc.) are stored in advance in a database format.

具体的には、発話文生成部27は、徘徊者情報によって徘徊が検出された場合、徘徊者情報に基づいて徘徊者を特定し、特定した徘徊者に適した呼びかけ用の発話文を、発話DB28(例えば、呼びかけ用の発話文)を参照して生成し、音声合成部29へ出力する。なお、発話文生成部27の構成は、上記の例に特に限定されず、発話DB28を省略して発話DB28を参照することなく、発話文を生成したり、外部のサーバに蓄積された呼びかけ用の発話文、雑談用の発話文、確認発話用の発話文、誘導発話用の発話文、又は誘導確認発話用の発話文等を参照したりする等の種々の変更が可能である。   Specifically, when the utterance is detected based on the utterance information, the utterance sentence generation unit 27 identifies the utterance based on the utterance information, and utters an utterance sentence suitable for the identified utterance. It is generated with reference to the DB 28 (for example, an utterance sentence for calling) and output to the speech synthesizer 29. Note that the configuration of the utterance sentence generation unit 27 is not particularly limited to the above example, and the utterance DB 28 is omitted and the utterance sentence is generated without referring to the utterance DB 28, or the call sentence stored in the external server It is possible to make various changes such as referring to the utterance sentence, the utterance sentence for chat, the utterance sentence for confirmation utterance, the utterance sentence for guidance utterance, or the utterance sentence for guidance confirmation utterance.

音声合成部29は、発話文に応じた音声を合成して音声出力部30へ出力する。音声出力部30は、例えば、スピーカ等から構成され、音声合成部29が合成した音声を出力する。   The voice synthesizer 29 synthesizes a voice corresponding to the uttered sentence and outputs the synthesized voice to the voice output unit 30. The audio output unit 30 includes, for example, a speaker and outputs the audio synthesized by the audio synthesis unit 29.

また、発話文生成部27は、生成した発話文を映像生成部31へ出力してもよい。この場合、映像生成部31は、発話文に応じたテキスト形式の文字列画像を生成して映像出力部32へ出力する。映像出力部32は、例えば、ディスプレイ等から構成され、映像生成部31が生成した文字列画像を出力する。   Further, the utterance sentence generation unit 27 may output the generated utterance sentence to the video generation unit 31. In this case, the video generation unit 31 generates a character string image in a text format corresponding to the uttered sentence and outputs it to the video output unit 32. The video output unit 32 is composed of, for example, a display and outputs a character string image generated by the video generation unit 31.

このようにして、本実施の形態では、建物の内部の所定の領域において徘徊者が検出されたときに、検出された徘徊者に対する発話を音声又は映像の少なくとも一方により出力して徘徊者への話し掛けを開始し、初期意図を確認するための確認発話として、徘徊者に対する呼びかけを行う。   In this way, in the present embodiment, when a deaf person is detected in a predetermined area inside the building, an utterance for the detected deaf person is output by at least one of audio or video to Start talking and call the deaf person as a confirmation utterance to confirm the initial intention.

音声取得部22は、マイク等から構成され、上記の呼びかけ等の発話に対して、徘徊者が応答発話を行った場合、徘徊者からの応答発話の音声を取得して音声認識部23へ出力する。音声認識部23は、応答発話の音声を音声認識して文字列からなるテキストデータを生成して発話推定部24へ出力する。発話推定部24は、テキストデータから応答発話の内容を推定し、制御部25を介して推定結果を行動意図忘却判定部26及び発話文生成部27へ出力する。   The voice acquisition unit 22 is composed of a microphone or the like, and when the deaf person makes a response utterance in response to the utterance such as the above call, the sound of the response utterance from the deaf person is acquired and output to the voice recognition unit 23. To do. The voice recognition unit 23 recognizes the voice of the response utterance, generates text data including a character string, and outputs the text data to the utterance estimation unit 24. The utterance estimation unit 24 estimates the content of the response utterance from the text data, and outputs the estimation result to the action intention forgetting determination unit 26 and the utterance sentence generation unit 27 via the control unit 25.

このとき、発話文生成部27は、発話DB28を参照して、推定された応答発話の内容に応じて徘徊者に対する発話文を生成して音声合成部29へ出力する。音声合成部29は、発話文に応じた音声を合成して音声出力部30へ出力し、音声出力部30は、発話文生成部27により生成された発話文の読み上げを行い、徘徊者に対する発話を行う。   At this time, the utterance sentence generation unit 27 refers to the utterance DB 28, generates an utterance sentence for the deaf person according to the estimated content of the response utterance, and outputs the utterance sentence to the speech synthesis unit 29. The voice synthesizer 29 synthesizes a voice corresponding to the utterance sentence and outputs the synthesized voice to the voice output part 30. The voice output part 30 reads out the utterance sentence generated by the utterance sentence generator 27 and utters the utterance to the deaf person. I do.

例えば、音声出力部30等を用いて徘徊者への話し掛けを開始し、徘徊者からの応答発話があった場合、発話推定部24は、音声取得部22等を用いて、徘徊者からの応答発話を取得して応答発話の内容を推定し、発話文生成部27は、推定された応答発話の内容に関連する発話文を生成して音声合成部29へ出力する。音声出力部30は、音声合成部29により合成された音声を用いて、徘徊者との対話を継続させるために、応答発話の内容に関連する雑談等の発話を行う。ここで、発話推定部24が推定する発話の内容には、徘徊者が徘徊を始めるに至った行動意図(初期意図)が含まれる。   For example, when talking to the deaf person is started using the voice output unit 30 or the like, and there is a response utterance from the deaf person, the utterance estimation unit 24 uses the voice acquisition unit 22 or the like to reply from the deaf person The utterance is acquired and the content of the response utterance is estimated, and the utterance sentence generation unit 27 generates an utterance sentence related to the estimated content of the response utterance and outputs it to the speech synthesizer 29. The voice output unit 30 uses the voice synthesized by the voice synthesis unit 29 to utter a chat or the like related to the content of the response utterance in order to continue the dialogue with the deaf person. Here, the content of the utterance estimated by the utterance estimation unit 24 includes the action intention (initial intention) that led the user to start the habit.

上記の発話内容の推定や、推定した発話内容に応じた発話文の生成は、例えば、対話内容を定義したルール情報を参照することや、再帰的ニューラルネットワークにより対話モデルを生成することにより実現できる。   The estimation of the utterance content and the generation of the utterance sentence according to the estimated utterance content can be realized, for example, by referring to the rule information defining the conversation content or by generating the conversation model by a recursive neural network. .

すなわち、発話推定部24は、対話内容を定義したルール情報を予め内部のメモリに記憶し、このルール情報を参照することにより、応答発話の内容を推定するようにしてもよい。また、発話推定部24は、再帰的ニューラルネットワークにより生成された対話モデルを用いることにより、応答発話の内容を推定するようにしてもよい。同様に、発話文生成部27は、推定した発話内容に応じた発話文を定義したルール情報を予め内部のメモリに記憶し、このルール情報を参照することにより、推定した発話内容に応じた発話文を生成するようにしてもよい。また、発話文生成部27は、再帰的ニューラルネットワークにより生成された対話モデルを用いることにより、推定した発話内容に応じた発話文を生成するようにしてもよい。   That is, the utterance estimation unit 24 may store rule information defining conversation contents in an internal memory in advance, and estimate the contents of response utterances by referring to the rule information. Further, the utterance estimation unit 24 may estimate the content of the response utterance by using a dialogue model generated by a recursive neural network. Similarly, the utterance sentence generation unit 27 stores rule information that defines an utterance sentence corresponding to the estimated utterance content in an internal memory in advance, and refers to this rule information to thereby utter an utterance corresponding to the estimated utterance content. A sentence may be generated. Further, the utterance sentence generation unit 27 may generate an utterance sentence corresponding to the estimated utterance content by using a dialogue model generated by a recursive neural network.

行動意図忘却判定部26は、徘徊者が初期意図を忘却したか否かの判定を行い、判定結果を制御部25へ出力する。初期意図を忘却したか否かの意図の判定は、例えば、徘徊者との対話の開始から一定時間が経過したか否かにより行う。この場合、行動意図忘却判定部26は、制御部25を介して、発話推定部24から徘徊者との対話内容を取得し、内部のタイマー等を用いて対話の開始時刻を取得し、対話の開始から一定時間が経過した場合、徘徊者が初期意図を忘却したと判定する。このような判定は、一定時間(例えば、5分、好ましくは、10分、より好ましくは、20分)の対話を継続することにより、徘徊者は初期意図を忘却するという特性に基づくものである。   The behavior intention forgetting determination unit 26 determines whether or not the user has forgotten the initial intention and outputs the determination result to the control unit 25. The determination of whether or not the initial intention has been forgotten is performed based on, for example, whether or not a certain time has elapsed since the start of the dialogue with the user. In this case, the action intention forgetting determination unit 26 acquires the conversation content with the deaf person from the utterance estimation unit 24 via the control unit 25, acquires the start time of the dialog using an internal timer, etc. When a certain time has elapsed from the start, it is determined that the user has forgotten the initial intention. Such a determination is based on the characteristic that the user forgets the initial intention by continuing the dialogue for a certain period of time (for example, 5 minutes, preferably 10 minutes, more preferably 20 minutes). .

具体的には、行動意図忘却判定部26は、対話を始めてから、行動意図に関連する行動とは異なる行動を促すための確認発話や安全が確保された所定の誘導場所に徘徊者を誘導する誘導発話を行わず、一定時間が経過した場合、又は、前回の誘導発話から一定時間が経過した場合には、徘徊者が初期意図を忘却したと判定し、判定結果を制御部25へ出力する。   Specifically, the behavior intention forgetting determination unit 26 guides the deaf person to a predetermined guidance place where a confirmation utterance for promoting an action different from the action related to the action intention or a safety is ensured after starting the dialogue. When a fixed time has elapsed without performing the guided utterance, or when a fixed time has elapsed since the previous guided utterance, it is determined that the user has forgotten the initial intention, and the determination result is output to the control unit 25. .

なお、初期意図を忘却したか否かの意図の判定方法は、上記の例に特に限定されず、上記の時間経過の判断に代えて、又は、上記の時間経過の判断に加えて、例えば、徘徊者による発話の内容に基づいて行ってもよい。この場合、行動意図忘却判定部26は、発話推定部24が推定した応答発話の内容が初期意図と無関係な内容である場合、徘徊者が初期意図を忘却したと判定してもよい。   In addition, the determination method of the intention whether or not the initial intention has been forgotten is not particularly limited to the above example. Instead of the determination of the passage of time or in addition to the determination of the passage of time, for example, You may perform based on the content of the utterance by a deaf person. In this case, when the content of the response utterance estimated by the utterance estimation unit 24 is irrelevant to the initial intention, the behavior intention forgetting determination unit 26 may determine that the user has forgotten the initial intention.

また、徘徊者に対する初期の発話において、発話文生成部27は、初期意図を確認するための確認発話用の発話文を生成し、音声出力部30は、音声合成部29により合成された確認発話を出力し、発話推定部24は、確認発話に対する徘徊者の応答発話の内容を推定し、行動意図忘却判定部26は、確認発話に対する徘徊者からの応答発話の内容が初期意図と無関係な場合、徘徊者が初期意図を忘却したと判定してもよい。   In the initial utterance to the deaf person, the utterance sentence generation unit 27 generates an utterance sentence for confirmation utterance for confirming the initial intention, and the voice output unit 30 confirms the utterance confirmed by the voice synthesizer 29. , The utterance estimation unit 24 estimates the content of the user's response utterance with respect to the confirmation utterance, and the behavior intention forgetting determination unit 26 determines that the content of the response utterance from the user with respect to the confirmation utterance is irrelevant to the initial intention. It may be determined that the user has forgotten the initial intention.

次に、対話を始めてから一定時間が経過し、行動意図忘却判定部26により徘徊者が初期意図を忘却したと判定された場合、発話文生成部27は、制御部25を介して判定結果を取得し、発話DB28を参照して、初期意図に関連する行動とは異なる行動を促すための確認発話用の発話文を生成して音声合成部29へ出力する。音声合成部29は、確認発話用の発話文に応じた音声を合成して音声出力部30へ出力し、音声出力部30は、確認発話を音声により出力する。   Next, when a certain period of time has elapsed from the start of the conversation and the behavior intention forgetting determination unit 26 determines that the deaf person has forgotten the initial intention, the utterance sentence generation unit 27 displays the determination result via the control unit 25. Acquired, referring to the utterance DB 28, generates an utterance sentence for confirmation utterance for encouraging an action different from the action related to the initial intention, and outputs it to the speech synthesizer 29. The voice synthesizing unit 29 synthesizes a voice corresponding to the utterance sentence for the confirmation utterance and outputs the synthesized voice to the voice output unit 30, and the voice output unit 30 outputs the confirmation utterance by voice.

ここで、発話文生成部27は、生成した確認発話用の発話文を映像生成部31へ出力してもよい。この場合、映像生成部31は、確認発話用の発話文に応じたテキスト形式の文字列画像を生成して映像出力部32へ出力し、映像出力部32は、確認発話を映像により出力する。   Here, the utterance sentence generation unit 27 may output the generated utterance sentence for confirmation utterance to the video generation unit 31. In this case, the video generation unit 31 generates a text-format character string image corresponding to the utterance sentence for the confirmation utterance and outputs it to the video output unit 32. The video output unit 32 outputs the confirmation utterance as a video.

上記の確認発話に対して徘徊者が応答発話を行った場合、音声取得部22は、確認発話に対する徘徊者からの応答発話の音声を取得して音声認識部23へ出力し、音声認識部23は、応答発話の音声を音声認識して文字列からなるテキストデータを生成して発話推定部24へ出力する。発話推定部24は、音声認識されたテキストデータから徘徊者が確認発話に従うか否かを推定し、制御部25を介して推定結果を発話文生成部27へ出力する。   When the deaf person makes a response utterance in response to the confirmation utterance, the voice acquisition unit 22 acquires the response utterance voice from the deaf person in response to the confirmation utterance and outputs the voice to the voice recognition unit 23. Recognizes the voice of the response utterance, generates text data composed of a character string, and outputs the text data to the utterance estimation unit 24. The utterance estimation unit 24 estimates whether or not the user follows the confirmation utterance from the text data that has been voice-recognized, and outputs the estimation result to the utterance sentence generation unit 27 via the control unit 25.

また、発話推定部24は、制御部25を介して推定結果を行動意図忘却判定部26へ出力し、行動意図忘却判定部26は、発話推定部24により徘徊者が異なる行動を促す確認発話に従うことが推定された場合、徘徊者が初期意図を忘却したと判定するようにしてよい。   Further, the utterance estimation unit 24 outputs the estimation result to the behavior intention forgetting determination unit 26 via the control unit 25, and the behavior intention forgetting determination unit 26 follows the confirmation utterance in which the deaf person promotes different actions. If it is estimated, it may be determined that the deaf person has forgotten the initial intention.

徘徊者が確認発話に従うと判定された場合、発話文生成部27は、発話DB28を参照して、安全が確保された誘導場所に徘徊者を誘導する誘導発話用の発話文を生成して音声合成部29へ出力する。音声合成部29は、誘導発話用の発話文に応じた音声を合成して音声出力部30へ出力し、音声出力部30は、誘導発話を音声により出力する。   When it is determined that the deaf person follows the confirmation utterance, the utterance sentence generation unit 27 refers to the utterance DB 28, generates a utterance sentence for the guidance utterance that guides the deaf person to the guidance place where safety is ensured, and performs speech. The data is output to the combining unit 29. The voice synthesizer 29 synthesizes the voice corresponding to the utterance sentence for the guided utterance and outputs the synthesized voice to the voice output unit 30, and the voice output unit 30 outputs the guided utterance by voice.

ここで、発話文生成部27は、生成した誘導発話用の発話文を映像生成部31へ出力してもよい。この場合、映像生成部31は、誘導発話用の発話文に応じたテキスト形式の文字列画像を生成して映像出力部32へ出力し、映像出力部32は、誘導発話を映像により出力する。   Here, the utterance sentence generator 27 may output the generated utterance sentence for the guided utterance to the video generator 31. In this case, the video generation unit 31 generates a text-format character string image corresponding to the utterance sentence for the guided utterance and outputs it to the video output unit 32. The video output unit 32 outputs the guided utterance as a video.

上記のようにして、徘徊抑制装置12は、徘徊者が確認発話に素直に従うようであれば、安全が確保された誘導場所まで誘導を行い、確認発話に従わないようであれば、再度対話を継続させた後に、再度確認発話を試みる。   As described above, the wrinkle suppression device 12 guides to a guidance place where safety is ensured if the deaf person obeys the confirmation utterance, and re-interacts if he does not follow the confirmation utterance. After continuing, try the confirmation utterance again.

次に、上記の誘導発話に対して徘徊者が応答発話を行った場合、音声取得部22は、誘導発話に対する徘徊者からの応答発話の音声を取得して音声認識部23へ出力し、音声認識部23は、応答発話の音声を音声認識して文字列からなるテキストデータを生成して発話推定部24へ出力する。発話推定部24は、音声認識されたテキストデータから徘徊者が誘導発話に従うか否かを推定し、推定結果を制御部25へ出力する。   Next, when the deaf person makes a response utterance in response to the above-described guided utterance, the voice acquisition unit 22 acquires the voice of the response utterance from the deaf person in response to the induced utterance, and outputs the voice to the voice recognition unit 23. The recognition unit 23 recognizes the voice of the response utterance, generates text data including a character string, and outputs the text data to the utterance estimation unit 24. The utterance estimation unit 24 estimates whether or not the user follows the guided utterance from the speech-recognized text data, and outputs the estimation result to the control unit 25.

徘徊者が誘導発話に従うと判定された場合、制御部25は、安全が確保された誘導場所まで移動するように移動部33を制御する。このようにして、徘徊抑制装置12は、行動意図忘却判定部26により徘徊者が初期意図を忘れたと判定されるとともに、徘徊者が誘導発話による誘導に従うと判定された場合、移動部33を用いて徘徊者に同伴しながら移動することにより、徘徊者を誘導場所まで誘導する。   When it is determined that the deaf person follows the guided utterance, the control unit 25 controls the moving unit 33 so as to move to the guidance location where safety is ensured. In this manner, the wrinkle suppression device 12 uses the moving unit 33 when it is determined by the behavior intention forgetting determination unit 26 that the user has forgotten the initial intention and when the user is determined to follow the guidance by the guided utterance. The person is guided to the guidance place by moving while accompanying the person.

可動部34は、2本の手部等を用いて、徘徊者に対して身振りを示し、例えば、徘徊者への肩叩き動作や誘導場所までの誘導動作等を行う。具体的には、可動部34は、制御部25により制御され、音声出力部30又は映像出力部32による発話の内容に応じて、徘徊者に対して身振りを示すための動作を行う。   The movable part 34 shows gestures to the deaf person using two hands, etc., and performs, for example, a shoulder hitting operation to the deaf person and a guide operation to the guide place. Specifically, the movable unit 34 is controlled by the control unit 25 and performs an operation for gesturing the deaf person according to the content of the utterance by the audio output unit 30 or the video output unit 32.

また、発話文生成部27は、徘徊者の誘導が継続中である場合、発話DB28を参照して、徘徊者が誘導に従っているか否かを確認するための誘導確認発話用の発話文を生成して音声合成部29へ出力する。音声合成部29は、誘導確認発話用の発話文に応じた音声を合成して音声出力部30へ出力し、音声出力部30は、誘導確認発話を音声により出力する。   In addition, when the user's guidance is continuing, the utterance sentence generation unit 27 refers to the utterance DB 28 and generates an utterance sentence for the guidance confirmation utterance for confirming whether or not the user follows the guidance. To the speech synthesizer 29. The voice synthesizing unit 29 synthesizes voice corresponding to the utterance sentence for the guidance confirmation utterance and outputs the synthesized voice to the voice output unit 30. The voice output unit 30 outputs the guidance confirmation utterance by voice.

ここで、発話文生成部27は、生成した誘導確認発話用の発話文を映像生成部31へ出力してもよい。この場合、映像生成部31は、誘導確認発話用の発話文に応じたテキスト形式の文字列画像を生成して映像出力部32へ出力し、映像出力部32は、誘導確認発話を映像により出力する。   Here, the utterance sentence generation unit 27 may output the generated utterance sentence for the guidance confirmation utterance to the video generation unit 31. In this case, the video generation unit 31 generates a text string image corresponding to the utterance sentence for the guidance confirmation utterance and outputs it to the video output unit 32. The video output unit 32 outputs the guidance confirmation utterance as a video. To do.

上記のようにして、徘徊抑制装置12は、誘導確認発話から徘徊者が誘導発話に素直に従うと判定した場合、安全が確保された誘導場所まで誘導を継続し、誘導発話に従わないと判定した場合、再度対話を継続させた後に、再度誘導を試みる。   As described above, when it is determined from the guidance confirmation utterance that the deaf person obeys the guidance utterance, the heel suppression device 12 continues the guidance to the guidance location where safety is ensured and determines that the guidance utterance is not followed. If this happens, try again after continuing the conversation again.

上記のように構成された徘徊抑制装置12では、発話文生成部27、発話DB28、音声合成部29、及び映像生成部31が発話部の一例に相当し、行動意図忘却判定部26が行動意図忘却判定部の一例に相当し、音声取得部22、音声認識部23、及び発話推定部24が発話推定部の一例に相当し、制御部25及び移動部33が移動部の一例に相当し、制御部25及び可動部34が可動部の一例に相当し、音声出力部30が音声出力部の一例に相当し、映像出力部32が映像出力部の一例に相当し、徘徊者情報受信部21が徘徊者検出部の一例に相当する。   In the wrinkle suppression device 12 configured as described above, the utterance sentence generation unit 27, the utterance DB 28, the speech synthesis unit 29, and the video generation unit 31 correspond to an example of the utterance unit, and the action intention forgetting determination unit 26 sets the action intention. It corresponds to an example of a forgetting determination unit, the voice acquisition unit 22, the voice recognition unit 23, and the utterance estimation unit 24 correspond to an example of an utterance estimation unit, the control unit 25 and the movement unit 33 correspond to an example of a movement unit, The control unit 25 and the movable unit 34 correspond to an example of a movable unit, the audio output unit 30 corresponds to an example of an audio output unit, the video output unit 32 corresponds to an example of a video output unit, and the visitor information receiving unit 21. Corresponds to an example of a deaf person detection unit.

図3は、図1に示す徘徊抑制装置による徘徊抑制処理の一例を示すフローチャートである。   FIG. 3 is a flowchart illustrating an example of wrinkle suppression processing by the wrinkle suppression device illustrated in FIG. 1.

図3に示すように、徘徊抑制装置12は、まず、待機状態にあり(S31)、所定の間隔で、徘徊者を検出したか否かの判定を行う(S32)。徘徊者の検出方法として、例えば、徘徊者情報受信部21は、徘徊検出器13が行動通知装置14から発信された行動情報を受信し、徘徊検出器13から行動情報を含む徘徊者情報を受信したか否かを判定することにより行う。   As shown in FIG. 3, the wrinkle suppression device 12 is first in a standby state (S31), and determines whether or not a deaf person has been detected at a predetermined interval (S32). As a method for detecting the deaf person, for example, the deaf person information receiving unit 21 receives the behaviour information including the action information from the beak detector 13 by receiving the behaviour information transmitted from the behaviour detector 13. This is done by determining whether or not it has been done.

判定の結果、徘徊者が検出されなかった場合(S32でNo)、徘徊抑制装置12は、待機状態に戻り(S31)、徘徊者を検出したか否かの判定を継続する(S32)。   As a result of the determination, if the deaf person is not detected (No in S32), the wrinkle suppression device 12 returns to the standby state (S31) and continues to determine whether or not the deaf person has been detected (S32).

一方、徘徊者が検出された場合(S32でYes)、徘徊抑制装置12は、音声出力部30等を用いて徘徊者との対話を行う(S33)。徘徊者との対話として、例えば、徘徊抑制装置12は、まず徘徊者への話し掛けの発話を行い、続けて、徘徊者の初期意図を確認するための確認発話を行う。その後、徘徊抑制装置12は、雑談等の発話を行い、徘徊者との対話を継続する。なお、徘徊者との対話に際して、徘徊抑制装置12は、徘徊者の検出された位置の周辺で予め待機していてもよく、所定の待機位置から徘徊者の検出された位置まで移動してもよい。   On the other hand, when a deaf person is detected (Yes in S32), the wrinkle suppression device 12 performs a dialogue with the deaf person using the voice output unit 30 or the like (S33). As a dialogue with the deaf person, for example, the wrinkle suppression device 12 first utters a talk to the deaf person, and then performs a confirmation utterance for confirming the initial intention of the deaf person. After that, the wrinkle suppression device 12 utters chats or the like and continues the dialogue with the widow. In the dialogue with the deaf person, the wrinkle suppression device 12 may wait in advance around the position where the deaf person is detected, or may move from a predetermined standby position to the position where the deaf person is detected. Good.

次に、徘徊抑制装置12の行動意図忘却判定部26は、徘徊者との対話の開始から一定時間が経過したか否かを判定する(S34)。一定時間が経過したか否かの判定方法として、例えば、行動意図忘却判定部26は、内部のタイマー等から対話の開始時刻を取得し、開始時刻と現在時刻との差が所定値を超えたか否かを判定することにより行う。   Next, the behavior intention forgetting determination unit 26 of the wrinkle suppression device 12 determines whether or not a certain time has elapsed since the start of the conversation with the widow (S34). As a method for determining whether or not a certain period of time has elapsed, for example, the behavior intention forgetting determination unit 26 obtains the start time of the conversation from an internal timer or the like, and whether the difference between the start time and the current time exceeds a predetermined value. This is done by determining whether or not.

一定時間が経過したと判定されなかった場合(S34でNo)、ステップS33に戻り、徘徊抑制装置12は、雑談等の発話による徘徊者との対話を継続する。   If it is not determined that the predetermined time has elapsed (No in S34), the process returns to step S33, and the wrinkle suppression device 12 continues the conversation with the deaf person by speaking such as chat.

一方、一定時間が経過したと判定された場合(S34でYes)、行動意図忘却判定部26は、徘徊者が初期意図を忘れたと判定し、徘徊抑制装置12は、音声出力部30等を用いて、初期意図に関連する行動とは異なる行動を促すための確認発話を行い(S35)、発話推定部24は、徘徊者が確認発話に従うか否かを判定する(S36)。徘徊者が確認発話に従うか否かの判定方法として、例えば、発話推定部24は、確認発話に対する徘徊者の応答発話の内容を推定し、推定された発話の内容が確認発話に対する同意を示す内容であるか否かを判定することにより行う。   On the other hand, when it is determined that a certain time has elapsed (Yes in S34), the behavior intention forgetting determination unit 26 determines that the deaf person has forgotten the initial intention, and the wrinkle suppression device 12 uses the audio output unit 30 or the like. Thus, a confirmation utterance for promoting an action different from the action related to the initial intention is performed (S35), and the utterance estimation unit 24 determines whether or not the deaf person follows the confirmation utterance (S36). For example, the utterance estimation unit 24 estimates the content of the user's response utterance to the confirmation utterance, and the content of the estimated utterance indicates consent to the confirmation utterance. This is done by determining whether or not.

徘徊者が確認発話に従わないと判定された場合(S36でNo)、ステップS33に戻り、徘徊抑制装置12は、音声出力部30等を用いて、雑談等の発話による徘徊者との対話を継続する。   When it is determined that the deaf person does not follow the confirmation utterance (No in S36), the process returns to step S33, and the wrinkle suppression device 12 uses the voice output unit 30 or the like to perform a dialogue with the deaf person by utterance such as chat. continue.

一方、徘徊者が確認発話に従うと判定された場合(S36がYes)、徘徊抑制装置12は、音声出力部30等を用いて、安全が確保された誘導場所に徘徊者を誘導する誘導発話を徘徊者に行い、安全が確保された誘導場所に徘徊者を誘導する(S37)。徘徊者への誘導方法として、例えば、徘徊抑制装置12は、移動部33等を用いて、安全が確保された所定の誘導場所まで徘徊者と同伴する。   On the other hand, when it is determined that the deaf person follows the confirmation utterance (Yes in S36), the wrinkle suppression device 12 uses the voice output unit 30 or the like to perform a guided utterance that guides the deaf person to a safe guidance place. The deaf person is guided to the deaf place where safety is ensured (S37). As a guide method for the deaf person, for example, the wrinkle suppression device 12 uses the moving unit 33 or the like to accompany the deaf person to a predetermined guide place where safety is ensured.

ここで、徘徊者への誘導方法は、上記の例に特に限定されず、徘徊抑制装置12は、音声出力部30等を用いて、確認発話の内容を実際に行うための具体的な指示内容を含む発話を映像又は音声により行ったり、可動部34を用いて、誘導発話の内容を実際に行うための支援動作を行ったりするようにしてもよい。   Here, the guidance method for the deaf person is not particularly limited to the above example, and the wrinkle suppression device 12 uses the voice output unit 30 or the like to specifically execute the content of the confirmation utterance. May be performed by video or audio, or the movable unit 34 may be used to perform a support operation for actually performing the content of the guided utterance.

また、所定の誘導場所への誘導を行う場合、発話文生成部27は、現在位置から所定の誘導場所への行き方等を教える発話を音声や映像(画面表示)により行うようにしてもよい。このように、徘徊者への誘導方法として、徘徊抑制装置12が備える能力に応じた動作が行われる。   In addition, when performing guidance to a predetermined guidance location, the utterance sentence generation unit 27 may perform utterance that teaches how to reach the predetermined guidance location from the current position by voice or video (screen display). As described above, as a guidance method for the deaf person, an operation according to the ability of the wrinkle suppression device 12 is performed.

次に、徘徊抑制装置12は、発話や移動により徘徊者への誘導を継続的に行っているときに、徘徊者が誘導に従い続けているか否かを判定する(S38)。誘導に従い続けているか否かの判定方法として、例えば、徘徊抑制装置12は、音声出力部30等を用いて、徘徊者が誘導に従っているか否かを確認するための誘導確認発話を行い、徘徊者が誘導確認発話に対して応答発話を行った場合、発話推定部24は、音声取得部22等を用いて徘徊者からの応答発話を取得して応答発話の内容を推定し、推定された発話の内容が誘導確認発話に対する同意を示す内容であるか否かを判定したり、又は、徘徊者との対話が継続できているか否かを判定したりすることにより行われる。   Next, the wrinkle suppression device 12 determines whether or not the user is following the guidance when continuously guiding the user by speaking or moving (S38). As a method for determining whether or not to continue following the guidance, for example, the wrinkle suppression device 12 uses the voice output unit 30 or the like to perform a guidance confirmation utterance for confirming whether or not the deaf person is following the guidance. Utters a response utterance in response to the guidance confirmation utterance, the utterance estimation unit 24 acquires the response utterance from the deaf person using the voice acquisition unit 22 and the like, estimates the content of the response utterance, and the estimated utterance It is performed by determining whether or not the content of the content indicates consent to the guidance confirmation utterance, or by determining whether or not the dialogue with the deaf person can be continued.

なお、誘導に従い続けているか否かの判定方法は、上記の例に特に限定されず、徘徊抑制装置12に人感センサ等の徘徊者を検出する検出器を設け、徘徊抑制装置12が誘導のための移動を行っている際に、徘徊抑制装置12の位置から所定範囲内の位置に徘徊者が検出されるか否かを判定することにより行うようにしてもよい。   The method for determining whether to continue following the guidance is not particularly limited to the above example, and the wrinkle suppression device 12 is provided with a detector for detecting a deaf person, such as a human sensor, so that the wrinkle suppression device 12 is guided. When performing the movement for this purpose, it may be performed by determining whether or not a deaf person is detected at a position within a predetermined range from the position of the wrinkle suppression device 12.

徘徊者が誘導に従い続けていないと判定された場合(S38でNo)、ステップS33に戻り、徘徊抑制装置12は、雑談等の発話による徘徊者との対話を再度行い、以降の処理を継続する。   If it is determined that the deaf person is not following the guidance (No in S38), the process returns to step S33, and wrinkle suppression device 12 performs the dialogue with the deaf person again by speaking such as chatting and continues the subsequent processing. .

一方、徘徊者が誘導に従い続けていると判定された場合(S38でYes)、徘徊抑制装置12は、誘導が終了したか否かを判定する(S39)。誘導が終了したか否かの判定方法として、例えば、徘徊抑制装置12は、徘徊者を誘導場所まで誘導できたか否かを判定することにより行う。   On the other hand, when it is determined that the deaf person continues to follow the guidance (Yes in S38), the wrinkle suppression device 12 determines whether the guidance is finished (S39). As a method for determining whether or not the guidance has ended, for example, the wrinkle suppression device 12 performs the determination by determining whether or not the user has been guided to the guidance location.

誘導が終了していない場合(S39でNo)、ステップS37に戻り、徘徊抑制装置12は、徘徊者への誘導を継続する。一方、誘導が終了した場合(S39でYes)、徘徊抑制装置12は、徘徊抑制処理を終了し、次の徘徊を抑制するため、例えば、建物の出口の付近に戻る。   If the guidance has not ended (No in S39), the process returns to step S37, and the wrinkle suppression device 12 continues the guidance to the deaf person. On the other hand, when the guidance is completed (Yes in S39), the kite suppression device 12 ends the kite suppression process and returns to the vicinity of the exit of the building, for example, in order to suppress the next kite.

次に、本実施の形態に係る徘徊抑制装置12による、徘徊者との対話の具体例について説明する。なお、以下の例でも、徘徊抑制装置12は移動型ロボットであるとして説明している。   Next, a specific example of the dialogue with the deaf person by the wrinkle suppression device 12 according to the present embodiment will be described. In the following example, the wrinkle suppression device 12 is described as a mobile robot.

まず、徘徊抑制装置12は、徘徊者であると判定された人物HBに対して、呼びかけの発話を行う。呼びかけの発話は、例えば「おでかけですか?どこに行くんですか?」といったものである。   First, the wrinkle suppression device 12 utters a call to the person HB determined to be a widow. The call utterance is, for example, “Go out? Where are you going?”.

次に、徘徊抑制装置12は、呼びかけの発話に対する人物HBからの応答発話を取得する。例えば、徘徊抑制装置12は、応答発話として「家に帰ってご飯を作らないと」といった発話を取得する。これにより、徘徊抑制装置12は、徘徊者の初期意図が「家に帰ってご飯を作る」ことであると理解する。   Next, the wrinkle suppression device 12 acquires a response utterance from the person HB to the utterance of the call. For example, the wrinkle suppression device 12 acquires an utterance such as “I have to go home and cook rice” as a response utterance. Thereby, the wrinkle suppression device 12 understands that the initial intention of the widow is “to go home and cook rice”.

その後、徘徊抑制装置12は、徘徊者との対話を継続する。対話の継続にあたり、例えば、徘徊抑制装置12は、「そうですか、家はどちらですか?」といった、徘徊者の応答発話に対するさらなる質問の発話や、徘徊者の応答発話と無関係な雑談の発話等を行う。   Thereafter, wrinkle suppression device 12 continues the dialogue with the widow. In continuing the dialogue, for example, the wrinkle suppression device 12 utters further questions regarding the user's response utterance, such as “Which is the house?” Or utterance of a chat unrelated to the user's response utterance. Etc.

そして、徘徊者との対話の開始から一定時間経過後、徘徊抑制装置12は、初期意図とは異なる行動を促すための確認発話を行う。例えば、「そう言えばそろそろいつも見ているのど自慢番組が始まりますよ。食堂に見に行きましょう。」といった発話を行う。   Then, after a certain period of time has elapsed from the start of the conversation with the deaf person, wrinkle suppression device 12 performs a confirmation utterance to promote an action different from the initial intention. For example, utter a utterance such as “Speaking of that, it ’s time to start watching the program that we are always watching. Let ’s go to the cafeteria.”

上記の確認発話に対し、例えば、徘徊者から「もうそんな時間?早く見に行かなきゃ」といった応答発話を取得した場合、徘徊抑制装置12は、徘徊者が確認発話に従うと判断し、確認発話の内容に基づいた誘導発話を行い、徘徊抑制装置12が徘徊者と同伴しながら、徘徊者を食堂まで誘導する。一方、徘徊者から、確認発話や誘導発話の内容を拒否する応答発話、又は、確認発話や誘導発話とは無関係な内容の応答発話を取得した場合、徘徊抑制装置12は、徘徊者が誘導に従わないと判断し、雑談等による対話を継続する。   In response to the above confirmation utterance, for example, when a response utterance such as “I have to go to see it sooner?” Is acquired from the user, the device suppresses the determination that the user follows the confirmation utterance. The guidance utterance based on the content is performed, and the heel control device 12 guides the heel to the dining room while accompanying the heel. On the other hand, when a response utterance that rejects the content of the confirmation utterance or the guided utterance or a response utterance having content that is irrelevant to the confirmation utterance or the guided utterance is acquired from the deaf person, the wrinkle suppression device 12 may Decide not to follow and continue conversations such as chat.

なお、上記の図3に示す例では、徘徊抑制装置12は、一定時間の経過によって初期意図を忘却したと判定して確認発話や誘導発話を行っているが、初期意図を忘却したか否かの判定は、この例に限らず、発話内容に基づいて行ってもよい。   In the example shown in FIG. 3 described above, the wrinkle suppression device 12 determines that the initial intention has been forgotten after a certain period of time, and performs confirmation utterance or guided utterance, but whether or not the initial intention has been forgotten. This determination is not limited to this example, and may be performed based on the utterance content.

例えば、徘徊者の初期意図を確認するための対話を行った後の任意のタイミングにおいて、徘徊抑制装置12は、初期意図に関連する行動とは異なる行動を促すための確認発話として、「そろそろ12時で昼食の時間ですね」といった徘徊者が日常的に行う行為に関する発話を行うようにしてもよい。この確認発話に従う旨の応答発話として、徘徊者から「あら、もうそんな時間?」といった応答発話を取得した場合、行動意図忘却判定部26は、家に戻ってご飯を作らないといけないという行動意図を既に忘却してしまっていると判断し、徘徊抑制装置12は、続けて「食堂に行きましょう」といった誘導発話を行うようにしてもよい。   For example, at any timing after the dialogue for confirming the initial intention of the deaf person, the wrinkle suppression device 12 uses “Soon 12 as a confirmation utterance for prompting an action different from the action related to the initial intention”. You may be allowed to make an utterance about the daily activities of the deaf person, such as “It's time for lunch.” If a response utterance such as “Oh, is that time?” Is acquired from the deaf person as a response utterance to follow this confirmation utterance, the behavior intention forgetting determination unit 26 must return to the house and cook rice. May have been forgotten, and the wrinkle suppression device 12 may continue to perform a guided utterance such as “Let's go to the cafeteria”.

以上のように、本実施の形態に係る徘徊抑制装置12では、徘徊者に直接働きかけることによって、徘徊者の初期意図を忘却させ、その後に、徘徊者を誘導することができるので、徘徊者は自分の意志が無理矢理抑えられたと感じることもないため、人間の尊厳を損なうことなく、徘徊を抑制することができる。   As described above, in the wrinkle suppression device 12 according to the present embodiment, the user can forget the initial intention of the user by directly acting on the user and, after that, the user can be guided. Because you don't feel that your will has been restrained, you can suppress jealousy without compromising human dignity.

以上、本開示の一態様に係る徘徊抑制装置について、上記の実施の形態に基づいて説明したが、本開示は、上記の実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が想到する各種変形を本実施の形態に施したもの、あるいは異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれる。   As described above, the wrinkle suppression device according to one aspect of the present disclosure has been described based on the above embodiment, but the present disclosure is not limited to the above embodiment. Unless it deviates from the gist of the present disclosure, forms in which various modifications conceived by those skilled in the art have been made in the present embodiment or a combination of components in different embodiments are also included in the scope of the present disclosure. It is.

例えば、本実施の形態においては、建物の内部の所定の領域に設置された徘徊検出器13と人物HBに装着された行動通知装置14との通信により徘徊者を検出したが、徘徊者の検出方法は、その他の方法でもよい。例えば、徘徊検出器13及び徘徊者情報受信部21に代えて、所定位置に設置されたカメラにより建物の内部の所定の領域を撮影した画像データを取得し、画像データに対して顔画像認識を行い、所定の人物が検出されたか否かにより徘徊者を検出する徘徊者検出部を用いてもよい。また、所定位置に設置されたカメラにより撮影された動画データを取得し、動画解析により例えば特定の人物が同じ場所を行ったり来たりするといった特定の動作をしているか否かにより徘徊者を検出する徘徊者検出部を用いてもよい。   For example, in the present embodiment, the deaf person is detected by communication between the wrinkle detector 13 installed in a predetermined area inside the building and the action notification device 14 attached to the person HB. The method may be other methods. For example, instead of the eyelid detector 13 and the person information receiving unit 21, image data obtained by photographing a predetermined area inside a building is acquired by a camera installed at a predetermined position, and facial image recognition is performed on the image data. It is also possible to use a deaf person detection unit that detects a deaf person depending on whether or not a predetermined person has been detected. In addition, video data shot by a camera installed at a predetermined position is acquired, and by video analysis, for example, a deaf person is detected based on whether or not a specific person moves back and forth in the same place. A deaf person detection unit may be used.

また、本実施の形態では徘徊検出器13と徘徊抑制装置12とを分離する構成としているが、徘徊抑制装置12に徘徊検出器13を搭載してもよい。この場合、徘徊抑制装置12は、例えば、建物の出口EDの付近のような所定の位置に待機しており、徘徊抑制装置12に搭載された徘徊検出器13は、行動通知装置14から、徘徊者の行動に関する行動情報を受信し、発信された行動情報を受信できるか否かにより徘徊を検出することができる。   Further, in the present embodiment, the wrinkle detector 13 and the wrinkle suppression device 12 are separated from each other, but the wrinkle detection device 12 may be mounted on the wrinkle suppression device 12. In this case, the wrinkle suppression device 12 stands by at a predetermined position, for example, near the exit ED of the building, and the wrinkle detector 13 mounted on the wrinkle suppression device 12 is It is possible to detect wrinkles based on whether or not the action information related to the person's action is received and the transmitted action information can be received.

また、本実施の形態では、徘徊抑制装置12を移動型ロボットとしたが、据置き型ロボットや、誘導発話等を映像で表示する据置き型のディスプレイでもよい。また、徘徊抑制装置12が移動型又は据置き型ロボットである場合、その形状は人型であってもなくてもよく、動物型や任意のキャラクタ型等であってもよい。また、徘徊者の検出位置周辺の所定箇所に埋設されたマイクやスピーカを用いて徘徊者との対話を行い、徘徊者が対話の相手として視認できる対象を伴わない徘徊抑制装置であってもよい。   In the present embodiment, wrinkle suppression device 12 is a mobile robot, but it may be a stationary robot or a stationary display that displays a guided utterance or the like as an image. Further, when the wrinkle suppression device 12 is a mobile or stationary robot, the shape may not be a human type, and may be an animal type or an arbitrary character type. In addition, a wrinkle suppression device that interacts with the user using a microphone or a speaker embedded in a predetermined location around the detection position of the user and that does not involve a target that the user can visually recognize as a partner of the communication may be used. .

また、徘徊者と徘徊抑制装置との対話における発話の内容は、徘徊者のプロフィール、趣味、嗜好、生活データ、バイタルデータなどに基づくものであってもよい。この場合、徘徊抑制装置12は、例えば、これらのデータを保存したサーバ装置との通信により必要なデータを受信し、受信した内容の少なくとも一部を含む発話を生成する。これにより、徘徊者の注意を引き付けられる対話を継続することが可能となる。   In addition, the content of the utterance in the conversation between the deaf person and the deering apparatus may be based on the deer's profile, hobbies, preferences, life data, vital data, and the like. In this case, for example, wrinkle suppression device 12 receives necessary data through communication with a server device that stores these data, and generates an utterance that includes at least part of the received content. This makes it possible to continue the dialogue that attracts the attention of the deaf.

また、本実施の形態では、主に、音声対話の継続によって、初期意図の忘却に必要な時間を経過させているが、音声対話とあわせて、又は音声対話に代えて、徘徊抑制装置12が備えるディスプレイである映像出力部32における映像データの表示や、徘徊抑制装置12が備える可動部34の物理的な動作によって徘徊者の注意を引き付けてもよい。この際、映像出力部32や可動部34の高さや角度を徘徊者の目線に合わせて変化させることも、注意を引き付けるために有効である。   In the present embodiment, the time required for forgetting the initial intention is passed mainly by continuing the voice conversation. However, the wrinkle suppression device 12 is used together with or instead of the voice conversation. The user's attention may be drawn by displaying video data in the video output unit 32 which is a display provided, or by a physical operation of the movable unit 34 provided in the wrinkle suppression device 12. At this time, it is also effective to attract attention to change the height and angle of the video output unit 32 and the movable unit 34 according to the eyes of the deaf person.

また、本実施の形態では、初期意図の忘却によって徘徊を抑制しているが、音声や映像によって、初期意図が既に解決したと認識させることにより、徘徊を抑制してもよい。例えば、初期意図が「家に帰ってご飯を作る」である場合、徘徊抑制装置12は、徘徊者が視認可能なディスプレイに、「既に家族は家でご飯を食べている」状況を示す映像や音声を出力するための指示情報を送信することにより、「既に家族は家でご飯を食べている」状況を再生するようにしてもよい。なお、ディスプレイ上の音声や映像として情報を伝えるのではなく、仮想現実で目的が既に解決したと認識させてもよい。   Further, in this embodiment, the wrinkle is suppressed by forgetting the initial intention, but the wrinkle may be suppressed by recognizing that the initial intention has already been solved by sound or video. For example, when the initial intention is “go home and cook rice”, the wrinkle suppression device 12 displays on the display visible to the deaf person a video indicating that “the family is already eating rice at home” You may make it reproduce | regenerate the condition "the family is already eating rice at home" by transmitting the instruction information for outputting a sound. Instead of transmitting information as audio or video on the display, it may be recognized that the purpose has already been solved in virtual reality.

本開示に係る徘徊抑制装置、徘徊抑制方法及び徘徊抑制プログラムは、音声報知に従わない徘徊者に対しても、安全に徘徊を抑制することができるので、徘徊者による徘徊を抑制する徘徊抑制装置、徘徊抑制方法及び徘徊抑制プログラムとして有用である。   The wrinkle suppression device, the wrinkle suppression method, and the wrinkle suppression program according to the present disclosure can safely suppress wrinkles even for a deaf person who does not follow voice notification. It is useful as a wrinkle suppression method and a wrinkle suppression program.

11 徘徊抑制システム
12 徘徊抑制装置
13 徘徊検出器
14 行動通知装置
21 徘徊者情報受信部
22 音声取得部
23 音声認識部
24 発話推定部
25 制御部
26 行動意図忘却判定部
27 発話文生成部
28 発話DB
29 音声合成部
30 音声出力部
31 映像生成部
32 映像出力部
33 移動部
34 可動部
DESCRIPTION OF SYMBOLS 11 Haze suppression system 12 Haze suppression apparatus 13 Haze detector 14 Behavior notification apparatus 21 Person information receiving part 22 Voice acquisition part 23 Voice recognition part 24 Speech estimation part 25 Control part 26 Action intention forgetting determination part 27 Speech sentence generation part 28 Utterance DB
29 voice synthesis unit 30 audio output unit 31 video generation unit 32 video output unit 33 moving unit 34 movable unit

Claims (17)

徘徊者による徘徊を抑制するための徘徊抑制装置であって、
建物の内部の所定の領域において前記徘徊者が検出されたときに、検出された前記徘徊者に対する発話を音声又は映像の少なくとも一方により出力する発話部と、
前記徘徊者と前記発話部との対話の開始からの経過時間に基づき、前記徘徊者が徘徊を始めるに至った初期意図を忘れたか否かを判定する行動意図忘却判定部とを備え、
前記発話部は、前記行動意図忘却判定部により前記徘徊者が前記初期意図を忘れたと判定された場合、所定の誘導場所に前記徘徊者を誘導するための発話を音声又は映像の少なくとも一方により出力する、
徘徊抑制装置。
A wrinkle suppression device for suppressing wrinkles by a deaf person,
An utterance unit that outputs an utterance to the detected deaf person by at least one of audio or video when the deaf person is detected in a predetermined area inside the building;
An action intention forgetting determination unit that determines whether or not the deaf person has forgotten the initial intention that led to the deception based on the elapsed time from the start of the conversation between the deaf person and the utterance unit,
The utterance unit outputs an utterance for guiding the deaf person to a predetermined guidance place by at least one of audio or video when the deliberate decision of the action intention forgetting is determined to have forgotten the initial intention. To
Wrinkle suppression device.
前記発話部から出力された前記発話に対する前記徘徊者の応答発話の内容を推定する発話推定部をさらに備え、
前記行動意図忘却判定部は、前記発話推定部により推定された前記徘徊者の前記応答発話の内容に基づき、前記徘徊者が前記初期意図を忘れたか否かを判定する、
請求項1記載の徘徊抑制装置。
A speech estimation unit for estimating the content of the response speech of the deaf person with respect to the speech output from the speech unit;
The behavior intention forgetting determination unit determines whether the deaf person has forgotten the initial intention based on the content of the response utterance of the deaf person estimated by the utterance estimation unit.
The wrinkle suppression device according to claim 1.
前記発話部は、前記徘徊者に対する初期の発話において、前記初期意図を確認するための確認発話を行い、
前記発話推定部は、前記確認発話に対する前記徘徊者からの応答発話の内容を推定し、
前記行動意図忘却判定部は、前記発話推定部により推定された前記確認発話に対する前記徘徊者からの応答発話の内容に基づき、前記徘徊者が前記初期意図を忘れたか否かを判定する、
請求項2記載の徘徊抑制装置。
The utterance unit performs a confirmation utterance to confirm the initial intention in an initial utterance for the deaf person,
The utterance estimation unit estimates the content of a response utterance from the deaf person to the confirmation utterance,
The behavior intention forgetting determination unit determines whether or not the user has forgotten the initial intention based on the response utterance from the user for the confirmation utterance estimated by the utterance estimation unit.
The wrinkle suppression device according to claim 2.
前記確認発話は、前記初期意図に関連する行動とは異なる行動を促すための発話を含み、
前記発話推定部は、前記確認発話に対する前記徘徊者からの応答発話に基づき、前記徘徊者が前記確認発話に従うか否かを推定し、
前記行動意図忘却判定部は、前記発話推定部により前記徘徊者が前記確認発話に従うことが推定された場合に、前記徘徊者が前記初期意図を忘れたと判定する、
請求項3記載の徘徊抑制装置。
The confirmation utterance includes an utterance for prompting an action different from the action related to the initial intention,
The utterance estimation unit estimates whether or not the deaf person follows the confirmation utterance based on the response utterance from the deaf person to the confirmation utterance,
The behavior intention forgetting determination unit determines that the deaf person has forgotten the initial intention when it is estimated by the utterance estimation unit that the deaf person follows the confirmation utterance;
The wrinkle suppression device according to claim 3.
前記発話部は、前記確認発話の内容を実際に行うための指示内容を含む映像又は音声を出力することにより、前記徘徊者を前記誘導場所に誘導する、
請求項4記載の徘徊抑制装置。
The utterance unit guides the deaf person to the guidance location by outputting video or audio including instruction content for actually performing the content of the confirmation utterance,
The wrinkle suppression device according to claim 4.
前記発話部は、前記行動意図忘却判定部により前記徘徊者が前記初期意図を忘れたと判定された場合、前記徘徊者に対して、前記誘導場所に前記徘徊者を誘導する誘導発話を行う、
請求項1〜5のいずれかに記載の徘徊抑制装置。
The utterance unit, when it is determined by the behavior intention forgetting determination unit that the deaf person has forgotten the initial intention, for the deaf person, to perform a guided utterance to guide the deaf person to the guidance location,
The wrinkle suppression device according to any one of claims 1 to 5.
前記発話部は、前記徘徊者の誘導が継続中である場合、前記徘徊者が前記誘導に従っているか否かを確認するための誘導確認発話を行う、
請求項1〜6のいずれかに記載の徘徊抑制装置。
The utterance unit performs a guidance confirmation utterance for confirming whether or not the deaf person is following the guidance when the deaf person's guidance is ongoing,
The wrinkle suppression device according to any one of claims 1 to 6.
前記建物の内部を移動するための移動部をさらに備え、
前記徘徊抑制装置は、前記行動意図忘却判定部により前記徘徊者が前記初期意図を忘れたと判定された場合、前記移動部を用いて前記徘徊者に同伴しながら移動することにより、前記徘徊者を前記誘導場所まで誘導する、
請求項1〜7のいずれかに記載の徘徊抑制装置。
A moving part for moving inside the building;
When the behavior intention forgetting determination unit determines that the deaf person has forgotten the initial intention, the wrinkle suppression device moves the user while accompanying the deaf person using the moving unit. Guiding to the guidance location,
The wrinkle suppression device according to any one of claims 1 to 7.
前記徘徊者に対して身振りを示す可動部をさらに備え、
前記可動部は、前記発話部による前記発話の内容に応じて、前記徘徊者に対して身振りを示すための動作を行う、
請求項1〜8のいずれかに記載の徘徊抑制装置。
It further comprises a movable part that shows gestures to the deaf person,
The movable part performs an operation for gesturing the deaf person according to the content of the utterance by the utterance part.
The wrinkle suppression device according to any one of claims 1 to 8.
前記発話部は、音声を出力する音声出力部に対して前記発話の内容を表す情報を出力することによって、前記発話を音声により出力する、
請求項1〜9のいずれかに記載の徘徊抑制装置。
The utterance unit outputs the utterance by voice by outputting information representing the content of the utterance to a voice output unit that outputs voice.
The wrinkle suppression device according to any one of claims 1 to 9.
前記発話部は、映像を出力する映像出力部に対して前記発話の内容を表す情報を出力することによって、前記発話を映像により出力する、
請求項1〜10のいずれかに記載の徘徊抑制装置。
The utterance unit outputs the utterance as a video by outputting information representing the content of the utterance to the video output unit that outputs the video.
The wrinkle suppression device according to any one of claims 1 to 10.
前記徘徊者に携帯又は装着された行動通知装置から送信される、前記徘徊者の行動に関する行動情報に基づき、前記徘徊者を検出する徘徊者検出部をさらに備える、
請求項1〜11のいずれかに記載の徘徊抑制装置。
Further comprising a deaf person detection unit for detecting the deaf person based on action information related to the deer's action transmitted from the action notification device carried or attached to the deaf person.
The wrinkle suppression device according to any one of claims 1 to 11.
前記所定の領域の画像を受信し、前記画像を解析することにより、前記徘徊者を検出する徘徊者検出部をさらに備える、
請求項1〜11のいずれかに記載の徘徊抑制装置。
Further comprising a deaf person detection unit for detecting the deaf person by receiving the image of the predetermined region and analyzing the image;
The wrinkle suppression device according to any one of claims 1 to 11.
前記発話推定部は、対話内容を定義したルール情報を参照することにより、前記応答発話の内容を推定する、
請求項1〜13のいずれかに記載の徘徊抑制装置。
The utterance estimation unit estimates the content of the response utterance by referring to the rule information defining the conversation content.
The wrinkle suppression device according to any one of claims 1 to 13.
前記発話推定部は、再帰的ニューラルネットワークにより生成された対話モデルを用いることにより、前記応答発話の内容を推定する、
請求項1〜14のいずれかに記載の徘徊抑制装置。
The utterance estimation unit estimates the content of the response utterance by using a dialogue model generated by a recursive neural network.
The wrinkle suppression device according to any one of claims 1 to 14.
徘徊者による徘徊を抑制するための徘徊抑制装置における徘徊抑制方法であって、
建物の内部の所定の領域において前記徘徊者が検出されたときに、検出された前記徘徊者に対する発話を音声又は映像の少なくとも一方により出力し、
前記徘徊者との対話の開始からの経過時間に基づき、前記徘徊者が徘徊を始めるに至った初期意図を忘れたか否かを判定し、
前記徘徊者が前記初期意図を忘れたと判定した場合、所定の誘導場所に前記徘徊者を誘導するための発話を音声又は映像の少なくとも一方により出力する、
徘徊抑制方法。
A method for suppressing wrinkles in a wrinkle suppression device for suppressing wrinkles by a deaf person,
When the deaf person is detected in a predetermined area inside the building, the utterance to the detected deaf person is output by at least one of audio or video,
Based on the elapsed time from the start of the dialogue with the deaf person, determine whether the foreman has forgotten the initial intention that led to the deception,
When it is determined that the deaf person has forgotten the initial intention, an utterance for guiding the deaf person to a predetermined guidance location is output by at least one of audio and video.
How to suppress wrinkles.
徘徊者による徘徊を抑制するための徘徊抑制装置として、コンピュータを機能させるための徘徊抑制プログラムであって、
前記コンピュータに、
建物の内部の所定の領域において前記徘徊者が検出されたときに、検出された前記徘徊者に対する発話を音声又は映像の少なくとも一方により出力し、
前記徘徊者との対話の開始からの経過時間に基づき、前記徘徊者が徘徊を始めるに至った初期意図を忘れたか否かを判定し、
前記徘徊者が前記初期意図を忘れたと判定した場合、所定の誘導場所に前記徘徊者を誘導するための発話を音声又は映像の少なくとも一方により出力する、
処理を実行させる徘徊抑制プログラム。
A wrinkle suppression program for causing a computer to function as a wrinkle suppression device for suppressing wrinkles by a deaf person,
In the computer,
When the deaf person is detected in a predetermined area inside the building, the utterance to the detected deaf person is output by at least one of audio or video,
Based on the elapsed time from the start of the dialogue with the deaf person, determine whether the foreman has forgotten the initial intention that led to the deception,
When it is determined that the deaf person has forgotten the initial intention, an utterance for guiding the deaf person to a predetermined guidance location is output by at least one of audio and video.
A wrinkle suppression program that executes processing.
JP2016127175A 2016-06-28 2016-06-28 Wandering control device, wandering control method and wandering control program Pending JP2018005308A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016127175A JP2018005308A (en) 2016-06-28 2016-06-28 Wandering control device, wandering control method and wandering control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016127175A JP2018005308A (en) 2016-06-28 2016-06-28 Wandering control device, wandering control method and wandering control program

Publications (1)

Publication Number Publication Date
JP2018005308A true JP2018005308A (en) 2018-01-11

Family

ID=60946230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016127175A Pending JP2018005308A (en) 2016-06-28 2016-06-28 Wandering control device, wandering control method and wandering control program

Country Status (1)

Country Link
JP (1) JP2018005308A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135047A (en) * 2019-02-13 2020-08-31 株式会社宇宙電子 Monitoring system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135047A (en) * 2019-02-13 2020-08-31 株式会社宇宙電子 Monitoring system

Similar Documents

Publication Publication Date Title
US8326456B2 (en) Behavior control apparatus, method, and program
JP6402320B2 (en) An autonomous behavioral robot
JP4976903B2 (en) robot
KR101336641B1 (en) Emotional Sympathy Robot Service System and Method of the Same
CN109804389A (en) Emotional state is extracted from device data
WO2019207896A1 (en) Information processing system, information processing method, and recording medium
JP6719072B2 (en) Customer service device, service method and service system
WO2016080553A1 (en) Learning robot, learning robot system, and learning robot program
JP2004310034A (en) Interactive agent system
CN111002303B (en) Recognition device, robot, recognition method, and storage medium
JPWO2019087484A1 (en) Information processing equipment, information processing methods, and programs
KR20070029794A (en) A method and a system for communication between a user and a system
WO2020116233A1 (en) Information processing device, information processing method, and program
US11682389B2 (en) Voice conversation system, control system for voice conversation system, and control program, and control method
US10102769B2 (en) Device, system and method for providing feedback to a user relating to a behavior of the user
JP2015184597A (en) Communication Support robot system
KR20180082777A (en) Communion robot system for senior citizen
JP2010110864A (en) Robot system and method and program for activating communication
WO2019215983A1 (en) Information processing system, information processing method, and recording medium
KR101264049B1 (en) Pet robot for synchronizing with imaginary robot in mobile device
JP6887035B1 (en) Control systems, control devices, control methods and computer programs
JP2018005308A (en) Wandering control device, wandering control method and wandering control program
CN113661036A (en) Information processing apparatus, information processing method, and program
KR102051217B1 (en) Apparatus and method for controlling emotional expression of biomimetics robot
JP2020091636A (en) Voice interactive device control method