JPWO2020116233A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JPWO2020116233A1 JPWO2020116233A1 JP2020559074A JP2020559074A JPWO2020116233A1 JP WO2020116233 A1 JPWO2020116233 A1 JP WO2020116233A1 JP 2020559074 A JP2020559074 A JP 2020559074A JP 2020559074 A JP2020559074 A JP 2020559074A JP WO2020116233 A1 JPWO2020116233 A1 JP WO2020116233A1
- Authority
- JP
- Japan
- Prior art keywords
- autonomous mobile
- information processing
- mobile body
- control unit
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 103
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 230000006399 behavior Effects 0.000 claims abstract description 71
- 230000033001 locomotion Effects 0.000 claims description 97
- 230000006870 function Effects 0.000 claims description 39
- 230000008859 change Effects 0.000 claims description 12
- 230000003993 interaction Effects 0.000 claims description 8
- 230000007613 environmental effect Effects 0.000 claims description 7
- 230000002354 daily effect Effects 0.000 description 34
- 238000012544 monitoring process Methods 0.000 description 34
- 238000004891 communication Methods 0.000 description 23
- 230000009471 action Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 210000003128 head Anatomy 0.000 description 11
- 238000003825 pressing Methods 0.000 description 9
- 241001465754 Metazoa Species 0.000 description 7
- 230000005856 abnormality Effects 0.000 description 7
- 210000005252 bulbus oculi Anatomy 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 230000008451 emotion Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 210000002414 leg Anatomy 0.000 description 4
- 206010011224 Cough Diseases 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 206010012289 Dementia Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000012010 growth Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000004705 lumbosacral region Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0407—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
- G08B21/0423—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting deviation from an expected pattern of behaviour or schedule
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0438—Sensor means for detecting
- G08B21/0492—Sensor dual technology, i.e. two or more technologies collaborate to extract unsafe condition, e.g. video tracking and RFID tracking
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
Abstract
Description
1.実施形態
1.1.自律移動体10の概要
1.2.自律移動体10のハードウェア構成例
1.3.機能概要
1.4.システム構成例
1.5.自律移動体10の機能構成例
1.6.情報処理サーバ20の機能構成例
1.7.見守りの詳細
2.ハードウェア構成例
3.まとめ
<<1.1.自律移動体10の概要>>
まず、本開示の一実施形態に係る自律移動体10の概要について説明する。本開示の一実施形態に係る自律移動体10は、収集したセンサ情報に基づく状況推定を実行し、状況に応じた種々の動作を自律的に選択し実行する情報処理装置である。自律移動体10は、単にユーザの指示コマンドに従った動作を行うロボットとは異なり、状況ごとに最適であると推測した動作を自律的に実行することを特徴の一つとする。
次に、本開示の一実施形態に係る自律移動体10のハードウェア構成例について説明する。なお、以下では、自律移動体10がイヌ型の四足歩行ロボットである場合を例に説明する。
マイクロフォン515は、周囲の音を収集する機能を有する。上記の音には、例えば、ユーザの発話や、周囲の環境音が含まれる。自律移動体10は、例えば、頭部に4つのマイクロフォンを備えてもよい。複数のマイクロフォン515を備えることで、周囲で発生する音を感度高く収集すると共に、音源の定位を実現することが可能となる。
カメラ520は、ユーザや周囲環境を撮像する機能を有する。自律移動体10は、例えば、鼻先と腰部に2つの広角カメラを備えてもよい。この場合、鼻先に配置される広角カメラは、自律移動体の前方視野(すなわち、イヌの視野)に対応した画像を撮像し、腰部の広角カメラは、上方を中心とする周囲領域の画像を撮像する。自律移動体10は、例えば、腰部に配置される広角カメラにより撮像された画像に基づいて、天井の特徴点などを抽出し、SLAM(Simultaneous Localization and Mapping)を実現することができる。
ToFセンサ525は、頭部前方に存在する物体との距離を検出する機能を有する。ToFセンサ525は、頭部の鼻先に備えられる。ToFセンサ525によれば、種々の物体との距離を精度高く検出することができ、ユーザを含む対象物や障害物などとの相対位置に応じた動作を実現することが可能となる。
人感センサ530は、ユーザやユーザが飼育するペットなどの所在を検知する機能を有する。人感センサ530は、例えば、胸部に配置される。人感センサ530によれば、前方に存在する動物体を検知することで、当該動物体に対する種々の動作、例えば、興味、恐怖、驚きなどの感情に応じた動作を実現することが可能となる。
測距センサ535は、自律移動体10の前方床面の状況を取得する機能を有する。測距センサ535は、例えば、胸部に配置される。測距センサ535によれば、自律移動体10の前方床面に存在する物体との距離を精度高く検出することができ、当該物体との相対位置に応じた動作を実現することができる。
タッチセンサ540は、ユーザによる接触を検知する機能を有する。タッチセンサ540は、例えば、頭頂、あご下、背中など、ユーザが自律移動体10に対し触れる可能性が高い部位に配置される。タッチセンサ540は、例えば、静電容量式や感圧式のタッチセンサであってよい。タッチセンサ540によれば、ユーザによる触れる、撫でる、叩く、押すなどの接触行為を検知することができ、当該接触行為に応じた動作を行うことが可能となる。
照度センサ545は、自律移動体10が位置する空間の照度を検出する。照度センサ545は、例えば、頭部背面において尾部の付け根などに配置されてもよい。照度センサ545によれば、周囲の明るさを検出し、当該明るさに応じた動作を実行することが可能となる。
足裏ボタン550は、自律移動体10の脚部底面が床と接触しているか否かを検知する機能を有する。このために、足裏ボタン550は、4つの脚部の肉球に該当する部位にそれぞれ配置される。足裏ボタン550によれば、自律移動体10と床面との接触または非接触を検知することができ、例えば、自律移動体10がユーザにより抱き上げられたことなどを把握することが可能となる。
慣性センサ555は、頭部や胴部の速度や加速度、回転などの物理量を検出する6軸センサである。すなわち、慣性センサ555は、X軸、Y軸、Z軸の加速度および角速度を検出する。慣性センサ555は、頭部および胴部にそれぞれ配置される。慣性センサ555によれば、自律移動体10の頭部および胴部の運動を精度高く検出し、状況に応じた動作制御を実現することが可能となる。
ディスプレイ510は、自律移動体10の目の動きや感情を視覚的に表現する機能を有する。図5に示すように、ディスプレイ510は、感情や動作に応じた眼球、瞳孔、瞼の動作を表現することができる。ディスプレイ510は、文字や記号、また眼球運動とは関連しない画像などを敢えて表示しないことで、実在するイヌなどの動物に近い自然な動作を演出する。
次に、本開示の一実施形態に係る情報処理装置が有する機能の概要について説明する。上述したように、近年においては、ロボットを用いて対象者を監視し、異常を検出した場合には監視者への通知を行うなどの技術が開発されている。
次に、本開示の一実施形態に係る情報処理システムの構成例について説明する。図8は、本実施形態に係る情報処理システムの構成例を示すブロック図である。図8を参照すると、本実施形態に係る情報処理システムは、自律移動体10、情報処理サーバ20、情報処理端末30を備える。また、上記の各装置は、ネットワーク40を介して接続される。
本実施形態に係る自律移動体10は、収集したセンサ情報に基づく状況推定を行い、状況に応じた種々の動作を自律的に選択し実行する情報処理装置である。また、本実施形態に係る自律移動体10は、自律動作を行いながら対象者の見守りを実施し、報告先に対する情報提供を制御することを特徴の一つとする。
本実施形態に係る情報処理サーバ20は、自律移動体10が認識した対象者の状況を報告先に提供するためのユーザインタフェースを制御する。
本実施形態に係る情報処理端末30は、対象者の見守りに係る報告先となるユーザが、当該見守りの情報を閲覧するために用いる装置である。本実施形態に係る情報処理端末30は、例えば、PC(Personal Computer)、携帯電話、スマートフォン、タブレットなどであってもよい。
ネットワーク40は、上記の各装置を接続する機能を有する。ネットワーク40は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク40は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク40は、Wi−Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
次に、本開示の一実施形態に係る自律移動体10の機能構成例について説明する。図9は、本実施形態に係る自律移動体10の機能構成例を示すブロック図である。図9を参照すると、本実施形態に係る自律移動体10は、入力部110、認識部120、学習部130、動作制御部140、駆動部150、出力部160、およびサーバ通信部170を備える。
入力部110は、ユーザや周囲環境に係る種々の情報を収集する機能を有する。入力部110は、例えば、ユーザの発話や周囲で発生する環境音、ユーザや周囲環境に係る画像情報、および種々のセンサ情報を収集する。このために、入力部110は、図1に示す各種のセンサを備える。
認識部120は、入力部110が収集した種々のセンサ情報に基づいて、ユーザや周囲環境、また自律移動体10の状態に係る種々の認識を行う機能を有する。本実施形態に係る認識部120は、例えば、対象者の言動や状態を認識してよい。一例としては、認識部120は、人識別、表情や視線の認識、物体認識、動作認識、空間領域認識、色認識、形認識、マーカー認識、障害物認識、段差認識、明るさ認識などを行うことができる。
学習部130は、環境(状況)と行動、また当該行動による環境への作用を学習する機能を有する。学習部130は、例えば、深層学習(Deep Learning)などの機械学習アルゴリズムを用いて、上記の学習を実現する。なお、学習部130が採用する学習アルゴリズムは、上記の例に限定されず、適宜設計可能である。
動作制御部140は、認識部120が推定した状況と学習部130が学習した知識に基づいて、自律移動体10が行う行動の計画を行い、各種の動作を制御する。
駆動部150は、動作制御部140による制御に基づいて、自律移動体10が有する複数の関節部を屈伸させる機能を有する。より具体的には、駆動部150は、動作制御部140による制御に基づき、各関節部が備えるアクチュエータ570を駆動させる。
出力部160は、動作制御部140による制御に基づいて、視覚情報や音情報の出力を行う機能を有する。このために、出力部160は、ディスプレイ510やスピーカを備える。
サーバ通信部170は、ネットワーク40を介して情報処理サーバ20との情報通信を行う機能を有する。例えば、サーバ通信部170は、動作制御部140が生成した見守りの結果に係る情報などを情報処理サーバ20に送信する。また、例えば、サーバ通信部170は、情報処理サーバ20から見守りの設定に係る情報などを受信する。
次に、本開示の一実施形態に係る情報処理サーバ20の機能構成例について説明する。図10は、本開示の一実施形態に係る情報処理サーバ20の機能構成例を示すブロック図である。図10を参照すると、本開示の一実施形態に係る情報処理サーバ20は、インタフェース制御部210、記憶部220、および通信部230を備える。
インタフェース制御部210は、自律移動体10から受信した、対象者の日常生活に係る情報、すなわち対象者の見守りに係る情報を報告先のユーザに提供するユーザインタフェースを制御する。本実施形態に係るインタフェース制御部210は、例えば、報告先のユーザが所持する情報処理端末30に上記のユーザインタフェースを提供し、自律移動体10から受信した情報に基づいて、見守りに係る報告などの情報を当該ユーザインタフェース上に表示する機能を有する。また、本実施形態に係るユーザインタフェースでは、見守りに係る各種の設定が行えてよい。本実施形態に係るユーザインタフェースの詳細については別途後述する。
記憶部220は、自律移動体10による対象者の見守りに係る各種の情報などを記憶する。例えば、記憶部220は、見守りの対象者となるユーザの情報、当該対象者に対応する報告先となるユーザの情報などを記憶する。
通信部230は、ネットワーク40を介して自律移動体10や情報処理端末30との情報通信を行う。例えば、通信部230は、自律移動体10から見守りに係る報告などの情報を受信する。また、例えば、通信部230は、ユーザインタフェースの表示に係る制御信号などを情報処理端末30に送信する。
次に、本実施形態に係る自律移動体10による対象者の見守りの詳細について説明する。上述したように、本実施形態に係る自律移動体10は、対象者の所在、発話、自律移動体10に対する接触行為など通常状態に含まれる言動や状態を認識し、当該認識の有無などに基づいて、報告先のユーザへの情報提供を制御することを特徴とする。
次に、本開示の一実施形態に係る情報処理サーバ20のハードウェア構成例について説明する。図27は、本開示の一実施形態に係る情報処理サーバ20のハードウェア構成例を示すブロック図である。図27を参照すると、情報処理サーバ20は、例えば、プロセッサ871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インタフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
プロセッサ871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
ROM872は、プロセッサ871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、プロセッサ871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
プロセッサ871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インタフェース877を介して種々の構成要素と接続される。
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
以上説明したように、本開示の一実施形態に係る自律移動体10は、自律移動体10の動作を制御する動作制御部140、を備える。また、本開示の一実施形態に係る動作制御部140は、日常における対象者の言動または状態に係る学習の結果から推定された対象者の通常状態と、認識された対象者の言動または状態と、に基づいて、対象者の日常生活に係る情報の提供を制御すること、を特徴の一つとする。係る構成によれば、対象者の日常生活に溶け込んだ、より違和感のない見守りを実現することが可能となる。
(1)
自律移動体の動作を制御する制御部、
を備え、
前記制御部は、日常における対象者の言動または状態に係る学習の結果から推定された前記対象者の通常状態と、認識された前記対象者の言動または状態と、に基づいて、前記対象者の日常生活に係る情報の提供を制御する、
情報処理装置。
(2)
前記制御部は、前記通常状態の範疇に含まれる前記対象者の言動または状態の認識有無に係る情報の提供を制御する、
前記(1)に記載の情報処理装置。
(3)
前記通常状態の範疇に含まれる前記対象者の言動または状態は、所定の状況における前記対象者の所在、発話、前記自律移動体への接触のうち少なくともいずれかを含む、
前記(2)に記載の情報処理装置。
(4)
前記制御部は、前記通常状態の範疇に含まれる前記対象者の言動または状態は、前記自律移動体に対するインタラクションを含む、
前記(2)に記載の情報処理装置。
(5)
前記制御部は、前記通常状態の変化に係る情報の提供を制御する、
前記(4)に記載の情報処理装置。
(6)
前記制御部は、前記通常状態の範疇に含まれない前記対象者の言動または状態が認識された場合、前記通常状態からの逸脱に係る情報の提供が行われるよう制御する、
前記(1)〜(5)のいずれかに記載の情報処理装置。
(7)
前記制御部は、ルート設定に基づいて、前記自律移動体によるパトロールの実行を制御し、前記パトロール中における前記対象者の言動または状態に係る情報の提供を制御する、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記制御部は、前記自律移動体の自律移動に伴い生成された環境地図に基づいて、前記パトロールの実行を制御する、
前記(7)に記載の情報処理装置。
(9)
前記制御部は、ユーザが指定したルート設定と前記環境地図とに基づいて、前記自律移動体による前記パトロールの実行を制御する、
前記(8)に記載の情報処理装置。
(10)
前記制御部は、前記通常状態に基づいて前記パトロールのルート設定を自動で決定する、
前記(8)に記載の情報処理装置。
(11)
前記制御部は、前記対象者が予め許諾したユーザからの要求に基づいて前記自律移動体によるパトロールの実行を制御し、当該パトロールにおいて当該ユーザからの入力に基づいて前記自律移動体の動作を制御する、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(12)
前記制御部は、前記パトロールにおいて前記ユーザの入力に基づいて前記自律移動体を移動させ、移動中に取得された画像情報の前記ユーザに対する提供を制御する、
前記(11)に記載の情報処理装置。
(13)
前記制御部は、前記パトロールの実行時と非実行時とで前記自律移動体の移動態様を変化させる、
前記(7)〜(12)のいずれかに記載の情報処理装置。
(14)
前記自律移動体が収集したセンサ情報に基づいて環境地図を生成する地図生成部、
をさらに備える、
前記(1)〜(13)のいずれかに記載の情報処理装置。
(15)
前記自律移動体が収集したセンサ情報に基づいて日常における前記対象者の言動または状態に係る学習を行う学習部、
をさらに備える、
前記(1)〜(14)のいずれかに記載の情報処理装置。
(16)
前記自律移動体が収集したセンサ情報に基づいて前記対象者の言動または状態を認識する認識部、
をさらに備える、
前記(1)〜(15)のいずれかに記載の情報処理装置。
(17)
前記対象者の日常生活に係る情報を提供するユーザインタフェースを制御するインタフェース制御部、
をさらに備える、
前記(1)〜(16)のいずれかに記載の情報処理装置。
(18)
前記通常状態は、前記対象者の居住空間を訪れる訪問者の識別状況を含み、
前記制御部は、前記通常状態の範疇に含まれない前記訪問者の前記識別状況が取得された場合、当該訪問者に係る情報の提供が行われるよう制御する、
前記(1)〜(17)のいずれかに記載の情報処理装置。
(19)
プロセッサが、自律移動体の動作を制御すること、
を含み、
前記制御することは、日常における対象者の言動または状態に係る学習の結果から推定された前記対象者の通常状態と、認識された前記対象者の言動または状態と、に基づいて、前記対象者の日常生活に係る情報の提供を制御すること、
をさらに含む、
情報処理方法。
(20)
コンピュータを、
自律移動体の動作を制御する制御部、
を備え、
前記制御部は、日常における対象者の言動または状態に係る学習の結果から推定された前記対象者の通常状態と、認識された前記対象者の言動または状態と、に基づいて、前記対象者の日常生活に係る情報の提供を制御する、
情報処理装置、
として機能させるためのプログラム。
110 入力部
120 認識部
130 学習部
140 動作制御部
20 情報処理サーバ
210 インタフェース制御部
Claims (20)
- 自律移動体の動作を制御する制御部、
を備え、
前記制御部は、日常における対象者の言動または状態に係る学習の結果から推定された前記対象者の通常状態と、認識された前記対象者の言動または状態と、に基づいて、前記対象者の日常生活に係る情報の提供を制御する、
情報処理装置。 - 前記制御部は、前記通常状態の範疇に含まれる前記対象者の言動または状態の認識有無に係る情報の提供を制御する、
請求項1に記載の情報処理装置。 - 前記通常状態の範疇に含まれる前記対象者の言動または状態は、所定の状況における前記対象者の所在、発話、前記自律移動体への接触のうち少なくともいずれかを含む、
請求項2に記載の情報処理装置。 - 前記制御部は、前記通常状態の範疇に含まれる前記対象者の言動または状態は、前記自律移動体に対するインタラクションを含む、
請求項2に記載の情報処理装置。 - 前記制御部は、前記通常状態の変化に係る情報の提供を制御する、
請求項4に記載の情報処理装置。 - 前記制御部は、前記通常状態の範疇に含まれない前記対象者の言動または状態が認識された場合、前記通常状態からの逸脱に係る情報の提供が行われるよう制御する、
請求項1に記載の情報処理装置。 - 前記制御部は、ルート設定に基づいて、前記自律移動体によるパトロールの実行を制御し、前記パトロール中における前記対象者の言動または状態に係る情報の提供を制御する、
請求項1に記載の情報処理装置。 - 前記制御部は、前記自律移動体の自律移動に伴い生成された環境地図に基づいて、前記パトロールの実行を制御する、
請求項7に記載の情報処理装置。 - 前記制御部は、ユーザが指定したルート設定と前記環境地図とに基づいて、前記自律移動体による前記パトロールの実行を制御する、
請求項8に記載の情報処理装置。 - 前記制御部は、前記通常状態に基づいて前記パトロールのルート設定を自動で決定する、
請求項8に記載の情報処理装置。 - 前記制御部は、前記対象者が予め許諾したユーザからの要求に基づいて前記自律移動体によるパトロールの実行を制御し、当該パトロールにおいて当該ユーザからの入力に基づいて前記自律移動体の動作を制御する、
請求項1に記載の情報処理装置。 - 前記制御部は、前記パトロールにおいて前記ユーザの入力に基づいて前記自律移動体を移動させ、移動中に取得された画像情報の前記ユーザに対する提供を制御する、
請求項11に記載の情報処理装置。 - 前記制御部は、前記パトロールの実行時と非実行時とで前記自律移動体の移動態様を変化させる、
請求項7に記載の情報処理装置。 - 前記自律移動体が収集したセンサ情報に基づいて環境地図を生成する地図生成部、
をさらに備える、
請求項1に記載の情報処理装置。 - 前記自律移動体が収集したセンサ情報に基づいて日常における前記対象者の言動または状態に係る学習を行う学習部、
をさらに備える、
請求項1に記載の情報処理装置。 - 前記自律移動体が収集したセンサ情報に基づいて前記対象者の言動または状態を認識する認識部、
をさらに備える、
請求項1に記載の情報処理装置。 - 前記対象者の日常生活に係る情報を提供するユーザインタフェースを制御するインタフェース制御部、
をさらに備える、
請求項1に記載の情報処理装置。 - 前記通常状態は、前記対象者の居住空間を訪れる訪問者の識別状況を含み、
前記制御部は、前記通常状態の範疇に含まれない前記訪問者の前記識別状況が取得された場合、当該訪問者に係る情報の提供が行われるよう制御する、
請求項1に記載の情報処理装置。 - プロセッサが、自律移動体の動作を制御すること、
を含み、
前記制御することは、日常における対象者の言動または状態に係る学習の結果から推定された前記対象者の通常状態と、認識された前記対象者の言動または状態と、に基づいて、前記対象者の日常生活に係る情報の提供を制御すること、
をさらに含む、
情報処理方法。 - コンピュータを、
自律移動体の動作を制御する制御部、
を備え、
前記制御部は、日常における対象者の言動または状態に係る学習の結果から推定された前記対象者の通常状態と、認識された前記対象者の言動または状態と、に基づいて、前記対象者の日常生活に係る情報の提供を制御する、
情報処理装置、
として機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018229524 | 2018-12-07 | ||
JP2018229524 | 2018-12-07 | ||
PCT/JP2019/046117 WO2020116233A1 (ja) | 2018-12-07 | 2019-11-26 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020116233A1 true JPWO2020116233A1 (ja) | 2021-10-21 |
JP7375770B2 JP7375770B2 (ja) | 2023-11-08 |
Family
ID=70975332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020559074A Active JP7375770B2 (ja) | 2018-12-07 | 2019-11-26 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220016757A1 (ja) |
EP (1) | EP3893215A4 (ja) |
JP (1) | JP7375770B2 (ja) |
WO (1) | WO2020116233A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7441142B2 (ja) | 2020-08-28 | 2024-02-29 | 株式会社Nttドコモ | 管理装置、及び見守りシステム |
CN112034857B (zh) * | 2020-09-10 | 2023-10-31 | 北京信息科技大学 | 公共场所打喷嚏、咳嗽行为识别与消毒方法和系统 |
JP7121848B1 (ja) | 2021-11-12 | 2022-08-18 | 株式会社ユカリア | 情報処理装置、情報処理方法、情報処理プログラムおよび情報処理システム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1122038A4 (en) * | 1998-06-23 | 2009-06-17 | Sony Corp | ROBOT AND INFORMATION PROCESSING SYSTEM |
JP4320900B2 (ja) | 2000-02-09 | 2009-08-26 | ソニー株式会社 | 自律型のロボット装置を用いた監視システム及び自律型のロボット装置を用いた監視方法 |
JP2003296855A (ja) * | 2002-03-29 | 2003-10-17 | Toshiba Corp | 監視装置 |
JP2005284535A (ja) * | 2004-03-29 | 2005-10-13 | Sanyo Electric Co Ltd | 生活監視システム |
JP2007234066A (ja) * | 2007-06-18 | 2007-09-13 | Toshiba Corp | 監視装置 |
KR102071575B1 (ko) * | 2013-04-23 | 2020-01-30 | 삼성전자 주식회사 | 이동로봇, 사용자단말장치 및 그들의 제어방법 |
CN105654648B (zh) | 2016-03-28 | 2018-07-06 | 浙江吉利控股集团有限公司 | 防盗监控装置及系统和方法 |
JP6786912B2 (ja) | 2016-07-05 | 2020-11-18 | 富士ゼロックス株式会社 | 移動ロボットおよび移動制御システム |
WO2019226948A1 (en) * | 2018-05-23 | 2019-11-28 | Aeolus Robotics, Inc. | Robotic interactions for observable signs of core health |
-
2019
- 2019-11-26 US US17/309,431 patent/US20220016757A1/en active Pending
- 2019-11-26 EP EP19892729.5A patent/EP3893215A4/en not_active Withdrawn
- 2019-11-26 JP JP2020559074A patent/JP7375770B2/ja active Active
- 2019-11-26 WO PCT/JP2019/046117 patent/WO2020116233A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
WO2020116233A1 (ja) | 2020-06-11 |
EP3893215A4 (en) | 2022-01-19 |
US20220016757A1 (en) | 2022-01-20 |
JP7375770B2 (ja) | 2023-11-08 |
EP3893215A1 (en) | 2021-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230305530A1 (en) | Information processing apparatus, information processing method and program | |
JP7375770B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20230266767A1 (en) | Information processing apparatus, information processing method, and program | |
JP7351383B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JPWO2019087495A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2020522828A (ja) | コンピュータービジョンベースの監視システムおよび方法 | |
US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
US20230195401A1 (en) | Information processing apparatus and information processing method | |
US20210197393A1 (en) | Information processing device, information processing method, and program | |
JPWO2020129993A1 (ja) | ロボット | |
EP3992987A1 (en) | System and method for continously sharing behavioral states of a creature | |
JPWO2020153038A1 (ja) | 情報処理装置、および情報処理方法 | |
JP7298861B2 (ja) | 日常生活を記録する自律行動型ロボット | |
JPWO2020105309A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2022044843A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP2024055866A (ja) | 内部状態または外部環境に応じて自律的に行動選択するロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231009 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7375770 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |