JP7332310B2 - Information processing method, information processing apparatus, and information processing program - Google Patents

Information processing method, information processing apparatus, and information processing program Download PDF

Info

Publication number
JP7332310B2
JP7332310B2 JP2019048950A JP2019048950A JP7332310B2 JP 7332310 B2 JP7332310 B2 JP 7332310B2 JP 2019048950 A JP2019048950 A JP 2019048950A JP 2019048950 A JP2019048950 A JP 2019048950A JP 7332310 B2 JP7332310 B2 JP 7332310B2
Authority
JP
Japan
Prior art keywords
information
article
damaged
self
situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019048950A
Other languages
Japanese (ja)
Other versions
JP2020017258A (en
Inventor
貴生 小川
雅士 小出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to US16/516,547 priority Critical patent/US11357376B2/en
Priority to CN201910679631.3A priority patent/CN110772177B/en
Publication of JP2020017258A publication Critical patent/JP2020017258A/en
Priority to US17/742,722 priority patent/US11925304B2/en
Priority to JP2023130668A priority patent/JP2023156424A/en
Application granted granted Critical
Publication of JP7332310B2 publication Critical patent/JP7332310B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、機器に所定の動作を実行させる情報処理方法、情報処理装置及び情報処理プログラムに関するものである。 The present disclosure relates to an information processing method, an information processing apparatus, and an information processing program that cause a device to execute a predetermined operation.

従来、掃除動作中に、撮像部で撮像された撮像画像と、記憶部に記憶されている登録された異物の画像とを比較することで画像認識を行い、記憶部に記憶した登録された異物を認識する電気掃除装置が知られている(例えば、特許文献1参照)。この電気掃除装置は、登録された異物を認識したときに、認識された異物に対応して記憶部に記憶されている制御態様に基づいて吸引駆動部の制御を行うと共に、認識された異物が何であるかを特定する表示を、表示画面に表示する。 Conventionally, during a cleaning operation, image recognition is performed by comparing an image captured by an imaging unit with an image of a registered foreign object stored in a storage unit, and the registered foreign object stored in the storage unit is recognized. is known (see, for example, Patent Document 1). When the registered foreign object is recognized, the electric cleaning device controls the suction drive unit based on the control mode stored in the storage unit corresponding to the recognized foreign object, and the recognized foreign object is detected. An indication identifying what it is is displayed on the display screen.

特許第5771885号明細書Patent No. 5771885

しかしながら、上記従来の技術では、物品の破損が発生した状況を推定しておらず、更なる改善が必要とされていた。 However, in the conventional technology described above, the situation in which the article is damaged is not estimated, and further improvement is required.

本開示は、上記の問題を解決するためになされたもので、物品の破損が発生した状況に応じて、自走式装置に所定の動作を実行させることができる情報処理方法、情報処理装置及び情報処理プログラムを提供することを目的とするものである。 The present disclosure has been made to solve the above problems, and an information processing method, an information processing device, and an information processing method that can cause a self-propelled device to perform a predetermined operation according to the situation in which damage to an article has occurred. It aims at providing an information processing program.

本開示の一態様に係る情報処理方法は、情報処理装置における情報処理方法であって、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得し、前記第1情報に基づき、前記空間内に存在する物品の破損を検知し、前記第1情報に基づき、前記物品の破損が発生した状況を推定し、前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力する。 An information processing method according to an aspect of the present disclosure is an information processing method in an information processing apparatus, in which first information acquired by at least one of one or more sensors installed in a space is acquired, and Based on the first information, damage to an article existing in the space is detected. Based on the first information, the situation in which the article is damaged is estimated. Outputting second information for causing the running device to perform a predetermined operation.

本開示によれば、空間内に存在する物品が破損した際に、物品の破損が発生した状況に応じて、自走式装置に所定の動作を実行させることができる。 ADVANTAGE OF THE INVENTION According to this indication, when the article|item which exists in space is damaged, a self-propelled apparatus can be made to perform predetermined|prescribed operation|movement according to the condition which damage|damage of the article|item generate|occur|produced.

本開示の実施の形態1における機器制御システムの構成を示す図である。1 is a diagram showing a configuration of a device control system according to Embodiment 1 of the present disclosure; FIG. 本開示の実施の形態1におけるサーバ装置の構成を示す図である。1 is a diagram illustrating a configuration of a server device according to Embodiment 1 of the present disclosure; FIG. 本実施の形態1において機器動作情報記憶部に記憶される機器動作情報の一例を示す図である。4 is a diagram showing an example of device operation information stored in a device operation information storage unit in Embodiment 1. FIG. 本実施の形態1において物品情報記憶部に記憶される物品情報の一例を示す図である。4 is a diagram showing an example of article information stored in an article information storage unit in Embodiment 1. FIG. 本実施の形態1においてサービス情報記憶部に記憶される映画情報の一例を示す図である。4 is a diagram showing an example of movie information stored in a service information storage unit in Embodiment 1. FIG. 本実施の形態1においてサービス情報記憶部に記憶されるレストラン情報の一例を示す図である。4 is a diagram showing an example of restaurant information stored in a service information storage unit in Embodiment 1. FIG. 本開示の実施の形態1におけるサーバ装置の動作を説明するための第1のフローチャートである。4 is a first flowchart for explaining the operation of the server device according to Embodiment 1 of the present disclosure; 本開示の実施の形態1におけるサーバ装置の動作を説明するための第2のフローチャートである。7 is a second flowchart for explaining the operation of the server device according to Embodiment 1 of the present disclosure; 本実施の形態1において、日常的な動作中に物品が人物の手から滑り落ちた第1状況における機器の動作について説明するための図である。FIG. 4 is a diagram for explaining the operation of the device in the first situation in which an article slips out of a person's hand during daily operation in the first embodiment; 本実施の形態1において、複数の人物が喧嘩している第2状況における機器の動作について説明するための図である。FIG. 10 is a diagram for explaining the operation of the device in the second situation in which a plurality of persons are fighting in the first embodiment; 本実施の形態1において、不審者が侵入している第3状況における機器の動作について説明するための図である。FIG. 10 is a diagram for explaining the operation of the device in the third situation in which a suspicious person is intruding in the first embodiment; 本開示の実施の形態2における第1サーバ装置の構成を示す図である。FIG. 7 is a diagram showing the configuration of a first server device according to Embodiment 2 of the present disclosure; 本開示の実施の形態2における第2サーバ装置の構成を示す図である。FIG. 10 is a diagram showing a configuration of a second server device according to Embodiment 2 of the present disclosure; FIG.

(本開示の基礎となった知見)
上記の従来技術では、掃除対象物以外の異物の画像が予め記憶部に登録されており、掃除動作中に撮像された撮像画像と異物の画像とが比較され、登録された異物が認識され、認識された異物が何であるかを特定する表示が表示画面に表示される。そして、異物としては、電気掃除機の故障又は破損を避ける観点から、「ビニール袋」、「書類」、「コード」又は「ネジ」等が挙げられており、吸い込まれてしまう異物の清浄性を確保したり汚損及び破損を避けたりする観点から、「書類」、「マイクロSDカード」、「紙幣」及び「宝石」等が挙げられている。つまり、従来技術では、掃除対象物以外の異物が認識されるものの、例えば、破損したマグカップ等の掃除対象物は認識されない。
(Findings on which this disclosure is based)
In the conventional technology described above, images of foreign matter other than objects to be cleaned are registered in advance in a storage unit, and the captured image captured during the cleaning operation is compared with the image of the foreign matter to recognize the registered foreign matter. An indication specifying what the recognized foreign object is is displayed on the display screen. From the viewpoint of avoiding malfunction or damage to the vacuum cleaner, the foreign matter includes "plastic bags", "documents", "cords", "screws" and the like. From the viewpoint of securing and avoiding stains and damages, "documents", "micro SD cards", "banknotes" and "jewels" are mentioned. In other words, in the prior art, foreign matter other than the cleaning target is recognized, but the cleaning target such as a broken mug, for example, is not recognized.

また、従来技術では、物品が破損した場合、物品の破損が発生した状況が推定されることはない。そのため、従来技術は、物品の破損が発生した状況に応じて、電気掃除機に所定の動作を実行させることについては開示も示唆もされていない。 Moreover, in the conventional technology, when an article is damaged, the situation in which the article is damaged cannot be estimated. Therefore, the prior art does not disclose or suggest making the vacuum cleaner perform a predetermined operation according to the situation in which the article is damaged.

以上の課題を解決するために、本開示の一態様に係る情報処理方法は、情報処理装置における情報処理方法であって、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得し、前記第1情報に基づき、前記空間内に存在する物品の破損を検知し、前記第1情報に基づき、前記物品の破損が発生した状況を推定し、前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力する。 In order to solve the above problems, an information processing method according to one aspect of the present disclosure is an information processing method in an information processing device, in which at least one of one or more sensors installed in a space acquires Acquiring first information, detecting damage to an article existing in the space based on the first information, estimating a situation in which the article is damaged based on the first information, and estimating the situation , outputs the second information for causing the self-propelled device to perform a predetermined operation in the space.

この構成によれば、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報に基づき、物品の破損が発生した状況が推定され、推定された状況に応じて、空間内において自走式装置に所定の動作を実行させるための第2情報が出力される。したがって、空間内に存在する物品が破損した際に、物品の破損が発生した状況に応じて、自走式装置に所定の動作を実行させることができる。 According to this configuration, based on the first information acquired by at least one of the one or more sensors installed in the space, the situation in which the article has been damaged is estimated, and the space is detected according to the estimated situation. 2nd information for making a self-propelled device perform predetermined operation|movement is output inside. Therefore, when an article existing in the space is damaged, the self-propelled device can be caused to perform a predetermined operation according to the situation in which the article is damaged.

また、上記の情報処理方法において、前記第2情報は、前記推定した状況に応じて、前記空間内において前記自走式装置に所定の音声を出力させるための情報であってもよい。 Moreover, in said information processing method, the said 2nd information may be the information for making the said self-propelled apparatus output a predetermined|prescribed sound in the said space according to the said presumed situation.

この構成によれば、物品の破損が発生した状況に応じて、空間内において自走式装置に所定の音声を出力させることができる。例えば、物品の破損が発生した状況が、複数の人物が喧嘩している状況である場合、自走式装置に喧嘩中の複数の人物をなだめる音声を出力しながら移動させる動作を実行させることができる。 According to this configuration, it is possible to cause the self-propelled device to output a predetermined sound in the space depending on the situation in which the article is damaged. For example, if the article is damaged in a situation where a plurality of people are fighting, the self-propelled device can be caused to move while outputting a soothing voice to the people who are arguing. can.

また、上記の情報処理方法において、さらに、前記推定した状況を変化させるための情報を提示装置に提示させるための第3情報を出力してもよい。 Further, in the above information processing method, third information may be output for causing the presentation device to present information for changing the estimated situation.

この構成によれば、推定した状況を変化させるための情報を提示装置に提示させるための第3情報が出力されるので、物品の破損が発生した状況を変化させることができる。例えば、物品の破損が発生した状況が、複数の人物が喧嘩している状況である場合、喧嘩中の複数の人物が仲直りするのに適した情報を提示することができる。 According to this configuration, the third information for causing the presentation device to present information for changing the estimated situation is output, so it is possible to change the situation in which the article is damaged. For example, if the article is damaged in a situation where multiple people are arguing, it is possible to present information suitable for reconciling the quarreling people.

また、上記の情報処理方法において、前記自走式装置は、自走式掃除機であり、前記第2情報は、前記推定した状況に応じて、前記空間内において前記自走式掃除機に前記破損した物品を清掃させるための情報であってもよい。 Further, in the above information processing method, the self-propelled device is a self-propelled cleaner, and the second information is transmitted to the self-propelled cleaner in the space according to the estimated situation. It may be information for cleaning damaged articles.

この構成によれば、自走式装置は、自走式掃除機であり、物品の破損が発生した状況に応じて、空間内において自走式掃除機に破損した物品を清掃させることができる。例えば、物品の破損が発生した状況が、日常的な動作中に物品が人物の手から滑り落ちた状況である場合、自走式掃除機に破損物品を清掃させる動作を実行させることができる。 According to this configuration, the self-propelled device is a self-propelled cleaner, and the damaged article can be cleaned by the self-propelled cleaner in the space according to the situation in which the article is damaged. For example, when an article is damaged in a situation where the article slips out of a person's hand during daily operation, the self-propelled cleaner can be caused to clean the damaged article.

また、上記の情報処理方法において、前記推定した状況は、不審者が前記空間内に侵入した状況であり、前記第2情報は、前記空間内において前記自走式装置に前記不審者を攪乱する動作を実行させるための情報であってもよい。 In the above information processing method, the estimated situation is a situation in which a suspicious person has entered the space, and the second information causes the self-propelled device to disturb the suspicious person in the space. It may be information for executing an operation.

この構成によれば、物品の破損が発生した状況が、不審者が空間内に侵入した状況である場合、空間内において自走式装置に不審者を攪乱する動作を実行させることができる。 According to this configuration, when a situation in which damage to an article occurs is a situation in which a suspicious person has entered the space, the self-propelled device can be caused to perform an operation to disturb the suspicious person in the space.

また、上記の情報処理方法において、さらに、前記空間内に配置された撮像装置から前記不審者を撮像した画像データを取得し、さらに、取得した前記画像データと、前記不審者が存在することを通知するための通知情報とを送信してもよい。 Further, in the above information processing method, image data obtained by imaging the suspicious person is acquired from an imaging device arranged in the space, and further, the acquired image data and the presence of the suspicious person are detected. Notification information for notification may be transmitted.

この構成によれば、空間内に配置された撮像装置から不審者を撮像した画像データが取得され、取得された画像データと、不審者が存在することを通知するための通知情報とが送信されるので、不審者が存在することを他者に通知することができる。 According to this configuration, the image data of the suspicious person is acquired from the imaging device arranged in the space, and the acquired image data and the notification information for notifying the presence of the suspicious person are transmitted. Therefore, it is possible to notify others that a suspicious person exists.

また、上記の情報処理方法において、さらに、前記自走式装置が破損したことを示す破損情報が取得された場合、前記自走式装置の修理を依頼するための第4情報を出力してもよい。 Further, in the above information processing method, when damage information indicating that the self-propelled device is damaged is acquired, fourth information for requesting repair of the self-propelled device may be output. good.

この構成によれば、自走式装置が破損した場合に、自走式装置の修理を自動的に依頼することができる。 According to this configuration, when the self-propelled device is damaged, repair of the self-propelled device can be automatically requested.

また、上記の情報処理方法において、さらに、前記推定した状況の発生を抑制するための物品に関する情報を提示装置に提示させるための第5情報を出力してもよい。 Further, in the information processing method described above, fifth information may be output for causing the presentation device to present information about an article for suppressing occurrence of the estimated situation.

この構成によれば、物品の破損が発生した状況の発生を抑制するための物品に関する情報が提示装置に提示されるので、物品の破損が発生した状況の発生を抑制することができる。例えば、物品の破損が発生した状況が、不審者が空間内に侵入した状況である場合、不審者が空間内に侵入した状況の発生を抑制するための物品として防犯用品に関する情報を提示することができる。 According to this configuration, the presentation device presents the information about the article for suppressing the occurrence of the situation in which the article is damaged, so it is possible to suppress the occurrence of the situation in which the article is damaged. For example, when the article is damaged in a situation where a suspicious person has entered the space, presenting information about the crime prevention item as an article for suppressing the occurrence of the situation where the suspicious person has entered the space. can be done.

また、上記の情報処理方法において、前記1以上のセンサは、前記空間内に設置されたマイクロフォン装置及び撮像装置の少なくとも一方を含み、前記第1情報は、前記マイクロフォン装置によって取得された音データ及び前記撮像装置によって取得された画像データの少なくとも一方を含み、前記状況の推定は、前記音データ及び前記画像データの少なくとも一方に基づき、前記物品の破損が発生した前記状況を推定してもよい。 Further, in the above information processing method, the one or more sensors include at least one of a microphone device and an imaging device installed in the space, and the first information includes sound data acquired by the microphone device and At least one of the image data acquired by the imaging device may be included, and the estimation of the situation may be based on at least one of the sound data and the image data to estimate the situation in which the article is damaged.

この構成によれば、空間内に設置されたマイクロフォン装置によって取得された音データ及び空間内に設置された撮像装置によって取得された画像データの少なくとも一方に基づき、物品の破損が発生した状況を高い精度で推定することができる。 According to this configuration, based on at least one of the sound data acquired by the microphone device installed in the space and the image data acquired by the imaging device installed in the space, the situation in which the article has been damaged is highly evaluated. can be estimated with precision.

また、上記の情報処理方法において、前記第1情報の取得は、所定の時間間隔で前記第1情報を取得し、前記状況の推定は、前記物品の破損が発生した時点を基準とする所定の期間内に取得された複数の第1情報に基づき、前記物品の破損が発生した前記状況を推定してもよい。 In the information processing method described above, the first information is obtained at predetermined time intervals, and the situation is estimated based on a predetermined time when the article is damaged. The situation in which the article is damaged may be estimated based on a plurality of pieces of first information acquired within a period of time.

この構成によれば、所定の時間間隔で第1情報が取得され、物品の破損が発生した時点を基準とする所定の期間内に取得された複数の第1情報に基づき、物品の破損が発生した状況が推定されるので、例えば、物品の破損が発生した時点から所定の期間だけ過去の画像データを用いて物品の破損が発生した状況をより高い精度で推定することができる。 According to this configuration, the first information is acquired at predetermined time intervals, and damage to the article occurs based on a plurality of pieces of first information acquired within a predetermined period of time based on the time at which the damage to the article occurred. Since the state of damage is estimated, for example, it is possible to estimate the state of damage to the article with higher accuracy using past image data for a predetermined period from the time when the damage to the article occurred.

本開示の他の態様に係る情報処理装置は、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得する取得部と、前記第1情報に基づき、前記空間内に存在する物品の破損を検知する検知部と、前記第1情報に基づき、前記物品の破損が発生した状況を推定する推定部と、前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力する出力部と、を備える。 An information processing apparatus according to another aspect of the present disclosure includes an acquisition unit that acquires first information acquired by at least one of one or more sensors installed in a space, and based on the first information, the space an estimating unit for estimating a situation in which the article is damaged based on the first information; and a self-propelled robot in the space according to the estimated situation. an output unit for outputting second information for causing the formula device to perform a predetermined operation.

この構成によれば、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報に基づき、物品の破損が発生した状況が推定され、推定された状況に応じて、空間内において自走式装置に所定の動作を実行させるための第2情報が出力される。したがって、空間内に存在する物品が破損した際に、物品の破損が発生した状況に応じて、自走式装置に所定の動作を実行させることができる。 According to this configuration, based on the first information acquired by at least one of the one or more sensors installed in the space, the situation in which the article has been damaged is estimated, and the space is detected according to the estimated situation. 2nd information for making a self-propelled device perform predetermined operation|movement is output inside. Therefore, when an article existing in the space is damaged, the self-propelled device can be caused to perform a predetermined operation according to the situation in which the article is damaged.

本開示の他の態様に係る情報処理プログラムは、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得し、前記第1情報に基づき、前記空間内に存在する物品の破損を検知し、前記第1情報に基づき、前記物品の破損が発生した状況を推定し、前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力するようにコンピュータを機能させる。 An information processing program according to another aspect of the present disclosure acquires first information acquired by at least one of one or more sensors installed in a space, and based on the first information, exists in the space damage to the article is detected, based on the first information, the situation in which the article is damaged is estimated, and the self-propelled device is caused to perform a predetermined operation in the space according to the estimated situation. The computer is operated to output second information for.

この構成によれば、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報に基づき、物品の破損が発生した状況が推定され、推定された状況に応じて、空間内において自走式装置に所定の動作を実行させるための第2情報が出力される。したがって、空間内に存在する物品が破損した際に、物品の破損が発生した状況に応じて、自走式装置に所定の動作を実行させることができる。 According to this configuration, based on the first information acquired by at least one of the one or more sensors installed in the space, the situation in which the article has been damaged is estimated, and the space is detected according to the estimated situation. 2nd information for making a self-propelled device perform predetermined operation|movement is output inside. Therefore, when an article existing in the space is damaged, the self-propelled device can be caused to perform a predetermined operation according to the situation in which the article is damaged.

以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。 Embodiments of the present disclosure will be described below with reference to the accompanying drawings. It should be noted that the following embodiments are examples that embody the present disclosure, and do not limit the technical scope of the present disclosure.

(実施の形態1)
図1は、本開示の実施の形態1における機器制御システムの構成を示す図である。図1に示すように、機器制御システムは、サーバ装置3、ゲートウェイ(GW)5、第1センサ11、第2センサ12、自走式掃除機21及び表示装置22を備える。
(Embodiment 1)
FIG. 1 is a diagram showing the configuration of a device control system according to Embodiment 1 of the present disclosure. As shown in FIG. 1 , the device control system includes a server device 3 , gateway (GW) 5 , first sensor 11 , second sensor 12 , self-propelled cleaner 21 and display device 22 .

ゲートウェイ5、第1センサ11、第2センサ12、自走式掃除機21及び表示装置22は、住宅10内に配置される。ゲートウェイ5は、第1センサ11、第2センサ12、自走式掃除機21及び表示装置22と無線で通信可能に接続される。また、ゲートウェイ5は、ネットワーク4を介してサーバ装置3と互いに通信可能に接続される。ネットワーク4は、例えばインターネットである。 Gateway 5 , first sensor 11 , second sensor 12 , self-propelled cleaner 21 and display device 22 are arranged inside house 10 . The gateway 5 is wirelessly communicatively connected to the first sensor 11, the second sensor 12, the self-propelled cleaner 21, and the display device 22. FIG. Also, the gateway 5 is connected to the server device 3 via the network 4 so as to be able to communicate with each other. Network 4 is, for example, the Internet.

第1センサ11、第2センサ12、自走式掃除機21及び表示装置22は、ゲートウェイ5を介してサーバ装置3と互いに通信可能に接続される。なお、第1センサ11、第2センサ12、自走式掃除機21及び表示装置22は、ゲートウェイ5を介さずに、サーバ装置3と直接通信可能に接続されてもよい。 The first sensor 11 , the second sensor 12 , the self-propelled cleaner 21 and the display device 22 are connected to the server device 3 via the gateway 5 so as to be able to communicate with each other. The first sensor 11 , the second sensor 12 , the self-propelled cleaner 21 and the display device 22 may be directly connected to the server device 3 without going through the gateway 5 so as to be able to communicate therewith.

図2は、本開示の実施の形態1におけるサーバ装置の構成を示す図である。サーバ装置3は、住宅10内に配置された複数のセンサを含むセンサ群1と、住宅10内に配置された複数の機器を含む機器群2と通信可能に接続されている。センサ群1は、第1センサ11及び第2センサ12等の種々のセンサを含む。機器群2は、自走式掃除機21、表示装置22及び情報機器23等の種々の機器を含む。なお、図2において、ゲートウェイ5は省略されている。 FIG. 2 is a diagram showing a configuration of a server device according to Embodiment 1 of the present disclosure. The server device 3 is communicably connected to a sensor group 1 including a plurality of sensors placed inside the house 10 and a device group 2 including a plurality of devices placed inside the house 10 . The sensor group 1 includes various sensors such as a first sensor 11 and a second sensor 12 . The device group 2 includes various devices such as a self-propelled cleaner 21, a display device 22, an information device 23, and the like. Note that the gateway 5 is omitted in FIG.

第1センサ11は、例えば、マイクロフォン装置であり、住宅10内の音を収集し、音データをサーバ装置3へ送信する。第2センサ12は、例えば、撮像装置であり、住宅10内を撮像し、画像データをサーバ装置3へ送信する。なお、センサ群1は、熱画像センサ及び振動センサを含んでもよい。センサ群1を構成するセンサは、住宅10の壁、床及び家具に設置されてもよく、機器群2のいずれかの機器に搭載されていてもよい。 The first sensor 11 is, for example, a microphone device, collects sounds inside the house 10 , and transmits the sound data to the server device 3 . The second sensor 12 is, for example, an imaging device, images the inside of the house 10 , and transmits the image data to the server device 3 . Note that the sensor group 1 may include a thermal image sensor and a vibration sensor. The sensors that constitute the sensor group 1 may be installed on the walls, floors, and furniture of the house 10 , or may be mounted on any device of the device group 2 .

自走式掃除機21は、自走式装置の一例であり、自律的に移動しながら吸引清掃を行う。自走式掃除機21は、住宅10内の床面上を自律的に移動しながら床面を掃除する。通常、自走式掃除機21は、住宅10内の所定の場所に設置された充電装置(図示せず)に接続されており、自走式掃除機21の本体に設けられた清掃開始ボタンがユーザにより押下された場合、又はサーバ装置3から清掃指示情報を受信した場合、充電装置から離れ、清掃を開始する。自走式掃除機21は、不図示の制御部、カメラ、スピーカ、駆動部、清掃部及び通信部を備える。 The self-propelled cleaner 21 is an example of a self-propelled device, and performs suction cleaning while moving autonomously. The self-propelled cleaner 21 cleans the floor surface in the house 10 while autonomously moving on the floor surface. Normally, the self-propelled cleaner 21 is connected to a charging device (not shown) installed at a predetermined place in the house 10, and a cleaning start button provided on the main body of the self-propelled cleaner 21 is pressed. When pressed by the user, or when cleaning instruction information is received from the server device 3, it moves away from the charging device and starts cleaning. The self-propelled cleaner 21 includes a control section, a camera, a speaker, a drive section, a cleaning section, and a communication section (not shown).

制御部は、自走式掃除機21による清掃動作を制御する。駆動部は、自走式掃除機21を移動させる。駆動部は、自走式掃除機21を移動させるための駆動輪及び駆動輪を駆動するモータを含む。駆動輪は自走式掃除機21の底部に設置されている。清掃部は、自走式掃除機21の底部に設置され、吸引対象物を吸引する。 The controller controls the cleaning operation by the self-propelled cleaner 21 . The drive unit moves the self-propelled cleaner 21 . The drive unit includes drive wheels for moving the self-propelled cleaner 21 and motors that drive the drive wheels. A driving wheel is installed at the bottom of the self-propelled cleaner 21 . The cleaning unit is installed at the bottom of the self-propelled cleaner 21 and sucks the object to be sucked.

カメラは、自走式掃除機21の進行方向を撮像する。通信部は、カメラによって撮像された画像データをサーバ装置3へ送信する。また、通信部は、清掃を開始するための清掃指示情報をサーバ装置3から受信する。制御部は、通信部によって清掃指示情報が受信された場合、清掃を開始する。なお、清掃指示情報は、住宅10内において物品6が破損した破損位置を含む。破損位置は、例えばマグカップ及び皿などの物品6が破損した位置である。自走式掃除機21は、破損位置まで移動した後、破損位置に存在する吸引対象物を撮像し、撮像した画像データをサーバ装置3へ送信する。そして、自走式掃除機21は、破損位置を清掃し、充電装置へ戻る。 The camera captures the traveling direction of the self-propelled cleaner 21 . The communication unit transmits image data captured by the camera to the server device 3 . The communication unit also receives cleaning instruction information for starting cleaning from the server device 3 . A control part starts cleaning, when cleaning instruction|indication information is received by the communication part. In addition, the cleaning instruction information includes a damaged position where the article 6 is damaged within the house 10 . A damaged location is a location where an article 6, such as a mug and a plate, is damaged. After moving to the damaged position, the self-propelled cleaner 21 captures an image of the object to be sucked existing at the damaged position, and transmits the captured image data to the server device 3 . Then, the self-propelled cleaner 21 cleans the damaged position and returns to the charging device.

スピーカは、物品の破損が発生した状況に応じて、所定の音声を出力する。例えば、物品の破損が発生した状況が、複数の人物が喧嘩している状況であった場合、スピーカは、喧嘩している複数の人物をなだめるような音声を出力する。 The speaker outputs a predetermined sound depending on the situation in which the article has been damaged. For example, when the article is damaged in a situation in which a plurality of people are arguing, the speaker outputs a sound that soothes the quarreling persons.

なお、本実施の形態1では、機器制御システムは、自走式掃除機21を自走式装置の一例として備えているが、本開示は特にこれに限定されず、ペット型ロボット等の自走式ロボットを自走式装置の一例として備えてもよい。自走式ロボットは、自走式掃除機21の清掃機能以外の機能を有している。 In Embodiment 1, the device control system includes the self-propelled cleaner 21 as an example of a self-propelled device, but the present disclosure is not particularly limited to this, and a self-propelled device such as a pet robot can be used. A type robot may be provided as an example of a self-propelled device. The self-propelled robot has functions other than the cleaning function of the self-propelled cleaner 21 .

表示装置22は、住宅10内の所定の部屋の壁に配置される。また、本実施の形態1における機器制御システムは、複数の表示装置22を備えてもよい。複数の表示装置22は、例えば、リビング、キッチン、寝室、風呂、トイレ及び玄関等の各部屋の壁に配置されてもよい。また、表示装置22は、スマートフォン又はタブレット型コンピュータ等の情報端末であってもよい。表示装置22は、不図示の通信部、表示部及び入力部を備える。 The display device 22 is arranged on the wall of a predetermined room inside the house 10 . Further, the equipment control system in Embodiment 1 may include a plurality of display devices 22 . A plurality of display devices 22 may be arranged, for example, on the wall of each room such as a living room, kitchen, bedroom, bath, toilet, and entrance. Also, the display device 22 may be an information terminal such as a smart phone or a tablet computer. The display device 22 includes a communication section, a display section, and an input section (not shown).

通信部は、住宅10内に配置された機器から、機器の状態を示す情報を受信する。また、通信部は、サーバ装置3から提示情報を受信する。 The communication unit receives information indicating the state of the equipment from the equipment placed in the house 10 . The communication unit also receives presentation information from the server device 3 .

表示部は、例えば、液晶表示装置であり、種々の情報を表示する。表示部は、住宅10内に配置された機器に関する情報を表示する。表示部は、例えば、洗濯機の現在の状態を表示したり、空調機器の現在の状態を表示したりする。また、表示部は、通信部によって受信された提示情報を表示する。 The display unit is, for example, a liquid crystal display device, and displays various information. The display unit displays information about the equipment arranged in the house 10 . The display unit displays, for example, the current state of the washing machine or the current state of the air conditioner. Also, the display unit displays the presentation information received by the communication unit.

入力部は、例えば、タッチパネルであり、ユーザによる入力操作を受け付ける。入力部は、住宅10内に配置された機器に対する操作指示の入力を受け付ける。入力部は、例えば、空調機器に対する操作指示の入力を受け付けたり、照明機器に対する操作指示の入力を受け付けたりする。通信部は、入力部によって入力された操作指示を機器へ送信する。 The input unit is, for example, a touch panel, and receives input operations by the user. The input unit receives an input of an operation instruction for the equipment arranged in the house 10 . The input unit receives, for example, an input of an operation instruction for an air conditioner or an input of an operation instruction for a lighting device. The communication unit transmits the operation instruction input by the input unit to the device.

情報機器23は、例えば、スマートフォン、タブレット型コンピュータ、パーソナルコンピュータ又は携帯電話機であり、外部と通信する機能を有している。情報機器23は、不図示の通信部を備える。通信部は、住宅10内に侵入した不審者を撮像した画像データと、不審者が存在することを通知するための通知情報とをサーバ装置3から受信し、受信した画像データ及び通知情報を警察が管理するサーバ装置へ送信する。サーバ装置3は、住宅10内の情報機器23を介して画像データ及び通知情報を警察が管理するサーバ装置へ送信することにより、警察は、画像データ及び通知情報の送信元を特定することができる。 The information device 23 is, for example, a smart phone, a tablet computer, a personal computer, or a mobile phone, and has a function of communicating with the outside. The information equipment 23 includes a communication unit (not shown). The communication unit receives image data of an image of a suspicious person who has entered the house 10 and notification information for notifying the presence of the suspicious person from the server device 3, and sends the received image data and notification information to the police. to the server device managed by The server device 3 transmits the image data and the notification information to the server device managed by the police via the information device 23 in the house 10, so that the police can identify the source of the image data and the notification information. .

なお、本実施の形態1において、サーバ装置3は、情報機器23を介して画像データ及び通知情報を警察が管理するサーバ装置へ送信しているが、本開示は特にこれに限定されず、サーバ装置3は、情報機器23を介さずに、画像データ及び通知情報を警察が管理するサーバ装置へ直接送信してもよい。 In the first embodiment, the server device 3 transmits the image data and the notification information to the server device managed by the police via the information device 23, but the present disclosure is not particularly limited to this, and the server device 3 The device 3 may directly transmit the image data and notification information to the server device managed by the police without going through the information device 23 .

機器群2は、自走式掃除機21、表示装置22及び情報機器23以外に、洗濯機、照明機器、空調機器、電動シャッター、電気錠及び空気清浄機等を含む。機器群2を構成する機器は、例えば、家電機器、情報機器及び住宅設備機器を含む。 The device group 2 includes, in addition to the self-propelled cleaner 21, the display device 22 and the information device 23, a washing machine, a lighting device, an air conditioner, an electric shutter, an electric lock, an air purifier, and the like. Devices that make up the device group 2 include, for example, home appliances, information devices, and home equipment.

サーバ装置3は、通信部31、プロセッサ32及びメモリ33を備える。 The server device 3 includes a communication section 31 , a processor 32 and a memory 33 .

通信部31は、センサデータ受信部311、制御情報送信部312、提示情報送信部313及び通知情報送信部314を備える。プロセッサ32は、破損検知部321、状況推定部322、破損位置特定部323、機器動作決定部324、破損物品特定部325、代替物品特定部326、提示情報生成部327、サービス特定部328及び通知情報生成部329を備える。メモリ33は、機器動作情報記憶部331、物品情報記憶部332及びサービス情報記憶部333を備える。 The communication unit 31 includes a sensor data reception unit 311 , a control information transmission unit 312 , a presentation information transmission unit 313 and a notification information transmission unit 314 . The processor 32 includes a damage detection unit 321, a situation estimation unit 322, a damage position identification unit 323, an equipment operation determination unit 324, a damaged item identification unit 325, a substitute item identification unit 326, a presentation information generation unit 327, a service identification unit 328, and a notification An information generator 329 is provided. The memory 33 includes a device operation information storage section 331 , an article information storage section 332 and a service information storage section 333 .

センサデータ受信部311は、住宅10(空間)内に設置された1以上のセンサの少なくとも1つにおいて取得されたセンサデータ(第1情報)を取得する。センサデータ受信部311は、センサ群1の各センサからセンサデータを受信する。センサデータ(第1情報)は、第1センサ11(マイクロフォン装置)によって取得された音データ及び第2センサ12(撮像装置)によって取得された画像データを含む。センサデータ受信部311は、第1センサ11から音データをセンサデータとして受信し、第2センサ12から画像データをセンサデータとして受信する。 The sensor data receiving unit 311 acquires sensor data (first information) acquired by at least one of the one or more sensors installed in the house 10 (space). The sensor data receiving unit 311 receives sensor data from each sensor of the sensor group 1 . The sensor data (first information) includes sound data acquired by the first sensor 11 (microphone device) and image data acquired by the second sensor 12 (imaging device). The sensor data receiving unit 311 receives sound data as sensor data from the first sensor 11 and receives image data as sensor data from the second sensor 12 .

また、センサデータ受信部311は、機器群2の各機器からセンサデータを受信する。機器群2の中には、センサを備えた機器もある。センサを備えた機器は、センサデータをサーバ装置3へ送信する。上記のように、自走式掃除機21はカメラを備えている。そのため、センサデータ受信部311は、自走式掃除機21から画像データをセンサデータとして受信する。また、表示装置22がマイクロフォン及びカメラを備えてもよく、センサデータ受信部311は、表示装置22から音データ及び画像データをセンサデータとして受信してもよい。 Also, the sensor data receiving unit 311 receives sensor data from each device of the device group 2 . Devices in the device group 2 also include devices equipped with sensors. A device equipped with a sensor transmits sensor data to the server device 3 . As described above, self-propelled cleaner 21 is equipped with a camera. Therefore, the sensor data receiving unit 311 receives image data from the self-propelled cleaner 21 as sensor data. Also, the display device 22 may include a microphone and a camera, and the sensor data receiving unit 311 may receive sound data and image data from the display device 22 as sensor data.

破損検知部321は、センサデータ受信部311によって受信されたセンサデータ(第1情報)に基づき、住宅10内に存在する物品の破損を検知する。破損検知部321は、第1センサ11から受信した音データに物品が破損した際に発生する音の特徴が含まれている場合、物品が破損したことを検知する。メモリ33は、例えば、陶器又はガラスが割れる音などの複数の破損音の周波数成分を予め記憶してもよい。破損検知部321は、第1センサ11から受信した音データの周波数成分と、メモリ33に記憶されている複数の破損音の周波数成分とを比較し、2つの周波数成分が一致した場合、物品が破損したことを検知する。 The damage detection unit 321 detects damage to articles existing in the house 10 based on the sensor data (first information) received by the sensor data reception unit 311 . If the sound data received from the first sensor 11 includes the characteristics of the sound generated when the article is damaged, the damage detection unit 321 detects that the article is damaged. The memory 33 may pre-store, for example, frequency components of a plurality of breaking sounds such as the sound of breaking pottery or glass. The damage detection unit 321 compares the frequency components of the sound data received from the first sensor 11 with the frequency components of a plurality of damage sounds stored in the memory 33, and if the two frequency components match, the article is damaged. Detect damage.

なお、破損検知部321は、物品の破損が発生した時点の音データと、物品の破損が発生したこととを教師データとして機械学習された予測モデルを用いて、第1センサ11から受信した音データから、物品の破損が発生したことを推定してもよい。この場合、予測モデルは、予めメモリ33に記憶されている。 Note that the damage detection unit 321 detects the sound received from the first sensor 11 using a prediction model machine-learned using the sound data at the time when the article was damaged and the fact that the article was damaged as teacher data. From the data, it may be inferred that damage to the item has occurred. In this case, the prediction model is stored in the memory 33 in advance.

また、破損検知部321は、第2センサ12によって撮像された画像データから、物品が破損したことを検知してもよい。例えば、センサデータ受信部311は、第2センサ12から時間的に連続した画像データを取得してもよい。破損検知部321は、取得した画像データを解析し、当該画像データに、住宅10内の人物の手から物品が落下し、床面で物品が割れた様子が含まれている場合、物品が破損したことを検知してもよい。 Further, the damage detection unit 321 may detect that the article is damaged from the image data captured by the second sensor 12 . For example, the sensor data receiving unit 311 may acquire temporally continuous image data from the second sensor 12 . The damage detection unit 321 analyzes the acquired image data, and if the image data includes a state in which an article is dropped from the hand of a person in the house 10 and the article is broken on the floor surface, the article is damaged. You can detect what you have done.

また、破損検知部321は、振動センサなどの他のセンサからのセンサデータを用いて物品が破損したことを検知してもよい。また、破損検知部321は、センサ群1の複数のセンサからのセンサデータを用いて、物品が破損したことを検知してもよい。 Moreover, the damage detection unit 321 may detect damage to the article using sensor data from another sensor such as a vibration sensor. Further, the damage detection unit 321 may detect damage to the article using sensor data from a plurality of sensors of the sensor group 1 .

状況推定部322は、センサデータ(第1情報)に基づき、物品の破損が発生した状況を推定する。状況推定部322は、音データ及び画像データの少なくとも一方に基づき、物品の破損が発生した状況を推定する。すなわち、センサデータ受信部311は、所定の時間間隔で画像データを取得する。状況推定部322は、物品の破損が発生した時点を基準とする所定の期間内に取得された複数の画像データに基づき、物品の破損が発生した状況を推定する。破損検知部321は、音データから物品が破損した音の特徴成分を認識することにより、物品の破損が発生した時点を特定することができる。状況推定部322は、特定された物品の破損が発生した時点から過去の所定の期間内に取得された複数の画像データに基づき、物品の破損が発生した状況を推定する。 The situation estimation unit 322 estimates the situation in which the article is damaged based on the sensor data (first information). The situation estimation unit 322 estimates the situation in which the article is damaged based on at least one of the sound data and the image data. That is, the sensor data receiving unit 311 acquires image data at predetermined time intervals. The situation estimating unit 322 estimates the situation in which the article is damaged based on a plurality of image data acquired within a predetermined period starting from the time when the article was damaged. The damage detection unit 321 can identify the point in time when the article is damaged by recognizing the characteristic component of the sound of the article being damaged from the sound data. The situation estimating unit 322 estimates the situation in which the damage to the article occurred based on a plurality of image data acquired within a predetermined period in the past from the point in time when the specified damage to the article occurred.

例えば、人物の日常的な動作中に物品が人物の手から滑り落ちた場合、物品は破損する。また、例えば、複数の人物が喧嘩している場合、複数の人物のうちの1の人物が物品を投げることにより、物品は破損する。また、例えば、不審者が住宅10内に侵入した場合、不審者が物品を破壊することにより、物品は破損する。そのため、物品の破損が発生した状況としては、例えば、日常的な動作中に物品が人物の手から滑り落ちた第1状況、複数の人物が喧嘩している第2状況、及び不審者が侵入している第3状況が存在する。状況推定部322は、物品の破損が発生した状況が、日常的な動作中に物品が人物の手から滑り落ちた第1状況、複数の人物が喧嘩している第2状況、及び不審者が侵入している第3状況のいずれであるかを推定する。 For example, if an item slips out of a person's hand during the person's routine movement, the item will be damaged. Also, for example, when a plurality of persons are arguing, one of the plurality of persons throws the article, thereby damaging the article. Also, for example, when a suspicious person intrudes into the house 10, the suspicious person destroys the article, thereby damaging the article. For this reason, the situations in which an article is damaged include, for example, a first situation in which an article slips out of a person's hand during daily activities, a second situation in which a plurality of people are arguing, and a suspicious person breaking in. There is a third situation where The situation estimating unit 322 determines that the situation in which the damage to the article has occurred includes a first situation in which the article slips out of the hand of a person during daily activities, a second situation in which a plurality of people are fighting, and a suspicious person. Estimate which of the third situations you are intruding on.

状況推定部322は、物品の破損が発生した時点の直前の複数の画像データを解析し、複数の画像データに含まれる人物の手と物品とを認識する。そして、状況推定部322は、当該人物の手から物品が落下した場合、物品の破損が発生した状況が、日常的な動作中に物品が人物の手から滑り落ちた第1状況であると推定する。なお、状況推定部322は、物品の破損が発生した時点の直前の音データを取得し、音データに人物が驚く声が含まれている場合、物品の破損が発生した状況が、日常的な動作中に物品が人物の手から滑り落ちた第1状況であると推定してもよい。 The situation estimation unit 322 analyzes a plurality of image data immediately before the damage to the article occurred, and recognizes the person's hand and the article included in the plurality of image data. Then, when the article falls from the person's hand, the situation estimation unit 322 estimates that the situation in which the article is damaged is the first situation in which the article slips out of the person's hand during daily activities. do. Note that the situation estimation unit 322 acquires the sound data immediately before the damage to the article occurred. A first situation may be assumed in which the item has slipped out of the person's hand while in motion.

また、状況推定部322は、物品の破損が発生した時点の直前の複数の画像データを解析し、複数の画像データに含まれる複数の人物の手と物品とを認識する。そして、状況推定部322は、複数の人物のうちの1の人物が物品を投げた場合、物品の破損が発生した状況が、複数の人物が喧嘩している第2状況であると推定する。なお、状況推定部322は、物品の破損が発生した時点の直前の音データを取得し、音データに複数の人物が言い争う声が含まれている場合、物品の破損が発生した状況が、複数の人物が喧嘩している第2状況であると推定してもよい。 In addition, the situation estimation unit 322 analyzes a plurality of image data immediately before the damage to the article occurred, and recognizes the hands of the plurality of persons and the article included in the plurality of image data. Then, when one of the plurality of persons throws the article, the situation estimation unit 322 estimates that the situation in which the article is damaged is the second situation in which the plurality of persons are fighting. Note that the situation estimation unit 322 acquires the sound data immediately before the damage to the article occurred. may be estimated to be a second situation in which two persons are quarreling.

また、状況推定部322は、物品の破損が発生した時点の直前の音データを取得し、音データに含まれる複数の人物の声の音量閾値以上である場合、物品の破損が発生した状況が、複数の人物が喧嘩している第2状況であると推定してもよい。また、状況推定部322は、物品の破損が発生した時点の直前の複数の画像データを取得し、複数の画像データに含まれる複数の人物が喧嘩している動きを認識してもよい。また、状況推定部322は、振動センサによって複数の人物が喧嘩している際に発生する振動を検出してもよい。 In addition, the situation estimation unit 322 acquires the sound data immediately before the damage to the article occurred. , a second situation in which a plurality of people are fighting. In addition, the situation estimation unit 322 may acquire a plurality of image data immediately before the damage to the article occurs, and recognize the movement of a fight between a plurality of persons included in the plurality of image data. Moreover, the situation estimation unit 322 may detect vibration generated when a plurality of people are arguing with a vibration sensor.

さらに、状況推定部322は、物品の破損が発生した時点の直前の複数の画像データを解析し、複数の画像データに含まれる人物を認識する。そして、状況推定部322は、予め登録されている住宅10の住人ではない人物が認識された場合、物品の破損が発生した状況が、不審者が侵入している第3状況であると推定する。なお、状況推定部322は、予め登録されている住宅10の住人ではない人物が認識され、かつ予め登録されている住宅10の住人が認識されなかった場合、物品の破損が発生した状況が、不審者が侵入している第3状況であると推定してもよい。 Furthermore, the situation estimation unit 322 analyzes a plurality of image data immediately before the damage of the article occurred, and recognizes the person included in the plurality of image data. Then, when a person who is not a pre-registered resident of the house 10 is recognized, the situation estimating unit 322 estimates that the situation in which the article is damaged is the third situation in which a suspicious person has entered. . If a person who is not the pre-registered resident of the house 10 is recognized and the pre-registered resident of the house 10 is not recognized, the situation estimation unit 322 determines that the situation in which the article has been damaged is You may presume that it is the 3rd situation where a suspicious person intrudes.

なお、状況推定部322は、物品の破損が発生した時点の直前の画像データと、物品の破損が発生した状況とを教師データとして機械学習された予測モデルを用いて、物品の破損が発生した時点の直前の画像データから、物品の破損が発生した状況を推定してもよい。なお、予測モデルは、予めメモリ33に記憶されている。 The situation estimating unit 322 uses a prediction model that is machine-learned using the image data immediately before the damage to the article occurred and the situation in which the damage to the article occurred as teacher data. From the image data immediately before the point in time, the situation in which the article was damaged may be estimated. Note that the prediction model is stored in the memory 33 in advance.

なお、本実施の形態1における物品の破損が発生した状況は、上記の第1状況~第3状況に限定されない。 It should be noted that the situation in which the article is damaged in Embodiment 1 is not limited to the first to third situations described above.

破損位置特定部323は、住宅10内における物品の破損位置を特定する。メモリ33は、例えば、2次元の座標空間で表される住宅10の間取り図を予め記憶してもよい。なお、自走式掃除機21は、住宅10内を移動することにより間取り図を作成し、作成した間取り図をサーバ装置3へ送信してもよい。破損位置特定部323は、物品が破損した音の発生源の間取り図上の座標を破損位置として特定する。 The damaged position specifying unit 323 specifies the damaged position of the article in the house 10 . The memory 33 may pre-store, for example, a floor plan of the house 10 expressed in a two-dimensional coordinate space. Self-propelled cleaner 21 may create a floor plan by moving inside house 10 and transmit the created floor plan to server device 3 . The damage position specifying unit 323 specifies the coordinates on the floor plan of the source of the sound caused by the damage of the article as the damage position.

なお、破損位置特定部323は、複数のマイクロフォンによって物品が破損した音を収集することにより、より正確に物品が破損した音の発生源を特定することができる。また、破損位置特定部323は、第2センサ12によって撮像された画像データから、物品が破損した位置を特定してもよい。 It should be noted that the damage location identification unit 323 can more accurately identify the source of the sound of the damage of the article by collecting the sound of the damage of the article with a plurality of microphones. Further, the damaged position specifying section 323 may specify the position where the article is damaged from the image data captured by the second sensor 12 .

機器動作決定部324は、状況推定部322によって推定された状況に応じて、住宅10(空間)内において自走式掃除機21(自走式装置)に実行させる所定の動作を決定する。また、機器動作決定部324は、状況推定部322によって推定された状況に応じて、自走式掃除機21以外の他の機器に実行させる所定の動作を決定してもよい。また、機器動作決定部324は、機器群2を構成する機器だけでなく、状況推定部322によって推定された状況に応じて、センサ群1を構成するセンサに実行させる所定の動作を決定してもよい。 The appliance operation determination unit 324 determines a predetermined operation to be executed by the self-propelled cleaner 21 (self-propelled device) in the house 10 (space) according to the situation estimated by the situation estimation unit 322 . Further, the device operation determination unit 324 may determine a predetermined operation to be executed by a device other than the self-propelled cleaner 21 according to the situation estimated by the situation estimation unit 322 . In addition, the device operation determination unit 324 determines a predetermined operation to be executed by the sensors forming the sensor group 1 according to the situation estimated by the situation estimation unit 322 as well as the devices forming the device group 2. good too.

機器動作情報記憶部331は、物品の破損が発生した状況と、機器に実行させる動作とを対応付けた機器動作情報を予め記憶している。 The device operation information storage unit 331 stores in advance device operation information that associates a situation in which an article has been damaged and an operation to be executed by the device.

図3は、本実施の形態1において機器動作情報記憶部に記憶される機器動作情報の一例を示す図である。 FIG. 3 is a diagram showing an example of device operation information stored in the device operation information storage unit in the first embodiment.

図3に示すように、物品の破損が発生した状況には、機器に実行させる動作が対応付けられている。日常的な動作中に物品が人物の手から滑り落ちた第1状況には、自走式掃除機21に破損物品を吸引させる動作と、表示装置22に破損物品の代替物品を提示させる動作とが対応付けられている。また、複数の人物が喧嘩している第2状況には、自走式掃除機21に喧嘩中の複数の人物をなだめる音声を出力しながら移動させる動作と、表示装置22に仲直りに適したレストラン又は映画を提示させる動作とが対応付けられている。また、不審者が侵入している第3状況には、自走式掃除機21に不審者の足下を攪乱しながら移動させる動作と、撮像装置(第2センサ12)に不審者を撮像させる動作と、情報機器23に不審者を撮像した画像データと不審者が存在することを通知するための通知情報とを警察に送信させる動作とが対応付けられている。 As shown in FIG. 3, an action to be executed by the device is associated with a situation in which an article has been damaged. In a first situation in which an article slips out of a person's hand during a routine operation, an action of causing the self-propelled cleaner 21 to suck up the damaged article and an action of causing the display device 22 to present a substitute for the damaged article are performed. are associated. In a second situation in which a plurality of people are arguing, the operation of moving the self-propelled cleaner 21 while outputting a soothing voice to the plurality of people who are arguing and displaying a restaurant suitable for reconciliation on the display device 22 is performed. Or an action of presenting a movie is associated. In addition, in the third situation where a suspicious person has entered, the operation of moving the self-propelled cleaner 21 while disturbing the feet of the suspicious person and the operation of causing the imaging device (second sensor 12) to image the suspicious person. and the operation of causing the information device 23 to transmit image data of an image of a suspicious person and notification information for notifying the presence of the suspicious person to the police.

なお、物品の破損が発生した状況に対応付けられる機器の動作については、上記に限定されない。 Note that the operation of the device associated with the situation in which the article is damaged is not limited to the above.

機器動作決定部324は、機器動作情報記憶部331を参照し、状況推定部322によって推定された状況に対応付けられている機器に実行させる所定の動作を決定する。 The device operation determination unit 324 refers to the device operation information storage unit 331 and determines a predetermined operation to be executed by the device associated with the situation estimated by the situation estimation unit 322 .

機器動作決定部324は、日常的な動作中に物品が人物の手から滑り落ちた第1状況が推定された場合、破損物品を吸引させる自走式掃除機21の動作と、破損物品の代替物品を提示させる表示装置22の動作とを決定する。また、機器動作決定部324は、複数の人物が喧嘩している第2状況が推定された場合、喧嘩中の複数の人物をなだめる音声を出力しながら移動させる自走式掃除機21の動作と、仲直りに適したレストラン又は映画を提示させる表示装置22の動作とを決定する。また、機器動作決定部324は、不審者が侵入している第3状況が推定された場合、不審者の足下を攪乱しながら移動させる自走式掃除機21の動作と、不審者を撮像させる撮像装置(第2センサ12)の動作と、不審者を撮像した画像データと不審者が存在することを通知するための通知情報とを警察に送信させる情報機器23の動作とを決定する。 When a first situation is estimated in which an article slips out of a person's hand during daily operation, the device operation determination unit 324 determines the operation of the self-propelled cleaner 21 to suck up the damaged article and the replacement of the damaged article. It determines the operation of the display device 22 that causes the item to be presented. Further, when a second situation in which a plurality of people are arguing is estimated, the device operation determination unit 324 operates the self-propelled cleaner 21 to move while outputting a soothing voice to the plurality of people who are arguing. , and the operation of the display device 22 to present restaurants or movies suitable for reconciliation. In addition, when the third situation in which a suspicious person has entered is estimated, the device operation determination unit 324 causes the self-propelled cleaner 21 to move while disturbing the feet of the suspicious person and to image the suspicious person. The operation of the imaging device (second sensor 12) and the operation of the information device 23 for transmitting the image data of the suspicious person and the notification information for notifying the presence of the suspicious person to the police are determined.

また、機器動作決定部324は、自走式掃除機21の動作を制御する。機器動作決定部324は、推定された状況に応じて、空間内において自走式掃除機21(自走式装置)に所定の動作を実行させるための制御情報(第2情報)を生成する。ここで、制御情報は、推定された状況に応じて、住宅10(空間)内において自走式掃除機21に破損した物品を清掃させるための清掃指示情報である。機器動作決定部324は、破損物品を吸引させる自走式掃除機21の動作を決定した場合、破損位置特定部323によって特定された破損位置に自走式掃除機21を移動させるとともに、当該破損位置において自走式掃除機21に破損物品を清掃させるための清掃指示情報を生成する。 Also, the device operation determination unit 324 controls the operation of the self-propelled cleaner 21 . The appliance operation determination unit 324 generates control information (second information) for causing the self-propelled cleaner 21 (self-propelled device) to perform a predetermined operation in the space according to the estimated situation. Here, the control information is cleaning instruction information for causing the self-propelled cleaner 21 to clean damaged articles in the house 10 (space) according to the estimated situation. When the device operation determination unit 324 determines the operation of the self-propelled cleaner 21 to suck the damaged article, the device operation determination unit 324 moves the self-propelled cleaner 21 to the damage position identified by the damage position identification unit 323, Cleaning instruction information is generated for causing the self-propelled cleaner 21 to clean the damaged article at the position.

制御情報送信部312は、推定された状況に応じて、住宅10(空間)内において自走式掃除機21(自走式装置)に所定の動作を実行させるための制御情報(第2情報)を出力する。制御情報送信部312は、機器動作決定部324によって生成された清掃指示情報を自走式掃除機21へ送信する。自走式掃除機21は、清掃指示情報を受信すると、破損位置に移動し、当該破損位置において破損物品である吸引対象物を撮像し、撮像した画像データをサーバ装置3へ送信し、吸引対象物を吸引する。センサデータ受信部311は、自走式掃除機21による吸引対象物に関する情報を取得する。例えば、吸引対象物に関する情報は、吸引対象物の外観に関する情報である。外観に関する情報は、自走式掃除機21が備えるカメラによって撮像された画像を含む。画像は、吸引対象物を含む。センサデータ受信部311は、自走式掃除機21によって送信された吸引対象物を撮像した画像データを受信する。 The control information transmitting unit 312 transmits control information (second information) for causing the self-propelled cleaner 21 (self-propelled device) to perform a predetermined operation in the house 10 (space) according to the estimated situation. to output The control information transmission unit 312 transmits the cleaning instruction information generated by the appliance operation determination unit 324 to the self-propelled cleaner 21 . Upon receiving the cleaning instruction information, the self-propelled cleaner 21 moves to the damaged position, captures an image of the suction target, which is a damaged article, at the damaged position, transmits the captured image data to the server device 3, and removes the suction target. suck things. The sensor data receiving unit 311 acquires information about the object to be sucked by the self-propelled cleaner 21 . For example, the information about the object to be sucked is information about the appearance of the object to be sucked. Information about the appearance includes an image captured by a camera provided in self-propelled cleaner 21 . The image includes an object to be sucked. The sensor data receiving unit 311 receives image data of an object to be sucked transmitted from the self-propelled cleaner 21 .

破損物品特定部325は、機器動作決定部324によって破損物品の代替物品を提示させる表示装置22の動作が特定された場合、自走式掃除機21から受信した吸引対象物を含む画像データに基づき、吸引対象物により構成される破損物品を特定する。吸引対象物は、破損物品である。破損物品特定部325は、吸引対象物の外観に基づき、破損物品を特定する。破損物品特定部325は、吸引対象物を含む画像を認識し、認識した画像から破損物品を特定する。メモリ33は、複数の物品の画像と、当該複数の物品それぞれの名称(商品名)とを対応付けたテーブルを予め記憶してもよい。破損物品特定部325は、吸引対象物を撮像した画像データと、メモリ33に記憶されている複数の物品の画像とを比較し、吸引対象物の画像と部分的に一致する物品の画像に対応付けられている物品の名称を、破損物品の名称として特定する。 When the equipment operation determination unit 324 identifies the operation of the display device 22 for presenting a substitute for the damaged item, the damaged item identification unit 325 determines based on the image data including the object to be sucked received from the self-propelled cleaner 21. , to identify damaged articles constituted by objects to be aspirated. The object to be sucked is a damaged article. The damaged article identification unit 325 identifies damaged articles based on the appearance of the suction target. The damaged article identification unit 325 recognizes an image including an object to be sucked, and identifies a damaged article from the recognized image. The memory 33 may store in advance a table in which images of a plurality of articles are associated with respective names (product names) of the plurality of articles. The damaged article specifying unit 325 compares the image data of the object to be sucked with the images of a plurality of articles stored in the memory 33, and corresponds to the image of the article that partially matches the image of the object to be sucked. Identify the name of the item to which it is attached as the name of the damaged item.

物品情報記憶部332は、物品に関する物品情報を記憶する。 The article information storage unit 332 stores article information about articles.

図4は、本実施の形態1において物品情報記憶部に記憶される物品情報の一例を示す図である。 FIG. 4 is a diagram showing an example of article information stored in an article information storage unit in the first embodiment.

図4に示すように、物品情報は、物品を識別するための品番、物品の商品名、物品の種類、物品のカテゴリ、物品の色、物品のサイズ、物品の重量、物品の材質、物品の価格、物品の製造メーカ及び物品の販売店舗を含む。物品情報記憶部332は、品番、物品の商品名、物品の種類、物品のカテゴリ、物品の色、物品のサイズ、物品の重量、物品の材質、物品の価格、物品の製造メーカ及び物品の販売店舗を対応付けた物品情報を記憶する。 As shown in FIG. 4, the article information includes the article number for identifying the article, the article name, the article type, the article category, the article color, the article size, the article weight, the article material, and the article information. Includes price, manufacturer of the item and store where the item is sold. The product information storage unit 332 stores product numbers, product names, product types, product categories, product colors, product sizes, product weights, product materials, product prices, product manufacturers and product sales. Store article information associated with stores.

なお、図4に示す物品情報は一例であり、物品の画像等の他の情報を含んでもよい。また、物品情報の全てが1つのテーブルで管理されてもよいし、複数のテーブルに分散して管理されてもよい。 Note that the item information shown in FIG. 4 is an example, and may include other information such as an image of the item. Also, all the item information may be managed in one table, or may be managed in a distributed manner in a plurality of tables.

代替物品特定部326は、破損物品に関する物品情報に基づき、破損物品に関連する代替物品を特定する。代替物品特定部326は、破損物品の物品情報を物品情報記憶部332から取得する。 A substitute item identification unit 326 identifies a substitute item related to the damaged item based on the item information regarding the damaged item. The substitute item identification unit 326 acquires the item information of the damaged item from the item information storage unit 332 .

例えば、代替物品は、破損物品と同一の物品であってもよい。この場合、代替物品特定部326は、破損物品と同一の物品を代替物品として特定する。 For example, the replacement item may be the same item as the damaged item. In this case, the substitute item identification unit 326 identifies the same item as the damaged item as the substitute item.

また、例えば、代替物品は、破損物品と同一の属性の物品であってもよい。この場合、代替物品特定部326は、破損物品と同一の属性の物品を代替物品として特定する。属性は、例えば、物品の色、サイズ、重量又は材質である。代替物品特定部326は、破損物品の色、サイズ、重量及び材質が同一の物品を代替物品として特定する。なお、代替物品特定部326は、破損物品の色、サイズ、重量及び材質のうちの少なくとも1つが同一の物品を代替物品として特定してもよい。 Also, for example, the substitute item may be an item with the same attributes as the damaged item. In this case, the substitute item identification unit 326 identifies an item having the same attributes as the damaged item as a substitute item. Attributes are, for example, the color, size, weight or material of the article. The substitute item identification unit 326 identifies an item having the same color, size, weight and material as the damaged item as a substitute item. Note that the substitute item identification unit 326 may identify an item that is identical to the damaged item in at least one of color, size, weight, and material as the substitute item.

また、例えば、代替物品は、破損物品の属性と類似する属性の物品であってもよい。この場合、代替物品特定部326は、破損物品の属性と類似する属性の物品を代替物品として特定する。属性は、例えば、物品の色、サイズ又は重量である。代替物品特定部326は、破損物品の色、サイズ及び重量のうちの少なくとも1つに類似する物品を代替物品として特定する。例えば、青色に類似する色は、青紫色などであり、色毎に類似の色が対応付けて予め記憶される。また、破損物品のサイズに類似するサイズの物品とは、例えば、破損物品の幅、奥行及び高さの-1センチメートルから+1センチメートルの範囲内のサイズの物品である。なお、破損物品のサイズに類似するサイズの物品とは、前述したようにサイズが所定の値の範囲内の物品に限らず、例えば、破損物品の幅、奥行及び高さの-10%から+10%の範囲内のサイズの物品のように、サイズが所定の比率の範囲内の物品であってもよい。さらに、破損物品の重量に類似する重量の物品とは、例えば、破損物品の重量の-10グラムから+10グラムの範囲内の重量の物品である。なお、破損物品の重量に類似する重量の物品とは、例えば、前述したようにサイズが所定の値の範囲内の物品に限らず、破損物品の重量の-10%から+10%の範囲内の重量の物品のように、サイズが所定の比率の範囲内の物品であってもよい。 Also, for example, the substitute item may be an item with attributes similar to those of the damaged item. In this case, the substitute item identification unit 326 identifies an item having attributes similar to those of the damaged item as a substitute item. Attributes are, for example, the color, size or weight of the item. The replacement item identifier 326 identifies items similar to at least one of the color, size and weight of the damaged item as replacement items. For example, a color similar to blue is bluish purple or the like, and a similar color is associated with each color and stored in advance. Also, an article having a size similar to the size of the damaged article is, for example, an article having a size within -1 cm to +1 cm of the width, depth and height of the damaged article. It should be noted that an article having a size similar to that of the damaged article is not limited to an article whose size is within a predetermined range as described above. It may be an article whose size is within a predetermined percentage range, such as an article whose size is within a percentage range. Further, an item of weight similar to the weight of the damaged item is, for example, an item of weight within the range of -10 grams to +10 grams of the weight of the damaged item. Note that an item having a weight similar to the weight of the damaged item is not limited to an item whose size is within a predetermined range as described above, but is within a range of -10% to +10% of the weight of the damaged item. It may be an article within a predetermined ratio of sizes, such as a heavy article.

また、例えば、代替物品は、破損物品と同一の属性であり、かつ破損物品より強度が高い材質の物品であってもよい。この場合、代替物品特定部326は、破損物品と同一の属性であり、かつ破損物品より強度が高い材質の物品を代替物品として特定する。属性は、例えば、物品の色である。破損物品の材質が陶器である場合、代替物品特定部326は、破損物品と同一の色であり、かつ破損物品より強度が高い金属の物品を代替物品として特定する。 Also, for example, the substitute item may be an item that has the same attributes as the damaged item and is made of a material that is stronger than the damaged item. In this case, the substitute item identification unit 326 identifies, as a substitute item, an item that has the same attributes as the damaged item and is made of a material that is stronger than the damaged item. An attribute is, for example, the color of the item. When the material of the damaged article is ceramics, the substitute article identification unit 326 identifies a metal article having the same color as the damaged article and having higher strength than the damaged article as a substitute article.

なお、メモリ33は、ユーザに関するユーザ情報を記憶するユーザ情報記憶部を備えてもよい。ユーザ情報は、ユーザを識別するためのユーザID、ユーザの氏名、ユーザの住所、ユーザの生年月日、ユーザの血液型、ユーザの家族構成及びユーザの所有物品を含む。代替物品特定部326は、破損物品特定部325によって特定された破損物品を所有するユーザを特定し、特定したユーザのユーザ情報をユーザ情報記憶部から取得してもよい。そして、代替物品特定部326は、破損物品に関する物品情報と、破損物品の所有者に関するユーザ情報とに基づき、破損物品に関連する代替物品を特定してもよい。 Note that the memory 33 may include a user information storage unit that stores user information about users. The user information includes a user ID for identifying the user, the user's name, the user's address, the user's date of birth, the user's blood type, the user's family structure, and the user's belongings. The substitute item identification unit 326 may identify a user who owns the damaged item identified by the damaged item identification unit 325 and acquire user information of the identified user from the user information storage unit. The substitute item identification unit 326 may then identify a substitute item related to the damaged item based on the item information regarding the damaged item and the user information regarding the owner of the damaged item.

例えば、ユーザ情報は、所有者が所有している複数の所有物品を示す所有物品情報を含む。代替物品特定部326は、所有物品情報で示される複数の所有物品の中から、破損物品とは種類が異なる物品を特定し、販売されている複数の販売物品の中から、特定した物品と少なくとも1つの属性が同じであり、かつ破損物品と同じ種類の物品を代替物品として特定してもよい。また、ユーザ情報は、所有者の住居の位置を示す住居情報を含んでもよい。代替物品特定部326は、住居情報で示される住居の位置から所定範囲内の店舗で購入可能な代替物品を特定してもよい。 For example, the user information includes owned item information indicating multiple owned items owned by the owner. The substitute item identification unit 326 identifies an item different in type from the damaged item from among the plurality of owned items indicated by the owned item information, and identifies at least the identified item from among the plurality of sales items being sold. An item that has the same one attribute and is of the same type as the damaged item may be identified as a substitute item. The user information may also include residence information indicating the location of the owner's residence. The substitute item identification unit 326 may identify substitute items that can be purchased at stores within a predetermined range from the location of the residence indicated by the residence information.

提示情報生成部327は、代替物品特定部326によって特定された代替物品に関する提示情報を生成する。提示情報は、代替物品の外観を示す画像を含む。また、提示情報は、代替物品の外観を示す画像とともに、代替物品を注文するためのオブジェクト画像を含んでもよい。 The presentation information generating section 327 generates presentation information regarding the substitute item identified by the substitute item identifying section 326 . The presentation information includes an image showing the appearance of the substitute item. The presentation information may also include an object image for ordering the substitute item along with an image showing the appearance of the substitute item.

提示情報送信部313は、代替物品特定部326によって特定された代替物品に関する提示情報を出力する。すなわち、提示情報送信部313は、提示情報生成部327によって生成された提示情報を表示装置22へ送信する。表示装置22は、受信した提示情報を所定の態様で表示する。 The presentation information transmission unit 313 outputs presentation information regarding the substitute item identified by the substitute item identification unit 326 . That is, the presentation information transmission section 313 transmits the presentation information generated by the presentation information generation section 327 to the display device 22 . The display device 22 displays the received presentation information in a predetermined manner.

また、複数の人物が喧嘩している第2状況が推定された場合、機器動作決定部324が生成する制御情報は、推定された状況に応じて、住宅10(空間)内において自走式掃除機21(自走式装置)に所定の音声を出力させるための音声出力指示情報である。機器動作決定部324は、喧嘩中の複数の人物をなだめる音声を出力しながら移動させる自走式掃除機21の動作を決定した場合、破損位置特定部323によって特定された破損位置に自走式掃除機21を移動させるとともに、当該破損位置において自走式掃除機21に喧嘩中の複数の人物をなだめる音声を出力しながら移動させるための音声出力指示情報を生成する。 Further, when a second situation in which a plurality of people are arguing is estimated, the control information generated by the appliance operation determination unit 324 is determined according to the estimated situation. This is voice output instruction information for causing the machine 21 (self-propelled device) to output a predetermined voice. When the device operation determination unit 324 determines the operation of the self-propelled cleaner 21 to move while outputting a voice to soothe the quarreling people, the device operation determination unit 324 moves the self-propelled cleaner 21 to the damage position identified by the damage position identification unit 323 . While moving the cleaner 21, voice output instruction information is generated for moving the self-propelled cleaner 21 at the damaged position while outputting voices to soothe the quarreling people.

制御情報送信部312は、機器動作決定部324によって生成された音声出力指示情報を自走式掃除機21へ送信する。自走式掃除機21は、音声出力指示情報を受信すると、充電位置から破損位置に移動し、当該破損位置において喧嘩中の複数の人物をなだめる音声を出力する。このとき、自走式掃除機21は、喧嘩中の複数の人物をなだめる音声を出力するとともに、吸引対象物(破損物品)を吸引してもよい。そして、吸引対象物の吸引が完了した後、又は音声出力を開始してから所定時間が経過した後、自走式掃除機21は、充電位置へ戻る。 The control information transmission unit 312 transmits the audio output instruction information generated by the device operation determination unit 324 to the self-propelled cleaner 21 . When the self-propelled cleaner 21 receives the voice output instruction information, it moves from the charging position to the damaged position, and outputs a voice to soothe the quarreling persons at the damaged position. At this time, the self-propelled cleaner 21 may output a sound to soothe the quarreling persons and suck the object to be sucked (broken article). Then, after the suction of the object to be sucked is completed, or after a predetermined period of time has passed since the voice output was started, the self-propelled cleaner 21 returns to the charging position.

サービス特定部328は、機器動作決定部324によって仲直りに適したレストラン又は映画を提示させる表示装置22の動作が特定された場合、サービス情報記憶部333を参照し、喧嘩中の複数の人物に提示するためのレストラン又は映画を特定する。 When the device operation determination unit 324 identifies the operation of the display device 22 for presenting a restaurant or a movie suitable for reconciliation, the service identification unit 328 refers to the service information storage unit 333 and presents the service to the quarreling persons. Identify a restaurant or movie to go to.

サービス情報記憶部333は、上映中の映画に関する映画情報及びレストランに関するレストラン情報を含むサービス情報を予め記憶する。 The service information storage unit 333 pre-stores service information including movie information about movies being shown and restaurant information about restaurants.

図5は、本実施の形態1においてサービス情報記憶部に記憶される映画情報の一例を示す図である。 FIG. 5 is a diagram showing an example of movie information stored in the service information storage unit in the first embodiment.

図5に示すように、映画情報は、映画のタイトル、映画のジャンル、上映場所、上映スケジュール及び空席情報を含む。サービス情報記憶部333は、映画のタイトル、映画のジャンル、上映場所、上映スケジュール及び空席情報を対応付けた映画情報を記憶する。 As shown in FIG. 5, the movie information includes movie titles, movie genres, screening locations, screening schedules, and vacant seat information. The service information storage unit 333 stores movie information in which movie titles, movie genres, screening locations, screening schedules, and vacant seat information are associated with each other.

なお、図5に示す映画情報は一例であり、映画に出演している俳優等の他の情報を含んでもよい。また、映画情報の全てが1つのテーブルで管理されてもよいし、複数のテーブルに分散して管理されてもよい。 Note that the movie information shown in FIG. 5 is an example, and may include other information such as actors appearing in the movie. Also, all of the movie information may be managed in one table, or may be distributed and managed in a plurality of tables.

サービス特定部328は、喧嘩中の複数の人物に提示するための映画を特定する。サービス特定部328は、例えば、仲直りに適したジャンルであり、鑑賞可能な映画を特定する。なお、映画が仲直りに適したジャンルであるか否かは、映画情報に予め含まれていることが好ましい。また、鑑賞可能な映画とは、上映開始時刻が現在時刻以降であり、かつ空席がある映画のことである。また、メモリ33が、喧嘩中の複数の人物のそれぞれに関するユーザ情報を予め記憶しており、ユーザ情報が、好みの映画のジャンルに関する情報を含む場合、サービス特定部328は、ユーザ情報を参照し、喧嘩中の複数の人物に共通する好みの映画のジャンルに対応する映画を特定してもよい。 The service identifier 328 identifies movies to present to the quarreling persons. The service identifying unit 328 identifies, for example, movies that are of a genre suitable for reconciliation and that can be viewed. It is preferable that whether or not the movie is of a genre suitable for reconciliation is included in advance in the movie information. Also, a movie that can be viewed is a movie that starts after the current time and has vacant seats. In addition, if the memory 33 pre-stores user information about each of a plurality of people who are arguing, and the user information includes information about a favorite movie genre, the service identifying unit 328 refers to the user information. , may identify movies that correspond to preferred movie genres that are common to multiple persons in a fight.

図6は、本実施の形態1においてサービス情報記憶部に記憶されるレストラン情報の一例を示す図である。 FIG. 6 is a diagram showing an example of restaurant information stored in the service information storage unit in the first embodiment.

図6に示すように、レストラン情報は、レストランの店名、料理のジャンル、レストランの場所、レストランの営業時間及び空席情報を含む。サービス情報記憶部333は、レストランの店名、料理のジャンル、レストランの場所、レストランの営業時間及び空席情報を対応付けたレストラン情報を記憶する。 As shown in FIG. 6, the restaurant information includes restaurant name, cuisine genre, restaurant location, restaurant business hours, and vacant seat information. The service information storage unit 333 stores restaurant information in which restaurant names, cuisine genres, restaurant locations, restaurant business hours, and vacant seat information are associated with each other.

なお、図6に示すレストラン情報は一例であり、メニュー及びレストラン内の画像等の他の情報を含んでもよい。また、レストラン情報の全てが1つのテーブルで管理されてもよいし、複数のテーブルに分散して管理されてもよい。 Note that the restaurant information shown in FIG. 6 is an example, and may include other information such as menus and images of the restaurant. Further, all of the restaurant information may be managed in one table, or may be distributed and managed in a plurality of tables.

サービス特定部328は、喧嘩中の複数の人物に提示するためのレストランを特定する。サービス特定部328は、例えば、仲直りに適したジャンルであり、食事可能なレストランを特定する。なお、レストランが仲直りに適したジャンルであるか否かは、レストラン情報に予め含まれていることが好ましい。また、食事可能なレストランとは、現在時刻が営業時間内であり、かつ空席があるレストランのことである。また、メモリ33が、喧嘩中の複数の人物のそれぞれに関するユーザ情報を予め記憶しており、ユーザ情報が、好みの料理のジャンルに関する情報を含む場合、サービス特定部328は、ユーザ情報を参照し、喧嘩中の複数の人物に共通する好みの料理のジャンルに対応するレストランを特定してもよい。 The service identification unit 328 identifies restaurants to present to the quarreling persons. The service identification unit 328 identifies, for example, a restaurant that is suitable for reconciliation and where meals are available. It is preferable that whether or not the restaurant is of a genre suitable for reconciliation is included in the restaurant information in advance. A restaurant that is open for dining is a restaurant that is open at the current time and has vacant seats. In addition, if the memory 33 preliminarily stores user information regarding each of a plurality of persons who are quarreling, and the user information includes information regarding a favorite genre of cuisine, the service identifying unit 328 refers to the user information. , may identify a restaurant that corresponds to a favorite genre of cuisine that is common to multiple persons in a fight.

なお、本実施の形態1では、サービス特定部328は、喧嘩中の複数の人物に提示するためのレストラン及び映画のいずれかを特定してもよいし、喧嘩中の複数の人物に提示するためのレストラン及び映画の両方を特定してもよい。 In the first embodiment, the service specifying unit 328 may specify either a restaurant or a movie to be presented to the quarreling persons, or may specify a restaurant or a movie to be presented to the quarreling persons. may identify both restaurants and movies in

また、本実施の形態1では、機器動作決定部324は、複数の人物が喧嘩している第2状況が推定された場合、仲直りに適したレストラン又は映画を提示させる表示装置22の動作を決定しているが、本開示は特これに限定されず、機器動作決定部324は、複数の人物が喧嘩している第2状況が推定された場合、仲直りに適したサービスを提示させる表示装置22の動作を決定してもよい。サービス特定部328は、機器動作決定部324によって仲直りに適したサービスを提示させる表示装置22の動作が特定された場合、サービス情報記憶部333を参照し、喧嘩中の複数の人物に提示するためのサービスを特定する。 Further, in Embodiment 1, when the second situation in which a plurality of people are fighting is estimated, the device operation determination unit 324 determines the operation of the display device 22 to present a restaurant or movie suitable for reconciliation. However, the present disclosure is not particularly limited to this. may determine the behavior of When the device operation determination unit 324 identifies the operation of the display device 22 for presenting a service suitable for reconciliation, the service identification unit 328 refers to the service information storage unit 333 and presents the service to the quarreling persons. identify the services of

提示情報生成部327は、推定された状況を変化させるための情報を表示装置22(提示装置)に提示させるための提示情報(第3情報)を生成する。提示情報生成部327は、サービス特定部328によって特定された仲直りに適したレストラン又は映画に関する提示情報を生成する。 The presentation information generation unit 327 generates presentation information (third information) for causing the display device 22 (presentation device) to present information for changing the estimated situation. The presentation information generation unit 327 generates presentation information regarding restaurants or movies suitable for reconciliation identified by the service identification unit 328 .

提示情報送信部313は、推定された状況を変化させるための情報を表示装置22(提示装置)に提示させるための提示情報を出力する。ここで、提示情報送信部313は、サービス特定部328によって特定されたレストラン又は映画に関する提示情報を表示装置22へ送信する。すなわち、提示情報送信部313は、提示情報生成部327によって生成された提示情報を表示装置22へ送信する。表示装置22は、受信した提示情報を所定の態様で表示する。 The presentation information transmission unit 313 outputs presentation information for causing the display device 22 (presentation device) to present information for changing the estimated situation. Here, the presentation information transmission unit 313 transmits the presentation information regarding the restaurant or movie identified by the service identification unit 328 to the display device 22 . That is, the presentation information transmission section 313 transmits the presentation information generated by the presentation information generation section 327 to the display device 22 . The display device 22 displays the received presentation information in a predetermined manner.

また、不審者が侵入している第3状況が推定された場合、機器動作決定部324が生成する制御情報は、住宅10(空間)内において自走式掃除機21(自走式装置)に不審者を攪乱する動作を実行させるための攪乱動作指示情報である。機器動作決定部324は、自走式掃除機21に不審者の足下を攪乱しながら移動させる動作を決定した場合、破損位置特定部323によって特定された破損位置に自走式掃除機21を移動させるとともに、当該破損位置において自走式掃除機21に不審者の足下を攪乱しながら移動させるための攪乱動作指示情報を生成する。 Further, when a third situation in which a suspicious person has entered is estimated, the control information generated by the appliance operation determination unit 324 is sent to the self-propelled cleaner 21 (self-propelled device) in the house 10 (space). Disturbing action instruction information for causing a suspicious person to perform a disturbing action. When the device operation determination unit 324 determines that the self-propelled cleaner 21 moves while disturbing the feet of the suspicious person, the device operation determination unit 324 moves the self-propelled cleaner 21 to the damage position identified by the damage position identification unit 323 . Disturbance operation instruction information is generated for causing the self-propelled cleaner 21 to move while disturbing the feet of the suspicious person at the damaged position.

制御情報送信部312は、機器動作決定部324によって生成された攪乱動作指示情報を自走式掃除機21へ送信する。自走式掃除機21は、攪乱動作指示情報を受信すると、充電位置から破損位置に移動し、当該破損位置において不審者の足下を攪乱しながら移動する。このとき、自走式掃除機21は、不審者との距離を距離センサで測定し、不審者と所定の距離を維持しながら、移動する。そして、不審者が住宅10(空間)内からいなくなった後、自走式掃除機21は、吸引対象物(破損物品)を吸引し、充電位置へ戻る。また、自走式掃除機21は、警察が到着するまで不審者を住宅10内に閉じこめておくため、住宅10の出入り口をふさぐように移動してもよい。 The control information transmission unit 312 transmits the disturbance operation instruction information generated by the device operation determination unit 324 to the self-propelled cleaner 21 . When the self-propelled cleaner 21 receives the disturbing operation instruction information, it moves from the charging position to the damaged position, and moves while disturbing the feet of the suspicious person at the damaged position. At this time, the self-propelled cleaner 21 measures the distance to the suspicious person with a distance sensor and moves while maintaining a predetermined distance from the suspicious person. After the suspicious person has left the house 10 (space), the self-propelled cleaner 21 sucks the suction target (broken article) and returns to the charging position. Further, the self-propelled cleaner 21 may move to block the doorway of the house 10 in order to confine the suspicious person in the house 10 until the police arrive.

また、センサデータ受信部311は、撮像装置(第2センサ12)に不審者を撮像させる動作が特定された場合、住宅10(空間)内に配置された第2センサ12から不審者を撮像した画像データを取得する。センサデータ受信部311は、画像データを通知情報生成部329へ出力する。 Further, when the action of causing the imaging device (second sensor 12) to capture an image of a suspicious person is specified, the sensor data receiving unit 311 captures an image of the suspicious person from the second sensor 12 arranged in the house 10 (space). Get image data. Sensor data receiving section 311 outputs the image data to notification information generating section 329 .

通知情報生成部329は、不審者が存在することを通知するための通知情報を生成する。通知情報は、例えば、不審者が存在することを示す情報と、住宅10の住所とを含む。通知情報生成部329は、センサデータ受信部311によって取得された画像データと、通知情報とを通知情報送信部314へ出力する。 The notification information generation unit 329 generates notification information for notifying that a suspicious person exists. The notification information includes, for example, information indicating the existence of a suspicious person and the address of the residence 10 . The notification information generation unit 329 outputs the image data acquired by the sensor data reception unit 311 and notification information to the notification information transmission unit 314 .

通知情報送信部314は、不審者を撮像した画像データと不審者が存在することを通知するための通知情報とを警察に送信させる情報機器23の動作が決定された場合、センサデータ受信部311によって取得された画像データと、不審者が存在することを通知するための通知情報とを情報機器23へ送信する。情報機器23は、画像データ及び通知情報をサーバ装置3から受信し、受信した画像データ及び通知情報を警察が管理するサーバ装置へ送信する。 When it is determined that the information device 23 should operate to transmit the image data of the suspicious person and the notification information for notifying the presence of the suspicious person to the police, the notification information transmission unit 314 sends the sensor data reception unit 311 and the notification information for notifying the existence of the suspicious person to the information device 23 . The information equipment 23 receives the image data and notification information from the server device 3, and transmits the received image data and notification information to the server device managed by the police.

なお、自走式掃除機21は、自身が破損したことを検知した場合、自走式掃除機21が破損したことを示す破損情報をサーバ装置3へ送信してもよい。センサデータ受信部311は、自走式掃除機21によって送信された破損情報を受信してもよい。通知情報生成部329は、破損情報が受信された場合、製造メーカに自走式掃除機21の修理を依頼するための通知情報(第4情報)を生成してもよい。通知情報送信部314は、製造メーカに自走式掃除機21の修理を依頼するための通知情報を情報機器23へ送信してもよい。情報機器23は、製造メーカに自走式掃除機21の修理を依頼するための通知情報をサーバ装置3から受信し、受信した通知情報を製造メーカが管理するサーバ装置へ送信してもよい。 Self-propelled cleaner 21 may transmit damage information indicating that self-propelled cleaner 21 has been damaged to server device 3 when detecting that self-propelled cleaner 21 has been damaged. The sensor data receiver 311 may receive damage information transmitted by the self-propelled cleaner 21 . The notification information generator 329 may generate notification information (fourth information) for requesting the manufacturer to repair the self-propelled cleaner 21 when the damage information is received. The notification information transmission unit 314 may transmit notification information for requesting the manufacturer to repair the self-propelled cleaner 21 to the information device 23 . The information equipment 23 may receive notification information for requesting the manufacturer to repair the self-propelled cleaner 21 from the server device 3 and transmit the received notification information to the server device managed by the manufacturer.

図7は、本開示の実施の形態1におけるサーバ装置の動作を説明するための第1のフローチャートであり、図8は、本開示の実施の形態1におけるサーバ装置の動作を説明するための第2のフローチャートである。なお、図7では、音データに基づき破損を検知する例を説明しているが、破損の検知は、前述の通り画像データなどの他のセンサデータに基づき行ってもよい。 FIG. 7 is a first flowchart for explaining the operation of the server device according to the first embodiment of the present disclosure, and FIG. 8 is a first flowchart for explaining the operation of the server device according to the first embodiment of the present disclosure. 2 is a flowchart. Note that FIG. 7 illustrates an example of detecting damage based on sound data, but detection of damage may be performed based on other sensor data such as image data as described above.

まず、センサデータ受信部311は、第1センサ11から音データをセンサデータとして受信する(ステップS1)。 First, the sensor data receiving unit 311 receives sound data as sensor data from the first sensor 11 (step S1).

次に、破損検知部321は、センサデータ受信部311によって受信された音データを用いて、住宅10内の物品の破損を検知したか否かを判断する(ステップS2)。このとき、破損検知部321は、センサデータ受信部311から受信した音データの周波数成分と、予め記憶されている物品が破損した音データの周波数成分とが一致する場合、物品が破損したことを検知する。ここで、物品の破損を検知していないと判断された場合(ステップS2でNO)、ステップS1に処理が戻る。 Next, the damage detection unit 321 uses the sound data received by the sensor data reception unit 311 to determine whether or not damage to an article in the house 10 has been detected (step S2). At this time, if the frequency component of the sound data received from the sensor data receiving unit 311 matches the frequency component of the pre-stored sound data indicating damage to the article, the damage detection unit 321 detects that the article has been damaged. detect. Here, if it is determined that damage to the article has not been detected (NO in step S2), the process returns to step S1.

一方、物品の破損を検知したと判断された場合(ステップS2でYES)、センサデータ受信部311は、物品の破損が発生したことが検知された時点から過去の所定の期間内に取得された複数の画像データをセンサデータとして第2センサ12から受信する(ステップS3)。なお、センサデータ受信部311は、物品の破損が発生したことが検知された時点から過去の所定の期間内に取得された複数の画像データの送信を第2センサ12にリクエストし、リクエストに応じて第2センサ12によって送信された複数の画像データを受信してもよい。また、センサデータ受信部311は、定期的に画像データを第2センサ12から受信し、受信した画像データをメモリ33に記憶してもよい。そして、物品の破損が発生したことが検知された場合、状況推定部322は、物品の破損が発生したことが検知された時点から過去の所定の期間内に取得された複数の画像データをメモリ33から読み出してもよい。 On the other hand, if it is determined that damage to the article has been detected (YES in step S2), the sensor data receiving unit 311 receives A plurality of image data are received as sensor data from the second sensor 12 (step S3). Note that the sensor data receiving unit 311 requests the second sensor 12 to transmit a plurality of pieces of image data acquired within a predetermined period in the past from the time when the occurrence of damage to the article was detected, and responds to the request. may receive a plurality of image data transmitted by the second sensor 12 . Further, the sensor data receiving unit 311 may periodically receive image data from the second sensor 12 and store the received image data in the memory 33 . Then, when it is detected that damage to the article has occurred, the situation estimation unit 322 stores a plurality of image data acquired within a predetermined period in the past from the time when the damage to the article was detected. 33 may be read.

次に、状況推定部322は、物品の破損が発生したことが検知された時点から過去の所定の期間内に取得された複数の画像データに基づき、物品の破損が発生した状況を推定する(ステップS4)。本実施の形態1では、状況推定部322は、物品の破損が発生した状況が、日常的な動作中に物品が人物の手から滑り落ちた第1状況、複数の人物が喧嘩している第2状況、及び不審者が侵入している第3状況のいずれであるかを推定する。 Next, the situation estimating unit 322 estimates the situation in which the damage to the article occurred based on a plurality of image data acquired within a predetermined period in the past from the time when the damage to the article was detected ( step S4). In the first embodiment, the situation estimating unit 322 determines whether the situation in which the article has been damaged is a first situation in which the article slips out of a person's hand during a routine action, a second situation in which a plurality of people are fighting, and a second situation in which a plurality of people are fighting. It is estimated whether it is the 2nd situation or the 3rd situation where a suspicious person is intruding.

次に、状況推定部322は、推定結果が、日常的な動作中に物品が人物の手から滑り落ちた第1状況であるか否かを判断する(ステップS5)。 Next, the situation estimation unit 322 determines whether or not the estimation result is the first situation in which the article has slipped out of the person's hand during daily activities (step S5).

ここで、推定結果が、物品が人物の手から滑り落ちた第1状況であると判断された場合(ステップS5でYES)、破損位置特定部323は、住宅10内における物品の破損位置を特定する(ステップS6)。 Here, when it is determined that the estimation result is the first situation in which the article slipped out of the person's hand (YES in step S5), the damaged position identifying unit 323 identifies the damaged position of the article in the house 10. (step S6).

次に、機器動作決定部324は、機器動作情報記憶部331を参照し、状況推定部322によって推定された第1状況に対応付けられている機器の動作を決定する(ステップS7)。ここで、推定結果が、物品が人物の手から滑り落ちた第1状況である場合、機器動作決定部324は、破損物品を吸引させる自走式掃除機21の動作と、破損物品の代替物品を提示させる表示装置22の動作とを決定する。 Next, the device operation determination unit 324 refers to the device operation information storage unit 331 and determines the operation of the device associated with the first situation estimated by the situation estimation unit 322 (step S7). Here, when the estimation result is the first situation in which the article slipped out of the hand of the person, the device operation determination unit 324 determines the operation of the self-propelled cleaner 21 to suck the damaged article and the replacement article for the damaged article. and the operation of the display device 22 to present the

次に、機器動作決定部324は、破損位置特定部323によって特定された破損位置に自走式掃除機21を移動させるとともに、当該破損位置において自走式掃除機21に破損物品を清掃させるための清掃指示情報を生成する(ステップS8)。 Next, the device operation determining unit 324 moves the self-propelled cleaner 21 to the damaged position identified by the damaged position identifying unit 323, and causes the self-propelled cleaner 21 to clean the damaged article at the damaged position. cleaning instruction information is generated (step S8).

次に、制御情報送信部312は、機器動作決定部324によって生成された清掃指示情報を自走式掃除機21へ送信する(ステップS9)。自走式掃除機21は、サーバ装置3から清掃指示情報を受信し、清掃指示情報に含まれる破損位置に向かって移動する。自走式掃除機21は、破損位置に到着すると、カメラにより吸引対象物を撮像し、撮像した画像データをサーバ装置3へ送信する。自走式掃除機21は、吸引対象物を含む画像データをサーバ装置3へ送信すると、吸引対象物を吸引する。 Next, the control information transmission unit 312 transmits the cleaning instruction information generated by the appliance operation determination unit 324 to the self-propelled cleaner 21 (step S9). The self-propelled cleaner 21 receives cleaning instruction information from the server device 3 and moves toward the damaged position included in the cleaning instruction information. When the self-propelled cleaner 21 reaches the damaged position, the camera captures an image of the object to be sucked, and transmits the captured image data to the server device 3 . The self-propelled cleaner 21 sucks the object to be sucked when image data including the object to be sucked is transmitted to the server device 3 .

次に、センサデータ受信部311は、自走式掃除機21から吸引対象物を含む画像データをセンサデータとして受信する(ステップS10)。 Next, the sensor data receiving unit 311 receives image data including the object to be sucked from the self-propelled cleaner 21 as sensor data (step S10).

次に、破損物品特定部325は、自走式掃除機21から受信した吸引対象物を含む画像データに基づき、吸引対象物により構成される破損物品を特定する(ステップS11)。破損物品特定部325は、予め記憶されている複数の物品の画像と、画像データに含まれる吸引対象物の画像と比較し、吸引対象物により構成される破損物品を認識する。例えば、吸引対象物が陶器のマグカップの破片である場合、破損物品特定部325は、画像データに含まれる破片の画像と部分的に一致する物品の画像を認識し、認識した物品の画像に対応する物品を破損物品として特定する。 Next, the damaged article identification unit 325 identifies a damaged article composed of the suction target based on the image data including the suction target received from the self-propelled cleaner 21 (step S11). The damaged article identification unit 325 compares the images of a plurality of articles stored in advance with the image of the suction target included in the image data, and recognizes the damaged article composed of the suction target. For example, if the object to be sucked is a fragment of a ceramic mug, the damaged article identification unit 325 recognizes an image of the article that partially matches the image of the fragment included in the image data, and corresponds to the image of the recognized article. Identify damaged items as damaged items.

次に、代替物品特定部326は、破損物品の物品情報を物品情報記憶部332から取得する(ステップS12)。 Next, the substitute item identification unit 326 acquires item information of the damaged item from the item information storage unit 332 (step S12).

次に、代替物品特定部326は、破損物品に関する物品情報に基づき、破損物品に関連する代替物品を特定する(ステップS13)。例えば、代替物品特定部326は、破損物品と同一の物品を代替物品として特定する。 Next, the substitute item identification unit 326 identifies a substitute item related to the damaged item based on the item information regarding the damaged item (step S13). For example, the substitute item identification unit 326 identifies the same item as the damaged item as the substitute item.

次に、提示情報生成部327は、代替物品特定部326によって特定された代替物品に関する提示情報を生成する(ステップS14)。 Next, the presentation information generation unit 327 generates presentation information regarding the substitute item identified by the substitute item identification unit 326 (step S14).

次に、提示情報送信部313は、提示情報生成部327によって生成された提示情報を表示装置22へ送信する(ステップS15)。表示装置22は、サーバ装置3によって送信された提示情報を受信し、受信した提示情報を表示する。表示装置22は、自走式掃除機21により吸引対象物が吸引されている間、提示情報を表示する。なお、表示装置22は、自走式掃除機21による吸引対象物の吸引開始とともに、提示情報を表示してもよい。また、表示装置22は、自走式掃除機21による吸引対象物の吸引終了後も、提示情報を継続して表示してもよい。 Next, the presentation information transmission unit 313 transmits the presentation information generated by the presentation information generation unit 327 to the display device 22 (step S15). The display device 22 receives the presentation information transmitted by the server device 3 and displays the received presentation information. The display device 22 displays presentation information while the object to be sucked is being sucked by the self-propelled cleaner 21 . Note that the display device 22 may display the presentation information when the self-propelled cleaner 21 starts sucking the object to be sucked. Further, the display device 22 may continue to display the presentation information even after the self-propelled cleaner 21 has finished sucking the object to be sucked.

図9は、本実施の形態1において、日常的な動作中に物品が人物の手から滑り落ちた第1状況における機器の動作について説明するための図である。 FIG. 9 is a diagram for explaining the operation of the device in the first situation in which an article slips out of a person's hand during daily operation in the first embodiment.

日常的な動作中に物品6が人物61の手から滑り落ちた結果、物品6が破損した場合、自走式掃除機21は、破損位置に移動し、破損した物品6を吸引する。また、室内に設置された表示装置22は、破損した物品6と同一の代替物品を購入するか否かを確認するための画像222を含む提示情報221を表示する。 When the article 6 slips out of the hand of the person 61 during daily operation and the article 6 is damaged, the self-propelled cleaner 21 moves to the damage position and sucks the damaged article 6 . In addition, the display device 22 installed in the room displays presentation information 221 including an image 222 for confirming whether or not to purchase a replacement item that is the same as the damaged item 6 .

図9に示すように、提示情報221は、例えば、「Would you buy a new mug?」という文章と、代替物品の外観を示す画像と、代替物品を注文するための注文画面に切り替えるためのボタンとを含む画像222を含む。 As shown in FIG. 9, the presentation information 221 includes, for example, a sentence "Would you buy a new mug?" and an image 222 containing.

なお、機器動作決定部324は、清掃指示情報を生成する際に、清掃を開始することをユーザに通知するための提示情報を生成してもよい。この場合、制御情報送信部312は、機器動作決定部324によって生成された清掃指示情報を自走式掃除機21へ送信するとともに、機器動作決定部324によって生成された提示情報を表示装置22へ送信してもよい。表示装置22は、清掃を開始することをユーザに通知するための提示情報を表示してもよい。この場合、提示情報は、例えば、「Are you okay?Not injured?I’m going to clean now.」という文章を含む。 Note that the appliance operation determination unit 324 may generate presentation information for notifying the user of starting cleaning when generating the cleaning instruction information. In this case, the control information transmission unit 312 transmits the cleaning instruction information generated by the equipment operation determination unit 324 to the self-propelled cleaner 21, and transmits the presentation information generated by the equipment operation determination unit 324 to the display device 22. You may send. The display device 22 may display presentation information for notifying the user of starting cleaning. In this case, the presentation information includes, for example, a sentence "Are you okay? Not injured? I'm going to clean now."

一方、図7のステップS5で、推定結果が、物品が人物の手から滑り落ちた第1状況ではないと判断された場合(ステップS5でNO)、状況推定部322は、推定結果が、複数の人物が喧嘩している第2状況であるか否かを判断する(ステップS16)。 On the other hand, if it is determined in step S5 of FIG. 7 that the estimation result is not the first situation in which the article slipped out of the person's hand (NO in step S5), the situation estimation unit 322 It is determined whether or not the second situation is one in which two persons are quarreling (step S16).

ここで、推定結果が、複数の人物が喧嘩している第2状況であると判断された場合(ステップS16でYES)、破損位置特定部323は、住宅10内における物品の破損位置を特定する(ステップS17)。 Here, when the estimation result is determined to be the second situation in which a plurality of people are fighting (YES in step S16), the damaged position specifying unit 323 specifies the damaged position of the article in the house 10. (Step S17).

次に、機器動作決定部324は、機器動作情報記憶部331を参照し、状況推定部322によって推定された第2状況に対応付けられている機器の動作を決定する(ステップS18)。ここで、推定結果が、複数の人物が喧嘩している第2状況である場合、機器動作決定部324は、喧嘩中の複数の人物をなだめる音声を出力しながら移動させる自走式掃除機21の動作と、仲直りに適したレストラン又は映画を提示させる表示装置22の動作とを決定する。 Next, the device operation determination unit 324 refers to the device operation information storage unit 331 and determines the operation of the device associated with the second situation estimated by the situation estimation unit 322 (step S18). Here, when the estimation result is the second situation in which a plurality of people are fighting, the device operation determination unit 324 causes the self-propelled cleaner 21 to move while outputting a soothing voice to the plurality of people who are fighting. and the operation of the display device 22 to present restaurants or movies suitable for reconciliation.

次に、機器動作決定部324は、破損位置特定部323によって特定された破損位置に自走式掃除機21を移動させるとともに、当該破損位置において自走式掃除機21に喧嘩中の複数の人物をなだめる音声を出力しながら移動させるための音声出力指示情報を生成する(ステップS19)。 Next, the device operation determining unit 324 moves the self-propelled cleaner 21 to the damaged position specified by the damaged position specifying unit 323, and moves the self-propelled cleaner 21 to the damaged position. A sound output instruction information for moving while outputting a sound soothing is generated (step S19).

次に、制御情報送信部312は、機器動作決定部324によって生成された音声出力指示情報を自走式掃除機21へ送信する(ステップS20)。自走式掃除機21は、音声出力指示情報を受信すると、充電位置から破損位置に移動し、当該破損位置において喧嘩中の複数の人物をなだめる音声を出力する。そして、自走式掃除機21は、吸引対象物(破損物品)を吸引する。吸引対象物の吸引が完了した後、又は音声出力を開始してから所定時間が経過した後、自走式掃除機21は、充電位置へ戻る。 Next, the control information transmission section 312 transmits the voice output instruction information generated by the device operation determination section 324 to the self-propelled cleaner 21 (step S20). When the self-propelled cleaner 21 receives the voice output instruction information, it moves from the charging position to the damaged position, and outputs a voice to soothe the quarreling persons at the damaged position. Then, the self-propelled cleaner 21 sucks the object to be sucked (broken article). After the suction of the object to be sucked is completed, or after a predetermined period of time has elapsed since the sound output was started, the self-propelled cleaner 21 returns to the charging position.

次に、サービス特定部328は、サービス情報記憶部333を参照し、喧嘩中の複数の人物に提示するためのレストランを特定する(ステップS21)。サービス特定部328は、予め記憶されているユーザ情報を参照し、喧嘩中の複数の人物に共通する好みの料理のジャンルを特定し、特定したジャンルに対応するとともに食事可能なレストランを特定する。 Next, the service identification unit 328 refers to the service information storage unit 333 and identifies restaurants to be presented to the quarreling persons (step S21). A service specifying unit 328 refers to pre-stored user information, specifies a genre of favorite food common to a plurality of people who are quarreling, and specifies restaurants corresponding to the specified genre and at which meals are available.

なお、図8の処理では、サービス特定部328は、喧嘩中の複数の人物に提示するためのレストランを特定しているが、本開示は特にこれに限定されず、喧嘩中の複数の人物に提示するための映画を特定してもよい。 In the process of FIG. 8, the service identifying unit 328 identifies a restaurant to be presented to a plurality of people who are arguing, but the present disclosure is not particularly limited to this. A movie may be specified for presentation.

次に、提示情報生成部327は、サービス特定部328によって特定された仲直りに適したレストランに関する提示情報を生成する(ステップS22)。 Next, the presentation information generation unit 327 generates presentation information regarding the restaurant identified by the service identification unit 328 as suitable for reconciliation (step S22).

次に、提示情報送信部313は、提示情報生成部327によって生成された提示情報を表示装置22へ送信する(ステップS23)。表示装置22は、サーバ装置3によって送信された提示情報を受信し、受信した提示情報を表示する。表示装置22は、自走式掃除機21により音声が出力されている間、提示情報を表示する。なお、表示装置22は、自走式掃除機21による音声の出力開始とともに、提示情報を表示してもよい。また、表示装置22は、自走式掃除機21による音声の出力終了後も、提示情報を継続して表示してもよい。 Next, the presentation information transmission unit 313 transmits the presentation information generated by the presentation information generation unit 327 to the display device 22 (step S23). The display device 22 receives the presentation information transmitted by the server device 3 and displays the received presentation information. The display device 22 displays presentation information while the self-propelled cleaner 21 is outputting a sound. Note that the display device 22 may display the presentation information when the self-propelled cleaner 21 starts outputting the sound. Further, the display device 22 may continue to display the presentation information even after the self-propelled cleaner 21 finishes outputting the sound.

図10は、本実施の形態1において、複数の人物が喧嘩している第2状況における機器の動作について説明するための図である。 FIG. 10 is a diagram for explaining the operation of the device in the second situation in which a plurality of persons are fighting in the first embodiment.

複数の人物62,63が喧嘩している際に、物品6が破損した場合、自走式掃除機21は、破損位置に移動し、喧嘩中の複数の人物62,63をなだめる音声を出力する。図10では、例えば、自走式掃除機21は、「まあまあ、落ち着いて」という音声を出力する。また、室内に設置された表示装置22は、喧嘩中の複数の人物62,63の仲直りに適したレストランを提示するための提示情報223を表示する。 When an article 6 is damaged while a plurality of persons 62 and 63 are arguing, the self-propelled cleaner 21 moves to the damaged position and outputs a voice soothing the plurality of persons 62 and 63 who are arguing. . In FIG. 10, for example, the self-propelled cleaner 21 outputs a voice saying "Okay, calm down". In addition, the display device 22 installed in the room displays presentation information 223 for presenting a restaurant suitable for reconciling the quarreling persons 62 and 63 .

図10に示すように、提示情報223は、例えば、「Mレストランでイタリア料理を食べませんか?」という文章と、レストランを予約するための予約ボタンとを含む。予約ボタンが押下されると、レストランを予約するための予約画面に移行する。 As shown in FIG. 10, the presentation information 223 includes, for example, a sentence "Would you like to eat Italian food at M restaurant?" and a reservation button for reserving a restaurant. When the reservation button is pressed, the screen shifts to a reservation screen for reserving a restaurant.

一方、図8のステップS16で、推定結果が、複数の人物が喧嘩している第2状況ではないと判断された場合(ステップS16でNO)、状況推定部322は、推定結果が、不審者が侵入している第3状況であるか否かを判断する(ステップS24)。 On the other hand, in step S16 of FIG. 8, when it is determined that the estimation result is not the second situation in which a plurality of people are arguing (NO in step S16), the situation estimation unit 322 determines that the estimation result is a suspicious person. (step S24).

ここで、推定結果が、不審者が侵入している第3状況ではないと判断された場合(ステップS24でNO)、すなわち、物品が破損した状況を推定することができなかった場合、処理が終了する。なお、推定結果が、不審者が侵入している第3状況ではないと判断された場合、機器動作決定部324は、破損物品を吸引させる自走式掃除機21の動作を決定してもよい。 Here, if it is determined that the estimation result is not the third situation in which a suspicious person is intruding (NO in step S24), that is, if the situation in which the article is damaged cannot be estimated, the process is executed. finish. If it is determined that the estimation result is not the third situation in which a suspicious person is intruding, the device operation determination unit 324 may determine the operation of the self-propelled cleaner 21 to suck up the damaged article. .

一方、推定結果が、不審者が侵入している第3状況であると判断された場合(ステップS24でYES)、破損位置特定部323は、住宅10内における物品の破損位置を特定する(ステップS25)。 On the other hand, when it is determined that the estimated result is the third situation in which a suspicious person has entered (YES in step S24), the damaged position specifying unit 323 specifies the damaged position of the article in the house 10 (step S25).

次に、機器動作決定部324は、機器動作情報記憶部331を参照し、状況推定部322によって推定された第3状況に対応付けられている機器の動作を決定する(ステップS26)。ここで、推定結果が、不審者が侵入している第3状況である場合、機器動作決定部324は、不審者の足下を攪乱しながら移動させる自走式掃除機21の動作と、不審者を撮像させる撮像装置(第2センサ12)の動作と、不審者を撮像した画像データと不審者が存在することを通知するための通知情報とを警察に送信させる情報機器23の動作とを決定する。 Next, the device operation determination unit 324 refers to the device operation information storage unit 331 and determines the operation of the device associated with the third situation estimated by the situation estimation unit 322 (step S26). Here, if the estimation result is the third situation in which a suspicious person has intruded, the device operation determination unit 324 determines the operation of the self-propelled cleaner 21 to move while disturbing the feet of the suspicious person, and the operation of the information device 23 for transmitting the image data of the suspicious person and the notification information for notifying the existence of the suspicious person to the police. do.

次に、機器動作決定部324は、破損位置特定部323によって特定された破損位置に自走式掃除機21を移動させるとともに、当該破損位置において自走式掃除機21に不審者の足下を攪乱しながら移動させるための攪乱動作指示情報を生成する(ステップS27)。 Next, the device operation determining unit 324 moves the self-propelled cleaner 21 to the damaged position specified by the damaged position specifying unit 323, and causes the self-propelled cleaner 21 to disturb the feet of the suspicious person at the damaged position. Disturbing action instruction information for moving while moving is generated (step S27).

次に、制御情報送信部312は、機器動作決定部324によって生成された攪乱動作指示情報を自走式掃除機21へ送信する(ステップS28)。自走式掃除機21は、攪乱動作指示情報を受信すると、充電位置から破損位置に移動し、当該破損位置において不審者の足下を攪乱しながら移動する。そして、不審者が住宅10(空間)内からいなくなった後、自走式掃除機21は、吸引対象物(破損物品)を吸引し、充電位置へ戻る。 Next, the control information transmission section 312 transmits the disturbance operation instruction information generated by the device operation determination section 324 to the self-propelled cleaner 21 (step S28). When the self-propelled cleaner 21 receives the disturbing operation instruction information, it moves from the charging position to the damaged position, and moves while disturbing the feet of the suspicious person at the damaged position. After the suspicious person has left the house 10 (space), the self-propelled cleaner 21 sucks the suction target (broken article) and returns to the charging position.

次に、センサデータ受信部311は、住宅10(空間)内に配置された第2センサ12から不審者を撮像した画像データを受信する(ステップS29)。 Next, the sensor data receiving unit 311 receives image data of an image of a suspicious person from the second sensor 12 arranged in the house 10 (space) (step S29).

次に、通知情報生成部329は、不審者が存在することを通知するための通知情報を生成する(ステップS30)。 Next, the notification information generator 329 generates notification information for notifying that a suspicious person exists (step S30).

次に、通知情報送信部314は、センサデータ受信部311によって取得された画像データと、通知情報生成部329によって生成された通知情報とを情報機器23へ送信する(ステップS31)。情報機器23は、画像データ及び通知情報をサーバ装置3から受信し、受信した画像データ及び通知情報を警察が管理するサーバ装置へ送信する。 Next, the notification information transmission unit 314 transmits the image data acquired by the sensor data reception unit 311 and the notification information generated by the notification information generation unit 329 to the information device 23 (step S31). The information equipment 23 receives the image data and notification information from the server device 3, and transmits the received image data and notification information to the server device managed by the police.

図11は、本実施の形態1において、不審者が侵入している第3状況における機器の動作について説明するための図である。 FIG. 11 is a diagram for explaining the operation of the device in the third situation in which a suspicious person is intruding in the first embodiment.

不審者64が侵入した際に、物品6が破損した場合、自走式掃除機21は、破損位置に移動し、不審者64の足下を攪乱しながら移動する。図11では、例えば、自走式掃除機21は、不審者64と所定の距離を維持しながら、不審者64の周囲を移動する。また、第2センサ12は、不審者64を撮像した画像データをサーバ装置3へ送信する。さらに、情報機器23は、不審者64を撮像した画像データ及び不審者64が存在することを通知するための通知情報をサーバ装置3から受信し、受信した画像データ及び通知情報を警察が管理するサーバ装置へ送信する。 When the article 6 is damaged when the suspicious person 64 enters, the self-propelled cleaner 21 moves to the damage position and disturbs the foot of the suspicious person 64. - 特許庁In FIG. 11, for example, self-propelled cleaner 21 moves around suspicious person 64 while maintaining a predetermined distance from suspicious person 64 . The second sensor 12 also transmits image data of the suspicious person 64 to the server device 3 . Further, the information device 23 receives image data of the suspicious person 64 and notification information for notifying the presence of the suspicious person 64 from the server device 3, and the received image data and notification information are managed by the police. Send to the server device.

また、情報機器23が画像データ及び通知情報を警察が管理するサーバ装置へ送信した後、室内に設置された表示装置22は、警察に通報したことを提示するための提示情報224を表示してもよい。図11に示すように、提示情報224は、例えば、「警察に通報しました」という文章を含む。 Further, after the information device 23 has transmitted the image data and the notification information to the server device managed by the police, the display device 22 installed in the room displays presentation information 224 for presenting that the police have been notified. good too. As shown in FIG. 11, the presentation information 224 includes, for example, the text "I reported to the police."

このように、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報に基づき、物品の破損が発生した状況が推定され、推定された状況に応じて、空間内において自走式掃除機21に所定の動作を実行させるための第2情報が出力される。したがって、空間内に存在する物品が破損した際に、物品の破損が発生した状況に応じて、自走式掃除機21に所定の動作を実行させることができる。 In this way, based on the first information acquired by at least one of the one or more sensors installed in the space, the situation in which the damage to the article occurred is estimated, and depending on the estimated situation, in the space Second information is output for causing self-propelled cleaner 21 to perform a predetermined operation. Therefore, when an article existing in the space is damaged, the self-propelled cleaner 21 can be caused to perform a predetermined operation according to the situation in which the article is damaged.

なお、提示情報生成部327は、推定された状況の発生を抑制するための物品に関する情報を表示装置22(提示装置)に提示させるための提示情報(第5情報)を生成してもよい。また、提示情報送信部313は、推定された状況の発生を抑制するための物品に関する情報を表示装置22(提示装置)に提示させるための提示情報(第5情報)を送信(出力)してもよい。例えば、不審者が侵入している第3状況が推定された場合、提示情報生成部327は、防犯用品に関する提示情報生成し、表示装置22へ送信してもよい。 Note that the presentation information generation unit 327 may generate presentation information (fifth information) for causing the display device 22 (presentation device) to present information about an article for suppressing the occurrence of the estimated situation. In addition, the presentation information transmission unit 313 transmits (outputs) presentation information (fifth information) for causing the display device 22 (presentation device) to present information about an article for suppressing the occurrence of the estimated situation. good too. For example, when a third situation in which a suspicious person is intruding is estimated, the presentation information generation unit 327 may generate presentation information regarding security supplies and transmit the information to the display device 22 .

(実施の形態2)
実施の形態1における機器制御システムは、1つのサーバ装置を備えているが、実施の形態2における機器制御システムは、2つのサーバ装置を備えている。
(Embodiment 2)
The equipment control system in Embodiment 1 includes one server device, but the equipment control system in Embodiment 2 includes two server devices.

図12は、本開示の実施の形態2における第1サーバ装置の構成を示す図であり、図13は、本開示の実施の形態2における第2サーバ装置の構成を示す図である。 FIG. 12 is a diagram showing the configuration of a first server device according to Embodiment 2 of the present disclosure, and FIG. 13 is a diagram showing the configuration of a second server device according to Embodiment 2 of the present disclosure.

実施の形態2における機器制御システムは、第1サーバ装置3A、第2サーバ装置3B、ゲートウェイ5(不図示)、第1センサ11、第2センサ12、自走式掃除機21、表示装置22及び情報機器23を備える。なお、本実施の形態2において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。センサ群1は、第1センサ11及び第2センサ12等の種々のセンサを含む。機器群2は、自走式掃除機21、表示装置22及び情報機器23等の種々の機器を含む。なお、図12及び図13において、ゲートウェイ5は省略されている。 The device control system in Embodiment 2 includes a first server device 3A, a second server device 3B, a gateway 5 (not shown), a first sensor 11, a second sensor 12, a self-propelled cleaner 21, a display device 22 and An information device 23 is provided. In the second embodiment, the same reference numerals are assigned to the same configurations as in the first embodiment, and the description thereof is omitted. The sensor group 1 includes various sensors such as a first sensor 11 and a second sensor 12 . The device group 2 includes various devices such as a self-propelled cleaner 21, a display device 22, an information device 23, and the like. 12 and 13, the gateway 5 is omitted.

第1サーバ装置3Aは、センサ群1、機器群2及び第2サーバ装置3Bとネットワークを介して通信可能に接続されている。また、第2サーバ装置3Bは、機器群2及び第1サーバ装置3Aとネットワークを介して通信可能に接続されている。 The first server device 3A is communicably connected to the sensor group 1, the device group 2, and the second server device 3B via a network. Also, the second server device 3B is communicably connected to the device group 2 and the first server device 3A via a network.

第1サーバ装置3Aは、例えば、プラットフォーマーにより運営される。第2サーバ装置3Bは、例えば、サードパーティにより運営される。 The first server device 3A is operated by, for example, a platformer. The second server device 3B is operated by, for example, a third party.

第1サーバ装置3Aは、通信部31A、プロセッサ32A及びメモリ33Aを備える。 The first server device 3A includes a communication section 31A, a processor 32A and a memory 33A.

通信部31Aは、センサデータ受信部311、制御情報送信部312、通知情報送信部314、破損物品情報送信部315及び機器動作情報送信部316を備える。プロセッサ32Aは、破損検知部321、状況推定部322、破損位置特定部323、機器動作決定部324、破損物品特定部325及び通知情報生成部329を備える。メモリ33Aは、機器動作情報記憶部331を備える。 The communication unit 31A includes a sensor data reception unit 311, a control information transmission unit 312, a notification information transmission unit 314, a damaged article information transmission unit 315, and an equipment operation information transmission unit 316. The processor 32A includes a damage detection unit 321, a situation estimation unit 322, a damage position identification unit 323, an appliance operation determination unit 324, a damaged article identification unit 325, and a notification information generation unit 329. The memory 33A includes a device operation information storage section 331. FIG.

破損物品情報送信部315は、破損物品特定部325によって特定された破損物品を示す破損物品情報を第2サーバ装置3Bへ送信する。 The damaged item information transmission unit 315 transmits damaged item information indicating the damaged item identified by the damaged item identification unit 325 to the second server device 3B.

機器動作情報送信部316は、機器動作決定部324によって決定された仲直りに適したレストラン又は映画を提示させる表示装置22の動作を示す機器動作情報を第2サーバ装置3Bへ送信する。 The device operation information transmission section 316 transmits to the second server device 3B device operation information indicating the operation of the display device 22 for presenting the restaurant or movie suitable for reconciliation determined by the device operation determination section 324 .

第2サーバ装置3Bは、通信部31B、プロセッサ32B及びメモリ33Bを備える。 The second server device 3B has a communication section 31B, a processor 32B and a memory 33B.

通信部31Bは、提示情報送信部313、破損物品情報受信部317及び機器動作情報受信部318を備える。プロセッサ32Bは、代替物品特定部326及び提示情報生成部327を備える。メモリ33Bは、物品情報記憶部332を備える。 The communication unit 31B includes a presentation information transmission unit 313, a damaged article information reception unit 317, and an equipment operation information reception unit 318. The processor 32B includes a substitute item identification unit 326 and a presentation information generation unit 327. FIG. The memory 33B includes an article information storage section 332. FIG.

破損物品情報受信部317は、第1サーバ装置3Aによって送信された破損物品情報を受信する。代替物品特定部326は、破損物品情報受信部317によって受信された破損物品情報に基づき、破損物品に関連する代替物品を特定する。 The damaged article information receiving section 317 receives the damaged article information transmitted by the first server device 3A. The substitute item identification unit 326 identifies substitute items related to the damaged item based on the damaged item information received by the damaged item information receiving unit 317 .

機器動作情報受信部318は、第1サーバ装置3Aによって送信された機器動作情報を受信する。サービス特定部328は、仲直りに適したレストラン又は映画を提示させる表示装置22の動作を示す機器動作情報が機器動作情報受信部318によって受信された場合、サービス情報記憶部333を参照し、喧嘩中の複数の人物に提示するためのレストラン又は映画を特定する。 The device operation information receiving section 318 receives the device operation information transmitted by the first server device 3A. The service identifying unit 328 refers to the service information storage unit 333 when the equipment operation information indicating the operation of the display device 22 for presenting restaurants or movies suitable for reconciliation is received by the equipment operation information receiving unit 318, and determines whether the service identifying unit 328 is fighting. identify a restaurant or movie to present to multiple persons in the

なお、本実施の形態2では、第1サーバ装置3Aが第2サーバ装置3Bへ破損物品情報及び機器動作情報を送信しているが、本開示は特にこれに限定されず、第2サーバ装置3Bが第1サーバ装置3Aへ破損物品情報及び機器動作情報を要求するリクエストを送信し、第1サーバ装置3Aがリクエストに応じて第2サーバ装置3Bへ破損物品情報及び機器動作情報を送信してもよい。 In the second embodiment, the first server device 3A transmits the damaged article information and the device operation information to the second server device 3B, but the present disclosure is not particularly limited to this, and the second server device 3B sends a request for damaged article information and device operation information to the first server device 3A, and the first server device 3A sends the damaged article information and device operation information to the second server device 3B in response to the request. good.

また、本実施の形態2において、機器制御システムは、複数の第2サーバ装置3Bを備えてもよい。 Further, in the second embodiment, the device control system may include a plurality of second server devices 3B.

なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 In each of the above-described embodiments, each component may be configured by dedicated hardware, or realized by executing a software program suitable for each component. Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor.

本開示の実施の形態に係る装置の機能の一部又は全ては典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Some or all of the functions of the device according to the embodiment of the present disclosure are typically implemented as an LSI (Large Scale Integration), which is an integrated circuit. These may be made into one chip individually, or may be made into one chip so as to include part or all of them. Further, circuit integration is not limited to LSIs, and may be realized by dedicated circuits or general-purpose processors. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connections and settings of circuit cells inside the LSI may be used.

また、本開示の実施の形態に係る装置の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。 Also, some or all of the functions of the device according to the embodiment of the present disclosure may be implemented by a processor such as a CPU executing a program.

また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。 In addition, the numbers used above are all examples for specifically describing the present disclosure, and the present disclosure is not limited to the illustrated numbers.

また、上記フローチャートに示す各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、同様の効果が得られる範囲で上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 In addition, the order in which each step shown in the above flowchart is executed is for illustrative purposes in order to specifically describe the present disclosure, and may be an order other than the above as long as the same effect can be obtained. . Also, some of the above steps may be executed concurrently (in parallel) with other steps.

本開示に係る情報処理方法、情報処理装置及び情報処理プログラムは、物品の破損が発生した状況に応じて、自走式装置に所定の動作を実行させることができるので、機器に所定の動作を実行させる情報処理方法、情報処理装置及び情報処理プログラムとして有用である。 The information processing method, information processing apparatus, and information processing program according to the present disclosure can cause the self-propelled device to perform a predetermined operation according to the situation in which the article is damaged. It is useful as an information processing method, an information processing apparatus, and an information processing program to be executed.

1 センサ群
2 機器群
3 サーバ装置
3A 第1サーバ装置
3B 第2サーバ装置
4 ネットワーク
5 ゲートウェイ
6 物品
10 住宅
11 第1センサ
12 第2センサ
21 自走式掃除機
22 表示装置
23 情報機器
31,31A,31B 通信部
32,32A,32B プロセッサ
33,33A,33B メモリ
311 センサデータ受信部
312 制御情報送信部
313 提示情報送信部
314 通知情報送信部
315 破損物品情報送信部
316 機器動作情報送信部
317 破損物品情報受信部
318 機器動作情報受信部
321 破損検知部
322 状況推定部
323 破損位置特定部
324 機器動作決定部
325 破損物品特定部
326 代替物品特定部
327 提示情報生成部
328 サービス特定部
329 通知情報生成部
331 機器動作情報記憶部
332 物品情報記憶部
333 サービス情報記憶部
1 sensor group 2 device group 3 server device 3A first server device 3B second server device 4 network 5 gateway 6 article 10 house 11 first sensor 12 second sensor 21 self-propelled cleaner 22 display device 23 information device 31, 31A , 31B communication unit 32, 32A, 32B processor 33, 33A, 33B memory 311 sensor data reception unit 312 control information transmission unit 313 presentation information transmission unit 314 notification information transmission unit 315 damaged article information transmission unit 316 equipment operation information transmission unit 317 damage Item information receiving unit 318 Equipment operation information receiving unit 321 Damage detection unit 322 Situation estimation unit 323 Damage position identification unit 324 Equipment operation determination unit 325 Damaged item identification unit 326 Substitute item identification unit 327 Presentation information generation unit 328 Service identification unit 329 Notification information Generation unit 331 Device operation information storage unit 332 Goods information storage unit 333 Service information storage unit

Claims (12)

情報処理装置における情報処理方法であって、
空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得し、
前記第1情報に基づき、前記空間内に存在する物品の破損を検知し、
前記第1情報に基づき、前記物品の破損が発生した状況を推定し、
前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力
前記第2情報は、前記自走式装置を前記物品の破損位置に移動させ、前記自走式装置に破損物品を撮像させ、撮像した画像データを送信させるための情報を含み、
前記自走式装置によって送信された前記破損物品を撮像した前記画像データを取得し、
前記画像データに基づき、前記破損物品を特定し、
特定した前記破損物品と同一又は類似の属性を有する代替物品を特定し、
特定した前記代替物品に関する情報を提示装置に提示させるための第6情報を出力する、
情報処理方法。
An information processing method in an information processing device,
Acquiring first information acquired by at least one of the one or more sensors installed in the space;
Detecting damage to an article existing in the space based on the first information,
Based on the first information, estimate the situation in which the damage to the article occurred,
Output second information for causing the self-propelled device to perform a predetermined operation in the space according to the estimated situation,
The second information includes information for moving the self-propelled device to the damage position of the article, causing the self-propelled device to image the damaged article, and transmitting the image data taken,
Acquiring the image data of the damaged article transmitted by the self-propelled device,
Identifying the damaged article based on the image data,
identifying a replacement item that has the same or similar attributes as the identified damaged item;
Outputting sixth information for causing a presentation device to present information about the identified alternative product;
Information processing methods.
前記第2情報は、前記推定した状況に応じて、前記空間内において前記自走式装置に所定の音声を出力させるための情報である、
請求項1記載の情報処理方法。
The second information is information for causing the self-propelled device to output a predetermined sound in the space according to the estimated situation,
The information processing method according to claim 1.
さらに、前記推定した状況を変化させるための情報を提示装置に提示させるための第3情報を出力する、
請求項1又は2記載の情報処理方法。
Furthermore, outputting third information for causing a presentation device to present information for changing the estimated situation;
3. The information processing method according to claim 1 or 2.
前記自走式装置は、自走式掃除機であり、
前記第2情報は、前記推定した状況に応じて、前記空間内において前記自走式掃除機に前記破損した物品を清掃させるための情報である、
請求項1~3のいずれか1項に記載の情報処理方法。
The self-propelled device is a self-propelled vacuum cleaner,
The second information is information for causing the self-propelled cleaner to clean the damaged article in the space according to the estimated situation.
The information processing method according to any one of claims 1 to 3.
前記推定した状況は、不審者が前記空間内に侵入した状況であり、
前記第2情報は、前記空間内において前記自走式装置に前記不審者を攪乱する動作を実行させるための情報である、
請求項1~4のいずれか1項に記載の情報処理方法。
the estimated situation is a situation in which a suspicious person has entered the space;
The second information is information for causing the self-propelled device to perform an action to disturb the suspicious person in the space.
The information processing method according to any one of claims 1 to 4.
さらに、前記空間内に配置された撮像装置から前記不審者を撮像した画像データを取得し、
さらに、取得した前記画像データと、前記不審者が存在することを通知するための通知情報とを送信する、
請求項5記載の情報処理方法。
Further, acquiring image data of the suspicious person from an imaging device arranged in the space,
Further, transmitting the obtained image data and notification information for notifying that the suspicious person exists.
6. The information processing method according to claim 5.
さらに、前記自走式装置が破損したことを示す破損情報が取得された場合、前記自走式装置の修理を依頼するための第4情報を出力する、
請求項5又は6記載の情報処理方法。
Furthermore, when damage information indicating that the self-propelled device is damaged is obtained, outputting fourth information for requesting repair of the self-propelled device,
7. The information processing method according to claim 5 or 6.
さらに、前記推定した状況の発生を抑制するための物品に関する情報を提示装置に提示させるための第5情報を出力する、
請求項1~7のいずれか1項に記載の情報処理方法。
Furthermore, outputting fifth information for causing a presentation device to present information about an article for suppressing the occurrence of the estimated situation,
The information processing method according to any one of claims 1 to 7.
前記1以上のセンサは、前記空間内に設置されたマイクロフォン装置及び撮像装置の少なくとも一方を含み、
前記第1情報は、前記マイクロフォン装置によって取得された音データ及び前記撮像装置によって取得された画像データの少なくとも一方を含み、
前記状況の推定は、前記音データ及び前記画像データの少なくとも一方に基づき、前記物品の破損が発生した前記状況を推定する、
請求項1~8のいずれか1項に記載の情報処理方法。
The one or more sensors include at least one of a microphone device and an imaging device installed in the space,
The first information includes at least one of sound data acquired by the microphone device and image data acquired by the imaging device,
estimating the situation is based on at least one of the sound data and the image data, estimating the situation in which the article has been damaged;
The information processing method according to any one of claims 1 to 8.
前記第1情報の取得は、所定の時間間隔で前記第1情報を取得し、
前記状況の推定は、前記物品の破損が発生した時点を基準とする所定の期間内に取得された複数の第1情報に基づき、前記物品の破損が発生した前記状況を推定する、
請求項1~9のいずれか1項に記載の情報処理方法。
Acquisition of the first information includes acquiring the first information at predetermined time intervals,
estimating the situation based on a plurality of pieces of first information acquired within a predetermined period of time based on the point in time when the damage to the article occurred, estimating the situation in which the damage to the article occurred;
The information processing method according to any one of claims 1 to 9.
空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得する第1取得部と、
前記第1情報に基づき、前記空間内に存在する物品の破損を検知する検知部と、
前記第1情報に基づき、前記物品の破損が発生した状況を推定する推定部と、
前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力する第1出力部と、
前記第2情報は、前記自走式装置を前記物品の破損位置に移動させ、前記自走式装置に破損物品を撮像させ、撮像した画像データを送信させるための情報を含み、
前記自走式装置によって送信された前記破損物品を撮像した前記画像データを取得する第2取得部と、
前記画像データに基づき、前記破損物品を特定する破損物品特定部と、
特定した前記破損物品と同一又は類似の属性を有する代替物品を特定する代替物品特定部と、
特定した前記代替物品に関する情報を提示装置に提示させるための第6情報を出力する第2出力部と、
を備える情報処理装置。
a first acquisition unit that acquires first information acquired by at least one of the one or more sensors installed in the space;
a detection unit that detects damage to an article existing in the space based on the first information;
an estimating unit for estimating a situation in which damage to the article has occurred based on the first information;
A first output unit that outputs second information for causing the self-propelled device to perform a predetermined operation in the space according to the estimated situation;
The second information includes information for moving the self-propelled device to the damage position of the article, causing the self-propelled device to image the damaged article, and transmitting the image data taken,
a second acquisition unit that acquires the image data of the damaged article transmitted by the self-propelled device;
a damaged article identifying unit that identifies the damaged article based on the image data;
a substitute item identification unit that identifies a substitute item having the same or similar attributes as the identified damaged item;
a second output unit that outputs sixth information for causing a presentation device to present information about the identified alternative product;
Information processing device.
空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得し、
前記第1情報に基づき、前記空間内に存在する物品の破損を検知し、
前記第1情報に基づき、前記物品の破損が発生した状況を推定し、
前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力し、
前記第2情報は、前記自走式装置を前記物品の破損位置に移動させ、前記自走式装置に破損物品を撮像させ、撮像した画像データを送信させるための情報を含み、
前記自走式装置によって送信された前記破損物品を撮像した前記画像データを取得し、
前記画像データに基づき、前記破損物品を特定し、
特定した前記破損物品と同一又は類似の属性を有する代替物品を特定し、
特定した前記代替物品に関する情報を提示装置に提示させるための第6情報を出力するようにコンピュータを機能させる情報処理プログラム。
Acquiring first information acquired by at least one of the one or more sensors installed in the space;
Detecting damage to an article existing in the space based on the first information,
Based on the first information, estimate the situation in which the damage to the article occurred,
Output second information for causing the self-propelled device to perform a predetermined operation in the space according to the estimated situation ,
The second information includes information for moving the self-propelled device to the damage position of the article, causing the self-propelled device to image the damaged article, and transmitting the image data taken,
Acquiring the image data of the damaged article transmitted by the self-propelled device,
Identifying the damaged article based on the image data,
identifying a replacement item that has the same or similar attributes as the identified damaged item;
An information processing program that causes a computer to output sixth information for causing a presentation device to present information about the identified alternative article .
JP2019048950A 2018-07-27 2019-03-15 Information processing method, information processing apparatus, and information processing program Active JP7332310B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/516,547 US11357376B2 (en) 2018-07-27 2019-07-19 Information processing method, information processing apparatus and computer-readable recording medium storing information processing program
CN201910679631.3A CN110772177B (en) 2018-07-27 2019-07-25 Information processing method, information processing apparatus, and recording medium
US17/742,722 US11925304B2 (en) 2018-07-27 2022-05-12 Information processing method, information processing apparatus and computer-readable recording medium storing information processing program
JP2023130668A JP2023156424A (en) 2018-07-27 2023-08-10 Information processing method, information processing apparatus, and information processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862711022P 2018-07-27 2018-07-27
US62/711,022 2018-07-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023130668A Division JP2023156424A (en) 2018-07-27 2023-08-10 Information processing method, information processing apparatus, and information processing program

Publications (2)

Publication Number Publication Date
JP2020017258A JP2020017258A (en) 2020-01-30
JP7332310B2 true JP7332310B2 (en) 2023-08-23

Family

ID=69580495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019048950A Active JP7332310B2 (en) 2018-07-27 2019-03-15 Information processing method, information processing apparatus, and information processing program

Country Status (1)

Country Link
JP (1) JP7332310B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7240758B2 (en) * 2021-06-01 2023-03-16 株式会社バカン Information processing device, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005218559A (en) 2004-02-04 2005-08-18 Funai Electric Co Ltd Self-propelled vacuum cleaner network system
JP2005275899A (en) 2004-03-25 2005-10-06 Funai Electric Co Ltd Self-propelled cleaner
JP2014142742A (en) 2013-01-23 2014-08-07 Hochiki Corp Alarm System
US20150115876A1 (en) 2013-10-31 2015-04-30 Lg Electronics Inc. Mobile robot, charging apparatus for the mobile robot, and mobile robot system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005218559A (en) 2004-02-04 2005-08-18 Funai Electric Co Ltd Self-propelled vacuum cleaner network system
JP2005275899A (en) 2004-03-25 2005-10-06 Funai Electric Co Ltd Self-propelled cleaner
JP2014142742A (en) 2013-01-23 2014-08-07 Hochiki Corp Alarm System
US20150115876A1 (en) 2013-10-31 2015-04-30 Lg Electronics Inc. Mobile robot, charging apparatus for the mobile robot, and mobile robot system

Also Published As

Publication number Publication date
JP2020017258A (en) 2020-01-30

Similar Documents

Publication Publication Date Title
CN110772177B (en) Information processing method, information processing apparatus, and recording medium
TWI729289B (en) Meal settlement method, smart ordering equipment and smart restaurant payment system
US11928726B2 (en) Information processing method, information processing apparatus and computer-readable recording medium storing information processing program
WO2014171167A1 (en) Work management system and work management method
JP2019153070A (en) Information processing apparatus and information processing program
JP6156441B2 (en) Work management system and work management method
JP2019153073A (en) Information processing apparatus and information processing program
JP6452571B2 (en) Information output apparatus, information output method, and information output program
US11856334B2 (en) Display control method, information processing server, and display terminal
JP7332310B2 (en) Information processing method, information processing apparatus, and information processing program
JP2019145045A (en) Customer management system, customer management method and program
WO2020171097A1 (en) Control method for notification system, and notification system
JP2023073422A (en) Method of setting system and processing device
JP7328773B2 (en) Information processing method, information processing apparatus, and information processing program
WO2019234997A1 (en) Food product management system
WO2021084949A1 (en) Information processing device, information processing method, and program
WO2021246073A1 (en) Method for controlling notification system, and control device
US20200388405A1 (en) Information provision device
JP7428673B2 (en) Risk detection system, risk detection device, risk detection method and program
US20220398549A1 (en) Assistance device and assistance program
JP2024007151A (en) Information processing method, information processor, and program
US20220027985A1 (en) Information processing device, information processing system, and information processing method, and program
JP2022077461A (en) Delivery management server, delivery management method, and delivery management program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230810

R150 Certificate of patent or registration of utility model

Ref document number: 7332310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150