JP2020017258A - Information processing method, information processing apparatus, and information processing program - Google Patents

Information processing method, information processing apparatus, and information processing program Download PDF

Info

Publication number
JP2020017258A
JP2020017258A JP2019048950A JP2019048950A JP2020017258A JP 2020017258 A JP2020017258 A JP 2020017258A JP 2019048950 A JP2019048950 A JP 2019048950A JP 2019048950 A JP2019048950 A JP 2019048950A JP 2020017258 A JP2020017258 A JP 2020017258A
Authority
JP
Japan
Prior art keywords
information
article
damaged
situation
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019048950A
Other languages
Japanese (ja)
Other versions
JP7332310B2 (en
Inventor
貴生 小川
Takao Ogawa
貴生 小川
雅士 小出
Masashi Koide
雅士 小出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to US16/516,547 priority Critical patent/US11357376B2/en
Priority to CN201910679631.3A priority patent/CN110772177B/en
Publication of JP2020017258A publication Critical patent/JP2020017258A/en
Priority to US17/742,722 priority patent/US11925304B2/en
Priority to JP2023130668A priority patent/JP2023156424A/en
Application granted granted Critical
Publication of JP7332310B2 publication Critical patent/JP7332310B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information processing method capable of causing a self-propelled apparatus to perform a predetermined operation according to the situation in which an article has been damaged, an information processing apparatus, and an information processing program.SOLUTION: An information processing method in a server device 3 includes the steps of: obtaining a piece of first information obtained in at least one of the one or more sensors installed in a space; detecting damage of an article existing in the space based on the first information; estimating the situation where the article is damaged based on the first information; and outputting a piece of second information for causing the self-propelled cleaner 21 to execute a predetermined operation in the space according to the estimated situation.SELECTED DRAWING: Figure 1

Description

本開示は、機器に所定の動作を実行させる情報処理方法、情報処理装置及び情報処理プログラムに関するものである。   The present disclosure relates to an information processing method, an information processing device, and an information processing program for causing a device to execute a predetermined operation.

従来、掃除動作中に、撮像部で撮像された撮像画像と、記憶部に記憶されている登録された異物の画像とを比較することで画像認識を行い、記憶部に記憶した登録された異物を認識する電気掃除装置が知られている(例えば、特許文献1参照)。この電気掃除装置は、登録された異物を認識したときに、認識された異物に対応して記憶部に記憶されている制御態様に基づいて吸引駆動部の制御を行うと共に、認識された異物が何であるかを特定する表示を、表示画面に表示する。   Conventionally, during a cleaning operation, image recognition is performed by comparing a captured image captured by the imaging unit with an image of a registered foreign substance stored in the storage unit, and the registered foreign substance stored in the storage unit is compared. There is a known electric cleaning device that recognizes (see, for example, Patent Document 1). This electric cleaning device, when recognizing a registered foreign substance, controls the suction drive unit based on the control mode stored in the storage unit corresponding to the recognized foreign substance, and removes the recognized foreign substance. A display for identifying what is is displayed on the display screen.

特許第5771885号明細書Japanese Patent No. 5771885

しかしながら、上記従来の技術では、物品の破損が発生した状況を推定しておらず、更なる改善が必要とされていた。   However, in the above-described conventional technology, the situation in which the article is damaged is not estimated, and further improvement is required.

本開示は、上記の問題を解決するためになされたもので、物品の破損が発生した状況に応じて、自走式装置に所定の動作を実行させることができる情報処理方法、情報処理装置及び情報処理プログラムを提供することを目的とするものである。   The present disclosure has been made in order to solve the above-described problem, and has an information processing method, an information processing apparatus, and an information processing method that can cause a self-propelled device to execute a predetermined operation according to a situation in which an article is damaged. It is an object to provide an information processing program.

本開示の一態様に係る情報処理方法は、情報処理装置における情報処理方法であって、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得し、前記第1情報に基づき、前記空間内に存在する物品の破損を検知し、前記第1情報に基づき、前記物品の破損が発生した状況を推定し、前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力する。   An information processing method according to an aspect of the present disclosure is an information processing method in an information processing device, wherein the first information acquired by at least one of one or more sensors installed in a space is acquired, and the first information is acquired. 1 based on the information, detects damage to the article present in the space, estimates a situation in which the article has been damaged based on the first information, and, based on the estimated situation, The second information for causing the mobile device to execute a predetermined operation is output.

本開示によれば、空間内に存在する物品が破損した際に、物品の破損が発生した状況に応じて、自走式装置に所定の動作を実行させることができる。   According to the present disclosure, when an article existing in a space is damaged, the self-propelled device can execute a predetermined operation according to the situation in which the article has been damaged.

本開示の実施の形態1における機器制御システムの構成を示す図である。1 is a diagram illustrating a configuration of a device control system according to a first embodiment of the present disclosure. 本開示の実施の形態1におけるサーバ装置の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of a server device according to Embodiment 1 of the present disclosure. 本実施の形態1において機器動作情報記憶部に記憶される機器動作情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of device operation information stored in a device operation information storage unit according to the first embodiment. 本実施の形態1において物品情報記憶部に記憶される物品情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of article information stored in an article information storage unit according to the first embodiment. 本実施の形態1においてサービス情報記憶部に記憶される映画情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of movie information stored in a service information storage unit according to the first embodiment. 本実施の形態1においてサービス情報記憶部に記憶されるレストラン情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of restaurant information stored in a service information storage unit according to the first embodiment. 本開示の実施の形態1におけるサーバ装置の動作を説明するための第1のフローチャートである。6 is a first flowchart for describing an operation of the server device according to Embodiment 1 of the present disclosure. 本開示の実施の形態1におけるサーバ装置の動作を説明するための第2のフローチャートである。6 is a second flowchart for describing an operation of the server device according to Embodiment 1 of the present disclosure. 本実施の形態1において、日常的な動作中に物品が人物の手から滑り落ちた第1状況における機器の動作について説明するための図である。FIG. 7 is a diagram for describing an operation of the device in the first situation in which an article slips from a person's hand during a daily operation in the first embodiment. 本実施の形態1において、複数の人物が喧嘩している第2状況における機器の動作について説明するための図である。FIG. 5 is a diagram for describing an operation of the device in a second situation in which a plurality of persons are fighting in the first embodiment. 本実施の形態1において、不審者が侵入している第3状況における機器の動作について説明するための図である。FIG. 7 is a diagram for describing an operation of the device in the third situation in which a suspicious person has entered in the first embodiment. 本開示の実施の形態2における第1サーバ装置の構成を示す図である。FIG. 10 is a diagram illustrating a configuration of a first server device according to a second embodiment of the present disclosure. 本開示の実施の形態2における第2サーバ装置の構成を示す図である。FIG. 13 is a diagram illustrating a configuration of a second server device according to Embodiment 2 of the present disclosure.

(本開示の基礎となった知見)
上記の従来技術では、掃除対象物以外の異物の画像が予め記憶部に登録されており、掃除動作中に撮像された撮像画像と異物の画像とが比較され、登録された異物が認識され、認識された異物が何であるかを特定する表示が表示画面に表示される。そして、異物としては、電気掃除機の故障又は破損を避ける観点から、「ビニール袋」、「書類」、「コード」又は「ネジ」等が挙げられており、吸い込まれてしまう異物の清浄性を確保したり汚損及び破損を避けたりする観点から、「書類」、「マイクロSDカード」、「紙幣」及び「宝石」等が挙げられている。つまり、従来技術では、掃除対象物以外の異物が認識されるものの、例えば、破損したマグカップ等の掃除対象物は認識されない。
(Knowledge underlying the present disclosure)
In the above conventional technology, an image of a foreign substance other than the object to be cleaned is registered in the storage unit in advance, and a captured image captured during the cleaning operation is compared with the image of the foreign substance, and the registered foreign substance is recognized, A display for identifying the recognized foreign matter is displayed on the display screen. The foreign substances include, for example, “plastic bags”, “documents”, “cords”, and “screws” from the viewpoint of avoiding breakdown or breakage of the vacuum cleaner. From the viewpoint of securing and avoiding contamination and breakage, "documents", "micro SD cards", "banknotes", "jewels" and the like are mentioned. That is, in the related art, although a foreign substance other than the object to be cleaned is recognized, a cleaning object such as a damaged mug is not recognized.

また、従来技術では、物品が破損した場合、物品の破損が発生した状況が推定されることはない。そのため、従来技術は、物品の破損が発生した状況に応じて、電気掃除機に所定の動作を実行させることについては開示も示唆もされていない。   Further, in the related art, when an article is damaged, a situation in which the article is damaged is not estimated. Therefore, the related art does not disclose or suggest that the vacuum cleaner performs a predetermined operation according to a situation in which the article is damaged.

以上の課題を解決するために、本開示の一態様に係る情報処理方法は、情報処理装置における情報処理方法であって、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得し、前記第1情報に基づき、前記空間内に存在する物品の破損を検知し、前記第1情報に基づき、前記物品の破損が発生した状況を推定し、前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力する。   In order to solve the above problems, an information processing method according to an embodiment of the present disclosure is an information processing method in an information processing device, the method being obtained by at least one of one or more sensors installed in a space. Acquiring first information, detecting damage to an article present in the space based on the first information, estimating a situation in which the article has been damaged based on the first information, And outputs second information for causing the self-propelled device to execute a predetermined operation in the space.

この構成によれば、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報に基づき、物品の破損が発生した状況が推定され、推定された状況に応じて、空間内において自走式装置に所定の動作を実行させるための第2情報が出力される。したがって、空間内に存在する物品が破損した際に、物品の破損が発生した状況に応じて、自走式装置に所定の動作を実行させることができる。   According to this configuration, based on the first information acquired by at least one of the one or more sensors installed in the space, the situation where the article has been damaged is estimated, and the space is determined according to the estimated situation. Inside, the second information for causing the self-propelled device to execute a predetermined operation is output. Therefore, when an article present in the space is damaged, the self-propelled device can cause the self-propelled device to execute a predetermined operation according to the situation in which the article is damaged.

また、上記の情報処理方法において、前記第2情報は、前記推定した状況に応じて、前記空間内において前記自走式装置に所定の音声を出力させるための情報であってもよい。   Further, in the above information processing method, the second information may be information for causing the self-propelled device to output a predetermined sound in the space according to the estimated situation.

この構成によれば、物品の破損が発生した状況に応じて、空間内において自走式装置に所定の音声を出力させることができる。例えば、物品の破損が発生した状況が、複数の人物が喧嘩している状況である場合、自走式装置に喧嘩中の複数の人物をなだめる音声を出力しながら移動させる動作を実行させることができる。   According to this configuration, the predetermined sound can be output to the self-propelled device in the space according to the situation in which the article is damaged. For example, if the situation in which the article is damaged is a situation where a plurality of persons are fighting, the self-propelled device may perform an operation of moving while outputting sound soothing a plurality of fighting persons. it can.

また、上記の情報処理方法において、さらに、前記推定した状況を変化させるための情報を提示装置に提示させるための第3情報を出力してもよい。   Further, in the above information processing method, third information for causing the presentation device to present information for changing the estimated situation may be output.

この構成によれば、推定した状況を変化させるための情報を提示装置に提示させるための第3情報が出力されるので、物品の破損が発生した状況を変化させることができる。例えば、物品の破損が発生した状況が、複数の人物が喧嘩している状況である場合、喧嘩中の複数の人物が仲直りするのに適した情報を提示することができる。   According to this configuration, since the third information for causing the presentation device to present information for changing the estimated situation is output, it is possible to change the situation in which the article is damaged. For example, when the situation in which the article is damaged is a situation in which a plurality of persons are fighting, information suitable for a plurality of fighting persons to make up can be presented.

また、上記の情報処理方法において、前記自走式装置は、自走式掃除機であり、前記第2情報は、前記推定した状況に応じて、前記空間内において前記自走式掃除機に前記破損した物品を清掃させるための情報であってもよい。   In the above information processing method, the self-propelled device is a self-propelled cleaner, and the second information is transmitted to the self-propelled cleaner in the space according to the estimated situation. The information may be information for cleaning a damaged article.

この構成によれば、自走式装置は、自走式掃除機であり、物品の破損が発生した状況に応じて、空間内において自走式掃除機に破損した物品を清掃させることができる。例えば、物品の破損が発生した状況が、日常的な動作中に物品が人物の手から滑り落ちた状況である場合、自走式掃除機に破損物品を清掃させる動作を実行させることができる。   According to this configuration, the self-propelled device is a self-propelled cleaner, and can cause the self-propelled cleaner to clean the damaged article in the space according to the situation where the article has been damaged. For example, when the situation in which the article has been damaged is a situation in which the article has slipped from the hand of a person during a daily operation, the operation of causing the self-propelled cleaner to clean the damaged article can be performed.

また、上記の情報処理方法において、前記推定した状況は、不審者が前記空間内に侵入した状況であり、前記第2情報は、前記空間内において前記自走式装置に前記不審者を攪乱する動作を実行させるための情報であってもよい。   In the above information processing method, the estimated situation is a situation where a suspicious person has entered the space, and the second information disturbs the suspicious person by the self-propelled device in the space. Information for executing the operation may be used.

この構成によれば、物品の破損が発生した状況が、不審者が空間内に侵入した状況である場合、空間内において自走式装置に不審者を攪乱する動作を実行させることができる。   According to this configuration, when the situation in which the article is damaged is a situation in which a suspicious person has entered the space, the self-propelled device can perform an operation of disturbing the suspicious person in the space.

また、上記の情報処理方法において、さらに、前記空間内に配置された撮像装置から前記不審者を撮像した画像データを取得し、さらに、取得した前記画像データと、前記不審者が存在することを通知するための通知情報とを送信してもよい。   In the above information processing method, further, image data obtained by imaging the suspicious person from an imaging device arranged in the space is obtained, and further, the obtained image data and the suspicious person are present. Notification information for notification may be transmitted.

この構成によれば、空間内に配置された撮像装置から不審者を撮像した画像データが取得され、取得された画像データと、不審者が存在することを通知するための通知情報とが送信されるので、不審者が存在することを他者に通知することができる。   According to this configuration, image data obtained by imaging the suspicious individual is acquired from the imaging device arranged in the space, and the acquired image data and notification information for notifying that the suspicious individual is present are transmitted. Therefore, it is possible to notify another person that a suspicious person exists.

また、上記の情報処理方法において、さらに、前記自走式装置が破損したことを示す破損情報が取得された場合、前記自走式装置の修理を依頼するための第4情報を出力してもよい。   Further, in the above information processing method, further, when damage information indicating that the self-propelled device has been damaged is obtained, fourth information for requesting repair of the self-propelled device may be output. Good.

この構成によれば、自走式装置が破損した場合に、自走式装置の修理を自動的に依頼することができる。   According to this configuration, when the self-propelled device is damaged, repair of the self-propelled device can be automatically requested.

また、上記の情報処理方法において、さらに、前記推定した状況の発生を抑制するための物品に関する情報を提示装置に提示させるための第5情報を出力してもよい。   Further, in the above information processing method, furthermore, fifth information for causing a presentation device to present information on an article for suppressing occurrence of the estimated situation may be output.

この構成によれば、物品の破損が発生した状況の発生を抑制するための物品に関する情報が提示装置に提示されるので、物品の破損が発生した状況の発生を抑制することができる。例えば、物品の破損が発生した状況が、不審者が空間内に侵入した状況である場合、不審者が空間内に侵入した状況の発生を抑制するための物品として防犯用品に関する情報を提示することができる。   According to this configuration, since information about the article for suppressing the occurrence of the situation where the article has been damaged is presented to the presentation device, the occurrence of the situation where the article has been damaged can be suppressed. For example, if the situation in which the article has been damaged is a situation in which a suspicious person has entered the space, information about security equipment must be presented as an article to suppress the occurrence of a situation in which the suspicious person has entered the space. Can be.

また、上記の情報処理方法において、前記1以上のセンサは、前記空間内に設置されたマイクロフォン装置及び撮像装置の少なくとも一方を含み、前記第1情報は、前記マイクロフォン装置によって取得された音データ及び前記撮像装置によって取得された画像データの少なくとも一方を含み、前記状況の推定は、前記音データ及び前記画像データの少なくとも一方に基づき、前記物品の破損が発生した前記状況を推定してもよい。   In the above information processing method, the one or more sensors include at least one of a microphone device and an imaging device installed in the space, and the first information includes sound data and sound data acquired by the microphone device. The situation may be estimated based on at least one of the sound data and the image data, and the situation may be estimated based on at least one of the sound data and the image data.

この構成によれば、空間内に設置されたマイクロフォン装置によって取得された音データ及び空間内に設置された撮像装置によって取得された画像データの少なくとも一方に基づき、物品の破損が発生した状況を高い精度で推定することができる。   According to this configuration, based on at least one of the sound data obtained by the microphone device installed in the space and the image data obtained by the imaging device installed in the space, it is highly likely that the article has been damaged. It can be estimated with accuracy.

また、上記の情報処理方法において、前記第1情報の取得は、所定の時間間隔で前記第1情報を取得し、前記状況の推定は、前記物品の破損が発生した時点を基準とする所定の期間内に取得された複数の第1情報に基づき、前記物品の破損が発生した前記状況を推定してもよい。   Further, in the above information processing method, the obtaining of the first information obtains the first information at predetermined time intervals, and the estimation of the situation is performed based on a predetermined time based on a point in time when the article is damaged. The situation in which the article has been damaged may be estimated based on a plurality of pieces of first information acquired during a period.

この構成によれば、所定の時間間隔で第1情報が取得され、物品の破損が発生した時点を基準とする所定の期間内に取得された複数の第1情報に基づき、物品の破損が発生した状況が推定されるので、例えば、物品の破損が発生した時点から所定の期間だけ過去の画像データを用いて物品の破損が発生した状況をより高い精度で推定することができる。   According to this configuration, the first information is obtained at a predetermined time interval, and the damage of the article occurs based on the plurality of pieces of first information obtained within a predetermined period based on the time when the damage of the article occurs. Since the situation is estimated, for example, the situation in which the article has been damaged can be estimated with higher accuracy by using past image data for a predetermined period from the time when the article has been damaged.

本開示の他の態様に係る情報処理装置は、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得する取得部と、前記第1情報に基づき、前記空間内に存在する物品の破損を検知する検知部と、前記第1情報に基づき、前記物品の破損が発生した状況を推定する推定部と、前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力する出力部と、を備える。   An information processing apparatus according to another aspect of the present disclosure includes an acquisition unit configured to acquire first information acquired by at least one of one or more sensors installed in a space, and the space based on the first information. A detecting unit for detecting the damage of the article present in the vehicle, an estimating unit for estimating a situation in which the article is damaged based on the first information, and a self-propelled vehicle in the space according to the estimated situation. An output unit that outputs second information for causing the expression device to execute a predetermined operation.

この構成によれば、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報に基づき、物品の破損が発生した状況が推定され、推定された状況に応じて、空間内において自走式装置に所定の動作を実行させるための第2情報が出力される。したがって、空間内に存在する物品が破損した際に、物品の破損が発生した状況に応じて、自走式装置に所定の動作を実行させることができる。   According to this configuration, based on the first information acquired by at least one of the one or more sensors installed in the space, the situation where the article has been damaged is estimated, and the space is determined according to the estimated situation. Inside, the second information for causing the self-propelled device to execute a predetermined operation is output. Therefore, when an article present in the space is damaged, the self-propelled device can cause the self-propelled device to execute a predetermined operation according to the situation in which the article is damaged.

本開示の他の態様に係る情報処理プログラムは、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得し、前記第1情報に基づき、前記空間内に存在する物品の破損を検知し、前記第1情報に基づき、前記物品の破損が発生した状況を推定し、前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力するようにコンピュータを機能させる。   An information processing program according to another aspect of the present disclosure acquires first information acquired by at least one of one or more sensors installed in a space, and stores the first information in the space based on the first information. Detecting the damage of the article to be performed, estimating the situation where the article has been damaged based on the first information, and causing the self-propelled device to execute a predetermined operation in the space according to the estimated situation. Computer to output the second information for the computer.

この構成によれば、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報に基づき、物品の破損が発生した状況が推定され、推定された状況に応じて、空間内において自走式装置に所定の動作を実行させるための第2情報が出力される。したがって、空間内に存在する物品が破損した際に、物品の破損が発生した状況に応じて、自走式装置に所定の動作を実行させることができる。   According to this configuration, based on the first information acquired by at least one of the one or more sensors installed in the space, the situation where the article has been damaged is estimated, and the space is determined according to the estimated situation. Inside, the second information for causing the self-propelled device to execute a predetermined operation is output. Therefore, when an article present in the space is damaged, the self-propelled device can cause the self-propelled device to execute a predetermined operation according to the situation in which the article is damaged.

以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。   Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings. The following embodiment is an example of the present disclosure, and does not limit the technical scope of the present disclosure.

(実施の形態1)
図1は、本開示の実施の形態1における機器制御システムの構成を示す図である。図1に示すように、機器制御システムは、サーバ装置3、ゲートウェイ(GW)5、第1センサ11、第2センサ12、自走式掃除機21及び表示装置22を備える。
(Embodiment 1)
FIG. 1 is a diagram illustrating a configuration of a device control system according to Embodiment 1 of the present disclosure. As shown in FIG. 1, the device control system includes a server device 3, a gateway (GW) 5, a first sensor 11, a second sensor 12, a self-propelled cleaner 21, and a display device 22.

ゲートウェイ5、第1センサ11、第2センサ12、自走式掃除機21及び表示装置22は、住宅10内に配置される。ゲートウェイ5は、第1センサ11、第2センサ12、自走式掃除機21及び表示装置22と無線で通信可能に接続される。また、ゲートウェイ5は、ネットワーク4を介してサーバ装置3と互いに通信可能に接続される。ネットワーク4は、例えばインターネットである。   The gateway 5, the first sensor 11, the second sensor 12, the self-propelled cleaner 21 and the display device 22 are arranged in the house 10. The gateway 5 is connected to the first sensor 11, the second sensor 12, the self-propelled cleaner 21 and the display device 22 so as to be able to communicate wirelessly. The gateway 5 is communicably connected to the server device 3 via the network 4. The network 4 is, for example, the Internet.

第1センサ11、第2センサ12、自走式掃除機21及び表示装置22は、ゲートウェイ5を介してサーバ装置3と互いに通信可能に接続される。なお、第1センサ11、第2センサ12、自走式掃除機21及び表示装置22は、ゲートウェイ5を介さずに、サーバ装置3と直接通信可能に接続されてもよい。   The first sensor 11, the second sensor 12, the self-propelled cleaner 21 and the display device 22 are communicably connected to the server device 3 via the gateway 5. The first sensor 11, the second sensor 12, the self-propelled cleaner 21 and the display device 22 may be connected to the server device 3 so as to be able to directly communicate with each other without passing through the gateway 5.

図2は、本開示の実施の形態1におけるサーバ装置の構成を示す図である。サーバ装置3は、住宅10内に配置された複数のセンサを含むセンサ群1と、住宅10内に配置された複数の機器を含む機器群2と通信可能に接続されている。センサ群1は、第1センサ11及び第2センサ12等の種々のセンサを含む。機器群2は、自走式掃除機21、表示装置22及び情報機器23等の種々の機器を含む。なお、図2において、ゲートウェイ5は省略されている。   FIG. 2 is a diagram illustrating a configuration of the server device according to Embodiment 1 of the present disclosure. The server device 3 is communicably connected to a sensor group 1 including a plurality of sensors arranged in the house 10 and a device group 2 including a plurality of devices arranged in the house 10. The sensor group 1 includes various sensors such as a first sensor 11 and a second sensor 12. The device group 2 includes various devices such as a self-propelled cleaner 21, a display device 22, and an information device 23. In FIG. 2, the gateway 5 is omitted.

第1センサ11は、例えば、マイクロフォン装置であり、住宅10内の音を収集し、音データをサーバ装置3へ送信する。第2センサ12は、例えば、撮像装置であり、住宅10内を撮像し、画像データをサーバ装置3へ送信する。なお、センサ群1は、熱画像センサ及び振動センサを含んでもよい。センサ群1を構成するセンサは、住宅10の壁、床及び家具に設置されてもよく、機器群2のいずれかの機器に搭載されていてもよい。   The first sensor 11 is, for example, a microphone device, collects sounds in the house 10, and transmits sound data to the server device 3. The second sensor 12 is, for example, an imaging device, which images the inside of the house 10 and transmits image data to the server device 3. Note that the sensor group 1 may include a thermal image sensor and a vibration sensor. The sensors constituting the sensor group 1 may be installed on walls, floors, and furniture of the house 10 or may be mounted on any of the devices in the device group 2.

自走式掃除機21は、自走式装置の一例であり、自律的に移動しながら吸引清掃を行う。自走式掃除機21は、住宅10内の床面上を自律的に移動しながら床面を掃除する。通常、自走式掃除機21は、住宅10内の所定の場所に設置された充電装置(図示せず)に接続されており、自走式掃除機21の本体に設けられた清掃開始ボタンがユーザにより押下された場合、又はサーバ装置3から清掃指示情報を受信した場合、充電装置から離れ、清掃を開始する。自走式掃除機21は、不図示の制御部、カメラ、スピーカ、駆動部、清掃部及び通信部を備える。   The self-propelled cleaner 21 is an example of a self-propelled device, and performs suction cleaning while moving autonomously. The self-propelled cleaner 21 cleans the floor surface while autonomously moving on the floor surface in the house 10. Usually, the self-propelled cleaner 21 is connected to a charging device (not shown) installed at a predetermined place in the house 10, and a cleaning start button provided on the main body of the self-propelled cleaner 21 is provided. When pressed by the user or when cleaning instruction information is received from the server device 3, the user leaves the charging device and starts cleaning. The self-propelled cleaner 21 includes a control unit (not shown), a camera, a speaker, a driving unit, a cleaning unit, and a communication unit.

制御部は、自走式掃除機21による清掃動作を制御する。駆動部は、自走式掃除機21を移動させる。駆動部は、自走式掃除機21を移動させるための駆動輪及び駆動輪を駆動するモータを含む。駆動輪は自走式掃除機21の底部に設置されている。清掃部は、自走式掃除機21の底部に設置され、吸引対象物を吸引する。   The control unit controls a cleaning operation by the self-propelled cleaner 21. The drive unit moves the self-propelled cleaner 21. The driving unit includes a driving wheel for moving the self-propelled cleaner 21 and a motor for driving the driving wheel. The drive wheels are installed at the bottom of the self-propelled cleaner 21. The cleaning unit is installed at the bottom of the self-propelled cleaner 21 and sucks the suction target.

カメラは、自走式掃除機21の進行方向を撮像する。通信部は、カメラによって撮像された画像データをサーバ装置3へ送信する。また、通信部は、清掃を開始するための清掃指示情報をサーバ装置3から受信する。制御部は、通信部によって清掃指示情報が受信された場合、清掃を開始する。なお、清掃指示情報は、住宅10内において物品6が破損した破損位置を含む。破損位置は、例えばマグカップ及び皿などの物品6が破損した位置である。自走式掃除機21は、破損位置まで移動した後、破損位置に存在する吸引対象物を撮像し、撮像した画像データをサーバ装置3へ送信する。そして、自走式掃除機21は、破損位置を清掃し、充電装置へ戻る。   The camera captures an image of the traveling direction of the self-propelled cleaner 21. The communication unit transmits image data captured by the camera to the server device 3. In addition, the communication unit receives cleaning instruction information for starting cleaning from the server device 3. The control unit starts cleaning when the cleaning instruction information is received by the communication unit. Note that the cleaning instruction information includes a damaged position where the article 6 is damaged in the house 10. The broken position is a position where the article 6 such as a mug and a plate is broken. After moving to the damaged position, the self-propelled cleaner 21 captures an image of the suction target present at the damaged position, and transmits the captured image data to the server device 3. Then, the self-propelled cleaner 21 cleans the damaged position and returns to the charging device.

スピーカは、物品の破損が発生した状況に応じて、所定の音声を出力する。例えば、物品の破損が発生した状況が、複数の人物が喧嘩している状況であった場合、スピーカは、喧嘩している複数の人物をなだめるような音声を出力する。   The loudspeaker outputs a predetermined sound according to the situation in which the article is damaged. For example, if the situation in which the article is damaged is a situation in which a plurality of persons are fighting, the speaker outputs a sound soothing the plurality of fighting persons.

なお、本実施の形態1では、機器制御システムは、自走式掃除機21を自走式装置の一例として備えているが、本開示は特にこれに限定されず、ペット型ロボット等の自走式ロボットを自走式装置の一例として備えてもよい。自走式ロボットは、自走式掃除機21の清掃機能以外の機能を有している。   In the first embodiment, the device control system includes the self-propelled cleaner 21 as an example of a self-propelled device. However, the present disclosure is not particularly limited thereto, and the self-propelled cleaner such as a pet-type robot may be used. A mobile robot may be provided as an example of a self-propelled device. The self-propelled robot has functions other than the cleaning function of the self-propelled cleaner 21.

表示装置22は、住宅10内の所定の部屋の壁に配置される。また、本実施の形態1における機器制御システムは、複数の表示装置22を備えてもよい。複数の表示装置22は、例えば、リビング、キッチン、寝室、風呂、トイレ及び玄関等の各部屋の壁に配置されてもよい。また、表示装置22は、スマートフォン又はタブレット型コンピュータ等の情報端末であってもよい。表示装置22は、不図示の通信部、表示部及び入力部を備える。   The display device 22 is arranged on a wall of a predetermined room in the house 10. Further, the device control system according to the first embodiment may include a plurality of display devices 22. The plurality of display devices 22 may be arranged on a wall of each room such as a living room, kitchen, bedroom, bath, toilet, and entrance. The display device 22 may be an information terminal such as a smartphone or a tablet computer. The display device 22 includes a communication unit, a display unit, and an input unit (not shown).

通信部は、住宅10内に配置された機器から、機器の状態を示す情報を受信する。また、通信部は、サーバ装置3から提示情報を受信する。   The communication unit receives information indicating a state of a device from a device arranged in the house 10. Further, the communication unit receives the presentation information from the server device 3.

表示部は、例えば、液晶表示装置であり、種々の情報を表示する。表示部は、住宅10内に配置された機器に関する情報を表示する。表示部は、例えば、洗濯機の現在の状態を表示したり、空調機器の現在の状態を表示したりする。また、表示部は、通信部によって受信された提示情報を表示する。   The display unit is, for example, a liquid crystal display device and displays various information. The display unit displays information related to devices arranged in the house 10. The display unit displays, for example, the current state of the washing machine, and displays the current state of the air conditioner. The display unit displays the presentation information received by the communication unit.

入力部は、例えば、タッチパネルであり、ユーザによる入力操作を受け付ける。入力部は、住宅10内に配置された機器に対する操作指示の入力を受け付ける。入力部は、例えば、空調機器に対する操作指示の入力を受け付けたり、照明機器に対する操作指示の入力を受け付けたりする。通信部は、入力部によって入力された操作指示を機器へ送信する。   The input unit is, for example, a touch panel, and receives an input operation by a user. The input unit receives an input of an operation instruction for a device arranged in the house 10. The input unit receives, for example, an input of an operation instruction to an air conditioner or an input of an operation instruction to a lighting device. The communication unit transmits the operation instruction input by the input unit to the device.

情報機器23は、例えば、スマートフォン、タブレット型コンピュータ、パーソナルコンピュータ又は携帯電話機であり、外部と通信する機能を有している。情報機器23は、不図示の通信部を備える。通信部は、住宅10内に侵入した不審者を撮像した画像データと、不審者が存在することを通知するための通知情報とをサーバ装置3から受信し、受信した画像データ及び通知情報を警察が管理するサーバ装置へ送信する。サーバ装置3は、住宅10内の情報機器23を介して画像データ及び通知情報を警察が管理するサーバ装置へ送信することにより、警察は、画像データ及び通知情報の送信元を特定することができる。   The information device 23 is, for example, a smartphone, a tablet computer, a personal computer, or a mobile phone, and has a function of communicating with the outside. The information device 23 includes a communication unit (not shown). The communication unit receives image data of the suspicious person who has entered the house 10 and notification information for notifying that the suspicious person is present from the server device 3, and transmits the received image data and notification information to the police. To the server managed by the server. The server device 3 transmits the image data and the notification information to the server device managed by the police via the information device 23 in the house 10, so that the police can specify the transmission source of the image data and the notification information. .

なお、本実施の形態1において、サーバ装置3は、情報機器23を介して画像データ及び通知情報を警察が管理するサーバ装置へ送信しているが、本開示は特にこれに限定されず、サーバ装置3は、情報機器23を介さずに、画像データ及び通知情報を警察が管理するサーバ装置へ直接送信してもよい。   In the first embodiment, the server device 3 transmits the image data and the notification information to the server device managed by the police via the information device 23. However, the present disclosure is not particularly limited thereto, and the server device 3 transmits the notification data to the server device. The device 3 may directly transmit the image data and the notification information to the server device managed by the police, without passing through the information device 23.

機器群2は、自走式掃除機21、表示装置22及び情報機器23以外に、洗濯機、照明機器、空調機器、電動シャッター、電気錠及び空気清浄機等を含む。機器群2を構成する機器は、例えば、家電機器、情報機器及び住宅設備機器を含む。   The device group 2 includes a washing machine, a lighting device, an air conditioner, an electric shutter, an electric lock, an air cleaner, and the like, in addition to the self-propelled cleaner 21, the display device 22, and the information device 23. The devices that make up the device group 2 include, for example, home appliances, information devices, and home equipment.

サーバ装置3は、通信部31、プロセッサ32及びメモリ33を備える。   The server device 3 includes a communication unit 31, a processor 32, and a memory 33.

通信部31は、センサデータ受信部311、制御情報送信部312、提示情報送信部313及び通知情報送信部314を備える。プロセッサ32は、破損検知部321、状況推定部322、破損位置特定部323、機器動作決定部324、破損物品特定部325、代替物品特定部326、提示情報生成部327、サービス特定部328及び通知情報生成部329を備える。メモリ33は、機器動作情報記憶部331、物品情報記憶部332及びサービス情報記憶部333を備える。   The communication unit 31 includes a sensor data receiving unit 311, a control information transmitting unit 312, a presentation information transmitting unit 313, and a notification information transmitting unit 314. The processor 32 includes a damage detection unit 321, a situation estimation unit 322, a damage position identification unit 323, a device operation determination unit 324, a damaged item identification unit 325, an alternative item identification unit 326, a presentation information generation unit 327, a service identification unit 328, and a notification. An information generation unit 329 is provided. The memory 33 includes a device operation information storage unit 331, an article information storage unit 332, and a service information storage unit 333.

センサデータ受信部311は、住宅10(空間)内に設置された1以上のセンサの少なくとも1つにおいて取得されたセンサデータ(第1情報)を取得する。センサデータ受信部311は、センサ群1の各センサからセンサデータを受信する。センサデータ(第1情報)は、第1センサ11(マイクロフォン装置)によって取得された音データ及び第2センサ12(撮像装置)によって取得された画像データを含む。センサデータ受信部311は、第1センサ11から音データをセンサデータとして受信し、第2センサ12から画像データをセンサデータとして受信する。   The sensor data receiving unit 311 acquires sensor data (first information) acquired by at least one of one or more sensors installed in the house 10 (space). The sensor data receiving unit 311 receives sensor data from each sensor of the sensor group 1. The sensor data (first information) includes sound data acquired by the first sensor 11 (microphone device) and image data acquired by the second sensor 12 (imaging device). The sensor data receiving unit 311 receives sound data from the first sensor 11 as sensor data, and receives image data from the second sensor 12 as sensor data.

また、センサデータ受信部311は、機器群2の各機器からセンサデータを受信する。機器群2の中には、センサを備えた機器もある。センサを備えた機器は、センサデータをサーバ装置3へ送信する。上記のように、自走式掃除機21はカメラを備えている。そのため、センサデータ受信部311は、自走式掃除機21から画像データをセンサデータとして受信する。また、表示装置22がマイクロフォン及びカメラを備えてもよく、センサデータ受信部311は、表示装置22から音データ及び画像データをセンサデータとして受信してもよい。   Further, the sensor data receiving unit 311 receives sensor data from each device of the device group 2. In the device group 2, there is also a device provided with a sensor. The device provided with the sensor transmits the sensor data to the server device 3. As described above, the self-propelled cleaner 21 includes the camera. Therefore, the sensor data receiving unit 311 receives image data from the self-propelled cleaner 21 as sensor data. Further, the display device 22 may include a microphone and a camera, and the sensor data receiving unit 311 may receive sound data and image data from the display device 22 as sensor data.

破損検知部321は、センサデータ受信部311によって受信されたセンサデータ(第1情報)に基づき、住宅10内に存在する物品の破損を検知する。破損検知部321は、第1センサ11から受信した音データに物品が破損した際に発生する音の特徴が含まれている場合、物品が破損したことを検知する。メモリ33は、例えば、陶器又はガラスが割れる音などの複数の破損音の周波数成分を予め記憶してもよい。破損検知部321は、第1センサ11から受信した音データの周波数成分と、メモリ33に記憶されている複数の破損音の周波数成分とを比較し、2つの周波数成分が一致した場合、物品が破損したことを検知する。   The damage detection unit 321 detects damage to an article present in the house 10 based on the sensor data (first information) received by the sensor data reception unit 311. When the sound data received from the first sensor 11 includes a feature of a sound generated when the article is damaged, the damage detection unit 321 detects that the article is damaged. The memory 33 may store in advance, for example, frequency components of a plurality of breakage sounds such as a sound of breaking ceramics or glass. The breakage detecting unit 321 compares the frequency component of the sound data received from the first sensor 11 with the frequency components of the plurality of breakage sounds stored in the memory 33. If the two frequency components match, the article is detected. Detects damage.

なお、破損検知部321は、物品の破損が発生した時点の音データと、物品の破損が発生したこととを教師データとして機械学習された予測モデルを用いて、第1センサ11から受信した音データから、物品の破損が発生したことを推定してもよい。この場合、予測モデルは、予めメモリ33に記憶されている。   Note that the damage detection unit 321 uses the sound data at the time of the occurrence of the article damage and the occurrence of the article damage as teacher data using a prediction model that is machine-learned as the teacher data, and receives the sound received from the first sensor 11. From the data, it may be estimated that the article has been damaged. In this case, the prediction model is stored in the memory 33 in advance.

また、破損検知部321は、第2センサ12によって撮像された画像データから、物品が破損したことを検知してもよい。例えば、センサデータ受信部311は、第2センサ12から時間的に連続した画像データを取得してもよい。破損検知部321は、取得した画像データを解析し、当該画像データに、住宅10内の人物の手から物品が落下し、床面で物品が割れた様子が含まれている場合、物品が破損したことを検知してもよい。   Further, the damage detection unit 321 may detect that the article has been damaged from the image data captured by the second sensor 12. For example, the sensor data receiving unit 311 may acquire temporally continuous image data from the second sensor 12. The damage detection unit 321 analyzes the acquired image data, and if the image data includes a state in which the article falls from a person's hand in the house 10 and the article is broken on the floor, the article is damaged. May be detected.

また、破損検知部321は、振動センサなどの他のセンサからのセンサデータを用いて物品が破損したことを検知してもよい。また、破損検知部321は、センサ群1の複数のセンサからのセンサデータを用いて、物品が破損したことを検知してもよい。   Further, the damage detection unit 321 may detect that the article has been damaged using sensor data from another sensor such as a vibration sensor. Further, the damage detection unit 321 may detect that the article has been damaged using sensor data from a plurality of sensors in the sensor group 1.

状況推定部322は、センサデータ(第1情報)に基づき、物品の破損が発生した状況を推定する。状況推定部322は、音データ及び画像データの少なくとも一方に基づき、物品の破損が発生した状況を推定する。すなわち、センサデータ受信部311は、所定の時間間隔で画像データを取得する。状況推定部322は、物品の破損が発生した時点を基準とする所定の期間内に取得された複数の画像データに基づき、物品の破損が発生した状況を推定する。破損検知部321は、音データから物品が破損した音の特徴成分を認識することにより、物品の破損が発生した時点を特定することができる。状況推定部322は、特定された物品の破損が発生した時点から過去の所定の期間内に取得された複数の画像データに基づき、物品の破損が発生した状況を推定する。   The situation estimating unit 322 estimates the situation in which the article has been damaged based on the sensor data (first information). The situation estimation unit 322 estimates the situation in which the article has been damaged based on at least one of the sound data and the image data. That is, the sensor data receiving unit 311 acquires image data at predetermined time intervals. The situation estimation unit 322 estimates the situation in which the article has been damaged based on a plurality of image data acquired within a predetermined period based on the point in time when the article has been damaged. The damage detection unit 321 can identify the point at which the article has been damaged by recognizing the characteristic component of the sound of the damaged article from the sound data. The situation estimating unit 322 estimates the situation in which the article has been damaged based on a plurality of pieces of image data obtained within a predetermined period in the past from the time when the specified article has been damaged.

例えば、人物の日常的な動作中に物品が人物の手から滑り落ちた場合、物品は破損する。また、例えば、複数の人物が喧嘩している場合、複数の人物のうちの1の人物が物品を投げることにより、物品は破損する。また、例えば、不審者が住宅10内に侵入した場合、不審者が物品を破壊することにより、物品は破損する。そのため、物品の破損が発生した状況としては、例えば、日常的な動作中に物品が人物の手から滑り落ちた第1状況、複数の人物が喧嘩している第2状況、及び不審者が侵入している第3状況が存在する。状況推定部322は、物品の破損が発生した状況が、日常的な動作中に物品が人物の手から滑り落ちた第1状況、複数の人物が喧嘩している第2状況、及び不審者が侵入している第3状況のいずれであるかを推定する。   For example, if an article slips off a person's hand during a person's daily activities, the article is damaged. Further, for example, when a plurality of persons are fighting, the article is damaged by one of the plurality of persons throwing the article. In addition, for example, when a suspicious person enters the house 10, the suspicious person destroys the article, and the article is damaged. Therefore, the situation in which the article has been damaged includes, for example, the first situation in which the article has slipped from the hand of a person during a daily operation, the second situation in which a plurality of persons are fighting, and the intrusion of a suspicious person. A third situation exists. The situation estimating unit 322 determines that the situation in which the article has been damaged includes the first situation in which the article slipped from the hand of the person during the daily operation, the second situation in which a plurality of persons are fighting, and the suspicious person. Estimate which of the third situations is invading.

状況推定部322は、物品の破損が発生した時点の直前の複数の画像データを解析し、複数の画像データに含まれる人物の手と物品とを認識する。そして、状況推定部322は、当該人物の手から物品が落下した場合、物品の破損が発生した状況が、日常的な動作中に物品が人物の手から滑り落ちた第1状況であると推定する。なお、状況推定部322は、物品の破損が発生した時点の直前の音データを取得し、音データに人物が驚く声が含まれている場合、物品の破損が発生した状況が、日常的な動作中に物品が人物の手から滑り落ちた第1状況であると推定してもよい。   The situation estimating unit 322 analyzes a plurality of image data immediately before the time when the article is damaged, and recognizes a person's hand and the article included in the plurality of image data. When the article drops from the person's hand, the situation estimation unit 322 estimates that the situation in which the article has been damaged is the first situation in which the article has slipped off the person's hand during daily operations. I do. The situation estimation unit 322 acquires the sound data immediately before the time when the article is damaged, and if the sound data includes a surprised voice of a person, the situation in which the article is damaged is regarded as a daily state. It may be presumed that the first situation is that the article has slipped off the hand of the person during the operation.

また、状況推定部322は、物品の破損が発生した時点の直前の複数の画像データを解析し、複数の画像データに含まれる複数の人物の手と物品とを認識する。そして、状況推定部322は、複数の人物のうちの1の人物が物品を投げた場合、物品の破損が発生した状況が、複数の人物が喧嘩している第2状況であると推定する。なお、状況推定部322は、物品の破損が発生した時点の直前の音データを取得し、音データに複数の人物が言い争う声が含まれている場合、物品の破損が発生した状況が、複数の人物が喧嘩している第2状況であると推定してもよい。   In addition, the situation estimation unit 322 analyzes a plurality of image data immediately before the time when the article is damaged, and recognizes a plurality of person's hands and the article included in the plurality of image data. Then, when one of the plurality of persons throws the article, the situation estimation unit 322 estimates that the situation in which the article has been damaged is the second situation in which the plurality of persons are fighting. Note that the situation estimation unit 322 acquires the sound data immediately before the damage of the article occurs, and if the sound data includes voices of a plurality of people arguing, the situation in which the damage of the article has occurred is more than one. It may be estimated that the second situation is that the person is fighting.

また、状況推定部322は、物品の破損が発生した時点の直前の音データを取得し、音データに含まれる複数の人物の声の音量閾値以上である場合、物品の破損が発生した状況が、複数の人物が喧嘩している第2状況であると推定してもよい。また、状況推定部322は、物品の破損が発生した時点の直前の複数の画像データを取得し、複数の画像データに含まれる複数の人物が喧嘩している動きを認識してもよい。また、状況推定部322は、振動センサによって複数の人物が喧嘩している際に発生する振動を検出してもよい。   In addition, the situation estimation unit 322 acquires the sound data immediately before the time when the article is damaged, and when the sound data is equal to or more than the volume threshold of the voices of a plurality of persons included in the sound data, the situation in which the article is damaged is determined. Alternatively, it may be estimated that this is the second situation where a plurality of persons are fighting. Further, the situation estimation unit 322 may acquire a plurality of image data immediately before the time when the article is damaged, and recognize a motion in which a plurality of persons included in the plurality of image data are fighting. Further, the situation estimation unit 322 may detect a vibration generated when a plurality of persons are fighting by the vibration sensor.

さらに、状況推定部322は、物品の破損が発生した時点の直前の複数の画像データを解析し、複数の画像データに含まれる人物を認識する。そして、状況推定部322は、予め登録されている住宅10の住人ではない人物が認識された場合、物品の破損が発生した状況が、不審者が侵入している第3状況であると推定する。なお、状況推定部322は、予め登録されている住宅10の住人ではない人物が認識され、かつ予め登録されている住宅10の住人が認識されなかった場合、物品の破損が発生した状況が、不審者が侵入している第3状況であると推定してもよい。   Further, the situation estimating unit 322 analyzes a plurality of image data immediately before the time when the article is damaged, and recognizes a person included in the plurality of image data. Then, when a person who is not a resident of the house 10 registered in advance is recognized, the situation estimation unit 322 estimates that the situation in which the article has been damaged is the third situation in which a suspicious person has entered. . In addition, the situation estimation unit 322 determines that the situation in which the damage of the article occurs when a person who is not a resident of the pre-registered house 10 is recognized and a resident of the pre-registered house 10 is not recognized. It may be estimated that this is the third situation in which a suspicious person has entered.

なお、状況推定部322は、物品の破損が発生した時点の直前の画像データと、物品の破損が発生した状況とを教師データとして機械学習された予測モデルを用いて、物品の破損が発生した時点の直前の画像データから、物品の破損が発生した状況を推定してもよい。なお、予測モデルは、予めメモリ33に記憶されている。   The situation estimating unit 322 uses the prediction model that is machine-learned using the image data immediately before the article is damaged and the situation where the article is damaged as teacher data, and the article is damaged. The situation where the article has been damaged may be estimated from the image data immediately before the time point. Note that the prediction model is stored in the memory 33 in advance.

なお、本実施の形態1における物品の破損が発生した状況は、上記の第1状況〜第3状況に限定されない。   The situation in which the article is damaged in the first embodiment is not limited to the first to third situations described above.

破損位置特定部323は、住宅10内における物品の破損位置を特定する。メモリ33は、例えば、2次元の座標空間で表される住宅10の間取り図を予め記憶してもよい。なお、自走式掃除機21は、住宅10内を移動することにより間取り図を作成し、作成した間取り図をサーバ装置3へ送信してもよい。破損位置特定部323は、物品が破損した音の発生源の間取り図上の座標を破損位置として特定する。   The damaged position specifying unit 323 specifies the damaged position of the article in the house 10. The memory 33 may store in advance, for example, a floor plan of the house 10 represented in a two-dimensional coordinate space. The self-propelled cleaner 21 may create a floor plan by moving in the house 10 and transmit the created floor plan to the server device 3. The damage position specifying unit 323 specifies the coordinates on the floor plan of the sound source where the article is damaged as the damage position.

なお、破損位置特定部323は、複数のマイクロフォンによって物品が破損した音を収集することにより、より正確に物品が破損した音の発生源を特定することができる。また、破損位置特定部323は、第2センサ12によって撮像された画像データから、物品が破損した位置を特定してもよい。   The damaged position specifying unit 323 can more accurately specify the source of the sound of the damaged article by collecting the sound of the damaged article by the plurality of microphones. Further, the damaged position specifying section 323 may specify the position where the article is damaged from the image data captured by the second sensor 12.

機器動作決定部324は、状況推定部322によって推定された状況に応じて、住宅10(空間)内において自走式掃除機21(自走式装置)に実行させる所定の動作を決定する。また、機器動作決定部324は、状況推定部322によって推定された状況に応じて、自走式掃除機21以外の他の機器に実行させる所定の動作を決定してもよい。また、機器動作決定部324は、機器群2を構成する機器だけでなく、状況推定部322によって推定された状況に応じて、センサ群1を構成するセンサに実行させる所定の動作を決定してもよい。   The appliance operation determining unit 324 determines a predetermined operation to be executed by the self-propelled cleaner 21 (self-propelled device) in the house 10 (space) according to the situation estimated by the situation estimation unit 322. Further, the device operation determining unit 324 may determine a predetermined operation to be performed by another device other than the self-propelled cleaner 21 according to the situation estimated by the situation estimation unit 322. Further, the device operation determining unit 324 determines a predetermined operation to be executed by the sensors configuring the sensor group 1 according to the status estimated by the status estimation unit 322 as well as the devices configuring the device group 2. Is also good.

機器動作情報記憶部331は、物品の破損が発生した状況と、機器に実行させる動作とを対応付けた機器動作情報を予め記憶している。   The device operation information storage unit 331 stores, in advance, device operation information that associates a situation in which an article has been damaged with an operation to be executed by the device.

図3は、本実施の形態1において機器動作情報記憶部に記憶される機器動作情報の一例を示す図である。   FIG. 3 is a diagram illustrating an example of device operation information stored in the device operation information storage unit according to the first embodiment.

図3に示すように、物品の破損が発生した状況には、機器に実行させる動作が対応付けられている。日常的な動作中に物品が人物の手から滑り落ちた第1状況には、自走式掃除機21に破損物品を吸引させる動作と、表示装置22に破損物品の代替物品を提示させる動作とが対応付けられている。また、複数の人物が喧嘩している第2状況には、自走式掃除機21に喧嘩中の複数の人物をなだめる音声を出力しながら移動させる動作と、表示装置22に仲直りに適したレストラン又は映画を提示させる動作とが対応付けられている。また、不審者が侵入している第3状況には、自走式掃除機21に不審者の足下を攪乱しながら移動させる動作と、撮像装置(第2センサ12)に不審者を撮像させる動作と、情報機器23に不審者を撮像した画像データと不審者が存在することを通知するための通知情報とを警察に送信させる動作とが対応付けられている。   As shown in FIG. 3, an operation to be executed by the device is associated with a situation in which the article is damaged. In the first situation where an article slips from a person's hand during a daily operation, an operation of causing the self-propelled cleaner 21 to suck a damaged article and an operation of causing the display device 22 to present a substitute article for the damaged article Are associated with each other. Also, in the second situation where a plurality of persons are fighting, the self-propelled cleaner 21 outputs the soothing voices of the fighting persons while outputting the soothing voice, and the display device 22 has a restaurant suitable for reconciliation. Alternatively, an operation for presenting a movie is associated with the operation. Further, in the third situation where a suspicious person has entered, an operation of moving the self-propelled cleaner 21 while disturbing the feet of the suspicious person and an operation of imaging the suspicious person with the imaging device (second sensor 12). And an operation of transmitting, to the information device 23, image data obtained by imaging the suspicious individual and notification information for notifying that the suspicious individual exists to the police.

なお、物品の破損が発生した状況に対応付けられる機器の動作については、上記に限定されない。   The operation of the device associated with the situation where the article has been damaged is not limited to the above.

機器動作決定部324は、機器動作情報記憶部331を参照し、状況推定部322によって推定された状況に対応付けられている機器に実行させる所定の動作を決定する。   The device operation determination unit 324 refers to the device operation information storage unit 331 and determines a predetermined operation to be executed by a device associated with the situation estimated by the situation estimation unit 322.

機器動作決定部324は、日常的な動作中に物品が人物の手から滑り落ちた第1状況が推定された場合、破損物品を吸引させる自走式掃除機21の動作と、破損物品の代替物品を提示させる表示装置22の動作とを決定する。また、機器動作決定部324は、複数の人物が喧嘩している第2状況が推定された場合、喧嘩中の複数の人物をなだめる音声を出力しながら移動させる自走式掃除機21の動作と、仲直りに適したレストラン又は映画を提示させる表示装置22の動作とを決定する。また、機器動作決定部324は、不審者が侵入している第3状況が推定された場合、不審者の足下を攪乱しながら移動させる自走式掃除機21の動作と、不審者を撮像させる撮像装置(第2センサ12)の動作と、不審者を撮像した画像データと不審者が存在することを通知するための通知情報とを警察に送信させる情報機器23の動作とを決定する。   When the first situation in which the article has slipped from the hand of the person during the daily operation is estimated, the device operation determining unit 324 performs the operation of the self-propelled cleaner 21 that sucks the damaged article and the replacement of the damaged article. The operation of the display device 22 for presenting the article is determined. In addition, when the second situation in which a plurality of people are fighting is estimated, the device operation determining unit 324 outputs the operation of the self-propelled vacuum cleaner 21 that moves while outputting sound soothing the plurality of fighting people. , The operation of the display device 22 for presenting a restaurant or movie suitable for reconciliation. In addition, when the third situation in which the suspicious person has entered is estimated, the device operation determination unit 324 causes the operation of the self-propelled cleaner 21 to move while disturbing the feet of the suspicious person and image the suspicious person. The operation of the imaging device (second sensor 12) and the operation of the information device 23 that causes the police to transmit image data obtained by imaging the suspicious individual and notification information for notifying that the suspicious individual is present are determined.

また、機器動作決定部324は、自走式掃除機21の動作を制御する。機器動作決定部324は、推定された状況に応じて、空間内において自走式掃除機21(自走式装置)に所定の動作を実行させるための制御情報(第2情報)を生成する。ここで、制御情報は、推定された状況に応じて、住宅10(空間)内において自走式掃除機21に破損した物品を清掃させるための清掃指示情報である。機器動作決定部324は、破損物品を吸引させる自走式掃除機21の動作を決定した場合、破損位置特定部323によって特定された破損位置に自走式掃除機21を移動させるとともに、当該破損位置において自走式掃除機21に破損物品を清掃させるための清掃指示情報を生成する。   Further, the appliance operation determination unit 324 controls the operation of the self-propelled cleaner 21. The appliance operation determining unit 324 generates control information (second information) for causing the self-propelled cleaner 21 (self-propelled device) to execute a predetermined operation in the space according to the estimated situation. Here, the control information is cleaning instruction information for causing the self-propelled cleaner 21 to clean damaged articles in the house 10 (space) according to the estimated situation. When determining the operation of the self-propelled cleaner 21 to suck the damaged article, the device operation determining unit 324 moves the self-propelled cleaner 21 to the damaged position specified by the damaged position specifying unit 323, and The cleaning instruction information for causing the self-propelled cleaner 21 to clean the damaged article at the position is generated.

制御情報送信部312は、推定された状況に応じて、住宅10(空間)内において自走式掃除機21(自走式装置)に所定の動作を実行させるための制御情報(第2情報)を出力する。制御情報送信部312は、機器動作決定部324によって生成された清掃指示情報を自走式掃除機21へ送信する。自走式掃除機21は、清掃指示情報を受信すると、破損位置に移動し、当該破損位置において破損物品である吸引対象物を撮像し、撮像した画像データをサーバ装置3へ送信し、吸引対象物を吸引する。センサデータ受信部311は、自走式掃除機21による吸引対象物に関する情報を取得する。例えば、吸引対象物に関する情報は、吸引対象物の外観に関する情報である。外観に関する情報は、自走式掃除機21が備えるカメラによって撮像された画像を含む。画像は、吸引対象物を含む。センサデータ受信部311は、自走式掃除機21によって送信された吸引対象物を撮像した画像データを受信する。   The control information transmission unit 312 is control information (second information) for causing the self-propelled cleaner 21 (self-propelled device) to execute a predetermined operation in the house 10 (space) according to the estimated situation. Is output. The control information transmitting unit 312 transmits the cleaning instruction information generated by the device operation determining unit 324 to the self-propelled cleaner 21. Upon receiving the cleaning instruction information, the self-propelled cleaner 21 moves to the damaged position, captures an image of the suction target that is a damaged article at the damaged position, transmits the captured image data to the server device 3, and Aspirate things. The sensor data receiving unit 311 acquires information on an object to be suctioned by the self-propelled cleaner 21. For example, the information on the suction target is information on the appearance of the suction target. The information on the appearance includes an image captured by a camera included in the self-propelled cleaner 21. The image includes the suction target. The sensor data receiving unit 311 receives the image data of the suction target transmitted by the self-propelled cleaner 21.

破損物品特定部325は、機器動作決定部324によって破損物品の代替物品を提示させる表示装置22の動作が特定された場合、自走式掃除機21から受信した吸引対象物を含む画像データに基づき、吸引対象物により構成される破損物品を特定する。吸引対象物は、破損物品である。破損物品特定部325は、吸引対象物の外観に基づき、破損物品を特定する。破損物品特定部325は、吸引対象物を含む画像を認識し、認識した画像から破損物品を特定する。メモリ33は、複数の物品の画像と、当該複数の物品それぞれの名称(商品名)とを対応付けたテーブルを予め記憶してもよい。破損物品特定部325は、吸引対象物を撮像した画像データと、メモリ33に記憶されている複数の物品の画像とを比較し、吸引対象物の画像と部分的に一致する物品の画像に対応付けられている物品の名称を、破損物品の名称として特定する。   When the operation of the display device 22 for presenting the substitute article for the damaged article is specified by the device operation determining section 324, the damaged article specifying section 325 is based on the image data including the suction target received from the self-propelled cleaner 21. Then, the damaged article constituted by the suction target is specified. The suction target is a damaged article. The damaged article specifying unit 325 specifies the damaged article based on the appearance of the suction target. The damaged article specifying unit 325 recognizes the image including the suction target, and specifies the damaged article from the recognized image. The memory 33 may store in advance a table in which images of a plurality of articles are associated with the names (product names) of the plurality of articles. The damaged article specifying unit 325 compares the image data obtained by imaging the suction target with the images of the plurality of articles stored in the memory 33, and corresponds to the image of the article that partially matches the image of the suction target. The name of the attached article is specified as the name of the damaged article.

物品情報記憶部332は、物品に関する物品情報を記憶する。   The article information storage unit 332 stores article information on articles.

図4は、本実施の形態1において物品情報記憶部に記憶される物品情報の一例を示す図である。   FIG. 4 is a diagram illustrating an example of article information stored in the article information storage unit according to the first embodiment.

図4に示すように、物品情報は、物品を識別するための品番、物品の商品名、物品の種類、物品のカテゴリ、物品の色、物品のサイズ、物品の重量、物品の材質、物品の価格、物品の製造メーカ及び物品の販売店舗を含む。物品情報記憶部332は、品番、物品の商品名、物品の種類、物品のカテゴリ、物品の色、物品のサイズ、物品の重量、物品の材質、物品の価格、物品の製造メーカ及び物品の販売店舗を対応付けた物品情報を記憶する。   As shown in FIG. 4, the article information includes a product number for identifying the article, a product name of the article, an article type, an article category, an article color, an article size, an article weight, an article material, and an article name. Includes prices, article manufacturers, and article sales outlets. The article information storage unit 332 stores a product number, an article name, an article type, an article category, an article color, an article size, an article weight, an article material, an article price, an article manufacturer, and an article sale. The article information associated with the store is stored.

なお、図4に示す物品情報は一例であり、物品の画像等の他の情報を含んでもよい。また、物品情報の全てが1つのテーブルで管理されてもよいし、複数のテーブルに分散して管理されてもよい。   The article information shown in FIG. 4 is an example, and may include other information such as an image of the article. Further, all of the article information may be managed in one table, or may be managed in a distributed manner in a plurality of tables.

代替物品特定部326は、破損物品に関する物品情報に基づき、破損物品に関連する代替物品を特定する。代替物品特定部326は、破損物品の物品情報を物品情報記憶部332から取得する。   The substitute article specifying unit 326 specifies a substitute article related to the damaged article based on the article information about the damaged article. The substitute article specifying unit 326 acquires the article information of the damaged article from the article information storage unit 332.

例えば、代替物品は、破損物品と同一の物品であってもよい。この場合、代替物品特定部326は、破損物品と同一の物品を代替物品として特定する。   For example, the replacement article may be the same article as the damaged article. In this case, the substitute article specifying unit 326 specifies the same article as the damaged article as a substitute article.

また、例えば、代替物品は、破損物品と同一の属性の物品であってもよい。この場合、代替物品特定部326は、破損物品と同一の属性の物品を代替物品として特定する。属性は、例えば、物品の色、サイズ、重量又は材質である。代替物品特定部326は、破損物品の色、サイズ、重量及び材質が同一の物品を代替物品として特定する。なお、代替物品特定部326は、破損物品の色、サイズ、重量及び材質のうちの少なくとも1つが同一の物品を代替物品として特定してもよい。   Further, for example, the substitute article may be an article having the same attribute as the damaged article. In this case, the substitute article specifying unit 326 specifies an article having the same attribute as the damaged article as a substitute article. The attribute is, for example, the color, size, weight, or material of the article. The substitute article specifying unit 326 specifies an article having the same color, size, weight, and material of the damaged article as a substitute article. Note that the substitute article specifying unit 326 may specify, as a substitute article, an article having at least one of the same color, size, weight, and material of the damaged article.

また、例えば、代替物品は、破損物品の属性と類似する属性の物品であってもよい。この場合、代替物品特定部326は、破損物品の属性と類似する属性の物品を代替物品として特定する。属性は、例えば、物品の色、サイズ又は重量である。代替物品特定部326は、破損物品の色、サイズ及び重量のうちの少なくとも1つに類似する物品を代替物品として特定する。例えば、青色に類似する色は、青紫色などであり、色毎に類似の色が対応付けて予め記憶される。また、破損物品のサイズに類似するサイズの物品とは、例えば、破損物品の幅、奥行及び高さの−1センチメートルから+1センチメートルの範囲内のサイズの物品である。なお、破損物品のサイズに類似するサイズの物品とは、前述したようにサイズが所定の値の範囲内の物品に限らず、例えば、破損物品の幅、奥行及び高さの−10%から+10%の範囲内のサイズの物品のように、サイズが所定の比率の範囲内の物品であってもよい。さらに、破損物品の重量に類似する重量の物品とは、例えば、破損物品の重量の−10グラムから+10グラムの範囲内の重量の物品である。なお、破損物品の重量に類似する重量の物品とは、例えば、前述したようにサイズが所定の値の範囲内の物品に限らず、破損物品の重量の−10%から+10%の範囲内の重量の物品のように、サイズが所定の比率の範囲内の物品であってもよい。   Further, for example, the substitute article may be an article having an attribute similar to the attribute of the damaged article. In this case, the substitute article specifying unit 326 specifies an article having an attribute similar to the attribute of the damaged article as a substitute article. The attribute is, for example, the color, size, or weight of the article. The substitute article specifying unit 326 specifies an article similar to at least one of the color, size, and weight of the damaged article as a substitute article. For example, a color similar to blue is bluish purple or the like, and a similar color is stored for each color in advance. In addition, the article having a size similar to the size of the damaged article is, for example, an article having a size within a range of −1 to +1 cm in width, depth, and height of the damaged article. In addition, the article of the size similar to the size of the damaged article is not limited to the article whose size is within the predetermined value range as described above. For example, the width, the depth, and the height of the damaged article are from −10% to + 10%. The size may be an article whose size is within a predetermined ratio range, such as an article whose size is within the range of%. Further, an article having a weight similar to the weight of the damaged article is, for example, an article having a weight within the range of −10 grams to +10 grams of the weight of the damaged article. Note that the article having a weight similar to the weight of the damaged article is not limited to, for example, an article whose size is within a predetermined value range as described above, but is within a range of −10% to + 10% of the weight of the damaged article. It may be an article whose size is within a predetermined ratio range, such as a heavy article.

また、例えば、代替物品は、破損物品と同一の属性であり、かつ破損物品より強度が高い材質の物品であってもよい。この場合、代替物品特定部326は、破損物品と同一の属性であり、かつ破損物品より強度が高い材質の物品を代替物品として特定する。属性は、例えば、物品の色である。破損物品の材質が陶器である場合、代替物品特定部326は、破損物品と同一の色であり、かつ破損物品より強度が高い金属の物品を代替物品として特定する。   Further, for example, the substitute article may be an article having the same attribute as the damaged article and having a higher strength than the damaged article. In this case, the substitute article specifying unit 326 specifies, as a substitute article, an article having the same attribute as the damaged article and having a higher strength than the damaged article. The attribute is, for example, the color of the article. When the material of the damaged article is pottery, the substitute article specifying unit 326 specifies a metal article having the same color as the damaged article and having higher strength than the damaged article as a substitute article.

なお、メモリ33は、ユーザに関するユーザ情報を記憶するユーザ情報記憶部を備えてもよい。ユーザ情報は、ユーザを識別するためのユーザID、ユーザの氏名、ユーザの住所、ユーザの生年月日、ユーザの血液型、ユーザの家族構成及びユーザの所有物品を含む。代替物品特定部326は、破損物品特定部325によって特定された破損物品を所有するユーザを特定し、特定したユーザのユーザ情報をユーザ情報記憶部から取得してもよい。そして、代替物品特定部326は、破損物品に関する物品情報と、破損物品の所有者に関するユーザ情報とに基づき、破損物品に関連する代替物品を特定してもよい。   Note that the memory 33 may include a user information storage unit that stores user information about the user. The user information includes a user ID for identifying the user, the user's name, the user's address, the user's date of birth, the user's blood type, the user's family structure, and the user's possession. The substitute article specifying unit 326 may specify a user who owns the damaged article specified by the damaged article specifying unit 325, and may acquire user information of the specified user from the user information storage unit. Then, the substitute article specifying unit 326 may specify a substitute article related to the damaged article based on the article information about the damaged article and the user information about the owner of the damaged article.

例えば、ユーザ情報は、所有者が所有している複数の所有物品を示す所有物品情報を含む。代替物品特定部326は、所有物品情報で示される複数の所有物品の中から、破損物品とは種類が異なる物品を特定し、販売されている複数の販売物品の中から、特定した物品と少なくとも1つの属性が同じであり、かつ破損物品と同じ種類の物品を代替物品として特定してもよい。また、ユーザ情報は、所有者の住居の位置を示す住居情報を含んでもよい。代替物品特定部326は、住居情報で示される住居の位置から所定範囲内の店舗で購入可能な代替物品を特定してもよい。   For example, the user information includes owned article information indicating a plurality of owned articles owned by the owner. The substitute article specifying unit 326 specifies an article different in type from the damaged article from among the plurality of owned articles indicated by the owned article information, and at least identifies the specified article from among the plurality of sold articles sold. An article having the same attribute and the same type as the damaged article may be specified as a substitute article. Further, the user information may include house information indicating the position of the house of the owner. The substitute item specifying unit 326 may specify a substitute item that can be purchased at a store within a predetermined range from the position of the house indicated by the house information.

提示情報生成部327は、代替物品特定部326によって特定された代替物品に関する提示情報を生成する。提示情報は、代替物品の外観を示す画像を含む。また、提示情報は、代替物品の外観を示す画像とともに、代替物品を注文するためのオブジェクト画像を含んでもよい。   The presentation information generation unit 327 generates presentation information on the substitute article specified by the substitute article specification unit 326. The presentation information includes an image indicating the appearance of the substitute article. In addition, the presentation information may include an object image for ordering a substitute article, together with an image indicating the appearance of the substitute article.

提示情報送信部313は、代替物品特定部326によって特定された代替物品に関する提示情報を出力する。すなわち、提示情報送信部313は、提示情報生成部327によって生成された提示情報を表示装置22へ送信する。表示装置22は、受信した提示情報を所定の態様で表示する。   The presentation information transmitting unit 313 outputs presentation information on the substitute article specified by the substitute article specifying unit 326. That is, the presentation information transmission unit 313 transmits the presentation information generated by the presentation information generation unit 327 to the display device 22. The display device 22 displays the received presentation information in a predetermined manner.

また、複数の人物が喧嘩している第2状況が推定された場合、機器動作決定部324が生成する制御情報は、推定された状況に応じて、住宅10(空間)内において自走式掃除機21(自走式装置)に所定の音声を出力させるための音声出力指示情報である。機器動作決定部324は、喧嘩中の複数の人物をなだめる音声を出力しながら移動させる自走式掃除機21の動作を決定した場合、破損位置特定部323によって特定された破損位置に自走式掃除機21を移動させるとともに、当該破損位置において自走式掃除機21に喧嘩中の複数の人物をなだめる音声を出力しながら移動させるための音声出力指示情報を生成する。   When the second situation in which a plurality of persons are fighting is estimated, the control information generated by the device operation determining unit 324 indicates that the self-propelled cleaning is performed in the house 10 (space) according to the estimated situation. This is audio output instruction information for causing the machine 21 (self-propelled device) to output a predetermined audio. When the device operation determining unit 324 determines the operation of the self-propelled cleaner 21 that moves while outputting a sound that soothes a plurality of fighting persons, the self-propelled cleaner is moved to the damaged position specified by the damaged position specifying unit 323. In addition to moving the vacuum cleaner 21, voice output instruction information for moving the cleaner 21 to the self-propelled cleaner 21 while outputting a soothing voice to the self-propelled cleaner 21 at the damaged position is generated.

制御情報送信部312は、機器動作決定部324によって生成された音声出力指示情報を自走式掃除機21へ送信する。自走式掃除機21は、音声出力指示情報を受信すると、充電位置から破損位置に移動し、当該破損位置において喧嘩中の複数の人物をなだめる音声を出力する。このとき、自走式掃除機21は、喧嘩中の複数の人物をなだめる音声を出力するとともに、吸引対象物(破損物品)を吸引してもよい。そして、吸引対象物の吸引が完了した後、又は音声出力を開始してから所定時間が経過した後、自走式掃除機21は、充電位置へ戻る。   The control information transmitting unit 312 transmits the audio output instruction information generated by the device operation determining unit 324 to the self-propelled cleaner 21. Upon receiving the voice output instruction information, the self-propelled cleaner 21 moves from the charging position to the damaged position, and outputs a sound soothing a plurality of fighting persons at the damaged position. At this time, the self-propelled cleaner 21 may output a sound soothing a plurality of fighting persons, and may suck the suction target (damaged article). The self-propelled cleaner 21 returns to the charging position after the suction of the suction target is completed or after a predetermined time has elapsed since the start of the sound output.

サービス特定部328は、機器動作決定部324によって仲直りに適したレストラン又は映画を提示させる表示装置22の動作が特定された場合、サービス情報記憶部333を参照し、喧嘩中の複数の人物に提示するためのレストラン又は映画を特定する。   When the operation of the display device 22 for presenting a restaurant or movie suitable for reconciliation is specified by the device operation determining unit 324, the service specifying unit 328 refers to the service information storage unit 333 and presents it to a plurality of fighting persons. Identify restaurants or movies to do.

サービス情報記憶部333は、上映中の映画に関する映画情報及びレストランに関するレストラン情報を含むサービス情報を予め記憶する。   The service information storage unit 333 stores in advance service information including movie information on a movie being shown and restaurant information on a restaurant.

図5は、本実施の形態1においてサービス情報記憶部に記憶される映画情報の一例を示す図である。   FIG. 5 is a diagram illustrating an example of movie information stored in the service information storage unit according to the first embodiment.

図5に示すように、映画情報は、映画のタイトル、映画のジャンル、上映場所、上映スケジュール及び空席情報を含む。サービス情報記憶部333は、映画のタイトル、映画のジャンル、上映場所、上映スケジュール及び空席情報を対応付けた映画情報を記憶する。   As shown in FIG. 5, the movie information includes a movie title, a movie genre, a screening place, a screening schedule, and vacant seat information. The service information storage unit 333 stores movie information in which movie titles, movie genres, screening locations, screening schedules, and vacant seat information are associated with each other.

なお、図5に示す映画情報は一例であり、映画に出演している俳優等の他の情報を含んでもよい。また、映画情報の全てが1つのテーブルで管理されてもよいし、複数のテーブルに分散して管理されてもよい。   Note that the movie information shown in FIG. 5 is an example, and may include other information such as an actor appearing in a movie. Further, all of the movie information may be managed in one table, or may be managed in a distributed manner in a plurality of tables.

サービス特定部328は、喧嘩中の複数の人物に提示するための映画を特定する。サービス特定部328は、例えば、仲直りに適したジャンルであり、鑑賞可能な映画を特定する。なお、映画が仲直りに適したジャンルであるか否かは、映画情報に予め含まれていることが好ましい。また、鑑賞可能な映画とは、上映開始時刻が現在時刻以降であり、かつ空席がある映画のことである。また、メモリ33が、喧嘩中の複数の人物のそれぞれに関するユーザ情報を予め記憶しており、ユーザ情報が、好みの映画のジャンルに関する情報を含む場合、サービス特定部328は、ユーザ情報を参照し、喧嘩中の複数の人物に共通する好みの映画のジャンルに対応する映画を特定してもよい。   The service specifying unit 328 specifies a movie to be presented to a plurality of fighting persons. The service specifying unit 328 specifies, for example, a movie that is a genre suitable for reconciliation and that can be viewed. Whether or not the movie is a genre suitable for makeover is preferably included in the movie information in advance. A movie that can be watched is a movie whose screening start time is after the current time and there are vacant seats. In addition, when the memory 33 stores in advance user information about each of a plurality of fighting persons, and the user information includes information about a favorite movie genre, the service specifying unit 328 refers to the user information. Alternatively, a movie corresponding to a favorite movie genre common to a plurality of fighting persons may be specified.

図6は、本実施の形態1においてサービス情報記憶部に記憶されるレストラン情報の一例を示す図である。   FIG. 6 is a diagram illustrating an example of restaurant information stored in the service information storage unit according to the first embodiment.

図6に示すように、レストラン情報は、レストランの店名、料理のジャンル、レストランの場所、レストランの営業時間及び空席情報を含む。サービス情報記憶部333は、レストランの店名、料理のジャンル、レストランの場所、レストランの営業時間及び空席情報を対応付けたレストラン情報を記憶する。   As shown in FIG. 6, the restaurant information includes a restaurant name, a cuisine genre, a restaurant location, a restaurant opening time, and vacant seat information. The service information storage unit 333 stores restaurant information in which restaurant names, cuisine genres, restaurant locations, restaurant hours, and vacant seat information are associated.

なお、図6に示すレストラン情報は一例であり、メニュー及びレストラン内の画像等の他の情報を含んでもよい。また、レストラン情報の全てが1つのテーブルで管理されてもよいし、複数のテーブルに分散して管理されてもよい。   Note that the restaurant information illustrated in FIG. 6 is an example, and may include other information such as a menu and an image in the restaurant. Further, all of the restaurant information may be managed in one table, or may be managed in a distributed manner in a plurality of tables.

サービス特定部328は、喧嘩中の複数の人物に提示するためのレストランを特定する。サービス特定部328は、例えば、仲直りに適したジャンルであり、食事可能なレストランを特定する。なお、レストランが仲直りに適したジャンルであるか否かは、レストラン情報に予め含まれていることが好ましい。また、食事可能なレストランとは、現在時刻が営業時間内であり、かつ空席があるレストランのことである。また、メモリ33が、喧嘩中の複数の人物のそれぞれに関するユーザ情報を予め記憶しており、ユーザ情報が、好みの料理のジャンルに関する情報を含む場合、サービス特定部328は、ユーザ情報を参照し、喧嘩中の複数の人物に共通する好みの料理のジャンルに対応するレストランを特定してもよい。   The service specifying unit 328 specifies a restaurant to be presented to a plurality of fighting persons. The service specifying unit 328 specifies, for example, a restaurant that is a genre suitable for reconciliation and that can eat. It is preferable that whether the restaurant is a genre suitable for reconciliation is included in the restaurant information in advance. In addition, a restaurant that can be eaten is a restaurant whose current time is within business hours and has vacant seats. Further, when the memory 33 previously stores user information on each of a plurality of fighting persons, and the user information includes information on a favorite genre of food, the service specifying unit 328 refers to the user information. Alternatively, a restaurant corresponding to a favorite cooking genre common to a plurality of fighting persons may be specified.

なお、本実施の形態1では、サービス特定部328は、喧嘩中の複数の人物に提示するためのレストラン及び映画のいずれかを特定してもよいし、喧嘩中の複数の人物に提示するためのレストラン及び映画の両方を特定してもよい。   In the first embodiment, the service specifying unit 328 may specify any one of a restaurant and a movie to be presented to a plurality of fighting persons, or to present it to a plurality of fighting persons. Restaurant and movie may be specified.

また、本実施の形態1では、機器動作決定部324は、複数の人物が喧嘩している第2状況が推定された場合、仲直りに適したレストラン又は映画を提示させる表示装置22の動作を決定しているが、本開示は特これに限定されず、機器動作決定部324は、複数の人物が喧嘩している第2状況が推定された場合、仲直りに適したサービスを提示させる表示装置22の動作を決定してもよい。サービス特定部328は、機器動作決定部324によって仲直りに適したサービスを提示させる表示装置22の動作が特定された場合、サービス情報記憶部333を参照し、喧嘩中の複数の人物に提示するためのサービスを特定する。   In the first embodiment, the device operation determining unit 324 determines the operation of the display device 22 that presents a restaurant or a movie suitable for reconciliation when the second situation in which a plurality of persons are fighting is estimated. However, the present disclosure is not limited to this, and the device operation determining unit 324 may display the service suitable for reconciliation when the second situation in which a plurality of persons are fighting is estimated. May be determined. The service specifying unit 328 refers to the service information storage unit 333 and presents it to a plurality of fighting persons when the operation of the display device 22 for presenting a service suitable for reconciliation is specified by the device operation determining unit 324. Identify services.

提示情報生成部327は、推定された状況を変化させるための情報を表示装置22(提示装置)に提示させるための提示情報(第3情報)を生成する。提示情報生成部327は、サービス特定部328によって特定された仲直りに適したレストラン又は映画に関する提示情報を生成する。   The presentation information generation unit 327 generates presentation information (third information) for causing the display device 22 (presentation device) to present information for changing the estimated situation. The presentation information generation unit 327 generates the presentation information on the restaurant or movie suitable for reconciliation specified by the service specification unit 328.

提示情報送信部313は、推定された状況を変化させるための情報を表示装置22(提示装置)に提示させるための提示情報を出力する。ここで、提示情報送信部313は、サービス特定部328によって特定されたレストラン又は映画に関する提示情報を表示装置22へ送信する。すなわち、提示情報送信部313は、提示情報生成部327によって生成された提示情報を表示装置22へ送信する。表示装置22は、受信した提示情報を所定の態様で表示する。   The presentation information transmission unit 313 outputs presentation information for causing the display device 22 (presentation device) to present information for changing the estimated situation to the display device 22 (presentation device). Here, the presentation information transmission unit 313 transmits the presentation information relating to the restaurant or the movie specified by the service specification unit 328 to the display device 22. That is, the presentation information transmission unit 313 transmits the presentation information generated by the presentation information generation unit 327 to the display device 22. The display device 22 displays the received presentation information in a predetermined manner.

また、不審者が侵入している第3状況が推定された場合、機器動作決定部324が生成する制御情報は、住宅10(空間)内において自走式掃除機21(自走式装置)に不審者を攪乱する動作を実行させるための攪乱動作指示情報である。機器動作決定部324は、自走式掃除機21に不審者の足下を攪乱しながら移動させる動作を決定した場合、破損位置特定部323によって特定された破損位置に自走式掃除機21を移動させるとともに、当該破損位置において自走式掃除機21に不審者の足下を攪乱しながら移動させるための攪乱動作指示情報を生成する。   When the third situation in which a suspicious person has entered is estimated, the control information generated by the appliance operation determination unit 324 is transmitted to the self-propelled cleaner 21 (self-propelled device) in the house 10 (space). This is disturbing operation instruction information for executing an operation for disturbing a suspicious individual. If the device operation determining unit 324 determines that the self-propelled cleaner 21 moves the suspicious person while disturbing the feet, the device operation determining unit 324 moves the self-propelled cleaner 21 to the damaged position specified by the damaged position specifying unit 323. At the same time, disturbing operation instruction information for disturbing and moving the suspicious person's feet to the self-propelled cleaner 21 at the damaged position is generated.

制御情報送信部312は、機器動作決定部324によって生成された攪乱動作指示情報を自走式掃除機21へ送信する。自走式掃除機21は、攪乱動作指示情報を受信すると、充電位置から破損位置に移動し、当該破損位置において不審者の足下を攪乱しながら移動する。このとき、自走式掃除機21は、不審者との距離を距離センサで測定し、不審者と所定の距離を維持しながら、移動する。そして、不審者が住宅10(空間)内からいなくなった後、自走式掃除機21は、吸引対象物(破損物品)を吸引し、充電位置へ戻る。また、自走式掃除機21は、警察が到着するまで不審者を住宅10内に閉じこめておくため、住宅10の出入り口をふさぐように移動してもよい。   The control information transmitting unit 312 transmits the disturbance operation instruction information generated by the device operation determining unit 324 to the self-propelled cleaner 21. Upon receiving the disturbance operation instruction information, the self-propelled cleaner 21 moves from the charging position to the damaged position, and moves while disturbing the suspicious person's feet at the damaged position. At this time, the self-propelled cleaner 21 measures the distance to the suspicious person with a distance sensor, and moves while maintaining a predetermined distance from the suspicious person. Then, after the suspicious person has left the house 10 (space), the self-propelled cleaner 21 sucks the suction target (damaged article) and returns to the charging position. In addition, the self-propelled cleaner 21 may move so as to block the entrance of the house 10 in order to keep the suspicious person in the house 10 until the police arrive.

また、センサデータ受信部311は、撮像装置(第2センサ12)に不審者を撮像させる動作が特定された場合、住宅10(空間)内に配置された第2センサ12から不審者を撮像した画像データを取得する。センサデータ受信部311は、画像データを通知情報生成部329へ出力する。   In addition, when the operation of causing the imaging device (the second sensor 12) to image the suspicious person is specified, the sensor data receiving unit 311 images the suspicious person from the second sensor 12 disposed in the house 10 (space). Get image data. The sensor data receiving unit 311 outputs the image data to the notification information generating unit 329.

通知情報生成部329は、不審者が存在することを通知するための通知情報を生成する。通知情報は、例えば、不審者が存在することを示す情報と、住宅10の住所とを含む。通知情報生成部329は、センサデータ受信部311によって取得された画像データと、通知情報とを通知情報送信部314へ出力する。   The notification information generation unit 329 generates notification information for notifying that a suspicious individual exists. The notification information includes, for example, information indicating that a suspicious individual exists and the address of the house 10. The notification information generation unit 329 outputs the image data acquired by the sensor data reception unit 311 and the notification information to the notification information transmission unit 314.

通知情報送信部314は、不審者を撮像した画像データと不審者が存在することを通知するための通知情報とを警察に送信させる情報機器23の動作が決定された場合、センサデータ受信部311によって取得された画像データと、不審者が存在することを通知するための通知情報とを情報機器23へ送信する。情報機器23は、画像データ及び通知情報をサーバ装置3から受信し、受信した画像データ及び通知情報を警察が管理するサーバ装置へ送信する。   When the operation of the information device 23 for transmitting the image data of the suspicious person and the notification information for notifying that the suspicious person is present to the police is determined, the notification information transmitting unit 314 sends the sensor data receiving unit 311 Is transmitted to the information device 23, and the image data acquired as described above and notification information for notifying that a suspicious individual exists. The information device 23 receives the image data and the notification information from the server device 3 and transmits the received image data and the notification information to the server device managed by the police.

なお、自走式掃除機21は、自身が破損したことを検知した場合、自走式掃除機21が破損したことを示す破損情報をサーバ装置3へ送信してもよい。センサデータ受信部311は、自走式掃除機21によって送信された破損情報を受信してもよい。通知情報生成部329は、破損情報が受信された場合、製造メーカに自走式掃除機21の修理を依頼するための通知情報(第4情報)を生成してもよい。通知情報送信部314は、製造メーカに自走式掃除機21の修理を依頼するための通知情報を情報機器23へ送信してもよい。情報機器23は、製造メーカに自走式掃除機21の修理を依頼するための通知情報をサーバ装置3から受信し、受信した通知情報を製造メーカが管理するサーバ装置へ送信してもよい。   When the self-propelled cleaner 21 detects that the self-propelled cleaner 21 has been damaged, the self-propelled cleaner 21 may transmit damage information indicating that the self-propelled cleaner 21 has been damaged to the server device 3. The sensor data receiving unit 311 may receive the damage information transmitted by the self-propelled cleaner 21. The notification information generator 329 may generate notification information (fourth information) for requesting the manufacturer to repair the self-propelled cleaner 21 when the damage information is received. The notification information transmitting unit 314 may transmit notification information for requesting the manufacturer to repair the self-propelled cleaner 21 to the information device 23. The information device 23 may receive notification information for requesting the manufacturer to repair the self-propelled cleaner 21 from the server device 3 and transmit the received notification information to a server device managed by the manufacturer.

図7は、本開示の実施の形態1におけるサーバ装置の動作を説明するための第1のフローチャートであり、図8は、本開示の実施の形態1におけるサーバ装置の動作を説明するための第2のフローチャートである。なお、図7では、音データに基づき破損を検知する例を説明しているが、破損の検知は、前述の通り画像データなどの他のセンサデータに基づき行ってもよい。   FIG. 7 is a first flowchart illustrating the operation of the server device according to Embodiment 1 of the present disclosure, and FIG. 8 is a first flowchart illustrating the operation of the server device according to Embodiment 1 of the present disclosure. 2 is a flowchart of FIG. Although FIG. 7 illustrates an example in which the damage is detected based on the sound data, the damage may be detected based on other sensor data such as image data as described above.

まず、センサデータ受信部311は、第1センサ11から音データをセンサデータとして受信する(ステップS1)。   First, the sensor data receiving unit 311 receives sound data from the first sensor 11 as sensor data (Step S1).

次に、破損検知部321は、センサデータ受信部311によって受信された音データを用いて、住宅10内の物品の破損を検知したか否かを判断する(ステップS2)。このとき、破損検知部321は、センサデータ受信部311から受信した音データの周波数成分と、予め記憶されている物品が破損した音データの周波数成分とが一致する場合、物品が破損したことを検知する。ここで、物品の破損を検知していないと判断された場合(ステップS2でNO)、ステップS1に処理が戻る。   Next, the damage detection unit 321 determines whether damage to an article in the house 10 has been detected using the sound data received by the sensor data reception unit 311 (step S2). At this time, when the frequency component of the sound data received from the sensor data receiving unit 311 matches the frequency component of the sound data in which the stored article is damaged, the damage detection unit 321 determines that the article is damaged. Detect. Here, when it is determined that the damage of the article has not been detected (NO in step S2), the process returns to step S1.

一方、物品の破損を検知したと判断された場合(ステップS2でYES)、センサデータ受信部311は、物品の破損が発生したことが検知された時点から過去の所定の期間内に取得された複数の画像データをセンサデータとして第2センサ12から受信する(ステップS3)。なお、センサデータ受信部311は、物品の破損が発生したことが検知された時点から過去の所定の期間内に取得された複数の画像データの送信を第2センサ12にリクエストし、リクエストに応じて第2センサ12によって送信された複数の画像データを受信してもよい。また、センサデータ受信部311は、定期的に画像データを第2センサ12から受信し、受信した画像データをメモリ33に記憶してもよい。そして、物品の破損が発生したことが検知された場合、状況推定部322は、物品の破損が発生したことが検知された時点から過去の所定の期間内に取得された複数の画像データをメモリ33から読み出してもよい。   On the other hand, when it is determined that the damage of the article has been detected (YES in step S2), the sensor data receiving unit 311 has been acquired within a predetermined period in the past from the time when the occurrence of the damage of the article was detected. A plurality of image data is received from the second sensor 12 as sensor data (step S3). Note that the sensor data receiving unit 311 requests the second sensor 12 to transmit a plurality of image data acquired within a predetermined period in the past from the time when the occurrence of the damage of the article is detected, and responds to the request. May receive a plurality of image data transmitted by the second sensor 12. Further, the sensor data receiving unit 311 may periodically receive image data from the second sensor 12 and store the received image data in the memory 33. When it is detected that the article has been damaged, the situation estimation unit 322 stores a plurality of image data acquired within a predetermined period in the past from the time when the occurrence of the article damage is detected. 33 may be read.

次に、状況推定部322は、物品の破損が発生したことが検知された時点から過去の所定の期間内に取得された複数の画像データに基づき、物品の破損が発生した状況を推定する(ステップS4)。本実施の形態1では、状況推定部322は、物品の破損が発生した状況が、日常的な動作中に物品が人物の手から滑り落ちた第1状況、複数の人物が喧嘩している第2状況、及び不審者が侵入している第3状況のいずれであるかを推定する。   Next, the situation estimating unit 322 estimates the situation in which the article has been damaged based on a plurality of image data acquired within a predetermined period in the past from the time when the occurrence of the article damage has been detected ( Step S4). In the first embodiment, the situation estimating unit 322 determines that the situation in which the article has been damaged is the first situation in which the article has slipped from the hand of a person during daily operation, and the situation in which a plurality of persons are fighting. It is estimated which of the two situations and the third situation where the suspicious person is invading.

次に、状況推定部322は、推定結果が、日常的な動作中に物品が人物の手から滑り落ちた第1状況であるか否かを判断する(ステップS5)。   Next, the situation estimating unit 322 determines whether or not the estimation result is the first situation in which the article has slipped from the hand of the person during daily operation (step S5).

ここで、推定結果が、物品が人物の手から滑り落ちた第1状況であると判断された場合(ステップS5でYES)、破損位置特定部323は、住宅10内における物品の破損位置を特定する(ステップS6)。   Here, when the estimation result is determined to be the first situation in which the article has slipped from the hand of the person (YES in step S5), the damaged position specifying unit 323 specifies the damaged position of the article in the house 10. (Step S6).

次に、機器動作決定部324は、機器動作情報記憶部331を参照し、状況推定部322によって推定された第1状況に対応付けられている機器の動作を決定する(ステップS7)。ここで、推定結果が、物品が人物の手から滑り落ちた第1状況である場合、機器動作決定部324は、破損物品を吸引させる自走式掃除機21の動作と、破損物品の代替物品を提示させる表示装置22の動作とを決定する。   Next, the device operation determination unit 324 refers to the device operation information storage unit 331 and determines the operation of the device associated with the first situation estimated by the situation estimation unit 322 (Step S7). Here, when the estimation result is the first situation in which the article has slipped from the hand of the person, the device operation determining unit 324 determines the operation of the self-propelled cleaner 21 for sucking the damaged article, and the replacement article for the damaged article. And the operation of the display device 22 for presenting the

次に、機器動作決定部324は、破損位置特定部323によって特定された破損位置に自走式掃除機21を移動させるとともに、当該破損位置において自走式掃除機21に破損物品を清掃させるための清掃指示情報を生成する(ステップS8)。   Next, the device operation determining unit 324 moves the self-propelled cleaner 21 to the damaged position specified by the damaged position specifying unit 323, and causes the self-propelled cleaner 21 to clean the damaged article at the damaged position. Is generated (step S8).

次に、制御情報送信部312は、機器動作決定部324によって生成された清掃指示情報を自走式掃除機21へ送信する(ステップS9)。自走式掃除機21は、サーバ装置3から清掃指示情報を受信し、清掃指示情報に含まれる破損位置に向かって移動する。自走式掃除機21は、破損位置に到着すると、カメラにより吸引対象物を撮像し、撮像した画像データをサーバ装置3へ送信する。自走式掃除機21は、吸引対象物を含む画像データをサーバ装置3へ送信すると、吸引対象物を吸引する。   Next, the control information transmitting unit 312 transmits the cleaning instruction information generated by the device operation determining unit 324 to the self-propelled cleaner 21 (Step S9). The self-propelled cleaner 21 receives the cleaning instruction information from the server device 3 and moves toward the damaged position included in the cleaning instruction information. When the self-propelled cleaner 21 arrives at the damaged position, the self-propelled cleaner 21 takes an image of the suction target with a camera, and transmits the image data of the taken image to the server device 3. When the self-propelled cleaner 21 transmits the image data including the suction target to the server device 3, the self-propelled cleaner 21 suctions the suction target.

次に、センサデータ受信部311は、自走式掃除機21から吸引対象物を含む画像データをセンサデータとして受信する(ステップS10)。   Next, the sensor data receiving unit 311 receives, as sensor data, image data including the suction target from the self-propelled cleaner 21 (step S10).

次に、破損物品特定部325は、自走式掃除機21から受信した吸引対象物を含む画像データに基づき、吸引対象物により構成される破損物品を特定する(ステップS11)。破損物品特定部325は、予め記憶されている複数の物品の画像と、画像データに含まれる吸引対象物の画像と比較し、吸引対象物により構成される破損物品を認識する。例えば、吸引対象物が陶器のマグカップの破片である場合、破損物品特定部325は、画像データに含まれる破片の画像と部分的に一致する物品の画像を認識し、認識した物品の画像に対応する物品を破損物品として特定する。   Next, based on the image data including the suction target received from the self-propelled cleaner 21, the damaged product specifying unit 325 specifies the damaged product constituted by the suction target (Step S <b> 11). The damaged article specifying unit 325 compares the image of the plurality of articles stored in advance with the image of the suction target included in the image data, and recognizes a damaged article formed by the suction target. For example, when the suction target is a piece of a ceramic mug, the damaged article specifying unit 325 recognizes an image of the article that partially matches the image of the piece included in the image data, and corresponds to the image of the recognized article. Items to be damaged are specified as damaged items.

次に、代替物品特定部326は、破損物品の物品情報を物品情報記憶部332から取得する(ステップS12)。   Next, the substitute article specifying unit 326 acquires the article information of the damaged article from the article information storage unit 332 (Step S12).

次に、代替物品特定部326は、破損物品に関する物品情報に基づき、破損物品に関連する代替物品を特定する(ステップS13)。例えば、代替物品特定部326は、破損物品と同一の物品を代替物品として特定する。   Next, the substitute article specifying unit 326 specifies a substitute article related to the damaged article based on the article information about the damaged article (Step S13). For example, the substitute article specifying unit 326 specifies the same article as the damaged article as a substitute article.

次に、提示情報生成部327は、代替物品特定部326によって特定された代替物品に関する提示情報を生成する(ステップS14)。   Next, the presentation information generation unit 327 generates presentation information on the substitute article specified by the substitute article specification unit 326 (Step S14).

次に、提示情報送信部313は、提示情報生成部327によって生成された提示情報を表示装置22へ送信する(ステップS15)。表示装置22は、サーバ装置3によって送信された提示情報を受信し、受信した提示情報を表示する。表示装置22は、自走式掃除機21により吸引対象物が吸引されている間、提示情報を表示する。なお、表示装置22は、自走式掃除機21による吸引対象物の吸引開始とともに、提示情報を表示してもよい。また、表示装置22は、自走式掃除機21による吸引対象物の吸引終了後も、提示情報を継続して表示してもよい。   Next, the presentation information transmission unit 313 transmits the presentation information generated by the presentation information generation unit 327 to the display device 22 (Step S15). The display device 22 receives the presentation information transmitted by the server device 3 and displays the received presentation information. The display device 22 displays the presentation information while the suction target is being sucked by the self-propelled cleaner 21. The display device 22 may display the presentation information together with the start of the suction of the suction target by the self-propelled cleaner 21. Further, the display device 22 may continuously display the presentation information even after the suction of the suction target by the self-propelled cleaner 21 is completed.

図9は、本実施の形態1において、日常的な動作中に物品が人物の手から滑り落ちた第1状況における機器の動作について説明するための図である。   FIG. 9 is a diagram for explaining the operation of the device in the first situation in which the article slips from the person's hand during a daily operation in the first embodiment.

日常的な動作中に物品6が人物61の手から滑り落ちた結果、物品6が破損した場合、自走式掃除機21は、破損位置に移動し、破損した物品6を吸引する。また、室内に設置された表示装置22は、破損した物品6と同一の代替物品を購入するか否かを確認するための画像222を含む提示情報221を表示する。   If the article 6 is broken as a result of slipping from the hand of the person 61 during daily operation, the self-propelled cleaner 21 moves to the damaged position and sucks the damaged article 6. Further, the display device 22 installed in the room displays the presentation information 221 including the image 222 for confirming whether or not to purchase the same substitute article as the damaged article 6.

図9に示すように、提示情報221は、例えば、「Would you buy a new mug?」という文章と、代替物品の外観を示す画像と、代替物品を注文するための注文画面に切り替えるためのボタンとを含む画像222を含む。   As shown in FIG. 9, the presentation information 221 includes, for example, a sentence “Would you buy a new mug?”, An image showing the appearance of the substitute article, and a button for switching to an order screen for ordering the substitute article. And an image 222 containing

なお、機器動作決定部324は、清掃指示情報を生成する際に、清掃を開始することをユーザに通知するための提示情報を生成してもよい。この場合、制御情報送信部312は、機器動作決定部324によって生成された清掃指示情報を自走式掃除機21へ送信するとともに、機器動作決定部324によって生成された提示情報を表示装置22へ送信してもよい。表示装置22は、清掃を開始することをユーザに通知するための提示情報を表示してもよい。この場合、提示情報は、例えば、「Are you okay?Not injured?I’m going to clean now.」という文章を含む。   When generating the cleaning instruction information, the device operation determining unit 324 may generate presentation information for notifying the user that cleaning is to be started. In this case, the control information transmitting unit 312 transmits the cleaning instruction information generated by the appliance operation determining unit 324 to the self-propelled cleaner 21 and sends the presentation information generated by the appliance operation determining unit 324 to the display device 22. May be sent. The display device 22 may display presentation information for notifying a user that cleaning is to be started. In this case, the presentation information includes, for example, a sentence "Are you okay? Not introduced? I'm going to clean now."

一方、図7のステップS5で、推定結果が、物品が人物の手から滑り落ちた第1状況ではないと判断された場合(ステップS5でNO)、状況推定部322は、推定結果が、複数の人物が喧嘩している第2状況であるか否かを判断する(ステップS16)。   On the other hand, when it is determined in step S5 of FIG. 7 that the estimation result is not the first situation in which the article has slipped from the hand of the person (NO in step S5), the situation estimation unit 322 determines that the estimation result It is determined whether or not the second situation is that the person is fighting (step S16).

ここで、推定結果が、複数の人物が喧嘩している第2状況であると判断された場合(ステップS16でYES)、破損位置特定部323は、住宅10内における物品の破損位置を特定する(ステップS17)。   Here, when it is determined that the estimation result is the second situation in which a plurality of persons are fighting (YES in step S16), the damaged position specifying unit 323 specifies the damaged position of the article in the house 10. (Step S17).

次に、機器動作決定部324は、機器動作情報記憶部331を参照し、状況推定部322によって推定された第2状況に対応付けられている機器の動作を決定する(ステップS18)。ここで、推定結果が、複数の人物が喧嘩している第2状況である場合、機器動作決定部324は、喧嘩中の複数の人物をなだめる音声を出力しながら移動させる自走式掃除機21の動作と、仲直りに適したレストラン又は映画を提示させる表示装置22の動作とを決定する。   Next, the device operation determination unit 324 refers to the device operation information storage unit 331 and determines the operation of the device associated with the second situation estimated by the situation estimation unit 322 (Step S18). Here, when the estimation result is the second situation in which a plurality of people are fighting, the device operation determining unit 324 outputs the self-propelled cleaner 21 that moves while outputting a sound soothing the plurality of fighting people. And the operation of the display device 22 for presenting a restaurant or movie suitable for reconciliation.

次に、機器動作決定部324は、破損位置特定部323によって特定された破損位置に自走式掃除機21を移動させるとともに、当該破損位置において自走式掃除機21に喧嘩中の複数の人物をなだめる音声を出力しながら移動させるための音声出力指示情報を生成する(ステップS19)。   Next, the device operation determining unit 324 moves the self-propelled cleaner 21 to the damaged position specified by the damaged position specifying unit 323, and a plurality of persons fighting with the self-propelled cleaner 21 at the damaged position. Then, voice output instruction information for moving while outputting a soothing voice is generated (step S19).

次に、制御情報送信部312は、機器動作決定部324によって生成された音声出力指示情報を自走式掃除機21へ送信する(ステップS20)。自走式掃除機21は、音声出力指示情報を受信すると、充電位置から破損位置に移動し、当該破損位置において喧嘩中の複数の人物をなだめる音声を出力する。そして、自走式掃除機21は、吸引対象物(破損物品)を吸引する。吸引対象物の吸引が完了した後、又は音声出力を開始してから所定時間が経過した後、自走式掃除機21は、充電位置へ戻る。   Next, the control information transmitting unit 312 transmits the voice output instruction information generated by the device operation determining unit 324 to the self-propelled cleaner 21 (Step S20). Upon receiving the voice output instruction information, the self-propelled cleaner 21 moves from the charging position to the damaged position, and outputs a sound soothing a plurality of fighting persons at the damaged position. Then, the self-propelled cleaner 21 sucks the suction target (damaged article). The self-propelled cleaner 21 returns to the charging position after the suction of the suction target is completed or after a predetermined time has elapsed since the start of the sound output.

次に、サービス特定部328は、サービス情報記憶部333を参照し、喧嘩中の複数の人物に提示するためのレストランを特定する(ステップS21)。サービス特定部328は、予め記憶されているユーザ情報を参照し、喧嘩中の複数の人物に共通する好みの料理のジャンルを特定し、特定したジャンルに対応するとともに食事可能なレストランを特定する。   Next, the service specifying unit 328 refers to the service information storage unit 333 and specifies a restaurant to be presented to a plurality of fighting persons (step S21). The service specifying unit 328 refers to the user information stored in advance, specifies a genre of a favorite dish common to a plurality of fighting persons, and specifies a restaurant corresponding to the specified genre and capable of eating.

なお、図8の処理では、サービス特定部328は、喧嘩中の複数の人物に提示するためのレストランを特定しているが、本開示は特にこれに限定されず、喧嘩中の複数の人物に提示するための映画を特定してもよい。   In the process of FIG. 8, the service specifying unit 328 specifies a restaurant to be presented to a plurality of fighting persons. However, the present disclosure is not particularly limited to this. A movie to be presented may be specified.

次に、提示情報生成部327は、サービス特定部328によって特定された仲直りに適したレストランに関する提示情報を生成する(ステップS22)。   Next, the presentation information generation unit 327 generates presentation information on the restaurant suitable for reconciliation specified by the service specification unit 328 (Step S22).

次に、提示情報送信部313は、提示情報生成部327によって生成された提示情報を表示装置22へ送信する(ステップS23)。表示装置22は、サーバ装置3によって送信された提示情報を受信し、受信した提示情報を表示する。表示装置22は、自走式掃除機21により音声が出力されている間、提示情報を表示する。なお、表示装置22は、自走式掃除機21による音声の出力開始とともに、提示情報を表示してもよい。また、表示装置22は、自走式掃除機21による音声の出力終了後も、提示情報を継続して表示してもよい。   Next, the presentation information transmission unit 313 transmits the presentation information generated by the presentation information generation unit 327 to the display device 22 (Step S23). The display device 22 receives the presentation information transmitted by the server device 3 and displays the received presentation information. The display device 22 displays the presentation information while the sound is being output by the self-propelled cleaner 21. The display device 22 may display the presentation information together with the start of the output of the sound by the self-propelled cleaner 21. Further, the display device 22 may continuously display the presentation information even after the output of the sound by the self-propelled cleaner 21 is completed.

図10は、本実施の形態1において、複数の人物が喧嘩している第2状況における機器の動作について説明するための図である。   FIG. 10 is a diagram for explaining the operation of the device in the second situation in which a plurality of persons are fighting in the first embodiment.

複数の人物62,63が喧嘩している際に、物品6が破損した場合、自走式掃除機21は、破損位置に移動し、喧嘩中の複数の人物62,63をなだめる音声を出力する。図10では、例えば、自走式掃除機21は、「まあまあ、落ち着いて」という音声を出力する。また、室内に設置された表示装置22は、喧嘩中の複数の人物62,63の仲直りに適したレストランを提示するための提示情報223を表示する。   When the article 6 is damaged while the plurality of persons 62 and 63 are fighting, the self-propelled cleaner 21 moves to the damaged position and outputs a sound soothing the fighting persons 62 and 63. . In FIG. 10, for example, the self-propelled cleaner 21 outputs a sound “OK, calm down”. Further, the display device 22 installed in the room displays presentation information 223 for presenting a restaurant suitable for reconciliation between the plurality of fighting persons 62 and 63.

図10に示すように、提示情報223は、例えば、「Mレストランでイタリア料理を食べませんか?」という文章と、レストランを予約するための予約ボタンとを含む。予約ボタンが押下されると、レストランを予約するための予約画面に移行する。   As illustrated in FIG. 10, the presentation information 223 includes, for example, a sentence “Do you not eat Italian food at M restaurant?” And a reservation button for reserving a restaurant. When the reservation button is pressed, the screen shifts to a reservation screen for reserving a restaurant.

一方、図8のステップS16で、推定結果が、複数の人物が喧嘩している第2状況ではないと判断された場合(ステップS16でNO)、状況推定部322は、推定結果が、不審者が侵入している第3状況であるか否かを判断する(ステップS24)。   On the other hand, when it is determined in step S16 of FIG. 8 that the estimation result is not the second situation in which a plurality of persons are fighting (NO in step S16), the situation estimation unit 322 determines that the estimation result is a suspicious individual. It is determined whether or not is the third situation in which is invading (step S24).

ここで、推定結果が、不審者が侵入している第3状況ではないと判断された場合(ステップS24でNO)、すなわち、物品が破損した状況を推定することができなかった場合、処理が終了する。なお、推定結果が、不審者が侵入している第3状況ではないと判断された場合、機器動作決定部324は、破損物品を吸引させる自走式掃除機21の動作を決定してもよい。   Here, if it is determined that the estimation result is not the third situation in which a suspicious person has entered (NO in step S24), that is, if it is not possible to estimate the situation in which the article has been damaged, the process proceeds. finish. Note that, when it is determined that the estimation result is not the third situation in which a suspicious person has entered, the device operation determining unit 324 may determine the operation of the self-propelled cleaner 21 that sucks the damaged article. .

一方、推定結果が、不審者が侵入している第3状況であると判断された場合(ステップS24でYES)、破損位置特定部323は、住宅10内における物品の破損位置を特定する(ステップS25)。   On the other hand, when it is determined that the estimation result is the third situation in which a suspicious person has entered (YES in step S24), the damaged position specifying unit 323 specifies the damaged position of the article in the house 10 (step S24). S25).

次に、機器動作決定部324は、機器動作情報記憶部331を参照し、状況推定部322によって推定された第3状況に対応付けられている機器の動作を決定する(ステップS26)。ここで、推定結果が、不審者が侵入している第3状況である場合、機器動作決定部324は、不審者の足下を攪乱しながら移動させる自走式掃除機21の動作と、不審者を撮像させる撮像装置(第2センサ12)の動作と、不審者を撮像した画像データと不審者が存在することを通知するための通知情報とを警察に送信させる情報機器23の動作とを決定する。   Next, the device operation determination unit 324 refers to the device operation information storage unit 331 and determines the operation of the device associated with the third situation estimated by the situation estimation unit 322 (Step S26). Here, if the estimation result is the third situation in which a suspicious person has entered, the device operation determination unit 324 determines whether the operation of the self-propelled cleaner 21 that moves the suspicious person while disturbing his or her feet and the suspicious person Operation of the imaging device (second sensor 12) that causes the police to transmit image data of the suspicious individual and notification information for notifying that the suspicious individual exists to the police. I do.

次に、機器動作決定部324は、破損位置特定部323によって特定された破損位置に自走式掃除機21を移動させるとともに、当該破損位置において自走式掃除機21に不審者の足下を攪乱しながら移動させるための攪乱動作指示情報を生成する(ステップS27)。   Next, the device operation determining unit 324 moves the self-propelled cleaner 21 to the damaged position specified by the damaged position specifying unit 323, and disturbs the foot of the suspicious person to the self-propelled cleaner 21 at the damaged position. The disturbance operation instruction information for moving while moving is generated (step S27).

次に、制御情報送信部312は、機器動作決定部324によって生成された攪乱動作指示情報を自走式掃除機21へ送信する(ステップS28)。自走式掃除機21は、攪乱動作指示情報を受信すると、充電位置から破損位置に移動し、当該破損位置において不審者の足下を攪乱しながら移動する。そして、不審者が住宅10(空間)内からいなくなった後、自走式掃除機21は、吸引対象物(破損物品)を吸引し、充電位置へ戻る。   Next, the control information transmitting unit 312 transmits the disturbance operation instruction information generated by the device operation determining unit 324 to the self-propelled cleaner 21 (Step S28). Upon receiving the disturbance operation instruction information, the self-propelled cleaner 21 moves from the charging position to the damaged position, and moves while disturbing the suspicious person's feet at the damaged position. Then, after the suspicious person has left the house 10 (space), the self-propelled cleaner 21 sucks the suction target (damaged article) and returns to the charging position.

次に、センサデータ受信部311は、住宅10(空間)内に配置された第2センサ12から不審者を撮像した画像データを受信する(ステップS29)。   Next, the sensor data receiving unit 311 receives image data of the suspicious individual captured from the second sensor 12 disposed in the house 10 (space) (Step S29).

次に、通知情報生成部329は、不審者が存在することを通知するための通知情報を生成する(ステップS30)。   Next, the notification information generation unit 329 generates notification information for notifying that a suspicious individual exists (step S30).

次に、通知情報送信部314は、センサデータ受信部311によって取得された画像データと、通知情報生成部329によって生成された通知情報とを情報機器23へ送信する(ステップS31)。情報機器23は、画像データ及び通知情報をサーバ装置3から受信し、受信した画像データ及び通知情報を警察が管理するサーバ装置へ送信する。   Next, the notification information transmission unit 314 transmits the image data acquired by the sensor data reception unit 311 and the notification information generated by the notification information generation unit 329 to the information device 23 (Step S31). The information device 23 receives the image data and the notification information from the server device 3 and transmits the received image data and the notification information to the server device managed by the police.

図11は、本実施の形態1において、不審者が侵入している第3状況における機器の動作について説明するための図である。   FIG. 11 is a diagram for describing the operation of the device in the third situation in which a suspicious person has entered in the first embodiment.

不審者64が侵入した際に、物品6が破損した場合、自走式掃除機21は、破損位置に移動し、不審者64の足下を攪乱しながら移動する。図11では、例えば、自走式掃除機21は、不審者64と所定の距離を維持しながら、不審者64の周囲を移動する。また、第2センサ12は、不審者64を撮像した画像データをサーバ装置3へ送信する。さらに、情報機器23は、不審者64を撮像した画像データ及び不審者64が存在することを通知するための通知情報をサーバ装置3から受信し、受信した画像データ及び通知情報を警察が管理するサーバ装置へ送信する。   If the article 6 is damaged when the suspicious person 64 enters, the self-propelled cleaner 21 moves to the damaged position and moves while disturbing the feet of the suspicious person 64. In FIG. 11, for example, the self-propelled cleaner 21 moves around the suspicious individual 64 while maintaining a predetermined distance from the suspicious individual 64. Further, the second sensor 12 transmits image data of the suspicious person 64 to the server device 3. Further, the information device 23 receives image data of the suspicious individual 64 and notification information for notifying that the suspicious individual 64 is present from the server device 3, and the received image data and notification information are managed by the police. Send to server.

また、情報機器23が画像データ及び通知情報を警察が管理するサーバ装置へ送信した後、室内に設置された表示装置22は、警察に通報したことを提示するための提示情報224を表示してもよい。図11に示すように、提示情報224は、例えば、「警察に通報しました」という文章を含む。   After the information device 23 transmits the image data and the notification information to the server device managed by the police, the display device 22 installed in the room displays the presentation information 224 for presenting the fact that the police were notified. Is also good. As shown in FIG. 11, the presentation information 224 includes, for example, a sentence “reported to the police”.

このように、空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報に基づき、物品の破損が発生した状況が推定され、推定された状況に応じて、空間内において自走式掃除機21に所定の動作を実行させるための第2情報が出力される。したがって、空間内に存在する物品が破損した際に、物品の破損が発生した状況に応じて、自走式掃除機21に所定の動作を実行させることができる。   As described above, based on the first information acquired by at least one of the one or more sensors installed in the space, the situation where the article has been damaged is estimated, and according to the estimated situation, Second information for causing the self-propelled cleaner 21 to execute a predetermined operation is output. Therefore, when an article present in the space is damaged, the self-propelled cleaner 21 can cause the self-propelled cleaner 21 to execute a predetermined operation according to the situation in which the article is damaged.

なお、提示情報生成部327は、推定された状況の発生を抑制するための物品に関する情報を表示装置22(提示装置)に提示させるための提示情報(第5情報)を生成してもよい。また、提示情報送信部313は、推定された状況の発生を抑制するための物品に関する情報を表示装置22(提示装置)に提示させるための提示情報(第5情報)を送信(出力)してもよい。例えば、不審者が侵入している第3状況が推定された場合、提示情報生成部327は、防犯用品に関する提示情報生成し、表示装置22へ送信してもよい。   Note that the presentation information generation unit 327 may generate presentation information (fifth information) for causing the display device 22 (presentation device) to present information about the article for suppressing the occurrence of the estimated situation. Further, the presentation information transmission unit 313 transmits (outputs) presentation information (fifth information) for causing the display device 22 (presentation device) to present information on the article for suppressing the occurrence of the estimated situation to the display device 22 (presentation device). Is also good. For example, when the third situation in which a suspicious person is intruding is estimated, the presentation information generation unit 327 may generate presentation information on security products and transmit it to the display device 22.

(実施の形態2)
実施の形態1における機器制御システムは、1つのサーバ装置を備えているが、実施の形態2における機器制御システムは、2つのサーバ装置を備えている。
(Embodiment 2)
The device control system according to Embodiment 1 includes one server device, but the device control system according to Embodiment 2 includes two server devices.

図12は、本開示の実施の形態2における第1サーバ装置の構成を示す図であり、図13は、本開示の実施の形態2における第2サーバ装置の構成を示す図である。   FIG. 12 is a diagram illustrating a configuration of a first server device according to Embodiment 2 of the present disclosure, and FIG. 13 is a diagram illustrating a configuration of a second server device according to Embodiment 2 of the present disclosure.

実施の形態2における機器制御システムは、第1サーバ装置3A、第2サーバ装置3B、ゲートウェイ5(不図示)、第1センサ11、第2センサ12、自走式掃除機21、表示装置22及び情報機器23を備える。なお、本実施の形態2において、実施の形態1と同じ構成については同じ符号を付し、説明を省略する。センサ群1は、第1センサ11及び第2センサ12等の種々のセンサを含む。機器群2は、自走式掃除機21、表示装置22及び情報機器23等の種々の機器を含む。なお、図12及び図13において、ゲートウェイ5は省略されている。   The device control system according to the second embodiment includes a first server device 3A, a second server device 3B, a gateway 5 (not shown), a first sensor 11, a second sensor 12, a self-propelled cleaner 21, a display device 22, and An information device 23 is provided. In the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. The sensor group 1 includes various sensors such as a first sensor 11 and a second sensor 12. The device group 2 includes various devices such as a self-propelled cleaner 21, a display device 22, and an information device 23. 12 and 13, the gateway 5 is omitted.

第1サーバ装置3Aは、センサ群1、機器群2及び第2サーバ装置3Bとネットワークを介して通信可能に接続されている。また、第2サーバ装置3Bは、機器群2及び第1サーバ装置3Aとネットワークを介して通信可能に接続されている。   The first server device 3A is communicably connected to the sensor group 1, the device group 2, and the second server device 3B via a network. The second server device 3B is communicably connected to the device group 2 and the first server device 3A via a network.

第1サーバ装置3Aは、例えば、プラットフォーマーにより運営される。第2サーバ装置3Bは、例えば、サードパーティにより運営される。   The first server device 3A is operated by, for example, a platformer. The second server device 3B is operated by, for example, a third party.

第1サーバ装置3Aは、通信部31A、プロセッサ32A及びメモリ33Aを備える。   The first server device 3A includes a communication unit 31A, a processor 32A, and a memory 33A.

通信部31Aは、センサデータ受信部311、制御情報送信部312、通知情報送信部314、破損物品情報送信部315及び機器動作情報送信部316を備える。プロセッサ32Aは、破損検知部321、状況推定部322、破損位置特定部323、機器動作決定部324、破損物品特定部325及び通知情報生成部329を備える。メモリ33Aは、機器動作情報記憶部331を備える。   The communication unit 31A includes a sensor data receiving unit 311, a control information transmitting unit 312, a notification information transmitting unit 314, a damaged article information transmitting unit 315, and a device operation information transmitting unit 316. The processor 32A includes a damage detection unit 321, a situation estimation unit 322, a damage position identification unit 323, a device operation determination unit 324, a damaged article identification unit 325, and a notification information generation unit 329. The memory 33A includes a device operation information storage unit 331.

破損物品情報送信部315は、破損物品特定部325によって特定された破損物品を示す破損物品情報を第2サーバ装置3Bへ送信する。   The damaged article information transmitting unit 315 transmits damaged article information indicating the damaged article specified by the damaged article specifying unit 325 to the second server device 3B.

機器動作情報送信部316は、機器動作決定部324によって決定された仲直りに適したレストラン又は映画を提示させる表示装置22の動作を示す機器動作情報を第2サーバ装置3Bへ送信する。   The device operation information transmission unit 316 transmits device operation information indicating the operation of the display device 22 for presenting a restaurant or movie suitable for reconciliation determined by the device operation determination unit 324 to the second server device 3B.

第2サーバ装置3Bは、通信部31B、プロセッサ32B及びメモリ33Bを備える。   The second server device 3B includes a communication unit 31B, a processor 32B, and a memory 33B.

通信部31Bは、提示情報送信部313、破損物品情報受信部317及び機器動作情報受信部318を備える。プロセッサ32Bは、代替物品特定部326及び提示情報生成部327を備える。メモリ33Bは、物品情報記憶部332を備える。   The communication unit 31B includes a presentation information transmission unit 313, a damaged article information reception unit 317, and a device operation information reception unit 318. The processor 32B includes a substitute article specifying unit 326 and a presentation information generating unit 327. The memory 33B includes an article information storage unit 332.

破損物品情報受信部317は、第1サーバ装置3Aによって送信された破損物品情報を受信する。代替物品特定部326は、破損物品情報受信部317によって受信された破損物品情報に基づき、破損物品に関連する代替物品を特定する。   The damaged article information receiving unit 317 receives the damaged article information transmitted by the first server device 3A. The substitute article specifying unit 326 specifies a substitute article related to the damaged article based on the damaged article information received by the damaged article information receiving unit 317.

機器動作情報受信部318は、第1サーバ装置3Aによって送信された機器動作情報を受信する。サービス特定部328は、仲直りに適したレストラン又は映画を提示させる表示装置22の動作を示す機器動作情報が機器動作情報受信部318によって受信された場合、サービス情報記憶部333を参照し、喧嘩中の複数の人物に提示するためのレストラン又は映画を特定する。   The device operation information receiving unit 318 receives the device operation information transmitted by the first server device 3A. When the device operation information indicating the operation of the display device 22 for presenting a restaurant or a movie suitable for reconciliation is received by the device operation information receiving unit 318, the service specifying unit 328 refers to the service information storage unit 333 and performs a fight. A restaurant or movie to present to a plurality of persons.

なお、本実施の形態2では、第1サーバ装置3Aが第2サーバ装置3Bへ破損物品情報及び機器動作情報を送信しているが、本開示は特にこれに限定されず、第2サーバ装置3Bが第1サーバ装置3Aへ破損物品情報及び機器動作情報を要求するリクエストを送信し、第1サーバ装置3Aがリクエストに応じて第2サーバ装置3Bへ破損物品情報及び機器動作情報を送信してもよい。   In the second embodiment, the first server device 3A transmits the damaged article information and the device operation information to the second server device 3B. However, the present disclosure is not particularly limited thereto, and the second server device 3B Transmits a request for damaged item information and device operation information to the first server device 3A, and the first server device 3A transmits damaged item information and device operation information to the second server device 3B in response to the request. Good.

また、本実施の形態2において、機器制御システムは、複数の第2サーバ装置3Bを備えてもよい。   In the second embodiment, the device control system may include a plurality of second server devices 3B.

なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。   In each of the above embodiments, each component may be configured by dedicated hardware, or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.

本開示の実施の形態に係る装置の機能の一部又は全ては典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。   Some or all of the functions of the device according to the embodiment of the present disclosure are typically realized as an LSI (Large Scale Integration) that is an integrated circuit. These may be individually integrated into one chip, or may be integrated into one chip so as to include some or all of them. Further, the integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

また、本開示の実施の形態に係る装置の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。   Further, some or all of the functions of the device according to the embodiment of the present disclosure may be realized by a processor such as a CPU executing a program.

また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。   In addition, the numbers used above are merely examples for specifically describing the present disclosure, and the present disclosure is not limited to the illustrated numbers.

また、上記フローチャートに示す各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、同様の効果が得られる範囲で上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。   Further, the order in which the steps shown in the above flowchart are executed is merely an example for specifically describing the present disclosure, and may be any other order as long as a similar effect is obtained. . Also, some of the above steps may be performed simultaneously (in parallel) with other steps.

本開示に係る情報処理方法、情報処理装置及び情報処理プログラムは、物品の破損が発生した状況に応じて、自走式装置に所定の動作を実行させることができるので、機器に所定の動作を実行させる情報処理方法、情報処理装置及び情報処理プログラムとして有用である。   The information processing method, the information processing device, and the information processing program according to the present disclosure can cause the self-propelled device to execute a predetermined operation according to a situation in which an article is damaged, and thus the device performs the predetermined operation. It is useful as an information processing method, an information processing apparatus, and an information processing program to be executed.

1 センサ群
2 機器群
3 サーバ装置
3A 第1サーバ装置
3B 第2サーバ装置
4 ネットワーク
5 ゲートウェイ
6 物品
10 住宅
11 第1センサ
12 第2センサ
21 自走式掃除機
22 表示装置
23 情報機器
31,31A,31B 通信部
32,32A,32B プロセッサ
33,33A,33B メモリ
311 センサデータ受信部
312 制御情報送信部
313 提示情報送信部
314 通知情報送信部
315 破損物品情報送信部
316 機器動作情報送信部
317 破損物品情報受信部
318 機器動作情報受信部
321 破損検知部
322 状況推定部
323 破損位置特定部
324 機器動作決定部
325 破損物品特定部
326 代替物品特定部
327 提示情報生成部
328 サービス特定部
329 通知情報生成部
331 機器動作情報記憶部
332 物品情報記憶部
333 サービス情報記憶部
REFERENCE SIGNS LIST 1 sensor group 2 device group 3 server device 3A first server device 3B second server device 4 network 5 gateway 6 article 10 house 11 first sensor 12 second sensor 21 self-propelled cleaner 22 display device 23 information device 31, 31A , 31B communication unit 32, 32A, 32B processor 33, 33A, 33B memory 311 sensor data receiving unit 312 control information transmitting unit 313 presentation information transmitting unit 314 notification information transmitting unit 315 damaged article information transmitting unit 316 equipment operation information transmitting unit 317 breakage Item information receiving unit 318 Device operation information receiving unit 321 Damage detecting unit 322 Situation estimating unit 323 Damage position specifying unit 324 Device operation determining unit 325 Damaged item specifying unit 326 Alternative item specifying unit 327 Presentation information generating unit 328 Service specifying unit 329 Notification information Generator 331 Device Work information storage unit 332 article information storage unit 333 service information storage unit

Claims (12)

情報処理装置における情報処理方法であって、
空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得し、
前記第1情報に基づき、前記空間内に存在する物品の破損を検知し、
前記第1情報に基づき、前記物品の破損が発生した状況を推定し、
前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力する、
情報処理方法。
An information processing method in an information processing device,
Acquiring first information acquired in at least one of the one or more sensors installed in the space,
Based on the first information, detecting breakage of an article present in the space,
Based on the first information, estimating a situation in which the article has been damaged,
Outputting second information for causing the self-propelled device to execute a predetermined operation in the space according to the estimated situation;
Information processing method.
前記第2情報は、前記推定した状況に応じて、前記空間内において前記自走式装置に所定の音声を出力させるための情報である、
請求項1記載の情報処理方法。
The second information is information for outputting a predetermined sound to the self-propelled device in the space according to the estimated situation,
The information processing method according to claim 1.
さらに、前記推定した状況を変化させるための情報を提示装置に提示させるための第3情報を出力する、
請求項1又は2記載の情報処理方法。
Further, outputting third information for causing the presentation device to present information for changing the estimated situation,
The information processing method according to claim 1.
前記自走式装置は、自走式掃除機であり、
前記第2情報は、前記推定した状況に応じて、前記空間内において前記自走式掃除機に前記破損した物品を清掃させるための情報である、
請求項1〜3のいずれか1項に記載の情報処理方法。
The self-propelled device is a self-propelled vacuum cleaner,
The second information is information for causing the self-propelled cleaner to clean the damaged article in the space according to the estimated situation,
The information processing method according to claim 1.
前記推定した状況は、不審者が前記空間内に侵入した状況であり、
前記第2情報は、前記空間内において前記自走式装置に前記不審者を攪乱する動作を実行させるための情報である、
請求項1〜4のいずれか1項に記載の情報処理方法。
The estimated situation is a situation in which a suspicious person has entered the space,
The second information is information for causing the self-propelled device to perform an operation of disturbing the suspicious individual in the space.
The information processing method according to claim 1.
さらに、前記空間内に配置された撮像装置から前記不審者を撮像した画像データを取得し、
さらに、取得した前記画像データと、前記不審者が存在することを通知するための通知情報とを送信する、
請求項5記載の情報処理方法。
Further, acquiring image data of the suspicious person imaged from an imaging device arranged in the space,
Further, transmitting the obtained image data and notification information for notifying that the suspicious individual exists,
The information processing method according to claim 5.
さらに、前記自走式装置が破損したことを示す破損情報が取得された場合、前記自走式装置の修理を依頼するための第4情報を出力する、
請求項5又は6記載の情報処理方法。
Further, when damage information indicating that the self-propelled device has been damaged is obtained, outputting fourth information for requesting repair of the self-propelled device,
The information processing method according to claim 5.
さらに、前記推定した状況の発生を抑制するための物品に関する情報を提示装置に提示させるための第5情報を出力する、
請求項1〜7のいずれか1項に記載の情報処理方法。
Further, outputting fifth information for causing the presentation device to present information on the article for suppressing the occurrence of the estimated situation,
The information processing method according to claim 1.
前記1以上のセンサは、前記空間内に設置されたマイクロフォン装置及び撮像装置の少なくとも一方を含み、
前記第1情報は、前記マイクロフォン装置によって取得された音データ及び前記撮像装置によって取得された画像データの少なくとも一方を含み、
前記状況の推定は、前記音データ及び前記画像データの少なくとも一方に基づき、前記物品の破損が発生した前記状況を推定する、
請求項1〜8のいずれか1項に記載の情報処理方法。
The one or more sensors include at least one of a microphone device and an imaging device installed in the space,
The first information includes at least one of sound data acquired by the microphone device and image data acquired by the imaging device,
The estimation of the situation is based on at least one of the sound data and the image data, and estimates the situation in which the article has been damaged.
The information processing method according to claim 1.
前記第1情報の取得は、所定の時間間隔で前記第1情報を取得し、
前記状況の推定は、前記物品の破損が発生した時点を基準とする所定の期間内に取得された複数の第1情報に基づき、前記物品の破損が発生した前記状況を推定する、
請求項1〜9のいずれか1項に記載の情報処理方法。
The obtaining of the first information includes obtaining the first information at predetermined time intervals,
The estimation of the situation is based on a plurality of pieces of first information acquired within a predetermined period based on the time when the damage of the article occurs, and estimates the situation where the damage of the article has occurred.
The information processing method according to claim 1.
空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得する取得部と、
前記第1情報に基づき、前記空間内に存在する物品の破損を検知する検知部と、
前記第1情報に基づき、前記物品の破損が発生した状況を推定する推定部と、
前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力する出力部と、
を備える情報処理装置。
An acquisition unit configured to acquire first information acquired in at least one of the one or more sensors installed in the space;
Based on the first information, a detection unit that detects damage to an article present in the space,
An estimating unit that estimates a situation in which the article has been damaged based on the first information;
An output unit that outputs second information for causing the self-propelled device to perform a predetermined operation in the space according to the estimated situation;
An information processing apparatus comprising:
空間内に設置された1以上のセンサの少なくとも1つにおいて取得された第1情報を取得し、
前記第1情報に基づき、前記空間内に存在する物品の破損を検知し、
前記第1情報に基づき、前記物品の破損が発生した状況を推定し、
前記推定した状況に応じて、前記空間内において自走式装置に所定の動作を実行させるための第2情報を出力するようにコンピュータを機能させる情報処理プログラム。
Acquiring first information acquired in at least one of the one or more sensors installed in the space,
Based on the first information, detecting breakage of an article present in the space,
Based on the first information, estimating a situation in which the article has been damaged,
An information processing program for causing a computer to function to output second information for causing a self-propelled device to execute a predetermined operation in the space according to the estimated situation.
JP2019048950A 2018-07-27 2019-03-15 Information processing method, information processing apparatus, and information processing program Active JP7332310B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/516,547 US11357376B2 (en) 2018-07-27 2019-07-19 Information processing method, information processing apparatus and computer-readable recording medium storing information processing program
CN201910679631.3A CN110772177B (en) 2018-07-27 2019-07-25 Information processing method, information processing apparatus, and recording medium
US17/742,722 US11925304B2 (en) 2018-07-27 2022-05-12 Information processing method, information processing apparatus and computer-readable recording medium storing information processing program
JP2023130668A JP2023156424A (en) 2018-07-27 2023-08-10 Information processing method, information processing apparatus, and information processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862711022P 2018-07-27 2018-07-27
US62/711,022 2018-07-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023130668A Division JP2023156424A (en) 2018-07-27 2023-08-10 Information processing method, information processing apparatus, and information processing program

Publications (2)

Publication Number Publication Date
JP2020017258A true JP2020017258A (en) 2020-01-30
JP7332310B2 JP7332310B2 (en) 2023-08-23

Family

ID=69580495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019048950A Active JP7332310B2 (en) 2018-07-27 2019-03-15 Information processing method, information processing apparatus, and information processing program

Country Status (1)

Country Link
JP (1) JP7332310B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113729546A (en) * 2020-05-29 2021-12-03 东芝生活电器株式会社 Information processing system
JP2022184470A (en) * 2021-06-01 2022-12-13 株式会社バカン Information processor, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005218559A (en) * 2004-02-04 2005-08-18 Funai Electric Co Ltd Self-propelled vacuum cleaner network system
JP2005275899A (en) * 2004-03-25 2005-10-06 Funai Electric Co Ltd Self-propelled cleaner
JP2014142742A (en) * 2013-01-23 2014-08-07 Hochiki Corp Alarm System

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102095817B1 (en) 2013-10-31 2020-04-01 엘지전자 주식회사 Mobile robot, charging apparatus for the mobile robot, and mobile robot system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005218559A (en) * 2004-02-04 2005-08-18 Funai Electric Co Ltd Self-propelled vacuum cleaner network system
JP2005275899A (en) * 2004-03-25 2005-10-06 Funai Electric Co Ltd Self-propelled cleaner
JP2014142742A (en) * 2013-01-23 2014-08-07 Hochiki Corp Alarm System

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113729546A (en) * 2020-05-29 2021-12-03 东芝生活电器株式会社 Information processing system
JP2022184470A (en) * 2021-06-01 2022-12-13 株式会社バカン Information processor, information processing method, and program
JP7240758B2 (en) 2021-06-01 2023-03-16 株式会社バカン Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP7332310B2 (en) 2023-08-23

Similar Documents

Publication Publication Date Title
CN110772177B (en) Information processing method, information processing apparatus, and recording medium
US11928726B2 (en) Information processing method, information processing apparatus and computer-readable recording medium storing information processing program
KR102152717B1 (en) Apparatus and method for recognizing behavior of human
JP2019153070A (en) Information processing apparatus and information processing program
CN107533422A (en) The method of the control group behavior of server and server
TW201507486A (en) Method for supplying information
CN114342357B (en) Event-based recording
CN107169595A (en) The method for drafting and device of room layout figure
JP7332310B2 (en) Information processing method, information processing apparatus, and information processing program
JP6452571B2 (en) Information output apparatus, information output method, and information output program
US11647166B2 (en) Display control method, information processing server, and display terminal
EP3685970B1 (en) Mobile robot and control method for mobile robot
WO2021088573A1 (en) System and method for recommending object placement
JP2019145045A (en) Customer management system, customer management method and program
WO2020171097A1 (en) Control method for notification system, and notification system
US20210114563A1 (en) Information processing method, information processing device, and non-transitory computer-readable recording medium
WO2019234997A1 (en) Food product management system
WO2021084949A1 (en) Information processing device, information processing method, and program
JP7328773B2 (en) Information processing method, information processing apparatus, and information processing program
CN106125590A (en) The based reminding method of intelligent appliance, device and intelligent appliance
JP2019217164A (en) Cleaner system and cleaner
JP7256081B2 (en) System setting method and processing device
CN106100943A (en) Pan upper cover is cleaned method, device and the intelligence pan reminded
JP2004272650A (en) Device, system and program for processing information
JP7477680B2 (en) System setting method and processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230810

R150 Certificate of patent or registration of utility model

Ref document number: 7332310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150