JP2022165192A - Area recognition system, moving object and area recognition device - Google Patents

Area recognition system, moving object and area recognition device Download PDF

Info

Publication number
JP2022165192A
JP2022165192A JP2021070441A JP2021070441A JP2022165192A JP 2022165192 A JP2022165192 A JP 2022165192A JP 2021070441 A JP2021070441 A JP 2021070441A JP 2021070441 A JP2021070441 A JP 2021070441A JP 2022165192 A JP2022165192 A JP 2022165192A
Authority
JP
Japan
Prior art keywords
unit
home appliance
area
attribute
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021070441A
Other languages
Japanese (ja)
Inventor
卓男 姚
Takuo Yo
正直 小谷
Masanao Kotani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2021070441A priority Critical patent/JP2022165192A/en
Publication of JP2022165192A publication Critical patent/JP2022165192A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an indoor floor plan recognition technology capable of coping with life scenes.SOLUTION: A floor plan recognition system 1 includes: a home appliance measurement unit 6 that acquires home appliance information such as sound, image, and temperature related to home appliances installed in a home; a home appliance estimation unit 21 for estimating home appliance attribute information of the home appliance and a position of the home appliance based on the home appliance information; a map processing unit 10 that divides an indoor map into a plurality of unit areas; a floor plan determination unit 11 that assigns a label to each divided unit area where the floor plan determination unit 11 associates each unit area with the position of the home appliance, and assigns a label corresponding to the home appliance attribute information to the unit area based on the home appliance attribute information of home appliances installed in each unit area.SELECTED DRAWING: Figure 1

Description

本発明は、領域を構成する単位領域の属性を識別し、該当の領域を認識するための技術に関する。その中でも特に、家屋(宅内)などの施設の間取りを自律に認識する技術に関するものである。 The present invention relates to a technique for identifying attributes of unit areas that make up an area and recognizing the corresponding area. In particular, it relates to a technology for autonomously recognizing the layout of a facility such as a house (inside the house).

なお、領域や単位領域の代表的な例としては建物、家屋といった施設や部屋、フロアが挙げられる。 Note that typical examples of areas and unit areas include facilities such as buildings and houses, rooms, and floors.

現在、いわゆるIoT(Internet of Things)家電(含む、家庭用移動体)の普及率の向上に伴い、宅内の間取りといった領域を構成する単位領域の認識技術が重要になっている。例えば、スマートスピーカーを介して、移動型空気清浄に寝室の空気を清浄させることや、見守りロボットを利用して、リビングの状況(高齢者の転倒や不審者の侵入など)を確認することが考えられる。このような場合においては、「寝室」、「リビング」といった間取り情報がないと、移動体を、指定の場所に移動させたり、指定の場所で動作したりすることができない。そのため、単位領域に関する情報、例えば、宅内の間取り情報を把握することが重要であると考えられる。 At present, with the increase in the penetration rate of so-called IoT (Internet of Things) home appliances (including household mobile units), recognition technology for unit areas that make up areas such as the floor plan of a house is becoming important. For example, it is possible to purify the air in the bedroom with a mobile air purifier via a smart speaker, or use a monitoring robot to check the situation in the living room (such as an elderly person falling or a suspicious person entering). be done. In such a case, without floor plan information such as "bedroom" and "living room", the moving body cannot move to a designated place or operate at a designated place. Therefore, it is considered important to grasp the information about the unit area, for example, the floor plan information of the house.

ここで、間取り情報の取得技術が、いくつか提案されている。例えば、特許文献1には、「部屋識別情報のうちの少なくとも二つに対して移動ロボットのカメラによって部屋識別情報に対する家の領域内で撮影された画像を表示するステップと、遠隔ユーザ装置を用いて、表示された複数の部屋識別マーカー中の一つの部屋識別マーカーの選択を受け入れるステップと、選択された部屋識別マーカーを部屋識別情報に割り当てるステップと、生成されたマップに基づいてユーザマップを表示するステップと、移動ロボットに行き先の部屋識別マーカーの指定に対応する位置へ計画された経路を進めせるステップを含む」と記載されている。 Here, several techniques for acquiring floor plan information have been proposed. For example, Patent Literature 1 describes "a step of displaying an image captured by a camera of a mobile robot within an area of the house for the room identifications for at least two of the room identifications; accepting a selection of a room identification marker among the displayed plurality of room identification markers; assigning the selected room identification marker to the room identification; and displaying a user map based on the generated map. and allowing the mobile robot to navigate the planned path to the location corresponding to the designation of the destination room identification marker."

特許文献2には、「間取り識別部は、間取り上の壁に相当する線分を検出する線分検出部と、間取り上の部屋に相当する部屋領域を特定するセグメンテーション処理部と、間取り図画像に含まれる文字列を認識する文字認識部」と記載されている。 In Patent Document 2, "The floor plan identification unit includes a line segment detection unit that detects line segments corresponding to walls on the floor plan, a segmentation processing unit that identifies room regions that correspond to rooms on the floor plan, and a floor plan image. A character recognition unit that recognizes a character string contained in ".

特開2016-103277号公報JP 2016-103277 A 特開2018-81548号公報Japanese Unexamined Patent Application Publication No. 2018-81548

しかしながら、特許文献1では、居間や寝室、浴室のアイコンや文字列である部屋識別マーカーをユーザに提示し、ユーザが部屋識別マーカーを選択し、選択された部屋識別マーカーを部屋の間取りとする。このため、特許文献1では、ユーザによって部屋識別マーカーを選択する必要が生じ、ユーザの手間が掛かるとの課題がある。 However, in Patent Document 1, the user is presented with room identification markers that are icons and character strings of the living room, bedroom, and bathroom, the user selects the room identification marker, and the selected room identification marker is the room layout. For this reason, in Patent Document 1, there is a problem that the user needs to select the room identification marker, which is troublesome for the user.

一方、特許文献2では、間取り図の画像に含まれる文字列(洋室、和室など)を認識し、前記認識した文字列を各部屋の名称とする。特許文献2では、ユーザの手間をかけず、自動的に間取り情報を登録することができる。ここで、家庭によって部屋の使い方はそれぞれである。このため、必ずしも間取り図の文字列の通りに部屋を使用するに限らない。例えば、間取り画像に洋室と記載する部屋は、冷蔵庫を設置し、キッチンとして利用する家庭もあれば、テレビやソファーを設置し、リビングとして利用する家庭もある。よって、特許文献2は生活シーンに応じる間取りの設定ができない課題がある。 On the other hand, in Patent Document 2, a character string (Western-style room, Japanese-style room, etc.) included in the image of the floor plan is recognized, and the recognized character string is used as the name of each room. In Patent Document 2, floor plan information can be automatically registered without user's trouble. Here, the usage of the room differs depending on the household. For this reason, the rooms are not always used according to the character strings on the floor plan. For example, a room described as a Western-style room in the floor plan image may be used as a kitchen with a refrigerator in some households, or may be used as a living room with a TV and a sofa in some households. Therefore, Patent Document 2 has a problem that the floor plan cannot be set according to the life scene.

また、特許文献2の他の課題としては、文字列が含まれない間取り図や宅内地図に対応できない課題がある。特に、ロボット掃除機などの移動体によって作成した宅内地図に特許文献2に示す文字列が含まれない場合が多い。このような場合では、特許文献2に開示した技術では対応が困難である。 Another problem of Patent Document 2 is that it cannot deal with floor plans and indoor maps that do not contain character strings. In particular, there are many cases where the character string shown in Patent Document 2 is not included in a home map created by a mobile object such as a robot cleaner. In such a case, it is difficult to deal with the technology disclosed in Patent Document 2.

そこで、本発明は、より実態に即した領域の認識を実現することを目的とする。その一例として、生活シーンに応じることができる宅内の間取り認識技術を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to realize region recognition that is more realistic. As an example, the object is to provide a room layout recognition technology that can respond to various life scenes.

上記の課題を解決するために、本発明では、領域に設置された物体の属性に基づいて、領域を構成する単位領域の「属性=種類」を識別することで、領域に対する認識を実行する。また、物体の属性を特定するために、物体の環境情報を用いることが望ましい。より具体的な本発明の構成は、以下のとおりである。 In order to solve the above problems, the present invention recognizes an area by identifying the "attribute=type" of the unit areas that make up the area based on the attributes of the object placed in the area. Also, it is desirable to use environmental information of the object to specify the attributes of the object. A more specific configuration of the present invention is as follows.

複数の単位領域で構成される領域を認識する領域認識システムにおいて、前記領域に存在する物体の環境情報を取得する物体計測部と、計測された前記環境情報を用いて、物体の属性を示す物体属性情報および位置を推定する物体推定部と、前記領域を、複数の部分単位領域に分割する領域処理部と、推定された前記物体の位置を用いて、当該物体が存在する単位領域を推定し、前記物体属性情報を用いて、推定された単位領域の属性を識別する属性識別部を有する領域認識システムである。 In an area recognition system for recognizing an area composed of a plurality of unit areas, an object measuring unit that acquires environmental information of an object existing in the area, and an object that indicates attributes of the object using the measured environmental information. estimating a unit area in which the object exists, using an object estimating unit that estimates attribute information and a position, an area processing unit that divides the area into a plurality of partial unit areas, and the estimated position of the object; and an area recognition system having an attribute identification unit that identifies an attribute of an estimated unit area using the object attribute information.

また、本発明には、領域認識システムを構成する移動体や領域認識装置が含まれる。また、これらを用いた領域認識方法も本発明の一態様である。またさらに、これらをコンピューターとして機能させるためのプログラムやプログラム製品、例えば、プログラムを格納した記憶媒体も本発明の一態様である。 Further, the present invention includes a moving body and an area recognition device that constitute an area recognition system. A region recognition method using these is also an aspect of the present invention. Further, a program or program product for making them function as a computer, for example, a storage medium storing the program is also an aspect of the present invention.

本発明によれば、対象となる領域の実態に即して、その領域を認識することができる。 According to the present invention, it is possible to recognize an area in accordance with the actual state of the target area.

実施例1係る間取り認識システムの概略構造図である。1 is a schematic structural diagram of a floor plan recognition system according to a first embodiment; FIG. 実施例1に係る移動体の概略斜視図である。1 is a schematic perspective view of a moving body according to Example 1. FIG. 実施例1に係る家電属性情報とその家電機器の位置を推定する推定処理を示すフローチャートである。6 is a flowchart showing home appliance attribute information and estimation processing for estimating the position of the home appliance according to the first embodiment. 実施例1に係る音源(家電機器)の方向の推定を説明する説明図である。FIG. 4 is an explanatory diagram illustrating estimation of a direction of a sound source (home appliance) according to the first embodiment; 実施例1に係る音源(家電機器)の位置の推定を説明する説明図である。FIG. 4 is an explanatory diagram illustrating estimation of a position of a sound source (home appliance) according to the first embodiment; 実施例1に係る間取り判定処理を示すフローチャートである。6 is a flowchart showing floor plan determination processing according to the first embodiment; 実施例1で用いられる占有格子地図を示す図である。FIG. 4 is a diagram showing an occupancy grid map used in Example 1; 実施例1において二値化処理が施された占有格子地図を示す図である。FIG. 4 is a diagram showing an occupancy grid map subjected to binarization processing in Example 1; 実施例1において収縮処理が施された占有格子地図を示す図である。FIG. 10 is a diagram showing an occupancy grid map subjected to contraction processing in Example 1; 実施例1において四角形検出処理が施された占有格子地図を示す図である。4 is a diagram showing an occupancy grid map subjected to quadrilateral detection processing in Example 1. FIG. 実施例1に係る家電機器リストを示す図である。FIG. 10 is a diagram showing a home appliance list according to the first embodiment; FIG. 実施例1に係る部屋属性判定ルールを示す図である。FIG. 4 is a diagram showing room attribute determination rules according to the first embodiment; 実施例2に係る間取り認識システムの概略構造図である。FIG. 11 is a schematic structural diagram of a floor plan recognition system according to a second embodiment; 実施例2に係る宅内の障害物を含む占有格子地図を示す図である。FIG. 10 is a diagram showing an occupation grid map including indoor obstacles according to Example 2; 実施例2に係る家電属性情報、家財属性情報と、家電機器、家財の位置の推定処理を示すフローチャートである。10 is a flowchart showing home appliance attribute information, household goods attribute information, and a process of estimating the positions of home appliances and household goods according to Example 2. FIG. 実施例2係る間取り判定処理を示すフローチャートである。FIG. 11 is a flow chart showing floor plan determination processing according to the second embodiment; FIG. 実施例2に係る設備機器リストを示す図である。It is a figure which shows the equipment list|wrist which concerns on Example 2. FIG. 実施例2に係る部屋属性判定ルールを示す図である。FIG. 10 is a diagram showing room attribute determination rules according to the second embodiment; 実施例2に係る物体属性情報の推定処理の変形例を示すフローチャートである。FIG. 11 is a flowchart showing a modification of the object attribute information estimation process according to the second embodiment; FIG.

以下、本発明の実施例1について、図を参照しながら詳細に説明する。図1は、実施例1に係る間取り認識システム1の概略構造図である。以下、本実施例および実施例2では、領域として、家屋を認識対象とする例を用いて説明する。このため、各実施例では、単位領域として、家屋の部屋の属性を識別する。このため、各実施例では、領域認識システムの例として、間取り認識システムを用いることになる。 Embodiment 1 of the present invention will be described in detail below with reference to the drawings. FIG. 1 is a schematic structural diagram of a floor plan recognition system 1 according to the first embodiment. Hereinafter, in the present embodiment and the second embodiment, an example in which a house is a recognition target will be described as an area. Therefore, in each embodiment, the attribute of a room in a house is identified as a unit area. Therefore, in each embodiment, the floor plan recognition system is used as an example of the area recognition system.

図1(a)に示すように、間取り認識システム1は、家屋における物体の環境情報を取得するための移動体2と、環境情報と宅内地図に基づいて間取りを認識するための間取り分析装置3とで構成される。 As shown in FIG. 1(a), a floor plan recognition system 1 includes a moving object 2 for acquiring environmental information about objects in a house, and a floor plan analyzer 3 for recognizing the floor plan based on the environmental information and a home map. Consists of

ここで、移動体2は、自身に備え付けられた家電計測部6が電気製品(以下、家電機器)を計測することで得られた環境情報の一種である家電情報から、家電属性情報とその位置を推定する。このように、本実施例では、物体として、家電機器を用いる。なお、物体には、家電機器や家具などの家財の設備機器の他、人や動物など環境情報を取得できる対象が含まれる。 Here, the mobile object 2 uses the home appliance information, which is a type of environmental information obtained by measuring the home appliance (hereinafter referred to as home appliance) by the home appliance measurement unit 6 provided therein, to determine the home appliance attribute information and its position. to estimate As described above, in this embodiment, home electric appliances are used as objects. Note that the objects include home appliances, furniture, and other household equipment, as well as objects from which environmental information can be acquired, such as people and animals.

また、間取り分析装置3は、移動体2での推定結果を用いて、各部屋の属性の一種であるラベルを特定する。このために、間取り分析装置3は、家屋の宅内地図を複数の単位領域に分割し、家電機器の位置を用いて、分割された各単位領域と家電機器を対応付ける。つまり、各単位領域に設置された家電機器が特定される。そして、間取り分析装置3は、単位領域に設置された家電機器の家電属性情報に基づき、その属性の一種であるラベルを各単位領域に付与する。この結果、各単位領域の属性が識別、つまり、何部屋であるかが特定されることになる。次に、各構成要素の詳細を説明する。なお、本実施例では、物体として、家電機器を用いるため、物体属性情報の一種である家電属性情報を用いる。
<移動体2>
移動体2の機能ブロックを図1(a)に、外観を図2に示す。移動体2は、図1(a)に示すように駆動部4、検知部5、家電計測部6、移動体制御部7、通信部8を備える。ここで、駆動部4は、移動体2を移動(走行)させる機能を有する。ここで、移動体2は、図2に示すように、移動体2の筐体であるSの下部に設けられた一対の駆動輪15,16および補助輪17(図示省略)を有する。そして、駆動輪15,16は、それぞれ走行モータおよび減速機で構成される車輪ユニット(図示省略)により回転駆動される。移動体制御部7の指令によって駆動輪15,16を回転することで、移動体2を前進、後退、旋回させる。補助輪17は、駆動輪15,16に従って自由回転する従動輪(キャスタ)であり、本体の外周付近に設けられる。このように、駆動部4は、駆動輪15,16、補助輪17や車輪ユニットで実現される。
In addition, the floor plan analysis device 3 uses the estimation result of the moving body 2 to specify a label, which is one type of attribute of each room. For this purpose, the floor plan analysis device 3 divides the indoor map of the house into a plurality of unit areas, and uses the position of the home appliance to associate each divided unit area with the home appliance. That is, the home appliances installed in each unit area are specified. Then, the floor plan analysis device 3 assigns a label, which is one type of attribute, to each unit area based on the home appliance attribute information of the home appliances installed in the unit area. As a result, the attribute of each unit area is identified, that is, the number of rooms is specified. Next, details of each component will be described. In addition, in this embodiment, since a home appliance is used as an object, home appliance attribute information, which is a kind of object attribute information, is used.
<Moving body 2>
The functional block of the moving body 2 is shown in FIG. 1(a), and the external appearance is shown in FIG. The moving object 2 includes a driving unit 4, a detecting unit 5, a home appliance measuring unit 6, a moving object control unit 7, and a communication unit 8, as shown in FIG. 1(a). Here, the drive unit 4 has a function of moving (running) the moving body 2 . Here, as shown in FIG. 2, the moving body 2 has a pair of driving wheels 15 and 16 and an auxiliary wheel 17 (not shown) provided in the lower part of the housing S of the moving body 2 . The driving wheels 15 and 16 are rotationally driven by wheel units (not shown) each composed of a traveling motor and a speed reducer. By rotating the driving wheels 15 and 16 according to the command from the moving body control unit 7, the moving body 2 is advanced, retreated, and turned. The auxiliary wheels 17 are driven wheels (casters) that freely rotate according to the drive wheels 15 and 16, and are provided near the outer periphery of the main body. Thus, the drive unit 4 is realized by the drive wheels 15 and 16, the auxiliary wheels 17, and the wheel unit.

検知部5は、移動体2が走行する際の周囲の障害物や段差などを計測する機能を有する。検知部5は、主に障害物を計測するための環境計測センサ18、床面までの距離を計測するための床面用測距センサ19(図示省略)、障害物の衝突を検出するためのバンパセンサ20(図示省略)とで実現される。 The detection unit 5 has a function of measuring surrounding obstacles, steps, and the like when the moving body 2 travels. The detection unit 5 mainly includes an environment measurement sensor 18 for measuring obstacles, a floor distance measurement sensor 19 (not shown) for measuring the distance to the floor, and a sensor for detecting collisions with obstacles. It is implemented with a bumper sensor 20 (not shown).

このうち、環境計測センサ18は、発光部でレーザ光を発光し、回転する鏡によりレーザ光を略水平に発射する(レーザ光スキャン型センサ)。レーザ光は、家電機器などの障害物で一部反射して戻り、環境計測センサ18の受光部により受光される。そして、環境計測センサ18は、レーザ光発光後から反射光を受光するまでの時間差から障害物までの距離を算出する。レーザ光は、鏡の回転により時々刻々と方向を変えながら発生されるため、環境計測センサ18を用いることで所定角度範囲内の障害物の距離データを取得することが可能である。なお、所定角度範囲は、広いほどより広範囲の障害物を検知できるため、360度が望ましい。また、環境計測センサ18は、レーザ光スキャン型のセンサ以外に、環境中の障害物の状況を計測可能なイメージセンサやミリ波等の距離計測装置でもよい。 Among them, the environmental measurement sensor 18 emits a laser beam from a light emitting part and emits the laser beam substantially horizontally from a rotating mirror (laser beam scanning type sensor). A part of the laser light is reflected by an obstacle such as a home appliance and returns, and is received by the light receiving section of the environmental measurement sensor 18 . Then, the environmental measurement sensor 18 calculates the distance to the obstacle from the time difference between the emission of the laser beam and the reception of the reflected light. Since the laser beam is generated while changing its direction from moment to moment due to the rotation of the mirror, it is possible to acquire distance data of obstacles within a predetermined angle range by using the environmental measurement sensor 18 . It should be noted that the wider the predetermined angular range, the wider the range of obstacles that can be detected, so 360 degrees is desirable. Further, the environment measurement sensor 18 may be an image sensor capable of measuring the status of obstacles in the environment, or a distance measurement device using millimeter waves or the like, other than the laser beam scanning type sensor.

また、床面用測距センサ19は、床面までの距離を計測する赤外線を用いた測距センサであり、移動体筐体Sの下面に設置されている。床面用測距センサ19によって階段等の大きな段差を検知することで、移動体2の落下や脱輪を抑制できる。 The floor distance measuring sensor 19 is a distance measuring sensor using infrared rays for measuring the distance to the floor, and is installed on the lower surface of the mobile housing S. As shown in FIG. By detecting a large level difference such as a stair using the floor ranging sensor 19, it is possible to prevent the moving body 2 from falling or running off the wheel.

また、バンパセンサ20は、例えばフォトカプラであり、移動体2が壁などの障害物に衝突する際、移動体制御部7は、外部から作用する力に応じて前後、左右の走行方向を転換させ、障害物から遠ざかる。 Further, the bumper sensor 20 is, for example, a photocoupler, and when the moving body 2 collides with an obstacle such as a wall, the moving body control unit 7 changes the running direction to the front/rear and left/right according to the force acting from the outside. , move away from obstacles.

次に、家電計測部6は、家電属性情報および家電機器の位置を推定するための計測を実行する機能を有する。ここで、家電属性情報は「冷蔵庫、洗濯機」といった家電機器の属性である種類を識別する情報である。このため、家電計測部6は、例えばマイクで実現できる。まず、マイクは、家電機器が運転した際に発生する音を計測し、音情報を家電情報として取得する。ここで、その種類により家電機器が発生する音の特徴が異なるため、家電機器の音を計測し音情報を取得することで、家電属性情報を特定できる。さらに、音声定位法から家電の位置も算出できる。 Next, the home appliance measurement unit 6 has a function of performing measurement for estimating the home appliance attribute information and the position of the home appliance. Here, the home appliance attribute information is information identifying the type, which is the attribute of the home appliance, such as "refrigerator, washing machine". Therefore, the home appliance measurement unit 6 can be realized by, for example, a microphone. First, the microphone measures the sound generated when the home appliance is driven, and acquires the sound information as the home appliance information. Here, since the characteristics of the sound generated by the home appliance differ depending on the type, the home appliance attribute information can be specified by measuring the sound of the home appliance and acquiring the sound information. Furthermore, the position of the home appliance can also be calculated from the sound localization method.

また、家電計測部6は、家電機器の画像を取得可能なイメージセンサでもよい。移動体2が走行中などに、走行環境中の家電機器の画像を計測する。計測した画像を画像処理や機械学習によって、家電属性情報とその家電機器の位置を推定できる。 Also, the home appliance measurement unit 6 may be an image sensor capable of acquiring an image of the home appliance. While the moving body 2 is running, the image of the home appliance in the running environment is measured. By image processing and machine learning of the measured image, the home appliance attribute information and the position of the home appliance can be estimated.

また、家電計測部6は、家電機器の温度を計測可能な赤外線温度計でもよい。例えば、オーブンが運転すると、オーブン内部の温度が徐々に上昇し、一定温度まで到達する。ここで、オーブンは、上下の加熱部(ヒーター)の部分の温度が最も高いといった特徴を持っている。このように、家電機器が運転時に生じる温度や温度の分布が異なるため、赤外線温度計によって家電運転時の温度データを取得し、温度分布を解析することで、家電属性情報とその家電機器の位置を推定できる。 Also, the home appliance measurement unit 6 may be an infrared thermometer capable of measuring the temperature of the home appliance. For example, when an oven operates, the temperature inside the oven gradually rises and reaches a constant temperature. Here, the oven has the feature that the temperature of the upper and lower heating portions (heaters) is the highest. In this way, the temperatures and temperature distributions that occur when home appliances are in operation are different. Therefore, by acquiring temperature data during operation with an infrared thermometer and analyzing the temperature distribution, the home appliance attribute information and the position of the home appliance can be obtained. can be estimated.

なお、以上の家電属性情報と家電機器の位置の推定は、後述する家電推定部21で実行される。このために、家電推定部21は、家電計測部6での計測結果と予め記憶された標準情報を比較することで、推定することができる。標準情報としては、例えば、標準家電音がある。 The home appliance attribute information and the position estimation of the home appliance are performed by the home appliance estimation unit 21, which will be described later. For this reason, the home appliance estimation unit 21 can estimate by comparing the measurement result of the home appliance measurement unit 6 with pre-stored standard information. Standard information includes, for example, standard home appliance sounds.

なお、本実施例では、家電計測部6の詳細を、マイクアレイ(複数のマイクで構成)を一つの例として説明する。家電計測部6が、図2に示すようなマイク50とマイク51と構成される。マイク50とマイク51は、音波によって生じる機械的な振動を電気信号に変える装置であり、環境中の音を集音する。マイク50、マイク51は全指向性を有する場合は、全方位の音を収集可能のため、範囲広く音を測定することができる。また、指向性を有しているマイクの場合は、効果よく集音するため、マイクを感度の最も大きい方向に向けられるように設置することが望ましい。また、マイクが感度の最も大きい方向に向けられるように、モータなどの移動構造を設け、マイクの集音方向を変更できるように設置するのが望ましい。 In this embodiment, details of the home appliance measurement unit 6 will be described with a microphone array (composed of a plurality of microphones) as an example. The home appliance measurement unit 6 is configured with a microphone 50 and a microphone 51 as shown in FIG. The microphones 50 and 51 are devices that convert mechanical vibrations caused by sound waves into electrical signals, and collect sounds in the environment. If the microphones 50 and 51 have omnidirectionality, they can collect sounds in all directions, so that sounds can be measured over a wide range. Moreover, in the case of a directional microphone, it is desirable to install the microphone so that it can be directed in the direction of the greatest sensitivity in order to effectively collect sound. In addition, it is desirable to provide a moving structure such as a motor so that the microphone can be directed in the direction of the greatest sensitivity, and installed so that the sound collecting direction of the microphone can be changed.

次に、移動体制御部7は、移動体2を制御する機能を有し、マイクロコンピュータで実現できる。図1(b)に示すように、移動体制御部7は、家電推定部21、自己位置推定部22、地図作成部23、動作制御部24、記憶部25を備える。 Next, the moving body control unit 7 has a function of controlling the moving body 2, and can be realized by a microcomputer. As shown in FIG. 1B, the moving body control unit 7 includes a home appliance estimation unit 21, a self-position estimation unit 22, a map generation unit 23, an operation control unit 24, and a storage unit 25.

まず、家電推定部21は、家電計測部6によって収集したセンサデータを用いて、家電属性情報とその位置を推定する。本実施例において、家電推定部21は、2つのマイク50、51で取得された家電機器の音情報に対してその周波数特徴を解析し、家電機器の種類を推定する。つまり、家電推定部21は、家電属性情報を推定する。また、家電推定部21は、音声定位によって、家電機器と家電計測部6の位置関係を推定する。具体的な推定方法について図3を参照しながら後述する。なお、家電推定部21は、物体に関する推定を行う物体推定部の一種である。 First, the home appliance estimation unit 21 uses the sensor data collected by the home appliance measurement unit 6 to estimate home appliance attribute information and its position. In this embodiment, the home appliance estimation unit 21 analyzes the frequency characteristics of the sound information of the home appliance acquired by the two microphones 50 and 51, and estimates the type of the home appliance. That is, the home appliance estimation unit 21 estimates home appliance attribute information. Also, the home appliance estimation unit 21 estimates the positional relationship between the home appliance and the home appliance measurement unit 6 based on the sound localization. A specific estimation method will be described later with reference to FIG. Note that the home appliance estimation unit 21 is a kind of object estimation unit that estimates an object.

次に、自己位置推定部22は、走行環境中の障害物配置から移動体2の自己位置と姿勢を判定する。自己位置推定部22は、移動体2の移動中に環境計測センサ18で取得する障害物までの距離データを読み込み、前記距離データの変化から、移動体2の自己位置と姿勢を算出する。また、自己位置推定部22は、自己位置と姿勢を算出する際に、エンコーダーやレーザ、IMU(Inertial Measurement Unit)等のセンサにより検出する移動体2の移動量の情報を、自己位置と姿勢の算出のために用いることができる。なお、ここで算出される自己位置は移動体2の中心点位置である(図2のSP位置に示す)。 Next, the self-position estimator 22 determines the self-position and posture of the moving body 2 from the arrangement of obstacles in the running environment. The self-position estimating unit 22 reads distance data to obstacles acquired by the environmental measurement sensor 18 while the mobile body 2 is moving, and calculates the self-position and attitude of the mobile body 2 from changes in the distance data. In addition, when calculating the self-position and orientation, the self-position estimation unit 22 uses information on the amount of movement of the moving body 2 detected by sensors such as encoders, lasers, and IMUs (Inertial Measurement Units) to estimate the self-position and orientation. can be used for calculations. Note that the self-position calculated here is the center point position of the moving body 2 (shown as the SP position in FIG. 2).

次に、地図作成部23は、環境計測センサ18から計測した障害物の位置情報から環境地図を作成する。ここで、作成された地図は記憶部25に保存される。この環境地図は、平面を格子状に区切られ、各格子に障害物が存在する確率で表す占有格子地図である。障害物の存在する確率が高いほど格子の値が大きく、障害物の存在する確率が低いほど格子の値が小さい。 Next, the map creation unit 23 creates an environment map from the obstacle position information measured by the environment measurement sensor 18 . Here, the created map is stored in the storage unit 25 . This environmental map is an occupancy grid map in which a plane is divided into grids and the probability of an obstacle existing in each grid is expressed. The higher the probability that an obstacle exists, the larger the grid value, and the lower the probability that an obstacle exists, the smaller the grid value.

次に、動作制御部24は、移動体2の各種の動作を制御する。例えば、動作制御部24は、検知部5で計測する走行環境情報に基づいて、駆動部4を制御する。また、動作制御部24は、音を収集するための走行ルートを生成し、移動体2を走行させるなどの動作を制御する。 Next, the motion control unit 24 controls various motions of the moving body 2 . For example, the operation control section 24 controls the drive section 4 based on the driving environment information measured by the detection section 5 . In addition, the operation control unit 24 generates a travel route for collecting sounds, and controls operations such as making the moving body 2 travel.

なお、これら家電推定部21、自己位置推定部22、地図作成部23、動作制御部24の各機能は、プログラムや専用ハードウエア回路で実現できる。プログラムで実現される場合、当該プログラムが、後述する記憶部25に格納され、プロセッサでその機能を実現するための演算が実行される。また、専用ハードウエア回路で実現される場合、FPGA(Field-Programmable Gate Array)やASIC(Application Specific Integrated Circuit)を利用できる。 Each function of the home appliance estimation unit 21, the self-position estimation unit 22, the map creation unit 23, and the operation control unit 24 can be realized by a program or a dedicated hardware circuit. When realized by a program, the program is stored in the storage unit 25, which will be described later, and the processor executes the calculation for realizing the function. Moreover, when it implement|achieves by a dedicated hardware circuit, FPGA (Field-Programmable Gate Array) and ASIC (Application Specific Integrated Circuit) can be utilized.

次に、記憶部25は、認識対象の家屋(宅内)の地図データである宅内地図や、家電機器情報などの各種の制御に必要な情報を記憶するものである。 Next, the storage unit 25 stores information necessary for various types of control, such as a home map, which is map data of a house (home) to be recognized, and home appliance information.

通信部8は、各種の信号の入出力を可能となるものである。この通信部8は、本実施例において、NFC(Near Field Communication)等の近距離無線通信を含む無線通信を実現する。このように、移動体2内の各ユニット間の情報伝達や移動体2と間取り分析装置3の情報伝達は通信部8を介して行うことになる。 The communication unit 8 is capable of inputting/outputting various signals. In this embodiment, the communication unit 8 realizes wireless communication including short-range wireless communication such as NFC (Near Field Communication). In this way, information transmission between units in the moving body 2 and information transmission between the moving body 2 and the floor plan analysis device 3 are performed via the communication unit 8 .

図1(a)(b)、図2を用いて説明した上記の構成はあくまで一例であり、移動体2の構成はこれらに限定されない。特に、移動体2は、その用途を満たすための構成を追加してもよい。例えば、移動体2が掃除機や空気清浄機の場合は、集塵部を備えてもよい。また、移動体2が除菌機器の場合は、除菌部を備えてもよい。また、移動体2が家事ロボットの場合は、ハンドやアームなどの操作部を備えてもよい。また、移動体2が見守りロボットの場合は、ユーザとのインタラクションをするための出力部(スピーカー、ディスプレイなど)を備えてもよい。またさらに、移動体2は、温度センサ、照度センサ、ジャイロセンサを含むセンサや装置をさらに備えてよい。以上のように、移動体2が備えるセンサや装置は、その使用や運用に応じて柔軟に変化され得る。
<間取り分析装置3>
次に、領域認識装置の一種である間取り分析装置3いついて、説明する。間取り分析装置3は、情報処理装置の一種であるコンピューターで実現できる装置である。例えば、ソフトウェア、データなどを、通信ネットワークを通じて遠隔から利用できるクラウドコンピューティング、また、スマートフォンやタブレット、パーソナルコンピューターのようなユーザデバイスで実現できる。また、移動体2の移動体制御部7に、同様の機能を持たせてもよい。
The above configurations described with reference to FIGS. 1(a), 1(b), and 2 are merely examples, and the configuration of the moving body 2 is not limited to these. In particular, the moving body 2 may have additional configurations to meet its usage. For example, if the moving body 2 is a vacuum cleaner or an air purifier, it may have a dust collector. Moreover, when the moving body 2 is a sterilization device, it may be provided with a sterilization unit. Moreover, when the moving body 2 is a housekeeping robot, it may be provided with an operation unit such as a hand or an arm. Moreover, when the moving object 2 is a watching robot, it may be provided with an output unit (speaker, display, etc.) for interacting with the user. Furthermore, the moving body 2 may further include sensors and devices including a temperature sensor, an illuminance sensor, and a gyro sensor. As described above, the sensors and devices included in the moving body 2 can be flexibly changed according to their use and operation.
<Floor plan analyzer 3>
Next, the floor plan analysis device 3, which is a type of area recognition device, will be described. The floor plan analysis device 3 is a device that can be realized by a computer, which is a type of information processing device. For example, software, data, etc. can be realized by cloud computing that can be used remotely through a communication network, or by user devices such as smartphones, tablets, and personal computers. Also, the moving body control section 7 of the moving body 2 may be provided with the same function.

なお、間取り分析装置3をクラウドコンピューティング、つまり、サーバで実現する場合、インターネットを介して、移動体2と接続される。また、この接続は、スマートフォンのような端末装置を介して実現してもよい。さらに、このサーバでは、複数の移動体2や複数の家屋について処理対象とすることが望ましい。 Note that when the floor plan analysis device 3 is realized by cloud computing, that is, by a server, it is connected to the moving body 2 via the Internet. Also, this connection may be realized via a terminal device such as a smart phone. Furthermore, it is desirable for this server to process a plurality of moving bodies 2 and a plurality of houses.

ここで、間取り分析装置3は、図1に示すように通信部9、地図処理部10、間取り判定部11を備える。 Here, the floor plan analysis device 3 includes a communication section 9, a map processing section 10, and a floor plan determination section 11, as shown in FIG.

まず、通信部9は、他装置との通信を行うものであり、各種信号や情報の入出力を可能となるものである。地図データ(宅内地図)、家電情報、移動体2のセンサデータや運行状況などの情報は、通信部9を介して間取り分析装置3が受け付けることになる。 First, the communication unit 9 communicates with other devices and enables input/output of various signals and information. Information such as map data (in-house map), home appliance information, sensor data of the moving body 2 and operation status are received by the floor plan analysis device 3 via the communication unit 9 .

次に、地図処理部10は、通信部9によって入力された宅内地図に対する解析を行う。解析は主に、画像処理によって二値化処理、収縮処理、四角形検出を行うことで、宅内地図、つまり、家屋の宅内を複数の単位領域に分割する。地図処理部10の具体的な機能については、図7で後述する。なお、地図処理部10が用いる宅内地図は、移動体2が家電計測部6の情報に基づいて作成した地図データや、ディベロッパーが保有している地図データを利用する。このように、領域を分割する領域処理部の一例である。 Next, the map processing unit 10 analyzes the indoor map input by the communication unit 9 . In the analysis, binarization processing, contraction processing, and quadrilateral detection are mainly performed by image processing to divide the indoor map, that is, the interior of the house into a plurality of unit areas. Specific functions of the map processing unit 10 will be described later with reference to FIG. The indoor map used by the map processing unit 10 uses map data created by the moving body 2 based on information from the home appliance measuring unit 6 or map data owned by the developer. This is an example of a region processing unit that divides a region.

間取り判定部11は、地図処理部10によって分割された複数の単位領域のそれぞれと家電機器の位置を対応付ける。この対応付けには、単位領域と家電機器の位置のリストを作成するリスト化が含まれる。そして、間取り判定部11は、対応付けられた結果と、部屋属性ルールに基づいて各単位領域にラベルを付与する。ここで、本実施例におけるラベルとは、部屋の間取りであり、例えば、「キッチン」、「リビング」、「寝室」のような部屋の種別を含む属性の一例である。このことで、単位領域である部屋の識別を行うことになり、領域である家屋に対する認識が可能となる。つまり、間取り判定部11は、属性識別部の一例である。この間取り判定部11の処理である間取り判定処理の詳細については、図8、図9で後述する。 The floor plan determination unit 11 associates each of the plurality of unit areas divided by the map processing unit 10 with the position of the home appliance. This association includes listing to create a list of unit areas and appliance locations. Then, the floor plan determination unit 11 assigns a label to each unit area based on the associated result and the room attribute rule. Here, the label in this embodiment is the layout of the room, and is an example of an attribute including the type of room such as "kitchen", "living room", and "bedroom". As a result, the room, which is the unit area, is identified, and the house, which is the area, can be recognized. That is, the floor plan determination unit 11 is an example of an attribute identification unit. The details of the floor plan determination process, which is the process of the floor plan determination unit 11, will be described later with reference to FIGS. 8 and 9. FIG.

なお、地図処理部10、間取り判定部11を備える。これらの機能は、プログラムや専用ハードウエア回路で実現できる。プログラムで実現される場合、当該プログラムが、図示しない記憶装置ないし記憶媒体に格納され、間取り分析装置3のプロセッサでその機能を実現するための演算が実行される。また、専用ハードウエア回路で実現される場合、FPGA(Field-Programmable Gate Array)やASIC(Application Specific Integrated Circuit)を利用できる。 A map processing unit 10 and a floor plan determination unit 11 are provided. These functions can be implemented by programs or dedicated hardware circuits. When implemented by a program, the program is stored in a storage device or storage medium (not shown), and the processor of the floor plan analysis device 3 executes calculations for implementing the function. Moreover, when it implement|achieves by a dedicated hardware circuit, FPGA (Field-Programmable Gate Array) and ASIC (Application Specific Integrated Circuit) can be utilized.

上記の構成はあくまで一例であり、間取り認識システム1が備える構成は係る例に限定されない。移動体2の少なくとも一部の機能を、間取り分析装置3で実行してもよい。また、間取り分析装置3の少なくとも一部の機能を、移動体2で実行してもよい。例えば、移動体2の地図作成部23の機能を間取り分析装置3で実行する。この場合、環境計測センサ18から取得するセンサデータを通信部8および通信部9を介して、間取り分析装置3に送信する。そして、間取り分析装置3で地図作成を行うことになる。 以上で、構成の説明を終わり、以下、本実施例の処理ついて、図を参照しながら詳細に説明する。
<家電属性情報と家電機器の位置の推定処理>
まず、本実施例の処理の概要を説明する。本実施例では、家電属性情報と家電機器の位置を推定し、この結果を用いて、領域の認識を行う間取り判定処理を行う。まず、判断家電属性情報と家電機器の位置の推定処理では、移動体2に備え付けられた家電計測部6から得られた入力信号から、家電属性情報とその家電機器の位置を推定する。また、間取り判定処理では、間取り分析装置3で宅内地図を複数の単位領域に分割し、分割された単位領域と家電機器の位置を対応付け、この対応関係に基づき、家電属性情報に対応したラベルを各単位領域に付与する。
The above configuration is merely an example, and the configuration of the floor plan recognition system 1 is not limited to this example. At least part of the functions of the moving body 2 may be performed by the floor plan analyzer 3 . Also, at least part of the functions of the floor plan analysis device 3 may be performed by the moving body 2 . For example, the function of the map creation unit 23 of the moving body 2 is executed by the floor plan analysis device 3 . In this case, the sensor data acquired from the environment measurement sensor 18 is transmitted to the floor plan analysis device 3 via the communication units 8 and 9 . Then, the floor plan analysis device 3 creates a map. The configuration has been described above, and the processing of this embodiment will be described in detail below with reference to the drawings.
<Home appliance attribute information and home appliance location estimation processing>
First, an overview of the processing of this embodiment will be described. In this embodiment, the home appliance attribute information and the position of the home appliance are estimated, and using this result, the floor plan determination process for recognizing the area is performed. First, in the process of estimating judgment home appliance attribute information and the position of the home appliance, the home appliance attribute information and the position of the home appliance are estimated from the input signal obtained from the home appliance measurement unit 6 provided in the moving body 2 . In the floor plan determination process, the floor plan analysis device 3 divides the home map into a plurality of unit areas, associates the divided unit areas with the positions of the home appliances, and based on this correspondence relationship, labels corresponding to the home appliance attribute information. is given to each unit area.

以下、本実施例の詳細を説明する。図3は、家電属性情報とその家電機器の位置を推定する推定処理を示すフローチャートである。 The details of this embodiment will be described below. FIG. 3 is a flowchart showing an estimation process for estimating home appliance attribute information and the position of the home appliance.

この推定処理では、移動体2に備え付けられた家電計測部6から得られた音情報を用いて、家電属性情報とその家電機器の位置を推定する。以下、処理についてステップごとにその詳細を説明する。 In this estimation process, the home appliance attribute information and the position of the home appliance are estimated using the sound information obtained from the home appliance measurement unit 6 provided in the moving body 2 . Details of each step of the processing will be described below.

まず、移動体2において、この推定処理を起動させると、家電計測部6の一例であるマイク50とマイク51によって、環境中の音を計測する(ステップS1)。ここで、この推定処理を起動するタイミングには、下記の3つの例が挙げられる。(1)まず、移動体2が規定の時間に宅内に走行させ、走行中に音を検知したタイミングである。この場合、移動体2を走行させることによって、宅内の各場所の音を計測することができる。(2)また、家電機器のうちIoT家電機器が、動作音が生じているという運転情報を移動体2に送信し、移動体2がこの運転情報を取得したタイミングである。例えば、移動体2は、洗濯機の洗い運転が起動された情報を受信したタイミングで判定処理を起動してよい。家電機器の運転情報を利用することで、移動体2がより確実に家電の動作音を取得することができる。(3)また、マイク50、マイク51が環境中の新たな音を検知したタイミングである。例えば、静かな環境に洗濯機の洗い運転が起動されて、音圧レベルが大きくなったと検出したタイミングで判定処理を起動してよい。 First, when this estimation process is activated in the moving object 2, sounds in the environment are measured by the microphones 50 and 51, which are an example of the home appliance measurement unit 6 (step S1). Here, there are three examples of the timing for starting this estimation process. (1) First, it is the timing at which the moving body 2 is caused to run inside the house at a specified time and the sound is detected during the running. In this case, by running the moving body 2, the sound of each place in the house can be measured. (2) Also, it is the timing at which the IoT home appliance among the home appliances transmits to the moving object 2 driving information indicating that an operating sound is being generated, and the moving object 2 acquires this driving information. For example, the moving body 2 may activate the determination process at the timing of receiving information that the washing operation of the washing machine has been activated. By using the operation information of the home appliance, the moving body 2 can more reliably acquire the operation sound of the home appliance. (3) It is also the timing at which the microphones 50 and 51 detect new sounds in the environment. For example, the determination process may be activated at the timing when it is detected that the washing operation of the washing machine has been activated in a quiet environment and the sound pressure level has increased.

上記のタイミングで推定処理を起動させれば、家電機器の動作音をより確実に計測することができる。ここで家電機器の動作音は、家電機器が運転する際に生じる音である。例えば、洗濯機の動作音は、運転中のモータ音や振動音、提示音、運転中の水や衣類の攪拌音が挙げられる。 By activating the estimation process at the above timing, it is possible to more reliably measure the operation sound of the home appliance. Here, the operation sound of the home appliance is the sound generated when the home appliance is operated. For example, operating sounds of a washing machine include motor sound and vibration sound during operation, presentation sound, and stirring sound of water and clothes during operation.

次に、家電推定部21が、音を計測し音情報を取得したかを判定する(ステップS2)。音情報を取得しなかったと判定したならば(No)、ステップS1に戻り、家電計測部6によって音の計測を続ける。音情報を取得したと判定したならば(Yes)、ステップS3に遷移する。 Next, the home appliance estimation unit 21 determines whether or not sound information has been obtained by measuring sound (step S2). If it is determined that the sound information has not been acquired (No), the process returns to step S1, and the home appliance measurement unit 6 continues to measure the sound. If it is determined that the sound information has been acquired (Yes), the process proceeds to step S3.

次に、家電推定部21が、取得した音情報を用いて、音源の方向を推定する(ステップS3)。つまり、家電推定部21は、音を発している家電機器の方向を推定する。以下、この方向の推定について説明する。本実施形例では、家電推定部21は、マイク50とマイク51で計測する音の到着における時間差をもとに音源の方向を推定する。 Next, the home appliance estimation unit 21 estimates the direction of the sound source using the acquired sound information (step S3). In other words, the home appliance estimation unit 21 estimates the direction of the home appliance emitting the sound. This direction estimation will be described below. In this embodiment, the home appliance estimating unit 21 estimates the direction of the sound source based on the arrival time difference of the sound measured by the microphones 50 and 51 .

ここで、図4を用いて、音源の方向の推定について、説明する。図4では、移動体2(筐体S)の図面上右上(θ方向)の音源Nにより家電機器の動作音が発生している。ここで、θ方向から筐体Sに、音速cで到達した音の音波は、間隔dで配置する二つのマイク50、マイク51によって受信される。このとき、音波がマイク50、マイク51間の到来時間差Tは(数1)に示すとおりとなる。
T = d cos(θ)/c ・・・(数1)
よって、音源の方向θは、以下の数2)で表せる。つまり、数2により、音源の方向を推定することが可能となる。
θ = arccos(T・c/d) ・・・(数2)
以下、図3に戻り、推定処理の説明を続ける。動作制御部24は、移動体2を、障害物を避けながら音源の方向に移動させる(ステップS4)。このために、まず、検知部5によって、移動体2の走行環境を計測する。例えば、環境計測センサ18で障害物や壁を検出し、床面用測距センサ19で段差を検出する。そして、動作制御部24は、走行環境を用いて、走行不能な場所と走行可能な場所を判別する。そして、動作制御部24は、移動体2を、走行不能な場所をよけながら、もしくは、走行可能な場所を通りながら音源の方向θに向かって移動させる。なお、この移動の際、自己位置推定部22が、移動体2の位置や姿勢を算出する。そして、動作制御部24は、算出された位置や姿勢を用いて、移動体2の移動を制御する。
Here, estimation of the direction of the sound source will be described with reference to FIG. In FIG. 4, a sound source N on the upper right (θ direction) of the moving body 2 (housing S) in the drawing causes the operation sound of the home appliance. Here, a sound wave that reaches the housing S from the θ direction at the speed of sound c is received by two microphones 50 and 51 arranged at an interval d. At this time, the arrival time difference T between the microphones 50 and 51 of the sound waves is as shown in (Equation 1).
T=d cos(θ)/c (Equation 1)
Therefore, the direction θ of the sound source can be expressed by Equation 2) below. In other words, Equation 2 makes it possible to estimate the direction of the sound source.
θ = arccos(T·c/d) (equation 2)
Returning to FIG. 3, the description of the estimation process is continued. The motion control unit 24 moves the moving body 2 in the direction of the sound source while avoiding obstacles (step S4). For this purpose, first, the traveling environment of the moving object 2 is measured by the detection unit 5 . For example, the environment measurement sensor 18 detects an obstacle or a wall, and the floor distance sensor 19 detects a step. Then, the operation control unit 24 uses the traveling environment to determine the location where the vehicle cannot travel and the location where the vehicle can travel. Then, the operation control unit 24 moves the moving body 2 in the direction θ of the sound source while avoiding the place where travel is impossible or passing through the place where travel is possible. During this movement, the self-position estimator 22 calculates the position and orientation of the moving body 2 . Then, the motion control unit 24 controls the movement of the moving body 2 using the calculated position and orientation.

次に、家電推定部21が、音源である家電機器の家電属性情報およびその位置を推定する(ステップS5)。このために、まず、自己位置推定部22は、移動体2が音源の近傍に到達したことを検知する。ここで、近傍とは、予め定められた条件を満たせばよい。次に、動作制御部24は、近傍内のいくつの異なる場所に移動体2を移動させる。次に、マイク50やマイク51で家電機器の動作音を集音する。そして、家電推定部21が、集音された動作音から家電属性情報とその家電機器の位置を推定する。 Next, the home appliance estimation unit 21 estimates the home appliance attribute information of the home appliance that is the sound source and its position (step S5). For this purpose, the self-position estimation unit 22 first detects that the moving body 2 has reached the vicinity of the sound source. Here, the neighborhood may satisfy a predetermined condition. The motion controller 24 then moves the mobile 2 to a number of different locations within the vicinity. Next, the microphone 50 or the microphone 51 collects the operation sound of the home appliance. Then, the home appliance estimation unit 21 estimates the home appliance attribute information and the position of the home appliance from the collected operating sound.

このように、移動体2を音源近傍へ移動させ、近傍で音を収集することによって、家電識別に用いる家電機器の動作音を品質よく集音することができる。さらに、品質よく家電機器の動作音を取得するため、動作制御部24が、例えば、移動体2の集塵部や駆動輪のモータを停止させることが望ましい。つまり、移動体2で発生する音を低減することが望ましい。 In this way, by moving the moving body 2 to the vicinity of the sound source and collecting the sound in the vicinity, it is possible to collect the operating sound of the home appliance used for home appliance identification with good quality. Furthermore, in order to acquire the operation sound of the home appliance with high quality, it is desirable that the operation control unit 24 stops the motors of the dust collection unit and the drive wheels of the moving body 2, for example. In other words, it is desirable to reduce the sound generated by the moving body 2 .

ここで、家電属性情報の推定の詳細について説明する。この推定を行うために、各種の家電機器の動作音を標準家電音として、その属性(種類)ごとに記憶部25などのデータベースに保存しておく。そして、家電推定部21は、保存した動作音と移動体2の家電計測部6で集音された動作音の周波数特徴を照合する。この結果、家電推定部21は、家電属性情報を判別する。例えば、家電機器が洗濯機の場合は洗い運転の際に1k~8kHzの広い周波数となり、脱水運転の際に40~50Hz範囲の周波数となる特徴がある。また、電子レンジは定常の約2kHzで運転する特徴がある。 Details of the estimation of home appliance attribute information will now be described. In order to perform this estimation, operation sounds of various home appliances are stored as standard home appliance sounds in a database such as the storage unit 25 for each attribute (type). Then, the home appliance estimation unit 21 collates the stored operation sound with the frequency characteristics of the operation sound collected by the home appliance measurement unit 6 of the moving object 2 . As a result, the home appliance estimation unit 21 determines the home appliance attribute information. For example, when the home appliance is a washing machine, the frequency is wide in the range of 1 kHz to 8 kHz during the washing operation, and the frequency is in the range of 40 to 50 Hz during the dehydration operation. Also, the microwave oven is characterized by operating at a constant frequency of about 2 kHz.

このため、家電推定部21は、家電計測部6で集音された動作音を、標準家電音と比較し、最小二乗法などの手法で二乗誤差の合計が最も小さかった標準家電音の家電属性情報を採用する。このように、各家電機器の特徴を用いて、家電を判別することができる。 For this reason, the home appliance estimation unit 21 compares the operation sound collected by the home appliance measurement unit 6 with the standard home appliance sound, and determines the home appliance attribute of the standard home appliance sound with the smallest total squared error by a method such as the least squares method. Adopt information. In this way, the home appliance can be identified using the characteristics of each home appliance.

また、保存する各種の家電機器の動作音(標準家電音)を学習データとして、CNN(Convolutional neural network)などのニューラルネットワークを訓練し、家電機器の動作音の特徴モデルを生成してもよい。そして、家電推定部21は、集音した動作音を特徴モデルに入力し、集音した動作音の特徴と一致する家電機器の属性を推定する方法を用いてもよい。 本処理においては、家電機器の属性によって、その動作音が異なるため、動作音の特徴を用いて家電機器を識別できる。本実施例では、家電属性情報を後述の間取り判定処理で用いる。それは、部屋の使い方によって、部屋に配置する家電機器が異なるためである。このため、各部屋に配置している家電機器を推定できれば、部屋の属性の判定、つまり、ラベル付与もできる。 Also, a neural network such as a CNN (Convolutional neural network) may be trained using stored operating sounds (standard household sounds) of various home appliances as learning data to generate feature models of operating sounds of home appliances. Then, the home appliance estimation unit 21 may use a method of inputting the collected operation sound into the feature model and estimating the attribute of the home appliance that matches the feature of the collected operation sound. In this process, since the operation sound differs depending on the attribute of the home appliance, the home appliance can be identified using the characteristics of the operation sound. In the present embodiment, home appliance attribute information is used in floor plan determination processing, which will be described later. This is because the home appliances to be placed in the room differ depending on how the room is used. For this reason, if it is possible to estimate the electrical appliances placed in each room, it is possible to determine the attribute of the room, that is, to assign a label.

次に、ステップS5における家電機器の位置の推定について説明する。家電機器、つまり、音源の位置推定は、家電推定部21が、自己位置推定部22で推定される移動体2の位置と、上記の(数1)および(数2)を用いて行う。この詳細を、図5を用いて、説明する。図5(a)に示すように、移動体2は、マイク50やマイク51を用いて、音源の近傍(図面の右側)で動作音を収音する。そして、家電推定部21が、集音された結果を、(数1)、(数2)に適用して、音源方位θ1を算出する。その後、動作制御部24が、移動体2を集音した場所とは異なる場所へ移動させる(図面の左側)。つまり、移動体2の中心点位置は、SP1からSP2になる。次に、自己位置推定部22によって、移動体2中心位置の移動量Lを算出する。また、マイク50やマイク51を用いて、移動先で再び動作音を収音する。そして、家電推定部21が、集音された結果を、(数1)、(数2)に適用して、音源方位θ2を算出する。 Next, estimation of the position of the home appliance in step S5 will be described. The position of the home appliance, that is, the sound source is estimated by the home appliance estimation unit 21 using the position of the moving body 2 estimated by the self-position estimation unit 22 and the above (Equation 1) and (Equation 2). Details of this will be described with reference to FIG. As shown in FIG. 5(a), the moving body 2 uses the microphone 50 and the microphone 51 to pick up the operation sound near the sound source (on the right side of the drawing). Then, the home appliance estimation unit 21 applies the collected sound result to (Equation 1) and (Equation 2) to calculate the sound source direction θ1. After that, the operation control unit 24 moves the moving body 2 to a place different from the place where the sound was collected (left side of the drawing). That is, the center point position of the moving body 2 changes from SP1 to SP2. Next, the movement amount L of the center position of the moving body 2 is calculated by the self-position estimation unit 22 . Also, the microphone 50 and the microphone 51 are used to pick up the operation sound again at the destination. Then, the home appliance estimation unit 21 applies the collected sound result to (Equation 1) and (Equation 2) to calculate the sound source direction θ2.

最後に、家電推定部21が、図5(b)に示すように、音源方位θ1と音源方位θ2、移動量Lを用いて正弦法則に基づき、音源Nが移動体2に対する相対位置を推定する。具体的には、移動前においては、音源Nと移動体2の中心位置SP1との距離L1を、以下の(数3)で算出できる。
L1=(L×sinθ2)/sin(π+θ1)・・・(数3)
移動後においては、音源Nと移動体2の中心位置SP2との距離L2は、(数4)で算出できる。
L2=(L×sin(π-θ1)) /sin(π+θ1)・・・(数4)
なお、音源、つまり、家電機器の位置の推定は、この方法に限定されない。例えば、家電推定部21は、動作音の位相差や音量差を用いて音源の位置を推定してもよい。以上で、ステップS5の説明を終わり、図3に示すフローチャートの説明を続ける。
Finally, as shown in FIG. 5B, the home appliance estimation unit 21 estimates the position of the sound source N relative to the moving object 2 based on the sine law using the sound source direction θ1, the sound source direction θ2, and the movement amount L. . Specifically, before the movement, the distance L1 between the sound source N and the center position SP1 of the moving body 2 can be calculated by the following (Equation 3).
L1=(L×sinθ2)/sin(π+θ1) (Equation 3)
After the movement, the distance L2 between the sound source N and the center position SP2 of the moving body 2 can be calculated by (Formula 4).
L2=(L×sin(π-θ1))/sin(π+θ1) (Formula 4)
Note that estimation of the position of the sound source, that is, the home appliance is not limited to this method. For example, the home appliance estimation unit 21 may estimate the position of the sound source using the phase difference or volume difference of the operation sound. This completes the description of step S5, and the description of the flowchart shown in FIG. 3 is continued.

次に、家電推定部21は、家電機器の宅内位置を推定する(ステップS6)。ここで、宅内位置とは、領域である宅内での相対位置、つまり、記憶部25の宅内地図の座標系での位置を示す。なお、ステップS5で直接宅内位置を推定してもよい。 Next, the home appliance estimation unit 21 estimates the indoor position of the home appliance (step S6). Here, the in-house position indicates the relative position in the in-house area, that is, the position in the coordinate system of the in-house map of the storage unit 25 . Note that the in-house position may be directly estimated in step S5.

以下、ステップS6の詳細について説明する。家電機器の宅内位置を推定する流れとしては、まず、自己位置推定部22が、宅内地図の座標系における移動体2の宅内での位置(座標)を推定する。その後、家電推定部21が、ステップS5で算出した音源と移動体2の位置関係で示される音源の位置を、座標変換によって、音源(家電機器)の位置を座標変換する。すなわち、家電推定部21が、家電機器の宅内位置が算出することができる。 The details of step S6 will be described below. As a flow for estimating the indoor position of the home appliance, first, the self-position estimation unit 22 estimates the indoor position (coordinates) of the moving body 2 in the coordinate system of the indoor map. After that, the home appliance estimating unit 21 coordinate-transforms the position of the sound source (home appliance) by coordinate transformation of the position of the sound source indicated by the positional relationship between the sound source and the moving body 2 calculated in step S5. That is, the home appliance estimation unit 21 can calculate the indoor position of the home appliance.

以上で、本実施例の家電属性情報と家電機器の位置の推定処理の説明を終わるが、本処理は上述の説明に限定されない。本実施例では、家電情報として、動作音を用いたが、家電機器のガイダンス音声といった他の音を用いてもよい。また、音以外にも画像、湿度、温度を用いてもよい。また、移動体2が近距離無線通信などを介して、家電機器から受信するその識別情報を用いてもよい。またさらに、複数の家電情報を組み合わせて利用してもよい。この詳細については、実施例3で後述する。 This completes the description of the process of estimating the home appliance attribute information and the position of the home appliance according to the present embodiment, but the present process is not limited to the above description. In this embodiment, the operation sound is used as the home appliance information, but other sounds such as the guidance voice of the home appliance may be used. Also, images, humidity, and temperature may be used in addition to sound. Alternatively, the identification information received by the moving body 2 from the home appliance via short-range wireless communication or the like may be used. Furthermore, a plurality of pieces of home appliance information may be combined and used. Details of this will be described later in a third embodiment.

さらに、物体として、家電機器以外の物体を用いてもよい。例えば、人や水道といった設備を用いてもよい。なお、家電情報については、後述する実施例2や3でも同様である。 Furthermore, objects other than home electric appliances may be used as objects. For example, equipment such as a person or a water supply may be used. Note that the home appliance information is the same in the second and third embodiments, which will be described later.

以上の処理によって、家電属性情報とその家電機器の位置を推定することができる。
<間取り認識処理>
次に、間取り認識処理について説明する。まず、間取り判定処理の概要を説明する。本判定処理では、間取り分析装置3で宅内地図を複数の単位領域に分割し、分割された複数の単位領域と家電機器の位置を対応付けて、各単位領域に設置された家電機器の家電属性情報に基づき、家電属性情報に対応したラベルを該当する単位領域に付与する。
By the above processing, the home appliance attribute information and the position of the home appliance can be estimated.
<Room layout recognition processing>
Next, the floor plan recognition processing will be described. First, an outline of the floor plan determination process will be described. In this determination process, the floor plan analysis device 3 divides the home map into a plurality of unit areas, associates the plurality of divided unit areas with the position of the home appliance, and determines the home appliance attribute of the home appliance installed in each unit area. Based on the information, a label corresponding to the home appliance attribute information is given to the corresponding unit area.

次に、間取り分析装置3での間取り認識処理の詳細を、図6の間取り認識処理を示すフローチャートを用いて説明する。 Next, the details of the floor plan recognition processing by the floor plan analyzer 3 will be described with reference to the flowchart of FIG. 6 showing the floor plan recognition processing.

まず、間取り分析装置3で部屋間取り認識処理を起動させると、本処理が開始される。そして、通信部9によって、移動体2の記憶部25やサーバ、ユーザデバイスから認識対象である領域の一例である宅内の宅内地図を取得する(ステップS10)。 First, when the room layout recognition process is activated by the floor plan analysis device 3, this process is started. Then, the communication unit 9 acquires a home map, which is an example of a recognition target area, from the storage unit 25 of the mobile object 2, the server, or the user device (step S10).

次に、地図処理部10が、宅内地図を取得できるか、記憶部25やサーバ、ユーザデバイスに宅内地図があるかを判定する(ステップS11)。宅内地図を取得できないと判定したならば(NO)、ステップS12に遷移する。そして、地図処理部10は、通信部9を介して、移動体2に宅内地図の作成指示を送信する(ステップS12)。この結果、移動体2によって宅内地図が作成される。 Next, the map processing unit 10 determines whether an in-house map can be acquired and whether there is an in-house map in the storage unit 25, server, or user device (step S11). If it is determined that the indoor map cannot be acquired (NO), the process proceeds to step S12. Then, the map processing unit 10 transmits an instruction to create a home map to the moving body 2 via the communication unit 9 (step S12). As a result, the moving body 2 creates an indoor map.

また、ステップS11で、宅内地図を取得できたと判定したならば(YES)、ステップS13に遷移する。 If it is determined in step S11 that the in-house map has been obtained (YES), the process proceeds to step S13.

次に、地図処理部10が、宅内地図を分割する(ステップS13)。このステップS13における宅内地図の分割処理について、以下、図7A~Dを参照して詳細に説明する。まず、本実施例で用いられる宅内について説明する。本実施例では、宅内地図として、図7Aに示す占有格子地図を用いる。この占有格子地図は、障害物の存在する確率が高いほど格子の値が大きく、障害物の存在する確率が低いほど格子の値が小さい。図7Aに示すように、壁30や物体31、物体32のところは障害物であるため、格子の値が大きく、障害物のない走行可能な単位領域33は格子の値が小さくなる。このため、図7Aでは、画像の各画素の色の濃さが占有格子地図の各格子の確率変数の値の大きさを表す。つまり、障害物がない格子が白で表し、障害物がある格子が黒で表す。ここで、図7A~Dにおいて、認識対象の家屋(宅内)が、単位領域38、単位領域39、単位領域40の三つの単位領域(部屋)で構成されていることを示している。 Next, the map processing unit 10 divides the indoor map (step S13). The in-house map division processing in step S13 will be described in detail below with reference to FIGS. 7A to 7D. First, the home used in this embodiment will be described. In this embodiment, the occupancy grid map shown in FIG. 7A is used as the indoor map. In this occupancy grid map, the higher the probability that an obstacle exists, the larger the grid value, and the lower the probability that an obstacle exists, the smaller the grid value. As shown in FIG. 7A, the wall 30, the object 31, and the object 32 are obstacles, so the grid value is large, and the grid value is small in the unit area 33 where there is no obstacle and the vehicle can travel. Therefore, in FIG. 7A, the color depth of each pixel of the image represents the magnitude of the value of the random variable of each grid of the occupancy grid map. That is, grids without obstacles are represented in white, and grids with obstructions are represented in black. Here, FIGS. 7A to 7D show that the house (house) to be recognized is composed of three unit areas (rooms) of unit area 38, unit area 39, and unit area 40. FIG.

以下、ステップS13の処理について、説明する。地図処理部10は、図7A)に示す占有格子地図に対して、二値化処理、収縮処理、四角形検出処理を行うことで、地図をいくつかの単位領域に分割する。通常、複数の単位領域に分割されるが、1つの単位領域となる場合もある。 The processing of step S13 will be described below. The map processing unit 10 divides the map into several unit areas by performing binarization processing, contraction processing, and quadrilateral detection processing on the occupation grid map shown in FIG. 7A). Although it is usually divided into a plurality of unit areas, it may become a single unit area.

まず、地図処理部10は、二値化処理により、画像の各画素における輝度値が閾値以上になる場合は、その画素の輝度値を1(白)、それ以下の場合、輝度値を0(黒)とする。地図処理部10は、図7Aに示す占有格子地図に対して、二値化処理を施した結果を図7Bに示す。図7Bにおいて、壁30、物体31、物体32に対応する34、35、36は輝度値が0になり、障害物のない単位領域33に対応する場所37は輝度値が1になる。二値化処理によって、画像の輝度値が0か1か(黒画素もしくは白画素)の2値になり、データ量が少なくなる。後述の画像処理が処理しやすくなる。 First, in the binarization process, the map processing unit 10 sets the luminance value of each pixel of the image to 1 (white) when the luminance value of each pixel in the image is equal to or greater than the threshold, and sets the luminance value to 0 (white) when the luminance value is less than the threshold. black). FIG. 7B shows the result of the binarization process performed by the map processing unit 10 on the occupation grid map shown in FIG. 7A. In FIG. 7B, luminance values of 34, 35, and 36 corresponding to wall 30, object 31, and object 32 are 0, and luminance value of location 37 corresponding to unit area 33 without obstacles is 1. In FIG. By the binarization process, the luminance value of the image becomes a binary value of 0 or 1 (black pixel or white pixel), thereby reducing the amount of data. This facilitates image processing, which will be described later.

次の収縮処理では、地図処理部10は、二値化画像である図7Bに対して(フィルタリング,2D convolutionに使われる)カーネルをスライドさせていきいく。つまり、本処理は、注目画素の4近傍または8近傍といった所定近傍に、黒画素が1画素でもあれば注目画素を黒画素に置き換える処理である。この収縮処理は、地図中の小さい障害物を削除することができる。この結果、図7Cに示すように物体35と物体36が消される。 In the next erosion process, the map processing unit 10 slides the kernel (used for filtering and 2D convolution) on the binarized image of FIG. 7B. In other words, this process is a process of replacing a pixel of interest with a black pixel if there is even one black pixel in a predetermined neighborhood such as 4 or 8 neighborhoods of the pixel of interest. This shrinking process can remove small obstacles in the map. As a result, objects 35 and 36 are erased as shown in FIG. 7C.

次の四角形検出処理では、地図処理部10は、二値化処理によって、図7C中の黒画素を、白画素に、白画素を黒画素に変換する。そして、地図処理部10は、Watershedアルゴリズムを用いて、図7Cをいくつかの単位領域に分割する。ここで、Watershedアルゴリズムは、画像領域の分割手法として広く用いられる。このアルゴリズムは、最初に地質学において 地質形態や外貌を叙述するために導入された。画像の画素の輝度値、その極小値、極大値はそれぞれ地形の海抜高度、谷底、峰に対応する。画像を地形とみなし、その谷底から水を注入し、形成される複数の水域の隣接部分を Watershed(分水嶺)と呼ばれる境界とする。具体的には、浸水を行い、水位以下の領域をマーカーと呼ぶ。そして水位が上昇すると、マーカーが拡大していき、マーカー同士が重なったとき、その位置を分水域として特定する。つまり、本実施例では、地図処理部10が、画素の輝度値の閾値を水位とし、閾値を上昇させながら、閾値以下の単位領域を追跡し、異なる単位領域同士が重なる境界を探索し、画像を分割する。その後、分割した後の領域中の四角形を抽出する。具体的に下記の条件で四角形を判定する。条件1:角の数が4つである。条件2:凸形状である。以上の処理をした結果、つまり、四角形検出処理が施された結果を図7Dに示す。図7Dでは、単位領域38~単位領域42が検出されたことを示す。 In the next quadrilateral detection process, the map processing unit 10 converts the black pixels in FIG. 7C into white pixels and the white pixels into black pixels by binarization processing. The map processing unit 10 then divides FIG. 7C into several unit areas using the Watershed algorithm. Here, the Watershed algorithm is widely used as an image area segmentation method. This algorithm was first introduced in geology to describe geological morphology and features. The luminance values of pixels in the image and their minimum and maximum values correspond to the altitude above sea level, valley bottom and peak, respectively. Considering the image as a terrain, water is injected from the bottom of the valley, and the adjoining parts of multiple bodies of water formed are boundaries called watersheds. Specifically, it is flooded, and the area below the water level is called a marker. Then, when the water level rises, the markers expand, and when the markers overlap each other, the position is specified as a watershed. In other words, in the present embodiment, the map processing unit 10 uses the threshold value of the pixel luminance value as the water level, and while increasing the threshold value, tracks the unit areas below the threshold value, searches for the boundary where different unit areas overlap, and obtains the image split the After that, the quadrilaterals in the divided area are extracted. Specifically, a quadrilateral is determined under the following conditions. Condition 1: The number of corners is four. Condition 2: A convex shape. FIG. 7D shows the result of the above processing, that is, the result of quadrangle detection processing. FIG. 7D shows that unit areas 38 to 42 have been detected.

その後、地図処理部10は、分割した各単位領域の面積を求め、面積が閾値(1m2)以上の単位領域を抽出し、番号を付与する。一般家庭の部屋の面積が1m2以上であることが多いため、本実施例においては、1m2以上の単位領域を部屋とみなす。よって、地図処理部10は、図7D中の単位領域38、単位領域39、単位領域40が1m2以上であるため、「1」、「2」のような番号を付与する。なお、1m2は閾値の一例であり、他の数値を用いてもよい。また、図7D中の単位領域41、単位領域42は面積が1 m2以下)であるため、番号を付与しない。 After that, the map processing section 10 obtains the area of each divided unit area, extracts the unit area whose area is equal to or larger than the threshold value (1 m 2 ), and assigns a number to it. Since the area of a room in a general household is often 1 m 2 or more, a unit area of 1 m 2 or more is regarded as a room in this embodiment. Therefore, the map processing unit 10 assigns numbers such as "1" and "2" to the unit areas 38, 39, and 40 in FIG. 7D because they are 1 m 2 or more. Note that 1 m 2 is an example of a threshold, and other numerical values may be used. Unit regions 41 and 42 in FIG. 7D are not numbered because their areas are 1 m 2 or less.

そして、地図処理部10は、図7Aに示す占有格子地図と四角形検出処理で番号を付与した単位領域38~40を、メモリに保存する。ここで、メモリは、間取り分析装置3に設けられる記憶部である。 Then, the map processing unit 10 stores in the memory the occupied grid map shown in FIG. 7A and the unit areas 38 to 40 numbered in the quadrilateral detection process. Here, the memory is a storage unit provided in the floor plan analysis device 3 .

なお、上記の地図分割処理は一例であり他の方法を用いてもよい。例えば、図7Aに示す占有格子地図と当該地図中の各単位領域の座標配列を教師データとしてニューラルネットワークを訓練し、四角形の特徴を識別できるモデルを作成してもよい。作成したモデルに新たな地図を入力し、モデルによって地図中の四角形単位領域を検出する。このような機械学習を用いて四角形を検出することで、地図の単位領域に分割してもよい。 Note that the above map division processing is an example, and other methods may be used. For example, a neural network may be trained using the occupancy grid map shown in FIG. 7A and the coordinate array of each unit area in the map as training data to create a model capable of identifying quadrilateral features. A new map is input to the created model, and the quadrangle unit area in the map is detected by the model. A map may be divided into unit areas by detecting rectangles using such machine learning.

以上でステップS13までの説明を終わり、図6に戻り、間取り認識処理の説明を続ける。ステップS13で宅内地図を分割すると、通信部9によって家電属性情報と該当の家電機器の宅内位置を取得する(ステップS14)。つまり、通信部9が、移動体2から、移動体2が図3に示すフローチャートで推定した家電属性情報と該当の家電機器の宅内位置を受け付ける。なお、ステップS13とステップS14は、連続して処理してもよいし、一旦ステップS13で処理を終了、中断し、別処理としてステップS14以降の処理を実行してもよい。 With this, the description up to step S13 is completed, and returning to FIG. 6, the description of the floor plan recognition processing is continued. After the home map is divided in step S13, the home appliance attribute information and the home position of the corresponding home appliance are acquired by the communication unit 9 (step S14). That is, the communication unit 9 receives from the mobile body 2 the home appliance attribute information estimated by the mobile body 2 according to the flowchart shown in FIG. Note that step S13 and step S14 may be processed continuously, or the process may be temporarily terminated or interrupted at step S13, and the process after step S14 may be executed as a separate process.

次に、間取り判定部11によって、分割した各単位領域及び各単位領域に配置される家電機器を対応付ける(ステップS15)。この対応付けに応じて、間取り判定部11は、図8に示す家電機器リスト80を作成することが望ましい。 Next, the floor plan determination unit 11 associates each of the divided unit areas and home electric appliances arranged in each unit area (step S15). It is desirable that the floor plan determination unit 11 creates a home appliance list 80 shown in FIG. 8 in accordance with this correspondence.

以下、図8に示す家電機器リスト80について説明し、その後、図8を用いてステップS15での家電機器リスト80の作成を説明する。 The electric home appliance list 80 shown in FIG. 8 will be described below, and then the preparation of the electric home appliance list 80 in step S15 will be explained using FIG.

まず、図8は、家電機器リスト80を示す図である。図8中の表の第一列は各単位領域を識別する単位領域No.である。図8において、この単位領域No.として図7D中の単位領域38を番号「1」とし、単位領域39を番号「2」としている。図8中の表の第二列は、各単位領域の範囲を示す単位領域範囲である。単位領域範囲は、宅内地図における座標配列で表す。本実施例においては、単位領域内の格子を1で表し、単位領域外の格子を0で表す。 First, FIG. 8 is a diagram showing a home appliance list 80. As shown in FIG. The first column of the table in FIG. 8 indicates the unit area number that identifies each unit area. is. In FIG. 8, this unit area No. , the unit area 38 in FIG. 7D is numbered "1", and the unit area 39 is numbered "2". The second column of the table in FIG. 8 is the unit area range indicating the range of each unit area. The unit area range is represented by a coordinate array on the indoor map. In this embodiment, the lattices within the unit area are represented by 1, and the lattices outside the unit area are represented by 0s.

以下、家電機器リスト80の作成について説明する。間取り判定部11は、各単位領域の座標配列と、各家電機器の位置と比較し、各単位領域に配置されている家電機器を抽出する。間取り判定部11は、抽出された家電機器を、図8中の表の第三列(単位領域内家電機器)に記入する。例えば、間取り判定部11は、レンジ、冷蔵庫、オーブンが単位領域「1」に配置されると判断された場合、単位領域「1」に対応する第三列(単位領域内家電機器)にレンジ、冷蔵庫、オーブンを記入する。そして、間取り判定部11は、このようにして作成された家電機器リスト80を、間取り分析装置3の記憶部に記憶する。 The creation of the home appliance list 80 will be described below. The floor plan determination unit 11 compares the coordinate array of each unit area with the position of each home appliance, and extracts home appliances arranged in each unit area. The floor plan determination unit 11 enters the extracted home appliances in the third column (household appliances in unit area) of the table in FIG. For example, when it is determined that a range, a refrigerator, and an oven are arranged in the unit area "1", the floor plan determination unit 11 assigns the range, Fill the refrigerator and oven. Then, the floor plan determination unit 11 stores the home appliance list 80 created in this manner in the storage unit of the floor plan analysis device 3 .

以上でステップS15の説明を終わり、図6に戻り、間取り判定処理の説明を続ける。間取り判定部11によって、部屋属性判定ルール90に従って各単位領域にラベルを付与する(ステップS16)。つまり、本ステップでは、間取り判定部11が、各単位領域に対して、その種類を示す属性を識別する。 This completes the description of step S15, returning to FIG. 6 to continue the description of the floor plan determination process. The floor plan determination unit 11 assigns a label to each unit area according to the room attribute determination rule 90 (step S16). That is, in this step, the floor plan determination unit 11 identifies an attribute indicating the type of each unit area.

ここで、図9に、部屋属性判定ルール90を示す。部屋属性判定ルール90は、領域属性判定ルールの一種であり間取り分析装置3の記憶部に記憶される。そして、部屋属性判定ルール90は、ラベルと家電機器の対応関係を示している。ここで、ラベルは、単位領域の属性の一種であり、単位領域である部屋の属性を示す。また、部屋属性判定ルール90の家電機器は、家電機器の種類である家電属性情報を示す。以下、その具体例を、図9を用いて説明する。図9に示す「キッチン」、「ランドリー」、「リビング」は、部屋属性を表すラベルである。また、レンジ、冷蔵庫~電気フライヤーが「キッチン」に対応する家電機器である。この部屋属性判定ルール90は、部屋属性および部屋属性に相関が基準よりも大きい家電機器で決定される。例えば、「キッチン」では、家電機器として、レンジ、冷蔵庫、オーブン、食洗機、炊飯器、コーヒーメーカー、電気フライヤーが存在する可能性が高く、「キッチン」に相関が大きい。よって、上記の各種の家電機器は「キッチン」というラベルに対応する。他のラベルも同様に決定する。 Here, FIG. 9 shows a room attribute determination rule 90. As shown in FIG. The room attribute determination rule 90 is a type of area attribute determination rule and is stored in the storage unit of the floor plan analyzer 3 . The room attribute determination rule 90 indicates the correspondence relationship between labels and electrical appliances. Here, the label is a kind of attribute of the unit area and indicates the attribute of the room that is the unit area. Also, the home appliance in the room attribute determination rule 90 indicates home appliance attribute information, which is the type of home appliance. A specific example thereof will be described below with reference to FIG. "Kitchen", "laundry", and "living room" shown in FIG. 9 are labels representing room attributes. In addition, microwave ovens, refrigerators, and electric fryers are home appliances that correspond to "kitchens." This room attribute determination rule 90 is determined for a room attribute and a home electric appliance having a larger correlation than a reference for the room attribute. For example, in "kitchen", there is a high possibility that electric appliances such as a range, refrigerator, oven, dishwasher, rice cooker, coffee maker, and electric fryer are present, and the correlation is high with "kitchen". Thus, the above various household appliances correspond to the label "kitchen". Other labels are determined similarly.

そして、ステップS16において、間取り判定部11は、部屋属性判定ルール90と、家電機器リスト80を照合し、家電機器リスト80の単位領域No.の示す各単位領域に該当するラベルを付与する。例えば、家電機器リスト80中の単位領域「1」はレンジ、冷蔵庫、オーブンがある。また、部屋属性判定ルール90の「キッチン」に対応する家電と一致するため、間取り判定部11は単位領域「1」に「キッチン」との部屋属性を付与する。 Then, in step S16, the floor plan determination unit 11 collates the room attribute determination rule 90 with the home appliance list 80, and determines the unit area No. of the home appliance list 80. A corresponding label is given to each unit area indicated by . For example, the unit area "1" in the home appliance list 80 includes a range, a refrigerator, and an oven. Also, since it matches the home appliance corresponding to "kitchen" in the room attribute determination rule 90, the floor plan determination unit 11 assigns the room attribute "kitchen" to the unit area "1".

ここで、各単位領域内において、家電機器リスト80と部屋属性判定ルール90とを照合してもー完全一致しない場合もある。その場合は、一致する家電機器の数の最も多いラベルを該単位領域に付与する。例えば、図8中の単位領域「1」にレンジ、冷蔵庫、オープン以外に洗濯機も入っている場合がある。この四つの家電の中に、図9の部屋属性判定ルール中の「キッチン」に対応する家電は、レンジ、冷蔵庫、オープンの3つである。部屋属性判定ルール90中の「ランドリー」に対応する家電は洗濯機の1つである。「キッチン」と一致する家電の数は、「ランドリー」と一致する家電の数より多いため、「キッチン」を該単位領域のラベルとして付与する。このように、本実施例では、属性判定ルールの一種である部屋属性判定ルール90を用いて、物体属性情報で示される物体である家電機器の数に応じて単位領域の属性の一種であるラベルを特定できる。以上の処理によって、宅内の各単位領域の部屋属性を決定することができる。またさらに、部屋属性判定ルール90の「家電機器」に「必須」を設けてもよい。つまり、必須として記載された家電機器が推定された場合、該当するラベルを付与することになる。 Here, even if the electrical appliance list 80 and the room attribute determination rule 90 are collated in each unit area, they may not completely match each other. In that case, the label with the largest number of matching electrical appliances is assigned to the unit area. For example, unit area "1" in FIG. 8 may contain a washing machine in addition to a range, a refrigerator, and an open space. Among these four home appliances, the three home appliances corresponding to "kitchen" in the room attribute determination rule of FIG. 9 are the range, refrigerator, and open. A home appliance corresponding to "laundry" in the room attribute determination rule 90 is a washing machine. Since the number of home appliances that match "kitchen" is greater than the number of home appliances that match "laundry", "kitchen" is assigned as a label for the unit area. As described above, in this embodiment, using the room attribute determination rule 90, which is a type of attribute determination rule, a label, which is a type of attribute of a unit area, is determined according to the number of home electric appliances, which are objects indicated by the object attribute information. can be identified. Through the above processing, the room attribute of each unit area in the house can be determined. Furthermore, the "household appliance" of the room attribute determination rule 90 may be provided with "essential". In other words, when a home appliance described as essential is presumed, a corresponding label is given.

また、生活シーンに応じて、間取りを変更したい場合や、間違って間取りを識別してしまう場合がある。本実施例では、ユーザによって間取りを修正する手段も提供する。例えば、間取り分析装置3は、マイク50やマイク51の他、間取り分析装置3に接続するマイクにより、ユーザの音声での間取り修正指示を受け付け、そのラベルを変更する。この場合は、「寝室を子供部屋に変更して」のような情報を、上述のマイクを通じて、間取り分析装置3の通信部9に送信し、間取り分析装置3によってラベルを変更する。また、ユーザによって宅内の地図上で間取りのラベルを変更してもよい。例えば、宅内地図と間取り情報をスマートフォン、タブレットなどの出力デバイスに送信し、出力デバイス上でユーザによって、ラベルの変更を行ってもよい。さらに、間取り分析装置3や移動体2の入力デバイスで音声以外の修正指示を受け付けてもよい。 In addition, there are cases where the user wants to change the floor plan or the floor plan is erroneously identified depending on the life scene. This embodiment also provides a means for the user to modify the floor plan. For example, the floor plan analysis device 3 accepts a user's vocal floor plan correction instruction using a microphone connected to the floor plan analysis device 3, in addition to the microphones 50 and 51, and changes the label. In this case, information such as "change the bedroom to a child's room" is transmitted to the communication unit 9 of the floor plan analyzer 3 through the above-described microphone, and the floor plan analyzer 3 changes the label. Also, the user may change the label of the floor plan on the map of the house. For example, the indoor map and floor plan information may be transmitted to an output device such as a smart phone or tablet, and the label may be changed by the user on the output device. Furthermore, the floor plan analysis device 3 or the input device of the moving body 2 may receive correction instructions other than voice.

この場合、家電推定部21が、移動体2に備え付けられた家電計測部6から得られた入力信号から、家電属性情報とその位置を判断する。そして、地図処理部10で宅内地図を複数の単位領域に分割し、複数の単位領域と家電機器の位置を対応付けて、前記単位領域に設置された家電機器の家電属性情報に基づき、家電属性情報に対応したラベルを前記単位領域に付与することで、単位領域を部屋として識別できる。また、家電情報を用いて、各単位領域の間取りを識別することによって、生活シーンに適用する間取り情報を取得することができる。以上で、実施例1の説明を終了する。 In this case, the home appliance estimation unit 21 determines the home appliance attribute information and its position from the input signal obtained from the home appliance measurement unit 6 provided on the moving body 2 . Then, the map processing unit 10 divides the indoor map into a plurality of unit areas, associates the plurality of unit areas with the positions of the home appliances, and calculates the home appliance attributes based on the home appliance attribute information of the home appliances installed in the unit areas. By assigning a label corresponding to information to the unit area, the unit area can be identified as a room. Further, by identifying the floor plan of each unit area using the home appliance information, it is possible to acquire the floor plan information that is applied to the life scene. This completes the description of the first embodiment.

次に、実施例2について説明する。実施例1では、家電情報に基づく家電属性情報を用いて、領域の認識、つまり、間取り判定処理を行っている。これに対して、実施例2では、家電属性情報および家財属性情報を含む設備機器属性情報を、物体属性情報として用いて、間取り判定処理を行う。この家財属性情報は、障害物分析装置、イメージセンサ、におい計測装置、湿度計測装置などで取得可能である。つまり、マイク50やマイク51以外にこれらの装置を用いることになる。そして、家電属性情報と家族属性情報を組み合わせることによって、間取り認識の精度を向上することができる。実施例2では、家電計測部6以外の部屋属性情報を取得可能な装置を用いて間取り認識を実現可能とする技術について説明する。 Next, Example 2 will be described. In the first embodiment, region recognition, that is, room layout determination processing is performed using home appliance attribute information based on home appliance information. On the other hand, in the second embodiment, the facility equipment attribute information including the home appliance attribute information and household goods attribute information is used as the object attribute information to perform the floor plan determination process. This household property attribute information can be acquired by an obstacle analysis device, an image sensor, an odor measurement device, a humidity measurement device, or the like. In other words, these devices are used in addition to the microphones 50 and 51. FIG. By combining the home appliance attribute information and the family attribute information, the accuracy of floor plan recognition can be improved. In a second embodiment, a technique for realizing floor plan recognition using a device capable of acquiring room attribute information other than the home appliance measurement unit 6 will be described.

図10は、本実施例の間取り認識システムの概略構造図である。図10に示すように、実施例1の間取り認識システムに、家財属性情報取得部60を追加した。以下、この家財属性情報取得部60について述べる。家財属性情報取得部60は、宅内の障害物を分析可能な分析装置や、家具、宅内構造などの設備機器を取得可能なイメージセンサ、宅内のにおいや湿度を取得可能なにおい計測装置や湿度計測で実現できる。例えば、家財属性情報取得部60は、障害物分析装置を用い、宅内の障害物のサイズや分布、形状を分析する。このことで、障害物を識別することができる。図11に、識別された宅内の障害物を含む占有格子地図を示す。なお、この占有格子地図は、地図作成部23によって作成される。図11の点線枠内に示すように、16個の分散している小さい障害物(図11の枠内の黒点)を存在する。本例での各障害物のサイズは約3cm~5cmである。一般的なダイニングセットは、テーブル、いすの足の長径が3cm~5cmであり、テーブル、いすも近い範囲内に分散する。この特徴は、図11の点線枠内に示す16個の分散している小さい障害物(図11の枠内の黒点)の特徴と一致する。 FIG. 10 is a schematic structural diagram of the floor plan recognition system of this embodiment. As shown in FIG. 10, a furniture attribute information acquisition unit 60 is added to the floor plan recognition system of the first embodiment. The household property information acquisition unit 60 will be described below. The household property information acquisition unit 60 includes an analysis device that can analyze obstacles in the house, an image sensor that can acquire equipment such as furniture and indoor structures, an odor measurement device that can acquire the smell and humidity in the house, and a humidity measurement device. can be realized by For example, the household property information acquisition unit 60 uses an obstacle analysis device to analyze the size, distribution, and shape of obstacles in the home. This makes it possible to identify obstacles. FIG. 11 shows an occupancy grid map with identified indoor obstacles. This occupation grid map is created by the map creating section 23 . As shown within the dashed frame in FIG. 11, there are 16 scattered small obstacles (black dots within the frame in FIG. 11). The size of each obstacle in this example is approximately 3 cm to 5 cm. In a general dining set, the long diameter of the legs of the table and chairs is 3 cm to 5 cm, and the tables and chairs are also distributed within a close range. This feature is consistent with the features of the 16 scattered small obstacles shown in the dotted box in FIG. 11 (black dots in the box in FIG. 11).

よって、障害物分析装置を用いて、家電推定部21が、宅内の障害物の分布、寸法を分析し、ダイニングセット、ベッドなどのような家具を判別することができる。例えば、家財属性情報取得部60としてイメージセンサを用いた場合、移動体2走行中に、家財属性情報取得部60は、環境中の物体を計測する。そして、家電推定部21が、計測した画像からソファー、いす、テーブルやドアなどな家具や宅内の設備機器を識別することができる。なお、家財属性情報取得部60は、家電計測部6と一体で物体計測部として構成してもよい。この場合、家電属性情報や家財属性情報を、設備機器属性情報として扱うこともできる。 Therefore, by using the obstacle analysis device, the home appliance estimation unit 21 can analyze the distribution and dimensions of obstacles in the home, and determine furniture such as a dining set and a bed. For example, when an image sensor is used as the household property information acquiring unit 60, the household property information acquiring unit 60 measures objects in the environment while the moving body 2 is running. Then, the home appliance estimation unit 21 can identify furniture such as a sofa, a chair, a table, a door, and equipment in the house from the measured image. The household property information acquisition unit 60 may be integrated with the home appliance measurement unit 6 as an object measurement unit. In this case, home appliance attribute information and household property attribute information can also be treated as equipment attribute information.

次に、本実施例における家電属性情報、家財属性情報と、家電機器、家財の位置の推定処理(以下、単に推定処理)と、間取り認識処理について、図12および図13を用いて説明する。以下、本実施例の処理の概要を説明し、次に、フローチャートに従って、各ステップの処理について説明する。 Next, home appliance attribute information, household goods attribute information, home appliance and household goods position estimation processing (hereinafter, simply estimation processing), and room layout recognition processing in this embodiment will be described with reference to FIGS. 12 and 13. FIG. The outline of the processing of this embodiment will be described below, and then the processing of each step will be described according to the flowchart.

まず、本実施例の処理の概要を説明する。推定処理では、移動体2に備え付けられた家電計測部6、家財属性情報取得部60から得られた入力信号(環境情報)から、家電機器や家具などの家財を含む設備機器とその位置を推定する。この推定処理では、間取り分析装置3で、宅内地図を複数の単位領域に分割し、分割された複数の単位領域と設備機器の位置を対応付け、この対応関係に基づき、家電属性情報および設備属性情報に対応したラベルを各単位領域に付与する。以下、推定処理および間取り認識処理のその詳細を説明する。
<推定処理>
図12は、本実施例に係る家電属性情報、家財属性情報と、家電機器、家財の位置の推定処理を示すフローチャートである。本フローチャートは、図3と比較して、ステップS20が追加されたことが異なる。このため、以下、図3との相違を中心に説明する。
First, an overview of the processing of this embodiment will be described. In the estimation process, from the input signals (environmental information) obtained from the home appliance measurement unit 6 and the household property information acquisition unit 60 installed in the moving body 2, equipment including household goods such as home appliances and furniture and their positions are estimated. do. In this estimation process, the floor plan analysis device 3 divides the home map into a plurality of unit areas, associates the plurality of divided unit areas with the positions of the equipment, and based on this correspondence relationship, determines the home appliance attribute information and the facility attributes. A label corresponding to information is assigned to each unit area. The details of the estimation process and the floor plan recognition process will be described below.
<Estimation processing>
FIG. 12 is a flow chart showing processing for estimating home appliance attribute information, household goods attribute information, and positions of home appliances and household goods according to the present embodiment. This flowchart differs from FIG. 3 in that step S20 is added. Therefore, the difference from FIG. 3 will be mainly described below.

ステップS1~S4は、図3と同じ処理を行う。次に、移動体2の移動中に、家財属性情報取得部60によって、家具や、ドアなどの宅内の家財を識別し、位置を判定する(ステップS20)。例えば、環境計測センサ18によってダイニングセットやベッドなどの障害物(家財)を検出し、識別することができる。また、イメージセンサから取得した画像を画像処理で画像中の物体を識別し、三角測量で物体の位置を推定することができる。また、家財属性情報取得部60による家財属性情報の取得は、例えば、規定の時間に移動体2を宅内に走行させ、家財属性情報を取得してもよい。移動体2は作業を行う際に家財属性情報を取得してもよい。例えば、移動体2は、ロボット掃除機の場合は、掃除中に家財属性情報を取得する。さらに、家財属性情報や家財の位置については、ステップS5およびステップS6での家電属性情報の推定と同じように実行してもよい。この場合、家財属性情報と家電属性情報を併せて設備機器属性情報として取得してもよい。また、家財の位置と家電機器の位置も設備機器の位置として推定してもよい。 Steps S1 to S4 perform the same processing as in FIG. Next, while the moving body 2 is moving, the household goods attribute information acquisition unit 60 identifies furniture, doors, and other household goods in the house and determines their positions (step S20). For example, the environmental measurement sensor 18 can detect and identify obstacles (household goods) such as dining sets and beds. Also, an image acquired from an image sensor can be processed to identify an object in the image, and the position of the object can be estimated by triangulation. In addition, the acquisition of the household property attribute information by the household property information acquisition unit 60 may be performed by, for example, driving the moving body 2 into the house at a specified time to acquire the household property attribute information. The moving body 2 may acquire household property attribute information when performing work. For example, in the case of a robot cleaner, the moving object 2 acquires property attribute information during cleaning. Furthermore, the household property attribute information and the position of the household property may be estimated in the same manner as the estimation of the home appliance attribute information in steps S5 and S6. In this case, household property attribute information and household appliance attribute information may be acquired together as equipment attribute information. In addition, the position of the household goods and the position of the home appliance may also be estimated as the position of the equipment.

以上でステップS20の説明を終わる。そして、以降、図3と同様のステップS5およびステップS6を実行する。以上の処理によって、宅内の物体の一種である設備機器の属性とその位置を推定することができる。
<間取り判定処理>
図13は、実施例2に係る間取り判定処理を示すフローチャートである。本フローチャートは、図6と比較して、ステップS30が追加され、ステップS15が変更されたが異なる。このため、以下、図6との相違を中心に説明する。
This completes the description of step S20. Thereafter, steps S5 and S6 similar to those in FIG. 3 are executed. By the above processing, the attribute and the position of equipment, which is a type of indoor object, can be estimated.
<Floor plan determination processing>
FIG. 13 is a flowchart illustrating floor plan determination processing according to the second embodiment. This flowchart differs from FIG. 6 in that step S30 is added and step S15 is changed. Therefore, the difference from FIG. 6 will be mainly described below.

ステップS10~S14は、図4と同じ処理を行う。次に、通信部9によって、家財属性情報取得部60から家財属性情報を取得する(ステップS35)。 Steps S10 to S14 perform the same processing as in FIG. Next, the communication unit 9 acquires property attribute information from the property property information acquisition unit 60 (step S35).

次に、間取り判定部11によって、分割した各単位領域及び各単位領域に配置される家電機器および家財を含む設備機器を対応付ける(ステップS15’)。この対応付けに応じて、間取り判定部11は、図14に示す設備機器リスト140を作成することが望ましい。なお、ステップS15’は、ステップS15と比較して、家財の存在も考慮している点で異なる。 Next, the floor plan determining unit 11 associates each of the divided unit areas and equipment including household appliances and household goods arranged in each unit area (step S15'). It is desirable that the floor plan determination unit 11 creates an equipment list 140 shown in FIG. 14 in accordance with this correspondence. Note that step S15' differs from step S15 in that the presence of household goods is also taken into account.

以下、図14に示す設備機器リスト140について説明する。図14は、設備機器リスト140を示す図である。設備機器リスト140は、家電機器リスト80と略同一の構成を有する。その第三列が、家電機器リスト80の「単位領域の家電機器」から「単位領域内の設備機器」に変更されている。つまり、設備機器リスト140は、家電機器に加え、家財も含む機器設備について記録されている。具体的には、図14に示すように、家電機器以外に家具、ドア、宅内の構造などの家財を含む設備機器が記録されるまた、設備機器リスト140は、家電機器リスト80と同様に間取り分析装置3の記憶部に記憶される。 The equipment list 140 shown in FIG. 14 will be described below. FIG. 14 is a diagram showing the equipment list 140. As shown in FIG. The equipment list 140 has substantially the same configuration as the home appliance list 80 . The third column of the home appliance list 80 is changed from "household appliance in unit area" to "equipment in unit area". In other words, the equipment list 140 records equipment including household goods in addition to household appliances. Specifically, as shown in FIG. 14, in addition to home appliances, equipment including household goods such as furniture, doors, and house structures is recorded. It is stored in the storage unit of the analysis device 3 .

その後、間取り判定部11によって、部屋属性判定ルール91に従って各単位領域にラベルを付与する(ステップS16)。なお、ステップS16は、図6と同様の処理を行うが、用いる部屋属性判定ルールが異なっている。このため、以下、本実施例でのちいられる部屋属性判定ルール91について説明する。 Thereafter, the floor plan determination unit 11 assigns a label to each unit area according to the room attribute determination rule 91 (step S16). Although step S16 performs the same processing as in FIG. 6, the room attribute determination rule used is different. Therefore, the room attribute determination rule 91 used in this embodiment will be described below.

図15は、部屋属性判定ルール91を示す図である。部屋属性判定ルール91は、部屋属性判定ルール90と略同一の構成を有する。その第二列が、部屋属性判定ルール90の「家電機器」から「設備機器」に変更されている。つまり、部屋属性を判定するために、家財も考慮できるようになっている。具体的には、図15に示すように、家電機器以外に家具、ドア、宅内の構造などの家電を含む設備機器も第二列に記録されている。なお、部屋属性判定ルール91も間取り分析装置3の記憶部に記憶される。 FIG. 15 is a diagram showing the room attribute determination rule 91. As shown in FIG. The room attribute determination rule 91 has substantially the same configuration as the room attribute determination rule 90 . In the second column, the room attribute determination rule 90 is changed from "household appliances" to "facility equipment". In other words, household effects can also be taken into account in order to determine room attributes. Specifically, as shown in FIG. 15, in addition to home appliances, facility equipment including home appliances such as furniture, doors, and indoor structures are also recorded in the second column. Note that the room attribute determination rule 91 is also stored in the storage unit of the floor plan analysis device 3 .

以上の処理によって、宅内の各単位領域について、家財も考慮して部屋属性を判定することができる。また、生活シーンに応じて、間取りを変更したい場合や、間違って間取りを識別してしまう場合がある。本実施例では、ユーザによって間取りを修正する手段も提供できる。間取り分析装置3は、例えば、マイク50やマイク51の他、間取り分析装置3に接続するマイクにより、ユーザの音声での間取り修正指示を受け付け、そのラベルを変更してもよい。また、間取り分析装置3は、ユーザによる宅内地図上での修正指示を受け付け、間取りのラベルを変更してもよい。 With the above processing, it is possible to determine the room attribute for each unit area in the house, taking household goods into consideration. In addition, there are cases where the user wants to change the floor plan or the floor plan is erroneously identified depending on the life scene. This embodiment can also provide a means for the user to modify the floor plan. The floor plan analysis device 3 may receive a user's vocal floor plan correction instruction using, for example, a microphone connected to the floor plan analysis device 3 in addition to the microphones 50 and 51, and change the label. In addition, the floor plan analysis device 3 may accept a user's correction instruction on the home map and change the label of the floor plan.

さらに、各単位領域内の家電リストと部屋属性判定ルールとを照合し、部屋属性判定ルールに完全一致しない場合もある。この場合は、実施例1と同様に、一致する物体の数の最も多いラベルを該単位領域に付与することが望ましい。またさらに、部屋属性判定ルール91の「設備機器」に「必須」を設けてもよい。つまり、必須として記載された設備機器が推定された場合、該当するラベルを付与することになる。 Furthermore, the home appliance list in each unit area is collated with the room attribute determination rule, and there are cases where it does not completely match the room attribute determination rule. In this case, as in the first embodiment, it is desirable to assign the label with the largest number of matching objects to the unit area. Furthermore, the "equipment" of the room attribute determination rule 91 may be set to "essential". In other words, when equipment described as essential is presumed, a corresponding label is given.

以上の実施例2により、移動体2に備え付けられた家電計測部6や家財属性情報取得部60から得られた入力信号(環境情報)から、家電機器や家財などの設備機器とその位置を判断する。そして、地図処理部10で宅内地図を複数の単位領域に分割し、分割された複数の単位領域と設備機器の位置および設備機器の位置を対応付けて、前記単位領域に設置された設備機器の機器属性情報と位置とに基づき、設備属性情報に対応したラベルを各単位領域に付与することができる。また、生活者の生活に適用することができるうえ、複数種類の情報を融合することによって、間取り認識の精度を向上することもできる。
<推定処理の変形例>
次に、本実施例2における物体属性情報の推定処理の変形例について説明する。本変形例においては、ある環境情報で物体属性情報が推定できない場合、他の環境情報を用いる。本変形例では、複数の環境情報を用いることが必要であるため、本実施例でも実施例2と同様の構成を用いる。
According to the second embodiment described above, from the input signal (environmental information) obtained from the home appliance measurement unit 6 and the household property information acquisition unit 60 installed in the moving body 2, equipment such as home appliances and household goods and their positions are determined. do. Then, the map processing unit 10 divides the indoor map into a plurality of unit areas, associates the plurality of divided unit areas with the positions of the equipment and the positions of the equipment, and determines the location of the equipment installed in the unit areas. A label corresponding to the equipment attribute information can be assigned to each unit area based on the equipment attribute information and the position. In addition, it can be applied to people's lives, and by fusing multiple types of information, it is possible to improve the accuracy of floor plan recognition.
<Modified example of estimation processing>
Next, a modification of the object attribute information estimation process according to the second embodiment will be described. In this modified example, when object attribute information cannot be estimated from certain environmental information, other environmental information is used. In this modified example, since it is necessary to use a plurality of pieces of environment information, the same configuration as in the second example is also used in this example.

以下、本変形例における物体属性情報の推定処理について、説明する。なお、本変形例でも、ステップS1~S4やステップS6は同じ処理となる。このため、ここでは、ステップS5、S20に相当する処理について説明する。また、間取り判定処理は、実施例1や2と同様であるため、その説明は省略する。 The estimation processing of the object attribute information in this modified example will be described below. Also in this modified example, steps S1 to S4 and step S6 are the same processing. Therefore, processing corresponding to steps S5 and S20 will be described here. Also, since the floor plan determination process is the same as that in the first and second embodiments, the description thereof will be omitted.

図16は、本実施例に係る物体属性情報を示すフローチャートである。なお、物体の位置の推定は、実施例1や2と同じである。 FIG. 16 is a flowchart showing object attribute information according to this embodiment. Note that the estimation of the position of the object is the same as in the first and second embodiments.

まず、家電推定部21が、家電計測部6や家財属性情報取得部60で取得した環境情報で物体属性情報を推定できるかを判定する(ステップS101)。この結果、推定できた場合(YES)、ステップS6に遷移する。推定できない場合(NO)、ステップS102に遷移する。 First, the home appliance estimation unit 21 determines whether object attribute information can be estimated from the environment information acquired by the home appliance measurement unit 6 and the household property information acquisition unit 60 (step S101). As a result, if it can be estimated (YES), the process proceeds to step S6. When it cannot estimate (NO), it changes to step S102.

次に、家電推定部21は、ステップS1で環境情報を取得した部位以外を起動する。例えば、ステップS1で家電計測部6が音を検知していた場合、家財属性情報取得部60を起動して音以外の環境情報を取得させる。つまり、ステップS1で取得した環境情報と別種類の環境情報を取得できるようにする。このため、1つの部位で複数種類の環境情報を取得できる場合、同じ部位の別機能を起動させることになる。 Next, the home appliance estimation unit 21 activates parts other than the part from which the environment information was acquired in step S1. For example, if the home appliance measurement unit 6 detects sound in step S1, the household property information acquisition unit 60 is activated to acquire environmental information other than sound. In other words, environment information of a different type from the environment information acquired in step S1 can be acquired. Therefore, when a plurality of types of environment information can be acquired by one part, another function of the same part is activated.

次に、ステップS102で起動された部位により、他の環境情報を取得し、ステップS101に戻る。このように処理することで、1つの物体属性情報が推定できない場合も対応できるようになる。 Next, other environmental information is obtained from the part activated in step S102, and the process returns to step S101. By processing in this way, it is possible to cope with the case where one piece of object attribute information cannot be estimated.

以上で、各実施例の説明を終了するが、本発明はこれらに限定されず、様々な変形例や応用例に適用できる。 Although the description of each embodiment is finished above, the present invention is not limited to these, and can be applied to various modifications and applications.

1 間取り認識システム
2 移動体
3 間取り分析装置
6 家電計測部
7 移動体制御部
21 家電推定部
22 自己位置推定部
23 地図作成部
24 動作制御部
25 記憶部
10 地図処理部
11 間取り判定部
50、51 マイク
60 家財属性情報取得部
1 floor plan recognition system 2 moving body 3 floor plan analysis device 6 home appliance measurement unit 7 mobile body control unit 21 home appliance estimation unit 22 self-position estimation unit 23 map creation unit 24 operation control unit 25 storage unit 10 map processing unit 11 floor plan determination unit 50, 51 Microphone 60 Household property attribute information acquisition unit

Claims (15)

複数の単位領域で構成される領域を認識する領域認識システムにおいて、
前記領域に存在する物体の環境情報を取得する物体計測部と、
計測された前記環境情報を用いて、物体の属性を示す物体属性情報および位置を推定する物体推定部と、
前記領域を、複数の部分単位領域に分割する領域処理部と、
推定された前記物体の位置を用いて、当該物体が存在する単位領域を推定し、前記物体属性情報を用いて、推定された単位領域の属性を識別する属性識別部を有する領域認識システム。
In an area recognition system that recognizes an area composed of a plurality of unit areas,
an object measurement unit that acquires environmental information of an object existing in the area;
an object estimation unit for estimating object attribute information indicating an attribute of an object and a position using the measured environment information;
a region processing unit that divides the region into a plurality of partial unit regions;
An area recognition system having an attribute identification section that uses the estimated position of the object to estimate a unit area in which the object exists, and uses the object attribute information to identify attributes of the estimated unit area.
請求項1に記載の領域認識システムにおいて、
前記物体は、家電機器である領域認識システム。
In the area recognition system according to claim 1,
The area recognition system, wherein the object is a home appliance.
請求項2に記載の領域認識システムにおいて、
前記物体計測部は、前記環境情報として、前記家電機器で生じる音を計測して、当該家電機器の音情報を取得し、
前記物体推定部は、前記音情報を用いて、前記物体属性情報として、前記家電機器の属性を推定する領域認識システム。
In the area recognition system according to claim 2,
The object measurement unit measures the sound generated by the home appliance as the environmental information to acquire sound information of the home appliance,
The area recognition system, wherein the object estimation unit estimates an attribute of the home appliance as the object attribute information using the sound information.
請求項3に記載の領域認識システムにおいて、
さらに、前記物体計測部と、自身を移動する駆動部を備えた移動体を有し、
前記駆動部は、前記家電機器で生じる音の音源の方向へ、前記移動体を移動し、
前記物体計測部は、前記移動体の移動先で、前記家電機器で生じる音を計測する領域認識システム。
In the area recognition system according to claim 3,
further comprising a moving body including the object measuring unit and a driving unit that moves itself,
The drive unit moves the moving body in a direction of a sound source of sound generated by the home appliance,
The object measurement unit is a region recognition system that measures the sound generated by the home appliance at the destination of the moving object.
請求項1乃至4の何れかに記載の領域認識システムにおいて、
さらに、予め前記単位領域の属性と、前記物体属性情報で示される物体の対応関係を示す領域属性判定ルールを記憶する記憶部を有し、
前記属性識別部は、前記領域属性判定ルールを用いて、前記物体属性情報で示される物体の数に応じて、前記単位領域の属性を識別する領域認識システム。
In the area recognition system according to any one of claims 1 to 4,
a storage unit that stores in advance an area attribute determination rule indicating a correspondence relationship between the attribute of the unit area and the object indicated by the object attribute information;
The area recognition system, wherein the attribute identifying section identifies the attribute of the unit area according to the number of objects indicated by the object attribute information using the area attribute determination rule.
複数の単位領域で構成される領域を認識するための移動体において、
前記領域に存在する物体の環境情報を取得する物体計測部と、
計測された前記環境情報を用いて、物体の属性を示す物体属性情報および位置を推定する物体推定部と、
前記物体属性情報および位置を出力する通信部を有し、
領域認識装置において、前記領域を、複数の部分単位領域に分割し、推定された前記物体の位置を用いて、当該物体が存在する単位領域を推定し、前記物体属性情報を用いて、推定された単位領域の属性を識別することを可能とする移動体。
In a moving object for recognizing an area composed of a plurality of unit areas,
an object measurement unit that acquires environmental information of an object existing in the area;
an object estimation unit for estimating object attribute information indicating an attribute of an object and a position using the measured environment information;
Having a communication unit that outputs the object attribute information and the position,
The region recognition device divides the region into a plurality of partial unit regions, estimates a unit region in which the object exists using the estimated position of the object, and uses the object attribute information to determine the estimated unit region. A moving body that enables identification of the attributes of a unit area.
請求項6に記載の移動体において、
前記物体は、家電機器である移動体。
In the mobile body according to claim 6,
The object is a moving body that is a home appliance.
請求項7に記載の移動体において、
前記物体計測部は、前記環境情報として、前記家電機器で生じる音を計測して、当該家電機器の音情報を取得し、
前記物体推定部は、前記音情報を用いて、前記物体属性情報として、前記家電機器の属性を推定する移動体。
In the mobile body according to claim 7,
The object measurement unit measures the sound generated by the home appliance as the environmental information to acquire sound information of the home appliance,
The object estimating unit uses the sound information to estimate an attribute of the home appliance as the object attribute information.
請求項8に記載の移動体において、
さらに、前記物体計測部と、当該移動体を移動する駆動部を有し、
前記駆動部は、前記家電機器で生じる音の音源の方向へ、前記移動体を移動し、
前記物体計測部は、前記移動体の移動先で、前記家電機器で生じる音を計測する移動体。
In the mobile body according to claim 8,
further comprising the object measuring unit and a driving unit that moves the moving object,
The drive unit moves the moving body in a direction of a sound source of sound generated by the home appliance,
The object measuring unit is a moving body that measures a sound generated by the home electric appliance at a destination of the moving body.
請求項6乃至9の何れかに記載の移動体において、
前記領域認識装置において、予め前記単位領域の属性と、前記物体属性情報で示される物体の対応関係を示す領域属性判定ルールを用いて、前記物体属性情報で示される物体の数に応じて、前記単位領域の属性を識別する移動体。
In the moving body according to any one of claims 6 to 9,
In the area recognition device, using an area attribute determination rule indicating a correspondence relationship between an attribute of the unit area and an object indicated by the object attribute information in advance, according to the number of objects indicated by the object attribute information, the A moving object that identifies attributes of a unit area.
複数の単位領域で構成される領域を認識するための領域認識装置において、
移動体と通信し、当該移動体から前記領域に存在する物体の属性を示す物体属性情報および位置を受け付ける通信部と、
前記領域を、複数の部分単位領域に分割する領域処理部と、
推定された前記物体の位置を用いて、当該物体が存在する単位領域を推定し、前記物体属性情報を用いて、推定された単位領域の属性を識別する属性識別部を有する領域認識装置。
In an area recognition device for recognizing an area composed of a plurality of unit areas,
a communication unit that communicates with a mobile body and receives from the mobile body object attribute information indicating the attributes of an object existing in the region and the position thereof;
a region processing unit that divides the region into a plurality of partial unit regions;
An area recognition apparatus having an attribute identification unit that estimates a unit area in which the object exists using the estimated position of the object, and identifies an attribute of the estimated unit area using the object attribute information.
請求項11に記載の領域認識装置において、
前記物体は、家電機器である領域認識装置。
The region recognition device according to claim 11,
The area recognition device, wherein the object is a home appliance.
請求項12に記載の領域認識装置において、
前記通信部は、前記物体属性情報として、前記移動体から、前記家電機器で生じる音に基づいて推定される前記家電機器の属性を示す家電属性情報を受け付ける領域認識装置。
13. The region recognition device according to claim 12,
The area recognition device, wherein the communication unit receives, as the object attribute information, home appliance attribute information indicating an attribute of the home appliance estimated based on the sound generated by the home appliance from the moving object.
請求項13に記載の領域認識装置において、
前記通信部は、前記移動体から、当該移動体が、音源の方向への移動先で計測された音に基づいて推定される前記家電属性情報を受け付ける領域認識装置。
14. The region recognition device according to claim 13,
The area recognition device, wherein the communication unit receives the home appliance attribute information estimated based on the sound measured at the destination of movement of the moving body in the direction of the sound source from the moving body.
請求項11乃至14の何れかに記載の領域認識装置において、
さらに、予め前記単位領域の属性と、前記物体属性情報で示される物体の対応関係を示す領域属性判定ルールを記憶する記憶部を有し、
前記属性識別部は、前記領域属性判定ルールを用いて、前記物体属性情報で示される物体の数に応じて、前記単位領域の属性を識別する領域認識装置。
The region recognition device according to any one of claims 11 to 14,
a storage unit that stores in advance an area attribute determination rule indicating a correspondence relationship between the attribute of the unit area and the object indicated by the object attribute information;
The attribute identification unit uses the area attribute determination rule to identify an attribute of the unit area according to the number of objects indicated by the object attribute information.
JP2021070441A 2021-04-19 2021-04-19 Area recognition system, moving object and area recognition device Pending JP2022165192A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021070441A JP2022165192A (en) 2021-04-19 2021-04-19 Area recognition system, moving object and area recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021070441A JP2022165192A (en) 2021-04-19 2021-04-19 Area recognition system, moving object and area recognition device

Publications (1)

Publication Number Publication Date
JP2022165192A true JP2022165192A (en) 2022-10-31

Family

ID=83845685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021070441A Pending JP2022165192A (en) 2021-04-19 2021-04-19 Area recognition system, moving object and area recognition device

Country Status (1)

Country Link
JP (1) JP2022165192A (en)

Similar Documents

Publication Publication Date Title
US11961285B2 (en) System for spot cleaning by a mobile robot
CN109998429B (en) Mobile cleaning robot artificial intelligence for context awareness
JP7436103B2 (en) Collaborative and persistent mapping of mobile cleaning robots
US20210131822A1 (en) Exploration of an unknown environment by an autonomous mobile robot
CN112739244A (en) Mobile robot cleaning system
JP6979961B2 (en) How to control an autonomous mobile robot
US10423163B2 (en) Mobile robot and method of controlling same
KR102577785B1 (en) Cleaning robot and Method of performing task thereof
KR20190098201A (en) Extract 2D floor plans from 3D grid representations of interior spaces
KR20180070062A (en) A movable object and a method for controlling the same
KR20200059666A (en) Moving device and method of detecting object thereof
US11055341B2 (en) Controlling method for artificial intelligence moving robot
KR20230134109A (en) Cleaning robot and Method of performing task thereof
KR102302198B1 (en) Cleaning apparatus and controlling method thereof
JP2022165192A (en) Area recognition system, moving object and area recognition device
US20220334587A1 (en) Method for processing map of closed space, apparatus, and mobile device
TWI760881B (en) Robot cleaner and method for controlling the same
JP7417944B2 (en) Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program
JP2023090247A (en) Autonomous traveling type robot system, determination adjustment method, and program
CN117908531A (en) Method for determining a selection area in the environment of a mobile device
KR20220121483A (en) Method of intelligently generating map and mobile robot thereof
KR20240049072A (en) Method for controlling electronic device using spatial information and electronic device using spatial information
CN117970908A (en) Method and device for generating working map of intelligent mobile device