JP2022165192A - Area recognition system, moving object and area recognition device - Google Patents
Area recognition system, moving object and area recognition device Download PDFInfo
- Publication number
- JP2022165192A JP2022165192A JP2021070441A JP2021070441A JP2022165192A JP 2022165192 A JP2022165192 A JP 2022165192A JP 2021070441 A JP2021070441 A JP 2021070441A JP 2021070441 A JP2021070441 A JP 2021070441A JP 2022165192 A JP2022165192 A JP 2022165192A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- home appliance
- area
- attribute
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 81
- 238000005259 measurement Methods 0.000 claims abstract description 51
- 238000004891 communication Methods 0.000 claims description 24
- 230000007613 environmental effect Effects 0.000 claims description 24
- 238000003860 storage Methods 0.000 claims description 19
- 230000033001 locomotion Effects 0.000 claims description 13
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000010485 coping Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 61
- 230000008569 process Effects 0.000 description 49
- 238000004458 analytical method Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 11
- 238000005406 washing Methods 0.000 description 10
- 239000003550 marker Substances 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000001954 sterilising effect Effects 0.000 description 2
- 238000004659 sterilization and disinfection Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000018044 dehydration Effects 0.000 description 1
- 238000006297 dehydration reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000003756 stirring Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Abstract
Description
本発明は、領域を構成する単位領域の属性を識別し、該当の領域を認識するための技術に関する。その中でも特に、家屋(宅内)などの施設の間取りを自律に認識する技術に関するものである。 The present invention relates to a technique for identifying attributes of unit areas that make up an area and recognizing the corresponding area. In particular, it relates to a technology for autonomously recognizing the layout of a facility such as a house (inside the house).
なお、領域や単位領域の代表的な例としては建物、家屋といった施設や部屋、フロアが挙げられる。 Note that typical examples of areas and unit areas include facilities such as buildings and houses, rooms, and floors.
現在、いわゆるIoT(Internet of Things)家電(含む、家庭用移動体)の普及率の向上に伴い、宅内の間取りといった領域を構成する単位領域の認識技術が重要になっている。例えば、スマートスピーカーを介して、移動型空気清浄に寝室の空気を清浄させることや、見守りロボットを利用して、リビングの状況(高齢者の転倒や不審者の侵入など)を確認することが考えられる。このような場合においては、「寝室」、「リビング」といった間取り情報がないと、移動体を、指定の場所に移動させたり、指定の場所で動作したりすることができない。そのため、単位領域に関する情報、例えば、宅内の間取り情報を把握することが重要であると考えられる。 At present, with the increase in the penetration rate of so-called IoT (Internet of Things) home appliances (including household mobile units), recognition technology for unit areas that make up areas such as the floor plan of a house is becoming important. For example, it is possible to purify the air in the bedroom with a mobile air purifier via a smart speaker, or use a monitoring robot to check the situation in the living room (such as an elderly person falling or a suspicious person entering). be done. In such a case, without floor plan information such as "bedroom" and "living room", the moving body cannot move to a designated place or operate at a designated place. Therefore, it is considered important to grasp the information about the unit area, for example, the floor plan information of the house.
ここで、間取り情報の取得技術が、いくつか提案されている。例えば、特許文献1には、「部屋識別情報のうちの少なくとも二つに対して移動ロボットのカメラによって部屋識別情報に対する家の領域内で撮影された画像を表示するステップと、遠隔ユーザ装置を用いて、表示された複数の部屋識別マーカー中の一つの部屋識別マーカーの選択を受け入れるステップと、選択された部屋識別マーカーを部屋識別情報に割り当てるステップと、生成されたマップに基づいてユーザマップを表示するステップと、移動ロボットに行き先の部屋識別マーカーの指定に対応する位置へ計画された経路を進めせるステップを含む」と記載されている。
Here, several techniques for acquiring floor plan information have been proposed. For example,
特許文献2には、「間取り識別部は、間取り上の壁に相当する線分を検出する線分検出部と、間取り上の部屋に相当する部屋領域を特定するセグメンテーション処理部と、間取り図画像に含まれる文字列を認識する文字認識部」と記載されている。
In
しかしながら、特許文献1では、居間や寝室、浴室のアイコンや文字列である部屋識別マーカーをユーザに提示し、ユーザが部屋識別マーカーを選択し、選択された部屋識別マーカーを部屋の間取りとする。このため、特許文献1では、ユーザによって部屋識別マーカーを選択する必要が生じ、ユーザの手間が掛かるとの課題がある。
However, in
一方、特許文献2では、間取り図の画像に含まれる文字列(洋室、和室など)を認識し、前記認識した文字列を各部屋の名称とする。特許文献2では、ユーザの手間をかけず、自動的に間取り情報を登録することができる。ここで、家庭によって部屋の使い方はそれぞれである。このため、必ずしも間取り図の文字列の通りに部屋を使用するに限らない。例えば、間取り画像に洋室と記載する部屋は、冷蔵庫を設置し、キッチンとして利用する家庭もあれば、テレビやソファーを設置し、リビングとして利用する家庭もある。よって、特許文献2は生活シーンに応じる間取りの設定ができない課題がある。
On the other hand, in
また、特許文献2の他の課題としては、文字列が含まれない間取り図や宅内地図に対応できない課題がある。特に、ロボット掃除機などの移動体によって作成した宅内地図に特許文献2に示す文字列が含まれない場合が多い。このような場合では、特許文献2に開示した技術では対応が困難である。
Another problem of
そこで、本発明は、より実態に即した領域の認識を実現することを目的とする。その一例として、生活シーンに応じることができる宅内の間取り認識技術を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to realize region recognition that is more realistic. As an example, the object is to provide a room layout recognition technology that can respond to various life scenes.
上記の課題を解決するために、本発明では、領域に設置された物体の属性に基づいて、領域を構成する単位領域の「属性=種類」を識別することで、領域に対する認識を実行する。また、物体の属性を特定するために、物体の環境情報を用いることが望ましい。より具体的な本発明の構成は、以下のとおりである。 In order to solve the above problems, the present invention recognizes an area by identifying the "attribute=type" of the unit areas that make up the area based on the attributes of the object placed in the area. Also, it is desirable to use environmental information of the object to specify the attributes of the object. A more specific configuration of the present invention is as follows.
複数の単位領域で構成される領域を認識する領域認識システムにおいて、前記領域に存在する物体の環境情報を取得する物体計測部と、計測された前記環境情報を用いて、物体の属性を示す物体属性情報および位置を推定する物体推定部と、前記領域を、複数の部分単位領域に分割する領域処理部と、推定された前記物体の位置を用いて、当該物体が存在する単位領域を推定し、前記物体属性情報を用いて、推定された単位領域の属性を識別する属性識別部を有する領域認識システムである。 In an area recognition system for recognizing an area composed of a plurality of unit areas, an object measuring unit that acquires environmental information of an object existing in the area, and an object that indicates attributes of the object using the measured environmental information. estimating a unit area in which the object exists, using an object estimating unit that estimates attribute information and a position, an area processing unit that divides the area into a plurality of partial unit areas, and the estimated position of the object; and an area recognition system having an attribute identification unit that identifies an attribute of an estimated unit area using the object attribute information.
また、本発明には、領域認識システムを構成する移動体や領域認識装置が含まれる。また、これらを用いた領域認識方法も本発明の一態様である。またさらに、これらをコンピューターとして機能させるためのプログラムやプログラム製品、例えば、プログラムを格納した記憶媒体も本発明の一態様である。 Further, the present invention includes a moving body and an area recognition device that constitute an area recognition system. A region recognition method using these is also an aspect of the present invention. Further, a program or program product for making them function as a computer, for example, a storage medium storing the program is also an aspect of the present invention.
本発明によれば、対象となる領域の実態に即して、その領域を認識することができる。 According to the present invention, it is possible to recognize an area in accordance with the actual state of the target area.
以下、本発明の実施例1について、図を参照しながら詳細に説明する。図1は、実施例1に係る間取り認識システム1の概略構造図である。以下、本実施例および実施例2では、領域として、家屋を認識対象とする例を用いて説明する。このため、各実施例では、単位領域として、家屋の部屋の属性を識別する。このため、各実施例では、領域認識システムの例として、間取り認識システムを用いることになる。
図1(a)に示すように、間取り認識システム1は、家屋における物体の環境情報を取得するための移動体2と、環境情報と宅内地図に基づいて間取りを認識するための間取り分析装置3とで構成される。
As shown in FIG. 1(a), a floor
ここで、移動体2は、自身に備え付けられた家電計測部6が電気製品(以下、家電機器)を計測することで得られた環境情報の一種である家電情報から、家電属性情報とその位置を推定する。このように、本実施例では、物体として、家電機器を用いる。なお、物体には、家電機器や家具などの家財の設備機器の他、人や動物など環境情報を取得できる対象が含まれる。
Here, the
また、間取り分析装置3は、移動体2での推定結果を用いて、各部屋の属性の一種であるラベルを特定する。このために、間取り分析装置3は、家屋の宅内地図を複数の単位領域に分割し、家電機器の位置を用いて、分割された各単位領域と家電機器を対応付ける。つまり、各単位領域に設置された家電機器が特定される。そして、間取り分析装置3は、単位領域に設置された家電機器の家電属性情報に基づき、その属性の一種であるラベルを各単位領域に付与する。この結果、各単位領域の属性が識別、つまり、何部屋であるかが特定されることになる。次に、各構成要素の詳細を説明する。なお、本実施例では、物体として、家電機器を用いるため、物体属性情報の一種である家電属性情報を用いる。
<移動体2>
移動体2の機能ブロックを図1(a)に、外観を図2に示す。移動体2は、図1(a)に示すように駆動部4、検知部5、家電計測部6、移動体制御部7、通信部8を備える。ここで、駆動部4は、移動体2を移動(走行)させる機能を有する。ここで、移動体2は、図2に示すように、移動体2の筐体であるSの下部に設けられた一対の駆動輪15,16および補助輪17(図示省略)を有する。そして、駆動輪15,16は、それぞれ走行モータおよび減速機で構成される車輪ユニット(図示省略)により回転駆動される。移動体制御部7の指令によって駆動輪15,16を回転することで、移動体2を前進、後退、旋回させる。補助輪17は、駆動輪15,16に従って自由回転する従動輪(キャスタ)であり、本体の外周付近に設けられる。このように、駆動部4は、駆動輪15,16、補助輪17や車輪ユニットで実現される。
In addition, the floor
<Moving
The functional block of the moving
検知部5は、移動体2が走行する際の周囲の障害物や段差などを計測する機能を有する。検知部5は、主に障害物を計測するための環境計測センサ18、床面までの距離を計測するための床面用測距センサ19(図示省略)、障害物の衝突を検出するためのバンパセンサ20(図示省略)とで実現される。
The
このうち、環境計測センサ18は、発光部でレーザ光を発光し、回転する鏡によりレーザ光を略水平に発射する(レーザ光スキャン型センサ)。レーザ光は、家電機器などの障害物で一部反射して戻り、環境計測センサ18の受光部により受光される。そして、環境計測センサ18は、レーザ光発光後から反射光を受光するまでの時間差から障害物までの距離を算出する。レーザ光は、鏡の回転により時々刻々と方向を変えながら発生されるため、環境計測センサ18を用いることで所定角度範囲内の障害物の距離データを取得することが可能である。なお、所定角度範囲は、広いほどより広範囲の障害物を検知できるため、360度が望ましい。また、環境計測センサ18は、レーザ光スキャン型のセンサ以外に、環境中の障害物の状況を計測可能なイメージセンサやミリ波等の距離計測装置でもよい。
Among them, the
また、床面用測距センサ19は、床面までの距離を計測する赤外線を用いた測距センサであり、移動体筐体Sの下面に設置されている。床面用測距センサ19によって階段等の大きな段差を検知することで、移動体2の落下や脱輪を抑制できる。
The floor distance measuring sensor 19 is a distance measuring sensor using infrared rays for measuring the distance to the floor, and is installed on the lower surface of the mobile housing S. As shown in FIG. By detecting a large level difference such as a stair using the floor ranging sensor 19, it is possible to prevent the moving
また、バンパセンサ20は、例えばフォトカプラであり、移動体2が壁などの障害物に衝突する際、移動体制御部7は、外部から作用する力に応じて前後、左右の走行方向を転換させ、障害物から遠ざかる。
Further, the bumper sensor 20 is, for example, a photocoupler, and when the moving
次に、家電計測部6は、家電属性情報および家電機器の位置を推定するための計測を実行する機能を有する。ここで、家電属性情報は「冷蔵庫、洗濯機」といった家電機器の属性である種類を識別する情報である。このため、家電計測部6は、例えばマイクで実現できる。まず、マイクは、家電機器が運転した際に発生する音を計測し、音情報を家電情報として取得する。ここで、その種類により家電機器が発生する音の特徴が異なるため、家電機器の音を計測し音情報を取得することで、家電属性情報を特定できる。さらに、音声定位法から家電の位置も算出できる。
Next, the home
また、家電計測部6は、家電機器の画像を取得可能なイメージセンサでもよい。移動体2が走行中などに、走行環境中の家電機器の画像を計測する。計測した画像を画像処理や機械学習によって、家電属性情報とその家電機器の位置を推定できる。
Also, the home
また、家電計測部6は、家電機器の温度を計測可能な赤外線温度計でもよい。例えば、オーブンが運転すると、オーブン内部の温度が徐々に上昇し、一定温度まで到達する。ここで、オーブンは、上下の加熱部(ヒーター)の部分の温度が最も高いといった特徴を持っている。このように、家電機器が運転時に生じる温度や温度の分布が異なるため、赤外線温度計によって家電運転時の温度データを取得し、温度分布を解析することで、家電属性情報とその家電機器の位置を推定できる。
Also, the home
なお、以上の家電属性情報と家電機器の位置の推定は、後述する家電推定部21で実行される。このために、家電推定部21は、家電計測部6での計測結果と予め記憶された標準情報を比較することで、推定することができる。標準情報としては、例えば、標準家電音がある。
The home appliance attribute information and the position estimation of the home appliance are performed by the home
なお、本実施例では、家電計測部6の詳細を、マイクアレイ(複数のマイクで構成)を一つの例として説明する。家電計測部6が、図2に示すようなマイク50とマイク51と構成される。マイク50とマイク51は、音波によって生じる機械的な振動を電気信号に変える装置であり、環境中の音を集音する。マイク50、マイク51は全指向性を有する場合は、全方位の音を収集可能のため、範囲広く音を測定することができる。また、指向性を有しているマイクの場合は、効果よく集音するため、マイクを感度の最も大きい方向に向けられるように設置することが望ましい。また、マイクが感度の最も大きい方向に向けられるように、モータなどの移動構造を設け、マイクの集音方向を変更できるように設置するのが望ましい。
In this embodiment, details of the home
次に、移動体制御部7は、移動体2を制御する機能を有し、マイクロコンピュータで実現できる。図1(b)に示すように、移動体制御部7は、家電推定部21、自己位置推定部22、地図作成部23、動作制御部24、記憶部25を備える。
Next, the moving
まず、家電推定部21は、家電計測部6によって収集したセンサデータを用いて、家電属性情報とその位置を推定する。本実施例において、家電推定部21は、2つのマイク50、51で取得された家電機器の音情報に対してその周波数特徴を解析し、家電機器の種類を推定する。つまり、家電推定部21は、家電属性情報を推定する。また、家電推定部21は、音声定位によって、家電機器と家電計測部6の位置関係を推定する。具体的な推定方法について図3を参照しながら後述する。なお、家電推定部21は、物体に関する推定を行う物体推定部の一種である。
First, the home
次に、自己位置推定部22は、走行環境中の障害物配置から移動体2の自己位置と姿勢を判定する。自己位置推定部22は、移動体2の移動中に環境計測センサ18で取得する障害物までの距離データを読み込み、前記距離データの変化から、移動体2の自己位置と姿勢を算出する。また、自己位置推定部22は、自己位置と姿勢を算出する際に、エンコーダーやレーザ、IMU(Inertial Measurement Unit)等のセンサにより検出する移動体2の移動量の情報を、自己位置と姿勢の算出のために用いることができる。なお、ここで算出される自己位置は移動体2の中心点位置である(図2のSP位置に示す)。
Next, the self-
次に、地図作成部23は、環境計測センサ18から計測した障害物の位置情報から環境地図を作成する。ここで、作成された地図は記憶部25に保存される。この環境地図は、平面を格子状に区切られ、各格子に障害物が存在する確率で表す占有格子地図である。障害物の存在する確率が高いほど格子の値が大きく、障害物の存在する確率が低いほど格子の値が小さい。
Next, the
次に、動作制御部24は、移動体2の各種の動作を制御する。例えば、動作制御部24は、検知部5で計測する走行環境情報に基づいて、駆動部4を制御する。また、動作制御部24は、音を収集するための走行ルートを生成し、移動体2を走行させるなどの動作を制御する。
Next, the
なお、これら家電推定部21、自己位置推定部22、地図作成部23、動作制御部24の各機能は、プログラムや専用ハードウエア回路で実現できる。プログラムで実現される場合、当該プログラムが、後述する記憶部25に格納され、プロセッサでその機能を実現するための演算が実行される。また、専用ハードウエア回路で実現される場合、FPGA(Field-Programmable Gate Array)やASIC(Application Specific Integrated Circuit)を利用できる。
Each function of the home
次に、記憶部25は、認識対象の家屋(宅内)の地図データである宅内地図や、家電機器情報などの各種の制御に必要な情報を記憶するものである。
Next, the
通信部8は、各種の信号の入出力を可能となるものである。この通信部8は、本実施例において、NFC(Near Field Communication)等の近距離無線通信を含む無線通信を実現する。このように、移動体2内の各ユニット間の情報伝達や移動体2と間取り分析装置3の情報伝達は通信部8を介して行うことになる。
The communication unit 8 is capable of inputting/outputting various signals. In this embodiment, the communication unit 8 realizes wireless communication including short-range wireless communication such as NFC (Near Field Communication). In this way, information transmission between units in the moving
図1(a)(b)、図2を用いて説明した上記の構成はあくまで一例であり、移動体2の構成はこれらに限定されない。特に、移動体2は、その用途を満たすための構成を追加してもよい。例えば、移動体2が掃除機や空気清浄機の場合は、集塵部を備えてもよい。また、移動体2が除菌機器の場合は、除菌部を備えてもよい。また、移動体2が家事ロボットの場合は、ハンドやアームなどの操作部を備えてもよい。また、移動体2が見守りロボットの場合は、ユーザとのインタラクションをするための出力部(スピーカー、ディスプレイなど)を備えてもよい。またさらに、移動体2は、温度センサ、照度センサ、ジャイロセンサを含むセンサや装置をさらに備えてよい。以上のように、移動体2が備えるセンサや装置は、その使用や運用に応じて柔軟に変化され得る。
<間取り分析装置3>
次に、領域認識装置の一種である間取り分析装置3いついて、説明する。間取り分析装置3は、情報処理装置の一種であるコンピューターで実現できる装置である。例えば、ソフトウェア、データなどを、通信ネットワークを通じて遠隔から利用できるクラウドコンピューティング、また、スマートフォンやタブレット、パーソナルコンピューターのようなユーザデバイスで実現できる。また、移動体2の移動体制御部7に、同様の機能を持たせてもよい。
The above configurations described with reference to FIGS. 1(a), 1(b), and 2 are merely examples, and the configuration of the moving
<
Next, the floor
なお、間取り分析装置3をクラウドコンピューティング、つまり、サーバで実現する場合、インターネットを介して、移動体2と接続される。また、この接続は、スマートフォンのような端末装置を介して実現してもよい。さらに、このサーバでは、複数の移動体2や複数の家屋について処理対象とすることが望ましい。
Note that when the floor
ここで、間取り分析装置3は、図1に示すように通信部9、地図処理部10、間取り判定部11を備える。
Here, the floor
まず、通信部9は、他装置との通信を行うものであり、各種信号や情報の入出力を可能となるものである。地図データ(宅内地図)、家電情報、移動体2のセンサデータや運行状況などの情報は、通信部9を介して間取り分析装置3が受け付けることになる。
First, the
次に、地図処理部10は、通信部9によって入力された宅内地図に対する解析を行う。解析は主に、画像処理によって二値化処理、収縮処理、四角形検出を行うことで、宅内地図、つまり、家屋の宅内を複数の単位領域に分割する。地図処理部10の具体的な機能については、図7で後述する。なお、地図処理部10が用いる宅内地図は、移動体2が家電計測部6の情報に基づいて作成した地図データや、ディベロッパーが保有している地図データを利用する。このように、領域を分割する領域処理部の一例である。
Next, the
間取り判定部11は、地図処理部10によって分割された複数の単位領域のそれぞれと家電機器の位置を対応付ける。この対応付けには、単位領域と家電機器の位置のリストを作成するリスト化が含まれる。そして、間取り判定部11は、対応付けられた結果と、部屋属性ルールに基づいて各単位領域にラベルを付与する。ここで、本実施例におけるラベルとは、部屋の間取りであり、例えば、「キッチン」、「リビング」、「寝室」のような部屋の種別を含む属性の一例である。このことで、単位領域である部屋の識別を行うことになり、領域である家屋に対する認識が可能となる。つまり、間取り判定部11は、属性識別部の一例である。この間取り判定部11の処理である間取り判定処理の詳細については、図8、図9で後述する。
The floor
なお、地図処理部10、間取り判定部11を備える。これらの機能は、プログラムや専用ハードウエア回路で実現できる。プログラムで実現される場合、当該プログラムが、図示しない記憶装置ないし記憶媒体に格納され、間取り分析装置3のプロセッサでその機能を実現するための演算が実行される。また、専用ハードウエア回路で実現される場合、FPGA(Field-Programmable Gate Array)やASIC(Application Specific Integrated Circuit)を利用できる。
A
上記の構成はあくまで一例であり、間取り認識システム1が備える構成は係る例に限定されない。移動体2の少なくとも一部の機能を、間取り分析装置3で実行してもよい。また、間取り分析装置3の少なくとも一部の機能を、移動体2で実行してもよい。例えば、移動体2の地図作成部23の機能を間取り分析装置3で実行する。この場合、環境計測センサ18から取得するセンサデータを通信部8および通信部9を介して、間取り分析装置3に送信する。そして、間取り分析装置3で地図作成を行うことになる。 以上で、構成の説明を終わり、以下、本実施例の処理ついて、図を参照しながら詳細に説明する。
<家電属性情報と家電機器の位置の推定処理>
まず、本実施例の処理の概要を説明する。本実施例では、家電属性情報と家電機器の位置を推定し、この結果を用いて、領域の認識を行う間取り判定処理を行う。まず、判断家電属性情報と家電機器の位置の推定処理では、移動体2に備え付けられた家電計測部6から得られた入力信号から、家電属性情報とその家電機器の位置を推定する。また、間取り判定処理では、間取り分析装置3で宅内地図を複数の単位領域に分割し、分割された単位領域と家電機器の位置を対応付け、この対応関係に基づき、家電属性情報に対応したラベルを各単位領域に付与する。
The above configuration is merely an example, and the configuration of the floor
<Home appliance attribute information and home appliance location estimation processing>
First, an overview of the processing of this embodiment will be described. In this embodiment, the home appliance attribute information and the position of the home appliance are estimated, and using this result, the floor plan determination process for recognizing the area is performed. First, in the process of estimating judgment home appliance attribute information and the position of the home appliance, the home appliance attribute information and the position of the home appliance are estimated from the input signal obtained from the home
以下、本実施例の詳細を説明する。図3は、家電属性情報とその家電機器の位置を推定する推定処理を示すフローチャートである。 The details of this embodiment will be described below. FIG. 3 is a flowchart showing an estimation process for estimating home appliance attribute information and the position of the home appliance.
この推定処理では、移動体2に備え付けられた家電計測部6から得られた音情報を用いて、家電属性情報とその家電機器の位置を推定する。以下、処理についてステップごとにその詳細を説明する。
In this estimation process, the home appliance attribute information and the position of the home appliance are estimated using the sound information obtained from the home
まず、移動体2において、この推定処理を起動させると、家電計測部6の一例であるマイク50とマイク51によって、環境中の音を計測する(ステップS1)。ここで、この推定処理を起動するタイミングには、下記の3つの例が挙げられる。(1)まず、移動体2が規定の時間に宅内に走行させ、走行中に音を検知したタイミングである。この場合、移動体2を走行させることによって、宅内の各場所の音を計測することができる。(2)また、家電機器のうちIoT家電機器が、動作音が生じているという運転情報を移動体2に送信し、移動体2がこの運転情報を取得したタイミングである。例えば、移動体2は、洗濯機の洗い運転が起動された情報を受信したタイミングで判定処理を起動してよい。家電機器の運転情報を利用することで、移動体2がより確実に家電の動作音を取得することができる。(3)また、マイク50、マイク51が環境中の新たな音を検知したタイミングである。例えば、静かな環境に洗濯機の洗い運転が起動されて、音圧レベルが大きくなったと検出したタイミングで判定処理を起動してよい。
First, when this estimation process is activated in the moving
上記のタイミングで推定処理を起動させれば、家電機器の動作音をより確実に計測することができる。ここで家電機器の動作音は、家電機器が運転する際に生じる音である。例えば、洗濯機の動作音は、運転中のモータ音や振動音、提示音、運転中の水や衣類の攪拌音が挙げられる。 By activating the estimation process at the above timing, it is possible to more reliably measure the operation sound of the home appliance. Here, the operation sound of the home appliance is the sound generated when the home appliance is operated. For example, operating sounds of a washing machine include motor sound and vibration sound during operation, presentation sound, and stirring sound of water and clothes during operation.
次に、家電推定部21が、音を計測し音情報を取得したかを判定する(ステップS2)。音情報を取得しなかったと判定したならば(No)、ステップS1に戻り、家電計測部6によって音の計測を続ける。音情報を取得したと判定したならば(Yes)、ステップS3に遷移する。
Next, the home
次に、家電推定部21が、取得した音情報を用いて、音源の方向を推定する(ステップS3)。つまり、家電推定部21は、音を発している家電機器の方向を推定する。以下、この方向の推定について説明する。本実施形例では、家電推定部21は、マイク50とマイク51で計測する音の到着における時間差をもとに音源の方向を推定する。
Next, the home
ここで、図4を用いて、音源の方向の推定について、説明する。図4では、移動体2(筐体S)の図面上右上(θ方向)の音源Nにより家電機器の動作音が発生している。ここで、θ方向から筐体Sに、音速cで到達した音の音波は、間隔dで配置する二つのマイク50、マイク51によって受信される。このとき、音波がマイク50、マイク51間の到来時間差Tは(数1)に示すとおりとなる。
T = d cos(θ)/c ・・・(数1)
よって、音源の方向θは、以下の数2)で表せる。つまり、数2により、音源の方向を推定することが可能となる。
θ = arccos(T・c/d) ・・・(数2)
以下、図3に戻り、推定処理の説明を続ける。動作制御部24は、移動体2を、障害物を避けながら音源の方向に移動させる(ステップS4)。このために、まず、検知部5によって、移動体2の走行環境を計測する。例えば、環境計測センサ18で障害物や壁を検出し、床面用測距センサ19で段差を検出する。そして、動作制御部24は、走行環境を用いて、走行不能な場所と走行可能な場所を判別する。そして、動作制御部24は、移動体2を、走行不能な場所をよけながら、もしくは、走行可能な場所を通りながら音源の方向θに向かって移動させる。なお、この移動の際、自己位置推定部22が、移動体2の位置や姿勢を算出する。そして、動作制御部24は、算出された位置や姿勢を用いて、移動体2の移動を制御する。
Here, estimation of the direction of the sound source will be described with reference to FIG. In FIG. 4, a sound source N on the upper right (θ direction) of the moving body 2 (housing S) in the drawing causes the operation sound of the home appliance. Here, a sound wave that reaches the housing S from the θ direction at the speed of sound c is received by two
T=d cos(θ)/c (Equation 1)
Therefore, the direction θ of the sound source can be expressed by Equation 2) below. In other words,
θ = arccos(T·c/d) (equation 2)
Returning to FIG. 3, the description of the estimation process is continued. The
次に、家電推定部21が、音源である家電機器の家電属性情報およびその位置を推定する(ステップS5)。このために、まず、自己位置推定部22は、移動体2が音源の近傍に到達したことを検知する。ここで、近傍とは、予め定められた条件を満たせばよい。次に、動作制御部24は、近傍内のいくつの異なる場所に移動体2を移動させる。次に、マイク50やマイク51で家電機器の動作音を集音する。そして、家電推定部21が、集音された動作音から家電属性情報とその家電機器の位置を推定する。
Next, the home
このように、移動体2を音源近傍へ移動させ、近傍で音を収集することによって、家電識別に用いる家電機器の動作音を品質よく集音することができる。さらに、品質よく家電機器の動作音を取得するため、動作制御部24が、例えば、移動体2の集塵部や駆動輪のモータを停止させることが望ましい。つまり、移動体2で発生する音を低減することが望ましい。
In this way, by moving the moving
ここで、家電属性情報の推定の詳細について説明する。この推定を行うために、各種の家電機器の動作音を標準家電音として、その属性(種類)ごとに記憶部25などのデータベースに保存しておく。そして、家電推定部21は、保存した動作音と移動体2の家電計測部6で集音された動作音の周波数特徴を照合する。この結果、家電推定部21は、家電属性情報を判別する。例えば、家電機器が洗濯機の場合は洗い運転の際に1k~8kHzの広い周波数となり、脱水運転の際に40~50Hz範囲の周波数となる特徴がある。また、電子レンジは定常の約2kHzで運転する特徴がある。
Details of the estimation of home appliance attribute information will now be described. In order to perform this estimation, operation sounds of various home appliances are stored as standard home appliance sounds in a database such as the
このため、家電推定部21は、家電計測部6で集音された動作音を、標準家電音と比較し、最小二乗法などの手法で二乗誤差の合計が最も小さかった標準家電音の家電属性情報を採用する。このように、各家電機器の特徴を用いて、家電を判別することができる。
For this reason, the home
また、保存する各種の家電機器の動作音(標準家電音)を学習データとして、CNN(Convolutional neural network)などのニューラルネットワークを訓練し、家電機器の動作音の特徴モデルを生成してもよい。そして、家電推定部21は、集音した動作音を特徴モデルに入力し、集音した動作音の特徴と一致する家電機器の属性を推定する方法を用いてもよい。 本処理においては、家電機器の属性によって、その動作音が異なるため、動作音の特徴を用いて家電機器を識別できる。本実施例では、家電属性情報を後述の間取り判定処理で用いる。それは、部屋の使い方によって、部屋に配置する家電機器が異なるためである。このため、各部屋に配置している家電機器を推定できれば、部屋の属性の判定、つまり、ラベル付与もできる。
Also, a neural network such as a CNN (Convolutional neural network) may be trained using stored operating sounds (standard household sounds) of various home appliances as learning data to generate feature models of operating sounds of home appliances. Then, the home
次に、ステップS5における家電機器の位置の推定について説明する。家電機器、つまり、音源の位置推定は、家電推定部21が、自己位置推定部22で推定される移動体2の位置と、上記の(数1)および(数2)を用いて行う。この詳細を、図5を用いて、説明する。図5(a)に示すように、移動体2は、マイク50やマイク51を用いて、音源の近傍(図面の右側)で動作音を収音する。そして、家電推定部21が、集音された結果を、(数1)、(数2)に適用して、音源方位θ1を算出する。その後、動作制御部24が、移動体2を集音した場所とは異なる場所へ移動させる(図面の左側)。つまり、移動体2の中心点位置は、SP1からSP2になる。次に、自己位置推定部22によって、移動体2中心位置の移動量Lを算出する。また、マイク50やマイク51を用いて、移動先で再び動作音を収音する。そして、家電推定部21が、集音された結果を、(数1)、(数2)に適用して、音源方位θ2を算出する。
Next, estimation of the position of the home appliance in step S5 will be described. The position of the home appliance, that is, the sound source is estimated by the home
最後に、家電推定部21が、図5(b)に示すように、音源方位θ1と音源方位θ2、移動量Lを用いて正弦法則に基づき、音源Nが移動体2に対する相対位置を推定する。具体的には、移動前においては、音源Nと移動体2の中心位置SP1との距離L1を、以下の(数3)で算出できる。
L1=(L×sinθ2)/sin(π+θ1)・・・(数3)
移動後においては、音源Nと移動体2の中心位置SP2との距離L2は、(数4)で算出できる。
L2=(L×sin(π-θ1)) /sin(π+θ1)・・・(数4)
なお、音源、つまり、家電機器の位置の推定は、この方法に限定されない。例えば、家電推定部21は、動作音の位相差や音量差を用いて音源の位置を推定してもよい。以上で、ステップS5の説明を終わり、図3に示すフローチャートの説明を続ける。
Finally, as shown in FIG. 5B, the home
L1=(L×sinθ2)/sin(π+θ1) (Equation 3)
After the movement, the distance L2 between the sound source N and the center position SP2 of the moving
L2=(L×sin(π-θ1))/sin(π+θ1) (Formula 4)
Note that estimation of the position of the sound source, that is, the home appliance is not limited to this method. For example, the home
次に、家電推定部21は、家電機器の宅内位置を推定する(ステップS6)。ここで、宅内位置とは、領域である宅内での相対位置、つまり、記憶部25の宅内地図の座標系での位置を示す。なお、ステップS5で直接宅内位置を推定してもよい。
Next, the home
以下、ステップS6の詳細について説明する。家電機器の宅内位置を推定する流れとしては、まず、自己位置推定部22が、宅内地図の座標系における移動体2の宅内での位置(座標)を推定する。その後、家電推定部21が、ステップS5で算出した音源と移動体2の位置関係で示される音源の位置を、座標変換によって、音源(家電機器)の位置を座標変換する。すなわち、家電推定部21が、家電機器の宅内位置が算出することができる。
The details of step S6 will be described below. As a flow for estimating the indoor position of the home appliance, first, the self-
以上で、本実施例の家電属性情報と家電機器の位置の推定処理の説明を終わるが、本処理は上述の説明に限定されない。本実施例では、家電情報として、動作音を用いたが、家電機器のガイダンス音声といった他の音を用いてもよい。また、音以外にも画像、湿度、温度を用いてもよい。また、移動体2が近距離無線通信などを介して、家電機器から受信するその識別情報を用いてもよい。またさらに、複数の家電情報を組み合わせて利用してもよい。この詳細については、実施例3で後述する。
This completes the description of the process of estimating the home appliance attribute information and the position of the home appliance according to the present embodiment, but the present process is not limited to the above description. In this embodiment, the operation sound is used as the home appliance information, but other sounds such as the guidance voice of the home appliance may be used. Also, images, humidity, and temperature may be used in addition to sound. Alternatively, the identification information received by the moving
さらに、物体として、家電機器以外の物体を用いてもよい。例えば、人や水道といった設備を用いてもよい。なお、家電情報については、後述する実施例2や3でも同様である。 Furthermore, objects other than home electric appliances may be used as objects. For example, equipment such as a person or a water supply may be used. Note that the home appliance information is the same in the second and third embodiments, which will be described later.
以上の処理によって、家電属性情報とその家電機器の位置を推定することができる。
<間取り認識処理>
次に、間取り認識処理について説明する。まず、間取り判定処理の概要を説明する。本判定処理では、間取り分析装置3で宅内地図を複数の単位領域に分割し、分割された複数の単位領域と家電機器の位置を対応付けて、各単位領域に設置された家電機器の家電属性情報に基づき、家電属性情報に対応したラベルを該当する単位領域に付与する。
By the above processing, the home appliance attribute information and the position of the home appliance can be estimated.
<Room layout recognition processing>
Next, the floor plan recognition processing will be described. First, an outline of the floor plan determination process will be described. In this determination process, the floor
次に、間取り分析装置3での間取り認識処理の詳細を、図6の間取り認識処理を示すフローチャートを用いて説明する。
Next, the details of the floor plan recognition processing by the
まず、間取り分析装置3で部屋間取り認識処理を起動させると、本処理が開始される。そして、通信部9によって、移動体2の記憶部25やサーバ、ユーザデバイスから認識対象である領域の一例である宅内の宅内地図を取得する(ステップS10)。
First, when the room layout recognition process is activated by the floor
次に、地図処理部10が、宅内地図を取得できるか、記憶部25やサーバ、ユーザデバイスに宅内地図があるかを判定する(ステップS11)。宅内地図を取得できないと判定したならば(NO)、ステップS12に遷移する。そして、地図処理部10は、通信部9を介して、移動体2に宅内地図の作成指示を送信する(ステップS12)。この結果、移動体2によって宅内地図が作成される。
Next, the
また、ステップS11で、宅内地図を取得できたと判定したならば(YES)、ステップS13に遷移する。 If it is determined in step S11 that the in-house map has been obtained (YES), the process proceeds to step S13.
次に、地図処理部10が、宅内地図を分割する(ステップS13)。このステップS13における宅内地図の分割処理について、以下、図7A~Dを参照して詳細に説明する。まず、本実施例で用いられる宅内について説明する。本実施例では、宅内地図として、図7Aに示す占有格子地図を用いる。この占有格子地図は、障害物の存在する確率が高いほど格子の値が大きく、障害物の存在する確率が低いほど格子の値が小さい。図7Aに示すように、壁30や物体31、物体32のところは障害物であるため、格子の値が大きく、障害物のない走行可能な単位領域33は格子の値が小さくなる。このため、図7Aでは、画像の各画素の色の濃さが占有格子地図の各格子の確率変数の値の大きさを表す。つまり、障害物がない格子が白で表し、障害物がある格子が黒で表す。ここで、図7A~Dにおいて、認識対象の家屋(宅内)が、単位領域38、単位領域39、単位領域40の三つの単位領域(部屋)で構成されていることを示している。
Next, the
以下、ステップS13の処理について、説明する。地図処理部10は、図7A)に示す占有格子地図に対して、二値化処理、収縮処理、四角形検出処理を行うことで、地図をいくつかの単位領域に分割する。通常、複数の単位領域に分割されるが、1つの単位領域となる場合もある。
The processing of step S13 will be described below. The
まず、地図処理部10は、二値化処理により、画像の各画素における輝度値が閾値以上になる場合は、その画素の輝度値を1(白)、それ以下の場合、輝度値を0(黒)とする。地図処理部10は、図7Aに示す占有格子地図に対して、二値化処理を施した結果を図7Bに示す。図7Bにおいて、壁30、物体31、物体32に対応する34、35、36は輝度値が0になり、障害物のない単位領域33に対応する場所37は輝度値が1になる。二値化処理によって、画像の輝度値が0か1か(黒画素もしくは白画素)の2値になり、データ量が少なくなる。後述の画像処理が処理しやすくなる。
First, in the binarization process, the
次の収縮処理では、地図処理部10は、二値化画像である図7Bに対して(フィルタリング,2D convolutionに使われる)カーネルをスライドさせていきいく。つまり、本処理は、注目画素の4近傍または8近傍といった所定近傍に、黒画素が1画素でもあれば注目画素を黒画素に置き換える処理である。この収縮処理は、地図中の小さい障害物を削除することができる。この結果、図7Cに示すように物体35と物体36が消される。
In the next erosion process, the
次の四角形検出処理では、地図処理部10は、二値化処理によって、図7C中の黒画素を、白画素に、白画素を黒画素に変換する。そして、地図処理部10は、Watershedアルゴリズムを用いて、図7Cをいくつかの単位領域に分割する。ここで、Watershedアルゴリズムは、画像領域の分割手法として広く用いられる。このアルゴリズムは、最初に地質学において 地質形態や外貌を叙述するために導入された。画像の画素の輝度値、その極小値、極大値はそれぞれ地形の海抜高度、谷底、峰に対応する。画像を地形とみなし、その谷底から水を注入し、形成される複数の水域の隣接部分を Watershed(分水嶺)と呼ばれる境界とする。具体的には、浸水を行い、水位以下の領域をマーカーと呼ぶ。そして水位が上昇すると、マーカーが拡大していき、マーカー同士が重なったとき、その位置を分水域として特定する。つまり、本実施例では、地図処理部10が、画素の輝度値の閾値を水位とし、閾値を上昇させながら、閾値以下の単位領域を追跡し、異なる単位領域同士が重なる境界を探索し、画像を分割する。その後、分割した後の領域中の四角形を抽出する。具体的に下記の条件で四角形を判定する。条件1:角の数が4つである。条件2:凸形状である。以上の処理をした結果、つまり、四角形検出処理が施された結果を図7Dに示す。図7Dでは、単位領域38~単位領域42が検出されたことを示す。
In the next quadrilateral detection process, the
その後、地図処理部10は、分割した各単位領域の面積を求め、面積が閾値(1m2)以上の単位領域を抽出し、番号を付与する。一般家庭の部屋の面積が1m2以上であることが多いため、本実施例においては、1m2以上の単位領域を部屋とみなす。よって、地図処理部10は、図7D中の単位領域38、単位領域39、単位領域40が1m2以上であるため、「1」、「2」のような番号を付与する。なお、1m2は閾値の一例であり、他の数値を用いてもよい。また、図7D中の単位領域41、単位領域42は面積が1 m2以下)であるため、番号を付与しない。
After that, the
そして、地図処理部10は、図7Aに示す占有格子地図と四角形検出処理で番号を付与した単位領域38~40を、メモリに保存する。ここで、メモリは、間取り分析装置3に設けられる記憶部である。
Then, the
なお、上記の地図分割処理は一例であり他の方法を用いてもよい。例えば、図7Aに示す占有格子地図と当該地図中の各単位領域の座標配列を教師データとしてニューラルネットワークを訓練し、四角形の特徴を識別できるモデルを作成してもよい。作成したモデルに新たな地図を入力し、モデルによって地図中の四角形単位領域を検出する。このような機械学習を用いて四角形を検出することで、地図の単位領域に分割してもよい。 Note that the above map division processing is an example, and other methods may be used. For example, a neural network may be trained using the occupancy grid map shown in FIG. 7A and the coordinate array of each unit area in the map as training data to create a model capable of identifying quadrilateral features. A new map is input to the created model, and the quadrangle unit area in the map is detected by the model. A map may be divided into unit areas by detecting rectangles using such machine learning.
以上でステップS13までの説明を終わり、図6に戻り、間取り認識処理の説明を続ける。ステップS13で宅内地図を分割すると、通信部9によって家電属性情報と該当の家電機器の宅内位置を取得する(ステップS14)。つまり、通信部9が、移動体2から、移動体2が図3に示すフローチャートで推定した家電属性情報と該当の家電機器の宅内位置を受け付ける。なお、ステップS13とステップS14は、連続して処理してもよいし、一旦ステップS13で処理を終了、中断し、別処理としてステップS14以降の処理を実行してもよい。
With this, the description up to step S13 is completed, and returning to FIG. 6, the description of the floor plan recognition processing is continued. After the home map is divided in step S13, the home appliance attribute information and the home position of the corresponding home appliance are acquired by the communication unit 9 (step S14). That is, the
次に、間取り判定部11によって、分割した各単位領域及び各単位領域に配置される家電機器を対応付ける(ステップS15)。この対応付けに応じて、間取り判定部11は、図8に示す家電機器リスト80を作成することが望ましい。
Next, the floor
以下、図8に示す家電機器リスト80について説明し、その後、図8を用いてステップS15での家電機器リスト80の作成を説明する。
The electric
まず、図8は、家電機器リスト80を示す図である。図8中の表の第一列は各単位領域を識別する単位領域No.である。図8において、この単位領域No.として図7D中の単位領域38を番号「1」とし、単位領域39を番号「2」としている。図8中の表の第二列は、各単位領域の範囲を示す単位領域範囲である。単位領域範囲は、宅内地図における座標配列で表す。本実施例においては、単位領域内の格子を1で表し、単位領域外の格子を0で表す。
First, FIG. 8 is a diagram showing a
以下、家電機器リスト80の作成について説明する。間取り判定部11は、各単位領域の座標配列と、各家電機器の位置と比較し、各単位領域に配置されている家電機器を抽出する。間取り判定部11は、抽出された家電機器を、図8中の表の第三列(単位領域内家電機器)に記入する。例えば、間取り判定部11は、レンジ、冷蔵庫、オーブンが単位領域「1」に配置されると判断された場合、単位領域「1」に対応する第三列(単位領域内家電機器)にレンジ、冷蔵庫、オーブンを記入する。そして、間取り判定部11は、このようにして作成された家電機器リスト80を、間取り分析装置3の記憶部に記憶する。
The creation of the
以上でステップS15の説明を終わり、図6に戻り、間取り判定処理の説明を続ける。間取り判定部11によって、部屋属性判定ルール90に従って各単位領域にラベルを付与する(ステップS16)。つまり、本ステップでは、間取り判定部11が、各単位領域に対して、その種類を示す属性を識別する。
This completes the description of step S15, returning to FIG. 6 to continue the description of the floor plan determination process. The floor
ここで、図9に、部屋属性判定ルール90を示す。部屋属性判定ルール90は、領域属性判定ルールの一種であり間取り分析装置3の記憶部に記憶される。そして、部屋属性判定ルール90は、ラベルと家電機器の対応関係を示している。ここで、ラベルは、単位領域の属性の一種であり、単位領域である部屋の属性を示す。また、部屋属性判定ルール90の家電機器は、家電機器の種類である家電属性情報を示す。以下、その具体例を、図9を用いて説明する。図9に示す「キッチン」、「ランドリー」、「リビング」は、部屋属性を表すラベルである。また、レンジ、冷蔵庫~電気フライヤーが「キッチン」に対応する家電機器である。この部屋属性判定ルール90は、部屋属性および部屋属性に相関が基準よりも大きい家電機器で決定される。例えば、「キッチン」では、家電機器として、レンジ、冷蔵庫、オーブン、食洗機、炊飯器、コーヒーメーカー、電気フライヤーが存在する可能性が高く、「キッチン」に相関が大きい。よって、上記の各種の家電機器は「キッチン」というラベルに対応する。他のラベルも同様に決定する。
Here, FIG. 9 shows a room
そして、ステップS16において、間取り判定部11は、部屋属性判定ルール90と、家電機器リスト80を照合し、家電機器リスト80の単位領域No.の示す各単位領域に該当するラベルを付与する。例えば、家電機器リスト80中の単位領域「1」はレンジ、冷蔵庫、オーブンがある。また、部屋属性判定ルール90の「キッチン」に対応する家電と一致するため、間取り判定部11は単位領域「1」に「キッチン」との部屋属性を付与する。
Then, in step S16, the floor
ここで、各単位領域内において、家電機器リスト80と部屋属性判定ルール90とを照合してもー完全一致しない場合もある。その場合は、一致する家電機器の数の最も多いラベルを該単位領域に付与する。例えば、図8中の単位領域「1」にレンジ、冷蔵庫、オープン以外に洗濯機も入っている場合がある。この四つの家電の中に、図9の部屋属性判定ルール中の「キッチン」に対応する家電は、レンジ、冷蔵庫、オープンの3つである。部屋属性判定ルール90中の「ランドリー」に対応する家電は洗濯機の1つである。「キッチン」と一致する家電の数は、「ランドリー」と一致する家電の数より多いため、「キッチン」を該単位領域のラベルとして付与する。このように、本実施例では、属性判定ルールの一種である部屋属性判定ルール90を用いて、物体属性情報で示される物体である家電機器の数に応じて単位領域の属性の一種であるラベルを特定できる。以上の処理によって、宅内の各単位領域の部屋属性を決定することができる。またさらに、部屋属性判定ルール90の「家電機器」に「必須」を設けてもよい。つまり、必須として記載された家電機器が推定された場合、該当するラベルを付与することになる。
Here, even if the
また、生活シーンに応じて、間取りを変更したい場合や、間違って間取りを識別してしまう場合がある。本実施例では、ユーザによって間取りを修正する手段も提供する。例えば、間取り分析装置3は、マイク50やマイク51の他、間取り分析装置3に接続するマイクにより、ユーザの音声での間取り修正指示を受け付け、そのラベルを変更する。この場合は、「寝室を子供部屋に変更して」のような情報を、上述のマイクを通じて、間取り分析装置3の通信部9に送信し、間取り分析装置3によってラベルを変更する。また、ユーザによって宅内の地図上で間取りのラベルを変更してもよい。例えば、宅内地図と間取り情報をスマートフォン、タブレットなどの出力デバイスに送信し、出力デバイス上でユーザによって、ラベルの変更を行ってもよい。さらに、間取り分析装置3や移動体2の入力デバイスで音声以外の修正指示を受け付けてもよい。
In addition, there are cases where the user wants to change the floor plan or the floor plan is erroneously identified depending on the life scene. This embodiment also provides a means for the user to modify the floor plan. For example, the floor
この場合、家電推定部21が、移動体2に備え付けられた家電計測部6から得られた入力信号から、家電属性情報とその位置を判断する。そして、地図処理部10で宅内地図を複数の単位領域に分割し、複数の単位領域と家電機器の位置を対応付けて、前記単位領域に設置された家電機器の家電属性情報に基づき、家電属性情報に対応したラベルを前記単位領域に付与することで、単位領域を部屋として識別できる。また、家電情報を用いて、各単位領域の間取りを識別することによって、生活シーンに適用する間取り情報を取得することができる。以上で、実施例1の説明を終了する。
In this case, the home
次に、実施例2について説明する。実施例1では、家電情報に基づく家電属性情報を用いて、領域の認識、つまり、間取り判定処理を行っている。これに対して、実施例2では、家電属性情報および家財属性情報を含む設備機器属性情報を、物体属性情報として用いて、間取り判定処理を行う。この家財属性情報は、障害物分析装置、イメージセンサ、におい計測装置、湿度計測装置などで取得可能である。つまり、マイク50やマイク51以外にこれらの装置を用いることになる。そして、家電属性情報と家族属性情報を組み合わせることによって、間取り認識の精度を向上することができる。実施例2では、家電計測部6以外の部屋属性情報を取得可能な装置を用いて間取り認識を実現可能とする技術について説明する。
Next, Example 2 will be described. In the first embodiment, region recognition, that is, room layout determination processing is performed using home appliance attribute information based on home appliance information. On the other hand, in the second embodiment, the facility equipment attribute information including the home appliance attribute information and household goods attribute information is used as the object attribute information to perform the floor plan determination process. This household property attribute information can be acquired by an obstacle analysis device, an image sensor, an odor measurement device, a humidity measurement device, or the like. In other words, these devices are used in addition to the
図10は、本実施例の間取り認識システムの概略構造図である。図10に示すように、実施例1の間取り認識システムに、家財属性情報取得部60を追加した。以下、この家財属性情報取得部60について述べる。家財属性情報取得部60は、宅内の障害物を分析可能な分析装置や、家具、宅内構造などの設備機器を取得可能なイメージセンサ、宅内のにおいや湿度を取得可能なにおい計測装置や湿度計測で実現できる。例えば、家財属性情報取得部60は、障害物分析装置を用い、宅内の障害物のサイズや分布、形状を分析する。このことで、障害物を識別することができる。図11に、識別された宅内の障害物を含む占有格子地図を示す。なお、この占有格子地図は、地図作成部23によって作成される。図11の点線枠内に示すように、16個の分散している小さい障害物(図11の枠内の黒点)を存在する。本例での各障害物のサイズは約3cm~5cmである。一般的なダイニングセットは、テーブル、いすの足の長径が3cm~5cmであり、テーブル、いすも近い範囲内に分散する。この特徴は、図11の点線枠内に示す16個の分散している小さい障害物(図11の枠内の黒点)の特徴と一致する。
FIG. 10 is a schematic structural diagram of the floor plan recognition system of this embodiment. As shown in FIG. 10, a furniture attribute
よって、障害物分析装置を用いて、家電推定部21が、宅内の障害物の分布、寸法を分析し、ダイニングセット、ベッドなどのような家具を判別することができる。例えば、家財属性情報取得部60としてイメージセンサを用いた場合、移動体2走行中に、家財属性情報取得部60は、環境中の物体を計測する。そして、家電推定部21が、計測した画像からソファー、いす、テーブルやドアなどな家具や宅内の設備機器を識別することができる。なお、家財属性情報取得部60は、家電計測部6と一体で物体計測部として構成してもよい。この場合、家電属性情報や家財属性情報を、設備機器属性情報として扱うこともできる。
Therefore, by using the obstacle analysis device, the home
次に、本実施例における家電属性情報、家財属性情報と、家電機器、家財の位置の推定処理(以下、単に推定処理)と、間取り認識処理について、図12および図13を用いて説明する。以下、本実施例の処理の概要を説明し、次に、フローチャートに従って、各ステップの処理について説明する。 Next, home appliance attribute information, household goods attribute information, home appliance and household goods position estimation processing (hereinafter, simply estimation processing), and room layout recognition processing in this embodiment will be described with reference to FIGS. 12 and 13. FIG. The outline of the processing of this embodiment will be described below, and then the processing of each step will be described according to the flowchart.
まず、本実施例の処理の概要を説明する。推定処理では、移動体2に備え付けられた家電計測部6、家財属性情報取得部60から得られた入力信号(環境情報)から、家電機器や家具などの家財を含む設備機器とその位置を推定する。この推定処理では、間取り分析装置3で、宅内地図を複数の単位領域に分割し、分割された複数の単位領域と設備機器の位置を対応付け、この対応関係に基づき、家電属性情報および設備属性情報に対応したラベルを各単位領域に付与する。以下、推定処理および間取り認識処理のその詳細を説明する。
<推定処理>
図12は、本実施例に係る家電属性情報、家財属性情報と、家電機器、家財の位置の推定処理を示すフローチャートである。本フローチャートは、図3と比較して、ステップS20が追加されたことが異なる。このため、以下、図3との相違を中心に説明する。
First, an overview of the processing of this embodiment will be described. In the estimation process, from the input signals (environmental information) obtained from the home
<Estimation processing>
FIG. 12 is a flow chart showing processing for estimating home appliance attribute information, household goods attribute information, and positions of home appliances and household goods according to the present embodiment. This flowchart differs from FIG. 3 in that step S20 is added. Therefore, the difference from FIG. 3 will be mainly described below.
ステップS1~S4は、図3と同じ処理を行う。次に、移動体2の移動中に、家財属性情報取得部60によって、家具や、ドアなどの宅内の家財を識別し、位置を判定する(ステップS20)。例えば、環境計測センサ18によってダイニングセットやベッドなどの障害物(家財)を検出し、識別することができる。また、イメージセンサから取得した画像を画像処理で画像中の物体を識別し、三角測量で物体の位置を推定することができる。また、家財属性情報取得部60による家財属性情報の取得は、例えば、規定の時間に移動体2を宅内に走行させ、家財属性情報を取得してもよい。移動体2は作業を行う際に家財属性情報を取得してもよい。例えば、移動体2は、ロボット掃除機の場合は、掃除中に家財属性情報を取得する。さらに、家財属性情報や家財の位置については、ステップS5およびステップS6での家電属性情報の推定と同じように実行してもよい。この場合、家財属性情報と家電属性情報を併せて設備機器属性情報として取得してもよい。また、家財の位置と家電機器の位置も設備機器の位置として推定してもよい。
Steps S1 to S4 perform the same processing as in FIG. Next, while the moving
以上でステップS20の説明を終わる。そして、以降、図3と同様のステップS5およびステップS6を実行する。以上の処理によって、宅内の物体の一種である設備機器の属性とその位置を推定することができる。
<間取り判定処理>
図13は、実施例2に係る間取り判定処理を示すフローチャートである。本フローチャートは、図6と比較して、ステップS30が追加され、ステップS15が変更されたが異なる。このため、以下、図6との相違を中心に説明する。
This completes the description of step S20. Thereafter, steps S5 and S6 similar to those in FIG. 3 are executed. By the above processing, the attribute and the position of equipment, which is a type of indoor object, can be estimated.
<Floor plan determination processing>
FIG. 13 is a flowchart illustrating floor plan determination processing according to the second embodiment. This flowchart differs from FIG. 6 in that step S30 is added and step S15 is changed. Therefore, the difference from FIG. 6 will be mainly described below.
ステップS10~S14は、図4と同じ処理を行う。次に、通信部9によって、家財属性情報取得部60から家財属性情報を取得する(ステップS35)。
Steps S10 to S14 perform the same processing as in FIG. Next, the
次に、間取り判定部11によって、分割した各単位領域及び各単位領域に配置される家電機器および家財を含む設備機器を対応付ける(ステップS15’)。この対応付けに応じて、間取り判定部11は、図14に示す設備機器リスト140を作成することが望ましい。なお、ステップS15’は、ステップS15と比較して、家財の存在も考慮している点で異なる。
Next, the floor
以下、図14に示す設備機器リスト140について説明する。図14は、設備機器リスト140を示す図である。設備機器リスト140は、家電機器リスト80と略同一の構成を有する。その第三列が、家電機器リスト80の「単位領域の家電機器」から「単位領域内の設備機器」に変更されている。つまり、設備機器リスト140は、家電機器に加え、家財も含む機器設備について記録されている。具体的には、図14に示すように、家電機器以外に家具、ドア、宅内の構造などの家財を含む設備機器が記録されるまた、設備機器リスト140は、家電機器リスト80と同様に間取り分析装置3の記憶部に記憶される。
The
その後、間取り判定部11によって、部屋属性判定ルール91に従って各単位領域にラベルを付与する(ステップS16)。なお、ステップS16は、図6と同様の処理を行うが、用いる部屋属性判定ルールが異なっている。このため、以下、本実施例でのちいられる部屋属性判定ルール91について説明する。
Thereafter, the floor
図15は、部屋属性判定ルール91を示す図である。部屋属性判定ルール91は、部屋属性判定ルール90と略同一の構成を有する。その第二列が、部屋属性判定ルール90の「家電機器」から「設備機器」に変更されている。つまり、部屋属性を判定するために、家財も考慮できるようになっている。具体的には、図15に示すように、家電機器以外に家具、ドア、宅内の構造などの家電を含む設備機器も第二列に記録されている。なお、部屋属性判定ルール91も間取り分析装置3の記憶部に記憶される。
FIG. 15 is a diagram showing the room
以上の処理によって、宅内の各単位領域について、家財も考慮して部屋属性を判定することができる。また、生活シーンに応じて、間取りを変更したい場合や、間違って間取りを識別してしまう場合がある。本実施例では、ユーザによって間取りを修正する手段も提供できる。間取り分析装置3は、例えば、マイク50やマイク51の他、間取り分析装置3に接続するマイクにより、ユーザの音声での間取り修正指示を受け付け、そのラベルを変更してもよい。また、間取り分析装置3は、ユーザによる宅内地図上での修正指示を受け付け、間取りのラベルを変更してもよい。
With the above processing, it is possible to determine the room attribute for each unit area in the house, taking household goods into consideration. In addition, there are cases where the user wants to change the floor plan or the floor plan is erroneously identified depending on the life scene. This embodiment can also provide a means for the user to modify the floor plan. The floor
さらに、各単位領域内の家電リストと部屋属性判定ルールとを照合し、部屋属性判定ルールに完全一致しない場合もある。この場合は、実施例1と同様に、一致する物体の数の最も多いラベルを該単位領域に付与することが望ましい。またさらに、部屋属性判定ルール91の「設備機器」に「必須」を設けてもよい。つまり、必須として記載された設備機器が推定された場合、該当するラベルを付与することになる。
Furthermore, the home appliance list in each unit area is collated with the room attribute determination rule, and there are cases where it does not completely match the room attribute determination rule. In this case, as in the first embodiment, it is desirable to assign the label with the largest number of matching objects to the unit area. Furthermore, the "equipment" of the room
以上の実施例2により、移動体2に備え付けられた家電計測部6や家財属性情報取得部60から得られた入力信号(環境情報)から、家電機器や家財などの設備機器とその位置を判断する。そして、地図処理部10で宅内地図を複数の単位領域に分割し、分割された複数の単位領域と設備機器の位置および設備機器の位置を対応付けて、前記単位領域に設置された設備機器の機器属性情報と位置とに基づき、設備属性情報に対応したラベルを各単位領域に付与することができる。また、生活者の生活に適用することができるうえ、複数種類の情報を融合することによって、間取り認識の精度を向上することもできる。
<推定処理の変形例>
次に、本実施例2における物体属性情報の推定処理の変形例について説明する。本変形例においては、ある環境情報で物体属性情報が推定できない場合、他の環境情報を用いる。本変形例では、複数の環境情報を用いることが必要であるため、本実施例でも実施例2と同様の構成を用いる。
According to the second embodiment described above, from the input signal (environmental information) obtained from the home
<Modified example of estimation processing>
Next, a modification of the object attribute information estimation process according to the second embodiment will be described. In this modified example, when object attribute information cannot be estimated from certain environmental information, other environmental information is used. In this modified example, since it is necessary to use a plurality of pieces of environment information, the same configuration as in the second example is also used in this example.
以下、本変形例における物体属性情報の推定処理について、説明する。なお、本変形例でも、ステップS1~S4やステップS6は同じ処理となる。このため、ここでは、ステップS5、S20に相当する処理について説明する。また、間取り判定処理は、実施例1や2と同様であるため、その説明は省略する。 The estimation processing of the object attribute information in this modified example will be described below. Also in this modified example, steps S1 to S4 and step S6 are the same processing. Therefore, processing corresponding to steps S5 and S20 will be described here. Also, since the floor plan determination process is the same as that in the first and second embodiments, the description thereof will be omitted.
図16は、本実施例に係る物体属性情報を示すフローチャートである。なお、物体の位置の推定は、実施例1や2と同じである。 FIG. 16 is a flowchart showing object attribute information according to this embodiment. Note that the estimation of the position of the object is the same as in the first and second embodiments.
まず、家電推定部21が、家電計測部6や家財属性情報取得部60で取得した環境情報で物体属性情報を推定できるかを判定する(ステップS101)。この結果、推定できた場合(YES)、ステップS6に遷移する。推定できない場合(NO)、ステップS102に遷移する。
First, the home
次に、家電推定部21は、ステップS1で環境情報を取得した部位以外を起動する。例えば、ステップS1で家電計測部6が音を検知していた場合、家財属性情報取得部60を起動して音以外の環境情報を取得させる。つまり、ステップS1で取得した環境情報と別種類の環境情報を取得できるようにする。このため、1つの部位で複数種類の環境情報を取得できる場合、同じ部位の別機能を起動させることになる。
Next, the home
次に、ステップS102で起動された部位により、他の環境情報を取得し、ステップS101に戻る。このように処理することで、1つの物体属性情報が推定できない場合も対応できるようになる。 Next, other environmental information is obtained from the part activated in step S102, and the process returns to step S101. By processing in this way, it is possible to cope with the case where one piece of object attribute information cannot be estimated.
以上で、各実施例の説明を終了するが、本発明はこれらに限定されず、様々な変形例や応用例に適用できる。 Although the description of each embodiment is finished above, the present invention is not limited to these, and can be applied to various modifications and applications.
1 間取り認識システム
2 移動体
3 間取り分析装置
6 家電計測部
7 移動体制御部
21 家電推定部
22 自己位置推定部
23 地図作成部
24 動作制御部
25 記憶部
10 地図処理部
11 間取り判定部
50、51 マイク
60 家財属性情報取得部
1 floor
Claims (15)
前記領域に存在する物体の環境情報を取得する物体計測部と、
計測された前記環境情報を用いて、物体の属性を示す物体属性情報および位置を推定する物体推定部と、
前記領域を、複数の部分単位領域に分割する領域処理部と、
推定された前記物体の位置を用いて、当該物体が存在する単位領域を推定し、前記物体属性情報を用いて、推定された単位領域の属性を識別する属性識別部を有する領域認識システム。 In an area recognition system that recognizes an area composed of a plurality of unit areas,
an object measurement unit that acquires environmental information of an object existing in the area;
an object estimation unit for estimating object attribute information indicating an attribute of an object and a position using the measured environment information;
a region processing unit that divides the region into a plurality of partial unit regions;
An area recognition system having an attribute identification section that uses the estimated position of the object to estimate a unit area in which the object exists, and uses the object attribute information to identify attributes of the estimated unit area.
前記物体は、家電機器である領域認識システム。 In the area recognition system according to claim 1,
The area recognition system, wherein the object is a home appliance.
前記物体計測部は、前記環境情報として、前記家電機器で生じる音を計測して、当該家電機器の音情報を取得し、
前記物体推定部は、前記音情報を用いて、前記物体属性情報として、前記家電機器の属性を推定する領域認識システム。 In the area recognition system according to claim 2,
The object measurement unit measures the sound generated by the home appliance as the environmental information to acquire sound information of the home appliance,
The area recognition system, wherein the object estimation unit estimates an attribute of the home appliance as the object attribute information using the sound information.
さらに、前記物体計測部と、自身を移動する駆動部を備えた移動体を有し、
前記駆動部は、前記家電機器で生じる音の音源の方向へ、前記移動体を移動し、
前記物体計測部は、前記移動体の移動先で、前記家電機器で生じる音を計測する領域認識システム。 In the area recognition system according to claim 3,
further comprising a moving body including the object measuring unit and a driving unit that moves itself,
The drive unit moves the moving body in a direction of a sound source of sound generated by the home appliance,
The object measurement unit is a region recognition system that measures the sound generated by the home appliance at the destination of the moving object.
さらに、予め前記単位領域の属性と、前記物体属性情報で示される物体の対応関係を示す領域属性判定ルールを記憶する記憶部を有し、
前記属性識別部は、前記領域属性判定ルールを用いて、前記物体属性情報で示される物体の数に応じて、前記単位領域の属性を識別する領域認識システム。 In the area recognition system according to any one of claims 1 to 4,
a storage unit that stores in advance an area attribute determination rule indicating a correspondence relationship between the attribute of the unit area and the object indicated by the object attribute information;
The area recognition system, wherein the attribute identifying section identifies the attribute of the unit area according to the number of objects indicated by the object attribute information using the area attribute determination rule.
前記領域に存在する物体の環境情報を取得する物体計測部と、
計測された前記環境情報を用いて、物体の属性を示す物体属性情報および位置を推定する物体推定部と、
前記物体属性情報および位置を出力する通信部を有し、
領域認識装置において、前記領域を、複数の部分単位領域に分割し、推定された前記物体の位置を用いて、当該物体が存在する単位領域を推定し、前記物体属性情報を用いて、推定された単位領域の属性を識別することを可能とする移動体。 In a moving object for recognizing an area composed of a plurality of unit areas,
an object measurement unit that acquires environmental information of an object existing in the area;
an object estimation unit for estimating object attribute information indicating an attribute of an object and a position using the measured environment information;
Having a communication unit that outputs the object attribute information and the position,
The region recognition device divides the region into a plurality of partial unit regions, estimates a unit region in which the object exists using the estimated position of the object, and uses the object attribute information to determine the estimated unit region. A moving body that enables identification of the attributes of a unit area.
前記物体は、家電機器である移動体。 In the mobile body according to claim 6,
The object is a moving body that is a home appliance.
前記物体計測部は、前記環境情報として、前記家電機器で生じる音を計測して、当該家電機器の音情報を取得し、
前記物体推定部は、前記音情報を用いて、前記物体属性情報として、前記家電機器の属性を推定する移動体。 In the mobile body according to claim 7,
The object measurement unit measures the sound generated by the home appliance as the environmental information to acquire sound information of the home appliance,
The object estimating unit uses the sound information to estimate an attribute of the home appliance as the object attribute information.
さらに、前記物体計測部と、当該移動体を移動する駆動部を有し、
前記駆動部は、前記家電機器で生じる音の音源の方向へ、前記移動体を移動し、
前記物体計測部は、前記移動体の移動先で、前記家電機器で生じる音を計測する移動体。 In the mobile body according to claim 8,
further comprising the object measuring unit and a driving unit that moves the moving object,
The drive unit moves the moving body in a direction of a sound source of sound generated by the home appliance,
The object measuring unit is a moving body that measures a sound generated by the home electric appliance at a destination of the moving body.
前記領域認識装置において、予め前記単位領域の属性と、前記物体属性情報で示される物体の対応関係を示す領域属性判定ルールを用いて、前記物体属性情報で示される物体の数に応じて、前記単位領域の属性を識別する移動体。 In the moving body according to any one of claims 6 to 9,
In the area recognition device, using an area attribute determination rule indicating a correspondence relationship between an attribute of the unit area and an object indicated by the object attribute information in advance, according to the number of objects indicated by the object attribute information, the A moving object that identifies attributes of a unit area.
移動体と通信し、当該移動体から前記領域に存在する物体の属性を示す物体属性情報および位置を受け付ける通信部と、
前記領域を、複数の部分単位領域に分割する領域処理部と、
推定された前記物体の位置を用いて、当該物体が存在する単位領域を推定し、前記物体属性情報を用いて、推定された単位領域の属性を識別する属性識別部を有する領域認識装置。 In an area recognition device for recognizing an area composed of a plurality of unit areas,
a communication unit that communicates with a mobile body and receives from the mobile body object attribute information indicating the attributes of an object existing in the region and the position thereof;
a region processing unit that divides the region into a plurality of partial unit regions;
An area recognition apparatus having an attribute identification unit that estimates a unit area in which the object exists using the estimated position of the object, and identifies an attribute of the estimated unit area using the object attribute information.
前記物体は、家電機器である領域認識装置。 The region recognition device according to claim 11,
The area recognition device, wherein the object is a home appliance.
前記通信部は、前記物体属性情報として、前記移動体から、前記家電機器で生じる音に基づいて推定される前記家電機器の属性を示す家電属性情報を受け付ける領域認識装置。 13. The region recognition device according to claim 12,
The area recognition device, wherein the communication unit receives, as the object attribute information, home appliance attribute information indicating an attribute of the home appliance estimated based on the sound generated by the home appliance from the moving object.
前記通信部は、前記移動体から、当該移動体が、音源の方向への移動先で計測された音に基づいて推定される前記家電属性情報を受け付ける領域認識装置。 14. The region recognition device according to claim 13,
The area recognition device, wherein the communication unit receives the home appliance attribute information estimated based on the sound measured at the destination of movement of the moving body in the direction of the sound source from the moving body.
さらに、予め前記単位領域の属性と、前記物体属性情報で示される物体の対応関係を示す領域属性判定ルールを記憶する記憶部を有し、
前記属性識別部は、前記領域属性判定ルールを用いて、前記物体属性情報で示される物体の数に応じて、前記単位領域の属性を識別する領域認識装置。 The region recognition device according to any one of claims 11 to 14,
a storage unit that stores in advance an area attribute determination rule indicating a correspondence relationship between the attribute of the unit area and the object indicated by the object attribute information;
The attribute identification unit uses the area attribute determination rule to identify an attribute of the unit area according to the number of objects indicated by the object attribute information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021070441A JP2022165192A (en) | 2021-04-19 | 2021-04-19 | Area recognition system, moving object and area recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021070441A JP2022165192A (en) | 2021-04-19 | 2021-04-19 | Area recognition system, moving object and area recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022165192A true JP2022165192A (en) | 2022-10-31 |
Family
ID=83845685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021070441A Pending JP2022165192A (en) | 2021-04-19 | 2021-04-19 | Area recognition system, moving object and area recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022165192A (en) |
-
2021
- 2021-04-19 JP JP2021070441A patent/JP2022165192A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11961285B2 (en) | System for spot cleaning by a mobile robot | |
CN109998429B (en) | Mobile cleaning robot artificial intelligence for context awareness | |
JP7436103B2 (en) | Collaborative and persistent mapping of mobile cleaning robots | |
US20210131822A1 (en) | Exploration of an unknown environment by an autonomous mobile robot | |
CN112739244A (en) | Mobile robot cleaning system | |
JP6979961B2 (en) | How to control an autonomous mobile robot | |
US10423163B2 (en) | Mobile robot and method of controlling same | |
KR102577785B1 (en) | Cleaning robot and Method of performing task thereof | |
KR20190098201A (en) | Extract 2D floor plans from 3D grid representations of interior spaces | |
KR20180070062A (en) | A movable object and a method for controlling the same | |
KR20200059666A (en) | Moving device and method of detecting object thereof | |
US11055341B2 (en) | Controlling method for artificial intelligence moving robot | |
KR20230134109A (en) | Cleaning robot and Method of performing task thereof | |
KR102302198B1 (en) | Cleaning apparatus and controlling method thereof | |
JP2022165192A (en) | Area recognition system, moving object and area recognition device | |
US20220334587A1 (en) | Method for processing map of closed space, apparatus, and mobile device | |
TWI760881B (en) | Robot cleaner and method for controlling the same | |
JP7417944B2 (en) | Autonomous vacuum cleaner, autonomous vacuum cleaner control method, and program | |
JP2023090247A (en) | Autonomous traveling type robot system, determination adjustment method, and program | |
CN117908531A (en) | Method for determining a selection area in the environment of a mobile device | |
KR20220121483A (en) | Method of intelligently generating map and mobile robot thereof | |
KR20240049072A (en) | Method for controlling electronic device using spatial information and electronic device using spatial information | |
CN117970908A (en) | Method and device for generating working map of intelligent mobile device |