JP2013246588A - Function execution device, spatial information utilization system, function execution method, control program, and recording medium - Google Patents

Function execution device, spatial information utilization system, function execution method, control program, and recording medium Download PDF

Info

Publication number
JP2013246588A
JP2013246588A JP2012119057A JP2012119057A JP2013246588A JP 2013246588 A JP2013246588 A JP 2013246588A JP 2012119057 A JP2012119057 A JP 2012119057A JP 2012119057 A JP2012119057 A JP 2012119057A JP 2013246588 A JP2013246588 A JP 2013246588A
Authority
JP
Japan
Prior art keywords
action
unit
information
self
function execution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012119057A
Other languages
Japanese (ja)
Inventor
Minako Kuwata
みな子 桑田
Masaki Hashiura
正樹 橋浦
Kei Iwata
圭 岩田
Ryoji Yoshimoto
良治 吉本
Takayuki Nagamatsu
孝之 永松
Chie Hideishi
千絵 秀石
Azusa Umemoto
あずさ 梅本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012119057A priority Critical patent/JP2013246588A/en
Publication of JP2013246588A publication Critical patent/JP2013246588A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve user convenience by taking action against an object recognized in real space.SOLUTION: In a function execution device, while the function execution device is moving in real space by itself, an object which the function execution device reaches during the movement by itself is recognized with an object recognition unit 50, and with respect to the reached object or around the reached object, an action associated with the recognized object is executed with an action execution unit 51.

Description

本発明は、実空間を模した仮想空間を利用するための、機能実行装置、空間情報利用システム、機能実行方法、制御プログラム、および、記録媒体に関するものである。   The present invention relates to a function execution device, a space information utilization system, a function execution method, a control program, and a recording medium for using a virtual space imitating a real space.

従来、実空間を模した仮想空間を生成する技術が、さまざまな情報処理装置に適用されてきた。   Conventionally, a technique for generating a virtual space imitating a real space has been applied to various information processing apparatuses.

例えば、特許文献1には、携帯型ユーザ端末の画面に家電機器に係るGUI(例えば、仮想部屋)を表示することにより、宅内ネットワークに接続されている家電機器を遠隔制御するシステムが開示されている。より具体的には、携帯型ユーザ端末は、ホームサーバから各家電機器の詳細情報を取得して、携帯型ユーザ端末から制御できる項目を把握し、各家電機器を制御するためのコントロールパネルなどを表示する。   For example, Patent Document 1 discloses a system for remotely controlling home appliances connected to a home network by displaying a GUI (for example, a virtual room) related to the home appliances on the screen of a portable user terminal. Yes. More specifically, the portable user terminal obtains detailed information of each home appliance from the home server, grasps items that can be controlled from the portable user terminal, and includes a control panel for controlling each home appliance. indicate.

特許文献2には、パソコンによって実空間の家庭内機器を制御する制御システムが開示されている。この制御システムでは、パソコンが制御可能な家庭内機器の絵又は写真が配置されたバーチャルルームが、パソコンのディスプレイに表示される。ディスプレイに表示された家庭内機器が操作されると、パソコンから実空間の家庭内機器に対する制御が可能となる。   Patent Document 2 discloses a control system for controlling home devices in a real space by a personal computer. In this control system, a virtual room in which pictures or photographs of household devices that can be controlled by a personal computer are displayed on the display of the personal computer. When the home device displayed on the display is operated, the home device in the real space can be controlled from the personal computer.

特許文献3には、物体の配置に関する仮の地図情報を有する移動ロボットが、上記仮の地図情報に不正確な部分があることを検出したときに、不正確な部分に対応する物体を計測し、計測結果に基づいて、上記仮の地図情報を修正することが開示されている。   In Patent Document 3, when a mobile robot having temporary map information related to the arrangement of an object detects that there is an inaccurate part in the temporary map information, the object corresponding to the inaccurate part is measured. It is disclosed that the temporary map information is corrected based on the measurement result.

特許文献4には、ユーザとの対話を通して対象とする物体の名前をユーザから取得するとともに、物体が新規であると判断した場合に、当該物体の特徴を学習し、学習結果と、取得された上記物体の名前とを関連付けて新たに記憶する学習装置が開示されている。   In Patent Document 4, the name of a target object is acquired from the user through a dialogue with the user, and when it is determined that the object is new, the characteristics of the object are learned, and the learning result and the acquired result are acquired. A learning device that newly stores the object name in association with the object name is disclosed.

特開2004−135051号公報(2004年4月30日公開)JP 2004-135051 A (published April 30, 2004) 特開2003−085356号公報(2003年3月20日公開)JP 2003-085356 (March 20, 2003) 特開2003−345438号公報(2003年12月5日公開)JP 2003-345438 A (released on December 5, 2003) 特開2007−021719号公報(2007年2月1日公開)JP 2007-021719 A (published on February 1, 2007)

特許文献1〜3の技術によれば、仮想部屋で実現された操作ツールによって、ユーザは、手元の通信端末装置(例えば、パソコン)から制御可能な被制御機器を直感的に把握することが可能である。   According to the techniques of Patent Documents 1 to 3, the user can intuitively grasp the controlled device that can be controlled from the communication terminal device (for example, a personal computer) at hand by using the operation tool realized in the virtual room. It is.

しかしながら、特許文献1〜3の技術では、この技術によって実現された操作ツールが作用する対象(実空間に存在する物体)は、手元の通信端末装置と通信することができる物体(被制御機器)に限られているという問題がある。例えば、通信端末装置と通信することができない物体に対して何らかのアクションを実行することはできなかった。   However, in the techniques of Patent Documents 1 to 3, an object (an object existing in real space) on which an operation tool realized by this technique acts is an object (controlled device) that can communicate with a communication terminal device at hand. There is a problem that it is limited to. For example, some action cannot be performed on an object that cannot communicate with the communication terminal device.

また、遠隔地から通信端末装置だけを用いて、機器に限らずあらゆる物体の物理的環境を制御することはできない。   Also, it is impossible to control the physical environment of any object, not limited to equipment, using only a communication terminal device from a remote location.

なお、特許文献4は、ユーザとの対話を通して対象とする物体の特徴を学習する発明である。そのため、物体を学習したからといって、当該物体に対して何らかのアクションを実行するというものではない。   Patent Document 4 is an invention that learns the characteristics of a target object through dialogue with a user. Therefore, just learning an object does not mean that some action is performed on the object.

この問題は、通信非対応の物体を遠隔制御したい場合に限って生じる問題ではない。上記の問題は、実空間で認識されたあらゆる物体に対してあらゆるアクションを起こしたい場合に、同様に生じる問題である。   This problem is not a problem that arises only when it is desired to remotely control a non-communication object. The above problem is similarly caused when it is desired to perform any action on any object recognized in real space.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、実空間で認識された物体に対してアクションを起こすことにより、ユーザの利便性を向上させることが可能な機能実行装置、空間情報利用システム、機能実行方法、制御プログラム、および、記録媒体を実現することにある。   The present invention has been made in view of the above-described problems, and its purpose is to execute a function capable of improving user convenience by taking action on an object recognized in real space. An apparatus, a spatial information utilization system, a function execution method, a control program, and a recording medium are realized.

本発明の機能実行装置は、上記課題を解決するために、実空間を自走して実空間に対して作用する機能実行装置において、実空間に存在する物体のうち、当該機能実行装置が自走中に到達した物体を認識する物体認識手段と、当該機能実行装置が到達した物体に対してアクションを実行するアクション実行手段とを備え、上記物体認識手段は、上記実空間に存在する各物体の特徴を示す物体情報を記憶する空間情報記憶部を参照して、該空間情報記憶部に記憶されている物体情報の中から、当該機能実行装置が自走中に到達した物体の特徴と類似する物体情報を特定することによって物体を認識し、上記アクション実行手段は、特定された上記物体情報に関連付けられているアクションを実行することを特徴としている。   In order to solve the above problems, the function execution device of the present invention is a function execution device that self-runs in real space and acts on the real space. An object recognizing unit that recognizes an object that has arrived while running, and an action executing unit that performs an action on the object that the function execution device has reached, wherein the object recognizing unit includes each object existing in the real space Referring to the spatial information storage unit that stores the object information indicating the characteristics of the object, the object information stored in the spatial information storage unit is similar to the feature of the object that the function execution device has reached during self-running The object is recognized by specifying object information to be performed, and the action executing means executes an action associated with the specified object information.

上記構成によれば、機能実行装置は、自走中に物体に到達した場合には、その物体に関連する最適なアクションを実行することができる。つまり、ユーザの代わりに機能実行装置が物体のそばに行き、その物体またはその物体の周辺に対して作用することができる。   According to the above configuration, when the function execution device reaches an object during self-running, the function execution device can execute an optimum action related to the object. That is, the function execution device can go to the object instead of the user and act on the object or the periphery of the object.

結果として、ユーザは、実空間に居合わせるか否かにかかわらず、実空間で認識された物体に対してアクションを起こすことが可能となり、ユーザの利便性を向上させることが可能になるという効果を奏する。   As a result, regardless of whether or not the user is present in the real space, the user can take action on the object recognized in the real space, and the convenience of the user can be improved. Play.

本発明の機能実行装置は、さらに、上記機能実行装置は、実空間を自走しながら基本機能を実行するものであり、上記アクション実行手段は、上記物体認識手段によって特定された上記物体情報に関連付けられているアクションを、当該機能実行装置が基本機能を実行しながら自走しているときに到達した物体に対して実行してもよい。   In the function execution device of the present invention, the function execution device further executes a basic function while running in real space, and the action execution means includes the object information specified by the object recognition means. The associated action may be executed on an object that is reached when the function execution device is running while executing the basic function.

上記構成によれば、機能実行装置は、まず、基本機能を実行するために実空間内を自走する。機能実行装置は、自走して物体に衝突したり、物体の真下に来たり、物体の真上に来たりして、自走中に、実空間に設置されているあらゆる物体に到達する。   According to the above configuration, the function execution device first runs in the real space in order to execute the basic function. The function execution device self-propels and collides with an object, comes directly under the object, or comes directly above the object, and reaches any object installed in the real space during the self-run.

物体認識手段は、自走中に機能実行装置が実空間内のある物体に到達すれば、その物体が何であるのかを認識する。物体認識手段は、機能実行装置が到達した実際の物体が空間情報記憶部に登録されている物体のうちどれであるのかを特定することにより、上記実際の物体を認識する。より具体的には、空間情報記憶部には、上記実空間内に設置されている物体のそれぞれについて物体の特徴を示す物体情報が登録されている。実空間に存在する各物体のそれぞれの物体情報の集合によって、当該実空間に対応する空間情報が構成される。物体認識手段は、機能実行装置が自走中に到達した実際の物体の特徴と類似する物体情報を空間情報記憶部の中から特定する。つまり、物体認識手段は、特定した物体情報を持つ物体が、機能実行装置が自走中に到達した実際の物体の正体であると認識する。   The object recognizing means recognizes what the object is if the function execution device reaches an object in the real space during self-running. The object recognition means recognizes the actual object by specifying which of the objects registered in the spatial information storage unit is the actual object reached by the function execution device. More specifically, object information indicating the characteristics of the object is registered in the space information storage unit for each object installed in the real space. Spatial information corresponding to the real space is constituted by a set of object information of each object existing in the real space. The object recognition means specifies object information similar to the feature of the actual object that the function execution device has reached during self-running from the spatial information storage unit. That is, the object recognizing means recognizes that the object having the specified object information is the actual object that the function execution apparatus has reached while it is running.

続いて、アクション実行手段は、機能実行装置が自走中に到達した実際の物体に対して、アクションを実行する。アクション実行手段は、機能実行装置が自走中に上記基本機能を実行するのに加えて、上記アクションを実行する。実行すべきアクションは、物体ごとにあらかじめ定められている。具体的には、空間情報記憶部において、各物体の各物体情報には、アクションが関連付けられている。アクション実行手段は、物体認識手段によって認識された物体、すなわち、実際の物体と特徴が類似していると特定された物体情報に関連付けられているアクションを、当該機能実行装置が到達した実際の物体に対して実行する。   Subsequently, the action execution means executes an action on an actual object that the function execution device has reached while running. The action execution means executes the action in addition to executing the basic function while the function execution device is running. The action to be executed is predetermined for each object. Specifically, in the spatial information storage unit, an action is associated with each object information of each object. The action execution means is an object recognized by the object recognition means, that is, an actual object that the function execution device has reached for an action associated with object information identified as having similar characteristics to the actual object. Run against.

以上のとおり、機能実行装置は、自走して基本機能を実行する一方、自走中に物体に到達した場合には、その物体に対応した最適なアクションを、当該物体に対して実行することができる。つまり、ユーザの代わりに機能実行装置が物体のそばに行き、その物体に対して作用する。   As described above, the function execution device self-runs and executes the basic function, and when it reaches the object during the self-run, the function execution device executes the optimum action corresponding to the object on the object. Can do. That is, the function execution device goes to the object instead of the user and acts on the object.

このように、本願発明の機能実行装置は、基本機能(例えば、掃除など)を実行している間に偶然立ち寄った物体がどのような物体であっても、その物体を認識し、その物体に合ったアクションを実行することができる。   As described above, the function execution device according to the present invention recognizes an object that is accidentally stopped while executing a basic function (for example, cleaning), and recognizes the object. The appropriate action can be executed.

結果として、ユーザは、実空間に居合わせるか否かにかかわらず、実空間で認識された物体に対してアクションを起こすことが可能となり、ユーザの利便性を向上させることが可能になるという効果を奏する。   As a result, regardless of whether or not the user is present in the real space, the user can take action on the object recognized in the real space, and the convenience of the user can be improved. Play.

本発明の機能実行装置は、さらに、上記アクション実行手段がアクションを実行した結果を示すアクション実行結果を、特定された上記物体情報に関連付けて空間情報記憶部に登録する実行結果登録手段を備えていてもよい。   The function execution device of the present invention further includes an execution result registration unit that registers an action execution result indicating a result of execution of the action by the action execution unit in the spatial information storage unit in association with the specified object information. May be.

上記構成によれば、ユーザは、機能実行装置またはその他の通信端末装置を用いて空間情報記憶部にアクセスすることにより、各物体の物体情報およびアクション実行結果を閲覧することが可能となる。   According to the above configuration, the user can browse the object information and the action execution result of each object by accessing the spatial information storage unit using the function execution device or other communication terminal device.

ユーザは、機能実行装置がアクションを実行した結果、実空間または実空間に存在する各物体がどうなったのかを即時、または、任意のタイミングで簡単に確認することが可能となる。結果として、ユーザの利便性をより一層向上させることが可能となる。   As a result of the action executed by the function execution apparatus, the user can easily confirm immediately or at any timing what has happened to the real space or each object existing in the real space. As a result, user convenience can be further improved.

上記空間情報記憶部に記憶されている各物体情報には、さらに、追加アクションとその実行条件とを指定する追加シナリオが関連付けられており、本発明の機能実行装置において、上記アクション実行手段は、上記アクション実行結果が、上記実行条件に当てはまる場合に、上記追加アクションを実行することが好ましい。   Each object information stored in the spatial information storage unit is further associated with an additional scenario that specifies an additional action and its execution condition.In the function execution device of the present invention, the action execution means includes: It is preferable to execute the additional action when the action execution result satisfies the execution condition.

上記構成によれば、アクション実行手段は、まず、上述の手順で、機能実行装置が到達した実際の物体に対して、その物体に対応する初回のアクションを実行する。そして、これに伴い、実行結果登録手段がアクション実行結果を得る。ここでさらに、アクション実行手段は、上記物体(の物体情報)に関連付けられている追加シナリオを参照する。得られた上記アクション実行結果が、上記追加シナリオにおいて指定されている実行条件に当てはまっていれば、アクション実行手段は、上記追加シナリオにおいて指定されている追加アクションを実行する。   According to the above configuration, the action executing means first executes the first action corresponding to the actual object reached by the function execution device in the above-described procedure. Accordingly, the execution result registration means obtains the action execution result. Further, the action execution means refers to an additional scenario associated with the object (object information). If the obtained action execution result is applicable to the execution condition specified in the additional scenario, the action execution means executes the additional action specified in the additional scenario.

このように、あらかじめ固定で定められているアクションを物体に対して実行するだけでなく、そのときの実空間の状況に応じて、動的に、追加アクションの実行/不実行を制御することが可能となる。   In this way, not only can a predetermined action be executed on an object, but also the execution / non-execution of an additional action can be dynamically controlled according to the situation in the real space at that time. It becomes possible.

上記追加シナリオにおいて、さらに、追加アクションの実行対象である対象物体が指定されており、本発明の機能実行装置は、さらに、上記アクション実行手段が上記追加アクションを実行する場合に、上記対象物体に到達するように当該機能実行装置の走行駆動部を制御する走行制御手段を備えていることが好ましい。   In the additional scenario, a target object that is an execution target of the additional action is specified, and the function execution device of the present invention further specifies the target object when the action execution unit executes the additional action. It is preferable to include a travel control means for controlling the travel drive unit of the function execution device so as to reach.

上記構成によれば、基本機能を実行するために自走することを目的として駆動していた走行駆動部を、一時的に、追加アクションの対象物体に到達することを目的として駆動するように切り替えることが可能となる。   According to the above configuration, the traveling drive unit that has been driven for the purpose of executing the basic function is temporarily switched to be driven for the purpose of reaching the target object of the additional action. It becomes possible.

上記アクション実行手段は、センサを介して、当該機能実行装置が到達した物体または当該物体の周辺環境の物理的状態を測定することにより上記アクションを実行することができる。   The action execution means can execute the action by measuring a physical state of an object reached by the function execution device or a surrounding environment of the object via a sensor.

これにより、機能実行装置に物体の物理的状態を測定させることができる。ユーザは、測定結果の情報を得て、実空間に居合わせなくても、実空間に居るときと同じように物体の物理的状態を知ることが可能となる。   This allows the function execution device to measure the physical state of the object. The user can obtain information on the measurement result and know the physical state of the object in the same way as in the real space without being in the real space.

上記アクション実行手段は、近距離無線通信部を介して、当該機能実行装置が到達した物体を遠隔操作する、または、当該物体の論理的状態を取得することにより上記アクションを実行することができる。   The action execution means can execute the action by remotely operating the object reached by the function execution device or acquiring the logical state of the object via the short-range wireless communication unit.

これにより、ユーザは、機能実行装置に、物体の論理的状態(機器のソフトウェア上の状態)をチェックさせたり、設定を変更させたり、遠隔操作させたりすることが可能となる。つまり、ユーザは、実空間に居合わせなくても、実空間に居る時と同じように、実空間の物体(機器など)を操作することが可能となる。本発明の機能実行装置は、ユーザが通信端末装置から通信ネットワークを介して遠隔制御できない物体(機器)に対しても適用することが可能である。   As a result, the user can cause the function execution device to check the logical state of the object (the state on the software of the device), change the setting, or perform a remote operation. That is, even if the user is not in the real space, the user can operate an object (device or the like) in the real space in the same manner as when the user is in the real space. The function execution device of the present invention can also be applied to an object (device) that cannot be remotely controlled by a user from a communication terminal device via a communication network.

上記アクション実行手段は、当該機能実行装置が到達した物体または当該物体の周辺環境の物理量を変化させることにより上記アクションを実行することができる。   The action execution means can execute the action by changing the physical quantity of the object reached by the function execution device or the surrounding environment of the object.

これにより、ユーザは、機能実行装置に、実空間の物理量を変化させて、実空間に居合わせなくても、実空間に居る時と同じように、実空間および実空間内の各物体に対して影響を与えることが可能となる。   As a result, the user can change the physical quantity of the real space to the function execution device so that the physical execution can be performed for each object in the real space and the real space, as in the real space without being in the real space. It is possible to influence.

本発明の機能実行装置は、上記実空間に新規に存在する新規物体について、上記空間情報記憶部に、物体情報が新規に登録された場合に、上記アクション実行手段に上記新規物体に対して実行させるアクションを、上記新規物体の物体情報に関連付けるアクション登録手段を備え、物体の正体を特定する物体特定情報ごとに、当該物体に対して実行可能なアクション群を関連付けた物体特定品目が物体特定品目記憶部に記憶されており、上記アクション登録手段は、上記物体特定品目から、上記新規物体に対して実行可能なアクションを選択して、上記新規物体の物体情報に関連付けることができる。   The function execution device of the present invention executes a new object newly existing in the real space when the object information is newly registered in the space information storage unit with respect to the new object. Action specifying means for associating the action to be performed with the object information of the new object, and for each object specifying information for specifying the identity of the object, an object specifying item that associates an action group that can be executed on the object is an object specifying item The action registering means is stored in the storage unit, and can select an action that can be executed on the new object from the object specifying item and associate the action with the object information of the new object.

これにより、実空間に新しい物体が設置され、その新規の物体について新しく空間情報記憶部に物体情報が登録された場合に、その物体に対しても適切なアクションが実行されるようにアクションを関連付けておくことが可能となる。   As a result, when a new object is installed in the real space and the object information is newly registered in the space information storage unit for the new object, the action is associated with the object so that an appropriate action is executed. It is possible to keep.

上述の本発明の機能実行装置と、上記機能実行装置によって参照される、上記機能実行装置が自走する実空間に存在する各物体の物体情報を記憶する上記空間情報記憶部と、上記空間情報記憶部に記憶されている物体情報を利用して、上記実空間に対応する仮想空間を作成する空間情報利用装置とによって構築される空間情報利用システムも本発明の範疇に入る。   The function execution device of the present invention described above, the spatial information storage unit that stores the object information of each object that is referred to by the function execution device and that exists in the real space where the function execution device self-runs, and the spatial information A spatial information utilization system constructed by a spatial information utilization apparatus that creates a virtual space corresponding to the real space using the object information stored in the storage unit also falls within the scope of the present invention.

なお、上記空間情報利用システムにおいて、上記空間情報利用装置は、上記実空間に存在する各物体の物体情報を上記空間情報記憶部から取得する情報取得手段と、上記情報取得手段によって取得された各物体情報に基づいて、上記実空間に対応する仮想空間を作成する仮想空間作成手段とを備えていることが好ましい。   In the spatial information utilization system, the spatial information utilization device includes information acquisition means for acquiring object information of each object existing in the real space from the spatial information storage unit, and each of the information acquisition means acquired by the information acquisition means. It is preferable to include a virtual space creating unit that creates a virtual space corresponding to the real space based on the object information.

上記構成によれば、空間情報利用装置は、仮想空間作成手段によって作成された仮想空間を、機能実行装置にアクションを実行させるための操作を行うユーザインターフェースとして用いることが可能となる。ユーザは、空間情報利用装置に表示された仮想空間を用いて、実空間に作用する機能実行装置を直感的な操作で制御することができる。   According to the above configuration, the space information utilization device can use the virtual space created by the virtual space creation means as a user interface for performing an operation for causing the function execution device to execute an action. Using the virtual space displayed on the space information utilization device, the user can control the function execution device acting on the real space with an intuitive operation.

なお、上記空間情報利用システムにおいて、上記仮想空間作成手段は、上記空間情報記憶部において各物体情報に関連付けられているアクションおよびアクション実行結果の少なくともいずれか一方を表す情報を、当該物体の図形とともに上記仮想空間に配置することが好ましい。   In the spatial information utilization system, the virtual space creation means displays information representing at least one of an action and an action execution result associated with each object information in the spatial information storage unit together with a graphic of the object. It is preferable to arrange in the virtual space.

上記構成によれば、ユーザインターフェースとして用いられる仮想空間に、さらに、物体の特徴だけではなく、物体に関連付けられているアクションおよびアクション実行結果が表示される。ユーザは、空間情報利用装置に表示された仮想空間を用いて、実空間に作用する機能実行装置を直感的な操作で制御することができる上に、その実行結果を上記仮想空間から容易に閲覧することが可能となる。   According to the above configuration, not only the feature of the object but also the action associated with the object and the action execution result are displayed in the virtual space used as the user interface. Using the virtual space displayed on the space information utilization device, the user can control the function execution device acting on the real space with an intuitive operation, and easily view the execution result from the virtual space. It becomes possible to do.

本発明の機能実行方法は、上記課題を解決するために、実空間を自走して実空間に対して作用する機能実行装置による機能実行方法であって、実空間に存在する物体のうち、上記機能実行装置が自走中に到達した物体を認識する物体認識ステップと、上記機能実行装置が到達した物体に対してアクションを実行するアクション実行ステップとを含み、上記物体認識ステップでは、上記実空間に存在する各物体の特徴を示す物体情報を記憶する空間情報記憶部を参照して、該空間情報記憶部に記憶されている物体情報の中から、上記機能実行装置が自走中に到達した物体の特徴と類似する物体情報を特定することによって物体を認識し、上記アクション実行ステップでは、特定された上記物体情報に関連付けられているアクションを実行することを特徴としている。   In order to solve the above problems, the function execution method of the present invention is a function execution method by a function execution device that self-runs in real space and acts on the real space. An object recognition step for recognizing an object that the function execution device has reached during self-running, and an action execution step for executing an action on the object that the function execution device has reached. With reference to a spatial information storage unit that stores object information indicating the characteristics of each object existing in space, the function execution device arrives during self-running from the object information stored in the spatial information storage unit The object is recognized by specifying object information similar to the feature of the object, and in the action execution step, an action associated with the specified object information is executed. It is characterized in.

なお、上記機能実行装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記機能実行装置をコンピュータにて実現させる機能実行装置の制御プログラム、および、それを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The function execution device may be realized by a computer. In this case, the function execution device control program for causing the function execution device to be realized by the computer by causing the computer to operate as each of the means, and A computer-readable recording medium on which it is recorded also falls within the scope of the present invention.

本発明の機能実行装置は、上記課題を解決するために、実空間を自走して実空間に対して作用する機能実行装置において、実空間に存在する物体のうち、当該機能実行装置が自走中に到達した物体を認識する物体認識手段と、当該機能実行装置が到達した物体に対してアクションを実行するアクション実行手段とを備え、上記物体認識手段は、上記実空間に存在する各物体の特徴を示す物体情報を記憶する空間情報記憶部を参照して、該空間情報記憶部に記憶されている物体情報の中から、当該機能実行装置が自走中に到達した物体の特徴と類似する物体情報を特定することによって物体を認識し、上記アクション実行手段は、特定された上記物体情報に関連付けられているアクションを実行することを特徴としている。   In order to solve the above problems, the function execution device of the present invention is a function execution device that self-runs in real space and acts on the real space. An object recognizing unit that recognizes an object that has arrived while running, and an action executing unit that performs an action on the object that the function execution device has reached, wherein the object recognizing unit includes each object existing in the real space Referring to the spatial information storage unit that stores the object information indicating the characteristics of the object, the object information stored in the spatial information storage unit is similar to the feature of the object that the function execution device has reached during self-running The object is recognized by specifying object information to be performed, and the action executing means executes an action associated with the specified object information.

本発明の機能実行方法は、上記課題を解決するために、実空間を自走して実空間に対して作用する機能実行装置による機能実行方法であって、実空間に存在する物体のうち、上記機能実行装置が自走中に到達した物体を認識する物体認識ステップと、上記機能実行装置が到達した物体に対してアクションを実行するアクション実行ステップとを含み、上記物体認識ステップでは、上記実空間に存在する各物体の特徴を示す物体情報を記憶する空間情報記憶部を参照して、該空間情報記憶部に記憶されている物体情報の中から、上記機能実行装置が自走中に到達した物体の特徴と類似する物体情報を特定することによって物体を認識し、上記アクション実行ステップでは、特定された上記物体情報に関連付けられているアクションを実行することを特徴としている。   In order to solve the above problems, the function execution method of the present invention is a function execution method by a function execution device that self-runs in real space and acts on the real space, and among the objects existing in the real space, An object recognition step for recognizing an object that the function execution device has reached during self-running, and an action execution step for executing an action on the object that the function execution device has reached. With reference to a spatial information storage unit that stores object information indicating the characteristics of each object existing in space, the function execution device arrives during self-running from the object information stored in the spatial information storage unit The object is recognized by specifying object information similar to the feature of the object, and in the action execution step, an action associated with the specified object information is executed. It is characterized in.

結果として、実空間で認識された物体に対してアクションを起こすことにより、ユーザの利便性を向上させることが可能になるという効果を奏する。   As a result, the user's convenience can be improved by taking action on the object recognized in the real space.

本発明の一実施形態における、機能実行装置としての自走式掃除機の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the self-propelled cleaner as a function execution apparatus in one Embodiment of this invention. 本発明の仮想部屋利用システムの概要を示す図である。It is a figure which shows the outline | summary of the virtual room utilization system of this invention. 上記自走式掃除機の斜視図である。It is a perspective view of the self-propelled cleaner. 上記自走式掃除機の底面図である。It is a bottom view of the self-propelled cleaner. 上記自走式掃除機のハードウェア構成を模式的に示すブロック図である。It is a block diagram which shows typically the hardware constitutions of the said self-propelled cleaner. 本発明の一実施形態における、空間情報利用装置としての通信端末装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the communication terminal device as a spatial information utilization apparatus in one Embodiment of this invention. 上記仮想部屋利用システムにおける空間情報記憶部に記憶されている、実空間RSの空間情報のデータ構造および具体例を示す図である。It is a figure which shows the data structure and specific example of the spatial information of real space RS memorize | stored in the spatial information storage part in the said virtual room utilization system. 空間情報によって定義される、実空間RSの座標系を示す図である。It is a figure which shows the coordinate system of real space RS defined by spatial information. 上記仮想部屋利用システムにおける物体特定品目記憶部に記憶されている物体特定品目のデータ構造および具体例を示す図である。It is a figure which shows the data structure and specific example of the object specific item memorize | stored in the object specific item memory | storage part in the said virtual room utilization system. 上記仮想部屋利用システムにおけるアクション記憶部に記憶されているアクション管理情報のデータ構造および具体例を示す図である。It is a figure which shows the data structure of action management information memorize | stored in the action memory | storage part in the said virtual room utilization system, and a specific example. 通信端末装置の仮想空間作成部が作成した仮想空間VSの表示形態の一具体例を示す図である。It is a figure which shows an example of the display form of virtual space VS which the virtual space creation part of the communication terminal device created. 上記仮想部屋利用システムにおける空間情報記憶部に記憶されている、実空間RSの空間情報の、他の、データ構造および具体例を示す図である。It is a figure which shows the other data structure and specific example of the spatial information of real space RS memorize | stored in the spatial information storage part in the said virtual room utilization system. 自走式掃除機のアクション実行機能に係る処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which concerns on the action execution function of a self-propelled cleaner. 自走式掃除機の追加アクション実行機能に係る処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which concerns on the additional action execution function of a self-propelled cleaner.

≪実施形態1≫
本発明の実施形態について、図1〜図14に基づいて説明すると以下の通りである。
Embodiment 1
An embodiment of the present invention will be described below with reference to FIGS.

以下で説明する実施形態では、一例として、本発明の機能実行装置を、自走式機器に搭載した例について説明する。自走式機器は、これには限定されないが、例えば、掃除機(以下、自走式掃除機)である。また、仮想部屋利用システムについても説明する。本発明の機能実行装置は、後述する他の装置と連携して、本発明の上記仮想部屋利用システムを構築する。本発明の仮想部屋利用システムによれば、上記自走式掃除機(機能実行装置)が生成した空間情報を利用して、仮想部屋(バーチャルルーム)を作成したり、作成された仮想部屋をユーザに提示したりすることが可能である。さらに、本発明の仮想部屋利用システムによれば、上記仮想部屋を操作ツールとして用いて、自走式掃除機1に対して、実空間に存在するあらゆる物体に対するアクションを実行させることが可能である。   In the embodiment described below, an example in which the function execution device of the present invention is mounted on a self-propelled device will be described as an example. Although a self-propelled apparatus is not limited to this, For example, it is a vacuum cleaner (henceforth, self-propelled cleaner). A virtual room utilization system will also be described. The function execution device of the present invention constructs the virtual room utilization system of the present invention in cooperation with other devices described later. According to the virtual room utilization system of the present invention, a virtual room (virtual room) is created using the spatial information generated by the self-propelled cleaner (function execution device), or the created virtual room is used by the user. It is possible to present it. Furthermore, according to the virtual room utilization system of the present invention, it is possible to cause the self-propelled cleaner 1 to execute an action on any object existing in the real space using the virtual room as an operation tool. .

なお、以下の図面において同一または相当する部分には、同一の参照符号を付すものとし、それらの説明は重複して行なわない。また、図面における長さ、大きさおよび幅などの寸法関係ならびに形状は、図面の明瞭化と簡略化のために適宜に変更されており、実際の寸法および形状を表してはいない。   In the following drawings, the same or corresponding parts are denoted by the same reference numerals, and description thereof will not be repeated. In addition, dimensional relationships such as length, size, and width, and shapes in the drawings are appropriately changed for clarity and simplification of the drawings, and do not represent actual dimensions and shapes.

〔仮想部屋利用システムの概要〕
図2は、本発明の仮想部屋利用システム100の概要を示す図である。
[Outline of virtual room usage system]
FIG. 2 is a diagram showing an outline of the virtual room utilization system 100 of the present invention.

仮想部屋利用システム100は、少なくとも、機能実行装置と、空間情報利用装置と、空間情報記憶部と、物体特定品目記憶部と、アクション記憶部とを含む構成である。   The virtual room utilization system 100 includes at least a function execution device, a spatial information utilization device, a spatial information storage unit, an object specific item storage unit, and an action storage unit.

機能実行装置は、実空間RSにて、基本機能を実行する一方、実空間RSに存在するあらゆる物体に対してアクションを実行する装置である。基本機能とは、上記アクションを実行する機能をサブ機能とした場合に、当該機能実行装置が備える本来のメイン機能を指す。図2に示すとおり、本実施形態では、本発明の機能実行装置は、自走式掃除機(自走式機器)1として実現される。すなわち、ここでは、自走式掃除機1の基本機能は掃除機能および自走機能である。しかし、機能実行装置は、自走式掃除機に限定されるものではなく、基本機能と、基本機能とは異なるアクションを実行する機能とを備えていれば、どのような機器によって実現されてもよい。   The function execution device is a device that executes an action on every object existing in the real space RS while executing a basic function in the real space RS. The basic function refers to the original main function of the function execution device when the function for executing the action is a sub function. As shown in FIG. 2, in the present embodiment, the function execution device of the present invention is realized as a self-propelled cleaner (self-propelled device) 1. That is, here, the basic functions of the self-propelled cleaner 1 are a cleaning function and a self-propelled function. However, the function execution device is not limited to a self-propelled cleaner, and can be realized by any device as long as it has a basic function and a function for executing an action different from the basic function. Good.

なお、機能実行装置は、必須ではないが、自走する構成を有していることが好ましい。なぜなら、実空間RSのどこに物体が設置されていたとしても、あらゆる物体に対して至近距離にてアクションを実行することが可能となるからである。   In addition, although the function execution apparatus is not essential, it is preferable to have the structure which self-runs. This is because, regardless of where the object is placed in the real space RS, it is possible to execute an action at a close distance to any object.

機能実行装置は、さらに、実空間RSの情報を収集して実空間RSについての空間情報を生成する機能を備えていてもよい。   The function execution device may further include a function of collecting information on the real space RS and generating spatial information about the real space RS.

空間情報のデータ構造については後に後述する。   The data structure of the spatial information will be described later.

空間情報記憶部2は、自走式掃除機1によって生成された空間情報を蓄積するためのものである。   The spatial information storage unit 2 is for accumulating the spatial information generated by the self-propelled cleaner 1.

物体特定品目記憶部6は、実空間RSに存在すると想定されるあらゆる物体に関する情報を有した物体特定品目を記憶するものである。   The object specifying item storage unit 6 stores an object specifying item having information on all objects assumed to exist in the real space RS.

図2において図示しないアクション記憶部7(図1に記載)は、自走式掃除機1に実行させる幾種類ものアクションを具体的に定義したアクション管理情報を記憶するものである。   An action storage unit 7 (described in FIG. 1) not shown in FIG. 2 stores action management information that specifically defines several types of actions that the self-propelled cleaner 1 executes.

空間情報利用装置は、空間情報記憶部2に蓄積された空間情報を利用して情報処理する装置である。図2に示すとおり、本実施形態では、本発明の空間情報利用装置は、例えば、ユーザUの手持ちの通信端末装置3として実現される。より具体的には、通信端末装置3は、例えば、タブレット端末、スマートフォン、携帯電話機、PDA(Personal Digital Assistant)、ノート型パソコン、携帯型ゲーム機、電子手帳、電子書籍リーダ、デジタルカメラなどである。しかし、通信端末装置3は、上記に限定されず、空間情報記憶部2に接続して情報を取得する機能を備えていれば、どのような機器によって実現されてもよい。また、空間情報利用装置は、携帯型の電子機器である必要はなく、デスクトップパソコンで実現されてもよい。   The spatial information utilization device is a device that performs information processing using the spatial information stored in the spatial information storage unit 2. As shown in FIG. 2, in this embodiment, the spatial information utilization apparatus of this invention is implement | achieved as the communication terminal device 3 which the user U has, for example. More specifically, the communication terminal device 3 is, for example, a tablet terminal, a smartphone, a mobile phone, a PDA (Personal Digital Assistant), a notebook computer, a portable game machine, an electronic notebook, an electronic book reader, a digital camera, or the like. . However, the communication terminal device 3 is not limited to the above, and may be realized by any device as long as it has a function of connecting to the spatial information storage unit 2 and acquiring information. Further, the spatial information utilization device does not have to be a portable electronic device, and may be realized by a desktop personal computer.

本実施形態では、空間情報利用装置としての通信端末装置3は、空間情報記憶部2に蓄積されている実空間RSについての空間情報を情報処理して、仮想空間VSを作成し、自装置の表示部に仮想空間VSを表示して、ユーザUに提示する機能を有する。通信端末装置3の要部構成を示す機能ブロック図を図6に示す。通信端末装置3の機能構成については後に詳述する。なお、実空間RSは、例えば、ユーザUの自宅または部屋などであり、仮想空間VSは、そのユーザの自宅または部屋を模した仮想部屋である。   In the present embodiment, the communication terminal device 3 as the spatial information utilization device processes the spatial information about the real space RS accumulated in the spatial information storage unit 2 to create a virtual space VS, and The display unit has a function of displaying the virtual space VS and presenting it to the user U. FIG. 6 shows a functional block diagram showing the main configuration of the communication terminal apparatus 3. As shown in FIG. The functional configuration of the communication terminal device 3 will be described in detail later. The real space RS is, for example, the home or room of the user U, and the virtual space VS is a virtual room imitating the user's home or room.

仮想部屋利用システム100が、ユーザUのためだけに構築されたものである場合、自走式掃除機1、空間情報記憶部2に蓄積された空間情報、および、通信端末装置3(ユーザU)は、それぞれ、互いに1対1の関係である。したがって、空間情報と、通信端末装置3(ユーザ)との対応関係を紐付けて管理しておく必要がないため、空間情報記憶部2は、通信端末装置3に内蔵されていてもよい。   When the virtual room utilization system 100 is constructed only for the user U, the self-propelled cleaner 1, the spatial information stored in the spatial information storage unit 2, and the communication terminal device 3 (user U) Are in a one-to-one relationship with each other. Accordingly, since it is not necessary to associate and manage the correspondence between the spatial information and the communication terminal device 3 (user), the spatial information storage unit 2 may be built in the communication terminal device 3.

この場合、自走式掃除機1と通信端末装置3とは、通信ネットワーク5を介して、双方向通信が可能となるように接続される。自走式掃除機1が収集した情報に基づいて生成した空間情報は、通信ネットワーク5を介して、直接通信端末装置3に送信される。ユーザUは、実空間RSに滞在し、自走式掃除機1のそばに居ることも想定される。そのため、自走式掃除機1と、通信端末装置3とは、WiFi(登録商標)、Bluetooth(登録商標)、ZigBee(登録商標)等の無線電波方式により接続されてもよい。   In this case, the self-propelled cleaner 1 and the communication terminal device 3 are connected via the communication network 5 so that bidirectional communication is possible. The spatial information generated based on the information collected by the self-propelled cleaner 1 is transmitted directly to the communication terminal device 3 via the communication network 5. It is also assumed that the user U stays in the real space RS and is near the self-propelled cleaner 1. Therefore, the self-propelled cleaner 1 and the communication terminal device 3 may be connected by a wireless radio wave system such as WiFi (registered trademark), Bluetooth (registered trademark), or ZigBee (registered trademark).

あるいは、ユーザUは、通信端末装置3を携帯して外出することも想定される。そのため、自走式掃除機1と、通信端末装置3とは、インターネット、携帯電話網などを介して互いに通信することが可能である。   Or it is assumed that the user U carries out the communication terminal device 3 and goes out. Therefore, the self-propelled cleaner 1 and the communication terminal device 3 can communicate with each other via the Internet, a mobile phone network, or the like.

仮想部屋利用システム100が、多数のユーザのために構築されたものである場合、空間情報記憶部2において、空間情報は、ユーザごとに蓄積されなければならない。各ユーザは、それぞれの実空間RS(自宅)において、それぞれが所有する自走式掃除機1を設ける。そして、各自走式掃除機1は、各ユーザの実空間RSにおける空間情報を生成することになるからである。   When the virtual room usage system 100 is constructed for a large number of users, the spatial information must be stored for each user in the spatial information storage unit 2. Each user provides the self-propelled cleaner 1 owned by each user in the respective real space RS (home). And each self-propelled cleaner 1 will generate space information in real space RS of each user.

この場合、仮想部屋利用システム100は、空間情報記憶部2に蓄積された空間情報を管理するための情報管理サーバ4を備えていることが好ましい。そして、情報管理サーバ4が空間情報記憶部2を備えていてもよい。   In this case, the virtual room utilization system 100 is preferably provided with an information management server 4 for managing the spatial information stored in the spatial information storage unit 2. The information management server 4 may include the spatial information storage unit 2.

情報管理サーバ4は、どのユーザの自走式掃除機1かに応じて、その自走式掃除機1から送信された空間情報を対応するユーザに紐付けて空間情報記憶部2に蓄積する。また、情報管理サーバ4は、通信端末装置3からのリクエストを受け付けて、空間情報または空間情報を処理した結果を通信端末装置3に返す。情報管理サーバ4は、どのユーザの通信端末装置3かに応じて、そのユーザに紐付けられた空間情報を通信端末装置3に供給する。   The information management server 4 associates the spatial information transmitted from the self-propelled cleaner 1 with the corresponding user and accumulates it in the spatial information storage unit 2 according to which user's self-propelled cleaner 1. In addition, the information management server 4 receives a request from the communication terminal device 3 and returns the spatial information or the result of processing the spatial information to the communication terminal device 3. The information management server 4 supplies spatial information associated with the user to the communication terminal device 3 depending on which user the communication terminal device 3 is.

以上のとおり、仮想部屋利用システム100によれば、ユーザUは、自走式掃除機1を使って実空間RSの空間情報を得ることができ、得られた空間情報を使って実空間RSに対応する仮想空間VSを通信端末装置3に表示させることができる。さらに、通信端末装置3は、仮想空間VSを操作ツールとしてユーザUに提供することができる。ユーザUは、仮想空間VSを通信端末装置3上で操作することにより、自走式掃除機1に、実空間RSに設置されたあらゆる物体に対してアクションを実行させることが可能となる。   As described above, according to the virtual room utilization system 100, the user U can obtain the spatial information of the real space RS using the self-propelled cleaner 1, and the real space RS is obtained using the obtained spatial information. The corresponding virtual space VS can be displayed on the communication terminal device 3. Furthermore, the communication terminal device 3 can provide the user U with the virtual space VS as an operation tool. By operating the virtual space VS on the communication terminal device 3, the user U can cause the self-propelled cleaner 1 to perform an action on any object installed in the real space RS.

なお、自走式掃除機1は、自機に備えられた後述する操作パネル12に加え、通信ネットワーク5を介して接続した通信端末装置3から操作すること可能であってもよい。   The self-propelled cleaner 1 may be operable from a communication terminal device 3 connected via a communication network 5 in addition to an operation panel 12 described later provided in the self-propelled device.

以下では、本発明の自走式掃除機1が、基本機能(掃除機能)を実行しながら、空間情報を用いて、実空間RSの物体に対して、どのようにアクションを実行するのかについて、より詳細に説明する。   Below, how self-propelled cleaner 1 of the present invention performs an action on an object in real space RS using spatial information while executing a basic function (cleaning function). This will be described in more detail.

〔自走式掃除機のハードウェア構成−掃除機能〕
図3〜図5を参照して、自走式掃除機1のハードウェア構成を説明する。図3は、自走式掃除機1の斜視図である。図4は、自走式掃除機1の底面図である。図5は、自走式掃除機1のハードウェア構成を模式的に示すブロック図である。
[Hardware configuration of self-propelled vacuum cleaner-cleaning function]
The hardware configuration of the self-propelled cleaner 1 will be described with reference to FIGS. FIG. 3 is a perspective view of the self-propelled cleaner 1. FIG. 4 is a bottom view of the self-propelled cleaner 1. FIG. 5 is a block diagram schematically showing a hardware configuration of the self-propelled cleaner 1.

まず、自走式掃除機1の掃除機としての基本機能を実現するためのハードウェア構成について説明する。しかし、以下の記述は、本発明の機能実行装置の構成を限定することを意図していない。   First, the hardware configuration for realizing the basic functions of the self-propelled cleaner 1 as a cleaner will be described. However, the following description is not intended to limit the configuration of the function execution device of the present invention.

自走式掃除機1は、図3に示すように、外枠が平面視円形の本体筐体102で形成された自走式掃除機1本体と、図4および図5に示すように、バッテリー20を電力供給源として駆動される駆動輪16とを有し、自走しながら集塵(掃除)する装置である。   As shown in FIG. 3, the self-propelled cleaner 1 includes a self-propelled cleaner 1 main body having an outer frame formed of a main body housing 102 having a circular shape in plan view, and a battery as shown in FIGS. 4 and 5. 20 is a device that has a drive wheel 16 that is driven using an electric power supply source 20 and collects (cleans) dust while traveling on its own.

図3に示すように、本体筐体102の上面には、自走式掃除機1に対して指示入力を行う操作パネル12、LED(Light Emitting Diode:発光ダイオード)ランプ18、撮影部32、集塵部130を出し入れする際に開閉する蓋部103が設けられている。なお、本実施形態では、本体筐体102は、その上面および底面が円形を成す形状とするが、この形状に限定されることはない。   As shown in FIG. 3, on the upper surface of the main body housing 102, an operation panel 12 for inputting instructions to the self-propelled cleaner 1, an LED (Light Emitting Diode) lamp 18, a photographing unit 32, a collector A lid portion 103 that opens and closes when the dust portion 130 is taken in and out is provided. In the present embodiment, the main body housing 102 has a shape in which the upper surface and the bottom surface are circular, but is not limited to this shape.

LEDランプ18は、本実施形態では、本体筐体102の上面の周囲に設けられており、後述するように、自走式掃除機1の状態に合わせて、点灯する色および点灯パターンが変化するようになっている。なお、LED以外のランプが設けられていてもよい。また、LEDランプは、本体の上面に設けられた排気口107の付近に設けてもよい。   In this embodiment, the LED lamp 18 is provided around the upper surface of the main body housing 102, and the color and lighting pattern to be changed change according to the state of the self-propelled cleaner 1, as will be described later. It is like that. A lamp other than the LED may be provided. Further, the LED lamp may be provided in the vicinity of the exhaust port 107 provided on the upper surface of the main body.

操作パネル12には、ユーザからの操作によって各種の指示、文字、数字などのデータの入力を受け付ける操作スイッチ(入力部)と、ユーザに提示する各種情報を表示するディスプレイ(表示部)と、が設けられている。操作パネル12は、タッチパネルとして設けられていてもよい。また、操作パネル12に、表示用LEDが設けられていてもよい。   The operation panel 12 includes an operation switch (input unit) that receives input of various instructions, data such as characters and numbers, and a display (display unit) that displays various information presented to the user. Is provided. The operation panel 12 may be provided as a touch panel. Further, the operation panel 12 may be provided with a display LED.

操作パネル12は、例えば、掃除の開始および停止を指示するボタン、自走式掃除機1の稼働予約を行うタイマーセットボタン、現在時刻や予約時刻を表示する時刻表示領域、図示しない集塵容器が満杯になったことを知らせるごみ捨てランプなどを備える。また、操作パネル12は、バッテリー20の充電量を示すバッテリーマークを表示する領域、撮影部32によって撮影された画像データを表示する領域、ユーザに対するメッセージを表示する領域などをさらに備えていてもよい。これらは、単なる例示であり、操作パネル12は、これら以外の機能を実現する入力部や表示部を備えていてもよい。   The operation panel 12 includes, for example, a button for instructing start and stop of cleaning, a timer set button for making an operation reservation for the self-propelled cleaner 1, a time display area for displaying the current time and reservation time, and a dust collection container (not shown). It is equipped with a garbage disposal lamp to let you know when it is full. The operation panel 12 may further include an area for displaying a battery mark indicating the amount of charge of the battery 20, an area for displaying image data captured by the imaging unit 32, an area for displaying a message for the user, and the like. . These are merely examples, and the operation panel 12 may include an input unit and a display unit that realize functions other than these.

撮影部32は、動画像および静止画像を撮影するものであり、光学レンズ、カラーフィルタ、受光素子であるCCD(Charge Coupled Device)またはCMOS(Complementary Metal-Oxide-Semiconductor)等により構成されている。   The imaging unit 32 captures a moving image and a still image, and includes an optical lens, a color filter, a CCD (Charge Coupled Device) that is a light receiving element, a CMOS (Complementary Metal-Oxide-Semiconductor), or the like.

図4に示すように、本体筐体102の底面には、底面から突出して水平な回転軸16aで回転する一対の駆動輪16が配されている。駆動輪16の両輪が同一方向に回転すると自走式掃除機1が進退する。両輪が逆方向に回転すると、自走式掃除機1が、本体筐体102の中心を軸に旋回し、方向転換することが可能である。これにより、所望の掃除領域全体に自走式掃除機1を自走させるとともに障害物を避けて自走させることができる。   As shown in FIG. 4, a pair of drive wheels 16 that protrude from the bottom surface and rotate about a horizontal rotation shaft 16 a are disposed on the bottom surface of the main body housing 102. When both wheels of the drive wheel 16 rotate in the same direction, the self-propelled cleaner 1 moves forward and backward. When both wheels rotate in opposite directions, the self-propelled cleaner 1 can turn around the center of the main body housing 102 and change its direction. Accordingly, the self-propelled cleaner 1 can be self-propelled over the entire desired cleaning area and can be self-propelled while avoiding obstacles.

駆動輪16がバッテリー20により駆動されることで、自走式掃除機1は自走する。   When the driving wheel 16 is driven by the battery 20, the self-propelled cleaner 1 is self-propelled.

本体筐体102の底面の前方には、吸込口106が設けられている。吸込口106は本体筐体102の底面に凹設した凹部の開放面によって床面に面して形成されている。凹部内には水平な回転軸で回転する回転ブラシ23が配され、凹部の両側方には垂直な回転軸で回転するサイドブラシ25が配されている。   A suction port 106 is provided in front of the bottom surface of the main body housing 102. The suction port 106 is formed so as to face the floor surface by an open surface of a recess provided in the bottom surface of the main body housing 102. A rotating brush 23 that rotates on a horizontal rotating shaft is disposed in the recess, and a side brush 25 that rotates on a vertical rotating shaft is disposed on both sides of the recess.

さらに、本体筐体102の底面には、吸込口106のさらに前方にローラー形状の前輪127が設けられている。また、本体筐体102の底面の後方端部(後端)に、自在車輪から成る後輪126が設けられている。自走式掃除機1は、本体筐体102の中心に配した駆動輪16に対して前後方向に重量が配分され、前輪127が床面から離れて回転ブラシ23、駆動輪16および後輪126が床面に接地して掃除が行われる。このため、進路前方の塵埃を前輪127により遮ることなく吸込口106に導くことができる。前輪127は進路上に現れた段差に接地し、自走式掃除機1が段差を容易に乗り越えられるようになっている。   Further, a roller-shaped front wheel 127 is provided on the bottom surface of the main body housing 102 in front of the suction port 106. A rear wheel 126 made up of a free wheel is provided at the rear end (rear end) of the bottom surface of the main body housing 102. In the self-propelled cleaner 1, the weight is distributed in the front-rear direction with respect to the driving wheel 16 disposed at the center of the main body housing 102, and the front wheel 127 is separated from the floor surface so that the rotating brush 23, the driving wheel 16 and the rear wheel 126 are separated. Is grounded on the floor and cleaned. For this reason, dust in front of the course can be guided to the suction port 106 without being blocked by the front wheel 127. The front wheel 127 is in contact with a step appearing on the course so that the self-propelled cleaner 1 can easily get over the step.

また、図3に示すとおり、本体筐体102の周囲にはバンパー105が設けられており、自走式掃除機1本体への衝撃や振動を緩衝させる。自走式掃除機1は、走行中に障害物にバンパー105が接触したことを検知すると、進行方向を変更して走行を継続することができる。また、本実施形態では、バンパー105が障害物に接触したことが検知された場合には、自走式掃除機1は、当該障害物(物体)の正体を認識し、当該物体に対して実行するべき特定のアクションを実行することができる。   Moreover, as shown in FIG. 3, the bumper 105 is provided around the main body housing | casing 102, and the impact and vibration to the self-propelled cleaner 1 main body are buffered. When the self-propelled cleaner 1 detects that the bumper 105 has come into contact with an obstacle during traveling, the self-propelled cleaner 1 can change the traveling direction and continue traveling. In the present embodiment, when it is detected that the bumper 105 is in contact with an obstacle, the self-propelled cleaner 1 recognizes the identity of the obstacle (object) and executes it on the object. The specific action to be taken can be performed.

本体筐体102の周面の後端には、バッテリー20の充電を行う充電端子21が露出して設けられている。自走式掃除機1は、掃除後あるいは充電量が所定値を下回ると、充電台が設置されている場所に帰還する。そして、充電台に設けられた給電端子に充電端子21を接してバッテリー20を充電する。   A charging terminal 21 that charges the battery 20 is exposed at the rear end of the peripheral surface of the main body housing 102. The self-propelled cleaner 1 returns to the place where the charging stand is installed after cleaning or when the charge amount falls below a predetermined value. Then, the battery 20 is charged by bringing the charging terminal 21 into contact with the power supply terminal provided on the charging stand.

バッテリー20は、自走式掃除機1全体の電力供給源である。バッテリー20としては、繰り返し充放電が可能な大容量の充電池が望ましい。例えば鉛電池、ニッケル水素電池、リチウムイオン電池あるいはキャパシタ等を使用すればよい。   The battery 20 is a power supply source for the entire self-propelled cleaner 1. The battery 20 is desirably a large capacity rechargeable battery that can be repeatedly charged and discharged. For example, a lead battery, a nickel metal hydride battery, a lithium ion battery, or a capacitor may be used.

本体筐体102内には、図示しないが、制御基板が配される。制御基板には自走式掃除機1の各部を制御する後述の制御部10や各種データを記憶する後述の記憶部13などが設けられる。また、本体筐体102内には、着脱可能のバッテリー20が配される。バッテリー20は充電端子21を介して充電台から充電され、制御基板、駆動輪16、回転ブラシ23、および、サイドブラシ25などの各部に電力を供給する。   Although not shown, a control board is arranged in the main body housing 102. The control board is provided with a later-described control unit 10 that controls each part of the self-propelled cleaner 1, a later-described storage unit 13 that stores various data, and the like. In addition, a detachable battery 20 is disposed in the main body housing 102. The battery 20 is charged from a charging stand via a charging terminal 21 and supplies power to each part such as the control board, the drive wheel 16, the rotating brush 23, and the side brush 25.

上記構成の自走式掃除機1において、掃除運転が指示されると、バッテリー20からの電力が供給されて、図示しない電動送風機、後述のイオン発生装置27、駆動輪16、回転ブラシ23およびサイドブラシ25が駆動される。これにより、自走式掃除機1は、回転ブラシ23、駆動輪16および後輪126が床面に接地するようにして所定の掃除領域を自走し、吸込口106から床面の塵埃を含む気流を吸い込んで掃除を行うことができる。   In the self-propelled cleaner 1 having the above configuration, when a cleaning operation is instructed, electric power from the battery 20 is supplied, and an electric blower (not shown), an ion generator 27 (described later), a drive wheel 16, a rotating brush 23, and a side are supplied. The brush 25 is driven. As a result, the self-propelled cleaner 1 self-propels in a predetermined cleaning area so that the rotating brush 23, the driving wheel 16 and the rear wheel 126 are in contact with the floor surface, and includes dust on the floor surface from the suction port 106. Air can be sucked in for cleaning.

吸込口106から吸い込まれて電動送風機を通過した気流は、本体筐体102の上面に設けた排気口107から上方後方に排気される。なお、電動送風機の近傍にイオン発生装置27が備えられており、排気口107からは、イオンを含む気流が排気されてもよい。   The airflow sucked from the suction port 106 and passed through the electric blower is exhausted upward and rearward from an exhaust port 107 provided on the upper surface of the main body housing 102. In addition, the ion generator 27 is provided in the vicinity of the electric blower, and an airflow containing ions may be exhausted from the exhaust port 107.

以上のように、室内の掃除が行われるとともに、自走する自走式掃除機1の排気に含まれるイオンが室内に行き渡って室内の除菌や脱臭が行われる。   As described above, the room is cleaned, and ions contained in the exhaust of the self-propelled self-propelled cleaner 1 are spread throughout the room to be sterilized and deodorized in the room.

さらに、自走式掃除機1には、周辺環境(すなわち、実空間RS)の状態を知覚して実空間RSについて情報を収集するセンサ部30が設けられている。センサ部30は、1または複数のセンサによって構成されている。センサ部30については、図5を参照しながら詳しく後述する。   Furthermore, the self-propelled cleaner 1 is provided with a sensor unit 30 that perceives the state of the surrounding environment (that is, the real space RS) and collects information about the real space RS. The sensor unit 30 includes one or more sensors. The sensor unit 30 will be described in detail later with reference to FIG.

〔自走式掃除機のハードウェア構成〕
次に、自走式掃除機1が、基本機能および本発明の機能実行装置としての機能を実現するためのハードウェア構成の一例について、図5を参照しながら説明する。しかし、図5に示すブロック図は、機能実行装置としてのハードウェア構成の一実施例を示しているにすぎず、本発明の機能実行装置の構成はこれに限定されない。
[Hardware configuration of self-propelled vacuum cleaner]
Next, an example of a hardware configuration for the self-propelled cleaner 1 to realize the basic function and the function as the function execution device of the present invention will be described with reference to FIG. However, the block diagram shown in FIG. 5 shows only one embodiment of the hardware configuration as the function execution device, and the configuration of the function execution device of the present invention is not limited to this.

自走式掃除機1は、図5に示すように、本発明の機能実行装置として少なくとも、制御部10、通信部11、記憶部13、走行駆動部15、駆動輪16およびセンサ部30を備えている構成である。自走式掃除機1は、さらに、操作パネル12、および、音声出力部14を備えていることが好ましい。なお、自走式掃除機1は、掃除機として本来備わっている基本機能を実現するために、例えば、LEDランプ点灯部17、LEDランプ18、電圧検出部19、バッテリー20、充電端子21、回転ブラシ駆動部22、回転ブラシ23、サイドブラシ駆動部24、サイドブラシ25、送風装置26、イオン発生装置27など、掃除機が標準的に備えている各種部品を備えていてもよい。前出した部材については説明を省略する。   As shown in FIG. 5, the self-propelled cleaner 1 includes at least a control unit 10, a communication unit 11, a storage unit 13, a travel drive unit 15, a drive wheel 16, and a sensor unit 30 as the function execution device of the present invention. It is the composition which is. The self-propelled cleaner 1 preferably further includes an operation panel 12 and an audio output unit 14. Note that the self-propelled cleaner 1 has, for example, an LED lamp lighting unit 17, an LED lamp 18, a voltage detection unit 19, a battery 20, a charging terminal 21, a rotation, in order to realize the basic functions inherent to the vacuum cleaner. You may provide various parts with which the cleaner is equipped normally, such as the brush drive part 22, the rotation brush 23, the side brush drive part 24, the side brush 25, the air blower 26, and the ion generator 27. Description of the previously described members is omitted.

制御部10は、記憶部13に記憶されたプログラムやデータ、さらに、前出の操作パネル12から入力されたデータ、外部装置から受信したプログラムやデータなどに基づき、自走式掃除機1における各ブロックを統括して制御するブロックである。   Based on the program and data stored in the storage unit 13, the data input from the previous operation panel 12, the program and data received from the external device, the control unit 10 This block controls and controls the block.

通信部11は、通信端末装置3、空間情報記憶部2、あるいは、その他の外部装置との間で、通信ネットワーク5を介して、データの送受信を行うブロックである。通信部11は、自走式掃除機1が物体を認識する際に参照する空間情報を空間情報記憶部2から取得する。反対に、通信部11は、自走式掃除機1が生成した空間情報を空間情報記憶部2に送信してもよい。また、通信端末装置3から、自走式掃除機1を制御するための制御信号などを受信してもよい。また、通信部11は、通信端末装置3に対して、自走式掃除機1に記憶しているデータや自走式掃除機1にて測定可能なデータを直接送信してもよい。通信部11は、また、充電台からの帰還信号を受信してもよい。帰還信号を受信した自走式掃除機1は、実空間RSに設置されている充電台の設置場所に戻り、充電台とドッキングする。これにより、バッテリー20が充電される。   The communication unit 11 is a block that transmits / receives data to / from the communication terminal device 3, the spatial information storage unit 2, or other external devices via the communication network 5. The communication unit 11 acquires, from the spatial information storage unit 2, spatial information that is referred to when the self-propelled cleaner 1 recognizes an object. Conversely, the communication unit 11 may transmit the spatial information generated by the self-propelled cleaner 1 to the spatial information storage unit 2. Further, a control signal for controlling the self-propelled cleaner 1 may be received from the communication terminal device 3. The communication unit 11 may directly transmit data stored in the self-propelled cleaner 1 or data measurable by the self-propelled cleaner 1 to the communication terminal device 3. The communication unit 11 may also receive a feedback signal from the charging stand. The self-propelled cleaner 1 that has received the feedback signal returns to the place where the charging stand is installed in the real space RS and docks with the charging stand. Thereby, the battery 20 is charged.

なお、本実施形態では、通信部11は、さらに、近距離無線通信部を含んで構成されている。この場合、近距離無線通信部としての通信部11は、無線で実空間RS内に設置されている物体(機器)との近距離無線通信を行う。通信部11は、特に限定されないが、IrDA、IrSSなどの赤外線通信、Bluetooth(登録商標)通信、ZigBee(登録商標)通信、非接触型ICカードのいずれかの近距離無線通信技術を実現するものであってもよいし、これらの技術を複数実現するものであってもよい。   In the present embodiment, the communication unit 11 further includes a short-range wireless communication unit. In this case, the communication unit 11 as a short-range wireless communication unit performs short-range wireless communication with an object (device) installed in the real space RS wirelessly. The communication unit 11 is not particularly limited, and realizes a short-range wireless communication technology of any one of infrared communication such as IrDA, IrSS, Bluetooth (registered trademark) communication, ZigBee (registered trademark) communication, and a non-contact type IC card. Or a plurality of these techniques may be realized.

記憶部13は、(1)自走式掃除機1の制御部10が実行する制御プログラム、(2)制御部10が実行するOSプログラム、(3)制御部10が、自走式掃除機1が有する各種機能を実行するためのアプリケーションプログラム、および、(4)該アプリケーションプログラムを実行するときに読み出す各種データを記憶するものである。あるいは、(5)制御部10が各種機能を実行する過程で演算に使用するデータおよび演算結果等を記憶するものである。例えば、上記の(1)〜(4)のデータは、ROM(read only memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)、HDD(Hard Disc Drive)などの不揮発性記憶装置に記憶される。例えば、上記の(5)のデータは、RAM(Random Access Memory)などの揮発性記憶装置に記憶される。どのデータを記憶するために、記憶部13をどの記憶装置にて実現するのかについては、自走式掃除機1の使用目的、利便性、コスト、物理的な制約などから適宜決定されればよい。   The storage unit 13 includes (1) a control program executed by the control unit 10 of the self-propelled cleaner 1, (2) an OS program executed by the control unit 10, and (3) the control unit 10 includes the self-propelled cleaner 1. And (4) various data to be read when the application program is executed. Alternatively, (5) the control unit 10 stores data used for calculation and calculation results in the course of executing various functions. For example, the above data (1) to (4) are stored in a nonvolatile storage device such as a ROM (read only memory), a flash memory, an EPROM (Erasable Programmable ROM), an EEPROM (Electrically EPROM), an HDD (Hard Disc Drive), etc. Is remembered. For example, the data (5) is stored in a volatile storage device such as a RAM (Random Access Memory). Which storage device is used to store which data is realized by which storage device may be appropriately determined based on the purpose of use, convenience, cost, physical restrictions, etc. of the self-propelled cleaner 1. .

本実施形態では、記憶部13は、センサ部30の各種センサによって取得された、実空間RSにおける周囲環境に関するセンシング情報を記憶する。さらに、記憶部13は、操作パネル12、または、通信部11を介して通信端末装置3から受け付けた、各種情報を記憶してもよい。例えば、各種情報として、自走式掃除機1が実空間RSにおいて新たに検出した物体の正体に係る情報、または、自走式掃除機1の動作に係る各種条件設定などを記憶する。また、記憶部13は、自走式掃除機1の設置場所周辺の走行マップを記憶してもよい。走行マップとは、自走式掃除機1の走行経路や走行速度などといった走行に関する情報、あるいは、掃除する領域に関する情報である。走行マップは、予めユーザが設定して記憶部13に記憶させてもよいし、自走式掃除機1自身が自動的に記録するように構成されていてもよい。   In the present embodiment, the storage unit 13 stores sensing information related to the surrounding environment in the real space RS acquired by various sensors of the sensor unit 30. Further, the storage unit 13 may store various information received from the communication terminal device 3 via the operation panel 12 or the communication unit 11. For example, as various information, information related to the identity of the object newly detected by the self-propelled cleaner 1 in the real space RS or various condition settings related to the operation of the self-propelled cleaner 1 is stored. The storage unit 13 may store a travel map around the installation location of the self-propelled cleaner 1. The travel map is information related to travel such as the travel route and travel speed of the self-propelled cleaner 1 or information related to the area to be cleaned. The travel map may be set in advance by the user and stored in the storage unit 13, or the self-propelled cleaner 1 itself may be automatically recorded.

音声出力部14は、スピーカなどの音声出力装置であり、記憶部13に記憶している音声データや外部から取得した音声データに従って外部へ音声を出力するものである。例えば、音声出力部14は、自走式掃除機1が実空間RSにおいて新たな物体を検出したときに、ユーザUの注意を喚起する音声を出力する。   The audio output unit 14 is an audio output device such as a speaker, and outputs audio to the outside in accordance with audio data stored in the storage unit 13 or audio data acquired from the outside. For example, when the self-propelled cleaner 1 detects a new object in the real space RS, the voice output unit 14 outputs a voice that alerts the user U.

走行駆動部15は、モータドライバ、駆動輪モータ等を備え、制御部10からの制御信号に基づき、回転方向、回転角度等を決定して、駆動輪16を駆動させるブロックである。   The traveling drive unit 15 includes a motor driver, a drive wheel motor, and the like, and is a block that drives the drive wheels 16 by determining a rotation direction, a rotation angle, and the like based on a control signal from the control unit 10.

センサ部30は、実空間RSの周囲環境の様々な状態、および、実空間RSに存在する様々な物体の状態を知覚するものである。   The sensor unit 30 perceives various states of the surrounding environment of the real space RS and states of various objects existing in the real space RS.

自走式掃除機1は、センサ部30として機能する構成部材として、これには限定されないが、音声入力部31、撮影部32、測距部33、段差検知部34、臭気測定部35、温度測定部36、および、衝突検知部37を備えている。これらは単なる例示であり、また、自走式掃除機1はこれら全てを備えている必要はない。本実施形態では、センサ部30は、さらに、図示しない湿度測定部(センサ)を備えていてもよい。   Although self-propelled cleaner 1 is not limited to this as a component which functions as sensor part 30, voice input part 31, photographing part 32, ranging part 33, level difference detection part 34, odor measurement part 35, temperature A measurement unit 36 and a collision detection unit 37 are provided. These are merely examples, and the self-propelled cleaner 1 need not include all of them. In the present embodiment, the sensor unit 30 may further include a humidity measurement unit (sensor) (not shown).

音声入力部31は、マイクロホンなどの音声入力装置であり、外部から自走式掃除機1へ音声を入力するものである。例えば、音声入力部31は、実空間RSに設置されている物体から発せられる音を採取することができる。   The voice input unit 31 is a voice input device such as a microphone, and inputs voice to the self-propelled cleaner 1 from the outside. For example, the voice input unit 31 can collect sound emitted from an object installed in the real space RS.

測距部33は、検出された物体と、自走式掃除機1との距離を測定するセンサである。一例として、測距部33は、発光素子としての赤外発行ダイオードと、受光素子としての位置検出素子(PSD;Position Sensitive Detector)とによって実現されてもよい。測距部33の発光素子から照射された光が、測定対象の物体にあたると反射され、測距部33の受光素子で受光される。これにより、測距部33は、反射された光を評価・演算し、距離に換算して出力することができる。   The distance measuring unit 33 is a sensor that measures the distance between the detected object and the self-propelled cleaner 1. As an example, the distance measuring unit 33 may be realized by an infrared emitting diode as a light emitting element and a position detecting element (PSD) as a light receiving element. The light emitted from the light emitting element of the distance measuring unit 33 is reflected when it hits the object to be measured, and is received by the light receiving element of the distance measuring unit 33. As a result, the distance measuring unit 33 can evaluate and calculate the reflected light, convert it to a distance, and output it.

段差検知部34は、自走式掃除機1の走行面における段差を検知するセンサであり、例えば、光電センサ、変位センサなどによって実現される。   The level difference detection unit 34 is a sensor that detects a level difference on the traveling surface of the self-propelled cleaner 1, and is realized by, for example, a photoelectric sensor or a displacement sensor.

臭気測定部35は、自走式掃除機1の周辺の臭気を測定し、臭気の強さを数値化するものである。例えば、ニオイセンサ、ガスセンサなどによって実現される。   The odor measuring unit 35 measures the odor around the self-propelled cleaner 1 and quantifies the intensity of the odor. For example, it is realized by an odor sensor, a gas sensor, or the like.

温度測定部36は、自走式掃除機1の周辺の気温を測定する温度センサであり、例えば、サーミスタなどによって実現される。   The temperature measurement unit 36 is a temperature sensor that measures the temperature around the self-propelled cleaner 1, and is realized by, for example, a thermistor.

衝突検知部37は、バンパー105が障害物など何かの物体に衝突したことを検知する接触センサである。   The collision detection unit 37 is a contact sensor that detects that the bumper 105 has collided with an object such as an obstacle.

上述のとおり、センサ部30は、本発明の機能実行装置(自走式掃除機1)が実空間RSの状態を検知し、情報を収集するために用いられる。このように収集された情報は、特に、自走式掃除機1が、現在到達した位置に設定されている物体が何であるのかを特定するのに役立つ。しかし、これに限らず、センサ部30は、自走式掃除機1が掃除を実行する際に、障害物を回避して段差や階段から落ちることなく自走することができるように構成されていてもよい。   As described above, the sensor unit 30 is used by the function execution device (self-propelled cleaner 1) of the present invention to detect the state of the real space RS and collect information. The information collected in this way is particularly useful for the self-propelled cleaner 1 to identify what the object is set at the currently reached position. However, the present invention is not limited to this, and the sensor unit 30 is configured to be able to self-propelled without falling from a step or stairs by avoiding an obstacle when the self-propelled cleaner 1 performs cleaning. May be.

LEDランプ点灯部17は、LEDランプ18に駆動電流を供給し、LEDランプ18の点灯を制御するブロックである。LEDランプ点灯部17は、自走式掃除機1の状態に合わせて、点灯する色および点灯パターンを変化させる。例えば、掃除を行っている掃除モード、充電中である充電モード、掃除を行わずにイオン発生を行っているイオン発生モード、緊急事態が発生している緊急事態モード、により色および点灯パターンを変化させてもよい。   The LED lamp lighting unit 17 is a block that supplies driving current to the LED lamp 18 and controls lighting of the LED lamp 18. The LED lamp lighting unit 17 changes the lighting color and lighting pattern in accordance with the state of the self-propelled cleaner 1. For example, the color and lighting pattern change depending on the cleaning mode in which cleaning is being performed, the charging mode in which charging is being performed, the ion generation mode in which ions are generated without cleaning, and the emergency mode in which an emergency has occurred You may let them.

電圧検出部19は、バッテリー20の電圧を検出するブロックであり、検出した電圧からバッテリー20の充電量を求める。バッテリー20には、充電端子21が電気的に接続されるよう構成されている。   The voltage detector 19 is a block that detects the voltage of the battery 20, and obtains the charge amount of the battery 20 from the detected voltage. A charging terminal 21 is electrically connected to the battery 20.

回転ブラシ駆動部22は、モータドライバ、回転ブラシモータ等を備え、制御部10からの制御信号に基づき、回転数等を決定して、回転ブラシ23を駆動させるブロックである。   The rotating brush drive unit 22 includes a motor driver, a rotating brush motor, and the like, and is a block that determines the number of rotations based on a control signal from the control unit 10 and drives the rotating brush 23.

サイドブラシ駆動部24は、モータドライバ、サイドブラシモータ等を備え、制御部10からの制御信号に基づき、回転数等を決定して、サイドブラシ25を駆動させるブロックである。   The side brush drive unit 24 includes a motor driver, a side brush motor, and the like, and is a block that determines the number of rotations and the like based on a control signal from the control unit 10 and drives the side brush 25.

送風装置26は、前出の電動送風機などを備え、本体筐体102の内部への吸気および内部からの排気を行う装置である。   The blower device 26 is a device that includes the above-described electric blower and the like, and performs intake and exhaust from the inside of the main body housing 102.

イオン発生装置27は、制御部10による制御の下、駆動されるとイオンを発生させる装置である。本実施形態では、イオン発生装置27は、プラズマクラスターイオン(登録商標)発生装置であるとする。よってイオン発生装置27には、プラズマクラスターイオン発生素子が設けられており、プラズマクラスターイオン発生素子は、プラスイオンを発生するプラスイオン発生部と、マイナスイオンを発生するマイナスイオン発生部とを備えている。なお、このようなイオン発生素子は、本願出願人が先に出願した特開2002−58731号に詳しく開示されている。   The ion generator 27 is an apparatus that generates ions when driven under the control of the control unit 10. In the present embodiment, the ion generator 27 is a plasma cluster ion (registered trademark) generator. Therefore, the ion generator 27 is provided with a plasma cluster ion generation element, and the plasma cluster ion generation element includes a positive ion generation unit that generates positive ions and a negative ion generation unit that generates negative ions. Yes. Such an ion generating element is disclosed in detail in Japanese Patent Application Laid-Open No. 2002-58731 filed earlier by the present applicant.

イオン発生装置27から発生したイオンは、送風装置26によって、本体筐体102の外部に排出される。なお、制御部10の制御により、自走式掃除機1は、掃除の動作とイオン発生の動作とを同時に実行できるほか、掃除の動作とイオン発生の動作とを各々単独で実行することも可能である。   Ions generated from the ion generator 27 are discharged to the outside of the main body housing 102 by the blower 26. Note that the control of the control unit 10 allows the self-propelled cleaner 1 to execute the cleaning operation and the ion generation operation at the same time, and can also execute the cleaning operation and the ion generation operation independently. It is.

〔自走式掃除機の機能構成〕
次に、自走式掃除機1が本発明の機能実行装置としての機能を実現するための機能構成について、図1を参照しながら説明する。図1は、本発明の一実施形態における、機能実行装置としての自走式掃除機1の要部構成を示すブロック図である。
[Functional configuration of self-propelled vacuum cleaner]
Next, the functional configuration for realizing the function of the self-propelled cleaner 1 as the function execution device of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a main configuration of a self-propelled cleaner 1 as a function execution device according to an embodiment of the present invention.

自走式掃除機1が備える各部を統括制御する制御部10は、機能ブロックとして、少なくとも、物体認識部50およびアクション実行部51を備えている。さらに、制御部10は、必須ではないが、機能ブロックとして、走行制御部45、実行結果登録部52、および、アクション登録部53を備えていることが好ましい。なお、制御部10は、図5に示す、基本機能(掃除機能)を実現するための各部を制御する基本機能実行部(図示せず)を備えている。   The control unit 10 that performs overall control of each unit included in the self-propelled cleaner 1 includes at least an object recognition unit 50 and an action execution unit 51 as functional blocks. Furthermore, although it is not essential, the control unit 10 preferably includes a travel control unit 45, an execution result registration unit 52, and an action registration unit 53 as functional blocks. In addition, the control part 10 is provided with the basic function execution part (not shown) which controls each part for implement | achieving the basic function (cleaning function) shown in FIG.

上述した制御部10の各機能ブロックは、CPU(central processing unit)が、ROM(read only memory)、NVRAM(non-Volatile random access memory)などで実現された記憶装置(記憶部13)に記憶されているプログラムをRAM(random access memory)などに読み出して実行することで実現できる。   Each functional block of the control unit 10 described above is stored in a storage device (storage unit 13) in which a central processing unit (CPU) is realized by a read only memory (ROM), a non-volatile random access memory (NVRAM), or the like. The program can be realized by reading the program into a RAM (random access memory) and executing the program.

制御部10の物体認識部50は、センサ部30または通信部11によって知覚された物体を認識するものである。自走式掃除機1は、基本機能(ここでは掃除機能)を実行するために、実空間RSのあらゆる場所を自走する間、実空間RSに設置されるあらゆる物体の近くに立ち寄ることになる。センサ部30または通信部11は、自走式掃除機1が物体の近くに立ち寄ったことにより、当該物体の存在を知覚することができる。自走式掃除機1が物体の近くに立ち寄ることを以下では、「自走式掃除機1が物体に到達する」という。ここで、自走式掃除機1が物体に「到達」したときの自走式掃除機1と物体との間の距離は、具体的に限定されるものではない。センサ部30が物体を知覚できる距離まで自走式掃除機1が物体に近づいたとき、通信部11が物体と近距離無線通信を行える距離まで自走式掃除機1が物体に近づいたとき、自走式掃除機1のアクション実行部51が実行するアクションが物体に作用する距離まで自走式掃除機1が物体に近づいたとき、自走式掃除機1が当該物体に到達したということができる。   The object recognition unit 50 of the control unit 10 recognizes an object perceived by the sensor unit 30 or the communication unit 11. The self-propelled cleaner 1 stops near any object installed in the real space RS while self-propelled in any place of the real space RS in order to perform a basic function (here, a cleaning function). . The sensor unit 30 or the communication unit 11 can perceive the presence of the object when the self-propelled cleaner 1 stops near the object. In the following description, the self-propelled cleaner 1 that stops near the object is referred to as “the self-propelled cleaner 1 reaches the object”. Here, the distance between the self-propelled cleaner 1 and the object when the self-propelled cleaner 1 “arrives” at the object is not specifically limited. When the self-propelled cleaner 1 approaches the object up to a distance where the sensor unit 30 can perceive the object, the self-propelled cleaner 1 approaches the object up to a distance where the communication unit 11 can perform short-range wireless communication with the object. When the self-propelled cleaner 1 approaches the object to the distance that the action executed by the action execution unit 51 of the self-propelled cleaner 1 acts on the object, the fact that the self-propelled cleaner 1 has reached the object. it can.

物体認識部50は、センサ部30または通信部11によって取得された情報に基づいて、自機が到達した場所にあるのが、実空間RSに設置された物体のうちどの物体であるのかを特定する。具体的には、物体認識部50は、空間情報記憶部2に登録されている物体の中から、センサ部30または通信部11によって知覚された物体を特定する。   Based on the information acquired by the sensor unit 30 or the communication unit 11, the object recognition unit 50 identifies which of the objects installed in the real space RS is the place where the own device has reached. To do. Specifically, the object recognition unit 50 identifies an object perceived by the sensor unit 30 or the communication unit 11 from the objects registered in the spatial information storage unit 2.

具体的には、近距離無線通信部としての通信部11が、同じく近距離無線通信機能を有する物体と通信することによって物体を検知する。物体認識部50は、通信部11が検知した物体の情報(IPアドレスなど)に基づいて、空間情報記憶部2の空間情報に登録されている物体のうち、いずれの物体のところに自走式掃除機1が到達したのかを認識する。   Specifically, the communication unit 11 as a short-range wireless communication unit detects an object by communicating with an object that also has a short-range wireless communication function. The object recognizing unit 50 is self-propelled at any object among the objects registered in the spatial information of the spatial information storage unit 2 based on the object information (IP address or the like) detected by the communication unit 11. It recognizes whether the vacuum cleaner 1 has reached.

あるいは、物体認識部50は、センサ部30によって取得されたセンシング情報を処理して物体の特徴を分析し、センシングされた物体が登録されている物体のいずれであるのかを認識する。   Alternatively, the object recognition unit 50 processes the sensing information acquired by the sensor unit 30 to analyze the characteristics of the object, and recognizes which of the registered objects the sensed object is.

具体的には、衝突検知部37が衝突を検知すると、撮影部32が衝突方向を撮影する。物体認識部50は、撮影部32によって取得された、物体が映った撮影画像を分析し、空間情報記憶部2に登録されている物体の物体画像と比較することによって、自走式掃除機1が到達した物体を認識することができる。   Specifically, when the collision detection unit 37 detects a collision, the imaging unit 32 captures the collision direction. The object recognizing unit 50 analyzes the captured image obtained by capturing the object and is compared with the object image of the object registered in the spatial information storage unit 2 to obtain the self-propelled cleaner 1. Can be recognized.

アクション実行部51は、物体認識部50によって認識された物体に対してアクションを実行するものである。空間情報記憶部2に記憶されている空間情報は、実空間RSに設置されている各物体の情報、すなわち、複数の物体レコードで構成されている。物体レコードには、物体名、IPアドレスなどの物体特定情報に関連付けて、その物体に関するあらゆる情報が記憶されていてもよい。本実施形態では、各物体には、当該物体に作用する、自走式掃除機1が実行すべきアクションが関連付けられている。アクション実行部51は、物体認識部50によって認識された物体に関連付けられているアクションをその物体に対して実行する。なお、アクションの具体例については後述する。   The action execution unit 51 executes an action on the object recognized by the object recognition unit 50. The spatial information stored in the spatial information storage unit 2 includes information on each object installed in the real space RS, that is, a plurality of object records. The object record may store all information related to the object in association with the object specifying information such as the object name and the IP address. In the present embodiment, each object is associated with an action to be executed by the self-propelled cleaner 1 that acts on the object. The action execution unit 51 executes an action associated with the object recognized by the object recognition unit 50 on the object. A specific example of the action will be described later.

上記構成によれば、自走式掃除機1が物体に到達すると、センサ部30または通信部11が物体の存在を知覚する。物体認識部50は、知覚された物体が、空間情報に登録済みの物体(既知の物体)のいずれであるのかを認識する。アクション実行部51は、空間情報を参照し、認識された物体に関連付けられているアクションを読み出して、当該アクションを知覚された上記物体に対して実行する。   According to the above configuration, when the self-propelled cleaner 1 reaches the object, the sensor unit 30 or the communication unit 11 perceives the presence of the object. The object recognition unit 50 recognizes which of the perceived objects is an object (known object) registered in the spatial information. The action execution unit 51 reads the action associated with the recognized object with reference to the spatial information, and executes the action on the perceived object.

これにより、自走式掃除機1は、自走しながら掃除機能を実行する傍ら、特定の既知の物体に到達した場合には、その物体に関連付けられているアクションを当該物体に対して実行することができる。   As a result, the self-propelled cleaner 1 executes a cleaning function while self-propelled, and when it reaches a specific known object, executes an action associated with the object on the object. be able to.

このように仮想空間を作成するための空間情報を用いれば、自走式掃除機1は、基本機能を実行しながら、実空間RSで認識された物体のそれぞれに対して、それぞれの物体に固有のアクションを実行することができる。ユーザは、自走式掃除機1が基本機能を実行するように通常通り使用するだけであり、アクションを起こさせるための別途の操作が不要となる。結果として、仮想空間を操作ツールとして用いて、実空間で認識された物体に対してアクションを起こすことにより、ユーザの利便性を向上させることが可能な機能実行装置(自走式掃除機1)を実現することが可能になる。また、ユーザは、実空間RSに居合わせなくても、実空間RSで稼働している自走式掃除機1を使って、実空間RSに設置されている物体に対してアクションを起こすことが可能となる。   If the spatial information for creating the virtual space is used in this way, the self-propelled cleaner 1 performs the basic function and is unique to each object recognized in the real space RS. Can perform actions. The user only uses the self-propelled cleaner 1 as usual so as to execute the basic function, and a separate operation for causing an action is not required. As a result, a function execution device (self-propelled cleaner 1) that can improve the convenience of the user by using the virtual space as an operation tool and taking action on an object recognized in the real space. Can be realized. Further, even if the user is not present in the real space RS, the user can take an action on the object installed in the real space RS using the self-propelled cleaner 1 operating in the real space RS. It becomes.

さらに、制御部10は、実行結果登録部52を備えていることが好ましい。   Furthermore, the control unit 10 preferably includes an execution result registration unit 52.

実行結果登録部52は、アクション実行部51によって実行されたアクションの実行結果を空間情報記憶部2の空間情報に登録するものである。アクション実行部51が知覚された物体(自走式掃除機1が到達した物体)に対してアクションを実行すると、物体が何らかの反応を起こしたり、物体から何らかの情報が提供されたりする。実行結果登録部52は、こうしてアクション実行部51がアクション実行後の物体から得た情報を、実行結果として空間情報に登録する。実行結果登録部52は、到達した上記物体に対応する物体レコードに上記実行結果を格納する。   The execution result registration unit 52 registers the execution result of the action executed by the action execution unit 51 in the spatial information of the spatial information storage unit 2. When the action execution unit 51 executes an action on the perceived object (the object reached by the self-propelled cleaner 1), the object causes some reaction or some information is provided from the object. The execution result registration unit 52 registers the information obtained from the object after the action is executed by the action execution unit 51 in the spatial information as the execution result. The execution result registration unit 52 stores the execution result in the object record corresponding to the reached object.

これにより、空間情報を参照するすべての装置が、実空間RSに設置されたどの物体に対してどのようなアクションが実行され、どのような実行結果が得られたのかを把握することができる。   Thereby, it is possible for all devices that refer to the spatial information to understand what action is performed on which object installed in the real space RS and what execution result is obtained.

さらに、アクション実行部51が、異なる日時に、同じ物体に対して同じアクションを定期的に実行する場合には、実行結果登録部52は、実行結果を時系列で蓄積し、これらを統計処理してまとめたもの(表、グラフ、平均値、最大値、最小値など)をアクション実行結果として空間情報記憶部2に登録してもよい。   Further, when the action execution unit 51 periodically executes the same action on the same object at different dates and times, the execution result registration unit 52 accumulates the execution results in time series, and statistically processes them. (Table, graph, average value, maximum value, minimum value, etc.) may be registered in the spatial information storage unit 2 as an action execution result.

制御部10は、さらに、アクション登録部53を備えていてもよい。   The control unit 10 may further include an action registration unit 53.

アクション登録部53は、これまで未登録であった物体が、実空間RSの空間情報に登録されたときに、すなわち、新規の物体レコードが作成されたときに、その新規に登録された物体について、アクションを選択し、関連付けるものである。アクション登録部53は、物体特定品目記憶部6に記憶されている物体特定品目を参照して、新規に登録された上記物体の正体に合致するアクションを選択する。そして、選択したアクションを上記新規の物体の物体情報に関連付ける。具体的には、アクション登録部53は、選択したアクションのアクションIDを、上記新規の物体の物体レコードに格納する。   The action registration unit 53 registers the newly registered object when an unregistered object is registered in the space information of the real space RS, that is, when a new object record is created. , To select and associate actions. The action registration unit 53 refers to the object specifying item stored in the object specifying item storage unit 6 and selects an action that matches the identity of the newly registered object. Then, the selected action is associated with the object information of the new object. Specifically, the action registration unit 53 stores the action ID of the selected action in the object record of the new object.

これにより、実空間RSの物体が新たに空間情報に登録された場合でも、ユーザに煩雑な操作を強いることなく、当該物体に適切なアクションを関連付けて管理することが可能となる。   Accordingly, even when an object in the real space RS is newly registered in the space information, it is possible to manage the object in association with an appropriate action without forcing the user to perform complicated operations.

なお、新規の物体レコードの登録は、ユーザが通信端末装置3を操作することにより行われてもよいが、自走式掃除機1が未知の物体を検知し、これを新規に空間情報に登録することが好ましい。自走式掃除機1は、センサ部30から取得したセンシング情報に基づいて物体の特徴を分析し、その特徴に基づいて、各種物体の既知の情報を含む上記物体特定品目を参照して、物体の正体を特定する。最終的に、自走式掃除機1は、正体が特定された物体の物体特定情報と、物体に関して得られたその他の各種情報とを紐付けて物体レコードとして新規に登録することができる。   In addition, although registration of a new object record may be performed by a user operating the communication terminal device 3, the self-propelled cleaner 1 detects an unknown object and newly registers this in the spatial information. It is preferable to do. The self-propelled cleaner 1 analyzes the characteristics of the object based on the sensing information acquired from the sensor unit 30, and refers to the object specifying item including known information of various objects based on the characteristics, Identify the identity of. Finally, the self-propelled cleaner 1 can newly register an object record by associating the object specifying information of the object whose identity has been specified with various other information obtained regarding the object.

走行制御部45は、自走式掃除機1の走行駆動部15を制御して、自走式掃除機1を自走させるものである。走行制御部45は、自走式掃除機1に係る走行情報を生成する。走行情報は、自走式掃除機1が、充電台からどの方向にどれだけの距離を移動したのかを示す情報であってもよいし、あるいは、予め定められている走行ルートがある場合、現在自走式掃除機1が走行ルート上のどのあたりをどの向きに走行しているのかを示す情報などであってもよい。   The traveling control unit 45 controls the traveling drive unit 15 of the self-propelled cleaner 1 to cause the self-propelled cleaner 1 to self-propell. The travel control unit 45 generates travel information related to the self-propelled cleaner 1. The travel information may be information indicating how much distance the self-propelled cleaner 1 has moved in which direction from the charging stand, or when there is a predetermined travel route, It may be information indicating which part of the travel route the self-propelled cleaner 1 is traveling in which direction.

さらに、走行制御部45は、アクション実行部51がアクションを実行する(した)こと、または、アクションの実行結果を得たことをトリガにして、自走式掃除機1の行き先を動的に変更してもよい。すなわち、走行制御部45は、アクション実行部51が実行するアクションに応じて、自走式掃除機1の走行ルートを制御することが可能である。   Further, the traveling control unit 45 dynamically changes the destination of the self-propelled cleaner 1 triggered by the action executing unit 51 executing (doing) the action or obtaining the execution result of the action. May be. That is, the travel control unit 45 can control the travel route of the self-propelled cleaner 1 according to the action executed by the action execution unit 51.

以上のように、空間情報を用いて自走式掃除機1はアクションを実行する。さらに、自走式掃除機1は、アクションの実行結果を空間情報にフィードバックすることもできる。ユーザは、自走式掃除機1および空間情報を利用して、所望の物体に所望のアクションを起こすことが可能であり、アクションの実行結果を容易に得ることが可能である。これらを可能にするのは、ユーザが所持する空間情報利用装置としての通信端末装置3である。通信端末装置3は、自走式掃除機1および空間情報記憶部2と通信することによって上記を実現する。   As described above, the self-propelled cleaner 1 performs an action using the spatial information. Furthermore, the self-propelled cleaner 1 can also feed back the execution result of the action to the spatial information. The user can take a desired action on a desired object by using the self-propelled cleaner 1 and the spatial information, and can easily obtain an execution result of the action. What makes these possible is the communication terminal device 3 as a spatial information utilization device possessed by the user. The communication terminal device 3 realizes the above by communicating with the self-propelled cleaner 1 and the spatial information storage unit 2.

〔通信端末装置の機能構成〕
次に、通信端末装置3が本発明の空間情報利用装置としての機能を実現するための構成について、図6を参照しながら説明する。図6は、本発明の一実施形態における、空間情報利用装置としての通信端末装置3の要部構成を示すブロック図である。
[Functional configuration of communication terminal device]
Next, a configuration for realizing the function of the communication terminal device 3 as the spatial information utilization device of the present invention will be described with reference to FIG. FIG. 6 is a block diagram showing a main configuration of the communication terminal device 3 as a spatial information utilization device in an embodiment of the present invention.

図6に示すとおり、通信端末装置3は、制御部310、通信部311、操作パネル312および記憶部313を備えている。これらの各部は、通信端末装置3において、自走式掃除機1における制御部10、通信部11、操作パネル12および記憶部13と同様の機能を果たす。なお、通信端末装置3において、操作パネル12は、タッチパネルとして設けられており、操作パネル12は、ユーザの操作を受け付ける入力部120と、通信端末装置3が処理する各種情報を表示する表示部121とによって構成される。   As illustrated in FIG. 6, the communication terminal device 3 includes a control unit 310, a communication unit 311, an operation panel 312, and a storage unit 313. These units perform the same functions as the control unit 10, the communication unit 11, the operation panel 12, and the storage unit 13 in the self-propelled cleaner 1 in the communication terminal device 3. In the communication terminal device 3, the operation panel 12 is provided as a touch panel. The operation panel 12 includes an input unit 120 that receives user operations and a display unit 121 that displays various types of information processed by the communication terminal device 3. It is comprised by.

制御部310は、機能ブロックとして、アクション取得部75、GUI画面作成部71、アクション設定部76、空間情報取得部73および仮想空間作成部74を備えている。   The control unit 310 includes an action acquisition unit 75, a GUI screen creation unit 71, an action setting unit 76, a space information acquisition unit 73, and a virtual space creation unit 74 as functional blocks.

アクション取得部75は、新規に登録された物体について関連付けられているすべてのアクションの一覧を取得するものである。   The action acquisition unit 75 acquires a list of all actions associated with a newly registered object.

GUI画面作成部71は、アクション一覧から、必要なアクションをユーザに選択させるためのGUI画面を作成するものである。また、GUI画面作成部71は、選択されたアクションについて、オプションを設定することができる場合に、オプションをユーザに設定させるためのGUI画面を作成してもよい。   The GUI screen creation unit 71 creates a GUI screen for allowing the user to select a necessary action from the action list. Further, the GUI screen creation unit 71 may create a GUI screen for allowing the user to set options when the options can be set for the selected action.

アクション設定部76は、上記のGUI画面に対して入力部120から入力された内容に基づいて、ユーザの設定内容を、空間情報記憶部2に反映させるものである。   The action setting unit 76 reflects the setting content of the user in the spatial information storage unit 2 based on the content input from the input unit 120 on the GUI screen.

空間情報取得部73は、空間情報記憶部2に記録されている空間情報を取得するものである。   The spatial information acquisition unit 73 acquires the spatial information recorded in the spatial information storage unit 2.

仮想空間作成部74は、空間情報取得部73によって取得された空間情報に基づいて仮想空間VSを作成するものである。   The virtual space creation unit 74 creates a virtual space VS based on the space information acquired by the space information acquisition unit 73.

上記構成によれば、ユーザは、通信端末装置3を操作して、実空間RSに存在する各物体に対し、自走式掃除機1に実行させたいアクションを選択することができる。   According to the said structure, the user can select the action which self-propelled cleaner 1 wants to perform with respect to each object which exists in real space RS by operating the communication terminal device 3. FIG.

また、上記構成によれば、仮想空間作成部74は、各物体(の物体情報)に関連付けられたアクションまたはアクションの実行結果を追加して仮想空間VSを作成することができる。そのため、ユーザは、仮想空間VSが表示された表示部121を確認して、各物体に設定されているアクションおよびその実行結果を容易に得ることが可能となる。   Further, according to the above configuration, the virtual space creation unit 74 can create a virtual space VS by adding an action associated with each object (its object information) or an execution result of the action. Therefore, the user can check the display unit 121 on which the virtual space VS is displayed, and can easily obtain the action set for each object and the execution result thereof.

以下では、仮想部屋利用システム100を構築する自走式掃除機1および通信端末装置3によって実現される機能を、具体例を参照しながら詳細に説明する。   Below, the function implement | achieved by the self-propelled cleaner 1 and the communication terminal device 3 which construct | assemble the virtual room utilization system 100 is demonstrated in detail, referring a specific example.

〔1−新規に登録された物体にアクションを関連付ける〕
図7は、空間情報記憶部2に記憶されている、実空間RSの空間情報のデータ構造および具体例を示す図である。図8は、空間情報によって定義される、実空間RSの座標系を示す図である。なお、図7において、空間情報をテーブル形式のデータ構造にて示したことは一例であって、空間情報のデータ構造を、テーブル形式に限定する意図はない。以降、データ構造を説明するためのその他の図においても同様である。
[1-Associating an action with a newly registered object]
FIG. 7 is a diagram illustrating a data structure and a specific example of the spatial information of the real space RS stored in the spatial information storage unit 2. FIG. 8 is a diagram showing a coordinate system of the real space RS defined by the spatial information. In FIG. 7, the spatial information is shown in a table format data structure as an example, and the data structure of the spatial information is not intended to be limited to the table format. Hereinafter, the same applies to other figures for explaining the data structure.

図7に示す空間情報は、図2および図8に示す実空間RSに対応する空間情報であり、実空間RSに存在する各物体の情報を含むものである。空間情報は、自走式掃除機1によって到達した物体を認識するのに参照されたり、通信端末装置3によって仮想空間VSを作成するのに参照されたりして利用される。   The spatial information shown in FIG. 7 is spatial information corresponding to the real space RS shown in FIGS. 2 and 8 and includes information on each object existing in the real space RS. The spatial information is used to be recognized for recognizing an object reached by the self-propelled cleaner 1 or to be used for creating the virtual space VS by the communication terminal device 3.

空間情報は、各物体の情報を格納した複数の物体レコードによって構成される。なお、図示しないが、本実施形態では、空間情報は、実空間RSに対応する座標系を定義する情報を含む。図8に示す例では、実空間RSの直方体の左下一番奥を原点((X、Y、Z)=(0、0、0))とする3次元の座標系を定義する。例えば、実空間RSのサイズは一例として、幅(X軸)1000×奥行き(Y軸)500×高さ(Z軸)600と定義されている。サイズの数値は、実寸サイズである必要はない。よって、数字には単位は示されない。   Spatial information is composed of a plurality of object records storing information of each object. Although not shown, in the present embodiment, the spatial information includes information defining a coordinate system corresponding to the real space RS. In the example illustrated in FIG. 8, a three-dimensional coordinate system is defined in which the lower left innermost part of the cuboid of the real space RS is the origin ((X, Y, Z) = (0, 0, 0)). For example, the size of the real space RS is defined as, for example, width (X axis) 1000 × depth (Y axis) 500 × height (Z axis) 600. The size numbers need not be actual sizes. Therefore, no unit is shown in the numbers.

本実施形態では、空間情報は、大別して、物体の特徴など、物体そのものに関する情報と、その物体に対して自走式掃除機1が実行するアクションに関する情報とを含む。前者を物体情報、後者をアクション情報と称する。   In the present embodiment, the spatial information is broadly divided into information related to the object itself, such as the characteristics of the object, and information related to the action performed by the self-propelled cleaner 1 for the object. The former is called object information, and the latter is called action information.

まず、物体情報の具体例として、図7に示すとおり、空間情報は、物体ID、物体特定情報、位置座標、サイズ情報、向き情報、および、物体画像のカラムを有する。アクション情報の具体例として、空間情報は、アクション、および、アクション実行結果のカラムを有する。   First, as a specific example of the object information, as illustrated in FIG. 7, the spatial information includes an object ID, object specifying information, position coordinates, size information, orientation information, and an object image column. As a specific example of the action information, the spatial information includes an action and an action execution result column.

上述の空間情報のデータ構造は一例であってこれに限定されない。しかし、空間情報は、実空間RSに配置された物体を、先に定義した座標系の対応する位置にプロットするために、少なくとも、物体の位置座標のカラムを有する。また、空間情報は、少なくとも、物体の正体を特定する呼称を格納するための物体特定情報のカラムを有する。図7に示す例では、空間情報は、物体IDおよび物体特定情報のカラムに関連付けて、位置座標のカラムに各物体の位置座標を含んでいる。   The data structure of the spatial information described above is an example, and the present invention is not limited to this. However, the spatial information has at least a column of the position coordinates of the object in order to plot the object arranged in the real space RS at a corresponding position in the coordinate system defined above. The spatial information includes at least a column of object specifying information for storing a name for specifying the identity of the object. In the example shown in FIG. 7, the spatial information includes the position coordinates of each object in the position coordinate column in association with the object ID and object identification information columns.

さらに、空間情報は、各物体のサイズ情報を格納するためのサイズ情報のカラムを有していることが好ましい。   Further, the spatial information preferably has a column of size information for storing size information of each object.

さらに、空間情報は、各物体の向き情報を格納するための向き情報のカラムを有していることが好ましい。   Furthermore, it is preferable that the spatial information has a column of orientation information for storing the orientation information of each object.

さらに、空間情報は、各物体の画像(または、画像の保存先アドレス)を格納するための物体画像のカラムを有していることが好ましい。物体画像は、物体を平面的に表現した2D画像であってもよいし、物体を立体的に表現した2D画像であってもよいし、物体を多方面から立体的に表示できる3D画像であってもよい。物体画像は、例えば、通信ネットワーク5を介して、自走式掃除機1、通信端末装置3または情報管理サーバ4などが外部から検索して取得することができる。あるいは、撮影部32が取得した撮影画像から、物体認識部50が、画像処理によって物体を切り出して当該物体の画像とすることが考えられる。あるいは、物体特定品目記憶部6において、各呼称(物体カテゴリ、物体名、または、物体機種)ごとに、予め固定の画像が関連付けて記憶されていてもよい。   Furthermore, the spatial information preferably includes an object image column for storing an image of each object (or an image storage destination address). The object image may be a 2D image that represents the object in a plane, a 2D image that represents the object in a three-dimensional manner, or a 3D image in which the object can be displayed in three dimensions. May be. The object image can be retrieved and acquired from the outside by the self-propelled cleaner 1, the communication terminal device 3, or the information management server 4 via the communication network 5, for example. Alternatively, it is conceivable that the object recognition unit 50 cuts out an object by image processing from the captured image acquired by the imaging unit 32 to obtain an image of the object. Alternatively, in the object specifying item storage unit 6, a fixed image may be stored in advance in association with each name (object category, object name, or object model).

このように、実空間RSに新規の物体が設置されると、その物体についての物体レコードが作成されて、図7に示す空間情報に登録される。本実施形態では、まずは、新規の物体について、物体情報、すなわち、「物体ID」、「物体特定情報」、「位置座標」、「サイズ情報」、「向き情報」、および、「物体画像」が、新規に作成された物体レコードに格納される。なお、物体レコードに物体情報が格納される方法は、特に限定されない。例えば、自走式掃除機1のセンサ部30の各種センサによってセンシングされたセンシング情報を元に、自走式掃除機1が物体レコードに含まれる各種の物体情報を生成し、登録してもよい。あるいは、ユーザが手動で上記物体レコードに各種の物体情報を入力してもよい。   In this way, when a new object is installed in the real space RS, an object record for the object is created and registered in the spatial information shown in FIG. In the present embodiment, first, for a new object, object information, that is, “object ID”, “object identification information”, “position coordinates”, “size information”, “direction information”, and “object image”. And stored in a newly created object record. The method for storing object information in the object record is not particularly limited. For example, based on sensing information sensed by various sensors of the sensor unit 30 of the self-propelled cleaner 1, the self-propelled cleaner 1 may generate and register various object information included in the object record. . Alternatively, the user may manually input various object information into the object record.

さらに、本発明の空間情報記憶部2における空間情報は、アクション情報、すなわち、「アクション」のカラムと「アクション実行結果」のカラムを有している。   Further, the spatial information in the spatial information storage unit 2 of the present invention has action information, that is, an “action” column and an “action execution result” column.

「アクション」のカラムには、その物体に対して自走式掃除機1に実行させるアクションの情報が格納される。図7に示す例では、アクションを特定するためのアクションIDが格納される。自走式掃除機1のアクション登録部53は、新規に登録された物体に関連付けるアクションを選択し、そのアクションのアクションIDを、当該物体の物体レコードにおける「アクション」のカラムに格納する。これにより、アクション実行部51は、到達した物体が認識されると、その認識された物体の物体レコードに格納されたアクションIDに基づいて、当該物体に対して実行すべきアクションを特定することができる。   In the “action” column, information on actions to be executed by the self-propelled cleaner 1 for the object is stored. In the example shown in FIG. 7, an action ID for specifying an action is stored. The action registration unit 53 of the self-propelled cleaner 1 selects an action to be associated with the newly registered object, and stores the action ID of the action in the “action” column in the object record of the object. Thereby, when the arrived object is recognized, the action execution unit 51 can specify an action to be executed on the object based on the action ID stored in the object record of the recognized object. it can.

より詳細には、アクション登録部53は、以下のような方法で、新規の物体にアクションを関連付けることが可能である。   More specifically, the action registration unit 53 can associate an action with a new object by the following method.

図9は、物体特定品目記憶部6に記憶されている物体特定品目のデータ構造および具体例を示す図である。   FIG. 9 is a diagram illustrating a data structure and a specific example of the object specifying item stored in the object specifying item storage unit 6.

物体特定品目は、少なくとも、物体を特定する物体特定情報を格納するための1つのカラムを有し、この物体特定情報が物体の正体を表す呼称として用いられる。図9に示す例では、物体特定品目は、一例として、物体を分類する規模を大分類、中分類、小分類の3段階に分けるため、分類の規模ごとに3つのカラムを有する。   The object specifying item has at least one column for storing object specifying information for specifying the object, and this object specifying information is used as a name representing the identity of the object. In the example shown in FIG. 9, the object specifying item has, for example, three columns for each classification scale in order to divide the scale for classifying the object into three stages of a large classification, a medium classification, and a small classification.

大分類に相当する「物体カテゴリ」のカラムには、物体をおおまかに分類するための呼称が記憶される。例えば、実空間RSに配置されているテレビ、エアコン、冷蔵庫、空気清浄機、扇風機などをまとめて「家電機器」に分類する。   In the “object category” column corresponding to the large classification, a name for roughly classifying the object is stored. For example, televisions, air conditioners, refrigerators, air purifiers, electric fans, and the like arranged in the real space RS are collectively classified as “home appliances”.

中分類に相当する「物体名」のカラムには、物体を分類するための呼称が記憶される。本実施形態では、このカラムには、あらゆる物体の一般的な名称が格納される。例えば、家電機器であれば、「テレビ」、「エアコン」、家具であれば、「ソファー」、「テーブル」、インテリアであれば、「観葉植物」、「造花」、などである。   In the “object name” column corresponding to the middle classification, names for classifying the objects are stored. In this embodiment, this column stores general names of all objects. For example, “television”, “air conditioner” for household appliances, “sofa”, “table” for furniture, “foliage plants”, “artificial flowers”, etc. for interiors.

上述したとおり、物体特定品目は、少なくともいずれか1つの分類カラムを有していればよい。しかし、図9に示すとおり、物体特定品目が、数段階の分類規模に対応して複数の分類カラムを有している場合には、ユーザに最も馴染み深い呼称を用いたり、空間情報利用装置としての通信端末装置3の機能に応じてより詳細な呼称を用いたりして、呼称を分類規模に応じて選択的に用いることができるので利便性が高い。   As described above, the object specifying item only needs to have at least one of the classification columns. However, as shown in FIG. 9, when the object specifying item has a plurality of classification columns corresponding to several classification levels, the name most familiar to the user is used, or the spatial information utilization device is used. The use of a more detailed name according to the function of the communication terminal device 3 and the use of the name selectively according to the classification scale are highly convenient.

さらに、本発明の物体特定品目記憶部6における物体特定品目は、「アクションID」のカラムを有している。   Furthermore, the object specifying item in the object specifying item storage unit 6 of the present invention has a column of “action ID”.

「アクションID」のカラムには、その物体に対して自走式掃除機1が実行することが可能なアクションが関連付けて記憶されている。例えば、図9に示す例では、物体が「テレビ」である場合、「テレビ」に対しては、機種を問わず、AC001、AC002、AC004、AC006、AC011、AC012、AC013、AC014のアクションIDによって特定される各アクションを自走式掃除機1が実行できることが分かる。   In the column of “Action ID”, actions that can be executed by the self-propelled cleaner 1 are stored in association with the object. For example, in the example illustrated in FIG. 9, when the object is “TV”, the action ID of AC001, AC002, AC004, AC006, AC011, AC012, AC013, and AC014 is used for “TV” regardless of the model. It turns out that self-propelled cleaner 1 can perform each specified action.

アクション登録部53は、図9に示す物体特定品目を参照して、新規に登録された物体の正体が何であるのかに基づいて、実際に物体に関連付けることが可能なアクションを抽出する。例えば、図7に示すとおり、物体IDが「0005」であって物体特定情報が「加湿器」である物体レコードが新規に登録された場合には、アクション登録部53は、図9の物体特定品目を参照し、物体特定情報「加湿器」に関連付けられているアクションIDを抽出する。図9に示す例では、アクション登録部53は、AC001、AC002、AC003、AC004、AC005、AC006、AC013、AC014を抽出する。アクション登録部53は、抽出したすべてまたは一部のアクションIDを、図7の空間情報に登録してもよい。例えば、ユーザが選択した、AC001、AC002、AC004だけを、その物体(「加湿器」)に関連付けてもよい。   The action registration unit 53 refers to the object specifying item shown in FIG. 9 and extracts an action that can be actually associated with the object based on what the newly registered object is. For example, as illustrated in FIG. 7, when a new object record having the object ID “0005” and the object identification information “humidifier” is newly registered, the action registration unit 53 performs the object identification illustrated in FIG. 9. The action ID associated with the object identification information “humidifier” is extracted with reference to the item. In the example illustrated in FIG. 9, the action registration unit 53 extracts AC001, AC002, AC003, AC004, AC005, AC006, AC013, and AC014. The action registration unit 53 may register all or some of the extracted action IDs in the spatial information of FIG. For example, only AC001, AC002, AC004 selected by the user may be associated with the object (“humidifier”).

複数のアクションの中から所望のアクションだけをユーザに選択させる方法としては以下のものが考えられる。   As a method for allowing the user to select only a desired action from a plurality of actions, the following can be considered.

アクション登録部53は、図9の物体特定品目を参照し、新規に登録された物体に適用できるすべてのアクションのアクションIDを抽出する。これを通信部11を介して通信端末装置3に送信する。   The action registration unit 53 refers to the object specifying item in FIG. 9 and extracts action IDs of all actions applicable to the newly registered object. This is transmitted to the communication terminal device 3 via the communication unit 11.

通信端末装置3のアクション取得部75はアクション登録部53からアクションIDを取得して、このアクションIDの一覧をGUI画面作成部71に供給する。GUI画面作成部71は、新規の物体に適用できるアクションの一覧を、ユーザが所望のアクションを選択可能な状態で表示部121に表示する。   The action acquisition unit 75 of the communication terminal device 3 acquires an action ID from the action registration unit 53 and supplies the list of action IDs to the GUI screen creation unit 71. The GUI screen creation unit 71 displays a list of actions applicable to the new object on the display unit 121 in a state where the user can select a desired action.

表示部121に表示されたGUI画面から、ユーザが所望のアクションを選択すると、アクション設定部76は、入力部120を介してユーザの選択を受け付けて、ユーザによって選択されたアクションIDを通信部311を介して自走式掃除機1に送信する。   When the user selects a desired action from the GUI screen displayed on the display unit 121, the action setting unit 76 accepts the user's selection via the input unit 120 and assigns the action ID selected by the user to the communication unit 311. Is transmitted to the self-propelled cleaner 1 via.

自走式掃除機1のアクション登録部53は、アクション設定部76から受信したアクションIDだけを、上記新規に登録された物体に関連付けて格納することができる。   The action registration unit 53 of the self-propelled cleaner 1 can store only the action ID received from the action setting unit 76 in association with the newly registered object.

さらに、図示しないが、空間情報において、アクション実行タイミングが定義されてもよい。基本的には、自走式掃除機1が掃除中にその物体に到達したときが、アクション実行タイミングである。しかし、自走式掃除機1が、1回の掃除で、実空間RSをあちこち巡回するため、短い期間に何回も同じ物体に立ち寄ることになる。その度に同じアクションが実行されても意味をなさず、無駄なアクションが無意味なタイミングが繰り返し実行されてしまう可能性がある。そのため、自走式掃除機1が物体に到達した際、(1)毎回必ず実行、(2)前回から10分以上間を空けて実行、(3)前回から1時間以上間を空けて実行、・・・というようにアクション実行タイミングについてオプションを設けてもよい。そして、ユーザがこれらのオプションの中から所望の実行タイミングを選択する。この場合、図7の空間情報において、さらにアクション実行タイミングを定義するカラムが設けられ、ユーザによって選択されたアクション実行タイミングがアクション登録部53によって登録される。さらに、実行結果を保存するか否かをユーザが設定することができてもよい。このように、同じアクションでも、特定のユーザの特定の物体用にアクションをカスタマイズすることができる。   Further, although not shown, action execution timing may be defined in the spatial information. Basically, the action execution timing is when the self-propelled cleaner 1 reaches the object during cleaning. However, since the self-propelled cleaner 1 circulates around the real space RS in one cleaning, the same object is visited many times in a short period of time. Even if the same action is executed each time, it does not make sense, and there is a possibility that a useless action is repeatedly executed at meaningless timing. Therefore, when the self-propelled cleaner 1 arrives at the object, (1) it must be executed every time, (2) it is executed after 10 minutes or more from the previous time, (3) it is executed after 1 hour or more from the previous time, As such, an option may be provided for action execution timing. Then, the user selects a desired execution timing from these options. In this case, in the spatial information of FIG. 7, a column for defining action execution timing is further provided, and the action execution timing selected by the user is registered by the action registration unit 53. Further, the user may be able to set whether to save the execution result. In this way, even for the same action, the action can be customized for a specific object of a specific user.

こうして、新しく登録された物体に対して、アクション登録部53がアクションを関連付ける。ユーザは、操作しないか、したとしても、タイミングを指定したり、保存形式を指定したりするだけで、簡単に、物体到達時に自走式掃除機1にさせるアクションを規定することができる。   Thus, the action registration unit 53 associates the action with the newly registered object. Even if the user does not perform the operation, it is possible to easily define the action to be performed by the self-propelled cleaner 1 when the object arrives only by specifying the timing or specifying the storage format.

〔2−掃除の傍ら立ち寄った物体にアクションを実行する〕
上述のようにして、アクション登録部53が、空間情報において、各物体にアクションを関連付けると、自走式掃除機1は、物体に到達した際に、当該物体に対し、関連付けられたアクションを実行することが可能となる。
[2-Perform actions on objects that stop by cleaning]
As described above, when the action registration unit 53 associates an action with each object in the spatial information, the self-propelled cleaner 1 executes the associated action on the object when it reaches the object. It becomes possible to do.

自走式掃除機1が掃除機能(基本機能)を実行し、自走するうち、実空間RSに設置された物体に到達する。例えば、自走式掃除機1がテレビに衝突し、衝突検知部37が衝突を検知したとする。物体認識部50は、衝突検知時に撮影された撮影画像を、図7の空間情報に登録されている各物体画像と比較して、「0004.jpg」が撮影画像に類似していると判断したとする。この場合、物体認識部50は、衝突つまり到達した物体は「テレビ」であると認識することができる。あるいは、通信部11がある物体と近距離無線通信可能になり、その物体から、物体名またはIPアドレスなどの物体特定情報を受信する。物体認識部50は、受信された物体名またはIPアドレスに基づいて、上記物体が、物体ID「0004」の「テレビ」であると認識してもよい。なお、物体の存在は知覚されたが、特徴が一致する物体が、空間情報記憶部2の空間情報に登録されていなかった場合には、物体認識部50は物体の認識を行わず、アクション実行部51はアクションを実行しない。そして、自走式掃除機1による掃除および自走が継続される。   While self-propelled cleaner 1 performs a cleaning function (basic function) and self-propells, it reaches an object installed in real space RS. For example, it is assumed that the self-propelled cleaner 1 collides with the television and the collision detection unit 37 detects the collision. The object recognition unit 50 compares the captured image captured at the time of collision detection with each object image registered in the spatial information of FIG. 7 and determines that “0004.jpg” is similar to the captured image. And In this case, the object recognition unit 50 can recognize that the collision, that is, the reached object is “television”. Alternatively, the communication unit 11 can perform near field communication with an object, and receives object specifying information such as an object name or an IP address from the object. The object recognition unit 50 may recognize that the object is “TV” having the object ID “0004” based on the received object name or IP address. If the presence of an object is perceived, but an object with matching characteristics is not registered in the spatial information in the spatial information storage unit 2, the object recognition unit 50 does not recognize the object and executes the action. The unit 51 does not execute the action. And the cleaning and self-propelled by self-propelled cleaner 1 are continued.

アクション実行部51は、到達した物体が「テレビ」であると認識されたため、空間情報を参照し、物体「テレビ」に関連付けられているアクションを選択する。図7に示す例では、「テレビ」に対して実行するべきアクションは、アクションID「AC011」のアクションであるとアクション実行部51は判断することができる。   The action execution unit 51 selects the action associated with the object “television” by referring to the spatial information because the arrived object is recognized as “television”. In the example illustrated in FIG. 7, the action execution unit 51 can determine that the action to be performed on “TV” is the action with the action ID “AC011”.

アクションIDによって特定される各アクションが具体的にどのような内容のアクションであるのかは、例えば、アクション記憶部7に記憶されているアクション管理情報によって管理されている。   The specific content of each action specified by the action ID is managed by action management information stored in the action storage unit 7, for example.

図10は、アクション記憶部7に記憶されているアクション管理情報のデータ構造および具体例を示す図である。   FIG. 10 is a diagram showing a data structure and a specific example of action management information stored in the action storage unit 7.

アクション管理情報は、アクションIDに関連付けて、少なくとも、アクションの内容を示す「実行内容」のカラムを有する。先の例では、「テレビ」に関連付けてアクションID「AC011」が特定された。よって、アクション実行部51は、「AC011」に対応するアクション「物体(機器)の電源オン/オフ状態をチェックする」というアクションを、「テレビ」に到達した際に実行する。   The action management information has at least a column of “execution content” indicating the content of the action in association with the action ID. In the previous example, the action ID “AC011” is specified in association with “TV”. Therefore, the action execution unit 51 executes the action “check the power on / off state of the object (device)” corresponding to “AC011” when it reaches “TV”.

アクション実行部51は、空間情報の「テレビ」の物体レコードにおいて、「AC011」とともにアクション実行タイミングが指定されている場合には、そのタイミングにしたがってアクションを実行する。   When the action execution timing is specified together with “AC011” in the object record of “TV” in the spatial information, the action execution unit 51 executes the action according to the timing.

図10に示すとおり、例えば、アクションは、センサ部30を介して、自走式掃除機1が到達した物体または当該物体の周辺環境の物理的状態を測定することである(AC001〜AC007など)。これにより、自走式掃除機1に物体の物理的状態を測定させることができる。ユーザは、測定結果の情報を得て、実空間RSに居合わせなくても、実空間RSに居るときと同じように物体の物理的状態を知ることが可能となる。   As shown in FIG. 10, for example, the action is to measure the physical state of the object reached by the self-propelled cleaner 1 or the surrounding environment of the object (such as AC001 to AC007) via the sensor unit 30. . Thereby, self-propelled cleaner 1 can be made to measure the physical state of an object. The user can obtain the information of the measurement result and know the physical state of the object in the same way as when in the real space RS without being in the real space RS.

あるいは、例えば、アクションは、近距離無線通信部としての通信部11を介して、当該機能実行装置が到達した物体を遠隔操作する、または、当該物体の論理的状態を取得することである(AC011〜AC015など)。これにより、ユーザは、実空間RSに居合わせなくても、自走式掃除機1に、物体の論理的状態(機器のソフトウェア上の状態)をチェックさせたり、設定を変更させたり、遠隔操作させたりすることが可能となる。つまり、ユーザは、実空間RSに居合わせなくても、実空間RSに居る時と同じように、実空間RSの物体を操作することが可能となる。本発明の自走式掃除機1は、ユーザが通信端末装置3から通信ネットワーク5を介して遠隔制御できない物体(機器)に対しても適用することが可能である。   Alternatively, for example, the action is to remotely operate an object reached by the function execution device or acquire a logical state of the object via the communication unit 11 as a short-range wireless communication unit (AC011). ~ AC015 etc.). This allows the user to have the self-propelled cleaner 1 check the logical state of the object (the state on the software of the device), change the setting, or remotely control the self-propelled cleaner 1 without being in the real space RS. It becomes possible to do. That is, even if the user is not in the real space RS, the user can operate the object in the real space RS in the same manner as when the user is in the real space RS. The self-propelled cleaner 1 of the present invention can also be applied to an object (device) that cannot be remotely controlled by the user from the communication terminal device 3 via the communication network 5.

あるいは、例えば、アクションは、自走式掃除機1が到達した物体または当該物体の周辺環境の物理量を変化させることである(AC008〜AC010)。これにより、ユーザは、自走式掃除機1に、実空間RSの物理量を変化させて、実空間RSに居合わせなくても、実空間RSに居る時と同じように、実空間RSおよび実空間RS内の各物体に対して影響を与えることが可能となる。   Alternatively, for example, the action is to change the physical quantity of the object reached by the self-propelled cleaner 1 or the surrounding environment of the object (AC008 to AC010). As a result, the user can change the physical quantity of the real space RS to the self-propelled cleaner 1 so that the real space RS and the real space are the same as when they are in the real space RS without being in the real space RS. It is possible to influence each object in the RS.

なお、アクションは、図10に示す例に限定されない。例えば、「物体到達時にその到達位置から、当該物体とは別の物体を撮影する」というアクション、「物体と通信して、物体内部(例えば、冷蔵庫内)の温度を取得する」というアクション、「物体(エアコン、冷蔵庫)の設定温度を変更する」というアクション、「物体(テレビ、録画再生装置)の音量を変更する」というアクション、「物体(テレビ、録画再生装置)に対して視聴・録画の予約を行う」というアクションが、基本機能とともに実行されるアクションとして定義されていてもよい。   Note that the action is not limited to the example shown in FIG. For example, an action of “photographing an object different from the object from the arrival position when the object arrives”, an action of “communicating with the object and acquiring the temperature inside the object (for example, in the refrigerator)”, “ “Change the set temperature of an object (air conditioner, refrigerator)”, “Change the volume of an object (TV, recording / playback device)”, “View / record on an object (TV, recording / playback device) The action of “schedule” may be defined as an action executed together with the basic function.

〔3−アクションの実行結果を空間情報に登録する〕
物体到達時、アクション実行部51によって、当該物体に対してアクションが実行されると、実行結果登録部52は、アクションが実行された後に得られた結果をアクション実行結果として、当該物体の物体レコードに登録する。
[3- Register the execution result of the action in the spatial information]
When the action is executed on the object by the action execution unit 51 when the object arrives, the execution result registration unit 52 uses the result obtained after the action is executed as the action execution result, and the object record of the object Register with.

ここで、図10に示すとおり、アクション管理情報は、アクション実行結果をどのような形式で保存するのかを定義する「実行結果保存形式」のカラムを有していることが好ましい。実行結果登録部52は、例えば、「AC001:物体または物体周辺の湿度を測定する」というアクションが実行された場合には、湿度測定部によって取得された湿度の出力値を、アクション実行結果として図7の空間情報に登録する。   Here, as shown in FIG. 10, the action management information preferably has a column of “execution result storage format” that defines in what format the action execution result is stored. For example, when the action “AC001: Measure the humidity of an object or around the object” is executed, the execution result registration unit 52 displays the output value of the humidity acquired by the humidity measurement unit as an action execution result. 7 space information.

図7に示すとおり、空間情報は、さらに、「アクション実行結果」のカラムを有している。   As illustrated in FIG. 7, the spatial information further includes a column of “action execution result”.

「アクション実行結果」のカラムには、その物体に対して自走式掃除機1が実際にアクションを実行した後、得られた実行結果の情報が格納される。図7に示すとおり、実行結果は、フラグ、数値、文字列、グラフ、表などさまざまな形式で格納される。例えば、実行結果登録部52は、アクション「AC001」の実行結果として、湿度の出力値および測定日時を含むアクション実行ログ(図7の「014加湿器.csv」)を、上記物体に関連付けて登録する。   In the “action execution result” column, information on the execution result obtained after the self-propelled cleaner 1 actually executes an action on the object is stored. As shown in FIG. 7, the execution result is stored in various formats such as a flag, a numerical value, a character string, a graph, and a table. For example, the execution result registration unit 52 registers an action execution log (“014 humidifier.csv” in FIG. 7) including the humidity output value and the measurement date as the execution result of the action “AC001” in association with the object. To do.

〔4−仮想空間上で各物体のアクションに係る情報を表示する〕
空間情報取得部73は、通信端末装置3の表示部121に表示すべき仮想空間の元となる空間情報を取得するものである。空間情報取得部73は、通信端末装置3の端末IDまたはユーザIDなどを、空間情報記憶部2を管理する情報管理サーバ4に送信し、通信端末装置3のユーザUの部屋に対応する空間情報をリクエストする。そして、情報管理サーバ4から返ってきた空間情報を、仮想空間作成部74に供給する。
[4-Display information related to actions of each object in virtual space]
The spatial information acquisition unit 73 acquires spatial information that is a source of the virtual space to be displayed on the display unit 121 of the communication terminal device 3. The spatial information acquisition unit 73 transmits the terminal ID or user ID of the communication terminal device 3 to the information management server 4 that manages the spatial information storage unit 2, and the spatial information corresponding to the room of the user U of the communication terminal device 3 Request. Then, the spatial information returned from the information management server 4 is supplied to the virtual space creation unit 74.

仮想空間作成部74は、通信端末装置3の表示部121に表示すべき仮想空間を作成するものである。仮想空間作成部74は、空間情報記憶部2に記憶された空間情報に登録された物体レコード(物体特定情報、位置座標、サイズ情報、向き情報、および、物体画像など)に基づいて、個々の物体を表す図形を座標系に配置して、仮想空間VSを作成する。   The virtual space creation unit 74 creates a virtual space to be displayed on the display unit 121 of the communication terminal device 3. Based on the object record (object identification information, position coordinates, size information, orientation information, and object image) registered in the spatial information stored in the spatial information storage unit 2, the virtual space creation unit 74 A virtual space VS is created by placing a figure representing an object in the coordinate system.

仮想空間作成部74が作成する仮想空間VSが、どのような表示形態を持つのかについては特に限定されない。空間情報取得部73が、空間情報記憶部2から、物体についてどのような情報を取得するのかによって、様々な表示形態が考えられる。   The display form of the virtual space VS created by the virtual space creating unit 74 is not particularly limited. Various display forms are conceivable depending on what information the spatial information acquisition unit 73 acquires from the spatial information storage unit 2 about the object.

図11は、通信端末装置3の仮想空間作成部74が作成した仮想空間VSの表示形態の一具体例を示す図である。図11は、仮想空間VSが、通信端末装置3の表示部121に表示されている状態を表している。   FIG. 11 is a diagram illustrating a specific example of a display form of the virtual space VS created by the virtual space creating unit 74 of the communication terminal device 3. FIG. 11 illustrates a state in which the virtual space VS is displayed on the display unit 121 of the communication terminal device 3.

図11に示す仮想空間VSの表示形態は、仮想空間VSを、斜め上から見たときの実空間RSを立体的に示すものであり、各物体を、対応する物体画像で示すものである。   The display form of the virtual space VS shown in FIG. 11 is a three-dimensional representation of the real space RS when the virtual space VS is viewed obliquely from above, and each object is represented by a corresponding object image.

仮想空間作成部74は、実空間RSに対応するX−Y−Z軸がなす座標系(図8)に、直方体の仮想空間VSをプロットする。そして、仮想空間作成部74は、空間情報記憶部2に記憶された空間情報を参照し、各物体の物体画像を、3次元の位置座標に基づいて、配置する。さらに、図11に示す例では、仮想空間作成部74は、各物体のサイズ情報を参照し、上記物体画像の大きさを調節する。さらに、仮想空間作成部74は、各物体の向き情報を参照し、実際に当該向きに設置された物体が、上記斜め上から見られたときと同じ見え方になる物体画像を選択する(あるいは同じ見え方になるように物体画像を編集する)。さらに、仮想空間作成部74は、図11に示すように、物体の向きを表現する図形として、物体が出力する風などを表現した図形を物体の図形に追加してもよい。   The virtual space creation unit 74 plots the cuboid virtual space VS on the coordinate system (FIG. 8) formed by the XYZ axes corresponding to the real space RS. Then, the virtual space creation unit 74 refers to the spatial information stored in the spatial information storage unit 2 and arranges the object images of the respective objects based on the three-dimensional position coordinates. Furthermore, in the example illustrated in FIG. 11, the virtual space creation unit 74 refers to the size information of each object and adjusts the size of the object image. Further, the virtual space creation unit 74 refers to the orientation information of each object, and selects an object image in which the object actually installed in the orientation looks the same as when viewed from the above diagonally (or Edit the object image so that it looks the same). Furthermore, as illustrated in FIG. 11, the virtual space creation unit 74 may add a graphic representing the wind output by the object to the graphic of the object as a graphic representing the orientation of the object.

このように向き情報を利用して、物体の図形の形状・色などを編集することにより、実空間RSにより一層近い表示形態の仮想空間VSを表示することができる。結果として、ユーザUがより直感的に自分の部屋を操作することが可能なユーザインターフェースを実現することが可能となる。   Thus, by editing the shape and color of the figure of the object using the orientation information, the virtual space VS having a display form closer to the real space RS can be displayed. As a result, it is possible to realize a user interface that allows the user U to operate his / her room more intuitively.

本実施形態では、仮想空間作成部74は、さらに、空間情報において、各物体に関連付けられているアクション情報(アクションおよびアクション実行結果)を、仮想空間VSに反映することが好ましい。   In the present embodiment, it is preferable that the virtual space creation unit 74 further reflects the action information (action and action execution result) associated with each object in the virtual space VS in the space information.

図11は、アクションおよびアクション実行結果を物体に関連付けて表示する表示形態の一例を示している。図11に示す例では、仮想空間作成部74は、ふきだしを設けて、ふきだしに、その物体に関連付けられているアクションおよびアクション実行結果を表示する。ふきだし110、ふきだし111は、それぞれ、物体「エアコン」、物体「ソファー」のアクションおよびアクション実行結果を表示するための図形である。   FIG. 11 shows an example of a display form in which actions and action execution results are displayed in association with objects. In the example illustrated in FIG. 11, the virtual space creation unit 74 provides a speech bubble and displays the action associated with the object and the action execution result in the speech bubble. The balloon 110 and the balloon 111 are figures for displaying the action of the object “air conditioner” and the object “sofa” and the action execution result, respectively.

図7に示すとおり、「エアコン」には、2つのアクションが関連付けられているので、それぞれアクションおよびそれぞれのアクション実行結果がふきだし110に反映される。仮想空間作成部74は、ふきだし110、111の<アクション>を、空間情報の「アクション」のカラムに格納されているアクションIDに基づいて作成する。仮想空間作成部74は、<表示>を、空間情報の「アクション実行結果」のカラムに格納されている実行結果に基づいて作成する。さらに、仮想空間作成部74は、<表示>にリンク情報を設けて、「アクション実行結果」のカラムに格納されているアクション実行ログ(測定値を時系列に並べたグラフ、ログをテキスト化したものなど)を閲覧できるようにすることが好ましい。   As shown in FIG. 7, since two actions are associated with “air conditioner”, each action and each action execution result are reflected in the balloon 110. The virtual space creation unit 74 creates <actions> for the speech bubbles 110 and 111 based on the action ID stored in the “action” column of the space information. The virtual space creation unit 74 creates <display> based on the execution result stored in the “action execution result” column of the space information. Furthermore, the virtual space creation unit 74 provides link information in <display> and converts the action execution log stored in the “action execution result” column (a graph in which measured values are arranged in chronological order, into a text log) It is preferable to be able to browse things.

さらに、表示部121のサイズの制限によって、すべての物体についてふきだしを一度に表示することができない場合には、仮想空間作成部74は、各物体について縮小化されたふきだしを表示させてもよい。例えば、縮小化されたふきだし112およびふきだし113は、それぞれ、物体「テレビ」および物体「加湿器」にアクションおよびアクション実行結果が関連付けられていることをユーザに知らせる役割を持っている。縮小化されたふきだし112およびふきだし113は、例えば、ユーザによってタッチされると、ふきだし110、111のように最大化されてアクションおよびアクション実行結果が詳細に表示される。   Furthermore, when the balloons cannot be displayed for all objects at once due to the size limit of the display unit 121, the virtual space creating unit 74 may display the balloons reduced for each object. For example, the reduced balloon 112 and the balloon 113 have a role of notifying the user that an action and an action execution result are associated with the object “television” and the object “humidifier”, respectively. For example, when the speech bubble 112 and the speech bubble 113 are touched by the user, the speech bubble 110 and the speech bubble 113 are maximized like the speech bubbles 110 and 111, and the action and the action execution result are displayed in detail.

さらに、仮想空間作成部74は、アクション等の情報が付加されている物体に図形のみを点滅させたり、透明度を上げたり、立体表示させたりして、付加情報がない物体の図形とは表示の仕方を異ならせてもよい。さらに、仮想空間作成部74は、自走式掃除機1がアクションの実行を失敗した場合には、エラーが生じたことが一目で分かるようにアクションが失敗した物体の図形だけを赤色一色にするなど別の色で表示させることが好ましい。さらに、仮想空間作成部74は、物体に対してアクションを実行した結果、物体の状態変化が検知された場合に、その変化が視覚的に分かるように物体の図形の表示の仕方を工夫することができる。   Further, the virtual space creation unit 74 displays only the figure of an object to which information such as an action is added by blinking, increasing the transparency, or displaying the figure in a three-dimensional manner. You may vary the way. Further, when the self-propelled cleaner 1 fails to execute the action, the virtual space creation unit 74 turns only the figure of the object in which the action has failed so that the error has occurred at a glance. It is preferable to display in another color. Furthermore, the virtual space creation unit 74 devise how to display the object graphic so that the change can be visually recognized when a change in the state of the object is detected as a result of executing the action on the object. Can do.

上記構成によれば、ユーザは、通信端末装置3に表示された仮想空間VSを利用して、各物体に対して実行されるアクションを容易に確認することが可能となる。さらに、ユーザは、そのアクションが実行された際の実行結果を併せて容易に確認することが可能となる。   According to the above configuration, the user can easily confirm the action executed on each object using the virtual space VS displayed on the communication terminal device 3. Furthermore, the user can easily confirm the execution result when the action is executed.

〔変形例1−追加アクションを実行する〕
図12は、空間情報記憶部2に記憶されている、実空間RSの空間情報の他の例を示す図である。
[Variation 1-Perform additional action]
FIG. 12 is a diagram illustrating another example of the spatial information of the real space RS stored in the spatial information storage unit 2.

図12に示す空間情報において、図7に示す空間情報と異なる点は、アクション情報として、さらに、「追加シナリオ」のカラムと、「追加アクション実行結果」のカラムが含まれている点である。   The spatial information shown in FIG. 12 is different from the spatial information shown in FIG. 7 in that the action information further includes an “additional scenario” column and an “additional action execution result” column.

「追加シナリオ」のカラムは、自走式掃除機1に追加で実行させる追加アクションと、その追加アクションの実行条件と、追加アクションの実行対象となる対象物体とを指定する追加シナリオを格納するものである。   The “additional scenario” column stores additional scenarios that specify additional actions to be executed by the self-propelled vacuum cleaner 1, execution conditions for the additional actions, and target objects to be executed by the additional actions. It is.

「追加アクション実行結果」のカラムは、「追加シナリオ」のカラムで指定された追加アクションが実行された後に得られた結果を格納するものである。   The “additional action execution result” column stores a result obtained after the additional action specified in the “additional scenario” column is executed.

追加アクションとは、本実施形態のアクションが実行された後に得られた実行結果に応じて、当該実行結果が所定の条件に当てはまる場合に、自走式掃除機1が追加で実行するアクションのことを指す。追加アクションの実行対象は、初回に行われたアクションの実行対象に限らず、それとは別の物体であってもよい。   The additional action is an action that the self-propelled cleaner 1 additionally executes when the execution result meets a predetermined condition according to the execution result obtained after the action of the present embodiment is executed. Point to. The execution target of the additional action is not limited to the execution target of the action performed for the first time, but may be another object.

例えば、図12に示す例では、自走式掃除機1は、物体「ソファー」に到達したら、湿度を測定するというアクション「AC001」を実行する。空間情報において、さらに、物体「ソファー」には、追加シナリオが関連付けられている。追加シナリオの一例を具体的に説明すると以下のとおりである。まず、追加シナリオにおいて、追加アクションの実行条件が、“初回のアクション「AC001」の実行結果(すなわち、湿度)が、所定閾値(例えば、湿度30%)未満である場合”と指定される。そして、追加アクションの実行対象となる対象物体が“物体ID「0005」の物体「加湿器」”と指定される。そして、追加アクションが“AC012:機器の電源をオンにする”と指定される。   For example, in the example shown in FIG. 12, when the self-propelled cleaner 1 reaches the object “sofa”, the action “AC001” of measuring humidity is executed. In the spatial information, an additional scenario is associated with the object “sofa”. An example of the additional scenario will be specifically described as follows. First, in the additional scenario, the execution condition of the additional action is specified as “when the execution result (that is, humidity) of the first action“ AC001 ”is less than a predetermined threshold (for example, 30% humidity)”. The target object to be subjected to the additional action is specified as “object“ humidifier ”with object ID“ 0005 ”.” Then, the additional action is specified as “AC012: power on the device”.

すなわち、このような追加シナリオにしたがえば、自走式掃除機1が、掃除中にソファー付近に到達すると、アクション実行部51は、まず、その場所で、湿度測定部を介して湿度を測定する。これが初回のアクションである。そして、アクション実行部51は、得られた湿度が30%未満である場合に、物体「加湿器」に対して、追加アクション、すなわち、加湿器の電源を入れるという追加アクションを実行する。この場合、自走式掃除機1は、赤外線通信などの近距離無線通信手段(通信部11)を用いて上記加湿器を制御できる範囲に移動し、通信部11を介して上記加湿器と通信して、加湿器を稼働させる。   That is, according to such an additional scenario, when the self-propelled cleaner 1 reaches the vicinity of the sofa during cleaning, the action execution unit 51 first measures humidity at the location via the humidity measurement unit. To do. This is the first action. Then, when the obtained humidity is less than 30%, the action execution unit 51 executes an additional action for the object “humidifier”, that is, an additional action of turning on the humidifier. In this case, the self-propelled cleaner 1 moves to a range where the humidifier can be controlled using short-range wireless communication means (communication unit 11) such as infrared communication, and communicates with the humidifier via the communication unit 11. Then, operate the humidifier.

上記に構成によれば、より複雑なアクションのシナリオを自走式掃除機1に対して設定し、自走式掃除機1に複数のアクションを連続して実行させることが可能となり、ユーザの利便性が向上する。   According to the above configuration, it is possible to set a more complicated action scenario for the self-propelled cleaner 1 and cause the self-propelled cleaner 1 to execute a plurality of actions in succession, which is convenient for the user. Improves.

なお、追加シナリオのカラムにおいて指定される内容は、一例として、予めテンプレートとしていくつか用意されたものをユーザがカスタマイズし、所望の物体の物体情報に関連付けて登録することで決定される。   Note that the content specified in the column of the additional scenario is determined by, for example, customizing several templates prepared in advance and registering them in association with object information of a desired object.

〔変形例2−走行ルートを制御する〕
自走式掃除機1は、予定されている掃除機能を実行して自走を始めると、例えば公知の技術を用いて、物体の配置に応じて進行方向を変えながら、床面を可能な限りくまなく自走して掃除することが可能となる。
[Modification 2—Controlling the driving route]
When the self-propelled cleaner 1 executes a scheduled cleaning function and starts self-propelled, the floor surface is changed as much as possible while changing the traveling direction according to the arrangement of the object, for example, using a known technique. It is possible to clean by running all over.

本発明の自走式掃除機1が、掃除機能実行中にアクションの実行結果に応じて追加アクションを実行する必要が生じた場合に、走行制御部45が走行駆動部15を制御して、追加アクションの実行対象である物体に立ち寄るように走行ルートを決定してもよい。   When the self-propelled cleaner 1 of the present invention needs to perform an additional action according to the execution result of the action during the execution of the cleaning function, the travel control unit 45 controls the travel drive unit 15 to add The travel route may be determined so as to stop at an object that is an action execution target.

先の例を用いて説明する。自走式掃除機1は、掃除機能を実行しながら自走し、たまたまソファーに到達したとする。到達位置(ソファー付近)にて、自走式掃除機1は、湿度を測定するという初回のアクションを実行する。ここで、湿度が所定閾値以上(例えば、30%以上)であれば、自走式掃除機1は、上記初回のアクションを終えると、通常の掃除機能に復帰する。一方、湿度が所定閾値未満であれば、自走式掃除機1は、追加アクションを実行しなければならない。そこで、走行制御部45は、走行駆動部15を制御して、追加アクションを実行可能な位置に自走式掃除機1が到達するように走行ルートに制御することが好ましい。例えば、通信部11またはセンサ部30を用いて自走式掃除機1が追加アクションの実行対象物体を探索する。例えば、撮影部32が加湿器の撮影画像を取得することにより、自走式掃除機1が加湿器と自機との位置関係を把握してもよい。あるいは、通信部11が加湿器と通信することにより自走式掃除機1が加湿器と自機との位置関係を把握してもよい。このように実行対象物体が検出された場合には、走行制御部45は、その方向に自走式掃除機1が近づくように、自走式掃除機1の走行ルートを制御する。なお、走行ルートが制御される間も、自走式掃除機1は、本来の機能である掃除機能を実行することが可能であり、追加アクションが完了した後は、自走式掃除機1は、通常の掃除(自走)機能に復帰すればよい。つまり、自走式掃除機1は、基本機能を実行しながら、初回のアクションに加えて、追加アクションを実行することができる。   This will be described using the previous example. It is assumed that the self-propelled cleaner 1 is self-propelled while executing the cleaning function and happens to reach the sofa. At the arrival position (near the sofa), the self-propelled cleaner 1 performs the first action of measuring humidity. Here, if the humidity is equal to or higher than a predetermined threshold (for example, 30% or higher), the self-propelled cleaner 1 returns to the normal cleaning function when the first action is completed. On the other hand, if the humidity is less than the predetermined threshold, the self-propelled cleaner 1 must perform an additional action. Therefore, it is preferable that the traveling control unit 45 controls the traveling route so that the self-propelled cleaner 1 reaches the position where the additional action can be performed by controlling the traveling driving unit 15. For example, the self-propelled cleaner 1 searches for an execution target object of the additional action using the communication unit 11 or the sensor unit 30. For example, the self-propelled cleaner 1 may grasp the positional relationship between the humidifier and the own device by the photographing unit 32 acquiring a photographed image of the humidifier. Or the communication part 11 may communicate with a humidifier, and the self-propelled cleaner 1 may grasp | ascertain the positional relationship of a humidifier and a self-machine. When the execution target object is detected in this way, the traveling control unit 45 controls the traveling route of the self-propelled cleaner 1 so that the self-propelled cleaner 1 approaches the direction. In addition, while the travel route is controlled, the self-propelled cleaner 1 can execute the cleaning function which is the original function. After the additional action is completed, the self-propelled cleaner 1 Return to the normal cleaning (self-running) function. That is, the self-propelled cleaner 1 can execute an additional action in addition to the first action while executing the basic function.

〔処理フロー〕
図13は、自走式掃除機1のアクション実行機能に係る処理の流れを示すフローチャートである。
[Process flow]
FIG. 13 is a flowchart showing the flow of processing related to the action execution function of the self-propelled cleaner 1.

自走式掃除機1の基本機能(掃除機能)を開始するトリガ(例えば、掃除予約時刻になった場合など)が発生すると(S101においてYES)、自走式掃除機1は、実空間RSを自走し、掃除機能を実行する(S102)。このとき、自走式掃除機1のセンサ部30の各部は、実空間RSにおける周囲環境をセンシングする。得られたセンシング情報は、物体認識部50に供給される。S102は、掃除機能を終了するトリガが発生すれば、終了する(S103においてNO)。   When a trigger for starting the basic function (cleaning function) of the self-propelled cleaner 1 (for example, when the scheduled cleaning time is reached) occurs (YES in S101), the self-propelled cleaner 1 uses the real space RS. Self-propelled and performs a cleaning function (S102). At this time, each part of the sensor unit 30 of the self-propelled cleaner 1 senses the surrounding environment in the real space RS. The obtained sensing information is supplied to the object recognition unit 50. S102 ends when a trigger to end the cleaning function occurs (NO in S103).

S102が継続し、自走式掃除機1が掃除(自走)している間に、センサ部30または通信部11によって、物体の存在が知覚されると(S104においてYES)、物体認識部50は、自機が到達した物体を認識する(S105)。   If the presence of an object is perceived by the sensor unit 30 or the communication unit 11 while S102 continues and the self-propelled cleaner 1 is cleaning (self-propelled) (YES in S104), the object recognition unit 50 Recognizes the object reached by itself (S105).

知覚された物体が、空間情報に未登録の物体であって認証に失敗した場合には(S106においてNO)、自走式掃除機1は、通常の掃除に復帰して自走を継続する。一方、物体認識部50が、空間情報に登録されたいずれかの物体であると認識することができれば、認識が成功する(S106においてYES)。この場合、アクション実行部51は、認識された物体に関連付けられたアクションIDによって指定されるアクションを、S104にて知覚された物体に対して実行する(S107)。続いて、実行結果登録部52は、アクション実行結果を、上記物体の物体レコードに関連付けて登録する(S108)。   If the perceived object is an object not registered in the spatial information and authentication fails (NO in S106), self-propelled cleaner 1 returns to normal cleaning and continues self-propelled. On the other hand, if the object recognition unit 50 can recognize that the object is any object registered in the spatial information, the recognition is successful (YES in S106). In this case, the action execution unit 51 executes the action specified by the action ID associated with the recognized object on the object perceived in S104 (S107). Subsequently, the execution result registration unit 52 registers the action execution result in association with the object record of the object (S108).

ここで、空間情報において、上記物体に、追加シナリオ(追加アクション)が関連付けられていなければ(S109においてNO)、通常の掃除に復帰して自走を継続する。一方、追加シナリオが関連付けられている場合には、アクション実行部51は、空間情報の追加シナリオのカラムに定義されている追加アクション実行条件を参照する。そして、S108で得られた初回のアクションの実行結果が、追加アクション実行条件に当てはまらないと判断した場合には(S110においてNO)、通常の掃除に復帰して自走を継続する。   Here, in the spatial information, if an additional scenario (additional action) is not associated with the object (NO in S109), the normal cleaning is resumed and the self-run is continued. On the other hand, when the additional scenario is associated, the action execution unit 51 refers to the additional action execution condition defined in the column of the additional scenario of the spatial information. Then, when it is determined that the execution result of the first action obtained in S108 does not apply to the additional action execution condition (NO in S110), normal cleaning is resumed and the self-run is continued.

一方、アクション実行部51は、S108のアクション実行結果が、追加アクション実行条件に当てはまると判断した場合には(S110においてYES)、追加シナリオのカラムに定義されている内容にしたがって追加アクションを実行する(S111)。続いて、実行結果登録部52は、追加アクション実行結果を、上記物体の物体レコードに登録する(S112)。そして、自走式掃除機1は、通常の掃除に復帰して自走を継続する。   On the other hand, when the action execution unit 51 determines that the action execution result in S108 is applicable to the additional action execution condition (YES in S110), the action execution unit 51 executes the additional action according to the content defined in the additional scenario column. (S111). Subsequently, the execution result registration unit 52 registers the additional action execution result in the object record of the object (S112). And self-propelled cleaner 1 returns to normal cleaning, and continues self-propelled.

なお、本発明の機能実行装置が実行するアクション実行機能において、S109〜S112は、省略されてもよい。   In the action execution function executed by the function execution device of the present invention, S109 to S112 may be omitted.

図14は、図13のS111に示す追加アクション実行機能に係る処理の流れを示すフローチャートである。   FIG. 14 is a flowchart showing the flow of processing related to the additional action execution function shown in S111 of FIG.

アクション実行部51は、追加シナリオのカラムにて指定されている追加アクションの実行対象となる対象物体を探索する(S201)。例えば、撮影部32に周囲を撮影させたり、通信部11に周囲の物体と近距離無線通信を行わせたりする。さらに、走行制御部45が、走行駆動部15を制御して、探索しながら自走式掃除機1を自走させてもよい(S202)。この探索および自走は、所定時間内であれば、物体認識部50が対象物体を認識する(自走式掃除機1が対象物体に到達する)まで継続される(S203においてNO、S206においてNO)。ここで、対象物体に到達できないまま、所定時間が経過した場合には(S203においてNO、S206においてYES)、アクション実行部51は、追加アクションが実行できなかった旨のアクション実行結果を実行結果登録部52に対して出力して(S205)、追加アクション実行処理を終了する。   The action execution unit 51 searches for a target object as an execution target of the additional action specified in the additional scenario column (S201). For example, the photographing unit 32 may photograph the surroundings, or the communication unit 11 may perform near field communication with surrounding objects. Furthermore, the traveling control unit 45 may control the traveling drive unit 15 to cause the self-propelled cleaner 1 to self-run while searching (S202). If the search and self-running are within a predetermined time, the object recognition unit 50 continues until the target object is recognized (the self-propelled cleaner 1 reaches the target object) (NO in S203, NO in S206). ). Here, when the predetermined time has passed without reaching the target object (NO in S203, YES in S206), the action execution unit 51 registers an action execution result indicating that the additional action cannot be executed as an execution result. It outputs to the part 52 (S205), and an additional action execution process is complete | finished.

物体認識部50が対象物体に到達したと判断した場合には(S203においてYES)、アクション実行部51は、対象物体到達位置にて、追加シナリオのカラムに指定されている追加アクションを実行する(S204)。アクション実行部51は、S204の後に得られたアクション実行結果を実行結果登録部52に対して出力して(S205)、追加アクション実行処理を終了する。   When the object recognition unit 50 determines that the target object has been reached (YES in S203), the action execution unit 51 executes the additional action specified in the column for the additional scenario at the target object arrival position ( S204). The action execution unit 51 outputs the action execution result obtained after S204 to the execution result registration unit 52 (S205), and ends the additional action execution process.

上記方法によれば、自走式掃除機1に、基本機能の傍ら、立ち寄ったそれぞれの物体に対して、アクションを実行させることが可能となる。   According to the above method, the self-propelled cleaner 1 can execute an action on each object that has stopped by the basic function.

上述の実施形態において、仮想部屋利用システム100を構成する、機能実行装置としての自走式掃除機1、空間情報利用装置としての通信端末装置3および情報管理サーバ4、その他仮想部屋利用システム100が含み得る各種装置、ならびに、空間情報記憶部2、物体特定品目記憶部6およびアクション記憶部7などの各種記憶部は、クラウドコンピューティングによって実現されてもよい。   In the above-described embodiment, the self-propelled cleaner 1 as the function execution device, the communication terminal device 3 and the information management server 4 as the space information utilization device, and the other virtual room utilization system 100 constituting the virtual room utilization system 100 are provided. Various devices that can be included, and various storage units such as the spatial information storage unit 2, the object specific item storage unit 6, and the action storage unit 7 may be realized by cloud computing.

また、ここで言う「システム」または「装置」とは、特定の機能を実現する複数の機能モジュールまたは複数の装置が論理的に集合した物のことを言い、各種装置、各種記憶部、および、各種機能モジュールが単一の筐体内にあるか否かは特に問わない。   In addition, “system” or “device” as used herein refers to a logical collection of a plurality of functional modules or a plurality of devices that realize a specific function, and includes various devices, various storage units, and It does not matter whether various functional modules are in a single housing.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

〔ソフトウェアによる実現例〕
最後に、自走式掃除機1および通信端末装置3の各ブロック、特に、物体認識部50、アクション実行部51、実行結果登録部52、アクション登録部53および走行制御部45、ならびに、アクション取得部75、GUI画面作成部71、アクション設定部76、空間情報取得部73および仮想空間作成部74は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
[Example of software implementation]
Finally, each block of the self-propelled cleaner 1 and the communication terminal device 3, in particular, the object recognition unit 50, the action execution unit 51, the execution result registration unit 52, the action registration unit 53 and the travel control unit 45, and the action acquisition The unit 75, the GUI screen creation unit 71, the action setting unit 76, the space information acquisition unit 73, and the virtual space creation unit 74 may be configured by hardware logic, or realized by software using a CPU as follows. May be.

すなわち、自走式掃除機1および通信端末装置3は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである自走式掃除機1(または通信端末装置3)の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記自走式掃除機1(または通信端末装置3)に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the self-propelled cleaner 1 and the communication terminal device 3 develop a CPU (central processing unit) that executes instructions of a control program that realizes each function, a ROM (read only memory) that stores the program, and the program. A random access memory (RAM), and a storage device (recording medium) such as a memory for storing the program and various data. The object of the present invention is to provide a program code (execution format program, intermediate code program, source program) of a control program of the self-propelled cleaner 1 (or communication terminal device 3), which is software that realizes the functions described above. Is supplied to the self-propelled cleaner 1 (or communication terminal device 3), and the computer (or CPU or MPU) reads and executes the program code recorded on the recording medium. Can also be achieved.

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、自走式掃除機1および通信端末装置3を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR(High Data Rate)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Moreover, the self-propelled cleaner 1 and the communication terminal device 3 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Further, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered Trademark), 802.11 wireless, HDR (High Data Rate), mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明の機能実行装置は、実空間をセンシングして、基本機能を実行するあらゆる情報処理装置に適用することが可能であるが、好ましくは、実空間を自走して実空間の物体の存否をセンシングする自走式機器(例えば、自走式掃除機など)に適用される。さらに、本発明の機能実行装置によって生成された空間情報は、空間情報利用装置が実空間に対応する仮想空間を作成するために、好適に用いられる。そのため、本発明の機能実行装置は、好ましくは、空間情報利用装置とともに空間情報利用システムに適用される。   The function execution device of the present invention can be applied to any information processing device that senses the real space and executes the basic function. Preferably, the function execution device self-runs in the real space and whether or not an object in the real space exists. It is applied to a self-propelled device that senses (for example, a self-propelled cleaner). Furthermore, the spatial information generated by the function execution device of the present invention is preferably used for the spatial information utilization device to create a virtual space corresponding to the real space. Therefore, the function execution device of the present invention is preferably applied to a spatial information utilization system together with the spatial information utilization device.

1 自走式掃除機(機能実行装置)
2 空間情報記憶部
3 通信端末装置(空間情報利用装置)
4 情報管理サーバ(空間情報利用装置)
5 通信ネットワーク
6 物体特定品目記憶部
7 アクション記憶部
10 制御部
11 通信部(近距離無線通信部)
12 操作パネル
13 記憶部
14 音声出力部
15 走行駆動部
16 駆動輪
16a 回転軸
17 LEDランプ点灯部
18 LEDランプ
19 電圧検出部
20 バッテリー
21 充電端子
22 回転ブラシ駆動部
23 回転ブラシ
24 サイドブラシ駆動部
25 サイドブラシ
26 送風装置
27 イオン発生装置
30 センサ部(センサ)
31 音声入力部(センサ)
32 撮影部(センサ)
33 測距部(センサ)
34 段差検知部(センサ)
35 臭気測定部(センサ)
36 温度測定部(センサ)
37 衝突検知部(センサ)
45 走行制御部
50 物体認識部(物体認識手段)
51 アクション実行部(アクション実行手段)
52 実行結果登録部(実行結果登録手段)
53 アクション登録部(アクション登録手段)
71 GUI画面作成部
73 空間情報取得部(情報取得手段)
74 仮想空間作成部(仮想空間作成手段)
75 アクション取得部(アクション取得手段)
76 アクション設定部(アクション設定手段)
100 仮想部屋利用システム(空間情報利用システム)
102 本体筐体
103 蓋部
105 バンパー
106 吸込口
107 排気口
120 入力部
121 表示部
126 後輪
127 前輪
130 集塵部
310 制御部
311 通信部(近距離無線通信部)
312 操作パネル
313 記憶部
1 Self-propelled vacuum cleaner (function execution device)
2 Spatial information storage unit 3 Communication terminal device (spatial information utilization device)
4 Information management server (spatial information utilization device)
5 Communication Network 6 Object Specific Item Storage Unit 7 Action Storage Unit 10 Control Unit 11 Communication Unit (Near Field Communication Unit)
DESCRIPTION OF SYMBOLS 12 Operation panel 13 Memory | storage part 14 Voice output part 15 Travel drive part 16 Drive wheel 16a Rotating shaft 17 LED lamp lighting part 18 LED lamp 19 Voltage detection part 20 Battery 21 Charging terminal 22 Rotary brush drive part 23 Rotary brush 24 Side brush drive part 25 Side brush 26 Blower 27 Ion generator 30 Sensor part (sensor)
31 Voice input unit (sensor)
32 Image sensor (sensor)
33 Ranging section (sensor)
34 Step detector (sensor)
35 Odor measuring part (sensor)
36 Temperature measurement unit (sensor)
37 Collision detector (sensor)
45 Travel control unit 50 Object recognition unit (object recognition means)
51 Action execution unit (action execution means)
52 execution result registration unit (execution result registration means)
53 Action registration section (Action registration means)
71 GUI screen creation unit 73 Spatial information acquisition unit (information acquisition unit)
74 Virtual space creation unit (virtual space creation means)
75 Action acquisition unit (action acquisition means)
76 Action setting section (action setting means)
100 Virtual room use system (space information use system)
102 Main Body Case 103 Cover 105 Bumper 106 Suction Port 107 Exhaust Port 120 Input Unit 121 Display Unit 126 Rear Wheel 127 Front Wheel 130 Dust Collection Unit 310 Control Unit 311 Communication Unit (Near Field Communication Unit)
312 Operation panel 313 Storage unit

Claims (15)

実空間を自走して実空間に対して作用する機能実行装置において、
実空間に存在する物体のうち、当該機能実行装置が自走中に到達した物体を認識する物体認識手段と、
当該機能実行装置が到達した物体に対してアクションを実行するアクション実行手段とを備え、
上記物体認識手段は、上記実空間に存在する各物体の特徴を示す物体情報を記憶する空間情報記憶部を参照して、該空間情報記憶部に記憶されている物体情報の中から、当該機能実行装置が自走中に到達した物体の特徴と類似する物体情報を特定することによって物体を認識し、
上記アクション実行手段は、特定された上記物体情報に関連付けられているアクションを実行することを特徴とする機能実行装置。
In a function execution device that runs in real space and acts on real space,
Object recognition means for recognizing an object that the function execution device has reached during self-running among objects existing in real space;
Action execution means for executing an action on the object reached by the function execution device;
The object recognition means refers to a spatial information storage unit that stores object information indicating the characteristics of each object existing in the real space, and selects the function from the object information stored in the spatial information storage unit. Recognizing an object by identifying object information similar to the object's characteristics that the execution device reached while running,
The function execution device is characterized in that the action execution means executes an action associated with the specified object information.
上記機能実行装置は、実空間を自走しながら基本機能を実行するものであり、
上記アクション実行手段は、
上記物体認識手段によって特定された上記物体情報に関連付けられているアクションを、当該機能実行装置が基本機能を実行しながら自走しているときに到達した物体に対して実行することを特徴とする請求項1に記載の機能実行装置。
The function execution device executes basic functions while running in real space.
The action execution means is
An action associated with the object information specified by the object recognition means is executed on an object that is reached when the function execution device is running while executing a basic function. The function execution device according to claim 1.
上記アクション実行手段がアクションを実行した結果を示すアクション実行結果を、特定された上記物体情報に関連付けて上記空間情報記憶部に登録する実行結果登録手段を備えていることを特徴とする請求項1または2に記載の機能実行装置。   2. An execution result registration unit that registers an action execution result indicating a result of execution of an action by the action execution unit in the spatial information storage unit in association with the specified object information. Or the function execution apparatus of 2. 上記空間情報記憶部に記憶されている各物体情報には、さらに、追加アクションとその実行条件とを指定する追加シナリオが関連付けられており、
上記アクション実行手段は、
上記アクション実行結果が、上記実行条件に当てはまる場合に、上記追加アクションを実行することを特徴とする請求項3に記載の機能実行装置。
Each object information stored in the spatial information storage unit is further associated with an additional scenario that specifies an additional action and its execution condition,
The action execution means is
The function execution device according to claim 3, wherein the additional action is executed when the action execution result satisfies the execution condition.
上記追加シナリオにおいて、さらに、追加アクションの実行対象である対象物体が指定されており、
上記アクション実行手段が上記追加アクションを実行する場合に、上記対象物体に到達するように当該機能実行装置の走行駆動部を制御する走行制御手段を備えていることを特徴とする請求項4に記載の機能実行装置。
In the above additional scenario, the target object that is the target of the additional action is specified,
The travel control means for controlling the travel drive unit of the function execution device so as to reach the target object when the action execution means performs the additional action. Function execution device.
上記アクション実行手段は、
センサを介して、当該機能実行装置が到達した物体または当該物体の周辺環境の物理的状態を測定することにより上記アクションを実行することを特徴とする請求項1から5までのいずれか1項に記載の機能実行装置。
The action execution means is
6. The action according to claim 1, wherein the action is executed by measuring a physical state of an object reached by the function execution device or a surrounding environment of the object via a sensor. The function execution device described.
上記アクション実行手段は、
近距離無線通信部を介して、当該機能実行装置が到達した物体を遠隔操作する、または、当該物体の論理的状態を取得することにより上記アクションを実行することを特徴とする請求項1から6までのいずれか1項に記載の機能実行装置。
The action execution means is
7. The action is executed by remotely operating an object reached by the function execution device or acquiring a logical state of the object via a short-range wireless communication unit. The function execution device according to any one of the above.
上記アクション実行手段は、
当該機能実行装置が到達した物体または当該物体の周辺環境の物理量を変化させることにより上記アクションを実行することを特徴とする請求項1から7までのいずれか1項に記載の機能実行装置。
The action execution means is
The function execution device according to any one of claims 1 to 7, wherein the action is executed by changing a physical quantity of an object reached by the function execution device or a surrounding environment of the object.
上記実空間に新規に存在する新規物体について、上記空間情報記憶部に、物体情報が新規に登録された場合に、上記アクション実行手段に上記新規物体に対して実行させるアクションを、上記新規物体の物体情報に関連付けるアクション登録手段を備え、
物体の正体を特定する物体特定情報ごとに、当該物体に対して実行可能なアクション群を関連付けた物体特定品目が物体特定品目記憶部に記憶されており、
上記アクション登録手段は、
上記物体特定品目から、上記新規物体に対して実行可能なアクションを選択して、上記新規物体の物体情報に関連付けることを特徴とする請求項1から8までのいずれか1項に記載の機能実行装置。
For a new object newly existing in the real space, when object information is newly registered in the spatial information storage unit, an action to be performed on the new object by the action execution unit is performed on the new object. An action registration means associated with object information;
For each object identification information that identifies the identity of the object, an object identification item that associates an action group that can be executed on the object is stored in the object identification item storage unit,
The action registration means is
The function execution according to any one of claims 1 to 8, wherein an action that can be performed on the new object is selected from the object identification item and associated with object information of the new object. apparatus.
請求項1から9までのいずれか1項に記載の機能実行装置と、
上記機能実行装置が自走する実空間に存在する各物体の物体情報を記憶する上記空間情報記憶部と、
上記空間情報記憶部に記憶されている物体情報を利用して、上記実空間に対応する仮想空間を作成する空間情報利用装置とを含むことを特徴とする空間情報利用システム。
The function execution device according to any one of claims 1 to 9,
The spatial information storage unit that stores object information of each object existing in a real space in which the function execution device runs; and
A spatial information utilization system comprising: a spatial information utilization device that creates a virtual space corresponding to the real space using object information stored in the spatial information storage unit.
上記空間情報利用装置は、
上記実空間に存在する各物体の物体情報を上記空間情報記憶部から取得する情報取得手段と、
上記情報取得手段によって取得された各物体情報に基づいて、上記実空間に対応する仮想空間を作成する仮想空間作成手段とを備えていることを特徴とする請求項10に記載の空間情報利用システム。
The spatial information utilization device is
Information acquisition means for acquiring object information of each object existing in the real space from the spatial information storage unit;
11. The space information utilization system according to claim 10, further comprising virtual space creation means for creating a virtual space corresponding to the real space based on each object information acquired by the information acquisition means. .
上記仮想空間作成手段は、
上記空間情報記憶部において各物体情報に関連付けられているアクションおよびアクション実行結果の少なくともいずれか一方を表す情報を、当該物体の図形とともに上記仮想空間に配置することを特徴とする請求項11に記載の空間情報利用システム。
The virtual space creating means is
12. The information representing at least one of an action and an action execution result associated with each object information in the space information storage unit is arranged in the virtual space together with a graphic of the object. Spatial information utilization system.
実空間を自走して実空間に対して作用する機能実行装置による機能実行方法であって、
実空間に存在する物体のうち、上記機能実行装置が自走中に到達した物体を認識する物体認識ステップと、
上記機能実行装置が到達した物体に対してアクションを実行するアクション実行ステップとを含み、
上記物体認識ステップでは、上記実空間に存在する各物体の特徴を示す物体情報を記憶する空間情報記憶部を参照して、該空間情報記憶部に記憶されている物体情報の中から、上記機能実行装置が自走中に到達した物体の特徴と類似する物体情報を特定することによって物体を認識し、
上記アクション実行ステップでは、特定された上記物体情報に関連付けられているアクションを実行することを特徴とする機能実行方法。
A function execution method by a function execution device that self-runs in real space and acts on real space
An object recognition step of recognizing an object that the function execution device has reached during self-running among objects existing in real space;
An action execution step of executing an action on the object reached by the function execution device,
In the object recognition step, the function is referred to from among the object information stored in the spatial information storage unit with reference to a spatial information storage unit that stores object information indicating characteristics of each object existing in the real space. Recognizing an object by identifying object information similar to the object's characteristics that the execution device reached while running,
In the action execution step, an action associated with the specified object information is executed.
コンピュータを、請求項1から9までのいずれか1項に記載の機能実行装置の各手段として機能させるための制御プログラム。   The control program for functioning a computer as each means of the function execution apparatus of any one of Claim 1-9. 請求項14に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which recorded the control program of Claim 14.
JP2012119057A 2012-05-24 2012-05-24 Function execution device, spatial information utilization system, function execution method, control program, and recording medium Pending JP2013246588A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012119057A JP2013246588A (en) 2012-05-24 2012-05-24 Function execution device, spatial information utilization system, function execution method, control program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012119057A JP2013246588A (en) 2012-05-24 2012-05-24 Function execution device, spatial information utilization system, function execution method, control program, and recording medium

Publications (1)

Publication Number Publication Date
JP2013246588A true JP2013246588A (en) 2013-12-09

Family

ID=49846314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012119057A Pending JP2013246588A (en) 2012-05-24 2012-05-24 Function execution device, spatial information utilization system, function execution method, control program, and recording medium

Country Status (1)

Country Link
JP (1) JP2013246588A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018093535A (en) * 2018-03-02 2018-06-14 オリンパス株式会社 Mobile photographing device, photographing apparatus, photographing method, and photographing program
JP2019021220A (en) * 2017-07-20 2019-02-07 フラワー・ロボティクス株式会社 Mobile body platform system
JP2019050000A (en) * 2018-10-25 2019-03-28 オリンパス株式会社 Mobile photographing device, mobile photographing controller, mobile photographing system, photographing method, and photographing program
JP2019154033A (en) * 2019-03-06 2019-09-12 オリンパス株式会社 Mobile photographing apparatus, mobile photographing control apparatus, mobile photographing system, photographing method, and photographing program
WO2020022122A1 (en) 2018-07-27 2020-01-30 ソニー株式会社 Information processing device, action determination method, and program
US10638028B2 (en) 2016-11-07 2020-04-28 Olympus Corporation Apparatus, method, recording medium, and system for capturing coordinated images of a target

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10638028B2 (en) 2016-11-07 2020-04-28 Olympus Corporation Apparatus, method, recording medium, and system for capturing coordinated images of a target
JP2019021220A (en) * 2017-07-20 2019-02-07 フラワー・ロボティクス株式会社 Mobile body platform system
JP7002744B2 (en) 2017-07-20 2022-01-20 フラワー・ロボティクス株式会社 Mobile platform system
JP2018093535A (en) * 2018-03-02 2018-06-14 オリンパス株式会社 Mobile photographing device, photographing apparatus, photographing method, and photographing program
WO2020022122A1 (en) 2018-07-27 2020-01-30 ソニー株式会社 Information processing device, action determination method, and program
US11986959B2 (en) 2018-07-27 2024-05-21 Sony Corporation Information processing device, action decision method and program
JP2019050000A (en) * 2018-10-25 2019-03-28 オリンパス株式会社 Mobile photographing device, mobile photographing controller, mobile photographing system, photographing method, and photographing program
JP2019154033A (en) * 2019-03-06 2019-09-12 オリンパス株式会社 Mobile photographing apparatus, mobile photographing control apparatus, mobile photographing system, photographing method, and photographing program

Similar Documents

Publication Publication Date Title
TWI654961B (en) Robotics device, terminal device, system for remotely controlling robotics device, and program
CN114847803B (en) Positioning method and device of robot, electronic equipment and storage medium
JP2013246588A (en) Function execution device, spatial information utilization system, function execution method, control program, and recording medium
KR101703460B1 (en) Device for creation of layout information, method for creation of layout information, system for operation of domestic electrical appliances, and self-propelled electronic device
JP6054136B2 (en) Device control device and self-propelled electronic device
CN106175606B (en) The method, apparatus that robot and its realization independently manipulate
CN103211557B (en) Can automatic running equipment and its operation method
CN106239517B (en) The method, apparatus that robot and its realization independently manipulate
JP6109477B2 (en) Self-propelled electronic device, terminal device, and operation system
JP6062200B2 (en) Device control device and self-propelled electronic device
JP2018077685A (en) Autonomous traveling body
CN105072966A (en) Self-propelled vacuum cleaner
JP5917298B2 (en) Self-propelled vacuum cleaner
JP2013235351A (en) Self-propelled electronic equipment
TWI597143B (en) Robot apparatus, control program, and computer-readable recording medium having control program recorded thereon
JP2014059737A (en) Self-propelled device
JP2013246589A (en) Space information generation device, space information use system, space information generation method, control program, and recording medium
JP6054123B2 (en) Layout information creation device, layout information creation method, and self-propelled electronic device
CN111401574A (en) Household appliance, accessory management method and readable medium
EP4209754A1 (en) Positioning method and apparatus for robot, and storage medium
JP6051068B2 (en) Object search system and object search device
JP2014144514A (en) Status display system, status display method, and robot apparatus
JP2017041731A (en) Self-traveling apparatus wireless communication setting system and setting method
JP2016185182A (en) Vacuum cleaner and information display method therefor
JP2013233230A (en) Self-propelled ion-emitting apparatus