JP2013246588A - Function execution device, spatial information utilization system, function execution method, control program, and recording medium - Google Patents
Function execution device, spatial information utilization system, function execution method, control program, and recording medium Download PDFInfo
- Publication number
- JP2013246588A JP2013246588A JP2012119057A JP2012119057A JP2013246588A JP 2013246588 A JP2013246588 A JP 2013246588A JP 2012119057 A JP2012119057 A JP 2012119057A JP 2012119057 A JP2012119057 A JP 2012119057A JP 2013246588 A JP2013246588 A JP 2013246588A
- Authority
- JP
- Japan
- Prior art keywords
- action
- unit
- information
- self
- function execution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 27
- 230000009471 action Effects 0.000 claims abstract description 369
- 230000006870 function Effects 0.000 claims description 194
- 238000004891 communication Methods 0.000 claims description 132
- 230000006854 communication Effects 0.000 claims description 132
- 230000002730 additional effect Effects 0.000 claims description 44
- 238000004140 cleaning Methods 0.000 description 40
- 150000002500 ions Chemical class 0.000 description 24
- 238000010586 diagram Methods 0.000 description 15
- 230000008859 change Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 239000000428 dust Substances 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000009529 body temperature measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 229910052987 metal hydride Inorganic materials 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 229910052759 nickel Inorganic materials 0.000 description 1
- PXHVJJICTQNCMI-UHFFFAOYSA-N nickel Substances [Ni] PXHVJJICTQNCMI-UHFFFAOYSA-N 0.000 description 1
- -1 nickel metal hydride Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、実空間を模した仮想空間を利用するための、機能実行装置、空間情報利用システム、機能実行方法、制御プログラム、および、記録媒体に関するものである。 The present invention relates to a function execution device, a space information utilization system, a function execution method, a control program, and a recording medium for using a virtual space imitating a real space.
従来、実空間を模した仮想空間を生成する技術が、さまざまな情報処理装置に適用されてきた。 Conventionally, a technique for generating a virtual space imitating a real space has been applied to various information processing apparatuses.
例えば、特許文献1には、携帯型ユーザ端末の画面に家電機器に係るGUI(例えば、仮想部屋)を表示することにより、宅内ネットワークに接続されている家電機器を遠隔制御するシステムが開示されている。より具体的には、携帯型ユーザ端末は、ホームサーバから各家電機器の詳細情報を取得して、携帯型ユーザ端末から制御できる項目を把握し、各家電機器を制御するためのコントロールパネルなどを表示する。
For example,
特許文献2には、パソコンによって実空間の家庭内機器を制御する制御システムが開示されている。この制御システムでは、パソコンが制御可能な家庭内機器の絵又は写真が配置されたバーチャルルームが、パソコンのディスプレイに表示される。ディスプレイに表示された家庭内機器が操作されると、パソコンから実空間の家庭内機器に対する制御が可能となる。 Patent Document 2 discloses a control system for controlling home devices in a real space by a personal computer. In this control system, a virtual room in which pictures or photographs of household devices that can be controlled by a personal computer are displayed on the display of the personal computer. When the home device displayed on the display is operated, the home device in the real space can be controlled from the personal computer.
特許文献3には、物体の配置に関する仮の地図情報を有する移動ロボットが、上記仮の地図情報に不正確な部分があることを検出したときに、不正確な部分に対応する物体を計測し、計測結果に基づいて、上記仮の地図情報を修正することが開示されている。 In Patent Document 3, when a mobile robot having temporary map information related to the arrangement of an object detects that there is an inaccurate part in the temporary map information, the object corresponding to the inaccurate part is measured. It is disclosed that the temporary map information is corrected based on the measurement result.
特許文献4には、ユーザとの対話を通して対象とする物体の名前をユーザから取得するとともに、物体が新規であると判断した場合に、当該物体の特徴を学習し、学習結果と、取得された上記物体の名前とを関連付けて新たに記憶する学習装置が開示されている。 In Patent Document 4, the name of a target object is acquired from the user through a dialogue with the user, and when it is determined that the object is new, the characteristics of the object are learned, and the learning result and the acquired result are acquired. A learning device that newly stores the object name in association with the object name is disclosed.
特許文献1〜3の技術によれば、仮想部屋で実現された操作ツールによって、ユーザは、手元の通信端末装置(例えば、パソコン)から制御可能な被制御機器を直感的に把握することが可能である。
According to the techniques of
しかしながら、特許文献1〜3の技術では、この技術によって実現された操作ツールが作用する対象(実空間に存在する物体)は、手元の通信端末装置と通信することができる物体(被制御機器)に限られているという問題がある。例えば、通信端末装置と通信することができない物体に対して何らかのアクションを実行することはできなかった。
However, in the techniques of
また、遠隔地から通信端末装置だけを用いて、機器に限らずあらゆる物体の物理的環境を制御することはできない。 Also, it is impossible to control the physical environment of any object, not limited to equipment, using only a communication terminal device from a remote location.
なお、特許文献4は、ユーザとの対話を通して対象とする物体の特徴を学習する発明である。そのため、物体を学習したからといって、当該物体に対して何らかのアクションを実行するというものではない。 Patent Document 4 is an invention that learns the characteristics of a target object through dialogue with a user. Therefore, just learning an object does not mean that some action is performed on the object.
この問題は、通信非対応の物体を遠隔制御したい場合に限って生じる問題ではない。上記の問題は、実空間で認識されたあらゆる物体に対してあらゆるアクションを起こしたい場合に、同様に生じる問題である。 This problem is not a problem that arises only when it is desired to remotely control a non-communication object. The above problem is similarly caused when it is desired to perform any action on any object recognized in real space.
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、実空間で認識された物体に対してアクションを起こすことにより、ユーザの利便性を向上させることが可能な機能実行装置、空間情報利用システム、機能実行方法、制御プログラム、および、記録媒体を実現することにある。 The present invention has been made in view of the above-described problems, and its purpose is to execute a function capable of improving user convenience by taking action on an object recognized in real space. An apparatus, a spatial information utilization system, a function execution method, a control program, and a recording medium are realized.
本発明の機能実行装置は、上記課題を解決するために、実空間を自走して実空間に対して作用する機能実行装置において、実空間に存在する物体のうち、当該機能実行装置が自走中に到達した物体を認識する物体認識手段と、当該機能実行装置が到達した物体に対してアクションを実行するアクション実行手段とを備え、上記物体認識手段は、上記実空間に存在する各物体の特徴を示す物体情報を記憶する空間情報記憶部を参照して、該空間情報記憶部に記憶されている物体情報の中から、当該機能実行装置が自走中に到達した物体の特徴と類似する物体情報を特定することによって物体を認識し、上記アクション実行手段は、特定された上記物体情報に関連付けられているアクションを実行することを特徴としている。 In order to solve the above problems, the function execution device of the present invention is a function execution device that self-runs in real space and acts on the real space. An object recognizing unit that recognizes an object that has arrived while running, and an action executing unit that performs an action on the object that the function execution device has reached, wherein the object recognizing unit includes each object existing in the real space Referring to the spatial information storage unit that stores the object information indicating the characteristics of the object, the object information stored in the spatial information storage unit is similar to the feature of the object that the function execution device has reached during self-running The object is recognized by specifying object information to be performed, and the action executing means executes an action associated with the specified object information.
上記構成によれば、機能実行装置は、自走中に物体に到達した場合には、その物体に関連する最適なアクションを実行することができる。つまり、ユーザの代わりに機能実行装置が物体のそばに行き、その物体またはその物体の周辺に対して作用することができる。 According to the above configuration, when the function execution device reaches an object during self-running, the function execution device can execute an optimum action related to the object. That is, the function execution device can go to the object instead of the user and act on the object or the periphery of the object.
結果として、ユーザは、実空間に居合わせるか否かにかかわらず、実空間で認識された物体に対してアクションを起こすことが可能となり、ユーザの利便性を向上させることが可能になるという効果を奏する。 As a result, regardless of whether or not the user is present in the real space, the user can take action on the object recognized in the real space, and the convenience of the user can be improved. Play.
本発明の機能実行装置は、さらに、上記機能実行装置は、実空間を自走しながら基本機能を実行するものであり、上記アクション実行手段は、上記物体認識手段によって特定された上記物体情報に関連付けられているアクションを、当該機能実行装置が基本機能を実行しながら自走しているときに到達した物体に対して実行してもよい。 In the function execution device of the present invention, the function execution device further executes a basic function while running in real space, and the action execution means includes the object information specified by the object recognition means. The associated action may be executed on an object that is reached when the function execution device is running while executing the basic function.
上記構成によれば、機能実行装置は、まず、基本機能を実行するために実空間内を自走する。機能実行装置は、自走して物体に衝突したり、物体の真下に来たり、物体の真上に来たりして、自走中に、実空間に設置されているあらゆる物体に到達する。 According to the above configuration, the function execution device first runs in the real space in order to execute the basic function. The function execution device self-propels and collides with an object, comes directly under the object, or comes directly above the object, and reaches any object installed in the real space during the self-run.
物体認識手段は、自走中に機能実行装置が実空間内のある物体に到達すれば、その物体が何であるのかを認識する。物体認識手段は、機能実行装置が到達した実際の物体が空間情報記憶部に登録されている物体のうちどれであるのかを特定することにより、上記実際の物体を認識する。より具体的には、空間情報記憶部には、上記実空間内に設置されている物体のそれぞれについて物体の特徴を示す物体情報が登録されている。実空間に存在する各物体のそれぞれの物体情報の集合によって、当該実空間に対応する空間情報が構成される。物体認識手段は、機能実行装置が自走中に到達した実際の物体の特徴と類似する物体情報を空間情報記憶部の中から特定する。つまり、物体認識手段は、特定した物体情報を持つ物体が、機能実行装置が自走中に到達した実際の物体の正体であると認識する。 The object recognizing means recognizes what the object is if the function execution device reaches an object in the real space during self-running. The object recognition means recognizes the actual object by specifying which of the objects registered in the spatial information storage unit is the actual object reached by the function execution device. More specifically, object information indicating the characteristics of the object is registered in the space information storage unit for each object installed in the real space. Spatial information corresponding to the real space is constituted by a set of object information of each object existing in the real space. The object recognition means specifies object information similar to the feature of the actual object that the function execution device has reached during self-running from the spatial information storage unit. That is, the object recognizing means recognizes that the object having the specified object information is the actual object that the function execution apparatus has reached while it is running.
続いて、アクション実行手段は、機能実行装置が自走中に到達した実際の物体に対して、アクションを実行する。アクション実行手段は、機能実行装置が自走中に上記基本機能を実行するのに加えて、上記アクションを実行する。実行すべきアクションは、物体ごとにあらかじめ定められている。具体的には、空間情報記憶部において、各物体の各物体情報には、アクションが関連付けられている。アクション実行手段は、物体認識手段によって認識された物体、すなわち、実際の物体と特徴が類似していると特定された物体情報に関連付けられているアクションを、当該機能実行装置が到達した実際の物体に対して実行する。 Subsequently, the action execution means executes an action on an actual object that the function execution device has reached while running. The action execution means executes the action in addition to executing the basic function while the function execution device is running. The action to be executed is predetermined for each object. Specifically, in the spatial information storage unit, an action is associated with each object information of each object. The action execution means is an object recognized by the object recognition means, that is, an actual object that the function execution device has reached for an action associated with object information identified as having similar characteristics to the actual object. Run against.
以上のとおり、機能実行装置は、自走して基本機能を実行する一方、自走中に物体に到達した場合には、その物体に対応した最適なアクションを、当該物体に対して実行することができる。つまり、ユーザの代わりに機能実行装置が物体のそばに行き、その物体に対して作用する。 As described above, the function execution device self-runs and executes the basic function, and when it reaches the object during the self-run, the function execution device executes the optimum action corresponding to the object on the object. Can do. That is, the function execution device goes to the object instead of the user and acts on the object.
このように、本願発明の機能実行装置は、基本機能(例えば、掃除など)を実行している間に偶然立ち寄った物体がどのような物体であっても、その物体を認識し、その物体に合ったアクションを実行することができる。 As described above, the function execution device according to the present invention recognizes an object that is accidentally stopped while executing a basic function (for example, cleaning), and recognizes the object. The appropriate action can be executed.
結果として、ユーザは、実空間に居合わせるか否かにかかわらず、実空間で認識された物体に対してアクションを起こすことが可能となり、ユーザの利便性を向上させることが可能になるという効果を奏する。 As a result, regardless of whether or not the user is present in the real space, the user can take action on the object recognized in the real space, and the convenience of the user can be improved. Play.
本発明の機能実行装置は、さらに、上記アクション実行手段がアクションを実行した結果を示すアクション実行結果を、特定された上記物体情報に関連付けて空間情報記憶部に登録する実行結果登録手段を備えていてもよい。 The function execution device of the present invention further includes an execution result registration unit that registers an action execution result indicating a result of execution of the action by the action execution unit in the spatial information storage unit in association with the specified object information. May be.
上記構成によれば、ユーザは、機能実行装置またはその他の通信端末装置を用いて空間情報記憶部にアクセスすることにより、各物体の物体情報およびアクション実行結果を閲覧することが可能となる。 According to the above configuration, the user can browse the object information and the action execution result of each object by accessing the spatial information storage unit using the function execution device or other communication terminal device.
ユーザは、機能実行装置がアクションを実行した結果、実空間または実空間に存在する各物体がどうなったのかを即時、または、任意のタイミングで簡単に確認することが可能となる。結果として、ユーザの利便性をより一層向上させることが可能となる。 As a result of the action executed by the function execution apparatus, the user can easily confirm immediately or at any timing what has happened to the real space or each object existing in the real space. As a result, user convenience can be further improved.
上記空間情報記憶部に記憶されている各物体情報には、さらに、追加アクションとその実行条件とを指定する追加シナリオが関連付けられており、本発明の機能実行装置において、上記アクション実行手段は、上記アクション実行結果が、上記実行条件に当てはまる場合に、上記追加アクションを実行することが好ましい。 Each object information stored in the spatial information storage unit is further associated with an additional scenario that specifies an additional action and its execution condition.In the function execution device of the present invention, the action execution means includes: It is preferable to execute the additional action when the action execution result satisfies the execution condition.
上記構成によれば、アクション実行手段は、まず、上述の手順で、機能実行装置が到達した実際の物体に対して、その物体に対応する初回のアクションを実行する。そして、これに伴い、実行結果登録手段がアクション実行結果を得る。ここでさらに、アクション実行手段は、上記物体(の物体情報)に関連付けられている追加シナリオを参照する。得られた上記アクション実行結果が、上記追加シナリオにおいて指定されている実行条件に当てはまっていれば、アクション実行手段は、上記追加シナリオにおいて指定されている追加アクションを実行する。 According to the above configuration, the action executing means first executes the first action corresponding to the actual object reached by the function execution device in the above-described procedure. Accordingly, the execution result registration means obtains the action execution result. Further, the action execution means refers to an additional scenario associated with the object (object information). If the obtained action execution result is applicable to the execution condition specified in the additional scenario, the action execution means executes the additional action specified in the additional scenario.
このように、あらかじめ固定で定められているアクションを物体に対して実行するだけでなく、そのときの実空間の状況に応じて、動的に、追加アクションの実行/不実行を制御することが可能となる。 In this way, not only can a predetermined action be executed on an object, but also the execution / non-execution of an additional action can be dynamically controlled according to the situation in the real space at that time. It becomes possible.
上記追加シナリオにおいて、さらに、追加アクションの実行対象である対象物体が指定されており、本発明の機能実行装置は、さらに、上記アクション実行手段が上記追加アクションを実行する場合に、上記対象物体に到達するように当該機能実行装置の走行駆動部を制御する走行制御手段を備えていることが好ましい。 In the additional scenario, a target object that is an execution target of the additional action is specified, and the function execution device of the present invention further specifies the target object when the action execution unit executes the additional action. It is preferable to include a travel control means for controlling the travel drive unit of the function execution device so as to reach.
上記構成によれば、基本機能を実行するために自走することを目的として駆動していた走行駆動部を、一時的に、追加アクションの対象物体に到達することを目的として駆動するように切り替えることが可能となる。 According to the above configuration, the traveling drive unit that has been driven for the purpose of executing the basic function is temporarily switched to be driven for the purpose of reaching the target object of the additional action. It becomes possible.
上記アクション実行手段は、センサを介して、当該機能実行装置が到達した物体または当該物体の周辺環境の物理的状態を測定することにより上記アクションを実行することができる。 The action execution means can execute the action by measuring a physical state of an object reached by the function execution device or a surrounding environment of the object via a sensor.
これにより、機能実行装置に物体の物理的状態を測定させることができる。ユーザは、測定結果の情報を得て、実空間に居合わせなくても、実空間に居るときと同じように物体の物理的状態を知ることが可能となる。 This allows the function execution device to measure the physical state of the object. The user can obtain information on the measurement result and know the physical state of the object in the same way as in the real space without being in the real space.
上記アクション実行手段は、近距離無線通信部を介して、当該機能実行装置が到達した物体を遠隔操作する、または、当該物体の論理的状態を取得することにより上記アクションを実行することができる。 The action execution means can execute the action by remotely operating the object reached by the function execution device or acquiring the logical state of the object via the short-range wireless communication unit.
これにより、ユーザは、機能実行装置に、物体の論理的状態(機器のソフトウェア上の状態)をチェックさせたり、設定を変更させたり、遠隔操作させたりすることが可能となる。つまり、ユーザは、実空間に居合わせなくても、実空間に居る時と同じように、実空間の物体(機器など)を操作することが可能となる。本発明の機能実行装置は、ユーザが通信端末装置から通信ネットワークを介して遠隔制御できない物体(機器)に対しても適用することが可能である。 As a result, the user can cause the function execution device to check the logical state of the object (the state on the software of the device), change the setting, or perform a remote operation. That is, even if the user is not in the real space, the user can operate an object (device or the like) in the real space in the same manner as when the user is in the real space. The function execution device of the present invention can also be applied to an object (device) that cannot be remotely controlled by a user from a communication terminal device via a communication network.
上記アクション実行手段は、当該機能実行装置が到達した物体または当該物体の周辺環境の物理量を変化させることにより上記アクションを実行することができる。 The action execution means can execute the action by changing the physical quantity of the object reached by the function execution device or the surrounding environment of the object.
これにより、ユーザは、機能実行装置に、実空間の物理量を変化させて、実空間に居合わせなくても、実空間に居る時と同じように、実空間および実空間内の各物体に対して影響を与えることが可能となる。 As a result, the user can change the physical quantity of the real space to the function execution device so that the physical execution can be performed for each object in the real space and the real space, as in the real space without being in the real space. It is possible to influence.
本発明の機能実行装置は、上記実空間に新規に存在する新規物体について、上記空間情報記憶部に、物体情報が新規に登録された場合に、上記アクション実行手段に上記新規物体に対して実行させるアクションを、上記新規物体の物体情報に関連付けるアクション登録手段を備え、物体の正体を特定する物体特定情報ごとに、当該物体に対して実行可能なアクション群を関連付けた物体特定品目が物体特定品目記憶部に記憶されており、上記アクション登録手段は、上記物体特定品目から、上記新規物体に対して実行可能なアクションを選択して、上記新規物体の物体情報に関連付けることができる。 The function execution device of the present invention executes a new object newly existing in the real space when the object information is newly registered in the space information storage unit with respect to the new object. Action specifying means for associating the action to be performed with the object information of the new object, and for each object specifying information for specifying the identity of the object, an object specifying item that associates an action group that can be executed on the object is an object specifying item The action registering means is stored in the storage unit, and can select an action that can be executed on the new object from the object specifying item and associate the action with the object information of the new object.
これにより、実空間に新しい物体が設置され、その新規の物体について新しく空間情報記憶部に物体情報が登録された場合に、その物体に対しても適切なアクションが実行されるようにアクションを関連付けておくことが可能となる。 As a result, when a new object is installed in the real space and the object information is newly registered in the space information storage unit for the new object, the action is associated with the object so that an appropriate action is executed. It is possible to keep.
上述の本発明の機能実行装置と、上記機能実行装置によって参照される、上記機能実行装置が自走する実空間に存在する各物体の物体情報を記憶する上記空間情報記憶部と、上記空間情報記憶部に記憶されている物体情報を利用して、上記実空間に対応する仮想空間を作成する空間情報利用装置とによって構築される空間情報利用システムも本発明の範疇に入る。 The function execution device of the present invention described above, the spatial information storage unit that stores the object information of each object that is referred to by the function execution device and that exists in the real space where the function execution device self-runs, and the spatial information A spatial information utilization system constructed by a spatial information utilization apparatus that creates a virtual space corresponding to the real space using the object information stored in the storage unit also falls within the scope of the present invention.
なお、上記空間情報利用システムにおいて、上記空間情報利用装置は、上記実空間に存在する各物体の物体情報を上記空間情報記憶部から取得する情報取得手段と、上記情報取得手段によって取得された各物体情報に基づいて、上記実空間に対応する仮想空間を作成する仮想空間作成手段とを備えていることが好ましい。 In the spatial information utilization system, the spatial information utilization device includes information acquisition means for acquiring object information of each object existing in the real space from the spatial information storage unit, and each of the information acquisition means acquired by the information acquisition means. It is preferable to include a virtual space creating unit that creates a virtual space corresponding to the real space based on the object information.
上記構成によれば、空間情報利用装置は、仮想空間作成手段によって作成された仮想空間を、機能実行装置にアクションを実行させるための操作を行うユーザインターフェースとして用いることが可能となる。ユーザは、空間情報利用装置に表示された仮想空間を用いて、実空間に作用する機能実行装置を直感的な操作で制御することができる。 According to the above configuration, the space information utilization device can use the virtual space created by the virtual space creation means as a user interface for performing an operation for causing the function execution device to execute an action. Using the virtual space displayed on the space information utilization device, the user can control the function execution device acting on the real space with an intuitive operation.
なお、上記空間情報利用システムにおいて、上記仮想空間作成手段は、上記空間情報記憶部において各物体情報に関連付けられているアクションおよびアクション実行結果の少なくともいずれか一方を表す情報を、当該物体の図形とともに上記仮想空間に配置することが好ましい。 In the spatial information utilization system, the virtual space creation means displays information representing at least one of an action and an action execution result associated with each object information in the spatial information storage unit together with a graphic of the object. It is preferable to arrange in the virtual space.
上記構成によれば、ユーザインターフェースとして用いられる仮想空間に、さらに、物体の特徴だけではなく、物体に関連付けられているアクションおよびアクション実行結果が表示される。ユーザは、空間情報利用装置に表示された仮想空間を用いて、実空間に作用する機能実行装置を直感的な操作で制御することができる上に、その実行結果を上記仮想空間から容易に閲覧することが可能となる。 According to the above configuration, not only the feature of the object but also the action associated with the object and the action execution result are displayed in the virtual space used as the user interface. Using the virtual space displayed on the space information utilization device, the user can control the function execution device acting on the real space with an intuitive operation, and easily view the execution result from the virtual space. It becomes possible to do.
本発明の機能実行方法は、上記課題を解決するために、実空間を自走して実空間に対して作用する機能実行装置による機能実行方法であって、実空間に存在する物体のうち、上記機能実行装置が自走中に到達した物体を認識する物体認識ステップと、上記機能実行装置が到達した物体に対してアクションを実行するアクション実行ステップとを含み、上記物体認識ステップでは、上記実空間に存在する各物体の特徴を示す物体情報を記憶する空間情報記憶部を参照して、該空間情報記憶部に記憶されている物体情報の中から、上記機能実行装置が自走中に到達した物体の特徴と類似する物体情報を特定することによって物体を認識し、上記アクション実行ステップでは、特定された上記物体情報に関連付けられているアクションを実行することを特徴としている。 In order to solve the above problems, the function execution method of the present invention is a function execution method by a function execution device that self-runs in real space and acts on the real space. An object recognition step for recognizing an object that the function execution device has reached during self-running, and an action execution step for executing an action on the object that the function execution device has reached. With reference to a spatial information storage unit that stores object information indicating the characteristics of each object existing in space, the function execution device arrives during self-running from the object information stored in the spatial information storage unit The object is recognized by specifying object information similar to the feature of the object, and in the action execution step, an action associated with the specified object information is executed. It is characterized in.
なお、上記機能実行装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記機能実行装置をコンピュータにて実現させる機能実行装置の制御プログラム、および、それを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The function execution device may be realized by a computer. In this case, the function execution device control program for causing the function execution device to be realized by the computer by causing the computer to operate as each of the means, and A computer-readable recording medium on which it is recorded also falls within the scope of the present invention.
本発明の機能実行装置は、上記課題を解決するために、実空間を自走して実空間に対して作用する機能実行装置において、実空間に存在する物体のうち、当該機能実行装置が自走中に到達した物体を認識する物体認識手段と、当該機能実行装置が到達した物体に対してアクションを実行するアクション実行手段とを備え、上記物体認識手段は、上記実空間に存在する各物体の特徴を示す物体情報を記憶する空間情報記憶部を参照して、該空間情報記憶部に記憶されている物体情報の中から、当該機能実行装置が自走中に到達した物体の特徴と類似する物体情報を特定することによって物体を認識し、上記アクション実行手段は、特定された上記物体情報に関連付けられているアクションを実行することを特徴としている。 In order to solve the above problems, the function execution device of the present invention is a function execution device that self-runs in real space and acts on the real space. An object recognizing unit that recognizes an object that has arrived while running, and an action executing unit that performs an action on the object that the function execution device has reached, wherein the object recognizing unit includes each object existing in the real space Referring to the spatial information storage unit that stores the object information indicating the characteristics of the object, the object information stored in the spatial information storage unit is similar to the feature of the object that the function execution device has reached during self-running The object is recognized by specifying object information to be performed, and the action executing means executes an action associated with the specified object information.
本発明の機能実行方法は、上記課題を解決するために、実空間を自走して実空間に対して作用する機能実行装置による機能実行方法であって、実空間に存在する物体のうち、上記機能実行装置が自走中に到達した物体を認識する物体認識ステップと、上記機能実行装置が到達した物体に対してアクションを実行するアクション実行ステップとを含み、上記物体認識ステップでは、上記実空間に存在する各物体の特徴を示す物体情報を記憶する空間情報記憶部を参照して、該空間情報記憶部に記憶されている物体情報の中から、上記機能実行装置が自走中に到達した物体の特徴と類似する物体情報を特定することによって物体を認識し、上記アクション実行ステップでは、特定された上記物体情報に関連付けられているアクションを実行することを特徴としている。 In order to solve the above problems, the function execution method of the present invention is a function execution method by a function execution device that self-runs in real space and acts on the real space, and among the objects existing in the real space, An object recognition step for recognizing an object that the function execution device has reached during self-running, and an action execution step for executing an action on the object that the function execution device has reached. With reference to a spatial information storage unit that stores object information indicating the characteristics of each object existing in space, the function execution device arrives during self-running from the object information stored in the spatial information storage unit The object is recognized by specifying object information similar to the feature of the object, and in the action execution step, an action associated with the specified object information is executed. It is characterized in.
結果として、実空間で認識された物体に対してアクションを起こすことにより、ユーザの利便性を向上させることが可能になるという効果を奏する。 As a result, the user's convenience can be improved by taking action on the object recognized in the real space.
≪実施形態1≫
本発明の実施形態について、図1〜図14に基づいて説明すると以下の通りである。
An embodiment of the present invention will be described below with reference to FIGS.
以下で説明する実施形態では、一例として、本発明の機能実行装置を、自走式機器に搭載した例について説明する。自走式機器は、これには限定されないが、例えば、掃除機(以下、自走式掃除機)である。また、仮想部屋利用システムについても説明する。本発明の機能実行装置は、後述する他の装置と連携して、本発明の上記仮想部屋利用システムを構築する。本発明の仮想部屋利用システムによれば、上記自走式掃除機(機能実行装置)が生成した空間情報を利用して、仮想部屋(バーチャルルーム)を作成したり、作成された仮想部屋をユーザに提示したりすることが可能である。さらに、本発明の仮想部屋利用システムによれば、上記仮想部屋を操作ツールとして用いて、自走式掃除機1に対して、実空間に存在するあらゆる物体に対するアクションを実行させることが可能である。
In the embodiment described below, an example in which the function execution device of the present invention is mounted on a self-propelled device will be described as an example. Although a self-propelled apparatus is not limited to this, For example, it is a vacuum cleaner (henceforth, self-propelled cleaner). A virtual room utilization system will also be described. The function execution device of the present invention constructs the virtual room utilization system of the present invention in cooperation with other devices described later. According to the virtual room utilization system of the present invention, a virtual room (virtual room) is created using the spatial information generated by the self-propelled cleaner (function execution device), or the created virtual room is used by the user. It is possible to present it. Furthermore, according to the virtual room utilization system of the present invention, it is possible to cause the self-propelled
なお、以下の図面において同一または相当する部分には、同一の参照符号を付すものとし、それらの説明は重複して行なわない。また、図面における長さ、大きさおよび幅などの寸法関係ならびに形状は、図面の明瞭化と簡略化のために適宜に変更されており、実際の寸法および形状を表してはいない。 In the following drawings, the same or corresponding parts are denoted by the same reference numerals, and description thereof will not be repeated. In addition, dimensional relationships such as length, size, and width, and shapes in the drawings are appropriately changed for clarity and simplification of the drawings, and do not represent actual dimensions and shapes.
〔仮想部屋利用システムの概要〕
図2は、本発明の仮想部屋利用システム100の概要を示す図である。
[Outline of virtual room usage system]
FIG. 2 is a diagram showing an outline of the virtual
仮想部屋利用システム100は、少なくとも、機能実行装置と、空間情報利用装置と、空間情報記憶部と、物体特定品目記憶部と、アクション記憶部とを含む構成である。
The virtual
機能実行装置は、実空間RSにて、基本機能を実行する一方、実空間RSに存在するあらゆる物体に対してアクションを実行する装置である。基本機能とは、上記アクションを実行する機能をサブ機能とした場合に、当該機能実行装置が備える本来のメイン機能を指す。図2に示すとおり、本実施形態では、本発明の機能実行装置は、自走式掃除機(自走式機器)1として実現される。すなわち、ここでは、自走式掃除機1の基本機能は掃除機能および自走機能である。しかし、機能実行装置は、自走式掃除機に限定されるものではなく、基本機能と、基本機能とは異なるアクションを実行する機能とを備えていれば、どのような機器によって実現されてもよい。
The function execution device is a device that executes an action on every object existing in the real space RS while executing a basic function in the real space RS. The basic function refers to the original main function of the function execution device when the function for executing the action is a sub function. As shown in FIG. 2, in the present embodiment, the function execution device of the present invention is realized as a self-propelled cleaner (self-propelled device) 1. That is, here, the basic functions of the self-propelled
なお、機能実行装置は、必須ではないが、自走する構成を有していることが好ましい。なぜなら、実空間RSのどこに物体が設置されていたとしても、あらゆる物体に対して至近距離にてアクションを実行することが可能となるからである。 In addition, although the function execution apparatus is not essential, it is preferable to have the structure which self-runs. This is because, regardless of where the object is placed in the real space RS, it is possible to execute an action at a close distance to any object.
機能実行装置は、さらに、実空間RSの情報を収集して実空間RSについての空間情報を生成する機能を備えていてもよい。 The function execution device may further include a function of collecting information on the real space RS and generating spatial information about the real space RS.
空間情報のデータ構造については後に後述する。 The data structure of the spatial information will be described later.
空間情報記憶部2は、自走式掃除機1によって生成された空間情報を蓄積するためのものである。
The spatial information storage unit 2 is for accumulating the spatial information generated by the self-propelled
物体特定品目記憶部6は、実空間RSに存在すると想定されるあらゆる物体に関する情報を有した物体特定品目を記憶するものである。
The object specifying
図2において図示しないアクション記憶部7(図1に記載)は、自走式掃除機1に実行させる幾種類ものアクションを具体的に定義したアクション管理情報を記憶するものである。
An action storage unit 7 (described in FIG. 1) not shown in FIG. 2 stores action management information that specifically defines several types of actions that the self-propelled
空間情報利用装置は、空間情報記憶部2に蓄積された空間情報を利用して情報処理する装置である。図2に示すとおり、本実施形態では、本発明の空間情報利用装置は、例えば、ユーザUの手持ちの通信端末装置3として実現される。より具体的には、通信端末装置3は、例えば、タブレット端末、スマートフォン、携帯電話機、PDA(Personal Digital Assistant)、ノート型パソコン、携帯型ゲーム機、電子手帳、電子書籍リーダ、デジタルカメラなどである。しかし、通信端末装置3は、上記に限定されず、空間情報記憶部2に接続して情報を取得する機能を備えていれば、どのような機器によって実現されてもよい。また、空間情報利用装置は、携帯型の電子機器である必要はなく、デスクトップパソコンで実現されてもよい。 The spatial information utilization device is a device that performs information processing using the spatial information stored in the spatial information storage unit 2. As shown in FIG. 2, in this embodiment, the spatial information utilization apparatus of this invention is implement | achieved as the communication terminal device 3 which the user U has, for example. More specifically, the communication terminal device 3 is, for example, a tablet terminal, a smartphone, a mobile phone, a PDA (Personal Digital Assistant), a notebook computer, a portable game machine, an electronic notebook, an electronic book reader, a digital camera, or the like. . However, the communication terminal device 3 is not limited to the above, and may be realized by any device as long as it has a function of connecting to the spatial information storage unit 2 and acquiring information. Further, the spatial information utilization device does not have to be a portable electronic device, and may be realized by a desktop personal computer.
本実施形態では、空間情報利用装置としての通信端末装置3は、空間情報記憶部2に蓄積されている実空間RSについての空間情報を情報処理して、仮想空間VSを作成し、自装置の表示部に仮想空間VSを表示して、ユーザUに提示する機能を有する。通信端末装置3の要部構成を示す機能ブロック図を図6に示す。通信端末装置3の機能構成については後に詳述する。なお、実空間RSは、例えば、ユーザUの自宅または部屋などであり、仮想空間VSは、そのユーザの自宅または部屋を模した仮想部屋である。 In the present embodiment, the communication terminal device 3 as the spatial information utilization device processes the spatial information about the real space RS accumulated in the spatial information storage unit 2 to create a virtual space VS, and The display unit has a function of displaying the virtual space VS and presenting it to the user U. FIG. 6 shows a functional block diagram showing the main configuration of the communication terminal apparatus 3. As shown in FIG. The functional configuration of the communication terminal device 3 will be described in detail later. The real space RS is, for example, the home or room of the user U, and the virtual space VS is a virtual room imitating the user's home or room.
仮想部屋利用システム100が、ユーザUのためだけに構築されたものである場合、自走式掃除機1、空間情報記憶部2に蓄積された空間情報、および、通信端末装置3(ユーザU)は、それぞれ、互いに1対1の関係である。したがって、空間情報と、通信端末装置3(ユーザ)との対応関係を紐付けて管理しておく必要がないため、空間情報記憶部2は、通信端末装置3に内蔵されていてもよい。
When the virtual
この場合、自走式掃除機1と通信端末装置3とは、通信ネットワーク5を介して、双方向通信が可能となるように接続される。自走式掃除機1が収集した情報に基づいて生成した空間情報は、通信ネットワーク5を介して、直接通信端末装置3に送信される。ユーザUは、実空間RSに滞在し、自走式掃除機1のそばに居ることも想定される。そのため、自走式掃除機1と、通信端末装置3とは、WiFi(登録商標)、Bluetooth(登録商標)、ZigBee(登録商標)等の無線電波方式により接続されてもよい。
In this case, the self-propelled
あるいは、ユーザUは、通信端末装置3を携帯して外出することも想定される。そのため、自走式掃除機1と、通信端末装置3とは、インターネット、携帯電話網などを介して互いに通信することが可能である。
Or it is assumed that the user U carries out the communication terminal device 3 and goes out. Therefore, the self-propelled
仮想部屋利用システム100が、多数のユーザのために構築されたものである場合、空間情報記憶部2において、空間情報は、ユーザごとに蓄積されなければならない。各ユーザは、それぞれの実空間RS(自宅)において、それぞれが所有する自走式掃除機1を設ける。そして、各自走式掃除機1は、各ユーザの実空間RSにおける空間情報を生成することになるからである。
When the virtual
この場合、仮想部屋利用システム100は、空間情報記憶部2に蓄積された空間情報を管理するための情報管理サーバ4を備えていることが好ましい。そして、情報管理サーバ4が空間情報記憶部2を備えていてもよい。
In this case, the virtual
情報管理サーバ4は、どのユーザの自走式掃除機1かに応じて、その自走式掃除機1から送信された空間情報を対応するユーザに紐付けて空間情報記憶部2に蓄積する。また、情報管理サーバ4は、通信端末装置3からのリクエストを受け付けて、空間情報または空間情報を処理した結果を通信端末装置3に返す。情報管理サーバ4は、どのユーザの通信端末装置3かに応じて、そのユーザに紐付けられた空間情報を通信端末装置3に供給する。
The information management server 4 associates the spatial information transmitted from the self-propelled
以上のとおり、仮想部屋利用システム100によれば、ユーザUは、自走式掃除機1を使って実空間RSの空間情報を得ることができ、得られた空間情報を使って実空間RSに対応する仮想空間VSを通信端末装置3に表示させることができる。さらに、通信端末装置3は、仮想空間VSを操作ツールとしてユーザUに提供することができる。ユーザUは、仮想空間VSを通信端末装置3上で操作することにより、自走式掃除機1に、実空間RSに設置されたあらゆる物体に対してアクションを実行させることが可能となる。
As described above, according to the virtual
なお、自走式掃除機1は、自機に備えられた後述する操作パネル12に加え、通信ネットワーク5を介して接続した通信端末装置3から操作すること可能であってもよい。
The self-propelled
以下では、本発明の自走式掃除機1が、基本機能(掃除機能)を実行しながら、空間情報を用いて、実空間RSの物体に対して、どのようにアクションを実行するのかについて、より詳細に説明する。
Below, how self-propelled
〔自走式掃除機のハードウェア構成−掃除機能〕
図3〜図5を参照して、自走式掃除機1のハードウェア構成を説明する。図3は、自走式掃除機1の斜視図である。図4は、自走式掃除機1の底面図である。図5は、自走式掃除機1のハードウェア構成を模式的に示すブロック図である。
[Hardware configuration of self-propelled vacuum cleaner-cleaning function]
The hardware configuration of the self-propelled
まず、自走式掃除機1の掃除機としての基本機能を実現するためのハードウェア構成について説明する。しかし、以下の記述は、本発明の機能実行装置の構成を限定することを意図していない。
First, the hardware configuration for realizing the basic functions of the self-propelled
自走式掃除機1は、図3に示すように、外枠が平面視円形の本体筐体102で形成された自走式掃除機1本体と、図4および図5に示すように、バッテリー20を電力供給源として駆動される駆動輪16とを有し、自走しながら集塵(掃除)する装置である。
As shown in FIG. 3, the self-propelled
図3に示すように、本体筐体102の上面には、自走式掃除機1に対して指示入力を行う操作パネル12、LED(Light Emitting Diode:発光ダイオード)ランプ18、撮影部32、集塵部130を出し入れする際に開閉する蓋部103が設けられている。なお、本実施形態では、本体筐体102は、その上面および底面が円形を成す形状とするが、この形状に限定されることはない。
As shown in FIG. 3, on the upper surface of the
LEDランプ18は、本実施形態では、本体筐体102の上面の周囲に設けられており、後述するように、自走式掃除機1の状態に合わせて、点灯する色および点灯パターンが変化するようになっている。なお、LED以外のランプが設けられていてもよい。また、LEDランプは、本体の上面に設けられた排気口107の付近に設けてもよい。
In this embodiment, the
操作パネル12には、ユーザからの操作によって各種の指示、文字、数字などのデータの入力を受け付ける操作スイッチ(入力部)と、ユーザに提示する各種情報を表示するディスプレイ(表示部)と、が設けられている。操作パネル12は、タッチパネルとして設けられていてもよい。また、操作パネル12に、表示用LEDが設けられていてもよい。
The
操作パネル12は、例えば、掃除の開始および停止を指示するボタン、自走式掃除機1の稼働予約を行うタイマーセットボタン、現在時刻や予約時刻を表示する時刻表示領域、図示しない集塵容器が満杯になったことを知らせるごみ捨てランプなどを備える。また、操作パネル12は、バッテリー20の充電量を示すバッテリーマークを表示する領域、撮影部32によって撮影された画像データを表示する領域、ユーザに対するメッセージを表示する領域などをさらに備えていてもよい。これらは、単なる例示であり、操作パネル12は、これら以外の機能を実現する入力部や表示部を備えていてもよい。
The
撮影部32は、動画像および静止画像を撮影するものであり、光学レンズ、カラーフィルタ、受光素子であるCCD(Charge Coupled Device)またはCMOS(Complementary Metal-Oxide-Semiconductor)等により構成されている。
The
図4に示すように、本体筐体102の底面には、底面から突出して水平な回転軸16aで回転する一対の駆動輪16が配されている。駆動輪16の両輪が同一方向に回転すると自走式掃除機1が進退する。両輪が逆方向に回転すると、自走式掃除機1が、本体筐体102の中心を軸に旋回し、方向転換することが可能である。これにより、所望の掃除領域全体に自走式掃除機1を自走させるとともに障害物を避けて自走させることができる。
As shown in FIG. 4, a pair of
駆動輪16がバッテリー20により駆動されることで、自走式掃除機1は自走する。
When the
本体筐体102の底面の前方には、吸込口106が設けられている。吸込口106は本体筐体102の底面に凹設した凹部の開放面によって床面に面して形成されている。凹部内には水平な回転軸で回転する回転ブラシ23が配され、凹部の両側方には垂直な回転軸で回転するサイドブラシ25が配されている。
A
さらに、本体筐体102の底面には、吸込口106のさらに前方にローラー形状の前輪127が設けられている。また、本体筐体102の底面の後方端部(後端)に、自在車輪から成る後輪126が設けられている。自走式掃除機1は、本体筐体102の中心に配した駆動輪16に対して前後方向に重量が配分され、前輪127が床面から離れて回転ブラシ23、駆動輪16および後輪126が床面に接地して掃除が行われる。このため、進路前方の塵埃を前輪127により遮ることなく吸込口106に導くことができる。前輪127は進路上に現れた段差に接地し、自走式掃除機1が段差を容易に乗り越えられるようになっている。
Further, a roller-shaped
また、図3に示すとおり、本体筐体102の周囲にはバンパー105が設けられており、自走式掃除機1本体への衝撃や振動を緩衝させる。自走式掃除機1は、走行中に障害物にバンパー105が接触したことを検知すると、進行方向を変更して走行を継続することができる。また、本実施形態では、バンパー105が障害物に接触したことが検知された場合には、自走式掃除機1は、当該障害物(物体)の正体を認識し、当該物体に対して実行するべき特定のアクションを実行することができる。
Moreover, as shown in FIG. 3, the
本体筐体102の周面の後端には、バッテリー20の充電を行う充電端子21が露出して設けられている。自走式掃除機1は、掃除後あるいは充電量が所定値を下回ると、充電台が設置されている場所に帰還する。そして、充電台に設けられた給電端子に充電端子21を接してバッテリー20を充電する。
A charging
バッテリー20は、自走式掃除機1全体の電力供給源である。バッテリー20としては、繰り返し充放電が可能な大容量の充電池が望ましい。例えば鉛電池、ニッケル水素電池、リチウムイオン電池あるいはキャパシタ等を使用すればよい。
The
本体筐体102内には、図示しないが、制御基板が配される。制御基板には自走式掃除機1の各部を制御する後述の制御部10や各種データを記憶する後述の記憶部13などが設けられる。また、本体筐体102内には、着脱可能のバッテリー20が配される。バッテリー20は充電端子21を介して充電台から充電され、制御基板、駆動輪16、回転ブラシ23、および、サイドブラシ25などの各部に電力を供給する。
Although not shown, a control board is arranged in the
上記構成の自走式掃除機1において、掃除運転が指示されると、バッテリー20からの電力が供給されて、図示しない電動送風機、後述のイオン発生装置27、駆動輪16、回転ブラシ23およびサイドブラシ25が駆動される。これにより、自走式掃除機1は、回転ブラシ23、駆動輪16および後輪126が床面に接地するようにして所定の掃除領域を自走し、吸込口106から床面の塵埃を含む気流を吸い込んで掃除を行うことができる。
In the self-propelled
吸込口106から吸い込まれて電動送風機を通過した気流は、本体筐体102の上面に設けた排気口107から上方後方に排気される。なお、電動送風機の近傍にイオン発生装置27が備えられており、排気口107からは、イオンを含む気流が排気されてもよい。
The airflow sucked from the
以上のように、室内の掃除が行われるとともに、自走する自走式掃除機1の排気に含まれるイオンが室内に行き渡って室内の除菌や脱臭が行われる。
As described above, the room is cleaned, and ions contained in the exhaust of the self-propelled self-propelled
さらに、自走式掃除機1には、周辺環境(すなわち、実空間RS)の状態を知覚して実空間RSについて情報を収集するセンサ部30が設けられている。センサ部30は、1または複数のセンサによって構成されている。センサ部30については、図5を参照しながら詳しく後述する。
Furthermore, the self-propelled
〔自走式掃除機のハードウェア構成〕
次に、自走式掃除機1が、基本機能および本発明の機能実行装置としての機能を実現するためのハードウェア構成の一例について、図5を参照しながら説明する。しかし、図5に示すブロック図は、機能実行装置としてのハードウェア構成の一実施例を示しているにすぎず、本発明の機能実行装置の構成はこれに限定されない。
[Hardware configuration of self-propelled vacuum cleaner]
Next, an example of a hardware configuration for the self-propelled
自走式掃除機1は、図5に示すように、本発明の機能実行装置として少なくとも、制御部10、通信部11、記憶部13、走行駆動部15、駆動輪16およびセンサ部30を備えている構成である。自走式掃除機1は、さらに、操作パネル12、および、音声出力部14を備えていることが好ましい。なお、自走式掃除機1は、掃除機として本来備わっている基本機能を実現するために、例えば、LEDランプ点灯部17、LEDランプ18、電圧検出部19、バッテリー20、充電端子21、回転ブラシ駆動部22、回転ブラシ23、サイドブラシ駆動部24、サイドブラシ25、送風装置26、イオン発生装置27など、掃除機が標準的に備えている各種部品を備えていてもよい。前出した部材については説明を省略する。
As shown in FIG. 5, the self-propelled
制御部10は、記憶部13に記憶されたプログラムやデータ、さらに、前出の操作パネル12から入力されたデータ、外部装置から受信したプログラムやデータなどに基づき、自走式掃除機1における各ブロックを統括して制御するブロックである。
Based on the program and data stored in the
通信部11は、通信端末装置3、空間情報記憶部2、あるいは、その他の外部装置との間で、通信ネットワーク5を介して、データの送受信を行うブロックである。通信部11は、自走式掃除機1が物体を認識する際に参照する空間情報を空間情報記憶部2から取得する。反対に、通信部11は、自走式掃除機1が生成した空間情報を空間情報記憶部2に送信してもよい。また、通信端末装置3から、自走式掃除機1を制御するための制御信号などを受信してもよい。また、通信部11は、通信端末装置3に対して、自走式掃除機1に記憶しているデータや自走式掃除機1にて測定可能なデータを直接送信してもよい。通信部11は、また、充電台からの帰還信号を受信してもよい。帰還信号を受信した自走式掃除機1は、実空間RSに設置されている充電台の設置場所に戻り、充電台とドッキングする。これにより、バッテリー20が充電される。
The
なお、本実施形態では、通信部11は、さらに、近距離無線通信部を含んで構成されている。この場合、近距離無線通信部としての通信部11は、無線で実空間RS内に設置されている物体(機器)との近距離無線通信を行う。通信部11は、特に限定されないが、IrDA、IrSSなどの赤外線通信、Bluetooth(登録商標)通信、ZigBee(登録商標)通信、非接触型ICカードのいずれかの近距離無線通信技術を実現するものであってもよいし、これらの技術を複数実現するものであってもよい。
In the present embodiment, the
記憶部13は、(1)自走式掃除機1の制御部10が実行する制御プログラム、(2)制御部10が実行するOSプログラム、(3)制御部10が、自走式掃除機1が有する各種機能を実行するためのアプリケーションプログラム、および、(4)該アプリケーションプログラムを実行するときに読み出す各種データを記憶するものである。あるいは、(5)制御部10が各種機能を実行する過程で演算に使用するデータおよび演算結果等を記憶するものである。例えば、上記の(1)〜(4)のデータは、ROM(read only memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)、HDD(Hard Disc Drive)などの不揮発性記憶装置に記憶される。例えば、上記の(5)のデータは、RAM(Random Access Memory)などの揮発性記憶装置に記憶される。どのデータを記憶するために、記憶部13をどの記憶装置にて実現するのかについては、自走式掃除機1の使用目的、利便性、コスト、物理的な制約などから適宜決定されればよい。
The
本実施形態では、記憶部13は、センサ部30の各種センサによって取得された、実空間RSにおける周囲環境に関するセンシング情報を記憶する。さらに、記憶部13は、操作パネル12、または、通信部11を介して通信端末装置3から受け付けた、各種情報を記憶してもよい。例えば、各種情報として、自走式掃除機1が実空間RSにおいて新たに検出した物体の正体に係る情報、または、自走式掃除機1の動作に係る各種条件設定などを記憶する。また、記憶部13は、自走式掃除機1の設置場所周辺の走行マップを記憶してもよい。走行マップとは、自走式掃除機1の走行経路や走行速度などといった走行に関する情報、あるいは、掃除する領域に関する情報である。走行マップは、予めユーザが設定して記憶部13に記憶させてもよいし、自走式掃除機1自身が自動的に記録するように構成されていてもよい。
In the present embodiment, the
音声出力部14は、スピーカなどの音声出力装置であり、記憶部13に記憶している音声データや外部から取得した音声データに従って外部へ音声を出力するものである。例えば、音声出力部14は、自走式掃除機1が実空間RSにおいて新たな物体を検出したときに、ユーザUの注意を喚起する音声を出力する。
The
走行駆動部15は、モータドライバ、駆動輪モータ等を備え、制御部10からの制御信号に基づき、回転方向、回転角度等を決定して、駆動輪16を駆動させるブロックである。
The traveling
センサ部30は、実空間RSの周囲環境の様々な状態、および、実空間RSに存在する様々な物体の状態を知覚するものである。
The
自走式掃除機1は、センサ部30として機能する構成部材として、これには限定されないが、音声入力部31、撮影部32、測距部33、段差検知部34、臭気測定部35、温度測定部36、および、衝突検知部37を備えている。これらは単なる例示であり、また、自走式掃除機1はこれら全てを備えている必要はない。本実施形態では、センサ部30は、さらに、図示しない湿度測定部(センサ)を備えていてもよい。
Although self-propelled
音声入力部31は、マイクロホンなどの音声入力装置であり、外部から自走式掃除機1へ音声を入力するものである。例えば、音声入力部31は、実空間RSに設置されている物体から発せられる音を採取することができる。
The
測距部33は、検出された物体と、自走式掃除機1との距離を測定するセンサである。一例として、測距部33は、発光素子としての赤外発行ダイオードと、受光素子としての位置検出素子(PSD;Position Sensitive Detector)とによって実現されてもよい。測距部33の発光素子から照射された光が、測定対象の物体にあたると反射され、測距部33の受光素子で受光される。これにより、測距部33は、反射された光を評価・演算し、距離に換算して出力することができる。
The
段差検知部34は、自走式掃除機1の走行面における段差を検知するセンサであり、例えば、光電センサ、変位センサなどによって実現される。
The level difference detection unit 34 is a sensor that detects a level difference on the traveling surface of the self-propelled
臭気測定部35は、自走式掃除機1の周辺の臭気を測定し、臭気の強さを数値化するものである。例えば、ニオイセンサ、ガスセンサなどによって実現される。
The
温度測定部36は、自走式掃除機1の周辺の気温を測定する温度センサであり、例えば、サーミスタなどによって実現される。
The
衝突検知部37は、バンパー105が障害物など何かの物体に衝突したことを検知する接触センサである。
The
上述のとおり、センサ部30は、本発明の機能実行装置(自走式掃除機1)が実空間RSの状態を検知し、情報を収集するために用いられる。このように収集された情報は、特に、自走式掃除機1が、現在到達した位置に設定されている物体が何であるのかを特定するのに役立つ。しかし、これに限らず、センサ部30は、自走式掃除機1が掃除を実行する際に、障害物を回避して段差や階段から落ちることなく自走することができるように構成されていてもよい。
As described above, the
LEDランプ点灯部17は、LEDランプ18に駆動電流を供給し、LEDランプ18の点灯を制御するブロックである。LEDランプ点灯部17は、自走式掃除機1の状態に合わせて、点灯する色および点灯パターンを変化させる。例えば、掃除を行っている掃除モード、充電中である充電モード、掃除を行わずにイオン発生を行っているイオン発生モード、緊急事態が発生している緊急事態モード、により色および点灯パターンを変化させてもよい。
The LED lamp lighting unit 17 is a block that supplies driving current to the
電圧検出部19は、バッテリー20の電圧を検出するブロックであり、検出した電圧からバッテリー20の充電量を求める。バッテリー20には、充電端子21が電気的に接続されるよう構成されている。
The
回転ブラシ駆動部22は、モータドライバ、回転ブラシモータ等を備え、制御部10からの制御信号に基づき、回転数等を決定して、回転ブラシ23を駆動させるブロックである。
The rotating
サイドブラシ駆動部24は、モータドライバ、サイドブラシモータ等を備え、制御部10からの制御信号に基づき、回転数等を決定して、サイドブラシ25を駆動させるブロックである。
The side
送風装置26は、前出の電動送風機などを備え、本体筐体102の内部への吸気および内部からの排気を行う装置である。
The
イオン発生装置27は、制御部10による制御の下、駆動されるとイオンを発生させる装置である。本実施形態では、イオン発生装置27は、プラズマクラスターイオン(登録商標)発生装置であるとする。よってイオン発生装置27には、プラズマクラスターイオン発生素子が設けられており、プラズマクラスターイオン発生素子は、プラスイオンを発生するプラスイオン発生部と、マイナスイオンを発生するマイナスイオン発生部とを備えている。なお、このようなイオン発生素子は、本願出願人が先に出願した特開2002−58731号に詳しく開示されている。
The ion generator 27 is an apparatus that generates ions when driven under the control of the
イオン発生装置27から発生したイオンは、送風装置26によって、本体筐体102の外部に排出される。なお、制御部10の制御により、自走式掃除機1は、掃除の動作とイオン発生の動作とを同時に実行できるほか、掃除の動作とイオン発生の動作とを各々単独で実行することも可能である。
Ions generated from the ion generator 27 are discharged to the outside of the
〔自走式掃除機の機能構成〕
次に、自走式掃除機1が本発明の機能実行装置としての機能を実現するための機能構成について、図1を参照しながら説明する。図1は、本発明の一実施形態における、機能実行装置としての自走式掃除機1の要部構成を示すブロック図である。
[Functional configuration of self-propelled vacuum cleaner]
Next, the functional configuration for realizing the function of the self-propelled
自走式掃除機1が備える各部を統括制御する制御部10は、機能ブロックとして、少なくとも、物体認識部50およびアクション実行部51を備えている。さらに、制御部10は、必須ではないが、機能ブロックとして、走行制御部45、実行結果登録部52、および、アクション登録部53を備えていることが好ましい。なお、制御部10は、図5に示す、基本機能(掃除機能)を実現するための各部を制御する基本機能実行部(図示せず)を備えている。
The
上述した制御部10の各機能ブロックは、CPU(central processing unit)が、ROM(read only memory)、NVRAM(non-Volatile random access memory)などで実現された記憶装置(記憶部13)に記憶されているプログラムをRAM(random access memory)などに読み出して実行することで実現できる。
Each functional block of the
制御部10の物体認識部50は、センサ部30または通信部11によって知覚された物体を認識するものである。自走式掃除機1は、基本機能(ここでは掃除機能)を実行するために、実空間RSのあらゆる場所を自走する間、実空間RSに設置されるあらゆる物体の近くに立ち寄ることになる。センサ部30または通信部11は、自走式掃除機1が物体の近くに立ち寄ったことにより、当該物体の存在を知覚することができる。自走式掃除機1が物体の近くに立ち寄ることを以下では、「自走式掃除機1が物体に到達する」という。ここで、自走式掃除機1が物体に「到達」したときの自走式掃除機1と物体との間の距離は、具体的に限定されるものではない。センサ部30が物体を知覚できる距離まで自走式掃除機1が物体に近づいたとき、通信部11が物体と近距離無線通信を行える距離まで自走式掃除機1が物体に近づいたとき、自走式掃除機1のアクション実行部51が実行するアクションが物体に作用する距離まで自走式掃除機1が物体に近づいたとき、自走式掃除機1が当該物体に到達したということができる。
The
物体認識部50は、センサ部30または通信部11によって取得された情報に基づいて、自機が到達した場所にあるのが、実空間RSに設置された物体のうちどの物体であるのかを特定する。具体的には、物体認識部50は、空間情報記憶部2に登録されている物体の中から、センサ部30または通信部11によって知覚された物体を特定する。
Based on the information acquired by the
具体的には、近距離無線通信部としての通信部11が、同じく近距離無線通信機能を有する物体と通信することによって物体を検知する。物体認識部50は、通信部11が検知した物体の情報(IPアドレスなど)に基づいて、空間情報記憶部2の空間情報に登録されている物体のうち、いずれの物体のところに自走式掃除機1が到達したのかを認識する。
Specifically, the
あるいは、物体認識部50は、センサ部30によって取得されたセンシング情報を処理して物体の特徴を分析し、センシングされた物体が登録されている物体のいずれであるのかを認識する。
Alternatively, the
具体的には、衝突検知部37が衝突を検知すると、撮影部32が衝突方向を撮影する。物体認識部50は、撮影部32によって取得された、物体が映った撮影画像を分析し、空間情報記憶部2に登録されている物体の物体画像と比較することによって、自走式掃除機1が到達した物体を認識することができる。
Specifically, when the
アクション実行部51は、物体認識部50によって認識された物体に対してアクションを実行するものである。空間情報記憶部2に記憶されている空間情報は、実空間RSに設置されている各物体の情報、すなわち、複数の物体レコードで構成されている。物体レコードには、物体名、IPアドレスなどの物体特定情報に関連付けて、その物体に関するあらゆる情報が記憶されていてもよい。本実施形態では、各物体には、当該物体に作用する、自走式掃除機1が実行すべきアクションが関連付けられている。アクション実行部51は、物体認識部50によって認識された物体に関連付けられているアクションをその物体に対して実行する。なお、アクションの具体例については後述する。
The
上記構成によれば、自走式掃除機1が物体に到達すると、センサ部30または通信部11が物体の存在を知覚する。物体認識部50は、知覚された物体が、空間情報に登録済みの物体(既知の物体)のいずれであるのかを認識する。アクション実行部51は、空間情報を参照し、認識された物体に関連付けられているアクションを読み出して、当該アクションを知覚された上記物体に対して実行する。
According to the above configuration, when the self-propelled
これにより、自走式掃除機1は、自走しながら掃除機能を実行する傍ら、特定の既知の物体に到達した場合には、その物体に関連付けられているアクションを当該物体に対して実行することができる。
As a result, the self-propelled
このように仮想空間を作成するための空間情報を用いれば、自走式掃除機1は、基本機能を実行しながら、実空間RSで認識された物体のそれぞれに対して、それぞれの物体に固有のアクションを実行することができる。ユーザは、自走式掃除機1が基本機能を実行するように通常通り使用するだけであり、アクションを起こさせるための別途の操作が不要となる。結果として、仮想空間を操作ツールとして用いて、実空間で認識された物体に対してアクションを起こすことにより、ユーザの利便性を向上させることが可能な機能実行装置(自走式掃除機1)を実現することが可能になる。また、ユーザは、実空間RSに居合わせなくても、実空間RSで稼働している自走式掃除機1を使って、実空間RSに設置されている物体に対してアクションを起こすことが可能となる。
If the spatial information for creating the virtual space is used in this way, the self-propelled
さらに、制御部10は、実行結果登録部52を備えていることが好ましい。
Furthermore, the
実行結果登録部52は、アクション実行部51によって実行されたアクションの実行結果を空間情報記憶部2の空間情報に登録するものである。アクション実行部51が知覚された物体(自走式掃除機1が到達した物体)に対してアクションを実行すると、物体が何らかの反応を起こしたり、物体から何らかの情報が提供されたりする。実行結果登録部52は、こうしてアクション実行部51がアクション実行後の物体から得た情報を、実行結果として空間情報に登録する。実行結果登録部52は、到達した上記物体に対応する物体レコードに上記実行結果を格納する。
The execution
これにより、空間情報を参照するすべての装置が、実空間RSに設置されたどの物体に対してどのようなアクションが実行され、どのような実行結果が得られたのかを把握することができる。 Thereby, it is possible for all devices that refer to the spatial information to understand what action is performed on which object installed in the real space RS and what execution result is obtained.
さらに、アクション実行部51が、異なる日時に、同じ物体に対して同じアクションを定期的に実行する場合には、実行結果登録部52は、実行結果を時系列で蓄積し、これらを統計処理してまとめたもの(表、グラフ、平均値、最大値、最小値など)をアクション実行結果として空間情報記憶部2に登録してもよい。
Further, when the
制御部10は、さらに、アクション登録部53を備えていてもよい。
The
アクション登録部53は、これまで未登録であった物体が、実空間RSの空間情報に登録されたときに、すなわち、新規の物体レコードが作成されたときに、その新規に登録された物体について、アクションを選択し、関連付けるものである。アクション登録部53は、物体特定品目記憶部6に記憶されている物体特定品目を参照して、新規に登録された上記物体の正体に合致するアクションを選択する。そして、選択したアクションを上記新規の物体の物体情報に関連付ける。具体的には、アクション登録部53は、選択したアクションのアクションIDを、上記新規の物体の物体レコードに格納する。
The
これにより、実空間RSの物体が新たに空間情報に登録された場合でも、ユーザに煩雑な操作を強いることなく、当該物体に適切なアクションを関連付けて管理することが可能となる。 Accordingly, even when an object in the real space RS is newly registered in the space information, it is possible to manage the object in association with an appropriate action without forcing the user to perform complicated operations.
なお、新規の物体レコードの登録は、ユーザが通信端末装置3を操作することにより行われてもよいが、自走式掃除機1が未知の物体を検知し、これを新規に空間情報に登録することが好ましい。自走式掃除機1は、センサ部30から取得したセンシング情報に基づいて物体の特徴を分析し、その特徴に基づいて、各種物体の既知の情報を含む上記物体特定品目を参照して、物体の正体を特定する。最終的に、自走式掃除機1は、正体が特定された物体の物体特定情報と、物体に関して得られたその他の各種情報とを紐付けて物体レコードとして新規に登録することができる。
In addition, although registration of a new object record may be performed by a user operating the communication terminal device 3, the self-propelled
走行制御部45は、自走式掃除機1の走行駆動部15を制御して、自走式掃除機1を自走させるものである。走行制御部45は、自走式掃除機1に係る走行情報を生成する。走行情報は、自走式掃除機1が、充電台からどの方向にどれだけの距離を移動したのかを示す情報であってもよいし、あるいは、予め定められている走行ルートがある場合、現在自走式掃除機1が走行ルート上のどのあたりをどの向きに走行しているのかを示す情報などであってもよい。
The traveling
さらに、走行制御部45は、アクション実行部51がアクションを実行する(した)こと、または、アクションの実行結果を得たことをトリガにして、自走式掃除機1の行き先を動的に変更してもよい。すなわち、走行制御部45は、アクション実行部51が実行するアクションに応じて、自走式掃除機1の走行ルートを制御することが可能である。
Further, the traveling
以上のように、空間情報を用いて自走式掃除機1はアクションを実行する。さらに、自走式掃除機1は、アクションの実行結果を空間情報にフィードバックすることもできる。ユーザは、自走式掃除機1および空間情報を利用して、所望の物体に所望のアクションを起こすことが可能であり、アクションの実行結果を容易に得ることが可能である。これらを可能にするのは、ユーザが所持する空間情報利用装置としての通信端末装置3である。通信端末装置3は、自走式掃除機1および空間情報記憶部2と通信することによって上記を実現する。
As described above, the self-propelled
〔通信端末装置の機能構成〕
次に、通信端末装置3が本発明の空間情報利用装置としての機能を実現するための構成について、図6を参照しながら説明する。図6は、本発明の一実施形態における、空間情報利用装置としての通信端末装置3の要部構成を示すブロック図である。
[Functional configuration of communication terminal device]
Next, a configuration for realizing the function of the communication terminal device 3 as the spatial information utilization device of the present invention will be described with reference to FIG. FIG. 6 is a block diagram showing a main configuration of the communication terminal device 3 as a spatial information utilization device in an embodiment of the present invention.
図6に示すとおり、通信端末装置3は、制御部310、通信部311、操作パネル312および記憶部313を備えている。これらの各部は、通信端末装置3において、自走式掃除機1における制御部10、通信部11、操作パネル12および記憶部13と同様の機能を果たす。なお、通信端末装置3において、操作パネル12は、タッチパネルとして設けられており、操作パネル12は、ユーザの操作を受け付ける入力部120と、通信端末装置3が処理する各種情報を表示する表示部121とによって構成される。
As illustrated in FIG. 6, the communication terminal device 3 includes a
制御部310は、機能ブロックとして、アクション取得部75、GUI画面作成部71、アクション設定部76、空間情報取得部73および仮想空間作成部74を備えている。
The
アクション取得部75は、新規に登録された物体について関連付けられているすべてのアクションの一覧を取得するものである。
The
GUI画面作成部71は、アクション一覧から、必要なアクションをユーザに選択させるためのGUI画面を作成するものである。また、GUI画面作成部71は、選択されたアクションについて、オプションを設定することができる場合に、オプションをユーザに設定させるためのGUI画面を作成してもよい。
The GUI
アクション設定部76は、上記のGUI画面に対して入力部120から入力された内容に基づいて、ユーザの設定内容を、空間情報記憶部2に反映させるものである。
The
空間情報取得部73は、空間情報記憶部2に記録されている空間情報を取得するものである。
The spatial
仮想空間作成部74は、空間情報取得部73によって取得された空間情報に基づいて仮想空間VSを作成するものである。
The virtual
上記構成によれば、ユーザは、通信端末装置3を操作して、実空間RSに存在する各物体に対し、自走式掃除機1に実行させたいアクションを選択することができる。
According to the said structure, the user can select the action which self-propelled
また、上記構成によれば、仮想空間作成部74は、各物体(の物体情報)に関連付けられたアクションまたはアクションの実行結果を追加して仮想空間VSを作成することができる。そのため、ユーザは、仮想空間VSが表示された表示部121を確認して、各物体に設定されているアクションおよびその実行結果を容易に得ることが可能となる。
Further, according to the above configuration, the virtual
以下では、仮想部屋利用システム100を構築する自走式掃除機1および通信端末装置3によって実現される機能を、具体例を参照しながら詳細に説明する。
Below, the function implement | achieved by the self-propelled
〔1−新規に登録された物体にアクションを関連付ける〕
図7は、空間情報記憶部2に記憶されている、実空間RSの空間情報のデータ構造および具体例を示す図である。図8は、空間情報によって定義される、実空間RSの座標系を示す図である。なお、図7において、空間情報をテーブル形式のデータ構造にて示したことは一例であって、空間情報のデータ構造を、テーブル形式に限定する意図はない。以降、データ構造を説明するためのその他の図においても同様である。
[1-Associating an action with a newly registered object]
FIG. 7 is a diagram illustrating a data structure and a specific example of the spatial information of the real space RS stored in the spatial information storage unit 2. FIG. 8 is a diagram showing a coordinate system of the real space RS defined by the spatial information. In FIG. 7, the spatial information is shown in a table format data structure as an example, and the data structure of the spatial information is not intended to be limited to the table format. Hereinafter, the same applies to other figures for explaining the data structure.
図7に示す空間情報は、図2および図8に示す実空間RSに対応する空間情報であり、実空間RSに存在する各物体の情報を含むものである。空間情報は、自走式掃除機1によって到達した物体を認識するのに参照されたり、通信端末装置3によって仮想空間VSを作成するのに参照されたりして利用される。
The spatial information shown in FIG. 7 is spatial information corresponding to the real space RS shown in FIGS. 2 and 8 and includes information on each object existing in the real space RS. The spatial information is used to be recognized for recognizing an object reached by the self-propelled
空間情報は、各物体の情報を格納した複数の物体レコードによって構成される。なお、図示しないが、本実施形態では、空間情報は、実空間RSに対応する座標系を定義する情報を含む。図8に示す例では、実空間RSの直方体の左下一番奥を原点((X、Y、Z)=(0、0、0))とする3次元の座標系を定義する。例えば、実空間RSのサイズは一例として、幅(X軸)1000×奥行き(Y軸)500×高さ(Z軸)600と定義されている。サイズの数値は、実寸サイズである必要はない。よって、数字には単位は示されない。 Spatial information is composed of a plurality of object records storing information of each object. Although not shown, in the present embodiment, the spatial information includes information defining a coordinate system corresponding to the real space RS. In the example illustrated in FIG. 8, a three-dimensional coordinate system is defined in which the lower left innermost part of the cuboid of the real space RS is the origin ((X, Y, Z) = (0, 0, 0)). For example, the size of the real space RS is defined as, for example, width (X axis) 1000 × depth (Y axis) 500 × height (Z axis) 600. The size numbers need not be actual sizes. Therefore, no unit is shown in the numbers.
本実施形態では、空間情報は、大別して、物体の特徴など、物体そのものに関する情報と、その物体に対して自走式掃除機1が実行するアクションに関する情報とを含む。前者を物体情報、後者をアクション情報と称する。
In the present embodiment, the spatial information is broadly divided into information related to the object itself, such as the characteristics of the object, and information related to the action performed by the self-propelled
まず、物体情報の具体例として、図7に示すとおり、空間情報は、物体ID、物体特定情報、位置座標、サイズ情報、向き情報、および、物体画像のカラムを有する。アクション情報の具体例として、空間情報は、アクション、および、アクション実行結果のカラムを有する。 First, as a specific example of the object information, as illustrated in FIG. 7, the spatial information includes an object ID, object specifying information, position coordinates, size information, orientation information, and an object image column. As a specific example of the action information, the spatial information includes an action and an action execution result column.
上述の空間情報のデータ構造は一例であってこれに限定されない。しかし、空間情報は、実空間RSに配置された物体を、先に定義した座標系の対応する位置にプロットするために、少なくとも、物体の位置座標のカラムを有する。また、空間情報は、少なくとも、物体の正体を特定する呼称を格納するための物体特定情報のカラムを有する。図7に示す例では、空間情報は、物体IDおよび物体特定情報のカラムに関連付けて、位置座標のカラムに各物体の位置座標を含んでいる。 The data structure of the spatial information described above is an example, and the present invention is not limited to this. However, the spatial information has at least a column of the position coordinates of the object in order to plot the object arranged in the real space RS at a corresponding position in the coordinate system defined above. The spatial information includes at least a column of object specifying information for storing a name for specifying the identity of the object. In the example shown in FIG. 7, the spatial information includes the position coordinates of each object in the position coordinate column in association with the object ID and object identification information columns.
さらに、空間情報は、各物体のサイズ情報を格納するためのサイズ情報のカラムを有していることが好ましい。 Further, the spatial information preferably has a column of size information for storing size information of each object.
さらに、空間情報は、各物体の向き情報を格納するための向き情報のカラムを有していることが好ましい。 Furthermore, it is preferable that the spatial information has a column of orientation information for storing the orientation information of each object.
さらに、空間情報は、各物体の画像(または、画像の保存先アドレス)を格納するための物体画像のカラムを有していることが好ましい。物体画像は、物体を平面的に表現した2D画像であってもよいし、物体を立体的に表現した2D画像であってもよいし、物体を多方面から立体的に表示できる3D画像であってもよい。物体画像は、例えば、通信ネットワーク5を介して、自走式掃除機1、通信端末装置3または情報管理サーバ4などが外部から検索して取得することができる。あるいは、撮影部32が取得した撮影画像から、物体認識部50が、画像処理によって物体を切り出して当該物体の画像とすることが考えられる。あるいは、物体特定品目記憶部6において、各呼称(物体カテゴリ、物体名、または、物体機種)ごとに、予め固定の画像が関連付けて記憶されていてもよい。
Furthermore, the spatial information preferably includes an object image column for storing an image of each object (or an image storage destination address). The object image may be a 2D image that represents the object in a plane, a 2D image that represents the object in a three-dimensional manner, or a 3D image in which the object can be displayed in three dimensions. May be. The object image can be retrieved and acquired from the outside by the self-propelled
このように、実空間RSに新規の物体が設置されると、その物体についての物体レコードが作成されて、図7に示す空間情報に登録される。本実施形態では、まずは、新規の物体について、物体情報、すなわち、「物体ID」、「物体特定情報」、「位置座標」、「サイズ情報」、「向き情報」、および、「物体画像」が、新規に作成された物体レコードに格納される。なお、物体レコードに物体情報が格納される方法は、特に限定されない。例えば、自走式掃除機1のセンサ部30の各種センサによってセンシングされたセンシング情報を元に、自走式掃除機1が物体レコードに含まれる各種の物体情報を生成し、登録してもよい。あるいは、ユーザが手動で上記物体レコードに各種の物体情報を入力してもよい。
In this way, when a new object is installed in the real space RS, an object record for the object is created and registered in the spatial information shown in FIG. In the present embodiment, first, for a new object, object information, that is, “object ID”, “object identification information”, “position coordinates”, “size information”, “direction information”, and “object image”. And stored in a newly created object record. The method for storing object information in the object record is not particularly limited. For example, based on sensing information sensed by various sensors of the
さらに、本発明の空間情報記憶部2における空間情報は、アクション情報、すなわち、「アクション」のカラムと「アクション実行結果」のカラムを有している。 Further, the spatial information in the spatial information storage unit 2 of the present invention has action information, that is, an “action” column and an “action execution result” column.
「アクション」のカラムには、その物体に対して自走式掃除機1に実行させるアクションの情報が格納される。図7に示す例では、アクションを特定するためのアクションIDが格納される。自走式掃除機1のアクション登録部53は、新規に登録された物体に関連付けるアクションを選択し、そのアクションのアクションIDを、当該物体の物体レコードにおける「アクション」のカラムに格納する。これにより、アクション実行部51は、到達した物体が認識されると、その認識された物体の物体レコードに格納されたアクションIDに基づいて、当該物体に対して実行すべきアクションを特定することができる。
In the “action” column, information on actions to be executed by the self-propelled
より詳細には、アクション登録部53は、以下のような方法で、新規の物体にアクションを関連付けることが可能である。
More specifically, the
図9は、物体特定品目記憶部6に記憶されている物体特定品目のデータ構造および具体例を示す図である。
FIG. 9 is a diagram illustrating a data structure and a specific example of the object specifying item stored in the object specifying
物体特定品目は、少なくとも、物体を特定する物体特定情報を格納するための1つのカラムを有し、この物体特定情報が物体の正体を表す呼称として用いられる。図9に示す例では、物体特定品目は、一例として、物体を分類する規模を大分類、中分類、小分類の3段階に分けるため、分類の規模ごとに3つのカラムを有する。 The object specifying item has at least one column for storing object specifying information for specifying the object, and this object specifying information is used as a name representing the identity of the object. In the example shown in FIG. 9, the object specifying item has, for example, three columns for each classification scale in order to divide the scale for classifying the object into three stages of a large classification, a medium classification, and a small classification.
大分類に相当する「物体カテゴリ」のカラムには、物体をおおまかに分類するための呼称が記憶される。例えば、実空間RSに配置されているテレビ、エアコン、冷蔵庫、空気清浄機、扇風機などをまとめて「家電機器」に分類する。 In the “object category” column corresponding to the large classification, a name for roughly classifying the object is stored. For example, televisions, air conditioners, refrigerators, air purifiers, electric fans, and the like arranged in the real space RS are collectively classified as “home appliances”.
中分類に相当する「物体名」のカラムには、物体を分類するための呼称が記憶される。本実施形態では、このカラムには、あらゆる物体の一般的な名称が格納される。例えば、家電機器であれば、「テレビ」、「エアコン」、家具であれば、「ソファー」、「テーブル」、インテリアであれば、「観葉植物」、「造花」、などである。 In the “object name” column corresponding to the middle classification, names for classifying the objects are stored. In this embodiment, this column stores general names of all objects. For example, “television”, “air conditioner” for household appliances, “sofa”, “table” for furniture, “foliage plants”, “artificial flowers”, etc. for interiors.
上述したとおり、物体特定品目は、少なくともいずれか1つの分類カラムを有していればよい。しかし、図9に示すとおり、物体特定品目が、数段階の分類規模に対応して複数の分類カラムを有している場合には、ユーザに最も馴染み深い呼称を用いたり、空間情報利用装置としての通信端末装置3の機能に応じてより詳細な呼称を用いたりして、呼称を分類規模に応じて選択的に用いることができるので利便性が高い。 As described above, the object specifying item only needs to have at least one of the classification columns. However, as shown in FIG. 9, when the object specifying item has a plurality of classification columns corresponding to several classification levels, the name most familiar to the user is used, or the spatial information utilization device is used. The use of a more detailed name according to the function of the communication terminal device 3 and the use of the name selectively according to the classification scale are highly convenient.
さらに、本発明の物体特定品目記憶部6における物体特定品目は、「アクションID」のカラムを有している。
Furthermore, the object specifying item in the object specifying
「アクションID」のカラムには、その物体に対して自走式掃除機1が実行することが可能なアクションが関連付けて記憶されている。例えば、図9に示す例では、物体が「テレビ」である場合、「テレビ」に対しては、機種を問わず、AC001、AC002、AC004、AC006、AC011、AC012、AC013、AC014のアクションIDによって特定される各アクションを自走式掃除機1が実行できることが分かる。
In the column of “Action ID”, actions that can be executed by the self-propelled
アクション登録部53は、図9に示す物体特定品目を参照して、新規に登録された物体の正体が何であるのかに基づいて、実際に物体に関連付けることが可能なアクションを抽出する。例えば、図7に示すとおり、物体IDが「0005」であって物体特定情報が「加湿器」である物体レコードが新規に登録された場合には、アクション登録部53は、図9の物体特定品目を参照し、物体特定情報「加湿器」に関連付けられているアクションIDを抽出する。図9に示す例では、アクション登録部53は、AC001、AC002、AC003、AC004、AC005、AC006、AC013、AC014を抽出する。アクション登録部53は、抽出したすべてまたは一部のアクションIDを、図7の空間情報に登録してもよい。例えば、ユーザが選択した、AC001、AC002、AC004だけを、その物体(「加湿器」)に関連付けてもよい。
The
複数のアクションの中から所望のアクションだけをユーザに選択させる方法としては以下のものが考えられる。 As a method for allowing the user to select only a desired action from a plurality of actions, the following can be considered.
アクション登録部53は、図9の物体特定品目を参照し、新規に登録された物体に適用できるすべてのアクションのアクションIDを抽出する。これを通信部11を介して通信端末装置3に送信する。
The
通信端末装置3のアクション取得部75はアクション登録部53からアクションIDを取得して、このアクションIDの一覧をGUI画面作成部71に供給する。GUI画面作成部71は、新規の物体に適用できるアクションの一覧を、ユーザが所望のアクションを選択可能な状態で表示部121に表示する。
The
表示部121に表示されたGUI画面から、ユーザが所望のアクションを選択すると、アクション設定部76は、入力部120を介してユーザの選択を受け付けて、ユーザによって選択されたアクションIDを通信部311を介して自走式掃除機1に送信する。
When the user selects a desired action from the GUI screen displayed on the
自走式掃除機1のアクション登録部53は、アクション設定部76から受信したアクションIDだけを、上記新規に登録された物体に関連付けて格納することができる。
The
さらに、図示しないが、空間情報において、アクション実行タイミングが定義されてもよい。基本的には、自走式掃除機1が掃除中にその物体に到達したときが、アクション実行タイミングである。しかし、自走式掃除機1が、1回の掃除で、実空間RSをあちこち巡回するため、短い期間に何回も同じ物体に立ち寄ることになる。その度に同じアクションが実行されても意味をなさず、無駄なアクションが無意味なタイミングが繰り返し実行されてしまう可能性がある。そのため、自走式掃除機1が物体に到達した際、(1)毎回必ず実行、(2)前回から10分以上間を空けて実行、(3)前回から1時間以上間を空けて実行、・・・というようにアクション実行タイミングについてオプションを設けてもよい。そして、ユーザがこれらのオプションの中から所望の実行タイミングを選択する。この場合、図7の空間情報において、さらにアクション実行タイミングを定義するカラムが設けられ、ユーザによって選択されたアクション実行タイミングがアクション登録部53によって登録される。さらに、実行結果を保存するか否かをユーザが設定することができてもよい。このように、同じアクションでも、特定のユーザの特定の物体用にアクションをカスタマイズすることができる。
Further, although not shown, action execution timing may be defined in the spatial information. Basically, the action execution timing is when the self-propelled
こうして、新しく登録された物体に対して、アクション登録部53がアクションを関連付ける。ユーザは、操作しないか、したとしても、タイミングを指定したり、保存形式を指定したりするだけで、簡単に、物体到達時に自走式掃除機1にさせるアクションを規定することができる。
Thus, the
〔2−掃除の傍ら立ち寄った物体にアクションを実行する〕
上述のようにして、アクション登録部53が、空間情報において、各物体にアクションを関連付けると、自走式掃除機1は、物体に到達した際に、当該物体に対し、関連付けられたアクションを実行することが可能となる。
[2-Perform actions on objects that stop by cleaning]
As described above, when the
自走式掃除機1が掃除機能(基本機能)を実行し、自走するうち、実空間RSに設置された物体に到達する。例えば、自走式掃除機1がテレビに衝突し、衝突検知部37が衝突を検知したとする。物体認識部50は、衝突検知時に撮影された撮影画像を、図7の空間情報に登録されている各物体画像と比較して、「0004.jpg」が撮影画像に類似していると判断したとする。この場合、物体認識部50は、衝突つまり到達した物体は「テレビ」であると認識することができる。あるいは、通信部11がある物体と近距離無線通信可能になり、その物体から、物体名またはIPアドレスなどの物体特定情報を受信する。物体認識部50は、受信された物体名またはIPアドレスに基づいて、上記物体が、物体ID「0004」の「テレビ」であると認識してもよい。なお、物体の存在は知覚されたが、特徴が一致する物体が、空間情報記憶部2の空間情報に登録されていなかった場合には、物体認識部50は物体の認識を行わず、アクション実行部51はアクションを実行しない。そして、自走式掃除機1による掃除および自走が継続される。
While self-propelled
アクション実行部51は、到達した物体が「テレビ」であると認識されたため、空間情報を参照し、物体「テレビ」に関連付けられているアクションを選択する。図7に示す例では、「テレビ」に対して実行するべきアクションは、アクションID「AC011」のアクションであるとアクション実行部51は判断することができる。
The
アクションIDによって特定される各アクションが具体的にどのような内容のアクションであるのかは、例えば、アクション記憶部7に記憶されているアクション管理情報によって管理されている。 The specific content of each action specified by the action ID is managed by action management information stored in the action storage unit 7, for example.
図10は、アクション記憶部7に記憶されているアクション管理情報のデータ構造および具体例を示す図である。 FIG. 10 is a diagram showing a data structure and a specific example of action management information stored in the action storage unit 7.
アクション管理情報は、アクションIDに関連付けて、少なくとも、アクションの内容を示す「実行内容」のカラムを有する。先の例では、「テレビ」に関連付けてアクションID「AC011」が特定された。よって、アクション実行部51は、「AC011」に対応するアクション「物体(機器)の電源オン/オフ状態をチェックする」というアクションを、「テレビ」に到達した際に実行する。
The action management information has at least a column of “execution content” indicating the content of the action in association with the action ID. In the previous example, the action ID “AC011” is specified in association with “TV”. Therefore, the
アクション実行部51は、空間情報の「テレビ」の物体レコードにおいて、「AC011」とともにアクション実行タイミングが指定されている場合には、そのタイミングにしたがってアクションを実行する。
When the action execution timing is specified together with “AC011” in the object record of “TV” in the spatial information, the
図10に示すとおり、例えば、アクションは、センサ部30を介して、自走式掃除機1が到達した物体または当該物体の周辺環境の物理的状態を測定することである(AC001〜AC007など)。これにより、自走式掃除機1に物体の物理的状態を測定させることができる。ユーザは、測定結果の情報を得て、実空間RSに居合わせなくても、実空間RSに居るときと同じように物体の物理的状態を知ることが可能となる。
As shown in FIG. 10, for example, the action is to measure the physical state of the object reached by the self-propelled
あるいは、例えば、アクションは、近距離無線通信部としての通信部11を介して、当該機能実行装置が到達した物体を遠隔操作する、または、当該物体の論理的状態を取得することである(AC011〜AC015など)。これにより、ユーザは、実空間RSに居合わせなくても、自走式掃除機1に、物体の論理的状態(機器のソフトウェア上の状態)をチェックさせたり、設定を変更させたり、遠隔操作させたりすることが可能となる。つまり、ユーザは、実空間RSに居合わせなくても、実空間RSに居る時と同じように、実空間RSの物体を操作することが可能となる。本発明の自走式掃除機1は、ユーザが通信端末装置3から通信ネットワーク5を介して遠隔制御できない物体(機器)に対しても適用することが可能である。
Alternatively, for example, the action is to remotely operate an object reached by the function execution device or acquire a logical state of the object via the
あるいは、例えば、アクションは、自走式掃除機1が到達した物体または当該物体の周辺環境の物理量を変化させることである(AC008〜AC010)。これにより、ユーザは、自走式掃除機1に、実空間RSの物理量を変化させて、実空間RSに居合わせなくても、実空間RSに居る時と同じように、実空間RSおよび実空間RS内の各物体に対して影響を与えることが可能となる。
Alternatively, for example, the action is to change the physical quantity of the object reached by the self-propelled
なお、アクションは、図10に示す例に限定されない。例えば、「物体到達時にその到達位置から、当該物体とは別の物体を撮影する」というアクション、「物体と通信して、物体内部(例えば、冷蔵庫内)の温度を取得する」というアクション、「物体(エアコン、冷蔵庫)の設定温度を変更する」というアクション、「物体(テレビ、録画再生装置)の音量を変更する」というアクション、「物体(テレビ、録画再生装置)に対して視聴・録画の予約を行う」というアクションが、基本機能とともに実行されるアクションとして定義されていてもよい。 Note that the action is not limited to the example shown in FIG. For example, an action of “photographing an object different from the object from the arrival position when the object arrives”, an action of “communicating with the object and acquiring the temperature inside the object (for example, in the refrigerator)”, “ “Change the set temperature of an object (air conditioner, refrigerator)”, “Change the volume of an object (TV, recording / playback device)”, “View / record on an object (TV, recording / playback device) The action of “schedule” may be defined as an action executed together with the basic function.
〔3−アクションの実行結果を空間情報に登録する〕
物体到達時、アクション実行部51によって、当該物体に対してアクションが実行されると、実行結果登録部52は、アクションが実行された後に得られた結果をアクション実行結果として、当該物体の物体レコードに登録する。
[3- Register the execution result of the action in the spatial information]
When the action is executed on the object by the
ここで、図10に示すとおり、アクション管理情報は、アクション実行結果をどのような形式で保存するのかを定義する「実行結果保存形式」のカラムを有していることが好ましい。実行結果登録部52は、例えば、「AC001:物体または物体周辺の湿度を測定する」というアクションが実行された場合には、湿度測定部によって取得された湿度の出力値を、アクション実行結果として図7の空間情報に登録する。
Here, as shown in FIG. 10, the action management information preferably has a column of “execution result storage format” that defines in what format the action execution result is stored. For example, when the action “AC001: Measure the humidity of an object or around the object” is executed, the execution
図7に示すとおり、空間情報は、さらに、「アクション実行結果」のカラムを有している。 As illustrated in FIG. 7, the spatial information further includes a column of “action execution result”.
「アクション実行結果」のカラムには、その物体に対して自走式掃除機1が実際にアクションを実行した後、得られた実行結果の情報が格納される。図7に示すとおり、実行結果は、フラグ、数値、文字列、グラフ、表などさまざまな形式で格納される。例えば、実行結果登録部52は、アクション「AC001」の実行結果として、湿度の出力値および測定日時を含むアクション実行ログ(図7の「014加湿器.csv」)を、上記物体に関連付けて登録する。
In the “action execution result” column, information on the execution result obtained after the self-propelled
〔4−仮想空間上で各物体のアクションに係る情報を表示する〕
空間情報取得部73は、通信端末装置3の表示部121に表示すべき仮想空間の元となる空間情報を取得するものである。空間情報取得部73は、通信端末装置3の端末IDまたはユーザIDなどを、空間情報記憶部2を管理する情報管理サーバ4に送信し、通信端末装置3のユーザUの部屋に対応する空間情報をリクエストする。そして、情報管理サーバ4から返ってきた空間情報を、仮想空間作成部74に供給する。
[4-Display information related to actions of each object in virtual space]
The spatial
仮想空間作成部74は、通信端末装置3の表示部121に表示すべき仮想空間を作成するものである。仮想空間作成部74は、空間情報記憶部2に記憶された空間情報に登録された物体レコード(物体特定情報、位置座標、サイズ情報、向き情報、および、物体画像など)に基づいて、個々の物体を表す図形を座標系に配置して、仮想空間VSを作成する。
The virtual
仮想空間作成部74が作成する仮想空間VSが、どのような表示形態を持つのかについては特に限定されない。空間情報取得部73が、空間情報記憶部2から、物体についてどのような情報を取得するのかによって、様々な表示形態が考えられる。
The display form of the virtual space VS created by the virtual
図11は、通信端末装置3の仮想空間作成部74が作成した仮想空間VSの表示形態の一具体例を示す図である。図11は、仮想空間VSが、通信端末装置3の表示部121に表示されている状態を表している。
FIG. 11 is a diagram illustrating a specific example of a display form of the virtual space VS created by the virtual
図11に示す仮想空間VSの表示形態は、仮想空間VSを、斜め上から見たときの実空間RSを立体的に示すものであり、各物体を、対応する物体画像で示すものである。 The display form of the virtual space VS shown in FIG. 11 is a three-dimensional representation of the real space RS when the virtual space VS is viewed obliquely from above, and each object is represented by a corresponding object image.
仮想空間作成部74は、実空間RSに対応するX−Y−Z軸がなす座標系(図8)に、直方体の仮想空間VSをプロットする。そして、仮想空間作成部74は、空間情報記憶部2に記憶された空間情報を参照し、各物体の物体画像を、3次元の位置座標に基づいて、配置する。さらに、図11に示す例では、仮想空間作成部74は、各物体のサイズ情報を参照し、上記物体画像の大きさを調節する。さらに、仮想空間作成部74は、各物体の向き情報を参照し、実際に当該向きに設置された物体が、上記斜め上から見られたときと同じ見え方になる物体画像を選択する(あるいは同じ見え方になるように物体画像を編集する)。さらに、仮想空間作成部74は、図11に示すように、物体の向きを表現する図形として、物体が出力する風などを表現した図形を物体の図形に追加してもよい。
The virtual
このように向き情報を利用して、物体の図形の形状・色などを編集することにより、実空間RSにより一層近い表示形態の仮想空間VSを表示することができる。結果として、ユーザUがより直感的に自分の部屋を操作することが可能なユーザインターフェースを実現することが可能となる。 Thus, by editing the shape and color of the figure of the object using the orientation information, the virtual space VS having a display form closer to the real space RS can be displayed. As a result, it is possible to realize a user interface that allows the user U to operate his / her room more intuitively.
本実施形態では、仮想空間作成部74は、さらに、空間情報において、各物体に関連付けられているアクション情報(アクションおよびアクション実行結果)を、仮想空間VSに反映することが好ましい。
In the present embodiment, it is preferable that the virtual
図11は、アクションおよびアクション実行結果を物体に関連付けて表示する表示形態の一例を示している。図11に示す例では、仮想空間作成部74は、ふきだしを設けて、ふきだしに、その物体に関連付けられているアクションおよびアクション実行結果を表示する。ふきだし110、ふきだし111は、それぞれ、物体「エアコン」、物体「ソファー」のアクションおよびアクション実行結果を表示するための図形である。
FIG. 11 shows an example of a display form in which actions and action execution results are displayed in association with objects. In the example illustrated in FIG. 11, the virtual
図7に示すとおり、「エアコン」には、2つのアクションが関連付けられているので、それぞれアクションおよびそれぞれのアクション実行結果がふきだし110に反映される。仮想空間作成部74は、ふきだし110、111の<アクション>を、空間情報の「アクション」のカラムに格納されているアクションIDに基づいて作成する。仮想空間作成部74は、<表示>を、空間情報の「アクション実行結果」のカラムに格納されている実行結果に基づいて作成する。さらに、仮想空間作成部74は、<表示>にリンク情報を設けて、「アクション実行結果」のカラムに格納されているアクション実行ログ(測定値を時系列に並べたグラフ、ログをテキスト化したものなど)を閲覧できるようにすることが好ましい。
As shown in FIG. 7, since two actions are associated with “air conditioner”, each action and each action execution result are reflected in the
さらに、表示部121のサイズの制限によって、すべての物体についてふきだしを一度に表示することができない場合には、仮想空間作成部74は、各物体について縮小化されたふきだしを表示させてもよい。例えば、縮小化されたふきだし112およびふきだし113は、それぞれ、物体「テレビ」および物体「加湿器」にアクションおよびアクション実行結果が関連付けられていることをユーザに知らせる役割を持っている。縮小化されたふきだし112およびふきだし113は、例えば、ユーザによってタッチされると、ふきだし110、111のように最大化されてアクションおよびアクション実行結果が詳細に表示される。
Furthermore, when the balloons cannot be displayed for all objects at once due to the size limit of the
さらに、仮想空間作成部74は、アクション等の情報が付加されている物体に図形のみを点滅させたり、透明度を上げたり、立体表示させたりして、付加情報がない物体の図形とは表示の仕方を異ならせてもよい。さらに、仮想空間作成部74は、自走式掃除機1がアクションの実行を失敗した場合には、エラーが生じたことが一目で分かるようにアクションが失敗した物体の図形だけを赤色一色にするなど別の色で表示させることが好ましい。さらに、仮想空間作成部74は、物体に対してアクションを実行した結果、物体の状態変化が検知された場合に、その変化が視覚的に分かるように物体の図形の表示の仕方を工夫することができる。
Further, the virtual
上記構成によれば、ユーザは、通信端末装置3に表示された仮想空間VSを利用して、各物体に対して実行されるアクションを容易に確認することが可能となる。さらに、ユーザは、そのアクションが実行された際の実行結果を併せて容易に確認することが可能となる。 According to the above configuration, the user can easily confirm the action executed on each object using the virtual space VS displayed on the communication terminal device 3. Furthermore, the user can easily confirm the execution result when the action is executed.
〔変形例1−追加アクションを実行する〕
図12は、空間情報記憶部2に記憶されている、実空間RSの空間情報の他の例を示す図である。
[Variation 1-Perform additional action]
FIG. 12 is a diagram illustrating another example of the spatial information of the real space RS stored in the spatial information storage unit 2.
図12に示す空間情報において、図7に示す空間情報と異なる点は、アクション情報として、さらに、「追加シナリオ」のカラムと、「追加アクション実行結果」のカラムが含まれている点である。 The spatial information shown in FIG. 12 is different from the spatial information shown in FIG. 7 in that the action information further includes an “additional scenario” column and an “additional action execution result” column.
「追加シナリオ」のカラムは、自走式掃除機1に追加で実行させる追加アクションと、その追加アクションの実行条件と、追加アクションの実行対象となる対象物体とを指定する追加シナリオを格納するものである。
The “additional scenario” column stores additional scenarios that specify additional actions to be executed by the self-propelled
「追加アクション実行結果」のカラムは、「追加シナリオ」のカラムで指定された追加アクションが実行された後に得られた結果を格納するものである。 The “additional action execution result” column stores a result obtained after the additional action specified in the “additional scenario” column is executed.
追加アクションとは、本実施形態のアクションが実行された後に得られた実行結果に応じて、当該実行結果が所定の条件に当てはまる場合に、自走式掃除機1が追加で実行するアクションのことを指す。追加アクションの実行対象は、初回に行われたアクションの実行対象に限らず、それとは別の物体であってもよい。
The additional action is an action that the self-propelled
例えば、図12に示す例では、自走式掃除機1は、物体「ソファー」に到達したら、湿度を測定するというアクション「AC001」を実行する。空間情報において、さらに、物体「ソファー」には、追加シナリオが関連付けられている。追加シナリオの一例を具体的に説明すると以下のとおりである。まず、追加シナリオにおいて、追加アクションの実行条件が、“初回のアクション「AC001」の実行結果(すなわち、湿度)が、所定閾値(例えば、湿度30%)未満である場合”と指定される。そして、追加アクションの実行対象となる対象物体が“物体ID「0005」の物体「加湿器」”と指定される。そして、追加アクションが“AC012:機器の電源をオンにする”と指定される。
For example, in the example shown in FIG. 12, when the self-propelled
すなわち、このような追加シナリオにしたがえば、自走式掃除機1が、掃除中にソファー付近に到達すると、アクション実行部51は、まず、その場所で、湿度測定部を介して湿度を測定する。これが初回のアクションである。そして、アクション実行部51は、得られた湿度が30%未満である場合に、物体「加湿器」に対して、追加アクション、すなわち、加湿器の電源を入れるという追加アクションを実行する。この場合、自走式掃除機1は、赤外線通信などの近距離無線通信手段(通信部11)を用いて上記加湿器を制御できる範囲に移動し、通信部11を介して上記加湿器と通信して、加湿器を稼働させる。
That is, according to such an additional scenario, when the self-propelled
上記に構成によれば、より複雑なアクションのシナリオを自走式掃除機1に対して設定し、自走式掃除機1に複数のアクションを連続して実行させることが可能となり、ユーザの利便性が向上する。
According to the above configuration, it is possible to set a more complicated action scenario for the self-propelled
なお、追加シナリオのカラムにおいて指定される内容は、一例として、予めテンプレートとしていくつか用意されたものをユーザがカスタマイズし、所望の物体の物体情報に関連付けて登録することで決定される。 Note that the content specified in the column of the additional scenario is determined by, for example, customizing several templates prepared in advance and registering them in association with object information of a desired object.
〔変形例2−走行ルートを制御する〕
自走式掃除機1は、予定されている掃除機能を実行して自走を始めると、例えば公知の技術を用いて、物体の配置に応じて進行方向を変えながら、床面を可能な限りくまなく自走して掃除することが可能となる。
[Modification 2—Controlling the driving route]
When the self-propelled
本発明の自走式掃除機1が、掃除機能実行中にアクションの実行結果に応じて追加アクションを実行する必要が生じた場合に、走行制御部45が走行駆動部15を制御して、追加アクションの実行対象である物体に立ち寄るように走行ルートを決定してもよい。
When the self-propelled
先の例を用いて説明する。自走式掃除機1は、掃除機能を実行しながら自走し、たまたまソファーに到達したとする。到達位置(ソファー付近)にて、自走式掃除機1は、湿度を測定するという初回のアクションを実行する。ここで、湿度が所定閾値以上(例えば、30%以上)であれば、自走式掃除機1は、上記初回のアクションを終えると、通常の掃除機能に復帰する。一方、湿度が所定閾値未満であれば、自走式掃除機1は、追加アクションを実行しなければならない。そこで、走行制御部45は、走行駆動部15を制御して、追加アクションを実行可能な位置に自走式掃除機1が到達するように走行ルートに制御することが好ましい。例えば、通信部11またはセンサ部30を用いて自走式掃除機1が追加アクションの実行対象物体を探索する。例えば、撮影部32が加湿器の撮影画像を取得することにより、自走式掃除機1が加湿器と自機との位置関係を把握してもよい。あるいは、通信部11が加湿器と通信することにより自走式掃除機1が加湿器と自機との位置関係を把握してもよい。このように実行対象物体が検出された場合には、走行制御部45は、その方向に自走式掃除機1が近づくように、自走式掃除機1の走行ルートを制御する。なお、走行ルートが制御される間も、自走式掃除機1は、本来の機能である掃除機能を実行することが可能であり、追加アクションが完了した後は、自走式掃除機1は、通常の掃除(自走)機能に復帰すればよい。つまり、自走式掃除機1は、基本機能を実行しながら、初回のアクションに加えて、追加アクションを実行することができる。
This will be described using the previous example. It is assumed that the self-propelled
〔処理フロー〕
図13は、自走式掃除機1のアクション実行機能に係る処理の流れを示すフローチャートである。
[Process flow]
FIG. 13 is a flowchart showing the flow of processing related to the action execution function of the self-propelled
自走式掃除機1の基本機能(掃除機能)を開始するトリガ(例えば、掃除予約時刻になった場合など)が発生すると(S101においてYES)、自走式掃除機1は、実空間RSを自走し、掃除機能を実行する(S102)。このとき、自走式掃除機1のセンサ部30の各部は、実空間RSにおける周囲環境をセンシングする。得られたセンシング情報は、物体認識部50に供給される。S102は、掃除機能を終了するトリガが発生すれば、終了する(S103においてNO)。
When a trigger for starting the basic function (cleaning function) of the self-propelled cleaner 1 (for example, when the scheduled cleaning time is reached) occurs (YES in S101), the self-propelled
S102が継続し、自走式掃除機1が掃除(自走)している間に、センサ部30または通信部11によって、物体の存在が知覚されると(S104においてYES)、物体認識部50は、自機が到達した物体を認識する(S105)。
If the presence of an object is perceived by the
知覚された物体が、空間情報に未登録の物体であって認証に失敗した場合には(S106においてNO)、自走式掃除機1は、通常の掃除に復帰して自走を継続する。一方、物体認識部50が、空間情報に登録されたいずれかの物体であると認識することができれば、認識が成功する(S106においてYES)。この場合、アクション実行部51は、認識された物体に関連付けられたアクションIDによって指定されるアクションを、S104にて知覚された物体に対して実行する(S107)。続いて、実行結果登録部52は、アクション実行結果を、上記物体の物体レコードに関連付けて登録する(S108)。
If the perceived object is an object not registered in the spatial information and authentication fails (NO in S106), self-propelled
ここで、空間情報において、上記物体に、追加シナリオ(追加アクション)が関連付けられていなければ(S109においてNO)、通常の掃除に復帰して自走を継続する。一方、追加シナリオが関連付けられている場合には、アクション実行部51は、空間情報の追加シナリオのカラムに定義されている追加アクション実行条件を参照する。そして、S108で得られた初回のアクションの実行結果が、追加アクション実行条件に当てはまらないと判断した場合には(S110においてNO)、通常の掃除に復帰して自走を継続する。
Here, in the spatial information, if an additional scenario (additional action) is not associated with the object (NO in S109), the normal cleaning is resumed and the self-run is continued. On the other hand, when the additional scenario is associated, the
一方、アクション実行部51は、S108のアクション実行結果が、追加アクション実行条件に当てはまると判断した場合には(S110においてYES)、追加シナリオのカラムに定義されている内容にしたがって追加アクションを実行する(S111)。続いて、実行結果登録部52は、追加アクション実行結果を、上記物体の物体レコードに登録する(S112)。そして、自走式掃除機1は、通常の掃除に復帰して自走を継続する。
On the other hand, when the
なお、本発明の機能実行装置が実行するアクション実行機能において、S109〜S112は、省略されてもよい。 In the action execution function executed by the function execution device of the present invention, S109 to S112 may be omitted.
図14は、図13のS111に示す追加アクション実行機能に係る処理の流れを示すフローチャートである。 FIG. 14 is a flowchart showing the flow of processing related to the additional action execution function shown in S111 of FIG.
アクション実行部51は、追加シナリオのカラムにて指定されている追加アクションの実行対象となる対象物体を探索する(S201)。例えば、撮影部32に周囲を撮影させたり、通信部11に周囲の物体と近距離無線通信を行わせたりする。さらに、走行制御部45が、走行駆動部15を制御して、探索しながら自走式掃除機1を自走させてもよい(S202)。この探索および自走は、所定時間内であれば、物体認識部50が対象物体を認識する(自走式掃除機1が対象物体に到達する)まで継続される(S203においてNO、S206においてNO)。ここで、対象物体に到達できないまま、所定時間が経過した場合には(S203においてNO、S206においてYES)、アクション実行部51は、追加アクションが実行できなかった旨のアクション実行結果を実行結果登録部52に対して出力して(S205)、追加アクション実行処理を終了する。
The
物体認識部50が対象物体に到達したと判断した場合には(S203においてYES)、アクション実行部51は、対象物体到達位置にて、追加シナリオのカラムに指定されている追加アクションを実行する(S204)。アクション実行部51は、S204の後に得られたアクション実行結果を実行結果登録部52に対して出力して(S205)、追加アクション実行処理を終了する。
When the
上記方法によれば、自走式掃除機1に、基本機能の傍ら、立ち寄ったそれぞれの物体に対して、アクションを実行させることが可能となる。
According to the above method, the self-propelled
上述の実施形態において、仮想部屋利用システム100を構成する、機能実行装置としての自走式掃除機1、空間情報利用装置としての通信端末装置3および情報管理サーバ4、その他仮想部屋利用システム100が含み得る各種装置、ならびに、空間情報記憶部2、物体特定品目記憶部6およびアクション記憶部7などの各種記憶部は、クラウドコンピューティングによって実現されてもよい。
In the above-described embodiment, the self-propelled
また、ここで言う「システム」または「装置」とは、特定の機能を実現する複数の機能モジュールまたは複数の装置が論理的に集合した物のことを言い、各種装置、各種記憶部、および、各種機能モジュールが単一の筐体内にあるか否かは特に問わない。 In addition, “system” or “device” as used herein refers to a logical collection of a plurality of functional modules or a plurality of devices that realize a specific function, and includes various devices, various storage units, and It does not matter whether various functional modules are in a single housing.
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.
〔ソフトウェアによる実現例〕
最後に、自走式掃除機1および通信端末装置3の各ブロック、特に、物体認識部50、アクション実行部51、実行結果登録部52、アクション登録部53および走行制御部45、ならびに、アクション取得部75、GUI画面作成部71、アクション設定部76、空間情報取得部73および仮想空間作成部74は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
[Example of software implementation]
Finally, each block of the self-propelled
すなわち、自走式掃除機1および通信端末装置3は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである自走式掃除機1(または通信端末装置3)の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記自走式掃除機1(または通信端末装置3)に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
That is, the self-propelled
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。 Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.
また、自走式掃除機1および通信端末装置3を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR(High Data Rate)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
Moreover, the self-propelled
本発明の機能実行装置は、実空間をセンシングして、基本機能を実行するあらゆる情報処理装置に適用することが可能であるが、好ましくは、実空間を自走して実空間の物体の存否をセンシングする自走式機器(例えば、自走式掃除機など)に適用される。さらに、本発明の機能実行装置によって生成された空間情報は、空間情報利用装置が実空間に対応する仮想空間を作成するために、好適に用いられる。そのため、本発明の機能実行装置は、好ましくは、空間情報利用装置とともに空間情報利用システムに適用される。 The function execution device of the present invention can be applied to any information processing device that senses the real space and executes the basic function. Preferably, the function execution device self-runs in the real space and whether or not an object in the real space exists. It is applied to a self-propelled device that senses (for example, a self-propelled cleaner). Furthermore, the spatial information generated by the function execution device of the present invention is preferably used for the spatial information utilization device to create a virtual space corresponding to the real space. Therefore, the function execution device of the present invention is preferably applied to a spatial information utilization system together with the spatial information utilization device.
1 自走式掃除機(機能実行装置)
2 空間情報記憶部
3 通信端末装置(空間情報利用装置)
4 情報管理サーバ(空間情報利用装置)
5 通信ネットワーク
6 物体特定品目記憶部
7 アクション記憶部
10 制御部
11 通信部(近距離無線通信部)
12 操作パネル
13 記憶部
14 音声出力部
15 走行駆動部
16 駆動輪
16a 回転軸
17 LEDランプ点灯部
18 LEDランプ
19 電圧検出部
20 バッテリー
21 充電端子
22 回転ブラシ駆動部
23 回転ブラシ
24 サイドブラシ駆動部
25 サイドブラシ
26 送風装置
27 イオン発生装置
30 センサ部(センサ)
31 音声入力部(センサ)
32 撮影部(センサ)
33 測距部(センサ)
34 段差検知部(センサ)
35 臭気測定部(センサ)
36 温度測定部(センサ)
37 衝突検知部(センサ)
45 走行制御部
50 物体認識部(物体認識手段)
51 アクション実行部(アクション実行手段)
52 実行結果登録部(実行結果登録手段)
53 アクション登録部(アクション登録手段)
71 GUI画面作成部
73 空間情報取得部(情報取得手段)
74 仮想空間作成部(仮想空間作成手段)
75 アクション取得部(アクション取得手段)
76 アクション設定部(アクション設定手段)
100 仮想部屋利用システム(空間情報利用システム)
102 本体筐体
103 蓋部
105 バンパー
106 吸込口
107 排気口
120 入力部
121 表示部
126 後輪
127 前輪
130 集塵部
310 制御部
311 通信部(近距離無線通信部)
312 操作パネル
313 記憶部
1 Self-propelled vacuum cleaner (function execution device)
2 Spatial information storage unit 3 Communication terminal device (spatial information utilization device)
4 Information management server (spatial information utilization device)
5
DESCRIPTION OF
31 Voice input unit (sensor)
32 Image sensor (sensor)
33 Ranging section (sensor)
34 Step detector (sensor)
35 Odor measuring part (sensor)
36 Temperature measurement unit (sensor)
37 Collision detector (sensor)
45
51 Action execution unit (action execution means)
52 execution result registration unit (execution result registration means)
53 Action registration section (Action registration means)
71 GUI
74 Virtual space creation unit (virtual space creation means)
75 Action acquisition unit (action acquisition means)
76 Action setting section (action setting means)
100 Virtual room use system (space information use system)
102
312
Claims (15)
実空間に存在する物体のうち、当該機能実行装置が自走中に到達した物体を認識する物体認識手段と、
当該機能実行装置が到達した物体に対してアクションを実行するアクション実行手段とを備え、
上記物体認識手段は、上記実空間に存在する各物体の特徴を示す物体情報を記憶する空間情報記憶部を参照して、該空間情報記憶部に記憶されている物体情報の中から、当該機能実行装置が自走中に到達した物体の特徴と類似する物体情報を特定することによって物体を認識し、
上記アクション実行手段は、特定された上記物体情報に関連付けられているアクションを実行することを特徴とする機能実行装置。 In a function execution device that runs in real space and acts on real space,
Object recognition means for recognizing an object that the function execution device has reached during self-running among objects existing in real space;
Action execution means for executing an action on the object reached by the function execution device;
The object recognition means refers to a spatial information storage unit that stores object information indicating the characteristics of each object existing in the real space, and selects the function from the object information stored in the spatial information storage unit. Recognizing an object by identifying object information similar to the object's characteristics that the execution device reached while running,
The function execution device is characterized in that the action execution means executes an action associated with the specified object information.
上記アクション実行手段は、
上記物体認識手段によって特定された上記物体情報に関連付けられているアクションを、当該機能実行装置が基本機能を実行しながら自走しているときに到達した物体に対して実行することを特徴とする請求項1に記載の機能実行装置。 The function execution device executes basic functions while running in real space.
The action execution means is
An action associated with the object information specified by the object recognition means is executed on an object that is reached when the function execution device is running while executing a basic function. The function execution device according to claim 1.
上記アクション実行手段は、
上記アクション実行結果が、上記実行条件に当てはまる場合に、上記追加アクションを実行することを特徴とする請求項3に記載の機能実行装置。 Each object information stored in the spatial information storage unit is further associated with an additional scenario that specifies an additional action and its execution condition,
The action execution means is
The function execution device according to claim 3, wherein the additional action is executed when the action execution result satisfies the execution condition.
上記アクション実行手段が上記追加アクションを実行する場合に、上記対象物体に到達するように当該機能実行装置の走行駆動部を制御する走行制御手段を備えていることを特徴とする請求項4に記載の機能実行装置。 In the above additional scenario, the target object that is the target of the additional action is specified,
The travel control means for controlling the travel drive unit of the function execution device so as to reach the target object when the action execution means performs the additional action. Function execution device.
センサを介して、当該機能実行装置が到達した物体または当該物体の周辺環境の物理的状態を測定することにより上記アクションを実行することを特徴とする請求項1から5までのいずれか1項に記載の機能実行装置。 The action execution means is
6. The action according to claim 1, wherein the action is executed by measuring a physical state of an object reached by the function execution device or a surrounding environment of the object via a sensor. The function execution device described.
近距離無線通信部を介して、当該機能実行装置が到達した物体を遠隔操作する、または、当該物体の論理的状態を取得することにより上記アクションを実行することを特徴とする請求項1から6までのいずれか1項に記載の機能実行装置。 The action execution means is
7. The action is executed by remotely operating an object reached by the function execution device or acquiring a logical state of the object via a short-range wireless communication unit. The function execution device according to any one of the above.
当該機能実行装置が到達した物体または当該物体の周辺環境の物理量を変化させることにより上記アクションを実行することを特徴とする請求項1から7までのいずれか1項に記載の機能実行装置。 The action execution means is
The function execution device according to any one of claims 1 to 7, wherein the action is executed by changing a physical quantity of an object reached by the function execution device or a surrounding environment of the object.
物体の正体を特定する物体特定情報ごとに、当該物体に対して実行可能なアクション群を関連付けた物体特定品目が物体特定品目記憶部に記憶されており、
上記アクション登録手段は、
上記物体特定品目から、上記新規物体に対して実行可能なアクションを選択して、上記新規物体の物体情報に関連付けることを特徴とする請求項1から8までのいずれか1項に記載の機能実行装置。 For a new object newly existing in the real space, when object information is newly registered in the spatial information storage unit, an action to be performed on the new object by the action execution unit is performed on the new object. An action registration means associated with object information;
For each object identification information that identifies the identity of the object, an object identification item that associates an action group that can be executed on the object is stored in the object identification item storage unit,
The action registration means is
The function execution according to any one of claims 1 to 8, wherein an action that can be performed on the new object is selected from the object identification item and associated with object information of the new object. apparatus.
上記機能実行装置が自走する実空間に存在する各物体の物体情報を記憶する上記空間情報記憶部と、
上記空間情報記憶部に記憶されている物体情報を利用して、上記実空間に対応する仮想空間を作成する空間情報利用装置とを含むことを特徴とする空間情報利用システム。 The function execution device according to any one of claims 1 to 9,
The spatial information storage unit that stores object information of each object existing in a real space in which the function execution device runs; and
A spatial information utilization system comprising: a spatial information utilization device that creates a virtual space corresponding to the real space using object information stored in the spatial information storage unit.
上記実空間に存在する各物体の物体情報を上記空間情報記憶部から取得する情報取得手段と、
上記情報取得手段によって取得された各物体情報に基づいて、上記実空間に対応する仮想空間を作成する仮想空間作成手段とを備えていることを特徴とする請求項10に記載の空間情報利用システム。 The spatial information utilization device is
Information acquisition means for acquiring object information of each object existing in the real space from the spatial information storage unit;
11. The space information utilization system according to claim 10, further comprising virtual space creation means for creating a virtual space corresponding to the real space based on each object information acquired by the information acquisition means. .
上記空間情報記憶部において各物体情報に関連付けられているアクションおよびアクション実行結果の少なくともいずれか一方を表す情報を、当該物体の図形とともに上記仮想空間に配置することを特徴とする請求項11に記載の空間情報利用システム。 The virtual space creating means is
12. The information representing at least one of an action and an action execution result associated with each object information in the space information storage unit is arranged in the virtual space together with a graphic of the object. Spatial information utilization system.
実空間に存在する物体のうち、上記機能実行装置が自走中に到達した物体を認識する物体認識ステップと、
上記機能実行装置が到達した物体に対してアクションを実行するアクション実行ステップとを含み、
上記物体認識ステップでは、上記実空間に存在する各物体の特徴を示す物体情報を記憶する空間情報記憶部を参照して、該空間情報記憶部に記憶されている物体情報の中から、上記機能実行装置が自走中に到達した物体の特徴と類似する物体情報を特定することによって物体を認識し、
上記アクション実行ステップでは、特定された上記物体情報に関連付けられているアクションを実行することを特徴とする機能実行方法。 A function execution method by a function execution device that self-runs in real space and acts on real space
An object recognition step of recognizing an object that the function execution device has reached during self-running among objects existing in real space;
An action execution step of executing an action on the object reached by the function execution device,
In the object recognition step, the function is referred to from among the object information stored in the spatial information storage unit with reference to a spatial information storage unit that stores object information indicating characteristics of each object existing in the real space. Recognizing an object by identifying object information similar to the object's characteristics that the execution device reached while running,
In the action execution step, an action associated with the specified object information is executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012119057A JP2013246588A (en) | 2012-05-24 | 2012-05-24 | Function execution device, spatial information utilization system, function execution method, control program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012119057A JP2013246588A (en) | 2012-05-24 | 2012-05-24 | Function execution device, spatial information utilization system, function execution method, control program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013246588A true JP2013246588A (en) | 2013-12-09 |
Family
ID=49846314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012119057A Pending JP2013246588A (en) | 2012-05-24 | 2012-05-24 | Function execution device, spatial information utilization system, function execution method, control program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013246588A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018093535A (en) * | 2018-03-02 | 2018-06-14 | オリンパス株式会社 | Mobile photographing device, photographing apparatus, photographing method, and photographing program |
JP2019021220A (en) * | 2017-07-20 | 2019-02-07 | フラワー・ロボティクス株式会社 | Mobile body platform system |
JP2019050000A (en) * | 2018-10-25 | 2019-03-28 | オリンパス株式会社 | Mobile photographing device, mobile photographing controller, mobile photographing system, photographing method, and photographing program |
JP2019154033A (en) * | 2019-03-06 | 2019-09-12 | オリンパス株式会社 | Mobile photographing apparatus, mobile photographing control apparatus, mobile photographing system, photographing method, and photographing program |
WO2020022122A1 (en) | 2018-07-27 | 2020-01-30 | ソニー株式会社 | Information processing device, action determination method, and program |
US10638028B2 (en) | 2016-11-07 | 2020-04-28 | Olympus Corporation | Apparatus, method, recording medium, and system for capturing coordinated images of a target |
-
2012
- 2012-05-24 JP JP2012119057A patent/JP2013246588A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10638028B2 (en) | 2016-11-07 | 2020-04-28 | Olympus Corporation | Apparatus, method, recording medium, and system for capturing coordinated images of a target |
JP2019021220A (en) * | 2017-07-20 | 2019-02-07 | フラワー・ロボティクス株式会社 | Mobile body platform system |
JP7002744B2 (en) | 2017-07-20 | 2022-01-20 | フラワー・ロボティクス株式会社 | Mobile platform system |
JP2018093535A (en) * | 2018-03-02 | 2018-06-14 | オリンパス株式会社 | Mobile photographing device, photographing apparatus, photographing method, and photographing program |
WO2020022122A1 (en) | 2018-07-27 | 2020-01-30 | ソニー株式会社 | Information processing device, action determination method, and program |
US11986959B2 (en) | 2018-07-27 | 2024-05-21 | Sony Corporation | Information processing device, action decision method and program |
JP2019050000A (en) * | 2018-10-25 | 2019-03-28 | オリンパス株式会社 | Mobile photographing device, mobile photographing controller, mobile photographing system, photographing method, and photographing program |
JP2019154033A (en) * | 2019-03-06 | 2019-09-12 | オリンパス株式会社 | Mobile photographing apparatus, mobile photographing control apparatus, mobile photographing system, photographing method, and photographing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI654961B (en) | Robotics device, terminal device, system for remotely controlling robotics device, and program | |
CN114847803B (en) | Positioning method and device of robot, electronic equipment and storage medium | |
JP2013246588A (en) | Function execution device, spatial information utilization system, function execution method, control program, and recording medium | |
KR101703460B1 (en) | Device for creation of layout information, method for creation of layout information, system for operation of domestic electrical appliances, and self-propelled electronic device | |
JP6054136B2 (en) | Device control device and self-propelled electronic device | |
CN106175606B (en) | The method, apparatus that robot and its realization independently manipulate | |
CN103211557B (en) | Can automatic running equipment and its operation method | |
CN106239517B (en) | The method, apparatus that robot and its realization independently manipulate | |
JP6109477B2 (en) | Self-propelled electronic device, terminal device, and operation system | |
JP6062200B2 (en) | Device control device and self-propelled electronic device | |
JP2018077685A (en) | Autonomous traveling body | |
CN105072966A (en) | Self-propelled vacuum cleaner | |
JP5917298B2 (en) | Self-propelled vacuum cleaner | |
JP2013235351A (en) | Self-propelled electronic equipment | |
TWI597143B (en) | Robot apparatus, control program, and computer-readable recording medium having control program recorded thereon | |
JP2014059737A (en) | Self-propelled device | |
JP2013246589A (en) | Space information generation device, space information use system, space information generation method, control program, and recording medium | |
JP6054123B2 (en) | Layout information creation device, layout information creation method, and self-propelled electronic device | |
CN111401574A (en) | Household appliance, accessory management method and readable medium | |
EP4209754A1 (en) | Positioning method and apparatus for robot, and storage medium | |
JP6051068B2 (en) | Object search system and object search device | |
JP2014144514A (en) | Status display system, status display method, and robot apparatus | |
JP2017041731A (en) | Self-traveling apparatus wireless communication setting system and setting method | |
JP2016185182A (en) | Vacuum cleaner and information display method therefor | |
JP2013233230A (en) | Self-propelled ion-emitting apparatus |