JP7434635B1 - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP7434635B1 JP7434635B1 JP2023051861A JP2023051861A JP7434635B1 JP 7434635 B1 JP7434635 B1 JP 7434635B1 JP 2023051861 A JP2023051861 A JP 2023051861A JP 2023051861 A JP2023051861 A JP 2023051861A JP 7434635 B1 JP7434635 B1 JP 7434635B1
- Authority
- JP
- Japan
- Prior art keywords
- target person
- mobile robot
- output
- voice
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 82
- 238000003672 processing method Methods 0.000 title claims description 4
- 230000033001 locomotion Effects 0.000 claims abstract description 49
- 238000010586 diagram Methods 0.000 abstract description 17
- 238000001514 detection method Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 230000002250 progressing effect Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Toys (AREA)
Abstract
【課題】移動型ロボットの周囲に存在する人が感じる煩わしさを低減させる。【解決手段】情報処理装置2は、移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部231と、移動型ロボットが移動する移動ルート上に存在する人である対象者に対して移動を促す音声を出力するために制御する制御内容であって、前記撮像画像により求められた対象者と移動ルート以外の場所に存在する人である非対象者との相対的な位置関係に基づいて決定された制御内容に基づいて、移動型ロボットを制御する送信部233と、を有する。【選択図】図3[Problem] To reduce the annoyance felt by people around a mobile robot. An information processing device 2 includes an acquisition unit 231 that acquires a captured image of a person present around a mobile robot, and a target person who is a person present on a travel route along which the mobile robot moves. Contents of control to output a sound urging the person to move, the relative position between the target person determined from the captured image and a non-target person who is located at a location other than the movement route. and a transmitter 233 that controls the mobile robot based on the control content determined based on the relationship. [Selection diagram] Figure 3
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
近年、自律して移動する移動型ロボットが普及しつつある。特許文献1には、移動型ロボットが移動中に人や物等の障害物を検出した場合に、当該障害物の移動を促す音声を移動型ロボットに出力させる技術が開示されている。 In recent years, mobile robots that move autonomously have become popular. Patent Document 1 discloses a technique in which, when a mobile robot detects an obstacle such as a person or an object while moving, the mobile robot outputs a voice urging the mobile robot to move the obstacle.
しかしながら、従来の技術においては、移動型ロボットの周囲に複数の人が存在する場合、移動型ロボットが音声を出力しても、誰を移動させたいのかわかりづらく、移動型ロボットの周囲に存在する人にとって移動型ロボットによって出力される音声が煩わしく感じる場合があった。 However, with conventional technology, if there are multiple people around the mobile robot, even if the mobile robot outputs a voice, it is difficult to tell who is the person you want to move. There have been cases in which people find the sounds output by mobile robots to be annoying.
そこで、本発明はこれらの点に鑑みてなされたものであり、移動型ロボットの周囲に存在する人が感じる煩わしさを低減させることを目的とする。 The present invention has been made in view of these points, and it is an object of the present invention to reduce the annoyance felt by people around a mobile robot.
本発明の第1の態様にかかる情報処理装置は、移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部と、前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声を出力するために制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記制御内容に基づいて、前記移動型ロボットを制御するロボット制御部と、を有する。 An information processing device according to a first aspect of the present invention includes an acquisition unit that acquires a captured image of a person existing around a mobile robot, and an acquisition unit that acquires a captured image of a person existing around a mobile robot; Contents of control for outputting a sound urging a human target person to move, the target person being determined from the captured image and a non-human being located at a location other than the movement route. and a robot control unit that controls the mobile robot based on the control content determined based on the relative positional relationship with the subject.
前記情報処理装置は、前記対象者と前記非対象者との相対的な位置関係に基づいて、前記制御内容を決定する決定部をさらに有してもよいし、前記ロボット制御部は、前記決定部が決定した前記制御内容を示す制御情報を前記移動型ロボットに送信することにより、前記移動型ロボットを制御してもよい。 The information processing device may further include a determining unit that determines the content of the control based on a relative positional relationship between the target person and the non-target person, and the robot control unit The mobile robot may be controlled by transmitting control information indicating the control content determined by the mobile robot to the mobile robot.
前記ロボット制御部は、前記対象者と正対する位置が前記音声を出力させる出力位置として決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit may control the mobile robot based on the control content in which a position directly facing the subject is determined as an output position at which the sound is output.
前記ロボット制御部は、前記非対象者よりも前記対象者の方に近い位置が前記音声を出力させる出力位置として決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit may control the mobile robot based on the control content in which a position closer to the target person than to the non-target person is determined as an output position for outputting the sound.
前記ロボット制御部は、前記非対象者と正対する位置よりも前記対象者と正対する位置に近い位置が前記音声を出力させる出力位置として決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit controls the mobile robot based on the control content in which a position closer to a position directly facing the target person than a position directly facing the non-target person is determined as an output position for outputting the sound. May be controlled.
前記ロボット制御部は、前記非対象者よりも前記対象者の方に向いた前記移動型ロボットの向きが前記音声を出力するときの出力向きとして決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit is configured to control the mobile robot based on the control content in which the direction of the mobile robot facing the target person rather than the non-target person is determined as the output direction when outputting the voice. Robots may also be controlled.
前記ロボット制御部は、前記位置関係に基づき、前記対象者から前記非対象者までの距離が所定の閾値を超えていると判定した場合に決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit controls the mobile robot based on the control content determined when it is determined that the distance from the target person to the non-target person exceeds a predetermined threshold based on the positional relationship. may be controlled.
前記ロボット制御部は、前記位置関係に基づき、前記対象者から前記非対象者までの距離が所定の閾値を超えていないと判定した場合、前記移動型ロボットが前記音声を出力しないように制御してもよい。 The robot control unit controls the mobile robot not to output the sound when determining that the distance from the target person to the non-target person does not exceed a predetermined threshold based on the positional relationship. You can.
前記ロボット制御部は、人の属性ごとに定められている複数の音声パターンのうち、前記対象者の属性に対応する前記音声パターンが決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit controls the mobile robot based on the control content in which the voice pattern corresponding to the target person's attribute is determined from among a plurality of voice patterns determined for each person's attribute. You may.
前記ロボット制御部は、前記対象者の属性及び前記非対象者の属性のうち、予め定められた人の属性の優先順位が相対的に高い人の属性に対応する前記音声パターンが決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit is configured to control the robot control unit in which the voice pattern corresponding to the attribute of a person whose priority is relatively high among the attributes of the target person and the attributes of the non-target person is determined. The mobile robot may be controlled based on the control content.
前記取得部は、前記対象者の状態を示す情報を取得してもよいし、前記ロボット制御部は、前記取得部が取得した情報によって示される前記対象者の状態に基づいて決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The acquisition unit may acquire information indicating the condition of the subject, and the robot control unit may control the control determined based on the condition of the subject indicated by the information acquired by the acquisition unit. The mobile robot may be controlled based on the content.
本発明の第2の態様にかかる情報処理方法は、コンピュータが実行する、移動型ロボットの周囲に存在する人が撮像された撮像画像を取得するステップと、前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声を出力するために制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記制御内容に基づいて、前記移動型ロボットを制御するステップと、を有する。 An information processing method according to a second aspect of the present invention includes the steps of acquiring a captured image of a person present around a mobile robot, which is executed by a computer; control content for outputting a voice urging the target person, who is located at the target person, to move, the target person who is located at a location other than the target person determined by the captured image and the travel route; and controlling the mobile robot based on the control content determined based on the relative positional relationship with a non-target person who is a person.
本発明の第3の態様にかかるプログラムは、コンピュータを、移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部、及び前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声を出力するために制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記制御内容に基づいて、前記移動型ロボットを制御するロボット制御部、として機能させる。 A program according to a third aspect of the present invention includes a computer, an acquisition unit that acquires a captured image of a person existing around a mobile robot, and a computer that is located on a travel route along which the mobile robot moves. Control content for outputting a sound urging the target person to move, the target person being located at a location other than the target person determined by the captured image and the movement route. The mobile robot is caused to function as a robot control unit that controls the mobile robot based on the control content determined based on the relative positional relationship with the non-target person.
本発明によれば、移動型ロボットの周囲に存在する人が感じる煩わしさを低減させることができるという効果を奏する。 According to the present invention, it is possible to reduce the annoyance felt by people around a mobile robot.
[情報処理システムSの概要]
図1は、情報処理システムSの概要を説明するための図である。情報処理システムSは、移動型ロボット1を制御するために用いられるシステムである。情報処理システムSは、移動型ロボット1と、情報処理装置2とを有する。
[Overview of information processing system S]
FIG. 1 is a diagram for explaining an overview of the information processing system S. As shown in FIG. The information processing system S is a system used to control the mobile robot 1. The information processing system S includes a mobile robot 1 and an information processing device 2.
移動型ロボット1は、自律して移動するロボットである。移動型ロボット1は、所定の用途(例えば、荷物の配達、掃除、警備等)で使用される。移動型ロボット1は、例えば、予め定められた所定の施設内のルートを移動する。所定の施設は、一以上のエレベータを備える建物であり、例えば、ショッピングモール等の商業施設、マンション等の居住施設又は商業フロアと居住フロアとを含む複合施設等である。移動型ロボット1が移動する移動ルートには、エレベータを介してある階から別の階に移動するルートが含まれる。移動型ロボット1には、周囲の状態を検出するために用いられるカメラ等のように、自律して移動するための各種のセンサが備えられている。移動型ロボット1は、情報処理装置2と通信可能である。 The mobile robot 1 is a robot that moves autonomously. The mobile robot 1 is used for predetermined purposes (eg, package delivery, cleaning, security, etc.). The mobile robot 1 moves along a predetermined route within a predetermined facility, for example. The predetermined facility is a building equipped with one or more elevators, and is, for example, a commercial facility such as a shopping mall, a residential facility such as an apartment, or a complex facility including a commercial floor and a residential floor. The movement route that the mobile robot 1 moves includes a route that moves from one floor to another via an elevator. The mobile robot 1 is equipped with various sensors for autonomous movement, such as a camera used to detect surrounding conditions. The mobile robot 1 is capable of communicating with the information processing device 2 .
情報処理装置2は、移動型ロボット1を制御する装置であり、例えばサーバである。情報処理装置2は、移動型ロボット1と通信可能である。 The information processing device 2 is a device that controls the mobile robot 1, and is, for example, a server. The information processing device 2 is capable of communicating with the mobile robot 1.
移動型ロボット1が移動する移動ルートには、人又は物(例えば、ショッピングカート又はベビーカー等)等の移動を優先させる場所と、移動型ロボット1の移動を優先させる場所(以下、「対象エリア」という。)とが存在する。対象エリアは、例えば、移動型ロボット1がエレベータに搭乗するために待機する場所であって、移動型ロボット1が存在する存在階にエレベータのかごが到着したか否かを移動型ロボット1が検出するための場所である。移動型ロボット1は、例えば、エレベータのドアが開いていることを検出することにより、移動型ロボット1の存在階にエレベータのかごが到着したことを検出する。移動型ロボット1は、情報処理装置2からエレベータのかごが到着したことを示す到着通知を取得したことによって、移動型ロボット1の存在階にエレベータのかごが到着したことを検出してもよい。 The movement route that the mobile robot 1 moves includes a place where the movement of people or objects (for example, shopping carts, strollers, etc.) is given priority, and a place where the movement of the mobile robot 1 is given priority (hereinafter referred to as "target area"). ) exists. The target area is, for example, a place where the mobile robot 1 waits to board an elevator, and the mobile robot 1 detects whether the elevator car has arrived at the floor where the mobile robot 1 is present. It's a place to do. The mobile robot 1 detects that the elevator car has arrived at the floor where the mobile robot 1 is present, for example, by detecting that the elevator door is open. The mobile robot 1 may detect that the elevator car has arrived at the floor where the mobile robot 1 is present by acquiring an arrival notification from the information processing device 2 indicating that the elevator car has arrived.
なお、対象エリアは、移動型ロボット1がエレベータに搭乗するために待機する場所に限らず、移動型ロボット1の存在階に到着したエレベータのかごに搭乗するための場所(例えば、エレベータのドア付近の場所、エレベータのかご内の場所)、移動型ロボット1がエレベータのかごから降機するための場所(例えば、エレベータのドア付近の場所)であってもよい。移動型ロボット1は、対象エリアに移動している場合において、人又は物等の障害物が当該対象エリアに存在する場合、移動型ロボット1が対象エリアに移動することができないため、対象エリアに存在する障害物を移動させる必要がある。 Note that the target area is not limited to the place where the mobile robot 1 waits to board the elevator, but also the place where the mobile robot 1 waits to board the elevator car after arriving at the floor where the mobile robot 1 is located (for example, near the elevator door). (a location within an elevator car), or a location where the mobile robot 1 exits the elevator car (for example, a location near an elevator door). When the mobile robot 1 is moving to the target area, if there are obstacles such as people or objects in the target area, the mobile robot 1 cannot move to the target area. It is necessary to move existing obstacles.
しかしながら、移動型ロボット1が障害物の移動を促す音声を出力しても、その音声が誰に対して発せられた音声であるか分かりづらい場合がある。図1に示す例においては、移動型ロボット1の周囲において、人物H1と、人物H2とが存在する。人物H1は、エリアRに存在する人であって、移動を促す対象の人(以下、「対象者」という。)である。人物H2は、エリアR外に存在する人であって、移動を促す対象ではない人(以下、「非対象者」という。)である。エリアRは、移動型ロボット1がエレベータに搭乗するために待機する対象エリアであり、移動型ロボット1が搭乗するエレベータのドアDの近くに設けられている。 However, even if the mobile robot 1 outputs a voice prompting the user to move an obstacle, it may be difficult to know to whom the voice is directed. In the example shown in FIG. 1, a person H1 and a person H2 exist around the mobile robot 1. The person H1 is a person who exists in the area R and is a target person (hereinafter referred to as a "target person") who is encouraged to move. The person H2 is a person who exists outside the area R and is not a target for movement (hereinafter referred to as a "non-target person"). Area R is a target area where the mobile robot 1 waits to board the elevator, and is provided near the door D of the elevator on which the mobile robot 1 boards.
移動型ロボット1が移動を促す音声を出力する場合、移動させたい人物H1が自身に向けて発せられた音声であると認識させ、移動させたい人ではない人物H2が自身に向けて発せられた音声ではないと認識させることが望ましい。例えば、移動型ロボット1が位置P1で音声を出力した場合、移動型ロボット1及び人物H1の距離感と、移動型ロボット1及び人物H2の距離感とが似ているため、移動する必要が無い人物H2が自身に向けて発せられた音声であると勘違する蓋然性が高くなってしまう。一方、移動型ロボット1が位置P2で音声を出力した場合、移動型ロボット1及び人物H2の距離感より、移動型ロボット1及び人物H1の距離感の方が近いため、人物H2が自身に向けて発せられた音声であると勘違いする蓋然性が低くなる。 When the mobile robot 1 outputs a voice urging movement, the person H1 to be moved recognizes that the voice is directed toward itself, and the person H2 who is not the person to be moved recognizes that the voice is directed toward itself. It is desirable to recognize that it is not a voice. For example, when the mobile robot 1 outputs a sound at the position P1, there is no need to move because the sense of distance between the mobile robot 1 and the person H1 is similar to that between the mobile robot 1 and the person H2. There is a high probability that the person H2 will misunderstand the voice as being directed at him/herself. On the other hand, when the mobile robot 1 outputs sound at position P2, the sense of distance between the mobile robot 1 and the person H1 is closer than that between the mobile robot 1 and the person H2. The probability of mistaking the sound for being uttered by someone else is lowered.
このように、移動型ロボット1が音声を出力する位置に応じて、移動型ロボット1が出力した音声が誰に対して発せられた音声であるかの分かりやすさが変わるため、移動型ロボット1が音声を出力する場合においては、移動型ロボット1が音声を出力する位置を考慮する必要がある。そこで、情報処理システムSは、移動型ロボット1の周囲に存在する複数の人の位置関係に応じて移動型ロボット1を制御する。
以下、情報処理システムSが実行する処理の流れについて説明する。
In this way, the ease of understanding to whom the sound output by the mobile robot 1 is directed changes depending on the position where the mobile robot 1 outputs the sound. When the mobile robot 1 outputs sound, it is necessary to consider the position where the mobile robot 1 outputs the sound. Therefore, the information processing system S controls the mobile robot 1 according to the positional relationship of the plurality of people around the mobile robot 1.
The flow of processing executed by the information processing system S will be described below.
まず、情報処理装置2は、移動型ロボット1から撮像画像を取得する(図1における(1))。撮像画像は、移動型ロボット1の周囲に存在する人が撮像された画像である。 First, the information processing device 2 acquires a captured image from the mobile robot 1 ((1) in FIG. 1). The captured image is an image of a person present around the mobile robot 1.
情報処理装置2は、移動型ロボット1から取得した撮像画像に含まれる人物H1及び人物H2の相対的な位置関係に基づいて、移動型ロボット1の制御内容を決定する(図1における(2))。制御内容は、移動型ロボット1が対象者に対して移動を促す音声を出力するために制御する内容である。制御内容は、例えば、移動型ロボット1に音声を出力させる位置に移動させる動作に関する制御内容(例えば、図1に示す位置P2、又は移動型ロボット1を位置P2に移動させるためのルート等)である。 The information processing device 2 determines the control content of the mobile robot 1 based on the relative positional relationship between the person H1 and the person H2 included in the captured image acquired from the mobile robot 1 ((2 in FIG. 1) ). The control content is the content by which the mobile robot 1 is controlled to output a voice urging the target person to move. The control content is, for example, control content related to an operation of moving the mobile robot 1 to a position where it is to output audio (for example, position P2 shown in FIG. 1, or a route for moving the mobile robot 1 to position P2, etc.). be.
そして、情報処理装置2は、決定した制御内容に基づいて、移動型ロボット1を制御する(図1における(3))。図1に示す例において、移動型ロボット1は、動作に関する制御内容に基づいて位置P2に移動して音声を出力する。このようにすることで、情報処理システムSは、移動型ロボット1が出力した音声が誰に対して発せられたかがわかりやすくなり、移動型ロボット1の周囲に存在する人が感じる煩わしさを低減させることができる。 The information processing device 2 then controls the mobile robot 1 based on the determined control details ((3) in FIG. 1). In the example shown in FIG. 1, the mobile robot 1 moves to a position P2 and outputs sound based on the control details regarding the movement. By doing so, the information processing system S makes it easier to understand to whom the voice outputted by the mobile robot 1 is directed, and reduces the annoyance felt by people around the mobile robot 1. be able to.
なお、移動型ロボット1が、情報処理装置2の機能を有してもよい。この場合、移動型ロボット1は、対象者及び非対象者の相対的な位置関係に基づいて制御内容を決定し、決定した制御内容に基づいて動作する。
以下、移動型ロボット1及び情報処理装置2の構成について説明する。
Note that the mobile robot 1 may have the functions of the information processing device 2. In this case, the mobile robot 1 determines the control content based on the relative positional relationship of the target person and the non-target person, and operates based on the determined control content.
The configurations of the mobile robot 1 and the information processing device 2 will be described below.
[移動型ロボット1の構成]
図2は、移動型ロボット1の機能構成を模式的に示す図である。移動型ロボット1は、撮像部11と、音声出力部12と、駆動部13と、通信部14と、記憶部15と、制御部16とを有する。図2において、矢印は主なデータの流れを示しており、図2に示していないデータの流れがあってもよい。図2において、各機能ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示す機能ブロックは単一の装置内に実装されてもよく、あるいは複数の装置内に分かれて実装されてもよい。機能ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてもよい。
[Configuration of mobile robot 1]
FIG. 2 is a diagram schematically showing the functional configuration of the mobile robot 1. As shown in FIG. The mobile robot 1 includes an
撮像部11は、撮像画像を撮像するカメラである。音声出力部12は、音声を出力するスピーカである。駆動部13は、車輪等を駆動させることによって移動型ロボット1を移動させるためのモータ及びギヤ等を含む伝動装置である。通信部14は、ネットワークに接続するための通信インターフェースであり、外部の端末及び外部のサーバからデータを受信するための通信コントローラを有する。
The
記憶部15は、移動型ロボット1を実現するコンピュータのBIOS(Basic Input Output System)等を格納するROM(Read Only Memory)や移動型ロボット1の作業領域となるRAM(Random Access Memory)、OS(Operating System)やアプリケーションプログラム、当該アプリケーションプログラムの実行時に参照される種々の情報を格納するHDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置である。
The
記憶部15は、移動型ロボット1が移動する移動ルートを示す情報を記憶している。移動ルートには、対象エリアが含まれる。なお、移動ルートを示す情報は、記憶部15に記憶されていなくてもよい。例えば、移動型ロボット1は、情報処理装置2が算出した移動ルート(進行方向)に応じて移動してもよい。また、例えば、記憶部15には、施設の構内情報と、移動型ロボット1の目的地を示す情報とが記憶されており、移動型ロボット1は、構内情報と目的地とに基づいて算出した移動ルート(進行方向)に応じて移動してもよい。
The
制御部16は、移動型ロボット1のCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサであり、記憶部15に記憶されたプログラムを実行することによって、検出部161、送信部162、取得部163及びロボット制御部164として機能する。
The
検出部161は、撮像部11が撮像した撮像画像を取得し、取得した撮像画像を解析して当該撮像画像に含まれる被写体(物体)を検出する。検出部161は、例えば、撮像画像に含まれる物体ごとに、当該撮像画像が撮像された位置に対する当該物体の相対的な位置を検出する。
The detection unit 161 acquires a captured image captured by the
また、検出部161は、撮像部11が撮像した撮像画像の解析又はレーダによるセンシング等に基づいて、移動ルート、すなわち、移動型ロボット1の進行方向、又は移動型ロボット1が存在する場所等を検出する。検出部161は、進行方向を検出した後において、当該進行方向に障害物が存在することを検出した場合、当該障害物を回避するための新たな進行方向を検出してもよい。
Furthermore, the detection unit 161 determines the movement route, that is, the direction of movement of the mobile robot 1, the location where the mobile robot 1 is located, etc., based on analysis of the captured image captured by the
送信部162は、対象エリアに障害物が存在する場合に、障害物の移動を促す移動型ロボット1の制御を行うための制御要求を情報処理装置2に送信する。制御要求には、検出部161が検出した障害物を含む撮像画像、具体的には、対象者と非対象者とを含む撮像画像が含まれる。制御要求には、対象者及び非対象者それぞれの位置を示す情報、移動型ロボット1の位置座標等がさらに含まれてもよい。対象者及び非対象者それぞれの位置を示す情報は、例えば、移動型ロボット1が備えるLiDAR(Light Detection And Ranging)等の不図示の距離測定センサが測定した情報である。
The transmitting
具体的には、送信部162は、検出部161が対象エリアに障害物が存在することを検出した場合に、制御要求を情報処理装置2に送信する。送信部162は、対象エリアに障害物が存在する場合に、所定の間隔で制御要求を情報処理装置2に送信してもよい。
Specifically, the transmitting
ロボット制御部164は、移動型ロボット1を制御する。ロボット制御部164は、例えば、移動型ロボット1の制御として、音声出力部12による音声の出力と、駆動部13による移動型ロボット1の移動とを制御する。ロボット制御部164は、例えば、駆動部13を介して、検出部161が検出した進行方向に移動型ロボット1を移動させる。
The
また、ロボット制御部164は、対象エリアに障害物が存在する場合に、当該障害物の移動を促す音声を出力するために制御する制御内容に基づいて、移動型ロボット1を制御する。具体的には、まず、取得部163は、送信部162が情報処理装置2に制御要求を送信したことに応じて当該情報処理装置2が送信した制御情報を取得する。制御情報は、制御内容を示す情報であり、例えば、動作に関する制御内容(例えば、出力位置等)を示す情報が含まれる。
Furthermore, when an obstacle exists in the target area, the
そして、ロボット制御部164は、取得部163が取得した制御情報によって示される制御内容に基づいて、移動型ロボット1を制御する。ロボット制御部164は、例えば、駆動部13を介して動作に関する制御内容によって示される出力位置に移動型ロボット1を移動させて、音声を音声出力部12に出力させる。
Then, the
ロボット制御部164は、例えば、予め定められた音声を音声出力部12に出力させる。ロボット制御部164は、制御情報によって示される制御内容に基づく音声を音声出力部12に出力させてもよい。この場合における制御情報には、音声に関する制御内容を示す情報が含まれる。
For example, the
[情報処理装置2の構成]
図3は、情報処理装置2の機能構成を模式的に示す図である。情報処理装置2は、通信部21と、記憶部22と、制御部23とを備える。図3において、矢印は主なデータの流れを示しており、図3に示していないデータの流れがあってもよい。図3において、各機能ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図3に示す機能ブロックは単一の装置内に実装されてもよく、あるいは複数の装置内に分かれて実装されてもよい。機能ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてもよい。
[Configuration of information processing device 2]
FIG. 3 is a diagram schematically showing the functional configuration of the information processing device 2. As shown in FIG. The information processing device 2 includes a
通信部21は、ネットワークに接続するための通信インターフェースであり、外部の端末及び外部のサーバからデータを受信するための通信コントローラを有する。
The
記憶部22は、情報処理装置2を実現するコンピュータのBIOS等を格納するROMや情報処理装置2の作業領域となるRAM、OSやアプリケーションプログラム、当該アプリケーションプログラムの実行時に参照される種々の情報を格納するHDDやSSD等の大容量記憶装置である。
The
制御部23は、情報処理装置2のCPUやGPU等のプロセッサであり、記憶部22に記憶されたプログラムを実行することによって、取得部231、決定部232及び送信部233として機能する。
The
取得部231は、移動型ロボット1の周囲に存在する人が撮像された撮像画像を取得する。具体的には、取得部231は、移動型ロボット1から、撮像画像を含む制御要求を取得する。取得部231は、所定の間隔で、移動型ロボット1から制御要求を取得してもよい。
The
送信部233は、ロボット制御部として機能し、移動型ロボット1が移動する移動ルート上に存在する人である対象者に対して移動を促す音声を出力するために制御する制御内容であって、対象者と、移動ルート以外の場所に存在する人である非対象者との相対的な位置関係に基づいて決定された制御内容に基づいて、移動型ロボット1を制御する。具体的には、情報処理装置2は、以下の2つのステップを実行することにより、移動型ロボット1を制御する。
The transmitting
第1のステップとして、決定部232は、取得部231が取得した撮像画像により求められた対象者と非対象者との相対的な位置関係に基づいて、制御内容を決定する。例えば、まず、取得部231が制御要求を取得すると、決定部232は、当該制御要求に含まれる撮像画像を解析して、対象者の位置と、非対象者の位置とを特定する。そして、決定部232は、特定した対象者と非対象者との相対的な位置関係に基づいて、動作に関する制御内容(例えば、音声を出力させる出力位置等)を決定する。決定部232は、制御要求に含まれる対象者及び非対象者それぞれの位置を示す情報によって特定される対象者と非対象者との相対的な位置関係に基づいて、動作に関する制御内容を決定してもよい。
As a first step, the determining
決定部232は、複数の非対象者それぞれの位置を特定した場合、複数の非対象者の中から選択した非対象者と対象者との相対的な位置関係に基づいて制御内容を決定してもよい。決定部232は、例えば、対象者の位置に相対的に近い位置に存在する非対象者(例えば、対象者の位置に最も近い位置に存在する非対象者)を選択する。
When determining the positions of each of the plurality of non-target persons, the determining
なお、情報処理装置2が、移動型ロボット1の検出部161の機能を有してもよい。例えば、制御部23は、不図示の検出部を有する。この場合において、まず、取得部231は、移動型ロボット1の撮像部11が撮像した撮像画像を取得する。情報処理装置2の検出部は、取得部231が取得した撮像画像を解析して、当該撮像画像に含まれる物体と、移動型ロボット1の進行方向を検出する。そして、決定部232は、検出部が対象エリアに障害物が存在することを検出したことを契機として制御内容を決定する。
Note that the information processing device 2 may have the function of the detection unit 161 of the mobile robot 1. For example, the
第2のステップとして、送信部233は、決定部232が決定した制御内容を示す制御情報を移動型ロボット1に送信することにより、移動型ロボット1を制御する。移動型ロボット1において、取得部163が制御情報を取得すると、ロボット制御部164は、当該制御情報に含まれる動作に関する制御内容に基づく出力位置に移動して、音声を音声出力部12に出力させる。
As a second step, the transmitting
出力位置においては、移動型ロボット1が対象者と向き合った状態で音声を出力すると、対象者に対して発せられた音声であることが分かりやすくなる。そこで、情報処理装置2は、対象者と正対する位置で移動型ロボット1に音声を出力させる。 At the output position, when the mobile robot 1 outputs the voice while facing the target person, it becomes easy to understand that the voice is directed toward the target person. Therefore, the information processing device 2 causes the mobile robot 1 to output voice at a position facing the target person.
具体的には、送信部233は、対象者と正対する位置が音声を出力させる出力位置として決定された制御内容に基づいて、移動型ロボット1を制御する。まず、決定部232は、対象者と正対する位置を出力位置(動作に関する制御内容)として決定する。決定部232は、例えば、取得部231が取得した撮像画像を解析して、対象者と正対する位置であって、非対象者とは正対しない位置を出力位置として決定する。
Specifically, the transmitting
そして、送信部233は、決定部232が決定した出力位置を示す制御情報を移動型ロボット1に送信することにより、移動型ロボット1に対して対象者と正対する位置に移動させて音声を出力させる。このようにすることで、情報処理装置2は、移動型ロボット1が出力する音声が対象者に対して発せられる音声であることをわかりやすくすることができる。
Then, the transmitting
なお、対象者と正対する位置に人や物が存在する場合、移動型ロボット1は、対象者と正対する位置で音声を出力することができない。この場合、情報処理装置2は、移動型ロボット1に対して対象者に近い位置で音声を出力させてもよい。 Note that if there is a person or object at a position directly facing the target person, the mobile robot 1 cannot output sound at the position directly facing the target person. In this case, the information processing device 2 may cause the mobile robot 1 to output audio at a position close to the target person.
具体的には、送信部233は、非対象者よりも対象者の方に近い位置が音声を出力させる出力位置として決定された制御内容に基づいて、移動型ロボット1を制御する。まず、決定部232は、非対象者よりも対象者の方が近い位置を出力位置として決定する。決定部232は、例えば、取得部231が取得した撮像画像を解析して、対象者と正対する位置に障害物(例えば、非対象者、又は非対象者以外の物等)が存在する場合に、非対象者よりも対象者の方が近い位置を出力位置として決定する。そして、送信部233は、決定部232が決定した出力位置を示す制御情報を移動型ロボット1に送信することにより、移動型ロボット1に対して非対象者よりも対象者の方が近い位置に移動させて音声を出力させる。
Specifically, the transmitting
図4は、移動型ロボット1の周囲の状態を模式的に表した図である。図4に示す例においては、対象エリアであるエリアRに存在する対象者である人物H1と正対する位置に非対象者である人物H2が存在している。この場合において、決定部232は、人物H2よりも人物H1の方が近い位置P3を出力位置として決定する。そして、送信部233は、移動型ロボット1に対して位置P3に移動させて音声を出力させる。このようにすることで、情報処理装置2は、移動型ロボット1が出力する音声が対象者に向けた音声であることをわかりやすくすることができる。
FIG. 4 is a diagram schematically showing the state around the mobile robot 1. As shown in FIG. In the example shown in FIG. 4, a person H2 who is a non-target person exists in a position directly facing a person H1 who is a target person who exists in area R which is a target area. In this case, the determining
情報処理装置2は、対象者と正対する位置に近い位置で移動型ロボット1に音声を出力させてもよい。具体的には、送信部233は、非対象者と正対する位置よりも対象者と正対する位置に近い位置が音声を出力させる出力位置として決定された制御内容に基づいて、移動型ロボット1を制御する。
The information processing device 2 may cause the mobile robot 1 to output audio at a position close to the position facing the target person. Specifically, the
まず、決定部232は、非対象者と正対する位置よりも対象者と正対する位置の方が近い位置を出力位置として決定する。そして、送信部233は、決定部232が決定した出力位置を示す制御情報を移動型ロボット1に送信することにより、移動型ロボット1に対して非対象者と正対する位置よりも対象者と正対する位置の方が近い位置に移動させて音声を出力させる。
First, the
図5は、移動型ロボット1の周囲の状態を模式的に表した図である。図5に示す例においては、対象者である人物H1と非対象者である人物H2とが、それぞれ矢印で示す方向に向いている。この場合において、決定部232は、非対象者と正対する位置よりも対象者と正対する位置の方が近い位置P4を出力位置として決定する。そして、送信部233は、移動型ロボット1に対して位置P4に移動させて音声を出力させる。このようにすることで、情報処理装置2は、移動型ロボット1が出力する音声が対象者に向けた音声であることをわかりやすくすることができる。
FIG. 5 is a diagram schematically showing the state around the mobile robot 1. As shown in FIG. In the example shown in FIG. 5, a person H1 who is a target person and a person H2 who is a non-target person are facing the directions shown by the arrows. In this case, the determining
情報処理装置2は、出力位置だけではなく、移動型ロボット1が音声を出力するときの出力向きを考慮してしてもよい。具体的には、送信部233は、非対象者よりも対象者の方に向いた移動型ロボット1の向きが音声を出力するときの出力向きとして決定された制御内容に基づいて、移動型ロボット1を制御する。
The information processing device 2 may consider not only the output position but also the output direction when the mobile robot 1 outputs the sound. Specifically, the transmitting
まず、決定部232は、非対象者よりも対象者の方に向いた移動型ロボット1の向きを出力向きとして決定する。そして、送信部233は、送信部233は、決定部232が決定した出力位置及び出力向きを示す制御情報を移動型ロボット1に送信することにより、移動型ロボット1に対して、出力位置に移動させ、かつ、非対象者よりも対象者の方に向いた出力向きで音声を出力させる。
First, the determining
図6は、移動型ロボット1の周囲の状態を模式的に表した図である。図6に示す例において、決定部232は、非対象者よりも対象者の方が近い位置P5を出力位置として決定し、非対象者よりも対象者の方に向いた向きDを出力向きとして決定する。そして、送信部233は、移動型ロボット1に対して、位置P5に移動させ、かつ向きDに向かせて音声を出力させる。このようにすることで、情報処理装置2は、移動型ロボット1が出力する音声が対象者に向けた音声であることをわかりやすくすることができる。
FIG. 6 is a diagram schematically showing the state around the mobile robot 1. As shown in FIG. In the example shown in FIG. 6, the determining
情報処理装置2は、移動型ロボット1に対して、移動型ロボット1の周囲に存在する人に基づく音声を出力させてもよい。例えば、まず、決定部232は、取得部231が制御要求を取得した場合、さらに、対象者の移動を促すための音声に関する制御内容を決定する。音声に関する制御内容は、例えば、音声の内容、音量、音声の速度等である。例えば、情報処理装置2には、対象者の移動を促すための音声に関する制御内容が予め定められている。そして、送信部233は、動作に関する制御内容と、音声に関する制御内容とを含む制御情報を移動型ロボット1に送信することにより、移動型ロボット1に対して、動作に関する制御内容に基づいて出力位置に移動させて、音声に関する制御内容に基づいて音声を出力させる。
The information processing device 2 may cause the mobile robot 1 to output a voice based on people existing around the mobile robot 1. For example, first, when the
例えば、記憶部22には、音声に関する制御内容を示す音声データが記憶されている。この場合において、送信部233は、対象者の移動を促すための音声に対応する音声データを含む制御情報を移動型ロボット1に送信することにより、当該音声データに基づく音声を移動型ロボット1に出力させる。
For example, the
音声データにおいては、移動型ロボット1の記憶部15に記憶されていてもよい。この場合、まず、送信部233は、対象者の移動を促すための音声に対応する音声データを識別するための音声識別情報を含む制御情報を移動型ロボット1に送信する。そして、移動型ロボット1において、取得部163が制御情報を取得すると、ロボット制御部164は、記憶部15に記憶されている複数の音声データのうち、制御情報に含まれる音声識別情報によって特定される音声データに基づく音声を音声出力部12に出力させる。
The audio data may be stored in the
ここで、高齢者と若年者とでは、聞き取りやすい音量が異なる場合がある。そこで、情報処理装置2は、移動型ロボット1に対して対象者の属性に応じた音声パターンで音声を出力させてもよい。音声パターンは、例えば、音声の種類、音声の速度、音量のうちの少なくとも一部の音声のパターンである。例えば、情報処理装置2には、人の属性ごとに音声パターンが定められており、例えば、子供には、アニメのキャラクター(音声の種類)の音声パターンが定められており、高齢者には、遅い音声(音声の速度)、大きい音量の音声パターンが定められている。 Here, the volume that is easy to hear may differ between elderly people and young people. Therefore, the information processing device 2 may cause the mobile robot 1 to output a voice in a voice pattern according to the attributes of the target person. The audio pattern is, for example, a pattern of at least some of the types of audio, the speed of audio, and the volume of audio. For example, in the information processing device 2, voice patterns are defined for each person's attributes; for example, voice patterns of anime characters (types of voice) are defined for children, and voice patterns for elderly people are defined. A voice pattern with slow voice (voice speed) and high volume is defined.
この場合において、送信部233は、人の属性ごとに定められている複数の音声パターンのうち、対象者の属性に対応する音声パターンが決定された制御内容に基づいて、移動型ロボット1を制御する。具体的には、まず、決定部232は、制御内容として、人の属性ごとに定められている複数の音声パターンのうち、対象者の属性に対応する音声パターンを決定する。決定部232は、取得部231が取得した撮像画像を解析して、対象者の属性を特定する。
In this case, the transmitting
そして、送信部233は、決定部232が決定した音声パターンを示す情報(例えば、音声データ、又は音声識別情報)を移動型ロボット1に送信することにより、移動型ロボット1に対して、決定部232が決定した音声パターンで音声を出力させる。このようにすることで、情報処理装置2は、対象者に聞き取りやすい音声を移動型ロボット1に出力させることができる。
Then, the transmitting
なお、対象エリアにおいて複数の人が存在する場合、移動型ロボット1に対して、当該複数の人それぞれが聞き取りやすい音声パターンで音声を出力させることが望ましい。そこで、情報処理装置2は、移動型ロボット1に対して各人の属性の優先順位に応じた音声パターンで音声を出力させてもよい。例えば、情報処理装置2には、人の属性の優先順位(例えば、高齢者においては優先順位が高く、若年者においては優先順位が低い等)が予め定められている。 Note that when a plurality of people are present in the target area, it is desirable that the mobile robot 1 outputs audio in a voice pattern that is easy for each of the plurality of people to hear. Therefore, the information processing device 2 may cause the mobile robot 1 to output a voice in a voice pattern according to the priority order of each person's attributes. For example, the information processing device 2 has a predetermined priority order of attributes of people (for example, an elderly person has a high priority, a young person has a low priority, etc.).
この場合において、送信部233は、対象者の属性及び非対象者の属性のうち、予め定められた人の属性の優先順位が相対的に高い人の属性に対応する音声パターンが決定された制御内容に基づいて、移動型ロボット1を制御する。具体的には、まず、決定部232は、対象者の属性及び非対象者の属性のうち、予め定められた人の属性の優先順位が相対的に高い人の属性に対応する音声パターンを決定する。決定部232は、例えば、取得部231が取得した撮像画像を解析して、対象者及び非対象者それぞれの属性を特定し、特定した対象者の属性及び非対象者の属性のうち、優先順位が相対的に高い人の属性に対応する音声パターンを決定する。
In this case, the transmitting
そして、送信部233は、決定部232が決定した音声パターンを示す情報を移動型ロボット1に送信することにより、移動型ロボット1に対して、決定部232が決定した音声パターンで音声を出力させる。このようにすることで、情報処理装置2は、移動型ロボット1の周囲に存在する各人の属性の優先順位に応じた音声パターンで音声を出力させることができる。
Then, the transmitting
移動型ロボット1が、上記のように決定された出力位置で音声を出力しても、対象者から非対象者までの距離に応じて、誰に対して発せられた音声であるかの分かりやすさが異なる場合がある。例えば、対象者から非対象者までの距離が離れている場合においては、非対象者が自身に向けて発せられた音声であると勘違する蓋然性が低いが、対象者から非対象者までの距離が近い場合においては、非対象者が自身に向けて発せられた音声であると勘違する蓋然性が高くなってしまう。そこで、情報処理装置2は、対象者から非対象者までの距離に応じて、移動型ロボット1に対して音声を出力させてもよい。 Even if the mobile robot 1 outputs sound at the output position determined as above, it is easy to understand to whom the sound is being emitted depending on the distance from the target person to the non-target person. may differ. For example, if the target person is far away from the non-target person, there is a low probability that the non-target person will misunderstand the sound as being directed at him or herself, but If the distance is short, there is a high probability that the non-target person will misunderstand the sound as being directed at him/herself. Therefore, the information processing device 2 may cause the mobile robot 1 to output audio depending on the distance from the target person to the non-target person.
具体的には、送信部233は、対象者と非対象者との相対的な位置関係に基づき、対象者から非対象者までの距離が所定の閾値を超えていると判定した場合に決定された制御内容に基づいて、移動型ロボット1を制御する。所定の閾値は、対象者から非対象者までの距離が近いか否かを判定するために定められた値である。決定部232は、対象者から非対象者までの距離が所定の閾値を超えている場合、移動型ロボット1に音声に出力させるための音声に関する制御内容を決定する。
Specifically, the
一方、送信部233は、対象者と非対象者との相対的な位置関係に基づき、対象者から非対象者までの距離が所定の閾値を超えていないと判定した場合、移動型ロボット1が音声を出力しないように制御する。具体的には、決定部232が、対象者から非対象者までの距離が所定の閾値を超えていないと判定した場合、送信部233は、移動型ロボット1が音声を出力しないように制御する。
On the other hand, if the
図7は、移動型ロボット1の周囲の状態を模式的に表した図である。図7に示す例においては、対象エリアであるエリアRに対象者である人物H1が存在し、エリアR外に非対象者である人物H2及び人物H3が存在している。図7(a)に示す例においては、人物H1から人物H2までの距離と、人物H1から人物H3までの距離とがそれぞれ所定の閾値を超えている。この場合において、決定部232は、人物H2及び人物H3よりも人物H1の方が近い位置P6を出力位置として決定し、移動型ロボット1に出力させる音声に関する制御内容を決定する。そして、送信部233は、移動型ロボット1に対して、位置P6に移動させて、音声に関する制御内容に基づく音声を出力させる。
FIG. 7 is a diagram schematically showing the state around the mobile robot 1. As shown in FIG. In the example shown in FIG. 7, a person H1 who is a target person exists in area R which is a target area, and a person H2 and a person H3 who are non-target people exist outside area R. In the example shown in FIG. 7A, the distance from person H1 to person H2 and the distance from person H1 to person H3 each exceed a predetermined threshold. In this case, the determining
図7(b)に示す例においては、人物H1から人物H2までの距離と、人物H1から人物H3までの距離とがそれぞれ所定の閾値を超えていない。この場合において、決定部232は、人物H2及び人物H3よりも人物H1の方が近い位置P6を出力位置として決定する。なお、移動型ロボット1が音声を出力しないように送信部233が制御する場合、移動型ロボット1による音声の出力の禁止を決定してもよい。そして、送信部233は、移動型ロボット1に対して、位置P6に移動させるが、音声を出力させない。このようにすることで、情報処理装置2は、移動型ロボット1が出力する音声が誰に向けた音声であることをわかりづらい事態の発生を防ぐことができる。
In the example shown in FIG. 7B, the distance from person H1 to person H2 and the distance from person H1 to person H3 do not exceed predetermined thresholds. In this case, the determining
移動型ロボット1が、上記のように決定された出力位置で音声を出力しても、対象者が当該音声を聞き取れない場合がある。例えば、対象者がイヤホンやヘッドホン等を装着していたり、スマートフォン等で通話していたりする場合、移動型ロボット1が小さい音量で音声を出力しても、対象者が当該音声を聞き取れない可能性がある。そこで、決定部232は、対象者の状態に応じて制御内容を決定してもよい。
Even if the mobile robot 1 outputs sound at the output position determined as described above, the subject may not be able to hear the sound. For example, if the target person is wearing earphones or headphones, or is talking on a smartphone, etc., even if the mobile robot 1 outputs audio at a low volume, the target person may not be able to hear the audio. There is. Therefore, the determining
具体的には、まず、取得部231は、対象者の状態を示す状態情報を取得する。状態情報は、撮像画像であってもよいし、移動型ロボット1が備える不図示のマイクが集音した対象者の音声であってもよい。そして、送信部233は、取得部231が取得した状態情報によって示される対象者の状態に基づいて決定された制御内容に基づいて、移動型ロボット1を制御する。より具体的には、まず、決定部232は、取得部231が取得した状態情報に基づいて(例えば、撮像画像の解析、対象者の発話の有無等)することによって、対象者の状態を特定する。そして、決定部232は、特定した対象者の状態に基づいて、制御内容を決定する。
Specifically, first, the
決定部232は、例えば、対象者がイヤホンなどの機器を装着している場合、音声に関する制御内容として音量を大きく決定する。このようにすることで、情報処理装置2は、対象者の状態に応じた制御内容で移動型ロボット1に音声を出力させることができる。
For example, when the subject is wearing a device such as earphones, the determining
なお、対象者が通話中又は会話中である場合、移動型ロボット1が音声を出力して対象者の通話又は会話を妨げてしまうと、対象者が不快に感じてしまう場合があるため、決定部232は、対象者が通話中又は会話中である場合、制御内容として移動型ロボット1による音声の出力の禁止を決定してもよい。
Note that when the target person is on the phone or having a conversation, if the mobile robot 1 outputs audio and interrupts the target person's call or conversation, the target person may feel uncomfortable. When the target person is on the phone or having a conversation, the
情報処理装置2は、移動型ロボット1が制御内容に基づいて音声を出力させても対象エリアに対象者が存在する場合、移動型ロボット1による音声の出力を中止させてもよい。具体的には、決定部232は、決定した第1制御内容に基づく音声の出力の中止を第2制御内容として決定する。このようにすることで、情報処理装置2は、移動型ロボット1が音声の出力を繰り返すことによって人に与え得る不快感が増大することを防ぐことができる。また、情報処理装置2は、移動型ロボット1が出力する音声が聞き取れない人(例えば、聴覚に障害がある人等)又は移動型ロボット1が出力する音声の言語が理解できない人(例えば、外国人等)に対して繰り返し移動を促すことを防ぐことができる。
The information processing device 2 may cause the mobile robot 1 to stop outputting the sound if the target person is present in the target area even if the mobile robot 1 outputs the sound based on the control details. Specifically, the determining
[情報処理システムSの処理]
続いて、情報処理システムSの処理の流れについて説明する。図8は、情報処理システムSの処理の流れを示すシーケンス図である。本処理は、移動型ロボット1において、検出部161が、対象エリアに障害物が存在することを検出したことを契機として開始する(S1)。送信部162は、検出部161が対象エリアに障害物が存在することを検出すると、制御要求を情報処理装置2に送信する(S2)。
[Processing of information processing system S]
Next, the flow of processing of the information processing system S will be explained. FIG. 8 is a sequence diagram showing the flow of processing of the information processing system S. This process starts when the detection unit 161 of the mobile robot 1 detects the presence of an obstacle in the target area (S1). When the detection unit 161 detects that an obstacle exists in the target area, the
情報処理装置2において、取得部231が移動型ロボット1から制御要求を取得すると、決定部232は、当該制御要求に含まれる撮像画像を解析することによって特定される対象者及び非対象者の位置関係に基づいて、制御内容を決定する(S3)。送信部233は、決定部232が決定した制御内容を含む制御情報を移動型ロボット1に送信する(S4)。
In the information processing device 2, when the
そして、移動型ロボット1において、取得部163が制御情報を取得すると、ロボット制御部164は、当該制御情報に含まれる出力位置に移動して音声を音声出力部12に出力させることにより、移動型ロボット1を制御する(S5)。
In the mobile robot 1, when the
[本実施の形態における効果]
以上説明したとおり、情報処理装置2は、対象者及び非対象者の位置関係に基づいて制御内容を決定し、決定した制御内容に基づいて移動型ロボット1を制御する。このようにすることで、移動型ロボット1が出力した音声が誰に対して発せられたかがわかりやすくなり、移動型ロボット1の周囲に存在する人が感じる煩わしさを低減させることができる。
[Effects of this embodiment]
As explained above, the information processing device 2 determines the control content based on the positional relationship between the target person and the non-target person, and controls the mobile robot 1 based on the determined control content. By doing so, it becomes easy to understand to whom the voice outputted by the mobile robot 1 is uttered, and it is possible to reduce the annoyance felt by people around the mobile robot 1.
なお、本発明により、国連が主導する持続可能な開発目標(SDGs)の目標9「産業と技術革新の基盤をつくろう」に貢献することが可能となる。 Furthermore, the present invention makes it possible to contribute to Goal 9 of the Sustainable Development Goals (SDGs) led by the United Nations, "Create a foundation for industry and technological innovation."
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, all or part of the device can be functionally or physically distributed and integrated into arbitrary units. In addition, new embodiments created by arbitrary combinations of multiple embodiments are also included in the embodiments of the present invention. The effects of the new embodiment resulting from the combination have the effects of the original embodiment.
1 移動型ロボット
11 撮像部
12 音声出力部
13 駆動部
14 通信部
15 記憶部
16 制御部
161 検出部
162 送信部
163 取得部
164 ロボット制御部
2 情報処理装置
21 通信部
22 記憶部
23 制御部
231 取得部
232 決定部
233 送信部
S 情報処理システム
1
Claims (10)
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力する出力位置への移動とを制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記出力位置として、前記非対象者よりも前記対象者の方に近い位置を含む前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力位置への移動とを制御するロボット制御部と、
を有する情報処理装置。 an acquisition unit that acquires a captured image of a person present around the mobile robot;
Control content that controls the output of a voice urging the target person, who is present on the travel route of the mobile robot, to move, and the movement to an output position where the voice is outputted, , the output position is determined based on the relative positional relationship between the target person obtained from the captured image and the non-target person who is present at a location other than the movement route; a robot control unit that controls output of the voice by the mobile robot and movement to the output position based on the control content including a position closer to the target person than the mobile robot;
An information processing device having:
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力する出力位置への移動とを制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記出力位置として、前記非対象者と正対する位置よりも前記対象者と正対する位置に近い位置を含む前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力位置への移動とを制御するロボット制御部と、
を有する情報処理装置。 an acquisition unit that acquires a captured image of a person present around the mobile robot;
Control content for controlling the output of a voice urging the target person, who is present on the movement route of the mobile robot, to move, and the movement to an output position where the voice is output, The output position determined based on the relative positional relationship between the target person determined by the captured image and the non-target person who is present at a location other than the movement route, a robot control unit that controls output of the voice by the mobile robot and movement to the output position based on the control content including a position closer to a position directly facing the target person than a position directly facing the subject; ,
An information processing device having :
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力するときの出力向きに向かせる動きとを制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記出力向きとして、前記非対象者よりも前記対象者の方に向いた前記移動型ロボットの向きを含む前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力向きに向く動きとを制御するロボット制御部と、
を有する情報処理装置。 an acquisition unit that acquires a captured image of a person present around the mobile robot;
Control content for controlling the output of a voice urging the target person, who is present on the movement route of the mobile robot, to move, and the movement of directing the target person in the output direction when outputting the voice. The output orientation is determined based on the relative positional relationship between the target person determined from the captured image and the non-target person who is located at a location other than the movement route. A robot that controls the output of the voice by the mobile robot and the movement toward the output direction based on the control content including the direction of the mobile robot facing the target person rather than the target person. a control unit ;
An information processing device having :
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力する出力位置への移動及び前記音声を出力するときの出力向きに向かせる動きのうちの少なくともいずれかとを制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づき、前記対象者から前記非対象者までの距離が所定の閾値を超えていると判定した場合に決定された前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力位置への移動及び前記出力向きに向く動きのうちの少なくともいずれかとを制御するロボット制御部と、
を有する情報処理装置。 an acquisition unit that acquires a captured image of a person present around the mobile robot;
Outputting a voice urging the target person, who is present on the travel route of the mobile robot, to move, moving to an output position where the voice is output, and output direction when outputting the voice. control content for controlling at least one of the movements of the target person, the target person determined from the captured image, and the non-target person who is located at a location other than the movement route; output of the voice by the mobile robot based on the control content determined when it is determined that the distance from the target person to the non-target person exceeds a predetermined threshold based on the positional relationship. , a robot control unit that controls at least one of movement to the output position and movement toward the output direction;
An information processing device having :
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力する出力位置への移動及び前記音声を出力するときの出力向きに向かせる動きのうちの少なくともいずれかとを制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づき、前記対象者から前記非対象者までの距離が所定の閾値を超えていないと判定した場合に、前記移動型ロボットが前記音声を出力しないように決定された前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力位置への移動及び前記出力向きに向く動きのうちの少なくともいずれかとを制御するロボット制御部と、
を有する情報処理装置。 an acquisition unit that acquires a captured image of a person present around the mobile robot;
Outputting a voice urging the target person, who is present on the travel route of the mobile robot, to move, moving to an output position where the voice is output, and output direction when outputting the voice. control content for controlling at least one of the movements of the target person, the target person determined from the captured image, and the non-target person who is located at a location other than the movement route; In the control content, it is determined that the mobile robot does not output the sound when it is determined that the distance from the target person to the non-target person does not exceed a predetermined threshold based on the positional relationship . a robot control unit that controls at least one of the output of the voice by the mobile robot, the movement to the output position, and the movement in the output direction, based on the robot control unit ;
An information processing device having :
請求項1から5のいずれか一項に記載の情報処理装置。 The robot control unit is configured to control the mobile robot based on the control content in which the voice pattern corresponding to the target person's attribute is determined among a plurality of voice patterns determined for each person's attribute. control audio output,
The information processing device according to any one of claims 1 to 5 .
請求項6に記載の情報処理装置。 The robot control unit is configured to control the robot control unit in which the voice pattern corresponding to the attribute of a person whose priority is relatively high among the attributes of the target person and the attributes of the non-target person is determined. controlling the output of the voice by the mobile robot based on the control content;
The information processing device according to claim 6 .
前記ロボット制御部は、前記取得部が取得した情報によって示される前記対象者の状態に基づいて決定された前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力を制御する、
請求項1から5のいずれか一項に記載の情報処理装置。 The acquisition unit acquires information indicating the condition of the subject,
The robot control unit controls output of the voice by the mobile robot based on the control content determined based on the state of the subject indicated by the information acquired by the acquisition unit.
The information processing device according to any one of claims 1 to 5.
移動型ロボットの周囲に存在する人が撮像された撮像画像を取得するステップと、
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力する出力位置への移動とを制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記出力位置として、前記非対象者よりも前記対象者の方に近い位置を含む前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力位置への移動とを制御するステップと、
を有する情報処理方法。 computer executes
acquiring a captured image of a person present around the mobile robot;
Control content that controls the output of a voice urging the target person, who is present on the travel route of the mobile robot, to move, and the movement to an output position where the voice is outputted, , the output position is determined based on the relative positional relationship between the target person obtained from the captured image and the non-target person who is present at a location other than the movement route; controlling output of the voice by the mobile robot and movement to the output position based on the control content including a position closer to the target person than the target person ;
An information processing method having
移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部、及び
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力する出力位置への移動と制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記出力位置として、前記非対象者よりも前記対象者の方に近い位置を含む前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力位置への移動とを制御するロボット制御部、
として機能させるためのプログラム。 computer,
an acquisition unit that acquires a captured image of a person present around the mobile robot; and an output of a voice urging the target person, who is the person present on the route along which the mobile robot moves, to move. and control details for controlling the movement to the output position where the sound is output, the target person determined by the captured image and the non-target person who is located at a location other than the movement route. The output position of the voice by the mobile robot is based on the control content including a position closer to the target person than the non-target person as the output position determined based on the relative positional relationship of the robot. , a robot control unit that controls movement to the output position;
A program to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023051861A JP7434635B1 (en) | 2023-03-28 | 2023-03-28 | Information processing device, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023051861A JP7434635B1 (en) | 2023-03-28 | 2023-03-28 | Information processing device, information processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7434635B1 true JP7434635B1 (en) | 2024-02-20 |
JP2024140628A JP2024140628A (en) | 2024-10-10 |
Family
ID=89904463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023051861A Active JP7434635B1 (en) | 2023-03-28 | 2023-03-28 | Information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7434635B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008254122A (en) | 2007-04-05 | 2008-10-23 | Honda Motor Co Ltd | Robot |
JP2009178783A (en) | 2008-01-29 | 2009-08-13 | Toyota Motor Corp | Communication robot and its control method |
WO2020170644A1 (en) | 2019-02-19 | 2020-08-27 | ソニー株式会社 | Information processing device, information processing system, information processing method, and program |
JP2021171905A (en) | 2020-04-30 | 2021-11-01 | 東京ロボティクス株式会社 | Robot control device, method, and program |
CN115246606A (en) | 2022-08-23 | 2022-10-28 | 菱王电梯有限公司 | Elevator control method and device and elevator |
-
2023
- 2023-03-28 JP JP2023051861A patent/JP7434635B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008254122A (en) | 2007-04-05 | 2008-10-23 | Honda Motor Co Ltd | Robot |
JP2009178783A (en) | 2008-01-29 | 2009-08-13 | Toyota Motor Corp | Communication robot and its control method |
WO2020170644A1 (en) | 2019-02-19 | 2020-08-27 | ソニー株式会社 | Information processing device, information processing system, information processing method, and program |
JP2021171905A (en) | 2020-04-30 | 2021-11-01 | 東京ロボティクス株式会社 | Robot control device, method, and program |
CN115246606A (en) | 2022-08-23 | 2022-10-28 | 菱王电梯有限公司 | Elevator control method and device and elevator |
Also Published As
Publication number | Publication date |
---|---|
JP2024140628A (en) | 2024-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6984768B2 (en) | Robots, control methods and programs | |
JP5366048B2 (en) | Information provision system | |
JP4976903B2 (en) | robot | |
US9392088B2 (en) | Intelligent muting of a mobile device | |
KR102463806B1 (en) | Electronic device capable of moving and method for operating thereof | |
KR20070029794A (en) | A method and a system for communication between a user and a system | |
JP2009166184A (en) | Guide robot | |
JP7095220B2 (en) | Robot control system | |
JP7549588B2 (en) | 3D sound equipment for the blind and visually impaired | |
CN116324969A (en) | Hearing enhancement and wearable system with positioning feedback | |
JP5246162B2 (en) | Sensing device, system, control method, and control program | |
KR20180074404A (en) | Robot for airport and method thereof | |
US20210311506A1 (en) | Unmanned moving body and information processing method | |
JP5765153B2 (en) | Person monitoring system, robot, person monitoring method, and robot control program | |
JP4793904B2 (en) | Communication robot system and communication robot | |
JP7434635B1 (en) | Information processing device, information processing method and program | |
JP6887035B1 (en) | Control systems, control devices, control methods and computer programs | |
JP7434634B1 (en) | Information processing device, information processing method and program | |
JPWO2020021861A1 (en) | Information processing equipment, information processing system, information processing method and information processing program | |
JP2007125646A (en) | Communication robot | |
JP7397228B1 (en) | Information processing device, information processing method, program and information processing system | |
JP2021146473A (en) | Speech controller | |
JP2006263874A (en) | Communication robot | |
JP7511154B2 (en) | Autonomous vacuum cleaner and control method | |
JP5449230B2 (en) | Remote communication device, remote communication method, program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230628 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230927 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7434635 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |