JP7434635B1 - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP7434635B1
JP7434635B1 JP2023051861A JP2023051861A JP7434635B1 JP 7434635 B1 JP7434635 B1 JP 7434635B1 JP 2023051861 A JP2023051861 A JP 2023051861A JP 2023051861 A JP2023051861 A JP 2023051861A JP 7434635 B1 JP7434635 B1 JP 7434635B1
Authority
JP
Japan
Prior art keywords
target person
mobile robot
output
voice
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023051861A
Other languages
Japanese (ja)
Other versions
JP2024140628A (en
Inventor
貴之 蕨野
恭平 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2023051861A priority Critical patent/JP7434635B1/en
Application granted granted Critical
Publication of JP7434635B1 publication Critical patent/JP7434635B1/en
Publication of JP2024140628A publication Critical patent/JP2024140628A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

【課題】移動型ロボットの周囲に存在する人が感じる煩わしさを低減させる。【解決手段】情報処理装置2は、移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部231と、移動型ロボットが移動する移動ルート上に存在する人である対象者に対して移動を促す音声を出力するために制御する制御内容であって、前記撮像画像により求められた対象者と移動ルート以外の場所に存在する人である非対象者との相対的な位置関係に基づいて決定された制御内容に基づいて、移動型ロボットを制御する送信部233と、を有する。【選択図】図3[Problem] To reduce the annoyance felt by people around a mobile robot. An information processing device 2 includes an acquisition unit 231 that acquires a captured image of a person present around a mobile robot, and a target person who is a person present on a travel route along which the mobile robot moves. Contents of control to output a sound urging the person to move, the relative position between the target person determined from the captured image and a non-target person who is located at a location other than the movement route. and a transmitter 233 that controls the mobile robot based on the control content determined based on the relationship. [Selection diagram] Figure 3

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

近年、自律して移動する移動型ロボットが普及しつつある。特許文献1には、移動型ロボットが移動中に人や物等の障害物を検出した場合に、当該障害物の移動を促す音声を移動型ロボットに出力させる技術が開示されている。 In recent years, mobile robots that move autonomously have become popular. Patent Document 1 discloses a technique in which, when a mobile robot detects an obstacle such as a person or an object while moving, the mobile robot outputs a voice urging the mobile robot to move the obstacle.

特開2020-151070号公報Japanese Patent Application Publication No. 2020-151070

しかしながら、従来の技術においては、移動型ロボットの周囲に複数の人が存在する場合、移動型ロボットが音声を出力しても、誰を移動させたいのかわかりづらく、移動型ロボットの周囲に存在する人にとって移動型ロボットによって出力される音声が煩わしく感じる場合があった。 However, with conventional technology, if there are multiple people around the mobile robot, even if the mobile robot outputs a voice, it is difficult to tell who is the person you want to move. There have been cases in which people find the sounds output by mobile robots to be annoying.

そこで、本発明はこれらの点に鑑みてなされたものであり、移動型ロボットの周囲に存在する人が感じる煩わしさを低減させることを目的とする。 The present invention has been made in view of these points, and it is an object of the present invention to reduce the annoyance felt by people around a mobile robot.

本発明の第1の態様にかかる情報処理装置は、移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部と、前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声を出力するために制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記制御内容に基づいて、前記移動型ロボットを制御するロボット制御部と、を有する。 An information processing device according to a first aspect of the present invention includes an acquisition unit that acquires a captured image of a person existing around a mobile robot, and an acquisition unit that acquires a captured image of a person existing around a mobile robot; Contents of control for outputting a sound urging a human target person to move, the target person being determined from the captured image and a non-human being located at a location other than the movement route. and a robot control unit that controls the mobile robot based on the control content determined based on the relative positional relationship with the subject.

前記情報処理装置は、前記対象者と前記非対象者との相対的な位置関係に基づいて、前記制御内容を決定する決定部をさらに有してもよいし、前記ロボット制御部は、前記決定部が決定した前記制御内容を示す制御情報を前記移動型ロボットに送信することにより、前記移動型ロボットを制御してもよい。 The information processing device may further include a determining unit that determines the content of the control based on a relative positional relationship between the target person and the non-target person, and the robot control unit The mobile robot may be controlled by transmitting control information indicating the control content determined by the mobile robot to the mobile robot.

前記ロボット制御部は、前記対象者と正対する位置が前記音声を出力させる出力位置として決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit may control the mobile robot based on the control content in which a position directly facing the subject is determined as an output position at which the sound is output.

前記ロボット制御部は、前記非対象者よりも前記対象者の方に近い位置が前記音声を出力させる出力位置として決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit may control the mobile robot based on the control content in which a position closer to the target person than to the non-target person is determined as an output position for outputting the sound.

前記ロボット制御部は、前記非対象者と正対する位置よりも前記対象者と正対する位置に近い位置が前記音声を出力させる出力位置として決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit controls the mobile robot based on the control content in which a position closer to a position directly facing the target person than a position directly facing the non-target person is determined as an output position for outputting the sound. May be controlled.

前記ロボット制御部は、前記非対象者よりも前記対象者の方に向いた前記移動型ロボットの向きが前記音声を出力するときの出力向きとして決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit is configured to control the mobile robot based on the control content in which the direction of the mobile robot facing the target person rather than the non-target person is determined as the output direction when outputting the voice. Robots may also be controlled.

前記ロボット制御部は、前記位置関係に基づき、前記対象者から前記非対象者までの距離が所定の閾値を超えていると判定した場合に決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit controls the mobile robot based on the control content determined when it is determined that the distance from the target person to the non-target person exceeds a predetermined threshold based on the positional relationship. may be controlled.

前記ロボット制御部は、前記位置関係に基づき、前記対象者から前記非対象者までの距離が所定の閾値を超えていないと判定した場合、前記移動型ロボットが前記音声を出力しないように制御してもよい。 The robot control unit controls the mobile robot not to output the sound when determining that the distance from the target person to the non-target person does not exceed a predetermined threshold based on the positional relationship. You can.

前記ロボット制御部は、人の属性ごとに定められている複数の音声パターンのうち、前記対象者の属性に対応する前記音声パターンが決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit controls the mobile robot based on the control content in which the voice pattern corresponding to the target person's attribute is determined from among a plurality of voice patterns determined for each person's attribute. You may.

前記ロボット制御部は、前記対象者の属性及び前記非対象者の属性のうち、予め定められた人の属性の優先順位が相対的に高い人の属性に対応する前記音声パターンが決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The robot control unit is configured to control the robot control unit in which the voice pattern corresponding to the attribute of a person whose priority is relatively high among the attributes of the target person and the attributes of the non-target person is determined. The mobile robot may be controlled based on the control content.

前記取得部は、前記対象者の状態を示す情報を取得してもよいし、前記ロボット制御部は、前記取得部が取得した情報によって示される前記対象者の状態に基づいて決定された前記制御内容に基づいて、前記移動型ロボットを制御してもよい。 The acquisition unit may acquire information indicating the condition of the subject, and the robot control unit may control the control determined based on the condition of the subject indicated by the information acquired by the acquisition unit. The mobile robot may be controlled based on the content.

本発明の第2の態様にかかる情報処理方法は、コンピュータが実行する、移動型ロボットの周囲に存在する人が撮像された撮像画像を取得するステップと、前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声を出力するために制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記制御内容に基づいて、前記移動型ロボットを制御するステップと、を有する。 An information processing method according to a second aspect of the present invention includes the steps of acquiring a captured image of a person present around a mobile robot, which is executed by a computer; control content for outputting a voice urging the target person, who is located at the target person, to move, the target person who is located at a location other than the target person determined by the captured image and the travel route; and controlling the mobile robot based on the control content determined based on the relative positional relationship with a non-target person who is a person.

本発明の第3の態様にかかるプログラムは、コンピュータを、移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部、及び前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声を出力するために制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記制御内容に基づいて、前記移動型ロボットを制御するロボット制御部、として機能させる。 A program according to a third aspect of the present invention includes a computer, an acquisition unit that acquires a captured image of a person existing around a mobile robot, and a computer that is located on a travel route along which the mobile robot moves. Control content for outputting a sound urging the target person to move, the target person being located at a location other than the target person determined by the captured image and the movement route. The mobile robot is caused to function as a robot control unit that controls the mobile robot based on the control content determined based on the relative positional relationship with the non-target person.

本発明によれば、移動型ロボットの周囲に存在する人が感じる煩わしさを低減させることができるという効果を奏する。 According to the present invention, it is possible to reduce the annoyance felt by people around a mobile robot.

情報処理システムの概要を説明するための図である。FIG. 1 is a diagram for explaining an overview of an information processing system. 移動型ロボットの機能構成を模式的に示す図である。FIG. 2 is a diagram schematically showing the functional configuration of a mobile robot. 情報処理装置の機能構成を模式的に示す図である。1 is a diagram schematically showing the functional configuration of an information processing device. 移動型ロボットの周囲の状態を模式的に表した図である。FIG. 2 is a diagram schematically representing the state around a mobile robot. 移動型ロボットの周囲の状態を模式的に表した図である。FIG. 2 is a diagram schematically representing the state around a mobile robot. 移動型ロボットの周囲の状態を模式的に表した図である。FIG. 2 is a diagram schematically representing the state around a mobile robot. 移動型ロボットの周囲の状態を模式的に表した図である。FIG. 2 is a diagram schematically representing the state around a mobile robot. 情報処理システムの処理の流れを示すシーケンス図である。FIG. 2 is a sequence diagram showing the flow of processing of the information processing system.

[情報処理システムSの概要]
図1は、情報処理システムSの概要を説明するための図である。情報処理システムSは、移動型ロボット1を制御するために用いられるシステムである。情報処理システムSは、移動型ロボット1と、情報処理装置2とを有する。
[Overview of information processing system S]
FIG. 1 is a diagram for explaining an overview of the information processing system S. As shown in FIG. The information processing system S is a system used to control the mobile robot 1. The information processing system S includes a mobile robot 1 and an information processing device 2.

移動型ロボット1は、自律して移動するロボットである。移動型ロボット1は、所定の用途(例えば、荷物の配達、掃除、警備等)で使用される。移動型ロボット1は、例えば、予め定められた所定の施設内のルートを移動する。所定の施設は、一以上のエレベータを備える建物であり、例えば、ショッピングモール等の商業施設、マンション等の居住施設又は商業フロアと居住フロアとを含む複合施設等である。移動型ロボット1が移動する移動ルートには、エレベータを介してある階から別の階に移動するルートが含まれる。移動型ロボット1には、周囲の状態を検出するために用いられるカメラ等のように、自律して移動するための各種のセンサが備えられている。移動型ロボット1は、情報処理装置2と通信可能である。 The mobile robot 1 is a robot that moves autonomously. The mobile robot 1 is used for predetermined purposes (eg, package delivery, cleaning, security, etc.). The mobile robot 1 moves along a predetermined route within a predetermined facility, for example. The predetermined facility is a building equipped with one or more elevators, and is, for example, a commercial facility such as a shopping mall, a residential facility such as an apartment, or a complex facility including a commercial floor and a residential floor. The movement route that the mobile robot 1 moves includes a route that moves from one floor to another via an elevator. The mobile robot 1 is equipped with various sensors for autonomous movement, such as a camera used to detect surrounding conditions. The mobile robot 1 is capable of communicating with the information processing device 2 .

情報処理装置2は、移動型ロボット1を制御する装置であり、例えばサーバである。情報処理装置2は、移動型ロボット1と通信可能である。 The information processing device 2 is a device that controls the mobile robot 1, and is, for example, a server. The information processing device 2 is capable of communicating with the mobile robot 1.

移動型ロボット1が移動する移動ルートには、人又は物(例えば、ショッピングカート又はベビーカー等)等の移動を優先させる場所と、移動型ロボット1の移動を優先させる場所(以下、「対象エリア」という。)とが存在する。対象エリアは、例えば、移動型ロボット1がエレベータに搭乗するために待機する場所であって、移動型ロボット1が存在する存在階にエレベータのかごが到着したか否かを移動型ロボット1が検出するための場所である。移動型ロボット1は、例えば、エレベータのドアが開いていることを検出することにより、移動型ロボット1の存在階にエレベータのかごが到着したことを検出する。移動型ロボット1は、情報処理装置2からエレベータのかごが到着したことを示す到着通知を取得したことによって、移動型ロボット1の存在階にエレベータのかごが到着したことを検出してもよい。 The movement route that the mobile robot 1 moves includes a place where the movement of people or objects (for example, shopping carts, strollers, etc.) is given priority, and a place where the movement of the mobile robot 1 is given priority (hereinafter referred to as "target area"). ) exists. The target area is, for example, a place where the mobile robot 1 waits to board an elevator, and the mobile robot 1 detects whether the elevator car has arrived at the floor where the mobile robot 1 is present. It's a place to do. The mobile robot 1 detects that the elevator car has arrived at the floor where the mobile robot 1 is present, for example, by detecting that the elevator door is open. The mobile robot 1 may detect that the elevator car has arrived at the floor where the mobile robot 1 is present by acquiring an arrival notification from the information processing device 2 indicating that the elevator car has arrived.

なお、対象エリアは、移動型ロボット1がエレベータに搭乗するために待機する場所に限らず、移動型ロボット1の存在階に到着したエレベータのかごに搭乗するための場所(例えば、エレベータのドア付近の場所、エレベータのかご内の場所)、移動型ロボット1がエレベータのかごから降機するための場所(例えば、エレベータのドア付近の場所)であってもよい。移動型ロボット1は、対象エリアに移動している場合において、人又は物等の障害物が当該対象エリアに存在する場合、移動型ロボット1が対象エリアに移動することができないため、対象エリアに存在する障害物を移動させる必要がある。 Note that the target area is not limited to the place where the mobile robot 1 waits to board the elevator, but also the place where the mobile robot 1 waits to board the elevator car after arriving at the floor where the mobile robot 1 is located (for example, near the elevator door). (a location within an elevator car), or a location where the mobile robot 1 exits the elevator car (for example, a location near an elevator door). When the mobile robot 1 is moving to the target area, if there are obstacles such as people or objects in the target area, the mobile robot 1 cannot move to the target area. It is necessary to move existing obstacles.

しかしながら、移動型ロボット1が障害物の移動を促す音声を出力しても、その音声が誰に対して発せられた音声であるか分かりづらい場合がある。図1に示す例においては、移動型ロボット1の周囲において、人物H1と、人物H2とが存在する。人物H1は、エリアRに存在する人であって、移動を促す対象の人(以下、「対象者」という。)である。人物H2は、エリアR外に存在する人であって、移動を促す対象ではない人(以下、「非対象者」という。)である。エリアRは、移動型ロボット1がエレベータに搭乗するために待機する対象エリアであり、移動型ロボット1が搭乗するエレベータのドアDの近くに設けられている。 However, even if the mobile robot 1 outputs a voice prompting the user to move an obstacle, it may be difficult to know to whom the voice is directed. In the example shown in FIG. 1, a person H1 and a person H2 exist around the mobile robot 1. The person H1 is a person who exists in the area R and is a target person (hereinafter referred to as a "target person") who is encouraged to move. The person H2 is a person who exists outside the area R and is not a target for movement (hereinafter referred to as a "non-target person"). Area R is a target area where the mobile robot 1 waits to board the elevator, and is provided near the door D of the elevator on which the mobile robot 1 boards.

移動型ロボット1が移動を促す音声を出力する場合、移動させたい人物H1が自身に向けて発せられた音声であると認識させ、移動させたい人ではない人物H2が自身に向けて発せられた音声ではないと認識させることが望ましい。例えば、移動型ロボット1が位置P1で音声を出力した場合、移動型ロボット1及び人物H1の距離感と、移動型ロボット1及び人物H2の距離感とが似ているため、移動する必要が無い人物H2が自身に向けて発せられた音声であると勘違する蓋然性が高くなってしまう。一方、移動型ロボット1が位置P2で音声を出力した場合、移動型ロボット1及び人物H2の距離感より、移動型ロボット1及び人物H1の距離感の方が近いため、人物H2が自身に向けて発せられた音声であると勘違いする蓋然性が低くなる。 When the mobile robot 1 outputs a voice urging movement, the person H1 to be moved recognizes that the voice is directed toward itself, and the person H2 who is not the person to be moved recognizes that the voice is directed toward itself. It is desirable to recognize that it is not a voice. For example, when the mobile robot 1 outputs a sound at the position P1, there is no need to move because the sense of distance between the mobile robot 1 and the person H1 is similar to that between the mobile robot 1 and the person H2. There is a high probability that the person H2 will misunderstand the voice as being directed at him/herself. On the other hand, when the mobile robot 1 outputs sound at position P2, the sense of distance between the mobile robot 1 and the person H1 is closer than that between the mobile robot 1 and the person H2. The probability of mistaking the sound for being uttered by someone else is lowered.

このように、移動型ロボット1が音声を出力する位置に応じて、移動型ロボット1が出力した音声が誰に対して発せられた音声であるかの分かりやすさが変わるため、移動型ロボット1が音声を出力する場合においては、移動型ロボット1が音声を出力する位置を考慮する必要がある。そこで、情報処理システムSは、移動型ロボット1の周囲に存在する複数の人の位置関係に応じて移動型ロボット1を制御する。
以下、情報処理システムSが実行する処理の流れについて説明する。
In this way, the ease of understanding to whom the sound output by the mobile robot 1 is directed changes depending on the position where the mobile robot 1 outputs the sound. When the mobile robot 1 outputs sound, it is necessary to consider the position where the mobile robot 1 outputs the sound. Therefore, the information processing system S controls the mobile robot 1 according to the positional relationship of the plurality of people around the mobile robot 1.
The flow of processing executed by the information processing system S will be described below.

まず、情報処理装置2は、移動型ロボット1から撮像画像を取得する(図1における(1))。撮像画像は、移動型ロボット1の周囲に存在する人が撮像された画像である。 First, the information processing device 2 acquires a captured image from the mobile robot 1 ((1) in FIG. 1). The captured image is an image of a person present around the mobile robot 1.

情報処理装置2は、移動型ロボット1から取得した撮像画像に含まれる人物H1及び人物H2の相対的な位置関係に基づいて、移動型ロボット1の制御内容を決定する(図1における(2))。制御内容は、移動型ロボット1が対象者に対して移動を促す音声を出力するために制御する内容である。制御内容は、例えば、移動型ロボット1に音声を出力させる位置に移動させる動作に関する制御内容(例えば、図1に示す位置P2、又は移動型ロボット1を位置P2に移動させるためのルート等)である。 The information processing device 2 determines the control content of the mobile robot 1 based on the relative positional relationship between the person H1 and the person H2 included in the captured image acquired from the mobile robot 1 ((2 in FIG. 1) ). The control content is the content by which the mobile robot 1 is controlled to output a voice urging the target person to move. The control content is, for example, control content related to an operation of moving the mobile robot 1 to a position where it is to output audio (for example, position P2 shown in FIG. 1, or a route for moving the mobile robot 1 to position P2, etc.). be.

そして、情報処理装置2は、決定した制御内容に基づいて、移動型ロボット1を制御する(図1における(3))。図1に示す例において、移動型ロボット1は、動作に関する制御内容に基づいて位置P2に移動して音声を出力する。このようにすることで、情報処理システムSは、移動型ロボット1が出力した音声が誰に対して発せられたかがわかりやすくなり、移動型ロボット1の周囲に存在する人が感じる煩わしさを低減させることができる。 The information processing device 2 then controls the mobile robot 1 based on the determined control details ((3) in FIG. 1). In the example shown in FIG. 1, the mobile robot 1 moves to a position P2 and outputs sound based on the control details regarding the movement. By doing so, the information processing system S makes it easier to understand to whom the voice outputted by the mobile robot 1 is directed, and reduces the annoyance felt by people around the mobile robot 1. be able to.

なお、移動型ロボット1が、情報処理装置2の機能を有してもよい。この場合、移動型ロボット1は、対象者及び非対象者の相対的な位置関係に基づいて制御内容を決定し、決定した制御内容に基づいて動作する。
以下、移動型ロボット1及び情報処理装置2の構成について説明する。
Note that the mobile robot 1 may have the functions of the information processing device 2. In this case, the mobile robot 1 determines the control content based on the relative positional relationship of the target person and the non-target person, and operates based on the determined control content.
The configurations of the mobile robot 1 and the information processing device 2 will be described below.

[移動型ロボット1の構成]
図2は、移動型ロボット1の機能構成を模式的に示す図である。移動型ロボット1は、撮像部11と、音声出力部12と、駆動部13と、通信部14と、記憶部15と、制御部16とを有する。図2において、矢印は主なデータの流れを示しており、図2に示していないデータの流れがあってもよい。図2において、各機能ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示す機能ブロックは単一の装置内に実装されてもよく、あるいは複数の装置内に分かれて実装されてもよい。機能ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてもよい。
[Configuration of mobile robot 1]
FIG. 2 is a diagram schematically showing the functional configuration of the mobile robot 1. As shown in FIG. The mobile robot 1 includes an imaging section 11 , an audio output section 12 , a driving section 13 , a communication section 14 , a storage section 15 , and a control section 16 . In FIG. 2, arrows indicate main data flows, and there may be data flows that are not shown in FIG. In FIG. 2, each functional block shows the configuration of a functional unit, not the configuration of a hardware (device) unit. Therefore, the functional blocks shown in FIG. 2 may be implemented within a single device, or may be implemented separately within multiple devices. Data may be exchanged between functional blocks via any means such as a data bus, a network, or a portable storage medium.

撮像部11は、撮像画像を撮像するカメラである。音声出力部12は、音声を出力するスピーカである。駆動部13は、車輪等を駆動させることによって移動型ロボット1を移動させるためのモータ及びギヤ等を含む伝動装置である。通信部14は、ネットワークに接続するための通信インターフェースであり、外部の端末及び外部のサーバからデータを受信するための通信コントローラを有する。 The imaging unit 11 is a camera that captures a captured image. The audio output unit 12 is a speaker that outputs audio. The drive unit 13 is a transmission device including a motor, gears, etc. for moving the mobile robot 1 by driving wheels and the like. The communication unit 14 is a communication interface for connecting to a network, and has a communication controller for receiving data from an external terminal and an external server.

記憶部15は、移動型ロボット1を実現するコンピュータのBIOS(Basic Input Output System)等を格納するROM(Read Only Memory)や移動型ロボット1の作業領域となるRAM(Random Access Memory)、OS(Operating System)やアプリケーションプログラム、当該アプリケーションプログラムの実行時に参照される種々の情報を格納するHDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置である。 The storage unit 15 includes a ROM (Read Only Memory) that stores the BIOS (Basic Input Output System) of the computer that implements the mobile robot 1, a RAM (Random Access Memory) that serves as a work area for the mobile robot 1, and an OS (OS). It is a large-capacity storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) that stores a variety of information that is referred to during the execution of the operating system (Operating System), application programs, and the application programs.

記憶部15は、移動型ロボット1が移動する移動ルートを示す情報を記憶している。移動ルートには、対象エリアが含まれる。なお、移動ルートを示す情報は、記憶部15に記憶されていなくてもよい。例えば、移動型ロボット1は、情報処理装置2が算出した移動ルート(進行方向)に応じて移動してもよい。また、例えば、記憶部15には、施設の構内情報と、移動型ロボット1の目的地を示す情報とが記憶されており、移動型ロボット1は、構内情報と目的地とに基づいて算出した移動ルート(進行方向)に応じて移動してもよい。 The storage unit 15 stores information indicating a travel route along which the mobile robot 1 moves. The movement route includes the target area. Note that the information indicating the travel route does not need to be stored in the storage unit 15. For example, the mobile robot 1 may move according to a movement route (progressing direction) calculated by the information processing device 2. Further, for example, the storage unit 15 stores facility premises information and information indicating the destination of the mobile robot 1, and the mobile robot 1 calculates the destination based on the premises information and the destination. You may move according to the moving route (progressing direction).

制御部16は、移動型ロボット1のCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサであり、記憶部15に記憶されたプログラムを実行することによって、検出部161、送信部162、取得部163及びロボット制御部164として機能する。 The control unit 16 is a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit) of the mobile robot 1, and controls the detection unit 161 and the transmission unit 162 by executing a program stored in the storage unit 15. , functions as an acquisition unit 163 and a robot control unit 164.

検出部161は、撮像部11が撮像した撮像画像を取得し、取得した撮像画像を解析して当該撮像画像に含まれる被写体(物体)を検出する。検出部161は、例えば、撮像画像に含まれる物体ごとに、当該撮像画像が撮像された位置に対する当該物体の相対的な位置を検出する。 The detection unit 161 acquires a captured image captured by the imaging unit 11, analyzes the captured image, and detects a subject (object) included in the captured image. For example, the detection unit 161 detects, for each object included in the captured image, the relative position of the object with respect to the position where the captured image was captured.

また、検出部161は、撮像部11が撮像した撮像画像の解析又はレーダによるセンシング等に基づいて、移動ルート、すなわち、移動型ロボット1の進行方向、又は移動型ロボット1が存在する場所等を検出する。検出部161は、進行方向を検出した後において、当該進行方向に障害物が存在することを検出した場合、当該障害物を回避するための新たな進行方向を検出してもよい。 Furthermore, the detection unit 161 determines the movement route, that is, the direction of movement of the mobile robot 1, the location where the mobile robot 1 is located, etc., based on analysis of the captured image captured by the imaging unit 11, sensing by radar, etc. To detect. After detecting the direction of travel, if the detection unit 161 detects that an obstacle exists in the direction of travel, it may detect a new direction of travel for avoiding the obstacle.

送信部162は、対象エリアに障害物が存在する場合に、障害物の移動を促す移動型ロボット1の制御を行うための制御要求を情報処理装置2に送信する。制御要求には、検出部161が検出した障害物を含む撮像画像、具体的には、対象者と非対象者とを含む撮像画像が含まれる。制御要求には、対象者及び非対象者それぞれの位置を示す情報、移動型ロボット1の位置座標等がさらに含まれてもよい。対象者及び非対象者それぞれの位置を示す情報は、例えば、移動型ロボット1が備えるLiDAR(Light Detection And Ranging)等の不図示の距離測定センサが測定した情報である。 The transmitting unit 162 transmits a control request to the information processing device 2 to control the mobile robot 1 to prompt the movement of the obstacle when an obstacle exists in the target area. The control request includes a captured image that includes an obstacle detected by the detection unit 161, specifically, a captured image that includes a target person and a non-target person. The control request may further include information indicating the positions of the target person and the non-target person, the position coordinates of the mobile robot 1, and the like. The information indicating the positions of the target person and the non-target person is, for example, information measured by a distance measuring sensor (not shown) such as LiDAR (Light Detection And Ranging) included in the mobile robot 1.

具体的には、送信部162は、検出部161が対象エリアに障害物が存在することを検出した場合に、制御要求を情報処理装置2に送信する。送信部162は、対象エリアに障害物が存在する場合に、所定の間隔で制御要求を情報処理装置2に送信してもよい。 Specifically, the transmitting unit 162 transmits a control request to the information processing device 2 when the detecting unit 161 detects that an obstacle exists in the target area. The transmitter 162 may transmit a control request to the information processing device 2 at predetermined intervals when an obstacle exists in the target area.

ロボット制御部164は、移動型ロボット1を制御する。ロボット制御部164は、例えば、移動型ロボット1の制御として、音声出力部12による音声の出力と、駆動部13による移動型ロボット1の移動とを制御する。ロボット制御部164は、例えば、駆動部13を介して、検出部161が検出した進行方向に移動型ロボット1を移動させる。 The robot control unit 164 controls the mobile robot 1. The robot control unit 164 controls, for example, the output of audio by the audio output unit 12 and the movement of the mobile robot 1 by the drive unit 13 as controls for the mobile robot 1 . The robot control unit 164 moves the mobile robot 1 in the direction of movement detected by the detection unit 161, for example, via the drive unit 13.

また、ロボット制御部164は、対象エリアに障害物が存在する場合に、当該障害物の移動を促す音声を出力するために制御する制御内容に基づいて、移動型ロボット1を制御する。具体的には、まず、取得部163は、送信部162が情報処理装置2に制御要求を送信したことに応じて当該情報処理装置2が送信した制御情報を取得する。制御情報は、制御内容を示す情報であり、例えば、動作に関する制御内容(例えば、出力位置等)を示す情報が含まれる。 Furthermore, when an obstacle exists in the target area, the robot control unit 164 controls the mobile robot 1 based on the control content to output a voice urging the obstacle to move. Specifically, first, the acquisition unit 163 acquires the control information transmitted by the information processing device 2 in response to the transmission unit 162 transmitting a control request to the information processing device 2 . The control information is information indicating control content, and includes, for example, information indicating control content related to operation (for example, output position, etc.).

そして、ロボット制御部164は、取得部163が取得した制御情報によって示される制御内容に基づいて、移動型ロボット1を制御する。ロボット制御部164は、例えば、駆動部13を介して動作に関する制御内容によって示される出力位置に移動型ロボット1を移動させて、音声を音声出力部12に出力させる。 Then, the robot control unit 164 controls the mobile robot 1 based on the control content indicated by the control information acquired by the acquisition unit 163. For example, the robot control unit 164 moves the mobile robot 1 via the drive unit 13 to an output position indicated by the control details regarding the operation, and outputs the sound to the audio output unit 12.

ロボット制御部164は、例えば、予め定められた音声を音声出力部12に出力させる。ロボット制御部164は、制御情報によって示される制御内容に基づく音声を音声出力部12に出力させてもよい。この場合における制御情報には、音声に関する制御内容を示す情報が含まれる。 For example, the robot control unit 164 causes the audio output unit 12 to output a predetermined voice. The robot control unit 164 may cause the audio output unit 12 to output audio based on the control content indicated by the control information. The control information in this case includes information indicating control details regarding audio.

[情報処理装置2の構成]
図3は、情報処理装置2の機能構成を模式的に示す図である。情報処理装置2は、通信部21と、記憶部22と、制御部23とを備える。図3において、矢印は主なデータの流れを示しており、図3に示していないデータの流れがあってもよい。図3において、各機能ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図3に示す機能ブロックは単一の装置内に実装されてもよく、あるいは複数の装置内に分かれて実装されてもよい。機能ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてもよい。
[Configuration of information processing device 2]
FIG. 3 is a diagram schematically showing the functional configuration of the information processing device 2. As shown in FIG. The information processing device 2 includes a communication section 21, a storage section 22, and a control section 23. In FIG. 3, arrows indicate main data flows, and there may be data flows that are not shown in FIG. In FIG. 3, each functional block shows the configuration of a functional unit, not the configuration of a hardware (device) unit. Therefore, the functional blocks shown in FIG. 3 may be implemented within a single device, or may be implemented separately within multiple devices. Data may be exchanged between functional blocks via any means such as a data bus, a network, or a portable storage medium.

通信部21は、ネットワークに接続するための通信インターフェースであり、外部の端末及び外部のサーバからデータを受信するための通信コントローラを有する。 The communication unit 21 is a communication interface for connecting to a network, and has a communication controller for receiving data from an external terminal and an external server.

記憶部22は、情報処理装置2を実現するコンピュータのBIOS等を格納するROMや情報処理装置2の作業領域となるRAM、OSやアプリケーションプログラム、当該アプリケーションプログラムの実行時に参照される種々の情報を格納するHDDやSSD等の大容量記憶装置である。 The storage unit 22 stores a ROM that stores the BIOS, etc. of a computer that implements the information processing device 2, a RAM that serves as a work area of the information processing device 2, an OS, an application program, and various information that is referenced when the application program is executed. This is a large capacity storage device such as an HDD or SSD for storing data.

制御部23は、情報処理装置2のCPUやGPU等のプロセッサであり、記憶部22に記憶されたプログラムを実行することによって、取得部231、決定部232及び送信部233として機能する。 The control unit 23 is a processor such as a CPU or a GPU of the information processing device 2, and functions as an acquisition unit 231, a determination unit 232, and a transmission unit 233 by executing a program stored in the storage unit 22.

取得部231は、移動型ロボット1の周囲に存在する人が撮像された撮像画像を取得する。具体的には、取得部231は、移動型ロボット1から、撮像画像を含む制御要求を取得する。取得部231は、所定の間隔で、移動型ロボット1から制御要求を取得してもよい。 The acquisition unit 231 acquires a captured image of a person present around the mobile robot 1. Specifically, the acquisition unit 231 acquires a control request including a captured image from the mobile robot 1. The acquisition unit 231 may acquire control requests from the mobile robot 1 at predetermined intervals.

送信部233は、ロボット制御部として機能し、移動型ロボット1が移動する移動ルート上に存在する人である対象者に対して移動を促す音声を出力するために制御する制御内容であって、対象者と、移動ルート以外の場所に存在する人である非対象者との相対的な位置関係に基づいて決定された制御内容に基づいて、移動型ロボット1を制御する。具体的には、情報処理装置2は、以下の2つのステップを実行することにより、移動型ロボット1を制御する。 The transmitting unit 233 functions as a robot control unit, and has control contents to output a voice urging a target person, who is a person who is on the movement route of the mobile robot 1, to move, and includes: The mobile robot 1 is controlled based on the control content determined based on the relative positional relationship between the target person and a non-target person who is present at a location other than the movement route. Specifically, the information processing device 2 controls the mobile robot 1 by executing the following two steps.

第1のステップとして、決定部232は、取得部231が取得した撮像画像により求められた対象者と非対象者との相対的な位置関係に基づいて、制御内容を決定する。例えば、まず、取得部231が制御要求を取得すると、決定部232は、当該制御要求に含まれる撮像画像を解析して、対象者の位置と、非対象者の位置とを特定する。そして、決定部232は、特定した対象者と非対象者との相対的な位置関係に基づいて、動作に関する制御内容(例えば、音声を出力させる出力位置等)を決定する。決定部232は、制御要求に含まれる対象者及び非対象者それぞれの位置を示す情報によって特定される対象者と非対象者との相対的な位置関係に基づいて、動作に関する制御内容を決定してもよい。 As a first step, the determining unit 232 determines the control content based on the relative positional relationship between the target person and the non-target person determined from the captured image acquired by the acquisition unit 231. For example, first, when the acquisition unit 231 acquires a control request, the determination unit 232 analyzes the captured image included in the control request and identifies the position of the target person and the position of the non-target person. Then, the determining unit 232 determines the control details regarding the operation (for example, the output position for outputting the sound, etc.) based on the relative positional relationship between the specified target person and non-target person. The determining unit 232 determines the control content regarding the movement based on the relative positional relationship between the target person and the non-target person, which is specified by the information indicating the positions of the target person and the non-target person included in the control request. You can.

決定部232は、複数の非対象者それぞれの位置を特定した場合、複数の非対象者の中から選択した非対象者と対象者との相対的な位置関係に基づいて制御内容を決定してもよい。決定部232は、例えば、対象者の位置に相対的に近い位置に存在する非対象者(例えば、対象者の位置に最も近い位置に存在する非対象者)を選択する。 When determining the positions of each of the plurality of non-target persons, the determining unit 232 determines the control content based on the relative positional relationship between the non-target person selected from the plurality of non-target persons and the target person. Good too. For example, the determining unit 232 selects a non-target person who is located relatively close to the target person's position (for example, a non-target person who is closest to the target person's position).

なお、情報処理装置2が、移動型ロボット1の検出部161の機能を有してもよい。例えば、制御部23は、不図示の検出部を有する。この場合において、まず、取得部231は、移動型ロボット1の撮像部11が撮像した撮像画像を取得する。情報処理装置2の検出部は、取得部231が取得した撮像画像を解析して、当該撮像画像に含まれる物体と、移動型ロボット1の進行方向を検出する。そして、決定部232は、検出部が対象エリアに障害物が存在することを検出したことを契機として制御内容を決定する。 Note that the information processing device 2 may have the function of the detection unit 161 of the mobile robot 1. For example, the control unit 23 includes a detection unit (not shown). In this case, first, the acquisition unit 231 acquires a captured image captured by the imaging unit 11 of the mobile robot 1. The detection unit of the information processing device 2 analyzes the captured image acquired by the acquisition unit 231 and detects the object included in the captured image and the traveling direction of the mobile robot 1. Then, the determining unit 232 determines the content of control, triggered by the detection unit detecting the presence of an obstacle in the target area.

第2のステップとして、送信部233は、決定部232が決定した制御内容を示す制御情報を移動型ロボット1に送信することにより、移動型ロボット1を制御する。移動型ロボット1において、取得部163が制御情報を取得すると、ロボット制御部164は、当該制御情報に含まれる動作に関する制御内容に基づく出力位置に移動して、音声を音声出力部12に出力させる。 As a second step, the transmitting unit 233 controls the mobile robot 1 by transmitting control information indicating the control content determined by the determining unit 232 to the mobile robot 1. In the mobile robot 1, when the acquisition unit 163 acquires the control information, the robot control unit 164 moves to an output position based on the control content regarding the operation included in the control information and causes the audio output unit 12 to output audio. .

出力位置においては、移動型ロボット1が対象者と向き合った状態で音声を出力すると、対象者に対して発せられた音声であることが分かりやすくなる。そこで、情報処理装置2は、対象者と正対する位置で移動型ロボット1に音声を出力させる。 At the output position, when the mobile robot 1 outputs the voice while facing the target person, it becomes easy to understand that the voice is directed toward the target person. Therefore, the information processing device 2 causes the mobile robot 1 to output voice at a position facing the target person.

具体的には、送信部233は、対象者と正対する位置が音声を出力させる出力位置として決定された制御内容に基づいて、移動型ロボット1を制御する。まず、決定部232は、対象者と正対する位置を出力位置(動作に関する制御内容)として決定する。決定部232は、例えば、取得部231が取得した撮像画像を解析して、対象者と正対する位置であって、非対象者とは正対しない位置を出力位置として決定する。 Specifically, the transmitting unit 233 controls the mobile robot 1 based on the control content in which the position facing the subject is determined as the output position where the voice is output. First, the determining unit 232 determines the position directly facing the subject as the output position (control content regarding the movement). For example, the determining unit 232 analyzes the captured image acquired by the acquiring unit 231 and determines, as the output position, a position directly facing the target person but not directly facing the non-target person.

そして、送信部233は、決定部232が決定した出力位置を示す制御情報を移動型ロボット1に送信することにより、移動型ロボット1に対して対象者と正対する位置に移動させて音声を出力させる。このようにすることで、情報処理装置2は、移動型ロボット1が出力する音声が対象者に対して発せられる音声であることをわかりやすくすることができる。 Then, the transmitting unit 233 transmits control information indicating the output position determined by the determining unit 232 to the mobile robot 1, thereby causing the mobile robot 1 to move to a position directly facing the subject and output audio. let By doing so, the information processing device 2 can make it easier to understand that the voice output by the mobile robot 1 is the voice uttered to the target person.

なお、対象者と正対する位置に人や物が存在する場合、移動型ロボット1は、対象者と正対する位置で音声を出力することができない。この場合、情報処理装置2は、移動型ロボット1に対して対象者に近い位置で音声を出力させてもよい。 Note that if there is a person or object at a position directly facing the target person, the mobile robot 1 cannot output sound at the position directly facing the target person. In this case, the information processing device 2 may cause the mobile robot 1 to output audio at a position close to the target person.

具体的には、送信部233は、非対象者よりも対象者の方に近い位置が音声を出力させる出力位置として決定された制御内容に基づいて、移動型ロボット1を制御する。まず、決定部232は、非対象者よりも対象者の方が近い位置を出力位置として決定する。決定部232は、例えば、取得部231が取得した撮像画像を解析して、対象者と正対する位置に障害物(例えば、非対象者、又は非対象者以外の物等)が存在する場合に、非対象者よりも対象者の方が近い位置を出力位置として決定する。そして、送信部233は、決定部232が決定した出力位置を示す制御情報を移動型ロボット1に送信することにより、移動型ロボット1に対して非対象者よりも対象者の方が近い位置に移動させて音声を出力させる。 Specifically, the transmitting unit 233 controls the mobile robot 1 based on the control content in which a position closer to the target person than to the non-target person is determined as the output position for outputting the sound. First, the determining unit 232 determines a position closer to the target person than to the non-target person as the output position. For example, the determining unit 232 analyzes the captured image acquired by the acquiring unit 231 and determines whether an obstacle (for example, a non-target person or an object other than the non-target person) is present at a position directly facing the target person. , a position closer to the target person than to the non-target person is determined as the output position. Then, the transmitting unit 233 transmits control information indicating the output position determined by the determining unit 232 to the mobile robot 1, so that the target person is located closer to the mobile robot 1 than the non-target person. Move it and output the sound.

図4は、移動型ロボット1の周囲の状態を模式的に表した図である。図4に示す例においては、対象エリアであるエリアRに存在する対象者である人物H1と正対する位置に非対象者である人物H2が存在している。この場合において、決定部232は、人物H2よりも人物H1の方が近い位置P3を出力位置として決定する。そして、送信部233は、移動型ロボット1に対して位置P3に移動させて音声を出力させる。このようにすることで、情報処理装置2は、移動型ロボット1が出力する音声が対象者に向けた音声であることをわかりやすくすることができる。 FIG. 4 is a diagram schematically showing the state around the mobile robot 1. As shown in FIG. In the example shown in FIG. 4, a person H2 who is a non-target person exists in a position directly facing a person H1 who is a target person who exists in area R which is a target area. In this case, the determining unit 232 determines a position P3 where the person H1 is closer than the person H2 as the output position. Then, the transmitter 233 causes the mobile robot 1 to move to position P3 and output audio. By doing so, the information processing device 2 can make it easier to understand that the voice output by the mobile robot 1 is directed toward the target person.

情報処理装置2は、対象者と正対する位置に近い位置で移動型ロボット1に音声を出力させてもよい。具体的には、送信部233は、非対象者と正対する位置よりも対象者と正対する位置に近い位置が音声を出力させる出力位置として決定された制御内容に基づいて、移動型ロボット1を制御する。 The information processing device 2 may cause the mobile robot 1 to output audio at a position close to the position facing the target person. Specifically, the transmitter 233 controls the mobile robot 1 based on the control content in which a position closer to the position directly facing the target person than the position directly facing the non-target person is determined as the output position for outputting the sound. Control.

まず、決定部232は、非対象者と正対する位置よりも対象者と正対する位置の方が近い位置を出力位置として決定する。そして、送信部233は、決定部232が決定した出力位置を示す制御情報を移動型ロボット1に送信することにより、移動型ロボット1に対して非対象者と正対する位置よりも対象者と正対する位置の方が近い位置に移動させて音声を出力させる。 First, the determination unit 232 determines, as the output position, a position that is closer to the position directly facing the target person than to the position directly facing the non-target person. Then, by transmitting control information indicating the output position determined by the determining unit 232 to the mobile robot 1, the transmitting unit 233 transmits the control information indicating the output position determined by the determining unit 232 to the mobile robot 1. The corresponding position is moved to a position closer to the other position and the sound is output.

図5は、移動型ロボット1の周囲の状態を模式的に表した図である。図5に示す例においては、対象者である人物H1と非対象者である人物H2とが、それぞれ矢印で示す方向に向いている。この場合において、決定部232は、非対象者と正対する位置よりも対象者と正対する位置の方が近い位置P4を出力位置として決定する。そして、送信部233は、移動型ロボット1に対して位置P4に移動させて音声を出力させる。このようにすることで、情報処理装置2は、移動型ロボット1が出力する音声が対象者に向けた音声であることをわかりやすくすることができる。 FIG. 5 is a diagram schematically showing the state around the mobile robot 1. As shown in FIG. In the example shown in FIG. 5, a person H1 who is a target person and a person H2 who is a non-target person are facing the directions shown by the arrows. In this case, the determining unit 232 determines as the output position a position P4 that is closer to the position directly facing the target person than the position directly facing the non-target person. Then, the transmitter 233 causes the mobile robot 1 to move to position P4 and output audio. By doing so, the information processing device 2 can make it easier to understand that the voice output by the mobile robot 1 is directed toward the target person.

情報処理装置2は、出力位置だけではなく、移動型ロボット1が音声を出力するときの出力向きを考慮してしてもよい。具体的には、送信部233は、非対象者よりも対象者の方に向いた移動型ロボット1の向きが音声を出力するときの出力向きとして決定された制御内容に基づいて、移動型ロボット1を制御する。 The information processing device 2 may consider not only the output position but also the output direction when the mobile robot 1 outputs the sound. Specifically, the transmitting unit 233 determines whether the mobile robot 1 faces toward the target person rather than toward the non-target person based on the control content determined as the output direction when outputting the voice. Control 1.

まず、決定部232は、非対象者よりも対象者の方に向いた移動型ロボット1の向きを出力向きとして決定する。そして、送信部233は、送信部233は、決定部232が決定した出力位置及び出力向きを示す制御情報を移動型ロボット1に送信することにより、移動型ロボット1に対して、出力位置に移動させ、かつ、非対象者よりも対象者の方に向いた出力向きで音声を出力させる。 First, the determining unit 232 determines as the output orientation the orientation of the mobile robot 1 that faces the target person rather than the non-target person. Then, the transmitting unit 233 transmits control information indicating the output position and output direction determined by the determining unit 232 to the mobile robot 1, thereby causing the mobile robot 1 to move to the output position. At the same time, the audio is output in an output direction that is directed toward the target person rather than the non-target person.

図6は、移動型ロボット1の周囲の状態を模式的に表した図である。図6に示す例において、決定部232は、非対象者よりも対象者の方が近い位置P5を出力位置として決定し、非対象者よりも対象者の方に向いた向きDを出力向きとして決定する。そして、送信部233は、移動型ロボット1に対して、位置P5に移動させ、かつ向きDに向かせて音声を出力させる。このようにすることで、情報処理装置2は、移動型ロボット1が出力する音声が対象者に向けた音声であることをわかりやすくすることができる。 FIG. 6 is a diagram schematically showing the state around the mobile robot 1. As shown in FIG. In the example shown in FIG. 6, the determining unit 232 determines a position P5 where the target person is closer than the non-target person as the output position, and a direction D that faces the target person more than the non-target person as the output direction. decide. Then, the transmitter 233 causes the mobile robot 1 to move to the position P5, face in the direction D, and output audio. By doing so, the information processing device 2 can make it easier to understand that the voice output by the mobile robot 1 is directed toward the target person.

情報処理装置2は、移動型ロボット1に対して、移動型ロボット1の周囲に存在する人に基づく音声を出力させてもよい。例えば、まず、決定部232は、取得部231が制御要求を取得した場合、さらに、対象者の移動を促すための音声に関する制御内容を決定する。音声に関する制御内容は、例えば、音声の内容、音量、音声の速度等である。例えば、情報処理装置2には、対象者の移動を促すための音声に関する制御内容が予め定められている。そして、送信部233は、動作に関する制御内容と、音声に関する制御内容とを含む制御情報を移動型ロボット1に送信することにより、移動型ロボット1に対して、動作に関する制御内容に基づいて出力位置に移動させて、音声に関する制御内容に基づいて音声を出力させる。 The information processing device 2 may cause the mobile robot 1 to output a voice based on people existing around the mobile robot 1. For example, first, when the acquisition unit 231 acquires a control request, the determination unit 232 further determines the control content regarding the sound for urging the subject to move. The control contents regarding the audio include, for example, the content of the audio, the volume, the speed of the audio, and the like. For example, the information processing device 2 has predetermined control details regarding audio for prompting the subject to move. Then, the transmitter 233 transmits control information including control details regarding the motion and control details regarding the sound to the mobile robot 1, thereby directing the mobile robot 1 to an output position based on the control content regarding the motion. to output audio based on the control details regarding audio.

例えば、記憶部22には、音声に関する制御内容を示す音声データが記憶されている。この場合において、送信部233は、対象者の移動を促すための音声に対応する音声データを含む制御情報を移動型ロボット1に送信することにより、当該音声データに基づく音声を移動型ロボット1に出力させる。 For example, the storage unit 22 stores audio data indicating control details regarding audio. In this case, the transmitter 233 sends the mobile robot 1 a voice based on the voice data by transmitting control information including voice data corresponding to the voice for prompting the subject to move to the mobile robot 1. Output.

音声データにおいては、移動型ロボット1の記憶部15に記憶されていてもよい。この場合、まず、送信部233は、対象者の移動を促すための音声に対応する音声データを識別するための音声識別情報を含む制御情報を移動型ロボット1に送信する。そして、移動型ロボット1において、取得部163が制御情報を取得すると、ロボット制御部164は、記憶部15に記憶されている複数の音声データのうち、制御情報に含まれる音声識別情報によって特定される音声データに基づく音声を音声出力部12に出力させる。 The audio data may be stored in the storage unit 15 of the mobile robot 1. In this case, first, the transmitter 233 transmits to the mobile robot 1 control information including voice identification information for identifying voice data corresponding to the voice for prompting the target person to move. Then, in the mobile robot 1, when the acquisition unit 163 acquires the control information, the robot control unit 164 identifies the voice identification information included in the control information from among the plurality of voice data stored in the storage unit 15. The audio output unit 12 is caused to output audio based on the audio data.

ここで、高齢者と若年者とでは、聞き取りやすい音量が異なる場合がある。そこで、情報処理装置2は、移動型ロボット1に対して対象者の属性に応じた音声パターンで音声を出力させてもよい。音声パターンは、例えば、音声の種類、音声の速度、音量のうちの少なくとも一部の音声のパターンである。例えば、情報処理装置2には、人の属性ごとに音声パターンが定められており、例えば、子供には、アニメのキャラクター(音声の種類)の音声パターンが定められており、高齢者には、遅い音声(音声の速度)、大きい音量の音声パターンが定められている。 Here, the volume that is easy to hear may differ between elderly people and young people. Therefore, the information processing device 2 may cause the mobile robot 1 to output a voice in a voice pattern according to the attributes of the target person. The audio pattern is, for example, a pattern of at least some of the types of audio, the speed of audio, and the volume of audio. For example, in the information processing device 2, voice patterns are defined for each person's attributes; for example, voice patterns of anime characters (types of voice) are defined for children, and voice patterns for elderly people are defined. A voice pattern with slow voice (voice speed) and high volume is defined.

この場合において、送信部233は、人の属性ごとに定められている複数の音声パターンのうち、対象者の属性に対応する音声パターンが決定された制御内容に基づいて、移動型ロボット1を制御する。具体的には、まず、決定部232は、制御内容として、人の属性ごとに定められている複数の音声パターンのうち、対象者の属性に対応する音声パターンを決定する。決定部232は、取得部231が取得した撮像画像を解析して、対象者の属性を特定する。 In this case, the transmitting unit 233 controls the mobile robot 1 based on the control content in which the voice pattern corresponding to the target person's attribute is determined from among the plurality of voice patterns determined for each person's attribute. do. Specifically, first, the determining unit 232 determines, as the control content, a voice pattern corresponding to the target person's attribute from among a plurality of voice patterns defined for each person's attribute. The determining unit 232 analyzes the captured image acquired by the acquiring unit 231 and identifies the attributes of the subject.

そして、送信部233は、決定部232が決定した音声パターンを示す情報(例えば、音声データ、又は音声識別情報)を移動型ロボット1に送信することにより、移動型ロボット1に対して、決定部232が決定した音声パターンで音声を出力させる。このようにすることで、情報処理装置2は、対象者に聞き取りやすい音声を移動型ロボット1に出力させることができる。 Then, the transmitting unit 233 sends the mobile robot 1 information indicating the voice pattern determined by the determining unit 232 (for example, voice data or voice identification information) to the mobile robot 1. 232 outputs audio using the determined audio pattern. By doing so, the information processing device 2 can cause the mobile robot 1 to output a voice that is easy for the target person to hear.

なお、対象エリアにおいて複数の人が存在する場合、移動型ロボット1に対して、当該複数の人それぞれが聞き取りやすい音声パターンで音声を出力させることが望ましい。そこで、情報処理装置2は、移動型ロボット1に対して各人の属性の優先順位に応じた音声パターンで音声を出力させてもよい。例えば、情報処理装置2には、人の属性の優先順位(例えば、高齢者においては優先順位が高く、若年者においては優先順位が低い等)が予め定められている。 Note that when a plurality of people are present in the target area, it is desirable that the mobile robot 1 outputs audio in a voice pattern that is easy for each of the plurality of people to hear. Therefore, the information processing device 2 may cause the mobile robot 1 to output a voice in a voice pattern according to the priority order of each person's attributes. For example, the information processing device 2 has a predetermined priority order of attributes of people (for example, an elderly person has a high priority, a young person has a low priority, etc.).

この場合において、送信部233は、対象者の属性及び非対象者の属性のうち、予め定められた人の属性の優先順位が相対的に高い人の属性に対応する音声パターンが決定された制御内容に基づいて、移動型ロボット1を制御する。具体的には、まず、決定部232は、対象者の属性及び非対象者の属性のうち、予め定められた人の属性の優先順位が相対的に高い人の属性に対応する音声パターンを決定する。決定部232は、例えば、取得部231が取得した撮像画像を解析して、対象者及び非対象者それぞれの属性を特定し、特定した対象者の属性及び非対象者の属性のうち、優先順位が相対的に高い人の属性に対応する音声パターンを決定する。 In this case, the transmitting unit 233 transmits a control in which a voice pattern corresponding to the attribute of a person whose priority is relatively high among the attributes of the target person and the attributes of the non-target person is determined. The mobile robot 1 is controlled based on the content. Specifically, first, the determining unit 232 determines a voice pattern corresponding to the attribute of a person whose priority is relatively high among the attributes of the target person and the attributes of the non-target person. do. For example, the determining unit 232 analyzes the captured image acquired by the acquiring unit 231, identifies the attributes of each of the target person and the non-target person, and determines the priority order among the identified attributes of the target person and the attributes of the non-target person. Determine the voice pattern corresponding to the attributes of a person who has a relatively high value.

そして、送信部233は、決定部232が決定した音声パターンを示す情報を移動型ロボット1に送信することにより、移動型ロボット1に対して、決定部232が決定した音声パターンで音声を出力させる。このようにすることで、情報処理装置2は、移動型ロボット1の周囲に存在する各人の属性の優先順位に応じた音声パターンで音声を出力させることができる。 Then, the transmitting unit 233 transmits information indicating the voice pattern determined by the determining unit 232 to the mobile robot 1, thereby causing the mobile robot 1 to output voice in the voice pattern determined by the determining unit 232. . By doing so, the information processing device 2 can output a voice in a voice pattern according to the priority order of attributes of each person present around the mobile robot 1.

移動型ロボット1が、上記のように決定された出力位置で音声を出力しても、対象者から非対象者までの距離に応じて、誰に対して発せられた音声であるかの分かりやすさが異なる場合がある。例えば、対象者から非対象者までの距離が離れている場合においては、非対象者が自身に向けて発せられた音声であると勘違する蓋然性が低いが、対象者から非対象者までの距離が近い場合においては、非対象者が自身に向けて発せられた音声であると勘違する蓋然性が高くなってしまう。そこで、情報処理装置2は、対象者から非対象者までの距離に応じて、移動型ロボット1に対して音声を出力させてもよい。 Even if the mobile robot 1 outputs sound at the output position determined as above, it is easy to understand to whom the sound is being emitted depending on the distance from the target person to the non-target person. may differ. For example, if the target person is far away from the non-target person, there is a low probability that the non-target person will misunderstand the sound as being directed at him or herself, but If the distance is short, there is a high probability that the non-target person will misunderstand the sound as being directed at him/herself. Therefore, the information processing device 2 may cause the mobile robot 1 to output audio depending on the distance from the target person to the non-target person.

具体的には、送信部233は、対象者と非対象者との相対的な位置関係に基づき、対象者から非対象者までの距離が所定の閾値を超えていると判定した場合に決定された制御内容に基づいて、移動型ロボット1を制御する。所定の閾値は、対象者から非対象者までの距離が近いか否かを判定するために定められた値である。決定部232は、対象者から非対象者までの距離が所定の閾値を超えている場合、移動型ロボット1に音声に出力させるための音声に関する制御内容を決定する。 Specifically, the transmitter 233 determines that the distance from the target person to the non-target person exceeds a predetermined threshold based on the relative positional relationship between the target person and the non-target person. The mobile robot 1 is controlled based on the control contents. The predetermined threshold value is a value determined to determine whether the distance from the target person to the non-target person is short. If the distance from the target person to the non-target person exceeds a predetermined threshold, the determining unit 232 determines the control content regarding the audio to cause the mobile robot 1 to output the audio.

一方、送信部233は、対象者と非対象者との相対的な位置関係に基づき、対象者から非対象者までの距離が所定の閾値を超えていないと判定した場合、移動型ロボット1が音声を出力しないように制御する。具体的には、決定部232が、対象者から非対象者までの距離が所定の閾値を超えていないと判定した場合、送信部233は、移動型ロボット1が音声を出力しないように制御する。 On the other hand, if the transmitter 233 determines that the distance from the target person to the non-target person does not exceed a predetermined threshold based on the relative positional relationship between the target person and the non-target person, the mobile robot 1 Control so that audio is not output. Specifically, if the determining unit 232 determines that the distance from the target person to the non-target person does not exceed a predetermined threshold, the transmitting unit 233 controls the mobile robot 1 not to output audio. .

図7は、移動型ロボット1の周囲の状態を模式的に表した図である。図7に示す例においては、対象エリアであるエリアRに対象者である人物H1が存在し、エリアR外に非対象者である人物H2及び人物H3が存在している。図7(a)に示す例においては、人物H1から人物H2までの距離と、人物H1から人物H3までの距離とがそれぞれ所定の閾値を超えている。この場合において、決定部232は、人物H2及び人物H3よりも人物H1の方が近い位置P6を出力位置として決定し、移動型ロボット1に出力させる音声に関する制御内容を決定する。そして、送信部233は、移動型ロボット1に対して、位置P6に移動させて、音声に関する制御内容に基づく音声を出力させる。 FIG. 7 is a diagram schematically showing the state around the mobile robot 1. As shown in FIG. In the example shown in FIG. 7, a person H1 who is a target person exists in area R which is a target area, and a person H2 and a person H3 who are non-target people exist outside area R. In the example shown in FIG. 7A, the distance from person H1 to person H2 and the distance from person H1 to person H3 each exceed a predetermined threshold. In this case, the determining unit 232 determines a position P6, where the person H1 is closer than the people H2 and H3, as the output position, and determines the control details regarding the sound to be output by the mobile robot 1. Then, the transmitter 233 causes the mobile robot 1 to move to the position P6 and output a voice based on the control content regarding the voice.

図7(b)に示す例においては、人物H1から人物H2までの距離と、人物H1から人物H3までの距離とがそれぞれ所定の閾値を超えていない。この場合において、決定部232は、人物H2及び人物H3よりも人物H1の方が近い位置P6を出力位置として決定する。なお、移動型ロボット1が音声を出力しないように送信部233が制御する場合、移動型ロボット1による音声の出力の禁止を決定してもよい。そして、送信部233は、移動型ロボット1に対して、位置P6に移動させるが、音声を出力させない。このようにすることで、情報処理装置2は、移動型ロボット1が出力する音声が誰に向けた音声であることをわかりづらい事態の発生を防ぐことができる。 In the example shown in FIG. 7B, the distance from person H1 to person H2 and the distance from person H1 to person H3 do not exceed predetermined thresholds. In this case, the determining unit 232 determines a position P6 where the person H1 is closer than the people H2 and H3 as the output position. Note that when the transmitter 233 controls the mobile robot 1 not to output audio, it may decide to prohibit the mobile robot 1 from outputting audio. Then, the transmitter 233 causes the mobile robot 1 to move to the position P6, but does not output audio. By doing so, the information processing device 2 can prevent a situation in which it is difficult to understand to whom the voice output by the mobile robot 1 is directed.

移動型ロボット1が、上記のように決定された出力位置で音声を出力しても、対象者が当該音声を聞き取れない場合がある。例えば、対象者がイヤホンやヘッドホン等を装着していたり、スマートフォン等で通話していたりする場合、移動型ロボット1が小さい音量で音声を出力しても、対象者が当該音声を聞き取れない可能性がある。そこで、決定部232は、対象者の状態に応じて制御内容を決定してもよい。 Even if the mobile robot 1 outputs sound at the output position determined as described above, the subject may not be able to hear the sound. For example, if the target person is wearing earphones or headphones, or is talking on a smartphone, etc., even if the mobile robot 1 outputs audio at a low volume, the target person may not be able to hear the audio. There is. Therefore, the determining unit 232 may determine the control content depending on the condition of the subject.

具体的には、まず、取得部231は、対象者の状態を示す状態情報を取得する。状態情報は、撮像画像であってもよいし、移動型ロボット1が備える不図示のマイクが集音した対象者の音声であってもよい。そして、送信部233は、取得部231が取得した状態情報によって示される対象者の状態に基づいて決定された制御内容に基づいて、移動型ロボット1を制御する。より具体的には、まず、決定部232は、取得部231が取得した状態情報に基づいて(例えば、撮像画像の解析、対象者の発話の有無等)することによって、対象者の状態を特定する。そして、決定部232は、特定した対象者の状態に基づいて、制御内容を決定する。 Specifically, first, the acquisition unit 231 acquires status information indicating the condition of the subject. The status information may be a captured image or may be the voice of the subject collected by a microphone (not shown) included in the mobile robot 1. Then, the transmitting unit 233 controls the mobile robot 1 based on the control content determined based on the state of the subject indicated by the state information acquired by the acquiring unit 231. More specifically, first, the determination unit 232 identifies the condition of the subject based on the status information acquired by the acquisition unit 231 (for example, analysis of captured images, presence or absence of speech by the subject, etc.). do. Then, the determining unit 232 determines the content of control based on the condition of the identified subject.

決定部232は、例えば、対象者がイヤホンなどの機器を装着している場合、音声に関する制御内容として音量を大きく決定する。このようにすることで、情報処理装置2は、対象者の状態に応じた制御内容で移動型ロボット1に音声を出力させることができる。 For example, when the subject is wearing a device such as earphones, the determining unit 232 determines to increase the volume as the control content regarding audio. By doing so, the information processing device 2 can cause the mobile robot 1 to output audio with control details depending on the condition of the subject.

なお、対象者が通話中又は会話中である場合、移動型ロボット1が音声を出力して対象者の通話又は会話を妨げてしまうと、対象者が不快に感じてしまう場合があるため、決定部232は、対象者が通話中又は会話中である場合、制御内容として移動型ロボット1による音声の出力の禁止を決定してもよい。 Note that when the target person is on the phone or having a conversation, if the mobile robot 1 outputs audio and interrupts the target person's call or conversation, the target person may feel uncomfortable. When the target person is on the phone or having a conversation, the unit 232 may decide to prohibit the mobile robot 1 from outputting audio as the control content.

情報処理装置2は、移動型ロボット1が制御内容に基づいて音声を出力させても対象エリアに対象者が存在する場合、移動型ロボット1による音声の出力を中止させてもよい。具体的には、決定部232は、決定した第1制御内容に基づく音声の出力の中止を第2制御内容として決定する。このようにすることで、情報処理装置2は、移動型ロボット1が音声の出力を繰り返すことによって人に与え得る不快感が増大することを防ぐことができる。また、情報処理装置2は、移動型ロボット1が出力する音声が聞き取れない人(例えば、聴覚に障害がある人等)又は移動型ロボット1が出力する音声の言語が理解できない人(例えば、外国人等)に対して繰り返し移動を促すことを防ぐことができる。 The information processing device 2 may cause the mobile robot 1 to stop outputting the sound if the target person is present in the target area even if the mobile robot 1 outputs the sound based on the control details. Specifically, the determining unit 232 determines, as the second control content, to stop outputting the audio based on the determined first control content. By doing so, the information processing device 2 can prevent the mobile robot 1 from increasing the discomfort that may be given to a person due to repeated voice output. In addition, the information processing device 2 can be used by people who cannot hear the voice output from the mobile robot 1 (for example, people with hearing impairments) or people who cannot understand the language of the voice output by the mobile robot 1 (for example, people from foreign countries). This can prevent people (such as people) from being repeatedly encouraged to move.

[情報処理システムSの処理]
続いて、情報処理システムSの処理の流れについて説明する。図8は、情報処理システムSの処理の流れを示すシーケンス図である。本処理は、移動型ロボット1において、検出部161が、対象エリアに障害物が存在することを検出したことを契機として開始する(S1)。送信部162は、検出部161が対象エリアに障害物が存在することを検出すると、制御要求を情報処理装置2に送信する(S2)。
[Processing of information processing system S]
Next, the flow of processing of the information processing system S will be explained. FIG. 8 is a sequence diagram showing the flow of processing of the information processing system S. This process starts when the detection unit 161 of the mobile robot 1 detects the presence of an obstacle in the target area (S1). When the detection unit 161 detects that an obstacle exists in the target area, the transmission unit 162 transmits a control request to the information processing device 2 (S2).

情報処理装置2において、取得部231が移動型ロボット1から制御要求を取得すると、決定部232は、当該制御要求に含まれる撮像画像を解析することによって特定される対象者及び非対象者の位置関係に基づいて、制御内容を決定する(S3)。送信部233は、決定部232が決定した制御内容を含む制御情報を移動型ロボット1に送信する(S4)。 In the information processing device 2, when the acquisition unit 231 acquires a control request from the mobile robot 1, the determination unit 232 determines the positions of the target person and non-target person identified by analyzing the captured images included in the control request. Control details are determined based on the relationship (S3). The transmitting unit 233 transmits control information including the control content determined by the determining unit 232 to the mobile robot 1 (S4).

そして、移動型ロボット1において、取得部163が制御情報を取得すると、ロボット制御部164は、当該制御情報に含まれる出力位置に移動して音声を音声出力部12に出力させることにより、移動型ロボット1を制御する(S5)。 In the mobile robot 1, when the acquisition unit 163 acquires the control information, the robot control unit 164 moves to the output position included in the control information and causes the audio output unit 12 to output sound. Control the robot 1 (S5).

[本実施の形態における効果]
以上説明したとおり、情報処理装置2は、対象者及び非対象者の位置関係に基づいて制御内容を決定し、決定した制御内容に基づいて移動型ロボット1を制御する。このようにすることで、移動型ロボット1が出力した音声が誰に対して発せられたかがわかりやすくなり、移動型ロボット1の周囲に存在する人が感じる煩わしさを低減させることができる。
[Effects of this embodiment]
As explained above, the information processing device 2 determines the control content based on the positional relationship between the target person and the non-target person, and controls the mobile robot 1 based on the determined control content. By doing so, it becomes easy to understand to whom the voice outputted by the mobile robot 1 is uttered, and it is possible to reduce the annoyance felt by people around the mobile robot 1.

なお、本発明により、国連が主導する持続可能な開発目標(SDGs)の目標9「産業と技術革新の基盤をつくろう」に貢献することが可能となる。 Furthermore, the present invention makes it possible to contribute to Goal 9 of the Sustainable Development Goals (SDGs) led by the United Nations, "Create a foundation for industry and technological innovation."

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, all or part of the device can be functionally or physically distributed and integrated into arbitrary units. In addition, new embodiments created by arbitrary combinations of multiple embodiments are also included in the embodiments of the present invention. The effects of the new embodiment resulting from the combination have the effects of the original embodiment.

1 移動型ロボット
11 撮像部
12 音声出力部
13 駆動部
14 通信部
15 記憶部
16 制御部
161 検出部
162 送信部
163 取得部
164 ロボット制御部
2 情報処理装置
21 通信部
22 記憶部
23 制御部
231 取得部
232 決定部
233 送信部
S 情報処理システム
1 Mobile robot 11 Imaging section 12 Audio output section 13 Drive section 14 Communication section 15 Storage section 16 Control section 161 Detection section 162 Transmission section 163 Acquisition section 164 Robot control section 2 Information processing device 21 Communication section 22 Storage section 23 Control section 231 Acquisition unit 232 Determination unit 233 Transmission unit S Information processing system

Claims (10)

移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部と、
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力する出力位置への移動とを制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記出力位置として、前記非対象者よりも前記対象者の方に近い位置を含む前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力位置への移動とを制御するロボット制御部と、
を有する情報処理装置。
an acquisition unit that acquires a captured image of a person present around the mobile robot;
Control content that controls the output of a voice urging the target person, who is present on the travel route of the mobile robot, to move, and the movement to an output position where the voice is outputted, , the output position is determined based on the relative positional relationship between the target person obtained from the captured image and the non-target person who is present at a location other than the movement route; a robot control unit that controls output of the voice by the mobile robot and movement to the output position based on the control content including a position closer to the target person than the mobile robot;
An information processing device having:
移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部と、
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力する出力位置への移動とを制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記出力位置として、前記非対象者と正対する位置よりも前記対象者と正対する位置に近い位置を含む前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力位置への移動を制御するロボット制御部と
を有する情報処理装置。
an acquisition unit that acquires a captured image of a person present around the mobile robot;
Control content for controlling the output of a voice urging the target person, who is present on the movement route of the mobile robot, to move, and the movement to an output position where the voice is output, The output position determined based on the relative positional relationship between the target person determined by the captured image and the non-target person who is present at a location other than the movement route, a robot control unit that controls output of the voice by the mobile robot and movement to the output position based on the control content including a position closer to a position directly facing the target person than a position directly facing the subject; ,
An information processing device having :
移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部と、
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力するときの出力向きに向かせる動きとを制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記出力向きとして、前記非対象者よりも前記対象者の方に向いた前記移動型ロボットの向きを含む前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力向きに向く動きを制御するロボット制御部と
を有する情報処理装置。
an acquisition unit that acquires a captured image of a person present around the mobile robot;
Control content for controlling the output of a voice urging the target person, who is present on the movement route of the mobile robot, to move, and the movement of directing the target person in the output direction when outputting the voice. The output orientation is determined based on the relative positional relationship between the target person determined from the captured image and the non-target person who is located at a location other than the movement route. A robot that controls the output of the voice by the mobile robot and the movement toward the output direction based on the control content including the direction of the mobile robot facing the target person rather than the target person. a control unit ;
An information processing device having :
移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部と、
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力する出力位置への移動及び前記音声を出力するときの出力向きに向かせる動きのうちの少なくともいずれかとを制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づき、前記対象者から前記非対象者までの距離が所定の閾値を超えていると判定した場合に決定された前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力位置への移動及び前記出力向きに向く動きのうちの少なくともいずれかとを制御するロボット制御部と
を有する情報処理装置。
an acquisition unit that acquires a captured image of a person present around the mobile robot;
Outputting a voice urging the target person, who is present on the travel route of the mobile robot, to move, moving to an output position where the voice is output, and output direction when outputting the voice. control content for controlling at least one of the movements of the target person, the target person determined from the captured image, and the non-target person who is located at a location other than the movement route; output of the voice by the mobile robot based on the control content determined when it is determined that the distance from the target person to the non-target person exceeds a predetermined threshold based on the positional relationship. , a robot control unit that controls at least one of movement to the output position and movement toward the output direction;
An information processing device having :
移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部と、
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力する出力位置への移動及び前記音声を出力するときの出力向きに向かせる動きのうちの少なくともいずれかとを制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づき、前記対象者から前記非対象者までの距離が所定の閾値を超えていないと判定した場合、前記移動型ロボットが前記音声を出力しないように決定された前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力位置への移動及び前記出力向きに向く動きのうちの少なくともいずれかとを制御するロボット制御部と
を有する情報処理装置。
an acquisition unit that acquires a captured image of a person present around the mobile robot;
Outputting a voice urging the target person, who is present on the travel route of the mobile robot, to move, moving to an output position where the voice is output, and output direction when outputting the voice. control content for controlling at least one of the movements of the target person, the target person determined from the captured image, and the non-target person who is located at a location other than the movement route; In the control content, it is determined that the mobile robot does not output the sound when it is determined that the distance from the target person to the non-target person does not exceed a predetermined threshold based on the positional relationship . a robot control unit that controls at least one of the output of the voice by the mobile robot, the movement to the output position, and the movement in the output direction, based on the robot control unit ;
An information processing device having :
前記ロボット制御部は、人の属性ごとに定められている複数の音声パターンのうち、前記対象者の属性に対応する前記音声パターンが決定された前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力を制御する、
請求項1から5のいずれか一項に記載の情報処理装置。
The robot control unit is configured to control the mobile robot based on the control content in which the voice pattern corresponding to the target person's attribute is determined among a plurality of voice patterns determined for each person's attribute. control audio output,
The information processing device according to any one of claims 1 to 5 .
前記ロボット制御部は、前記対象者の属性及び前記非対象者の属性のうち、予め定められた人の属性の優先順位が相対的に高い人の属性に対応する前記音声パターンが決定された前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力を制御する、
請求項に記載の情報処理装置。
The robot control unit is configured to control the robot control unit in which the voice pattern corresponding to the attribute of a person whose priority is relatively high among the attributes of the target person and the attributes of the non-target person is determined. controlling the output of the voice by the mobile robot based on the control content;
The information processing device according to claim 6 .
前記取得部は、前記対象者の状態を示す情報を取得し、
前記ロボット制御部は、前記取得部が取得した情報によって示される前記対象者の状態に基づいて決定された前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力を制御する、
請求項1から5のいずれか一項に記載の情報処理装置。
The acquisition unit acquires information indicating the condition of the subject,
The robot control unit controls output of the voice by the mobile robot based on the control content determined based on the state of the subject indicated by the information acquired by the acquisition unit.
The information processing device according to any one of claims 1 to 5.
コンピュータが実行する、
移動型ロボットの周囲に存在する人が撮像された撮像画像を取得するステップと、
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力する出力位置への移動とを制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記出力位置として、前記非対象者よりも前記対象者の方に近い位置を含む前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力位置への移動とを制御するステップと、
を有する情報処理方法。
computer executes
acquiring a captured image of a person present around the mobile robot;
Control content that controls the output of a voice urging the target person, who is present on the travel route of the mobile robot, to move, and the movement to an output position where the voice is outputted, , the output position is determined based on the relative positional relationship between the target person obtained from the captured image and the non-target person who is present at a location other than the movement route; controlling output of the voice by the mobile robot and movement to the output position based on the control content including a position closer to the target person than the target person ;
An information processing method having
コンピュータを、
移動型ロボットの周囲に存在する人が撮像された撮像画像を取得する取得部、及び
前記移動型ロボットが移動する移動ルート上に存在する前記人である対象者に対して移動を促す音声の出力と、前記音声を出力する出力位置への移動と制御する制御内容であって、前記撮像画像により求められた前記対象者と前記移動ルート以外の場所に存在する前記人である非対象者との相対的な位置関係に基づいて決定された前記出力位置として、前記非対象者よりも前記対象者の方に近い位置を含む前記制御内容に基づいて、前記移動型ロボットによる前記音声の出力と、前記出力位置への移動とを制御するロボット制御部、
として機能させるためのプログラム。
computer,
an acquisition unit that acquires a captured image of a person present around the mobile robot; and an output of a voice urging the target person, who is the person present on the route along which the mobile robot moves, to move. and control details for controlling the movement to the output position where the sound is output, the target person determined by the captured image and the non-target person who is located at a location other than the movement route. The output position of the voice by the mobile robot is based on the control content including a position closer to the target person than the non-target person as the output position determined based on the relative positional relationship of the robot. , a robot control unit that controls movement to the output position;
A program to function as
JP2023051861A 2023-03-28 2023-03-28 Information processing device, information processing method and program Active JP7434635B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023051861A JP7434635B1 (en) 2023-03-28 2023-03-28 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023051861A JP7434635B1 (en) 2023-03-28 2023-03-28 Information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP7434635B1 true JP7434635B1 (en) 2024-02-20
JP2024140628A JP2024140628A (en) 2024-10-10

Family

ID=89904463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023051861A Active JP7434635B1 (en) 2023-03-28 2023-03-28 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7434635B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008254122A (en) 2007-04-05 2008-10-23 Honda Motor Co Ltd Robot
JP2009178783A (en) 2008-01-29 2009-08-13 Toyota Motor Corp Communication robot and its control method
WO2020170644A1 (en) 2019-02-19 2020-08-27 ソニー株式会社 Information processing device, information processing system, information processing method, and program
JP2021171905A (en) 2020-04-30 2021-11-01 東京ロボティクス株式会社 Robot control device, method, and program
CN115246606A (en) 2022-08-23 2022-10-28 菱王电梯有限公司 Elevator control method and device and elevator

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008254122A (en) 2007-04-05 2008-10-23 Honda Motor Co Ltd Robot
JP2009178783A (en) 2008-01-29 2009-08-13 Toyota Motor Corp Communication robot and its control method
WO2020170644A1 (en) 2019-02-19 2020-08-27 ソニー株式会社 Information processing device, information processing system, information processing method, and program
JP2021171905A (en) 2020-04-30 2021-11-01 東京ロボティクス株式会社 Robot control device, method, and program
CN115246606A (en) 2022-08-23 2022-10-28 菱王电梯有限公司 Elevator control method and device and elevator

Also Published As

Publication number Publication date
JP2024140628A (en) 2024-10-10

Similar Documents

Publication Publication Date Title
JP6984768B2 (en) Robots, control methods and programs
JP5366048B2 (en) Information provision system
JP4976903B2 (en) robot
US9392088B2 (en) Intelligent muting of a mobile device
KR102463806B1 (en) Electronic device capable of moving and method for operating thereof
KR20070029794A (en) A method and a system for communication between a user and a system
JP2009166184A (en) Guide robot
JP7095220B2 (en) Robot control system
JP7549588B2 (en) 3D sound equipment for the blind and visually impaired
CN116324969A (en) Hearing enhancement and wearable system with positioning feedback
JP5246162B2 (en) Sensing device, system, control method, and control program
KR20180074404A (en) Robot for airport and method thereof
US20210311506A1 (en) Unmanned moving body and information processing method
JP5765153B2 (en) Person monitoring system, robot, person monitoring method, and robot control program
JP4793904B2 (en) Communication robot system and communication robot
JP7434635B1 (en) Information processing device, information processing method and program
JP6887035B1 (en) Control systems, control devices, control methods and computer programs
JP7434634B1 (en) Information processing device, information processing method and program
JPWO2020021861A1 (en) Information processing equipment, information processing system, information processing method and information processing program
JP2007125646A (en) Communication robot
JP7397228B1 (en) Information processing device, information processing method, program and information processing system
JP2021146473A (en) Speech controller
JP2006263874A (en) Communication robot
JP7511154B2 (en) Autonomous vacuum cleaner and control method
JP5449230B2 (en) Remote communication device, remote communication method, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230628

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230927

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R150 Certificate of patent or registration of utility model

Ref document number: 7434635

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150