JP6439806B2 - Robot apparatus and program - Google Patents

Robot apparatus and program Download PDF

Info

Publication number
JP6439806B2
JP6439806B2 JP2017002408A JP2017002408A JP6439806B2 JP 6439806 B2 JP6439806 B2 JP 6439806B2 JP 2017002408 A JP2017002408 A JP 2017002408A JP 2017002408 A JP2017002408 A JP 2017002408A JP 6439806 B2 JP6439806 B2 JP 6439806B2
Authority
JP
Japan
Prior art keywords
function
robot apparatus
information
robot
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017002408A
Other languages
Japanese (ja)
Other versions
JP2018111154A (en
Inventor
賢吾 得地
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2017002408A priority Critical patent/JP6439806B2/en
Priority to US15/642,665 priority patent/US10987804B2/en
Priority to CN201710924391.XA priority patent/CN108297092B/en
Publication of JP2018111154A publication Critical patent/JP2018111154A/en
Application granted granted Critical
Publication of JP6439806B2 publication Critical patent/JP6439806B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボット装置及びプログラムに関する。   The present invention relates to a robot apparatus and a program.

特許文献1−3には、他の機器と連携して処理を実行するロボット装置が開示されている。   Patent Documents 1-3 disclose a robot apparatus that executes processing in cooperation with other devices.

特開2014−188597号公報JP 2014-188597 A 特開平5−65766号公報JP-A-5-65766 特開2005−111637号公報JP 2005-1111637 A

一般的に、ロボット装置が発生した問題を解決する手段は、予め定められている。それ故、ロボット装置が置かれている状況に応じて臨機応変に手段を変えて問題を解決できない場合がある。   In general, means for solving a problem generated by a robot apparatus is determined in advance. Therefore, there are cases in which the problem cannot be solved by changing the means in a flexible manner according to the situation where the robot apparatus is placed.

本発明の目的は、ロボット装置が状況に応じて連携して問題を解決できるようにすることにある。   An object of the present invention is to enable a robot apparatus to solve a problem in cooperation in accordance with a situation.

請求項1に係る発明は、周囲の状況、及び、自装置の周囲に存在する人を検知する状況収集手段と、人の属性毎に定められ、前記状況の問題の発生の有無を判断するための閾値を示す情報を記憶する記憶手段と、前記状況収集手段によって検知された前記状況の検知結果を表す値が前記閾値以上となる場合、前記問題が発生したと判断する検知手段と、自装置の機能だけでは前記問題を解決する解決手段が実行できない場合、前記自装置以外の要素を利用する前記解決手段を実行するための制御を行う制御手段と、を含み、前記検知手段は、更に、前記記憶手段に記憶されている情報を参照することで、前記状況収集手段によって検知された人の属性に応じて前記閾値を変更する、ロボット装置である。 The invention according to claim 1 is determined for each situation of the surrounding situation and a situation collecting means for detecting a person existing around the device, and for determining whether or not the problem of the situation has occurred. A storage unit that stores information indicating a threshold value, a detection unit that determines that the problem has occurred when a value representing a detection result of the situation detected by the situation collection unit is equal to or greater than the threshold value, If only the functions that can not be executed solutions to solve before Kitoi problem, the saw including a control unit, a for performing control to execute the solutions that utilize elements other than the self apparatus, wherein the detecting means Furthermore, the robot apparatus changes the threshold value according to the attribute of the person detected by the situation collecting unit by referring to the information stored in the storage unit .

請求項2に係る発明は、前記要素は、前記自装置以外の機器及び人の中の少なくとも1つを含む、ことを特徴とする請求項1に記載のロボット装置である。   The invention according to claim 2 is the robot apparatus according to claim 1, wherein the element includes at least one of a device and a person other than the self apparatus.

請求項3に係る発明は、前記制御手段は、人が検知されない場合、人を用いない前記解決手段が実行されるための制御を優先的に実行する、ことを特徴とする請求項2に記載のロボット装置である。   The invention according to claim 3 is characterized in that, when no person is detected, the control means preferentially executes control for executing the solution means not using a person. It is a robot device.

請求項4に係る発明は、前記制御手段は、前記自装置以外の機器に前記解決手段を実行させる、ことを特徴とする請求項2又は請求項3に記載のロボット装置である。   The invention according to claim 4 is the robot apparatus according to claim 2 or 3, wherein the control means causes a device other than the own apparatus to execute the solution means.

請求項5に係る発明は、前記制御手段は、前記自装置以外の機器と通信して前記自装置以外の機器を制御することで、前記自装置以外の機器に前記解決手段を実行させる、ことを特徴とする請求項4に記載のロボット装置である。   According to a fifth aspect of the invention, the control means communicates with a device other than the own device and controls a device other than the own device, thereby causing the device other than the own device to execute the solution means. The robot apparatus according to claim 4.

請求項6に係る発明は、前記制御手段は、前記自装置以外の機器の操作部への直接操作を制御することで、前記自装置以外の機器に前記解決手段を実行させる、ことを特徴とする請求項4に記載のロボット装置である。   The invention according to claim 6 is characterized in that the control unit controls a direct operation to an operation unit of a device other than the own device, thereby causing a device other than the own device to execute the solution unit. The robot apparatus according to claim 4.

請求項7に係る発明は、前記自装置以外の機器と通信して制御できない場合、前記制御手段は、前記直接操作を制御する、ことを特徴とする請求項6に記載のロボット装置である。   The invention according to claim 7 is the robot apparatus according to claim 6, wherein the control unit controls the direct operation when communication with a device other than the device itself is impossible to control.

請求項8に係る発明は、前記解決手段は、前記自装置、前記自装置以外の機器及び人の中の少なくとも2つの共同作業によって実行される手段である、ことを特徴とする請求項2から請求項7何れかに記載のロボット装置である。   The invention according to claim 8 is characterized in that the solving means is means executed by at least two collaborative operations among the own device, a device other than the own device, and a person. A robot apparatus according to claim 7.

請求項9に係る発明は、前記制御手段は、前記解決手段が実行されるための制御として、前記解決手段を示す情報の出力を制御する、ことを特徴とする請求項1から請求項8何れかに記載のロボット装置である。   The invention according to claim 9 is characterized in that the control means controls output of information indicating the solving means as control for executing the solving means. The robot apparatus according to claim 1.

請求項10に係る発明は、前記解決手段を示す情報は、前記状況を示す情報を含む、ことを特徴とする請求項9に記載のロボット装置である。   The invention according to claim 10 is the robot apparatus according to claim 9, wherein the information indicating the solving means includes information indicating the situation.

請求項11に係る発明は、前記制御手段は、端末装置への前記解決手段を示す情報の出力を制御する、ことを特徴とする請求項9又は請求項10に記載のロボット装置である。   The invention according to claim 11 is the robot apparatus according to claim 9 or 10, wherein the control means controls output of information indicating the solution means to the terminal device.

請求項12に係る発明は、前記解決手段は、前記端末装置を利用するユーザの指示に基づき実行される、ことを特徴とする請求項11に記載のロボット装置である。   The invention according to a twelfth aspect is the robot apparatus according to the eleventh aspect, wherein the solving means is executed based on an instruction of a user who uses the terminal device.

請求項13に係る発明は、前記指示は、前記自装置の周囲に存在する機器を利用することで実行できる機能の実行指示である、ことを特徴とする請求項12に記載のロボット装置である。   The invention according to claim 13 is the robot apparatus according to claim 12, characterized in that the instruction is an instruction to execute a function that can be executed by using devices existing around the apparatus. .

請求項14に係る発明は、器の位置情報、周囲の画像及び通信状況の中の少なくとも1つに基づいて、前記自装置の周囲に存在する機器を識別する識別手段を更に有する、ことを特徴とする請求項13に記載のロボット装置である。 The invention according to claim 14, position information of the equipment, based on at least one of the surrounding image and communication status further comprises identifying means for identifying a device existing around the own device, that 14. The robot apparatus according to claim 13, wherein the robot apparatus is characterized in that:

請求項15に係る発明は、前記指示を示す情報を、前記自装置の周囲に存在する機器に送信する送信手段を更に有する、ことを特徴とする請求項12から請求項14何れかに記載のロボット装置である。   The invention according to claim 15 further comprises transmission means for transmitting information indicating the instruction to a device existing around the device, according to any one of claims 12 to 14. It is a robot device.

請求項16に係る発明は、前記制御手段は、前記解決手段を示す情報の表示を制御する、ことを特徴とする請求項9から請求項15何れかに記載のロボット装置である。   The invention according to claim 16 is the robot apparatus according to any one of claims 9 to 15, wherein the control means controls display of information indicating the solution means.

請求項17に係る発明は、前記制御手段は、前記解決手段を実行できる機器に紐付く機器画像の表示を更に制御する、ことを特徴とする請求項16に記載のロボット装置である。   The invention according to claim 17 is the robot apparatus according to claim 16, wherein the control unit further controls display of a device image associated with a device capable of executing the solution unit.

請求項18に係る発明は、ユーザによって指定された機器画像に紐付く機器を利用する機能が実行される、ことを特徴とする請求項17に記載のロボット装置である。   The invention according to claim 18 is the robot apparatus according to claim 17, characterized in that a function of using a device associated with a device image designated by a user is executed.

請求項19に係る発明は、ユーザによって複数の機器画像が指定された場合、前記複数の機器画像に紐付く複数の機器を利用する連携機能が実行される、ことを特徴とする請求項17に記載のロボット装置である。   The invention according to claim 19 is characterized in that, when a plurality of device images are designated by a user, a cooperation function that uses a plurality of devices associated with the plurality of device images is executed. It is a robot apparatus of description.

請求項2に係る発明は、人に関する情報に基づく第1の検知結果と、人以外の情報に基づく第2の検知結果と、に基づく前記状況の問題が異なる場合、前記制御手段は、予め定めた前記第1の検知結果又は前記第2の検知結果の優先順位に基づき、前記状況の問題を解決する前記解決手段を選択する、ことを特徴とする請求項から請求項19何れかに記載のロボット装置である。 The invention according to claim 2 0, when the first detection result based on the information about the person, and a second detection result based on information other than humans, the problem of the situation based on different, wherein, in advance based on the first detection result or priority of the second detection result determined, selecting the solutions to solve the problem of the situation, to claim 19 claim 1, wherein the It is a robot apparatus of description.

請求項2に係る発明は、人に関する情報は、人を表わす画像を含む情報である、ことを特徴とする請求項20に記載のロボット装置である。 The invention according to claim 2 1, information about the person is information including an image representing a person, it is a robotic apparatus of claim 2 0, wherein.

請求項2に係る発明は、前記画像は、人の身体の少なくとも一部を表わす画像である、ことを特徴とする請求項2に記載のロボット装置である。 The invention according to claim 2 2, wherein the image is an image representing at least a portion of the human body, it is a robot device according to claim 2 1, wherein the.

請求項2に係る発明は、前記画像は、人の顔を表わす画像である、ことを特徴とする請求項2に記載のロボット装置である。 The invention according to claim 2 3, wherein the image is an image representing a human face, it is a robot apparatus according to claim 2 2 wherein.

請求項2に係る発明は、人に関する情報は、人の音声を含む情報である、ことを特徴とする請求項20から請求項2何れかに記載のロボット装置である。 The invention according to claim 2 4, the information about the person, the information including the human voice, it is a robot apparatus according to any one of claims 2 to 3 claim 20, wherein.

請求項2に係る発明は、前記自装置以外の前記要素が有料で使用可能な場合、前記制御手段は、前記自装置以外の要素を使用するための支払い動作を制御する、ことを特徴とする請求項1から請求項24何れかに記載のロボット装置である。 The invention according to claim 25 is characterized in that, when the elements other than the own apparatus can be used for a fee, the control means controls a payment operation for using the elements other than the own apparatus. The robot apparatus according to any one of claims 1 to 24.

請求項2に係る発明は、前記支払い動作は、電子通貨及び仮想通貨の中の少なくとも1つの通貨による支払い動作を含む、ことを特徴とする請求項2に記載のロボット装置である。 The invention according to claim 26 is the robot apparatus according to claim 25 , wherein the payment operation includes a payment operation using at least one of electronic currency and virtual currency.

請求項27に係る発明は、前記自装置が支払い能力を有していない場合、前記制御手段は、前記自装置以外の要素から支払い援助を受けて前記支払い動作を行う、ことを特徴とする請求項2又は請求項2に記載のロボット装置である。 The invention according to claim 27 is characterized in that, when the device itself does not have a payment capability, the control means performs the payment operation by receiving payment assistance from an element other than the device itself. The robot apparatus according to Item 25 or Claim 26 .

請求項28に係る発明は、前記制御手段は、前記問題を解決するための行動に関与し得る人から支払用の金銭を取得する、ことを特徴とする請求項27に記載のロボット装置である。 The invention according to claim 28 is the robot apparatus according to claim 27 , wherein the control means acquires money for payment from a person who can be involved in an action for solving the problem. .

請求項29に係る発明は、記問題を解決するための前記解決手段を検索する検索手段を更に有する、ことを特徴とする請求項1から請求項28何れかに記載のロボット装置である。 The invention according to claim 29, further comprising a retrieval means for search the means for solving the previous SL problem is the robotic device according to claim 28 claim 1, characterized in that .

請求項3に係る発明は、前記検索手段は、インターネットを利用して前記解決手段を検索する、ことを特徴とする請求項29に記載のロボット装置である。 The invention according to claim 3 0, wherein the search means uses the Internet to search for the solution, it is a robot apparatus according to claim 29, wherein.

請求項3に係る発明は、前記自装置のみで前記解決手段を決定できない場合、前記制御手段は、ユーザに問い合わせるモードの実行を制御する、ことを特徴とする請求項1から請求項3何れかに記載のロボット装置である。 The invention according to claim 3 1, when the not determine the solutions only in its own device, the control means controls the execution of the mode querying the user, claim 3 0 claim 1, characterized in that A robot apparatus according to any one of the above.

請求項3に係る発明は、ユーザに問い合わせるモードでは、前記制御手段は、ユーザからの要求に応じて、前記状況に関する情報の更なる収集を制御する、ことを特徴とする請求項3に記載のロボット装置である。 The invention according to claim 3 2, in the mode for prompting the user, the control means, in response to a request from the user, according to claim 3 1 for controlling the further collection of information on the situation, it is a feature of It is a robot apparatus as described in.

請求項3に係る発明は、前記自装置が解決できる問題は、前記自装置が有する機能の更新に応じて変更される、ことを特徴とする請求項1から請求項3何れかに記載のロボット装置である。 The invention according to claim 3 3, wherein the self-device can solve problems, according to the own apparatus is changed according to the update of the functions of the claim 3 2 claim 1, characterized in that It is a robot device.

請求項3に係る発明は、前記機能の更新は、前記自装置が有するハードウェア及びソフトウェアの中の少なくとも1つを変更することで行われる、ことを特徴とする請求項3に記載のロボット装置である。 The invention according to claim 3 4, the update of the function, according to claim 3 3, wherein the self apparatus is performed by changing at least one of hardware and software has, it is characterized by It is a robot device.

請求項3に係る発明は、前記制御手段は、前記問題が解決されるまで、前記解決手段を実行するための制御を繰り返す、ことを特徴とする請求項1から請求項3何れかに記載のロボット装置である。 The invention according to claim 35, wherein the control unit, until the problem is resolved, control is repeated to execute the solution, to claim 3 4 claim 1, characterized in that It is a robot apparatus of description.

請求項3に係る発明は、前記解決手段が実行されない場合、前記制御手段は、別の解決手段を実行するための制御を行う、ことを特徴とする請求項1から請求項3何れかに記載のロボット装置である。 The invention according to claim 3 6, when the solutions are not executed, the control means performs control to perform another solution, either claim 3 claims 1-5, characterized in that It is a robot apparatus as described in.

請求項37に係る発明は、他の場所へ移動するための移動手段を更に有する、ことを特徴とする請求項1から請求項3何れかに記載のロボット装置である。 The invention according to claim 37, further comprising a moving means for moving to another location, it is a robot apparatus according to any one of claims 3 to 6 claim 1 wherein the.

請求項38に係る発明は、前記移動手段は、陸上を移動する機能、飛行する機能、及び、水中を移動する機能、の中の少なくとも1つの機能を有する、ことを特徴とする請求項37に記載のロボット装置である。 The invention according to claim 38, wherein the moving means has a function of moving on land, function of flight, and the ability to move through water, having at least one function in the it in claim 37, wherein It is a robot apparatus of description.

請求項39に係る発明は、周囲の環境に応じて通信方式を変えて前記自装置以外の機器と通信を行う通信手段を更に有する、ことを特徴とする請求項1から請求項38何れかに記載のロボット装置である。 The invention according to claim 39 further comprises a communication means for communicating with devices other than the own device by changing the communication scheme according to the surrounding environment, to claim 38 claim 1, wherein the It is a robot apparatus of description.

請求項39に係る発明は、前記周囲の環境は、周囲に存在する機器との間の距離、及び、障害物の有無、の中の少なくとも1つに関する、ことを特徴とする請求項39に記載のロボット装置である。 The invention according to claim 39, the environment of the surroundings, the distance between the devices existing around, and, according to claim 39, wherein the presence or absence of an obstacle, to at least one of, the It is a robot device.

請求項4に係る発明は、前記解決手段が、前記問題の解決のために人の行動を喚起させる手段の場合、前記制御手段は、前記問題を解決するための行動の手順の報知を制御する、ことを特徴とする請求項1から請求項4何れかに記載のロボット装置である。 The invention according to claim 4 1, wherein the solutions are, for means for urging the human behavior to resolve the problem, the control means controls the notification procedure of actions to solve the problem to it is a robot apparatus according to any one of claims 4 0 from claim 1.

請求項4に係る発明は、前記自装置の機能では解決できない前記問題は、前記自装置の機能だけでは解決できない問題、前記自装置の機能だけでは解決に要する時間が時間閾値以上となる問題、又は、前記自装置の機能による作業の結果の質が予め定められた質以下となる問題である、ことを特徴とする請求項1から請求項4何れかに記載のロボット装置である。 The invention according to claim 4 2, wherein said problem can not be resolved is a feature of the apparatus, the function alone can not solve the problem of the device itself, the only function of the apparatus is a problem that the time required for the resolution becomes more time threshold or, wherein a function of the problem a result of the quality is less than or equal to the predetermined quality of work of its own device, it is a robot apparatus according to any one of claims 4 1 from claim 1.

請求項4に係る発明は、コンピュータを、周囲の状況、及び、自装置の周囲に存在する人を検知する状況収集手段、人の属性毎に定められ、前記状況の問題の発生の有無を判断するための閾値を示す情報を記憶する記憶手段を参照し、前記状況収集手段によって検知された前記状況の検知結果を表す値が前記閾値以上となる場合、前記問題が発生したと判断する検知手段、自装置の機能だけでは前記問題を解決する解決手段が実行できない場合、前記自装置以外の要素を利用する前記解決手段を実行するための制御を行う制御手段、として機能させ、前記検知手段は、更に、前記記憶手段に記憶されている情報を参照することで、前記状況収集手段によって検知された人の属性に応じて前記閾値を変更する、プログラムである。 The invention according to claim 4 3, a computer, surroundings, and, status collecting means for detecting a person existing around the own device, determined for each human attributes, the occurrence of problems of the situation Detection that refers to a storage unit that stores information indicating a threshold value for determination, and determines that the problem has occurred when a value representing a detection result of the situation detected by the situation collection unit is equal to or greater than the threshold value means, if only functions of the apparatus can not execute the solutions to solve the previous Kitoi problem, control means for performing said control in order to perform the solutions that utilize elements other than the self apparatus, to function as, The detection means is a program that further changes the threshold according to the attribute of the person detected by the status collection means by referring to information stored in the storage means .

請求項1,9,10,4,4に係る発明によると、ロボット装置が状況に応じて連携して問題を解決できる。 According to the invention of claim 1,9,10,4 2, 4 4, it is possible to solve the problem in cooperation according robotic device to the situation.

請求項2に係る発明によると、機器及び人の中の少なくとも1つを利用する解決手段が実行される。   According to the second aspect of the present invention, a solution that uses at least one of a device and a person is executed.

請求項3に係る発明によると、人を用いる解決手段が実行されるための制御を行う場合と比べて、ロボット装置の負荷が軽減する。   According to the third aspect of the present invention, the load on the robot apparatus is reduced as compared with the case of performing control for executing the solution means using humans.

請求項4−6に係る発明によると、ロボット装置以外の機器によって解決手段が実行される。   According to the invention of claim 4-6, the solving means is executed by a device other than the robot apparatus.

請求項7に係る発明によると、通信によって機器を制御できない場合であっても、その機器を利用する解決手段が実行される。   According to the seventh aspect of the invention, even when the device cannot be controlled by communication, the solution means that uses the device is executed.

請求項8に係る発明によると、ロボット装置も利用して解決手段が実行される。   According to the eighth aspect of the invention, the solving means is executed using the robot apparatus.

請求項11,12,16に係る発明によると、解決手段がユーザに提示される。   According to the inventions according to claims 11, 12, and 16, the solution means is presented to the user.

請求項13−15に係る発明によると、周囲に存在する機器を利用して解決手段が実行される。   According to the invention according to claims 13-15, the solving means is executed by utilizing the devices present in the surroundings.

請求項17に係る発明によると、解決手段を実行できる機器がユーザに提示される。   According to the invention of claim 17, a device capable of executing the solving means is presented to the user.

請求項18,19に係る発明によると、機器画像を操作することで解決手段が実行される。   According to the eighteenth and nineteenth aspects, the solving means is executed by manipulating the device image.

請求項21−2に係る発明によると、検知の精度が向上し得る。 According to the invention of claim 21 - 24, the accuracy of detection can be improved.

請求項2に係る発明によると、検知結果が矛盾する場合であっても、解決手段が特定される。 According to the invention of claim 2 0, even if the detection result is inconsistent, solutions are identified.

請求項228に係る発明によると、有料で使用可能な機器を使用することができる。 Claim 2 5 - According to the invention of 28, it is possible to use an instrument that can be used for a fee.

請求項29,3に係る発明によると、解決手段が検索される。 According to the invention of claim 29, 3 0, solutions are searched.

請求項3に係る発明によると、ロボット装置のみで解決手段を決定できない場合、ユーザの指示が得られる状態となる。 According to the invention of claim 3 1, when it is not possible to determine the solutions only in a robot apparatus, a state in which a user instruction is obtained.

請求項3に係る発明によると、ユーザが解決手段を決定するために必要な情報がユーザに提供される。 According to the invention according to claim 3 2, information required for the user to determine the solutions are provided to the user.

請求項3,3に係る発明によると、ロボット装置が有する機能の更新に応じて、ロボット装置が解決できる問題が変更される。 According to the inventions according to claims 3 3 and 3 4 , the problem that the robot apparatus can solve is changed according to the update of the function of the robot apparatus.

請求項3,3に係る発明によると、問題が解決されるまで、解決手段が実行される。 According to the invention of claim 3 5, 3 6, until the problem is resolved, solutions are executed.

請求項37,38に係る発明によると、ロボット装置は移動しながら状況の検知や解決手段の制御を行うことが可能となる。 According to the inventions according to claims 37 and 38 , the robot apparatus can detect the situation and control the solution means while moving.

請求項39,4に係る発明によると、より適切な通信方式を利用して通信することが可能となる。 According to the invention of claim 39, 4 0, it is possible to communicate by using a more appropriate communication method.

請求項4に係る発明によると、人が問題を解決し易くなる。
According to the invention according to claim 4 1, human is likely to solve the problem.

本実施形態に係る機器システムを示すブロック図である。It is a block diagram which shows the apparatus system which concerns on this embodiment. 本実施形態に係るロボット装置の外観を示す図である。It is a figure which shows the external appearance of the robot apparatus which concerns on this embodiment. 本実施形態に係るロボット装置を示すブロック図である。It is a block diagram which shows the robot apparatus which concerns on this embodiment. 端末装置を示すブロック図である。It is a block diagram which shows a terminal device. 無線通信技術の特性を示す図である。It is a figure which shows the characteristic of radio | wireless communication technology. 無線通信技術の特性を示す図である。It is a figure which shows the characteristic of radio | wireless communication technology. 所有機能管理テーブルを示す図である。It is a figure which shows an owned function management table. 非所有機能管理テーブルを示す図である。It is a figure which shows a non-owning function management table. 解決手段管理テーブルを示す図である。It is a figure which shows a solution means management table. デバイス機能管理テーブルを示す図である。It is a figure which shows a device function management table. 連携機能管理テーブルを示す図である。It is a figure which shows a cooperation function management table. 状況確認処理の概略を示すフローチャートである。It is a flowchart which shows the outline of a status confirmation process. 状況確認処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a status confirmation process. ユーザ判断モードにおける処理を示すフローチャートである。It is a flowchart which shows the process in user judgment mode. 自律判断モードにおける処理を示すフローチャートである。It is a flowchart which shows the process in autonomous determination mode. 解決手段の実行制御を示すフローチャートである。It is a flowchart which shows execution control of a solution means. ロボット装置の適用場面1を説明するための図である。It is a figure for demonstrating the application scene 1 of a robot apparatus. ロボット装置の適用場面2を説明するための図である。It is a figure for demonstrating the application scene 2 of a robot apparatus. ロボット装置の適用場面3を説明するための図である。It is a figure for demonstrating the application scene 3 of a robot apparatus. ロボット装置の適用場面4を説明するための図である。It is a figure for demonstrating the application scene 4 of a robot apparatus. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 機器の外観を模式的に示す図である。It is a figure which shows the external appearance of an apparatus typically. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 接続処理を示すフローチャートである。It is a flowchart which shows a connection process. 連携機能管理テーブルを示す図である。It is a figure which shows a cooperation function management table. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. デバイス機能管理テーブルを示す図である。It is a figure which shows a device function management table. 画面を示す図である。It is a figure which shows a screen. デバイス機能管理テーブルを示す図である。It is a figure which shows a device function management table. 連携機能管理テーブルを示す図である。It is a figure which shows a cooperation function management table. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen.

図1を参照して、本発明の実施形態に係る情報処理システムとしての機器システムについて説明する。図1には、本実施形態に係る機器システムの一例が示されている。   With reference to FIG. 1, a device system as an information processing system according to an embodiment of the present invention will be described. FIG. 1 shows an example of a device system according to the present embodiment.

本実施形態に係る機器システムは、例えば、ロボット装置10と、1又は複数の機器12と、端末装置14と、を含む。ロボット装置10、機器12及び端末装置14は、例えば、ネットワーク等の通信経路Nを介して他の装置と通信してもよいし、それぞれ異なる通信経路を介して他の装置と通信してもよい。もちろん、図1に示されている構成は一例に過ぎず、ロボット装置10、機器12及び端末装置14は、他の装置と通信しなくてもよい。   The device system according to the present embodiment includes, for example, a robot device 10, one or a plurality of devices 12, and a terminal device 14. For example, the robot apparatus 10, the device 12, and the terminal apparatus 14 may communicate with other apparatuses via a communication path N such as a network, or may communicate with other apparatuses via different communication paths. . Of course, the configuration shown in FIG. 1 is merely an example, and the robot device 10, the device 12, and the terminal device 14 do not have to communicate with other devices.

図1に示す例では、1つの機器12が機器システムに含まれているが、複数の機器12が機器システムに含まれていてもよい。この場合、同一の機能を有する複数の機器12が機器システムに含まれていてもよいし、互いに異なる機能を有する複数の機器12が機器システムに含まれていてもよい。また、1つの端末装置14が機器システムに含まれているが、複数の端末装置14が機器システムに含まれていてもよい。サーバ等の他の装置が機器システムに含まれていてもよい。   In the example illustrated in FIG. 1, one device 12 is included in the device system, but a plurality of devices 12 may be included in the device system. In this case, a plurality of devices 12 having the same function may be included in the device system, or a plurality of devices 12 having different functions may be included in the device system. Further, although one terminal device 14 is included in the device system, a plurality of terminal devices 14 may be included in the device system. Other devices such as a server may be included in the device system.

ロボット装置10は、ロボット装置10の周囲の状況を検知し、発生した問題を検知する機能を有する装置である。ロボット装置10は、移動しながら周囲の状況を検知してもよいし、停止した状態で周囲の状況を検知してもよい。問題が検知された場合、ロボット装置10は、ロボット装置10自身によって問題を解決できるか否かを判断し、その判断結果に応じた処理を行う。ロボット装置10によって問題を解決できる場合、ロボット装置10は問題を解決するための解決手段を実行することで、その問題を解決する。ロボット装置10によって問題を解決できない場合、ロボット装置10は、ロボット装置10以外の要素を利用する解決手段を実行するための制御を行う。要素は、例えば、人、ロボット装置10以外の機器、ロボット装置10以外のロボット装置、等である。もちろん、要素に、ロボット装置10自身が含まれてもよい。例えば、ロボット装置10は、他の機器に問題を解決させてもよいし、人に協力を依頼してもよいし、他の機器と人に問題を解決させてもよいし、他の機器や人と共同して問題を解決してもよい。   The robot apparatus 10 is an apparatus having a function of detecting a situation around the robot apparatus 10 and detecting a problem that has occurred. The robot apparatus 10 may detect the surrounding situation while moving, or may detect the surrounding situation in a stopped state. When a problem is detected, the robot apparatus 10 determines whether the problem can be solved by the robot apparatus 10 itself, and performs processing according to the determination result. When the robot apparatus 10 can solve the problem, the robot apparatus 10 solves the problem by executing a solution means for solving the problem. When the problem cannot be solved by the robot apparatus 10, the robot apparatus 10 performs control for executing a solution means that uses elements other than the robot apparatus 10. The elements are, for example, a person, a device other than the robot device 10, a robot device other than the robot device 10, and the like. Of course, the element may include the robot apparatus 10 itself. For example, the robot apparatus 10 may cause another device to solve the problem, may ask a person to cooperate, may cause another device and a person to solve the problem, You may work with people to solve the problem.

ロボット装置10によって検知された問題は、例えば、ロボット装置10のみによって解決できる問題、ロボット装置10以外の他の機器のみによって解決できる問題、人のみによって解決できる問題、他の機器と人との共同作業によって解決できる問題、ロボット装置10と人との共同作業によって解決できる問題、他の機器とロボット装置10との共同作業によって解決できる問題、他の機器と他のロボット装置とロボット装置10との共同作業によって解決できる問題、他の機器と人とロボット装置10との共同作業によって解決できる問題、等である。つまり、解決手段は、例えば、ロボット装置10のみによって実現される手段、他の機器のみによって実現される手段、人のみによって実現される手段、他の機器と人との共同作業によって実現される手段、ロボット装置10と人との共同作業によって実現される手段、他の機器とロボット装置10との共同作業によって実現される手段、他の機器と他のロボット装置とロボット装置10との共同作業によって実現される手段、他の機器と人とロボット装置10との共同作業によって実現される手段、等である。   The problems detected by the robot apparatus 10 are, for example, problems that can be solved only by the robot apparatus 10, problems that can be solved only by other devices other than the robot apparatus 10, problems that can be solved only by people, and collaboration between other devices and people. Problems that can be solved by work, problems that can be solved by joint work between the robot apparatus 10 and a person, problems that can be solved by joint work between the other apparatus and the robot apparatus 10, and between other equipment and other robot apparatuses and the robot apparatus 10 Problems that can be solved by collaborative work, problems that can be solved by collaborative work between other devices, people, and the robot apparatus 10. That is, the solving means is, for example, a means realized only by the robot apparatus 10, a means realized only by another device, a means realized only by a person, or a means realized by collaborative work between another device and a person. , Means realized by joint work between the robot apparatus 10 and a person, means realized by joint work between the other apparatus and the robot apparatus 10, and joint work between the other equipment, the other robot apparatus and the robot apparatus 10 Means realized, means realized by collaborative work of another device, a person, and the robot apparatus 10.

機器12は、特定の機能を有する装置であり、例えば、画像形成機能を備えた画像形成装置、パーソナルコンピュータ(PC)、液晶ディスプレイやプロジェクタ等の表示装置、香りを発生するアロマ器、電話機、時計、カメラ、監視カメラ、自動販売機、空調機(エアコン、クーラー等)、扇風機、加湿器、等の装置である。もちろん、これら以外の機器が機器システムに含まれていてもよい。なお、機器が有する機能によっては、機器もロボット装置の範疇に含まれ得る。   The device 12 is a device having a specific function. For example, an image forming device having an image forming function, a personal computer (PC), a display device such as a liquid crystal display or a projector, an aroma device that generates a scent, a telephone, a watch , Cameras, surveillance cameras, vending machines, air conditioners (air conditioners, coolers, etc.), electric fans, humidifiers, etc. Of course, devices other than these may be included in the device system. Note that depending on the function of the device, the device may be included in the category of the robot apparatus.

端末装置14は、例えば、パーソナルコンピュータ(PC)、タブレットPC、スマートフォン、携帯電話、等の装置である。端末装置14は、例えば、問題を解決するための解決手段の実行時等にユーザによって利用される。   The terminal device 14 is a device such as a personal computer (PC), a tablet PC, a smartphone, a mobile phone, or the like. The terminal device 14 is used by the user, for example, when executing a solution means for solving a problem.

本実施形態では、ロボット装置10によって周囲の状況が検知され、その状況の問題に応じて、その問題を解決するための解決手段を実行するための制御が行われる。   In the present embodiment, a surrounding situation is detected by the robot apparatus 10, and control for executing a solution means for solving the problem is performed according to the problem of the situation.

以下、本実施形態に係る機器システムに含まれる各装置について詳しく説明する。   Hereinafter, each device included in the device system according to the present embodiment will be described in detail.

図2には、ロボット装置10の外観が示されている。ロボット装置10は、例えば、人型のロボットである。もちろん、ロボット装置10は、人型以外のタイプのロボットであってもよい。図2に示す例では、ロボット装置10は、胴体部16と、胴体部16上に設けられた頭部18と、胴体部16の下部に設けられた脚部20と、胴体部16の両側部にそれぞれ設けられた腕部22と、各腕部22の先端に設けられた指部24と、を含む。   FIG. 2 shows an appearance of the robot apparatus 10. The robot apparatus 10 is, for example, a humanoid robot. Of course, the robot apparatus 10 may be a robot of a type other than a humanoid. In the example illustrated in FIG. 2, the robot apparatus 10 includes a body portion 16, a head 18 provided on the body portion 16, leg portions 20 provided at a lower portion of the body portion 16, and both side portions of the body portion 16. Each of the arm portions 22 and the finger portion 24 provided at the tip of each arm portion 22.

ロボット装置10は、例えば、視覚センサー、聴覚センサー、触覚センサー、味覚センサー及び嗅覚センサー等の各種センサーを有し、人の五感に相当する視覚、聴覚、触覚、味覚及び嗅覚に関する能力を有する。ロボット装置10は、例えば、触覚に関して、表在感覚(触覚、痛角、温度覚等)、深部覚(圧覚、位置覚、振動覚等)、皮質性感覚(二点識別覚、立体識別能力等)を分別して理解する能力を有する。また、ロボット装置10は、平衡感覚を有している。例えば、頭部18にカメラ26等のセンサーが設けられており、視覚は、カメラ26等によって得られた画像を用いた画像認識によって実現される。また、ロボット装置10にマイク等の集音手段が設けられており、聴覚は、マイク等によって得られた音を用いた音声認識によって実現される。   The robot apparatus 10 includes various sensors such as a visual sensor, an auditory sensor, a tactile sensor, a taste sensor, and an olfactory sensor, for example, and has an ability related to vision, hearing, touch, taste, and olfaction corresponding to human senses. The robot apparatus 10 has, for example, superficial sensations (tactile sensation, pain angle, temperature sensation, etc.), deep sensation (pressure sensation, positional sensation, vibration sensation, etc.), cortical sensation (two-point discrimination sensation, three-dimensional discrimination, etc. ) Have the ability to segregate and understand. The robot apparatus 10 has a sense of balance. For example, a sensor such as a camera 26 is provided on the head 18, and vision is realized by image recognition using an image obtained by the camera 26 or the like. The robot apparatus 10 is provided with sound collecting means such as a microphone, and hearing is realized by voice recognition using sound obtained by the microphone or the like.

ロボット装置10は、人の脳波を検知する手段(例えば、人に脳波検知デバイスが設けられており、脳波検知デバイスから発信される情報を受信する手段)を備えていてもよい。   The robot apparatus 10 may include means for detecting a human brain wave (for example, a means in which a human brain wave detection device is provided and information transmitted from the brain wave detection device is received).

脚部20は移動手段の一例に相当し、例えば、モータ等の駆動源からの駆動力によって駆動するようになっている。ロボット装置10は、脚部20によって移動できる。脚部20は、人の足のような形状を有していてもよいし、ローラやタイヤ等であってもよいし、別の形状を有していてもよい。脚部20は移動手段の一例に過ぎず、ロボット装置10は、脚部20以外の移動手段として、例えば、飛行するための構成(例えばプロペラ、羽、飛行用のエンジン等)を備えていてもよいし、水中を移動するための構成(例えば水中移動用のエンジン等)を備えていてもよい。つまり、ロボット装置10は、移動手段として、陸上を移動するための手段、飛行するための手段、及び、水中を移動するための手段の中の少なくとも1つの手段を備えていればよい。もちろん、ロボット装置10は、移動手段を備えていなくてもよい。   The leg portion 20 corresponds to an example of a moving means, and is driven by a driving force from a driving source such as a motor, for example. The robot apparatus 10 can be moved by the legs 20. The leg 20 may have a shape like a human foot, a roller, a tire, or the like, or may have another shape. The leg portion 20 is merely an example of a moving unit, and the robot apparatus 10 may include, for example, a configuration for flying (for example, a propeller, a wing, a flying engine, etc.) as a moving unit other than the leg unit 20. Alternatively, a configuration for moving in water (for example, an engine for moving in water) may be provided. That is, the robot apparatus 10 only needs to include at least one of a means for moving on land, a means for flying, and a means for moving underwater as the moving means. Of course, the robot apparatus 10 may not include a moving unit.

ロボット装置10は、腕部22や指部24によって、物体を掴んだり操作したりする能力を備えていてもよい。ロボット装置10は、物体を掴んだり抱えたりしながら移動する能力を備えていてもよい。   The robot apparatus 10 may have a capability of grasping and operating an object by the arm part 22 and the finger part 24. The robot apparatus 10 may have an ability to move while grasping or holding an object.

ロボット装置10は、音声を発する機能を備えていてもよい。ロボット装置10は、通信機能を備えて、他の装置との間でデータを送受信してもよい。ロボット装置10は、音を出したり、通信メッセージを送ることで、人や他の装置や他のロボット装置とコミュニケーションを取る能力を備えていてもよい。   The robot apparatus 10 may have a function of emitting a voice. The robot apparatus 10 may have a communication function and transmit / receive data to / from other apparatuses. The robot apparatus 10 may have an ability to communicate with a person, another apparatus, or another robot apparatus by making a sound or sending a communication message.

ロボット装置10は、例えば、人工知能(AI)による機械学習によって、人に近い判断を行う能力を備えていてもよい。また、ニューラルネットワーク型のディープラーニングが利用されてもよいし、部分的に学習分野を強化する強化学習等が利用されてもよい。   The robot apparatus 10 may have an ability to make a judgment close to a person by machine learning using artificial intelligence (AI), for example. Neural network type deep learning may be used, or reinforcement learning that partially enhances the learning field may be used.

ロボット装置10は、例えばインターネット等を利用して情報(例えば問題を解決するための解決手段等)を検索する機能を備えていてもよい。   The robot apparatus 10 may have a function of searching for information (for example, solution means for solving a problem) using, for example, the Internet.

ロボット装置10は、通信機能によって他の機器と通信し、他の機器の動作を制御してもよいし、リモコン等を利用して他の機器を操作してもよいし、リモコン等を利用せずに他の機器を直接操作してもよい。直接操作においては、例えば、他の機器に設けられている操作部(例えばボタンやパネル等)がロボット装置10によって操作される。例えば、通信によって他の機器の動作を制御できない場合、ロボット装置10は、リモコン等を利用して他の機器を操作してもよいし、他の機器を直接操作してもよい。例えば、ロボット装置10は、視覚センサーによって得られた画像を解析することで、他の機器の操作部やリモコン等を識別して、他の機器やリモコンを操作する。   The robot apparatus 10 may communicate with other devices by a communication function and control operations of the other devices, may operate other devices using a remote controller or the like, or may use a remote controller or the like. Alternatively, other devices may be operated directly. In the direct operation, for example, an operation unit (for example, a button or a panel) provided in another device is operated by the robot apparatus 10. For example, when the operation of another device cannot be controlled by communication, the robot apparatus 10 may operate another device using a remote controller or the like, or may directly operate another device. For example, the robot apparatus 10 analyzes an image obtained by a visual sensor, identifies an operation unit or a remote control of another device, and operates the other device or the remote control.

また、ロボット装置10は、表示部28を備えていてもよい。表示部28には、発生した問題に関する情報、解決手段に関する情報、各種のメッセージ、等が表示される。   In addition, the robot apparatus 10 may include a display unit 28. The display unit 28 displays information about the problem that has occurred, information about the solution, various messages, and the like.

以下、図3を参照して、ロボット装置10の構成について詳しく説明する。図3は、ロボット装置10の構成を示すブロック図である。   Hereinafter, the configuration of the robot apparatus 10 will be described in detail with reference to FIG. FIG. 3 is a block diagram showing a configuration of the robot apparatus 10.

通信部30は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を備えている。通信部30は、無線通信機能を備えた通信インターフェースであってもよいし、有線通信機能を備えた通信インターフェースであってもよい。通信部30は、例えば、1又は複数の種類の通信方式に対応しており、通信相手に適した通信方式(つまり、通信相手が対応している通信方式)に従って通信相手と通信する。通信方式は、例えば、赤外線通信、可視光通信、Wi−Fi(登録商標)通信、近距離無線通信(例えばBluetooth(ブルートゥース)(登録商標)、RFID(Radio Frequency Identifier)等)、等である。通信部30は、例えば、通信相手に応じて通信方式を切り替えたり、周囲の環境(例えば、ロボット装置10と通信相手との間の距離や、ロボット装置10と通信相手との間の障害物の有無等)に応じて通信方式を切り替えたりする。また、通信の周波数帯として、例えば、800MHz〜920MHz(LPWA(Low Power Wide Area)等)といった短波長帯、2.4GHz、5GHz(MuLTEfire)といった長波長、等が利用されてもよい。通信部30は、例えば、通信相手に応じて周波数帯を切り替えたり、周囲の環境に応じて通信方式を切り替えたりする。   The communication unit 30 is a communication interface, and has a function of transmitting data to other devices and a function of receiving data from other devices. The communication unit 30 may be a communication interface having a wireless communication function or a communication interface having a wired communication function. The communication unit 30 corresponds to, for example, one or more types of communication methods, and communicates with the communication partner according to a communication method suitable for the communication partner (that is, a communication method supported by the communication partner). The communication method is, for example, infrared communication, visible light communication, Wi-Fi (registered trademark) communication, short-range wireless communication (for example, Bluetooth (registered trademark), RFID (Radio Frequency Identifier), or the like). The communication unit 30 switches, for example, the communication method according to the communication partner, the surrounding environment (for example, the distance between the robot device 10 and the communication partner, or the obstacle between the robot device 10 and the communication partner). The communication method is switched according to the presence / absence). Further, as a communication frequency band, for example, a short wavelength band such as 800 MHz to 920 MHz (LPWA (Low Power Wide Area) or the like), a long wavelength such as 2.4 GHz or 5 GHz (MuLTEfire), or the like may be used. For example, the communication unit 30 switches the frequency band according to the communication partner or switches the communication method according to the surrounding environment.

記憶部32はハードディスクやメモリ(例えばSSD等)等の記憶装置である。記憶部32には、例えば、所有機能管理情報34、非所有機能管理情報36、解決手段管理情報38、デバイス機能管理情報40、連携機能管理情報42、その他、各種のデータ、各種のプログラム、等が記憶されている。また、他の機器のアドレスを示すデバイスアドレス情報が記憶部32に記憶されていてもよい。上記の情報は、それぞれ別々の記憶装置に記憶されてもよいし、同じ記憶装置に記憶されてもよい。   The storage unit 32 is a storage device such as a hard disk or a memory (for example, SSD). In the storage unit 32, for example, owned function management information 34, non-owned function management information 36, solution means management information 38, device function management information 40, linkage function management information 42, and other various data, various programs, etc. Is remembered. In addition, device address information indicating the address of another device may be stored in the storage unit 32. The above information may be stored in separate storage devices, or may be stored in the same storage device.

所有機能管理情報34は、ロボット装置10が有する機能を示す情報である。所有機能管理情報34においては、例えば、ロボット装置10が有する機能を示す情報と、その機能によって実行可能なこと(動作、処理、操作等)を示す情報と、が対応付けられている。所有機能管理情報34を参照することで、ロボット装置10によって実行可能なことが特定(識別)される。所有機能管理情報34に示されていない機能は、ロボット装置10が有していない機能であるため、所有機能管理情報34を参照することで、ロボット装置10によって実行不可能なことが特定(識別)されてもよい。   The owned function management information 34 is information indicating the functions of the robot apparatus 10. In the owned function management information 34, for example, information indicating the function of the robot apparatus 10 and information indicating that the function can be executed (operation, processing, operation, etc.) are associated with each other. By referring to the owned function management information 34, it is specified (identified) that it can be executed by the robot apparatus 10. Since functions not shown in the owned function management information 34 are functions that the robot apparatus 10 does not have, it is specified (identified) that the robot apparatus 10 cannot execute by referring to the owned function management information 34. ).

非所有機能管理情報36は、ロボット装置10が有していない機能を示す情報である。非所有機能管理情報36においては、例えば、ロボット装置10が有していない機能を示す情報と、ロボット装置10がその機能を有していないことで実行不可能なことを示す情報と、が対応付けられている。非所有機能管理情報36を参照することで、ロボット装置10によって実行不可能なことが特定(識別)される。非所有機能管理情報36に示されていない機能は、ロボット装置10が有している機能である場合があるため、非所有機能管理情報36を参照することで、ロボット装置10によって実行可能なことが特定(識別)されてもよい。   The non-owned function management information 36 is information indicating functions that the robot apparatus 10 does not have. The non-owned function management information 36 corresponds to, for example, information indicating a function that the robot apparatus 10 does not have and information indicating that the robot apparatus 10 cannot execute because the robot apparatus 10 does not have the function. It is attached. By referring to the non-owned function management information 36, it is specified (identified) that the robot apparatus 10 cannot execute. Functions that are not shown in the non-owned function management information 36 may be functions that the robot apparatus 10 has, and therefore can be executed by the robot apparatus 10 by referring to the non-owned function management information 36. May be specified (identified).

記憶部32には、所有機能管理情報34と非所有機能管理情報36の両方の情報が記憶されて、これらの情報に基づいて、ロボット装置10によって実行可能又は実行不可能なことが特定されてもよいし、いずれか一方の情報が記憶されて、その情報に基づいて、ロボット装置10によって実行可能又は実行不可能なことが特定されてもよい。   The storage unit 32 stores information on both the owned function management information 34 and the non-owned function management information 36. Based on these information, it is specified that the robot apparatus 10 can execute or cannot execute the information. Alternatively, any one piece of information may be stored, and based on the information, it may be specified that the robot apparatus 10 can execute or cannot execute.

解決手段管理情報38は、発生した問題を解決するための解決手段(解決方法、解決行動)を示す情報である。解決手段管理情報38においては、例えば、発生すると想定される問題を示す情報と、その問題の解決手段を示す情報と、が対応付けられている。   The solution management information 38 is information indicating solution means (solution, solution action) for solving the problem that has occurred. In the solution management information 38, for example, information indicating a problem assumed to occur and information indicating a solution for the problem are associated with each other.

デバイス機能管理情報40は、ロボット装置10以外の機器が有する機能を管理するための情報であり、例えば、機器を識別するためのデバイス識別情報(機器識別情報)と、当該機器が有する機能を示す機能情報と、の対応付けを示す情報である。デバイス識別情報は、例えば、機器ID、機器名称、機器の種類を示す情報、機器の型番号、機器が設置されている位置を示す情報(機器の位置情報)、機器の外観を表わす外観画像、等である。機能情報は、例えば、機能IDや機能名称等である。例えば、機器としての画像形成装置が、スキャン機能、コピー機能及びスキャン転送機能を有する場合、当該画像形成装置のデバイス識別情報には、スキャン機能を示す機能情報、コピー機能を示す機能情報、及び、スキャン転送機能を示す機能情報が対応付けられている。デバイス機能管理情報40を参照することにより、各機器が有する機能が特定(識別)される。   The device function management information 40 is information for managing functions possessed by devices other than the robot apparatus 10. For example, device function management information 40 indicates device identification information (device identification information) for identifying a device and a function possessed by the device. This is information indicating the association with function information. The device identification information includes, for example, a device ID, a device name, information indicating the device type, a device model number, information indicating a position where the device is installed (device position information), an appearance image indicating the appearance of the device, Etc. The function information is, for example, a function ID or a function name. For example, when an image forming apparatus as a device has a scan function, a copy function, and a scan transfer function, the device identification information of the image forming apparatus includes function information indicating a scan function, function information indicating a copy function, and The function information indicating the scan transfer function is associated. By referring to the device function management information 40, the function of each device is specified (identified).

デバイス機能管理情報40によって管理されている機器は、例えば機器システムに含まれる機器(例えば機器12)である。もちろん、機器システムに含まれない機器がデバイス機能管理情報40によって管理されてもよい。例えば、ロボット装置10は、機器システムに含まれていない新たな機器に関する情報(デバイス識別情報と機能情報とを含む情報)を取得し、デバイス機能管理情報40に新たに登録してもよい。機器に関する情報は、例えば、インターネット等を利用することで取得されてもよいし、管理者等によって入力されてもよい。また、ロボット装置10は、任意のタイミング、定期的、又は、管理者等によって指定されたタイミング等で、デバイス機能管理情報40を更新してもよい。これにより、更新前には機器が有していなかったが更新後には機器が有することになった機能を示す機能情報が、デバイス機能管理情報40に登録される場合がある。同様に、更新前には機器が有していたが更新後には機器が有していない機能を示す機能情報が、デバイス機能管理情報40から削除され、又は、使用不可な情報として登録される場合がある。更新用の情報は、例えば、インターネット等を利用することで取得されてもよいし、管理者等によって入力されてもよい。   The device managed by the device function management information 40 is, for example, a device (for example, the device 12) included in the device system. Of course, devices that are not included in the device system may be managed by the device function management information 40. For example, the robot apparatus 10 may acquire information related to a new device that is not included in the device system (information including device identification information and function information) and newly register it in the device function management information 40. Information about the device may be acquired by using the Internet, for example, or may be input by an administrator or the like. Further, the robot apparatus 10 may update the device function management information 40 at an arbitrary timing, periodically, or at a timing designated by an administrator or the like. As a result, function information indicating functions that the device did not have before the update but that the device had after the update may be registered in the device function management information 40. Similarly, when function information indicating a function that the device has before the update but does not have the device after the update is deleted from the device function management information 40 or registered as unusable information There is. The update information may be acquired by using the Internet or the like, or may be input by an administrator or the like.

連携機能管理情報42は、複数の機能を連携させることによって実行される連携機能を管理するための情報である。複数の機能を連携させることによって、1又は複数の連携機能が実行される。連携機能は、例えば、1つの機器が有する複数の機能を連携させることによって実行されてもよいし、複数の機器が有する複数の機能を連携させることによって実行されてもよい。また、操作指示を出している装置(例えば端末装置14)も識別対象の機器に含め、端末装置が有する機能を連携機能の一部として利用してもよいし、ロボット装置10が有する機能を連携機能の一部として利用してもよい。   The cooperation function management information 42 is information for managing a cooperation function executed by linking a plurality of functions. By coordinating a plurality of functions, one or a plurality of cooperation functions are executed. For example, the cooperation function may be executed by linking a plurality of functions of one device, or may be executed by linking a plurality of functions of a plurality of devices. In addition, a device that issues an operation instruction (for example, the terminal device 14) may be included in the identification target device, and the function of the terminal device may be used as a part of the cooperation function, or the function of the robot device 10 may be linked. It may be used as part of the function.

連携機能は、ハードウェアとしての機器を利用せずに実行される機能であってもよい。例えば、連携機能は、複数のソフトウェアを連携させることによって実行される機能であってもよい。もちろん、連携機能は、ハードウェアとしての機器が有する機能と、ソフトウェアによって実現される機能と、を連携させることによって実行される機能であってもよい。   The linkage function may be a function that is executed without using a device as hardware. For example, the cooperation function may be a function executed by linking a plurality of software. Of course, the linkage function may be a function executed by linking a function of a device as hardware and a function realized by software.

連携機能管理情報42は、例えば、連携機能に利用される各機能を示す機能情報の組み合わせと、当該連携機能を示す連携機能情報と、の対応付けを示す情報である。連携機能情報は、例えば、連携機能IDや連携機能名称等である。単独の機能が更新された場合、その更新に伴って連携機能管理情報42も更新される。これにより、更新前には互いに連携不可能であった複数の機能による連携機能が更新後には利用可能になったり、それとは逆に、更新前には利用可能な連携機能が更新後には利用不可能になったりする場合がある。更新後に利用可能になった連携機能を示す連携機能情報が、連携機能管理情報42に登録され、更新後に利用不可能になった連携機能を示す連携機能情報が、連携機能管理情報42から削除され、又は、使用不可な情報として登録される。   The cooperation function management information 42 is, for example, information indicating a correspondence between a combination of function information indicating each function used for the cooperation function and cooperation function information indicating the cooperation function. The cooperation function information is, for example, a cooperation function ID or a cooperation function name. When a single function is updated, the link function management information 42 is also updated along with the update. As a result, a collaborative function with multiple functions that could not be linked to each other before the update becomes available after the update, and conversely, an available link function before the update cannot be used after the update. It may be possible. The link function information indicating the link function that can be used after the update is registered in the link function management information 42, and the link function information indicating the link function that has become unavailable after the update is deleted from the link function management information 42. Or, it is registered as unusable information.

複数の機器を連携させる場合、連携機能管理情報42は、複数の機器が有する複数の機能を利用する連携機能を管理するための情報であり、連携機能に利用される各機器を識別するためのデバイス識別情報の組み合わせと、連携機能情報と、の対応付けを示す情報である。上記のように、デバイス機能管理情報40が更新された場合、その更新に伴って、連携機能管理情報42も更新される。これにより、更新前には互いに連携不可能であった複数の機器による連携機能が更新後には利用可能になったり、それとは逆に、更新前には利用可能な連携機能が更新後には利用不可能になったりする場合がある。   When a plurality of devices are linked, the linkage function management information 42 is information for managing a linkage function that uses a plurality of functions of the plurality of devices, and for identifying each device used for the linkage function. This is information indicating a correspondence between a combination of device identification information and linkage function information. As described above, when the device function management information 40 is updated, the cooperation function management information 42 is also updated along with the update. As a result, the cooperation function by multiple devices that could not cooperate with each other before the update becomes available after the update, and conversely, the available cooperation function before the update becomes unavailable after the update. It may be possible.

連携機能は、互いに異なる複数の機能を連携させることによって実行される機能であってもよいし、同一の機能を連携させることによって実行される機能であってもよい。連携機能は、連携前には利用できなかった機能であってもよい。連携前には利用できなかった機能は、連携対象の機器が有する機能のうち、同じ機能を利用することによって利用できる機能であってもよいし、互いに異なる機能を組み合わせることによって利用できる機能であってもよい。例えば、プリント機能を有する機器(プリンタ)とスキャン機能を有する機器(スキャナ)を連携させることにより、連携機能としてのコピー機能が実現される。すなわち、プリント機能とスキャン機能を連携させることにより、コピー機能が実現される。この場合、連携機能としてのコピー機能と、プリント機能及びスキャン機能の組み合わせと、が対応付けられている。連携機能管理情報42においては、例えば、連携機能としてのコピー機能を示す連携機能情報と、プリント機能を有する機器を識別するためのデバイス識別情報及びスキャン機能を有する機器を識別するためのデバイス識別情報の組み合わせと、が対応付けられる。   The cooperation function may be a function executed by linking a plurality of different functions to each other, or may be a function executed by linking the same function. The cooperation function may be a function that could not be used before the cooperation. The functions that could not be used before cooperation may be functions that can be used by using the same functions among the functions of the devices to be linked, or functions that can be used by combining different functions. May be. For example, by coordinating a device having a print function (printer) and a device having a scan function (scanner), a copy function as a cooperation function is realized. That is, the copy function is realized by linking the print function and the scan function. In this case, a copy function as a linkage function is associated with a combination of a print function and a scan function. In the cooperation function management information 42, for example, cooperation function information indicating a copy function as a cooperation function, device identification information for identifying a device having a print function, and device identification information for identifying a device having a scan function. Are associated with each other.

なお、記憶部32には、利用可能機能管理情報が記憶されていてもよい。利用可能機能管理情報は、各ユーザが利用可能な機能を管理するための情報であり、例えば、ユーザを識別するためのユーザ識別情報と、当該ユーザが利用可能な機能を示す機能情報(連携機能情報を含んでいてもよい)と、の対応付けを示す情報である。ユーザが利用可能な機能は、例えば、ユーザに無償で提供された機能や、ユーザが購入した機能、等であり、単体の機能であってもよいし、連携機能であってもよい。ユーザ識別情報は、例えば、ユーザIDや氏名等のユーザアカウント情報である。利用可能機能管理情報を参照することにより、各ユーザが利用可能な機能が識別(特定)される。利用可能機能管理情報は、例えば、ユーザに機能が提供される度に(例えば、ユーザに無償又は有償で機能が提供される度に)更新される。   The storage unit 32 may store usable function management information. The usable function management information is information for managing a function that can be used by each user. For example, user identification information for identifying a user and function information (link function) indicating a function that can be used by the user. Information (which may include information). The functions that can be used by the user are, for example, functions provided free of charge to the user, functions purchased by the user, and the like, which may be a single function or a cooperation function. The user identification information is user account information such as a user ID and a name, for example. By referring to the available function management information, the functions available to each user are identified (specified). The available function management information is updated, for example, every time a function is provided to the user (for example, every time a function is provided to the user free of charge or for a fee).

所有機能管理情報34、非所有機能管理情報36、解決手段管理情報38、デバイス機能管理情報40、連携機能管理情報42及び利用可能機能管理情報の中の少なくとも1つの情報は、ロボット装置10以外の装置(例えば、図示しないサーバ、機器12、端末装置14等)に記憶されていてもよい。この場合、その少なくとも1つの情報は、ロボット装置10の記憶部32に記憶されていなくてもよい。   At least one of the owned function management information 34, the non-owned function management information 36, the solution management information 38, the device function management information 40, the linkage function management information 42, and the usable function management information is information other than the robot apparatus 10. You may memorize | store in the apparatus (For example, the server which is not shown in figure, the apparatus 12, the terminal device 14, etc.). In this case, the at least one information may not be stored in the storage unit 32 of the robot apparatus 10.

状況収集部44は、各種センサーによって、ロボット装置10の周囲の状況に関する情報(以下、「状況情報」と称することとする)を収集する機能を備えている。センサーとして、上述した、視覚センサー、聴覚センサー、触覚センサー、味覚センサー、嗅覚センサー、等が用いられる。視覚センサーによって、ロボット装置10の周囲の画像(例えば動画像や静止画像)が取得され、画像認識が行われる。聴覚センサーによって、ロボット装置10の周囲の音(例えば人の会話や物音等)が収集され、音声認識が行われる。その他、ロボット装置10の周囲の温度、湿度、匂い、等が検知される。もちろん、これら以外のセンサーが用いられて、ロボット装置10の周囲の状況に関する情報が収集されてもよい。状況収集部44は、ロボット装置10以外の装置やセンサー等から状況情報を取得してもよい。   The situation collection unit 44 has a function of collecting information about the situation around the robot apparatus 10 (hereinafter referred to as “situation information”) using various sensors. As the sensor, the above-described visual sensor, auditory sensor, tactile sensor, taste sensor, olfactory sensor, or the like is used. An image (for example, a moving image or a still image) around the robot apparatus 10 is acquired by the visual sensor, and image recognition is performed. Sounds around the robot apparatus 10 (for example, human conversations and noises) are collected by the auditory sensor, and voice recognition is performed. In addition, the ambient temperature, humidity, smell, etc. of the robot apparatus 10 are detected. Of course, other sensors may be used to collect information related to the situation around the robot apparatus 10. The status collection unit 44 may acquire status information from devices other than the robot device 10, sensors, and the like.

移動部46は、陸上を移動するための手段、飛行するための手段、及び、水中を移動するための手段の中の少なくとも1つの手段によって、ロボット装置10を移動させる機能を備えている。移動部46は、例えば、図2に示されている脚部20によって構成される。   The moving unit 46 has a function of moving the robot apparatus 10 by at least one of a means for moving on land, a means for flying, and a means for moving underwater. The moving part 46 is comprised by the leg part 20 shown by FIG. 2, for example.

作業部48は、ロボット装置10以外の機器を操作したり、物体を持ち上げたり移動させたりする機能を備えている。作業部48は、例えば、図2に示されている脚部20、腕部22及び指部24によって構成される。   The working unit 48 has a function of operating equipment other than the robot apparatus 10 and lifting or moving an object. The working unit 48 includes, for example, the leg part 20, the arm part 22, and the finger part 24 shown in FIG.

UI部50はユーザインターフェース部であり、表示部(例えば図1に示されている表示部28)と操作部を含む。表示部は、例えば液晶ディスプレイ等の表示装置である。操作部は、例えばタッチパネルやキーボード等の入力装置である。もちろん、表示部と操作部を兼ねたユーザインターフェース(例えば、タッチ式のディスプレイや、ディスプレイ上に電子的にキーボード等を表示する装置等を含む)であってもよい。なお、ロボット装置10は、UI部50を備えていなくてもよいし、表示部を備えずに、ハードウェアキー(例えば、各種のボタン)を備えていてもよい。ハードウェアキーとしてのボタンは、例えば、数字入力に特化したボタン(例えばテンキー)、方向の指示に特化したボタン(例えば方向指示キー)、等である。   The UI unit 50 is a user interface unit, and includes a display unit (for example, the display unit 28 shown in FIG. 1) and an operation unit. The display unit is a display device such as a liquid crystal display. The operation unit is an input device such as a touch panel or a keyboard. Of course, it may be a user interface that serves both as a display unit and an operation unit (for example, including a touch-type display or a device that electronically displays a keyboard or the like on the display). The robot apparatus 10 may not include the UI unit 50 or may include a hardware key (for example, various buttons) without including the display unit. The buttons as hardware keys are, for example, buttons specialized for numeric input (for example, numeric keys), buttons specialized for direction instructions (for example, direction instruction keys), and the like.

スピーカ52は、音を出力する機能を備えている。例えば、解決手段に関する音声(例えば、人に協力を依頼するためのメッセージ)等が、スピーカ52から発せられる。   The speaker 52 has a function of outputting sound. For example, a sound related to the solving means (for example, a message for requesting cooperation from a person) is emitted from the speaker 52.

制御部54は、ロボット装置10の各部の動作を制御する。また、制御部54は、検知部56、解決手段特定部58、判断部60、検索部62及び識別部64を含む。   The control unit 54 controls the operation of each unit of the robot apparatus 10. The control unit 54 includes a detection unit 56, a solution means identification unit 58, a determination unit 60, a search unit 62, and an identification unit 64.

検知部56は、状況収集部44によって収集された状況情報(例えば各種センサーの値)に基づいて、ロボット装置10の周囲の状況を検知し、ロボット装置10の周囲にて問題が発生しているか否かを判断し、発生した問題を検知する機能を備えている。検知部56は、例えば、ロボット装置10の周囲に存在する人に関する情報や、人以外の情報を、状況として検知する。人に関する情報は、例えば、視覚センサーによって得られた人の画像(例えば、人の顔の画像、全身の画像、その他、人の動作を表す画像等)や、聴覚センサーによって収集された人の音声等である。人以外の情報は、例えば、温度センサーによって得られた温度情報や湿度センサーによって得られた湿度情報等である。具体的には、検知部56は、視覚センサーによって得られた画像、聴覚センサーによって収集された音、触覚センサーによって得られた触覚に関する情報、味覚センサーによって得られた味覚に関する情報、嗅覚センサーによって得られた匂いに関する情報、等を組み合わせて、周囲の状況を検知し、発生した問題を検知する。なお、検知部56は、ロボット装置10が備えていないセンサーによって収集された情報を利用してもよい。例えば、検知部56は、外部に設置されたセンサー(例えば、部屋に設置されたセンサーや他の装置が備えるセンサー等)から、そのセンサーによって収集された情報を取得し、その情報を用いて問題を検知してもよい。   Based on the situation information (for example, values of various sensors) collected by the situation collection unit 44, the detection unit 56 detects the situation around the robot apparatus 10, and whether there is a problem around the robot apparatus 10. It has a function to determine whether or not a problem has occurred. The detection unit 56 detects, for example, information related to a person existing around the robot apparatus 10 or information other than a person as a situation. Information about a person is, for example, an image of a person obtained by a visual sensor (for example, an image of a person's face, an image of a whole body, or an image representing a person's movement), or a person's voice collected by an auditory sensor. Etc. The information other than the person is, for example, temperature information obtained by the temperature sensor, humidity information obtained by the humidity sensor, or the like. Specifically, the detection unit 56 obtains an image obtained by a visual sensor, a sound collected by an auditory sensor, information on a tactile sense obtained by a tactile sensor, information on a taste obtained by a taste sensor, and an olfactory sensor. Combining information about odors, etc., the surrounding situation is detected, and the problem that has occurred is detected. Note that the detection unit 56 may use information collected by a sensor that the robot apparatus 10 does not have. For example, the detection unit 56 acquires information collected by an external sensor (for example, a sensor installed in a room or a sensor included in another device) and uses the information to obtain a problem. May be detected.

検知部56は、例えば、センサーによって得られた値(例えば温度センサーによって検知された温度)が閾値以上となる場合、問題が発生したと判断してもよい。その閾値は、ロボット装置10が備える各種センサーによって検知された人の年齢や性別に応じて変更されてもよい。人の年齢や性別に応じて閾値を変えることで、人の個性に応じて問題を検知することができる。つまり、年齢や性別によって、問題の感じ方が異なる場合があるため、年齢や性別に応じて閾値を変えることで、年齢や性別に応じた問題を検知することができる。   For example, the detection unit 56 may determine that a problem has occurred when a value obtained by a sensor (for example, a temperature detected by a temperature sensor) is equal to or greater than a threshold value. The threshold value may be changed according to the age and sex of a person detected by various sensors included in the robot apparatus 10. By changing the threshold according to the age and sex of the person, the problem can be detected according to the individuality of the person. That is, since the way of feeling the problem may differ depending on the age and sex, the problem corresponding to the age and sex can be detected by changing the threshold according to the age and sex.

解決手段特定部58は、解決手段管理情報38を参照して、検知部56によって検知された問題を解決するための解決手段を特定(識別)する機能を備えている。   The solving means specifying unit 58 has a function of referring to the solving means management information 38 and specifying (identifying) a solving means for solving the problem detected by the detecting unit 56.

人に関する情報(例えば人の画像や音声等)に基づく検知結果(第1の検知結果に相当する)と、人以外の情報に基づく検知結果(第2の検知結果に相当する)と、に基づく状況の問題が異なる場合、解決手段特定部58は、予め定めた第1の検知結果又は第2の検知結果の優先順位に基づき、発生した問題を解決するための解決手段を選択してもよい。この場合において、例えば、第1の検知結果に基づき解決手段を選択することで、実際に人に発生していると想定される問題を解決するための解決手段が選択される。   Based on a detection result (corresponding to a first detection result) based on information about a person (for example, a person's image or sound) and a detection result based on information other than a person (corresponding to a second detection result) When the problem in the situation is different, the solution specifying unit 58 may select a solution for solving the problem that has occurred based on the priority order of the first detection result or the second detection result determined in advance. . In this case, for example, by selecting a solving means based on the first detection result, a solving means for solving a problem that is actually assumed to occur in a person is selected.

判断部60は、ロボット装置10によって、検知部56によって検知された問題を解決することが可能か否かを判断する機能を備えている。ロボット装置10によって解決できない問題は、例えば、ロボット装置10の機能だけでは解決できない問題、ロボット装置10の機能だけでは解決に要する時間が予め設定された時間以上となる場合、ロボット装置10の機能による作業の結果の質が予め設定された質以下となる問題、等である。解決手段特定部58によって特定された解決手段が、ロボット装置10が有する機能群内に含まれている場合、判断部60は、ロボット装置10のみによって問題を解決することが可能であると判断する。つまり、ロボット装置10が、解決手段の実行に必要なすべての機能を備えている場合、判断部60は、ロボット装置10のみによって問題を解決することが可能であると判断する。一方、解決手段特定部58によって特定された解決手段が、ロボット装置10が有する機能群内に含まれていない場合、判断部60は、ロボット装置10のみによって、問題を解決することが不可能であると判断する。つまり、ロボット装置10が、解決手段の実行に必要な全機能又は一部の機能を有していない場合、判断部60は、ロボット装置10のみによって問題を解決することが不可能であると判断する。判断部60は、例えば、所有機能管理情報34を参照することで、ロボット装置10が有している機能を特定(又は、ロボット装置10が有していない機能)を特定してもよいし、非所有機能管理情報36を参照することで、ロボット装置10が有していない機能(又は、ロボット装置10が有している機能)を特定してもよい。   The determination unit 60 has a function of determining whether the problem detected by the detection unit 56 can be solved by the robot apparatus 10. Problems that cannot be solved by the robot device 10 are, for example, problems that cannot be solved by the function of the robot device 10 alone, and when the time required for the solution by the function of the robot device 10 is equal to or longer than a preset time, depends on the function of the robot device 10 The problem is that the quality of the result of the work falls below a preset quality. When the solving means specified by the solving means specifying unit 58 is included in the function group of the robot apparatus 10, the determining unit 60 determines that the problem can be solved only by the robot apparatus 10. . That is, when the robot apparatus 10 has all the functions necessary for executing the solving means, the determination unit 60 determines that the problem can be solved only by the robot apparatus 10. On the other hand, when the solving means specified by the solving means specifying unit 58 is not included in the function group of the robot apparatus 10, the determination unit 60 cannot solve the problem only by the robot apparatus 10. Judge that there is. That is, when the robot apparatus 10 does not have all or some of the functions necessary for executing the solving means, the determination unit 60 determines that the problem cannot be solved only by the robot apparatus 10. To do. For example, the determination unit 60 may specify a function that the robot apparatus 10 has (or a function that the robot apparatus 10 does not have) by referring to the owned function management information 34, By referring to the non-owned function management information 36, a function that the robot apparatus 10 does not have (or a function that the robot apparatus 10 has) may be specified.

判断部60が、ロボット装置10によって問題を解決することが可能であると判断した場合、ロボット装置10は、制御部54の制御の下、解決手段特定部58によって特定された解決手段を実行する。一方、判断部60が、ロボット装置10によって問題を解決することが不可能であると判断した場合、制御部54は、ロボット装置10以外の要素(他の機器や人)を利用する解決手段を実行するための制御を行う。例えば、制御部54は、ロボット装置10以外の機器に解決手段を実行させてもよいし、人に協力を依頼してもよい。もちろん、ロボット装置10と他の要素(例えば人や他の機器)とが共同して解決手段を実行してもよい。   When the determination unit 60 determines that the problem can be solved by the robot device 10, the robot device 10 executes the solution means specified by the solution means specification unit 58 under the control of the control unit 54. . On the other hand, when the determination unit 60 determines that the problem cannot be solved by the robot apparatus 10, the control unit 54 provides a solution unit that uses elements (other devices or people) other than the robot apparatus 10. Control to execute. For example, the control unit 54 may cause a device other than the robot apparatus 10 to execute the solving means, or may request cooperation from a person. Of course, the robot device 10 and other elements (for example, a person or other equipment) may jointly execute the solving means.

検索部62は、検知部56によって検知された問題を解決するための解決手段であって、解決手段管理情報38に登録されていない解決手段を検索する機能を備えている。検索部62は、例えば、インターネット等を利用することで、その解決手段を検索する。   The search unit 62 is a solution means for solving the problem detected by the detection unit 56 and has a function of searching for a solution means that is not registered in the solution management information 38. The search unit 62 searches for the solution by using, for example, the Internet.

識別部64は、ロボット装置10以外の機器を識別し、その機器が有する機能を識別(特定)する機能を備えている。識別部64は、例えば、視覚センサーによって機器を撮影することで得られた画像(例えば機器の外観を表わす画像)に基づいて機器を識別してもよいし、視覚センサーによって機器を撮影することで、機器に設けられたデバイス識別情報を取得して機器を識別してもよいし、機器が設置されている位置を示す位置情報を取得して機器を識別してもよい。識別部64は、更に、機器が有する機能を識別する。例えば、識別部64は、記憶部32に記憶されているデバイス機能管理情報40において、識別した機器のデバイス識別情報に対応付けられている機能を示す機能情報を特定する。これにより、当該機器が有する機能が識別(特定)される。   The identification unit 64 has a function of identifying a device other than the robot apparatus 10 and identifying (specifying) a function of the device. For example, the identification unit 64 may identify the device based on an image (for example, an image representing the appearance of the device) obtained by photographing the device with a visual sensor, or by photographing the device with the visual sensor. The device identification information provided in the device may be acquired to identify the device, or the device may be identified by acquiring position information indicating the position where the device is installed. The identification unit 64 further identifies the function of the device. For example, the identification unit 64 specifies function information indicating a function associated with the device identification information of the identified device in the device function management information 40 stored in the storage unit 32. As a result, the function of the device is identified (specified).

また、識別部64は、連携対象の複数の機器を識別し、記憶部32に記憶されている連携機能管理情報42において、当該複数の機器のデバイス識別情報の組み合わせに対応付けられている連携機能を示す連携機能情報を特定してもよい。これにより、連携対象の各機器が有する機能を連携させることによって実行される連携機能が識別(特定)される。   Further, the identification unit 64 identifies a plurality of devices to be linked, and in the linkage function management information 42 stored in the storage unit 32, the linkage function associated with the combination of device identification information of the plurality of devices. May be specified. Thereby, the cooperation function performed by cooperating the function which each apparatus of cooperation object has is identified (specific).

なお、ユーザが利用可能な機能が管理されている場合、識別部64は、ユーザを識別するためのユーザ識別情報を受け、記憶部32に記憶されている利用可能機能管理情報において当該ユーザ識別情報に対応付けられている各機能を示す機能情報を特定してもよい。これにより、当該ユーザが利用可能な機能群が識別(特定)される。例えば、端末装置14からロボット装置10にユーザ識別情報が送信され、識別部64によって、当該ユーザ識別情報に対応付けられている各機能を示す機能情報が特定される。例えば、識別部64は、デバイス識別情報とユーザ識別情報を受け、デバイス機能管理情報40において当該デバイス識別情報に対応付けられている機能を示す機能情報を特定し、また、利用可能機能管理情報において当該ユーザ識別情報に対応付けられている機能を示す機能情報を特定する。これにより、当該デバイス識別情報によって特定される機器が有する機能であって、当該ユーザ識別情報によって特定されるユーザが利用可能な機能が特定される。   When a function that can be used by a user is managed, the identification unit 64 receives user identification information for identifying the user, and the user identification information in the available function management information stored in the storage unit 32. You may specify the function information which shows each function matched with. Thereby, the function group that can be used by the user is identified (specified). For example, user identification information is transmitted from the terminal device 14 to the robot apparatus 10, and function information indicating each function associated with the user identification information is specified by the identification unit 64. For example, the identification unit 64 receives the device identification information and the user identification information, specifies the function information indicating the function associated with the device identification information in the device function management information 40, and in the available function management information The function information indicating the function associated with the user identification information is specified. As a result, a function that the device specified by the device identification information has and that can be used by the user specified by the user identification information is specified.

制御部54は、機能の購入処理を実行し、その購入の履歴を管理してもよい。例えば、有料の機能がユーザによって購入された場合、制御部54は、当該ユーザに対して課金処理を適用してもよい。   The control unit 54 may execute a function purchase process and manage the purchase history. For example, when a paid function is purchased by a user, the control unit 54 may apply a charging process to the user.

制御部54は、知能部としての人工知能(AI)を有しており、制御部54の各部の機能は、その人工知能によって実現される。   The control unit 54 has artificial intelligence (AI) as an intelligent unit, and the functions of the respective units of the control unit 54 are realized by the artificial intelligence.

なお、検知部56、解決手段特定部58、判断部60、検索部62及び識別部64の中の少なくとも1つは、ロボット装置10以外の装置(例えば、図示しないサーバ、機器12、端末装置14等)に設けられていてもよい。この場合。その少なくとも1つの部は、ロボット装置10の制御部54に含まれていなくてもよい。   It should be noted that at least one of the detection unit 56, the solution means identification unit 58, the determination unit 60, the search unit 62, and the identification unit 64 is a device other than the robot device 10 (for example, a server, device 12, terminal device 14 not shown). Etc.). in this case. The at least one unit may not be included in the control unit 54 of the robot apparatus 10.

以下、図4を参照して、端末装置14の構成について詳しく説明する。図4には、端末装置14の構成が示されている。   Hereinafter, the configuration of the terminal device 14 will be described in detail with reference to FIG. FIG. 4 shows the configuration of the terminal device 14.

通信部66は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を有する。通信部66は、無線通信機能を備えた通信インターフェースであってもよいし、有線通信機能を備えた通信インターフェースであってもよい。   The communication unit 66 is a communication interface, and has a function of transmitting data to other devices and a function of receiving data from other devices. The communication unit 66 may be a communication interface having a wireless communication function or a communication interface having a wired communication function.

撮影手段としてのカメラ68は、撮影対象を撮影することにより画像データ(例えば静止画像データや動画像データ)を生成する。また、端末装置14のカメラを利用するだけではなく、ネットワーク等の通信経路に繋がった外部のカメラで撮影された画像データを通信部66で受け取り、UI部72で画像データを表示し、ユーザが画像データを操作できるようにしてもよい。なお、端末装置14は、カメラ68を備えていなくてもよい。   A camera 68 serving as an imaging unit generates image data (for example, still image data or moving image data) by imaging an imaging target. In addition to using the camera of the terminal device 14, the communication unit 66 receives image data captured by an external camera connected to a communication path such as a network, and the UI unit 72 displays the image data. The image data may be manipulated. Note that the terminal device 14 may not include the camera 68.

記憶部70はハードディスクやメモリ(例えばSSD等)等の記憶装置であり、各種のプログラム、各種のデータ、等を記憶する。記憶部70には、ロボット装置10のアドレス情報、各機器(例えば機器12)のアドレス情報、識別された機器に関する情報、識別された連携対象の機器に関する情報、識別された機器が有する機能に関する情報、連携機能に関する情報、等が記憶されてもよい。これらの情報は、それぞれ別々の記憶装置に記憶されてもよいし、同じ記憶装置に記憶されてもよい。   The storage unit 70 is a storage device such as a hard disk or a memory (for example, SSD), and stores various programs, various data, and the like. In the storage unit 70, the address information of the robot apparatus 10, the address information of each device (for example, the device 12), the information about the identified device, the information about the identified device to be linked, and the information about the function of the identified device Information related to the cooperation function, etc. may be stored. These pieces of information may be stored in separate storage devices, or may be stored in the same storage device.

UI部72はユーザインターフェース部であり、表示部と操作部を含む。表示部は、例えば液晶ディスプレイ等の表示装置である。操作部は、例えば、タッチパネル、キーボード、マウス、等の入力装置である。もちろん、表示部と操作部を兼ねたユーザインターフェース(例えばタッチ式のディスプレイや、ディスプレイ上に電子的にキーボード等を表示するものを含む)であってもよい。   The UI unit 72 is a user interface unit and includes a display unit and an operation unit. The display unit is a display device such as a liquid crystal display. The operation unit is, for example, an input device such as a touch panel, a keyboard, and a mouse. Of course, a user interface that serves as both a display unit and an operation unit (for example, a touch-type display or a device that electronically displays a keyboard or the like on the display) may be used.

制御部74は、端末装置14の各部の動作を制御する。制御部74は、例えば表示制御手段(制御手段)として機能し、各種の情報をUI部72の表示部に表示させる。   The control unit 74 controls the operation of each unit of the terminal device 14. The control unit 74 functions as a display control unit (control unit), for example, and displays various types of information on the display unit of the UI unit 72.

UI部72の表示部には、例えば、ロボット装置10による撮影によって得られた画像、カメラ68によって撮影された画像、利用対象の機器(例えば、単独で利用される機器や連携対象の機器)として識別された機器に紐付く画像、機能に紐付く画像、等が表示される。機器に紐付く画像は、例えば、ロボット装置10によって撮影された当該機器を表わす画像(例えば静止画像や動画像)であってもよいし、当該機器を模式的に表す画像(例えばアイコン)であってもよいし、カメラ68によって撮影された当該機器を表わす画像(例えば静止画像や動画像)であってもよい。模式的に表す画像データは、例えば、ロボット装置10に記憶されてロボット装置10から端末装置14に提供されてもよいし、端末装置14に予め記憶されていてもよいし、別の装置に記憶されて当該別の装置から端末装置14に提供されてもよい。機能に紐付く画像は、例えば、その機能を表わすアイコン等の画像である。   The display unit of the UI unit 72 includes, for example, an image obtained by shooting with the robot apparatus 10, an image shot with the camera 68, and a device to be used (for example, a device used alone or a device to be linked). An image associated with the identified device, an image associated with the function, and the like are displayed. The image associated with the device may be, for example, an image (for example, a still image or a moving image) representing the device captured by the robot apparatus 10 or an image (for example, an icon) schematically representing the device. Alternatively, it may be an image (for example, a still image or a moving image) representing the device taken by the camera 68. For example, the image data schematically represented may be stored in the robot apparatus 10 and provided from the robot apparatus 10 to the terminal apparatus 14, or may be stored in advance in the terminal apparatus 14, or stored in another apparatus. Then, the terminal device 14 may be provided from the other device. The image associated with the function is, for example, an image such as an icon representing the function.

以下、図5,6を参照して、各無線通信技術について説明する。図5には、各無線通信技術の特性(メリット、デメリット)として周波数毎の特性が示されており、図6には、通信方式毎の特性が示されている。   Hereinafter, each wireless communication technique will be described with reference to FIGS. FIG. 5 shows the characteristics for each frequency as the characteristics (merits and demerits) of each wireless communication technology, and FIG. 6 shows the characteristics for each communication method.

図5に示すように、周波数が900MHzの無線通信技術の主要な規格は、例えばRFIDである。そのメリットとして、障害物に強い、干渉周波数帯が少ない、といったことが挙げられ、デメリットとして、アンテナが大きい、通信可能な距離が短い、といったことが挙げられる。   As shown in FIG. 5, the main standard of wireless communication technology with a frequency of 900 MHz is, for example, RFID. The merit is that it is strong against obstacles, and there are few interference frequency bands, and the demerit is that the antenna is large and the communicable distance is short.

周波数が2.4GHzの無線通信技術の主要な規格は、例えばZigBee(登録商標)やBluetooth等である。そのメリットとして、省電力、通信速度が速い、アンテナが小さい、といったことが挙げられ、デメリットとして、干渉することが多い、ことが挙げられる。   The main standard of wireless communication technology with a frequency of 2.4 GHz is, for example, ZigBee (registered trademark), Bluetooth, or the like. Advantages include power saving, high communication speed, and small antenna, and disadvantages include frequent interference.

周波数が5GHzの無線通信技術の主要な規格は、例えばIEEE802.11aやMuLTEfire等である。そのメリットとして、干渉周波数帯が少ない、通信速度が速い、といったことが挙げられ、デメリットとして、障害物に弱い、ことが挙げられる。   Major standards of wireless communication technology with a frequency of 5 GHz are, for example, IEEE802.11a and MuLTEfire. The merit is that the interference frequency band is small and the communication speed is fast, and the demerit is that it is weak against an obstacle.

図6に示すように、赤外線通信のメリットとして、低消費電力、小型化が容易、といったことが挙げられ、デメリットとして、赤外線が目に見えない、ことが挙げられる。   As shown in FIG. 6, the advantages of infrared communication include low power consumption and easy miniaturization, and the disadvantage is that infrared rays are not visible.

可視光通信のメリットとして、可視光を目で見て通信経路が分かる、ことが挙げられ、デメリットとして、指向性が強い、ことが挙げられる。   A merit of visible light communication is that the communication path can be understood by visual observation of visible light, and a disadvantage is that directivity is strong.

近接無線通信(NFC)のメリットとして、複数の機器の間におけるペアリングが容易、といったことが挙げられ、デメリットとして、近距離でないと使えない、ことが挙げられる。   An advantage of near field communication (NFC) is that pairing between a plurality of devices is easy, and a disadvantage is that it can only be used at a short distance.

無線通信技術によって通信相手と通信する場合、ロボット装置10の通信部30は、周囲の環境や通信相手に適した特性を有する無線通信技術によって、通信相手と通信を行う。より詳しく説明すると、通信部30は、例えば、通信相手との間の距離、ロボット装置10と通信相手との間の障害物の有無、通信相手が対応している通信方式、等に応じて無線通信技術を変えて通信相手と通信を行う。   When communicating with a communication partner using a wireless communication technique, the communication unit 30 of the robot apparatus 10 communicates with the communication partner using a wireless communication technique having characteristics suitable for the surrounding environment and the communication partner. More specifically, the communication unit 30 is wireless depending on, for example, the distance between the communication partner, the presence of an obstacle between the robot apparatus 10 and the communication partner, the communication method supported by the communication partner, and the like. Communicate with the communication partner by changing the communication technology.

以下、図7,8を参照して、ロボット装置10が有する機能について詳しく説明する。図7には、所有機能管理情報34としての所有機能管理テーブルの一例が示されており、図8には、非所有機能管理情報36としての非所有機能管理テーブルの一例が示されている。   Hereinafter, the functions of the robot apparatus 10 will be described in detail with reference to FIGS. FIG. 7 shows an example of the owned function management table as the owned function management information 34, and FIG. 8 shows an example of the non-owned function management table as the non-owned function management information 36.

所有機能管理テーブルにおいては、一例として、管理番号と、ロボット装置10が有する機能を示す情報と、その機能によってロボット装置10が実行可能なこと(動作、処理、操作等)を示す情報と、が互いに対応付けられている。例えば、ロボット装置10は、腕部22で物体を持ち上げる機能を備えており、その機能によって、例えば、重さが30kgまでの物体を持ち上げて移動できる。また、ロボット装置10は、移動する機能を備えており、その機能によって、時速10km以内で速度を可変させて移動できる。所有機能管理テーブルを参照することで、ロボット装置10が有する機能と、その機能によってロボット装置10が実行可能なことが特定(識別)される。また、所有機能管理テーブルに登録されていない機能や実行可能なことは、ロボット装置10が有していない機能や実行不可能なことであるため、所有機能管理テーブルを参照することで、ロボット装置10が有していない機能や実行不可能なことが特定(識別)される。   In the owned function management table, as an example, there are a management number, information indicating the function of the robot apparatus 10, and information indicating that the robot apparatus 10 can be executed by the function (operation, processing, operation, etc.). Are associated with each other. For example, the robot apparatus 10 has a function of lifting an object with the arm portion 22, and the function can lift and move an object having a weight of up to 30 kg, for example. Moreover, the robot apparatus 10 is provided with the function to move, and can move by changing the speed within 10 km / h by the function. By referring to the owned function management table, it is specified (identified) that the robot apparatus 10 has a function and that the robot apparatus 10 can be executed by the function. In addition, since functions that are not registered in the owned function management table and that can be executed are functions that the robot apparatus 10 does not have or that cannot be executed, the robot apparatus can be obtained by referring to the owned function management table. It is specified (identified) that the function 10 cannot be executed or that it cannot be executed.

非所有機能管理テーブルにおいては、一例として、管理番号と、ロボット装置10が有していない機能を示す情報と、ロボット装置10がその機能を有していないことで実行不可能なこと(動作、処理、操作等)を示す情報と、が互いに対応付けられている。例えば、ロボット装置10は、外部の冷却機能(例えばロボット装置10の周囲を冷却する機能)を備えておらず、そのため、ロボット装置10は、部屋の中を冷やすことができない。また、ロボット装置10は、印刷機能(プリント機能)を備えておらず、そのため、ロボット装置10が聞き取った音声や見た書類を印刷できない。非所有機能管理テーブルを参照することで、ロボット装置10が有していない機能と、ロボット装置10が実行不可能なことが特定(識別)される。また、非所有機能管理テーブルに登録されていない機能や実行不可能なことは、ロボット装置10が有している機能や実行可能なことである場合があるため、非所有機能管理テーブルを参照することで、ロボット装置10が有している機能や実行可能なことが特定(識別)されてもよい。   In the non-owned function management table, as an example, a management number, information indicating a function that the robot apparatus 10 does not have, and that the robot apparatus 10 does not have that function cannot be executed (operation, Information indicating processing, operation, etc.) are associated with each other. For example, the robot apparatus 10 does not have an external cooling function (for example, a function of cooling the surroundings of the robot apparatus 10), and thus the robot apparatus 10 cannot cool the room. Further, the robot apparatus 10 does not have a printing function (printing function), and therefore, the voice heard by the robot apparatus 10 and the viewed document cannot be printed. By referring to the non-owned function management table, it is specified (identified) that a function that the robot apparatus 10 does not have and that the robot apparatus 10 cannot be executed. In addition, since functions that are not registered in the non-owned function management table and that cannot be executed may be functions that the robot apparatus 10 has or can be executed, the non-owned function management table is referred to. Thus, it may be specified (identified) that the robot apparatus 10 has a function or executable.

記憶部32には、所有機能管理テーブルと非所有機能管理テーブルの両方のデータが記憶されて、これらのデータに基づいて、ロボット装置10によって実行可能又は実行不可能なことが特定されてもよいし、いずれか一方のデータが記憶されて、そのデータに基づいて、ロボット装置10によって実行可能又は実行不可能なことが特定されてもよい。   The storage unit 32 may store data of both the owned function management table and the non-owned function management table, and based on these data, it may be specified that the robot apparatus 10 can execute or cannot execute the data. However, any one of the data may be stored, and based on the data, it may be specified that the robot apparatus 10 can execute or cannot execute the data.

以下、図9を参照して、解決手段管理情報38の具体例について説明する。図9には、解決手段管理情報38としての解決手段管理テーブルの一例が示されている。解決手段管理テーブルにおいては、一例として、管理番号と、状況(問題)を示す情報と、その状況(問題)に対する解決手段(その問題を解決するための手段)を示す情報と、が互いに対応付けられている。状況(問題)は、検知部56によって検知される。解決手段特定部58は、解決手段管理テーブルにおいて、検知部56によって検知された問題に対応する解決手段を特定する。   Hereinafter, a specific example of the solution management information 38 will be described with reference to FIG. FIG. 9 shows an example of a solution management table as the solution management information 38. In the solution management table, for example, a management number, information indicating a situation (problem), and information indicating a solution for the situation (problem) (means for solving the problem) are associated with each other. It has been. The situation (problem) is detected by the detection unit 56. The solving means specifying unit 58 specifies the solving means corresponding to the problem detected by the detecting unit 56 in the solving means management table.

例えば、状況(1)「部屋の温度が温度閾値以上(例えば30℃以上)」が検知された場合、その状況を解決するための手段は、部屋の温度を下げる手段であり、具体的には、「(1)クーラーで冷やす。」、「(2)窓を開ける。」である。部屋の温度は、例えば、ロボット装置10が備えている各種センサー(例えば温度センサー)によって検知される。温度閾値は、ロボット装置10の周囲にいる人の年齢や性別によって変更されてもよい。例えば、ロボット装置10の検知部56は、各種センサー(例えば視覚センサーや聴覚センサー等)によって得られた情報(例えば画像や音声情報等)に基づいて周囲の人を検知するとともに、検知された人の年齢や性別等を推定する。例えば、年齢の高い人(年齢が年齢閾値以上となる人)が検知された場合と、年齢の低い人(年齢が年齢閾値未満となる人)が検知された場合と、で異なる温度閾値が用いられてもよい。例えば、年齢の高い人が検知された場合、年齢の低い人が検知された場合と比べて、より小さい温度閾値が用いられてもよい。これにより、年齢に適した解決手段が実行される。もちろん、性別毎に閾値を変えてもよい。これにより、性別に適した解決手段が実行される。   For example, when the situation (1) “the room temperature is equal to or higher than the temperature threshold (for example, 30 ° C. or higher)”, the means for solving the situation is a means for lowering the room temperature. , “(1) Cool with a cooler” and “(2) Open the window”. The temperature of the room is detected by, for example, various sensors (for example, a temperature sensor) provided in the robot apparatus 10. The temperature threshold may be changed according to the age and sex of a person around the robot apparatus 10. For example, the detection unit 56 of the robot apparatus 10 detects surrounding people based on information (for example, image and audio information) obtained by various sensors (for example, a visual sensor and an auditory sensor) and detects the detected people. Estimate age, gender, etc. For example, different temperature thresholds are used when an older person (a person whose age is greater than or equal to the age threshold) is detected and when a younger person (a person whose age is less than the age threshold) is detected May be. For example, when an older person is detected, a smaller temperature threshold may be used than when a younger person is detected. Thereby, the solution suitable for the age is executed. Of course, the threshold value may be changed for each gender. Thereby, the solution suitable for the sex is executed.

別の例として、状況(3)「部屋にいる人が寒そうな動作をしている」が検知された場合、その状況を解決するための手段は、部屋の温度を上げる手段であり、具体的には、「(1)ストーブをつける。」、「(2)扉を閉める。」である。ロボット装置10の検知部56は、各種センサーによって周囲の人の動作を検知することで、状況(3)を検知する。具体的には、検知部56は、人の顔や身体の動作等を表す画像に基づいて、人の表情、汗の有無、腕や足の動き等を検知したり、人の音声を検知することで、状況(3)を検知する。   As another example, when the situation (3) “the person in the room is acting like cold” is detected, the means for solving the situation is a means for raising the temperature of the room. Specifically, “(1) Turn on the stove” and “(2) Close the door”. The detection unit 56 of the robot apparatus 10 detects the situation (3) by detecting the actions of surrounding people by various sensors. Specifically, the detection unit 56 detects a human facial expression, the presence / absence of sweat, movements of arms and legs, etc., based on an image representing a person's face or body movement, or detects a person's voice. Thus, the situation (3) is detected.

互いに矛盾する複数の状況が検知された場合、検知部56は、複数の状況の中から1つの状況を優先的な状況として選択し、解決手段特定部58は、その優先的な状況を解決するための解決手段を特定してもよい。例えば、状況(1)「部屋の温度が30℃以上」が検知され、更に、状況(3)「部屋にいる人が寒そうな動作をしている」が検知された場合、状況(3)が状況(1)に優先して選択され、状況(3)を解決するための解決手段が選択される。この優先順位は予め設定されている。例えば、人に関する情報に基づいて検知された状況が、人以外の情報に基づいて検知された状況よりも優先して選択される。状況(3)は、人に関する情報に基づいて検知された状況(例えば、人の画像や音声を解析することで検知された状況)であり、状況(1)は、人以外の情報に基づいて検知された状況である。状況(3)を状況(1)よりも優先して選択することで、周囲の人に実際に発生していると想定される問題の解決手段が優先して選択されることになり、より確実に問題を解決することができる。   When a plurality of situations that contradict each other are detected, the detection unit 56 selects one situation from the plurality of situations as a priority situation, and the resolution means identification unit 58 solves the priority situation. You may specify the solution for this. For example, when the situation (1) “room temperature is 30 ° C. or higher” is detected, and further the situation (3) “the person in the room is acting like cold” is detected, the situation (3) Is selected in preference to the situation (1), and a solution means for solving the situation (3) is selected. This priority is set in advance. For example, a situation detected based on information about a person is selected with priority over a situation detected based on information other than a person. The situation (3) is a situation detected based on information about a person (for example, a situation detected by analyzing a person's image or sound), and the situation (1) is based on information other than a person. It is a detected situation. By selecting Situation (3) over Situation (1), the solution to the problem that is assumed to have occurred in the surrounding people will be preferentially selected. Can solve the problem.

以下、図10を参照して、デバイス機能管理情報40について詳しく説明する。図10には、デバイス機能管理情報40としてのデバイス機能管理テーブルの一例が示されている。デバイス機能管理テーブルにおいては、一例として、機器IDと、機器名(例えば機器の種類)を示す情報と、機器が有する機能を示す情報(機能情報)と、画像IDと、が互いに対応付けられている。機器IDと機器名はデバイス識別情報の一例に相当する。画像IDは、機器を表わす画像(例えば、機器の外観を表わす画像や、機器を模式的に表す画像(例えばアイコン)等)を識別するための画像識別情報の一例である。なお、デバイス機能管理テーブルには、画像IDは含まれていなくてもよい。例えば、機器IDが「B」の機器は、複合機(複数の画像形成機能を有する画像形成装置)であり、プリント機能やスキャン機能等の機能を有している。その機器には、その機器を表わす画像を識別するための画像IDが対応付けられている。機器を表わす画像のデータは、例えば、ロボット装置10の記憶部32や他の装置に記憶されている。   Hereinafter, the device function management information 40 will be described in detail with reference to FIG. FIG. 10 shows an example of a device function management table as the device function management information 40. In the device function management table, for example, a device ID, information indicating a device name (for example, a device type), information indicating a function of the device (function information), and an image ID are associated with each other. Yes. The device ID and the device name correspond to an example of device identification information. The image ID is an example of image identification information for identifying an image representing a device (for example, an image representing an external appearance of the device, an image schematically representing the device (for example, an icon), or the like). The device function management table may not include the image ID. For example, a device whose device ID is “B” is a multifunction peripheral (an image forming apparatus having a plurality of image forming functions), and has functions such as a print function and a scan function. The device is associated with an image ID for identifying an image representing the device. Image data representing the device is stored in, for example, the storage unit 32 of the robot apparatus 10 or another apparatus.

例えば、ロボット装置10が有する各種センサーによって、ロボット装置10の周囲に存在する機器を識別するための機器IDが取得され、ロボット装置10の識別部64は、デバイス機能管理テーブルを参照することにより、その機器IDに対応付けられている機器名、機能及び画像IDを特定する。これにより、ロボット装置10の周囲に存在する機器が識別される。例えば、機器名を示す情報、及び、機器を表わす画像のデータが、ロボット装置10から端末装置14に送信され、それらが端末装置14に表示されてもよい。機器を表わす画像は、当該機器に紐付く画像として表示される。機器に紐付く画像は、カメラ等によって撮影することで生成された画像であってもよいし、機器を模式的に表す画像(例えばアイコン等)であってもよい。また、端末装置14において、機器に紐付く画像がユーザによって指定されると、その機器が有する機能に関する情報(例えば、機能情報や機能の説明情報等)が、ロボット装置10から端末装置14に送信されて端末装置14に表示されてもよい。   For example, device IDs for identifying devices existing around the robot device 10 are acquired by various sensors of the robot device 10, and the identification unit 64 of the robot device 10 refers to the device function management table, thereby A device name, a function, and an image ID associated with the device ID are specified. Thereby, devices existing around the robot apparatus 10 are identified. For example, information indicating the device name and image data representing the device may be transmitted from the robot device 10 to the terminal device 14 and displayed on the terminal device 14. An image representing a device is displayed as an image associated with the device. The image associated with the device may be an image generated by shooting with a camera or the like, or may be an image (for example, an icon) schematically representing the device. In addition, when an image associated with a device is designated by the user in the terminal device 14, information related to the function of the device (for example, function information or function description information) is transmitted from the robot device 10 to the terminal device 14. And may be displayed on the terminal device 14.

以下、図11を参照して、連携機能管理情報42について詳しく説明する。図11には、連携機能管理情報42としての連携機能管理テーブルの一例が示されている。連携機能管理テーブルにおいては、一例として、機器IDの組み合わせと、連携対象の機器名(例えば各機器の種類)を示す情報と、連携機能を示す情報(連携機能情報)と、が互いに対応付けられている。例えば、機器IDが「A」の機器はPC(パーソナルコンピュータ)であり、機器IDが「B」の機器は複合機である。PC(A)と複合機(B)を連携させることにより、連携機能として、例えば「スキャン転送機能」や「プリント機能」が実現される。「スキャン転送機能」は、複合機(B)によるスキャンによって生成された画像データをPC(A)に転送する機能である。「プリント機能」は、PC(A)に保存されているデータ(例えば画像データや文書データ)を複合機(B)に送信して複合機(B)にて印刷する機能である。   Hereinafter, the cooperative function management information 42 will be described in detail with reference to FIG. FIG. 11 shows an example of a cooperation function management table as the cooperation function management information 42. In the linkage function management table, as an example, a combination of device IDs, information indicating a device name to be linked (for example, the type of each device), and information indicating a linkage function (linkage function information) are associated with each other. ing. For example, a device with a device ID “A” is a PC (personal computer), and a device with a device ID “B” is a multifunction device. By linking the PC (A) and the multifunction peripheral (B), for example, a “scan transfer function” or a “print function” is realized as a link function. The “scan transfer function” is a function for transferring image data generated by scanning by the multifunction peripheral (B) to the PC (A). The “print function” is a function for transmitting data (for example, image data or document data) stored in the PC (A) to the multifunction device (B) and printing the data on the multifunction device (B).

以下、図12を参照して、状況確認処理の概略について説明する。図12は、その処理を示すフローチャートである。   Hereinafter, an outline of the situation confirmation process will be described with reference to FIG. FIG. 12 is a flowchart showing the processing.

まず、状況収集部44は、各種センサーによって、ロボット装置10の周囲の状況に関する状況情報(各種センサーの値)を収集し、検知部56は、その状況情報に基づいて、ロボット装置10の周囲の状況を検知し、ロボット装置10の周囲にて問題が発生しているか否かを判断し、発生した問題を検知する(S01)。   First, the situation collection unit 44 collects situation information (values of various sensors) related to the situation around the robot apparatus 10 using various sensors, and the detection unit 56 detects the surroundings of the robot apparatus 10 based on the situation information. The situation is detected, it is determined whether or not a problem has occurred around the robot apparatus 10, and the problem that has occurred is detected (S01).

判断部60は、ロボット装置10によって、検知部56によって検知された問題を解決することが可能か否かを判断する(S02)。上述したように、ロボット装置10によって解決できない問題は、例えば、ロボット装置10の機能だけでは解決できない問題、ロボット装置10の機能だけでは解決に要する時間が予め定められた時間以上となる問題、ロボット装置10の機能による作業の結果の質が予め定められた質以下となる問題、等である。   The determination unit 60 determines whether or not the robot device 10 can solve the problem detected by the detection unit 56 (S02). As described above, the problems that cannot be solved by the robot apparatus 10 are, for example, problems that cannot be solved by the function of the robot apparatus 10 alone, problems that the time required for the solution by the function of the robot apparatus 10 alone exceeds a predetermined time, robot The problem is that the quality of the result of the work by the function of the apparatus 10 is not more than a predetermined quality.

検知部56によって検知された問題が、ロボット装置10によって解決できない問題に該当しない場合(S02,No)、ロボット装置10は、その問題を解決するための解決手段を実行する(S03)。その解決手段は、解決手段特定部58によって特定される。この場合、ロボット装置10は、ロボット装置10以外の機器を利用せずに、また、人から援助を受けずに、自身の有する機能によって解決手段を実行する。ロボット装置10は、例えば、問題を示す情報や解決手段を示す情報をロボット装置10のUI部50や端末装置14のUI部72に表示させ、解決手段の実行指示がユーザによって与えられた場合、解決手段を実行してもよい。   If the problem detected by the detection unit 56 does not correspond to a problem that cannot be solved by the robot apparatus 10 (S02, No), the robot apparatus 10 executes a solution means for solving the problem (S03). The solving means is specified by the solving means specifying unit 58. In this case, the robot apparatus 10 executes the solving means by using its own function without using equipment other than the robot apparatus 10 and without receiving assistance from a person. For example, when the robot apparatus 10 displays information indicating a problem or information indicating a solution means on the UI unit 50 of the robot apparatus 10 or the UI unit 72 of the terminal device 14 and an instruction to execute the solution means is given by the user, Solution may be implemented.

一方、検知部56によって検知された問題が、ロボット装置10によって解決できない問題に該当する場合(S02,Yes)、解決手段の探索処理が実行される。ロボット装置10のみによって解決手段を探す場合(S04,Yes)、ロボット装置10は、自律判断モードを実行する(S05)。一方、ロボット装置10のみによって解決手段を探さない場合(S04,No)、ロボット装置10は、ユーザ判断モードを実行する(S06)。自律判断モード又はユーザ判断モードの何れかを実行するのかは、予め設定されている。つまり、ロボット装置10は、検知部56によって検知された問題が、ロボット装置10によって解決できない問題に該当する場合、自律判断モード及びユーザ判断モードの中で予め設定されたモードを実行する。実行されるモードは、ユーザによって指定されてもよい。   On the other hand, when the problem detected by the detection unit 56 corresponds to a problem that cannot be solved by the robot apparatus 10 (S02, Yes), search processing for a solving means is executed. When searching for a solution means only by the robot apparatus 10 (S04, Yes), the robot apparatus 10 executes an autonomous determination mode (S05). On the other hand, when the solution means is not searched for only by the robot apparatus 10 (S04, No), the robot apparatus 10 executes the user determination mode (S06). Whether to execute the autonomous determination mode or the user determination mode is set in advance. That is, when the problem detected by the detection unit 56 corresponds to a problem that cannot be solved by the robot apparatus 10, the robot apparatus 10 executes a mode set in advance in the autonomous determination mode and the user determination mode. The mode to be executed may be specified by the user.

以下、図13を参照して、状況確認処理について詳しく説明する。図13は、その処理を示すフローチャートである。   Hereinafter, the status confirmation process will be described in detail with reference to FIG. FIG. 13 is a flowchart showing the processing.

まず、状況収集部44は、各種センサーによって、ロボット装置10の周囲の状況に関する状況情報(各種センサーの値)を収集し(S10)、検知部56は、各種センサーの値を組み合わせることで、生じる問題を想定する(S11)。検知部56は、例えば、周囲を撮影することで得られた画像を解析することで得られた情報と、画像以外のセンサーの値と、を組み合わせることで、生じる問題を想定する。もちろん、人の音声を収集し、その音声の解析結果も組み合わせて問題を検知してもよい。例えば、検知された温度が温度閾値以上(例えば30℃以上)であって、周囲を表わす画像に汗をかいている人が表されている場合、検知部56は、クーラーや扇風機等を利用することで周囲の温度を下げる必要があることを検知する。1つのセンサーのみを使用して状況を判断する場合、その判断は誤る可能性があるが、周囲を表わす画像等と組み合わせることで、より複雑な状況をより精度高く検知できる。例えば、周囲を表わす画像とセンサーの値とを組み合わせることで、一様な判断だけでなく、個別的な判断まで可能になる。もちろん、センサーを用いることで、人の目や嗅覚等によって検知できない状況までも検知することが可能となる利点がある。   First, the situation collection unit 44 collects situation information (values of various sensors) about the situation around the robot apparatus 10 by various sensors (S10), and the detection unit 56 is generated by combining the values of various sensors. A problem is assumed (S11). For example, the detection unit 56 assumes a problem caused by combining information obtained by analyzing an image obtained by photographing the surroundings and a value of a sensor other than the image. Of course, it is also possible to collect a human voice and detect the problem by combining the voice analysis results. For example, when the detected temperature is equal to or higher than the temperature threshold (for example, 30 ° C. or higher) and a person who is sweating is shown in the image representing the surroundings, the detection unit 56 uses a cooler, a fan, or the like. It is detected that the ambient temperature needs to be lowered. When a situation is judged using only one sensor, the judgment may be erroneous, but a more complicated situation can be detected with higher accuracy by combining it with an image representing the surroundings. For example, by combining the image representing the surroundings and the sensor value, not only a uniform determination but also an individual determination is possible. Of course, by using a sensor, there is an advantage that it is possible to detect even a situation that cannot be detected by human eyes or smell.

次に、解決手段特定部58は、各種センサーの値を正常値に戻すための解決手段を想定する(S12)。例えば、解決手段特定部58は、図9に示されている解決手段管理テーブルにおいて、検知部56によって検知された問題に対応する解決手段を特定する。ここで特定された解決手段に関する情報は、後述するユーザ問い合わせ時に提示されたり、ロボット装置10以外の機器や人を利用して問題を解決するときに、指示(コントロール)依頼として提示されたりしてもよい。   Next, the solution means identification unit 58 assumes solution means for returning the values of various sensors to normal values (S12). For example, the solving means specifying unit 58 specifies the solving means corresponding to the problem detected by the detecting unit 56 in the solving means management table shown in FIG. Information relating to the solution means specified here is presented at the time of a user inquiry described later, or as an instruction (control) request when a problem is solved using a device or person other than the robot apparatus 10. Also good.

次に、判断部60は、ロボット装置10によって、検知部56によって検知された問題を解決することが可能か否かを判断する。そのために、判断部60は、ロボット装置10が有する機能と、解決手段特定部58によって特定された解決手段と、を比較する(S13)。   Next, the determination unit 60 determines whether or not the robot device 10 can solve the problem detected by the detection unit 56. Therefore, the determination unit 60 compares the function of the robot apparatus 10 with the solution means specified by the solution means specifying unit 58 (S13).

ロボット装置10が有する機能内に、解決手段特定部58によって特定された解決手段が含まれている場合、つまり、ロボット装置10が、その解決手段を実行するための機能を備えている場合(S14,Yes)、処理は、図12に示されているステップS03に移行する。この場合、ロボット装置10は、ロボット装置10以外の機器を利用せずに、また、人から援助を受けずに、自身の有する機能によって解決手段を実行する。ロボット装置10は、ユーザによって実行指示が与えられた場合に、解決手段を実行してもよい。   When the solving means specified by the solving means specifying unit 58 is included in the functions of the robot apparatus 10, that is, when the robot apparatus 10 has a function for executing the solving means (S14). , Yes), the process proceeds to step S03 shown in FIG. In this case, the robot apparatus 10 executes the solving means by using its own function without using equipment other than the robot apparatus 10 and without receiving assistance from a person. The robot apparatus 10 may execute the solving means when an execution instruction is given by the user.

ロボット装置10が有する機能内に、解決手段特定部58によって特定された解決手段が含まれていない場合、つまり、ロボット装置10が、その解決手段を実行するための機能を備えていない場合(S14,No)、ロボット装置10は、自律判断モード又はユーザ判断モードを実行する(S15)。   When the solving means specified by the solving means specifying unit 58 is not included in the functions of the robot apparatus 10, that is, when the robot apparatus 10 does not have a function for executing the solving means (S14). , No), the robot apparatus 10 executes the autonomous determination mode or the user determination mode (S15).

以下、図14を参照して、ユーザ判断モードにおける処理について詳しく説明する。図14は、その処理を示すフローチャートである。   Hereinafter, the process in the user determination mode will be described in detail with reference to FIG. FIG. 14 is a flowchart showing the processing.

まず、ロボット装置10の通信部30は、制御部54の制御の下、状況収集部44によって収集された状況情報(各種センサーの値)を、端末装置14に送信する(S20)。このとき、通信部30は、障害物の有無や、ロボット装置10と端末装置14との間の距離等に応じて通信方式を切り替えてもよい。通信部30は、例えば、送信先として予め登録された端末装置14に状況情報を送信してもよいし、ロボット装置10によって識別された端末装置14に状況情報を送信してもよいし、ロボット装置10に対して通信を要求してきた端末装置14に状況情報を送信してもよい。例えば、ロボット装置10の識別部64は、視覚センサーによって端末装置14を撮影することで得られた画像から端末装置14のデバイス識別情報を取得し、そのデバイス識別情報に基づいて端末装置14を識別してもよい。別の例として、通信部30は、ロボット装置10の位置を基準にして予め設定された範囲内に存在する端末装置14(例えば、近距離無線通信によって通信が可能な範囲に存在する端末装置14)に対して、状況情報を送信してもよい。更に別の例として、ロボット装置10の識別部64は、問題が発生していると想定されるユーザを識別し、そのユーザが所持する端末装置14に状況情報を送信してもよい。   First, the communication unit 30 of the robot apparatus 10 transmits the status information (values of various sensors) collected by the status collection unit 44 to the terminal device 14 under the control of the control unit 54 (S20). At this time, the communication unit 30 may switch the communication method according to the presence or absence of an obstacle, the distance between the robot apparatus 10 and the terminal apparatus 14, and the like. For example, the communication unit 30 may transmit the status information to the terminal device 14 registered in advance as a transmission destination, may transmit the status information to the terminal device 14 identified by the robot device 10, or may be a robot. The status information may be transmitted to the terminal device 14 that has requested communication with the device 10. For example, the identification unit 64 of the robot apparatus 10 acquires device identification information of the terminal apparatus 14 from an image obtained by photographing the terminal apparatus 14 with a visual sensor, and identifies the terminal apparatus 14 based on the device identification information. May be. As another example, the communication unit 30 is a terminal device 14 that exists in a range set in advance with reference to the position of the robot device 10 (for example, a terminal device 14 that exists in a range in which communication is possible by short-range wireless communication). ) May send status information. As yet another example, the identification unit 64 of the robot apparatus 10 may identify a user who is assumed to have a problem and transmit the status information to the terminal apparatus 14 possessed by the user.

ロボット装置10は、端末装置14のユーザの要求に応じて、状況情報を更に収集して端末装置14に送信してもよい(S21)。例えば、ロボット装置10は、移動しながらカメラ等の視覚センサーによって周囲を追加で撮影し、その撮影で得られた画像(動画像や静止画像)を、端末装置14に送信したり、ユーザが指示した事項(例えば温度)のデータを収集し直して端末装置14に再送信する。   The robot apparatus 10 may further collect status information and transmit it to the terminal apparatus 14 in response to a request from the user of the terminal apparatus 14 (S21). For example, the robot apparatus 10 additionally captures the surroundings with a visual sensor such as a camera while moving, and transmits an image (moving image or still image) obtained by the imaging to the terminal apparatus 14 or an instruction from the user The collected data (for example, temperature) is collected again and retransmitted to the terminal device 14.

次に、ロボット装置10は、検知部56によって検知された問題を解決するための1又は複数の解決手段(解決手段特定部58によって特定された1又は複数の解決手段)をユーザに提示する(S22)。例えば、ロボット装置10の通信部30は、制御部54の制御の下、解決手段を示す情報を端末装置14に送信する。この場合、解決手段を示す情報は、端末装置14のUI部72に表示される。別の例として、ロボット装置10の制御部54は、解決手段を示す情報を、ロボット装置10自身のUI部50に表示させてもよい。   Next, the robot apparatus 10 presents one or more solution means (one or more solution means specified by the solution means specifying unit 58) for solving the problem detected by the detection unit 56 to the user ( S22). For example, the communication unit 30 of the robot apparatus 10 transmits information indicating the solving means to the terminal device 14 under the control of the control unit 54. In this case, information indicating the solving means is displayed on the UI unit 72 of the terminal device 14. As another example, the control unit 54 of the robot apparatus 10 may display information indicating the solving means on the UI unit 50 of the robot apparatus 10 itself.

ユーザに対して提示された1又は複数の解決手段の中からユーザによって実行対象の解決手段が選択された場合、ロボット装置10の制御部54は、ユーザによって選択された解決手段が、ロボット装置10以外の機器(例えば機器12)を利用する解決手段か否かを判断する(S23)。例えば、ユーザが端末装置14を使用して解決手段を選択した場合、その解決手段を示す情報が、端末装置14からロボット装置10に送信され、ロボット装置10の制御部54は、その情報に基づき、ユーザによって選択された解決手段が、ロボット装置10以外の機器を利用する解決手段か否かを判断する。解決手段を示す情報がロボット装置10のUI部50に表示され、ユーザがUI部50を利用して解決手段を選択した場合、制御部54は、その選択に従って判断する。   When the execution target solving means is selected by the user from one or more solving means presented to the user, the control unit 54 of the robot apparatus 10 determines that the solving means selected by the user is the robot apparatus 10. It is determined whether or not the solution means uses a device other than the device (for example, the device 12) (S23). For example, when the user selects a solving means using the terminal device 14, information indicating the solving means is transmitted from the terminal device 14 to the robot apparatus 10, and the control unit 54 of the robot apparatus 10 determines the information based on the information. Then, it is determined whether or not the solution selected by the user is a solution using an apparatus other than the robot apparatus 10. When information indicating the solving means is displayed on the UI unit 50 of the robot apparatus 10 and the user selects the solving means using the UI unit 50, the control unit 54 makes a determination according to the selection.

ユーザによって選択された解決手段が、ロボット装置10以外の機器を利用する解決手段に該当する場合(S23,Yes)、ロボット装置10の通信部30は、制御部54の制御の下、その解決手段を実現可能な機器に関する情報を、端末装置14に送信する(S24)。例えば、制御部54は、デバイス機能管理テーブルや連携機能管理テーブルを参照することで、ユーザによって選択された解決手段を実現可能な機能を有する1又は複数の機器を特定する。例えば、解決手段として「プリント」が選択された場合、プリント機能を有する複合機が、解決手段を実現する機器として特定される。機器に関する情報には、例えば、機器の外観を表わす外観画像、機器に接続するための機器のアドレス情報、機器のスペックを示す情報、等が含まれてもよい。別の例として、ロボット装置10の制御部54は、その機器に関する情報を、ロボット装置10のUI部50に表示させてもよい。この場合、端末装置14に機器に関する情報が送信されなくてもよい。   When the solving means selected by the user corresponds to a solving means using equipment other than the robot apparatus 10 (S23, Yes), the communication unit 30 of the robot apparatus 10 controls the solving means under the control of the control unit 54. Is transmitted to the terminal device 14 (S24). For example, the control unit 54 identifies one or a plurality of devices having a function capable of realizing the solving means selected by the user by referring to the device function management table and the cooperation function management table. For example, when “print” is selected as the solution means, a multifunction device having a print function is specified as a device that realizes the solution means. The information about the device may include, for example, an appearance image representing the appearance of the device, device address information for connecting to the device, information indicating the device specifications, and the like. As another example, the control unit 54 of the robot apparatus 10 may cause the UI unit 50 of the robot apparatus 10 to display information regarding the device. In this case, information regarding the device may not be transmitted to the terminal device 14.

次に、ユーザの操作によって解決手段が実行される(S25)。つまり、その解決手段を実現するための機器が有する機能が実行される。解決手段を実現するための機能として、単体の機器が有する機能が実行されてもよいし、複数の機器が有する機能を利用する連携機能が実行されてもよい。もちろん、解決手段を実現するための機能として、ロボット装置10が有する機能が利用されてもよい。機器に対する機能の実行指示は、ロボット装置10から与えられてもよいし、端末装置14から与えられてもよい。機能を実行するための操作等については、後で詳しく説明する。   Next, the solving means is executed by the user's operation (S25). That is, the function of the device for realizing the solution is executed. As a function for realizing the solving means, a function possessed by a single device may be executed, or a cooperation function using functions possessed by a plurality of devices may be executed. Of course, the function of the robot apparatus 10 may be used as a function for realizing the solving means. The function execution instruction for the device may be given from the robot device 10 or from the terminal device 14. The operation for executing the function will be described in detail later.

一方、ユーザによって選択された解決手段が、ロボット装置10以外の機器を利用する解決手段に該当しない場合(S23,No)、ロボット装置10は、解決手段を実行するために、周囲の人に協力を依頼する(S24)。このとき、ロボット装置10は、解決手段を実行するための手順(ユーザが行うべき作業の手順)をユーザに伝える(S25)。例えば、ロボット装置10の制御部54は、その手順を音声としてスピーカに発生させたり、ロボット装置10のUI部50に手順を表示させたり、人のいる場所まで移動して人に触ったりする。手順が人に伝わり難い場合、音声を大きくしてもよい。ロボット装置10の通信部30は、その手順を示す情報を端末装置14に送信してもよい。この場合、端末装置14のUI部72に、その手順を示す情報が表示される。   On the other hand, when the solving means selected by the user does not correspond to a solving means that uses equipment other than the robot apparatus 10 (S23, No), the robot apparatus 10 cooperates with surrounding people to execute the solving means. Is requested (S24). At this time, the robot apparatus 10 informs the user of a procedure for executing the solving means (a procedure of work to be performed by the user) (S25). For example, the control unit 54 of the robot apparatus 10 causes the procedure to be generated as a sound on a speaker, displays the procedure on the UI unit 50 of the robot apparatus 10, or moves to a place where a person is present and touches a person. If the procedure is difficult to communicate to people, the sound may be increased. The communication unit 30 of the robot apparatus 10 may transmit information indicating the procedure to the terminal apparatus 14. In this case, information indicating the procedure is displayed on the UI unit 72 of the terminal device 14.

なお、機器と人の両方によって実現される解決手段がユーザによって選択された場合、上記のステップS24からステップS27が実行される。この場合においても、ロボット装置10の機能が解決手段の一部として利用されてもよい。   Note that, when the solving means realized by both the device and the person is selected by the user, the above steps S24 to S27 are executed. Even in this case, the function of the robot apparatus 10 may be used as a part of the solving means.

以下、図15を参照して、自律判断モードにおける処理について詳しく説明する。図15は、その処理を示すフローチャートである。   Hereinafter, the process in the autonomous determination mode will be described in detail with reference to FIG. FIG. 15 is a flowchart showing the processing.

まず、ロボット装置10の制御部54は、必要に応じて、解決手段特定部58によって特定された解決手段を実現するために必要な追加機能や応援依頼(ユーザの応援の依頼)を特定する(S30)。   First, the control unit 54 of the robot apparatus 10 specifies an additional function and a support request (user support request) necessary for realizing the solution means specified by the solution means specifying unit 58 as necessary (user support request) (see FIG. S30).

ロボット装置10の制御部54は、解決手段特定部58によって特定された解決手段が、ロボット装置10以外の機器(例えば機器12)を利用する解決手段か否かを判断する(S31)。   The control unit 54 of the robot apparatus 10 determines whether or not the solving means specified by the solving means specifying unit 58 is a solving means using a device other than the robot device 10 (for example, the device 12) (S31).

解決手段特定部58によって特定された解決手段が、ロボット装置10以外の機器を利用する解決手段に該当する場合(S31,Yes)、ロボット装置10の制御部54は、周囲において、その解決手段を実行可能な機器を探索する(S32)。制御部54は、例えば、視覚センサーによって得られた画像、各機器の位置情報、無線通信状況等に基づいて、機器を探索する。例えば、制御部54は、デバイス機能管理テーブルや連携機能管理テーブルを参照することで、解決手段を実現可能な機能を有する1又は複数の機器を特定する。例えば、解決手段が「プリント」の場合、ロボット装置10の制御部54は、プリント機能を有する複合機を探索する。   When the solving means specified by the solving means specifying unit 58 corresponds to a solving means that uses equipment other than the robot apparatus 10 (S31, Yes), the control unit 54 of the robot apparatus 10 determines the solving means in the surroundings. An executable device is searched (S32). The control unit 54 searches for a device based on, for example, an image obtained by a visual sensor, position information of each device, wireless communication status, and the like. For example, the control unit 54 identifies one or a plurality of devices having a function capable of realizing the solving means by referring to the device function management table and the cooperation function management table. For example, when the solving means is “print”, the control unit 54 of the robot apparatus 10 searches for a multifunction peripheral having a print function.

解決手段を実行可能な機器が周囲に存在する場合(S33,Yes)、ロボット装置10の通信部30は、制御部54の制御の下、解決手段の実行指示(解決手段を実現するための機能の実行指示)を示す情報を、当該機器に送信する(S34)。実行指示を示す情報を受けた機器は、その指示に従って解決手段を実行する。   When there is a device that can execute the solution means (S33, Yes), the communication unit 30 of the robot apparatus 10 instructs the execution of the solution means (functions for realizing the solution means) under the control of the control unit 54. Information indicating the execution instruction) is transmitted to the device (S34). The device that has received the information indicating the execution instruction executes the solving means according to the instruction.

ロボット装置10の制御部54は、解決手段を実行可能な機器のコントロール権を取得できるか否かを確認してもよい。すなわち、制御部54は、当該機器のアドレス情報やコントロール可能なドライバがロボット装置10に記憶されているか否かを確認する。ネットワーク等を利用してドライバ等を取得できる場合、制御部54は、ドライバ等のダウンロードを実行する。なお、ロボット装置10は、機器の操作パネルを直接操作することで当該機器に実行指示を与えてもよいし、当該機器のリモコンを操作することで、当該機器に実行指示を与えてもよい。   The control unit 54 of the robot apparatus 10 may confirm whether or not the control right of the device that can execute the solving means can be acquired. That is, the control unit 54 confirms whether the address information of the device and the controllable driver are stored in the robot apparatus 10. When the driver or the like can be acquired using a network or the like, the control unit 54 downloads the driver or the like. The robot apparatus 10 may give an execution instruction to the device by directly operating the operation panel of the device, or may give an execution instruction to the device by operating a remote control of the device.

解決手段が無事終了したか否かは、機器による機能の実行後に、問題が解決したか否かによって判断される。検知部56によって問題が検知されない場合、制御部54は、その問題が解決されたと判断する。問題が解決していない場合、ロボット装置10の制御部54は、解決手段の実行指示を機器に再度与えたり、別の解決手段を探索する。   Whether or not the solving means has been completed successfully is determined by whether or not the problem has been solved after the function is executed by the device. If the problem is not detected by the detection unit 56, the control unit 54 determines that the problem has been solved. When the problem has not been solved, the control unit 54 of the robot apparatus 10 gives an instruction to execute the solution means again to the device or searches for another solution means.

解決手段を実行可能な機器が周囲に存在しない場合(S33,No)、ロボット装置10の制御部54は、別の解決手段を探索する(S35)。このとき、制御部54は、モードをユーザ判断モードに切り替えてもよい。   When there is no device that can execute the solution (S33, No), the control unit 54 of the robot apparatus 10 searches for another solution (S35). At this time, the control unit 54 may switch the mode to the user determination mode.

解決手段特定部58によって特定された解決手段が、ロボット装置10以外の機器を利用する解決手段に該当しない場合(S31,No)、ロボット装置10は、解決手段を実行するために、周囲の人に協力を依頼する(S36)。このとき、ロボット装置10は、協力依頼内容(例えば解決手段を実行するための手順等)をユーザに伝える(S37)。例えば、ロボット装置10の制御部54は、協力依頼内容を音声としてスピーカに発生させたり、ロボット装置10のUI部50に協力依頼内容を表示させたり、人のいる場所まで移動して人に触ったりする。ロボット装置10の通信部30は、協力依頼内容を示す情報を端末装置14に送信してもよい。この場合、端末装置14のUI部72に、その協力依頼内容を示す情報が表示される。   When the solving means specified by the solving means specifying unit 58 does not correspond to the solving means using equipment other than the robot apparatus 10 (S31, No), the robot apparatus 10 uses the surrounding people to execute the solving means. Is requested to cooperate (S36). At this time, the robot apparatus 10 informs the user of the contents of the cooperation request (for example, a procedure for executing the solving means) (S37). For example, the control unit 54 of the robot apparatus 10 generates a cooperation request content as a sound on a speaker, displays the cooperation request content on the UI unit 50 of the robot apparatus 10, or moves to a place where a person is present and touches a person. Or The communication unit 30 of the robot apparatus 10 may transmit information indicating the cooperation request content to the terminal apparatus 14. In this case, information indicating the content of the cooperation request is displayed on the UI unit 72 of the terminal device 14.

協力に応じてもらえる場合(S38,Yes)、処理は終了する。この場合、ユーザが解決手段を実行する。協力に応じてもらえない場合(S38,No)、ロボット装置10の制御部54は、別の解決手段を探索する(S35)。制御部54は、モードをユーザ判断モードに切り替えてもよい。制御部54は、例えば、音声認識によって、ユーザの返事を認識することで、協力に応じてもらえたか否かを判断してもよい。例えば、協力に応じる旨の返事が音声認識された場合、制御部54は、協力に応じてもられたと判断する。別の例として、解決手段を実現するためにユーザによって行われると想定される動作が、予め設定された時間内に実行されて、各種センサー(例えば視覚センサー)によってその動作が検知された場合、制御部54は、協力に応じてもらえたと判断してもよい。   If the cooperation is accepted (S38, Yes), the process ends. In this case, the user executes the solving means. When the cooperation is not accepted (S38, No), the control unit 54 of the robot apparatus 10 searches for another solution (S35). The control unit 54 may switch the mode to the user determination mode. For example, the control unit 54 may determine whether or not the cooperation has been received by recognizing the user's reply by voice recognition. For example, when a reply indicating that the cooperation is accepted is recognized by voice, the control unit 54 determines that the cooperation is accepted. As another example, when an operation assumed to be performed by the user to realize the solution is executed within a preset time and the operation is detected by various sensors (for example, a visual sensor), The control unit 54 may determine that the cooperation has been received.

なお、時間が経過するにつれて、周囲の状況も変化するため、発生する問題も変化する場合がある。この場合、ロボット装置10は、刻々と変化する状況(問題)を検知し、その検知結果に応じた解決手段を特定する。   As time passes, the surrounding situation also changes, so that the problem that occurs may change. In this case, the robot apparatus 10 detects a situation (problem) that changes every moment, and specifies a solution means according to the detection result.

また、ロボット装置10が解決できる問題は、ロボット装置10が有する機能の更新に応じて変更される。その機能の更新は、例えば、ロボット装置10が有するハードウェア及びソフトウェアの中の少なくとも1つを変更することで行われる。   Further, the problem that the robot apparatus 10 can solve is changed according to the update of the function of the robot apparatus 10. The update of the function is performed, for example, by changing at least one of hardware and software included in the robot apparatus 10.

なお、解決手段特定部58は、人によって実行される解決手段よりも、人によって実行されずに機器を利用して実行される解決手段(人の協力が不要な解決手段)を優先的に特定してもよい。人によって実行される解決手段は、必ずしも人によって実行されるとは限らない。それ故、人の協力が不要な解決手段を優先的に特定することで、より確実に実行され得る解決手段が特定される。また、人が検知されない場合、解決手段特定部58は、人の協力が必要な解決手段を探索せずに、人の協力が不要な解決手段を特定してもよい。これにより、解決手段の探索に要する負荷が軽減される。   The solving means specifying unit 58 preferentially specifies a solving means (a solving means that does not require human cooperation) that is executed by using a device without being executed by a person, rather than a solving means that is executed by a person. May be. A solution executed by a person is not necessarily executed by a person. Therefore, a solution that can be executed more reliably is identified by preferentially identifying a solution that does not require human cooperation. In addition, when no person is detected, the solution specifying unit 58 may specify a solution that does not require human cooperation without searching for a solution that requires human cooperation. Thereby, the load required for searching for a solution means is reduced.

以下、図16を参照して、解決手段の実行制御について詳しく説明する。図16は、その制御を示すフローチャートである。以下では、ロボット装置10によって問題を解決できないものとする。   Hereinafter, the execution control of the solving means will be described in detail with reference to FIG. FIG. 16 is a flowchart showing the control. In the following, it is assumed that the robot apparatus 10 cannot solve the problem.

まず、ロボット装置10の制御部54は、上記のユーザ判断モードにおいてユーザによって選択された解決手段、又は、上記の自律判断モードにおいてロボット装置10によって特定された解決手段に、機器の制御が含まれているか否かを判断する(S40)。つまり、制御部54は、上記の解決手段が、機器を利用する解決手段に該当するか否かを判断する。更に換言すると、制御部54は、上記の解決手段が、機器を利用せずに人のみによって実現される解決手段か否かを判断する。   First, the control unit 54 of the robot apparatus 10 includes device control in the solving means selected by the user in the user determination mode or the solving means specified by the robot apparatus 10 in the autonomous determination mode. It is determined whether or not (S40). That is, the control unit 54 determines whether or not the above solution means corresponds to a solution means that uses a device. In other words, the control unit 54 determines whether or not the above solution means is a solution means realized only by a person without using a device.

上記の解決手段に機器の制御が含まれていない場合(S40,No)、つまり、解決手段が機器を利用せずに人のみによって実現される解決手段に該当する場合、ロボット装置10は、解決手段を実行するために、周囲の人に協力を依頼する(S41)。例えば、ロボット装置10の通信部30は、協力依頼内容(例えば解決手段を実行するための手順等)を示す情報を端末装置14に送信する。この場合、端末装置14のUI部72に、その協力依頼内容を示す情報が表示される。このとき、ロボット装置10の通信部30は、周囲の環境に応じた通信方式を利用して、協力依頼内容を示す情報を端末装置14に送信する(S42)。周囲の環境は、例えば、ロボット装置10と端末装置14との間の距離や、ロボット装置10と端末装置14との間の障害物の有無等である。ロボット装置10の制御部54は、協力依頼内容を音声としてスピーカに発生させたり、ロボット装置10のUI部50に協力依頼内容を表示させたり、人のいる場所まで移動して人に触ったりしてもよい。ロボット装置10の制御部54は、解決手段を実現するためにユーザによって行われると想定される動作が、予め設定された時間内に実行されるか否かを観察する(S43)。制御部54は、その観察に基づいて、問題が解消したか否かを判断する(S44)。その想定される動作が予め設定された時間内に実行されて、各種センサー(例えば視覚センサー)によってその動作が検知された場合、ロボット装置10の制御部54は、問題が解消したと判断する(S44,Yes)。この場合、処理は終了する。一方、想定される動作が予め設定された時間内に実行されず、各種センサーによってその動作が検知されない場合、ロボット装置10の制御部54は、問題が解消していないと判断する(S44,No)。この場合、ロボット装置10は、別の解決手段を探索してもよいし、同じ協力依頼内容をユーザに通知してもよい(S45)。   If the above solution does not include control of the device (S40, No), that is, if the solution corresponds to a solution realized only by a person without using the device, the robot apparatus 10 solves the problem. In order to execute the means, a cooperation is requested from the surrounding people (S41). For example, the communication unit 30 of the robot apparatus 10 transmits information indicating cooperation request contents (for example, a procedure for executing the solving means) to the terminal apparatus 14. In this case, information indicating the content of the cooperation request is displayed on the UI unit 72 of the terminal device 14. At this time, the communication unit 30 of the robot apparatus 10 transmits information indicating the content of the cooperation request to the terminal apparatus 14 using a communication method according to the surrounding environment (S42). The surrounding environment is, for example, the distance between the robot apparatus 10 and the terminal apparatus 14, the presence or absence of an obstacle between the robot apparatus 10 and the terminal apparatus 14, and the like. The control unit 54 of the robot apparatus 10 causes the speaker to generate the cooperation request content as a voice, displays the cooperation request content on the UI unit 50 of the robot apparatus 10, or moves to a place where a person is present and touches a person. May be. The control unit 54 of the robot apparatus 10 observes whether or not an operation assumed to be performed by the user in order to realize the solving means is executed within a preset time (S43). Based on the observation, the control unit 54 determines whether or not the problem has been solved (S44). When the assumed operation is executed within a preset time and the operation is detected by various sensors (for example, a visual sensor), the control unit 54 of the robot apparatus 10 determines that the problem has been solved ( S44, Yes). In this case, the process ends. On the other hand, when the assumed operation is not executed within a preset time and the operation is not detected by various sensors, the control unit 54 of the robot apparatus 10 determines that the problem has not been solved (S44, No). ). In this case, the robot apparatus 10 may search for another solution means or notify the user of the same cooperation request content (S45).

上記の解決手段に機器の制御が含まれている場合(S40,Yes)、つまり、解決手段が機器を利用する解決手段に該当する場合、ロボット装置10の制御部54は、解決手段に利用される機器が無料で利用可能な機器に該当するか否かを判断する(S46)。具体的には、ロボット装置10の制御部54は、周囲において、その解決手段を実行可能な機器を探索(識別)し、その機器が無料で利用可能な機器に該当する否かを判断する。無料又は有料を示す情報は、機器毎に管理されている。例えば、デバイス機能管理テーブルにおいて、各機器が無料又は有料で使用可能なことが管理されていてもよい。別の例として、制御部54は、識別した機器から、当該危機が無料又は有料で使用可能な機器かを示す情報を取得してもよい。   When the above-described solving means includes device control (S40, Yes), that is, when the solving means corresponds to the solving means using the device, the control unit 54 of the robot apparatus 10 is used as the solving means. It is determined whether the corresponding device is a device that can be used free of charge (S46). Specifically, the control unit 54 of the robot apparatus 10 searches (identifies) a device that can execute the solution in the surroundings, and determines whether or not the device is a device that can be used free of charge. Information indicating free or paid is managed for each device. For example, in the device function management table, it may be managed that each device can be used free of charge or for a fee. As another example, the control unit 54 may acquire information indicating whether the crisis is a free or payable device from the identified device.

解決手段に利用される機器が無料で利用可能な機器に該当しない場合(S46,No)、つまり、その機器が有料で使用可能な機器に該当する場合、ロボット装置10の制御部54は、当該ロボット装置10が、当該機器に対応する支払手段を有しているか否かを判断する(S47)。支払手段は、例えば、電子マネー(電子通貨)、仮想通貨、現金、クレジットカード等である。もちろん、これら以外の手段によって支払いが行われてもよい。ロボット装置10が、支払手段を有していない場合(S47,No)、ロボット装置10の制御部54は、別の解決手段を探索する(S48)。ロボット装置10が、支払手段を有している場合(S47,Yes)、処理はステップS49に移行する。この場合、ロボット装置10の制御部54は、有料で利用可能な機器を使用するための支払い動作を制御する。つまり、ロボット装置10は、機器の利用の際に、支払手段によって支払する。なお、ロボット装置10が支払手段を有していない場合、ロボット装置10は、ロボット装置10以外の機器及び人の中の少なくとも1つから支払い援助を受けて(例えば、人や機器から金銭を借りたり譲り受けたりして)支払い動作を行ってもよい。   If the device used for the solution does not correspond to a device that can be used free of charge (S46, No), that is, if the device corresponds to a device that can be used for a fee, the control unit 54 of the robot apparatus 10 It is determined whether the robot apparatus 10 has a payment means corresponding to the device (S47). The payment means is, for example, electronic money (electronic currency), virtual currency, cash, credit card or the like. Of course, payment may be made by means other than these. When the robot apparatus 10 does not have a payment means (S47, No), the control part 54 of the robot apparatus 10 searches for another solution means (S48). When the robot apparatus 10 has a payment means (S47, Yes), the process proceeds to step S49. In this case, the control unit 54 of the robot apparatus 10 controls a payment operation for using a payable device. That is, the robot apparatus 10 pays by the payment means when using the device. In addition, when the robot apparatus 10 does not have a payment means, the robot apparatus 10 receives payment assistance from at least one of devices and people other than the robot device 10 (for example, borrows money from a person or a device). Payment operations may be performed.

次に、ロボット装置10の制御部54は、解決手段に利用される機器が通信機能を介して制御可能な機器に該当するか否かを判断する(S49)。通信機能を介して制御可能か否かを示す情報は、機器毎に管理されている。例えば、デバイス機能管理テーブルにおいて、各機器が通信機能を介して制御可能か否かが管理されていてもよい。   Next, the control unit 54 of the robot apparatus 10 determines whether or not the device used for the solution means corresponds to a device that can be controlled via the communication function (S49). Information indicating whether control is possible via the communication function is managed for each device. For example, in the device function management table, it may be managed whether each device can be controlled via the communication function.

解決手段に利用される機器が通信機能を介して制御可能な機器に該当する場合(S49,Yes)、ロボット装置10の制御部54は、その機器との間で通信可能な通信方式(その機器が対応している通信方式)を選択する(S50)。各機器が対応している通信方式は、機器毎に管理されている。例えば、デバイス機能管理テーブルにおいて、各機器が対応している通信方式が管理されていてもよい。なお、機器が対応している通信方式に従って当該機器と通信を行っても通信エラーが生じる場合、ステップS57以降の処理が実行されてもよい。また、当該機器が複数の通信方式に対応している場合、ロボット装置10は、当該複数の通信方式のそれぞれを用いて当該機器との間で通信を試みてもよい。この場合、ロボット装置10は、複数の通信方式の中で最適な通信方式(例えば、通信速度が最も速い通信方式や、ノイズが最も少ない通信方式等)を用いて機器と通信してもよい。   When the device used for the solving means corresponds to a device that can be controlled via the communication function (S49, Yes), the control unit 54 of the robot apparatus 10 can communicate with the device (the device). Is selected) (S50). The communication method supported by each device is managed for each device. For example, the communication method supported by each device may be managed in the device function management table. Note that if a communication error occurs even if communication with the device is performed according to the communication method supported by the device, the processing after step S57 may be executed. When the device is compatible with a plurality of communication methods, the robot apparatus 10 may attempt communication with the device using each of the plurality of communication methods. In this case, the robot apparatus 10 may communicate with the device using an optimum communication method (for example, a communication method with the fastest communication speed or a communication method with the least noise) among a plurality of communication methods.

また、ロボット装置10の制御部54は、解決手段に利用される機器のアドレス情報やアクセスパスワード等を取得する(S51)。ロボット装置10の制御部54は、例えば、アドレス情報等を記憶するサーバ等の装置からアドレス情報等を取得してもよいし、インターネット経由等でアドレス情報等を取得してもよい。別の例として、アドレス情報等はロボット装置10に記憶されていてもよい。また、ロボット装置10の制御部54は、解決手段に利用される機器を制御するために当該機器のドライバが必要な場合、そのドライバを取得してロボット装置10にインストールする(S52)。ロボット装置10の制御部54は、例えば、ドライバを記憶するサーバ等の装置からドライバを取得してもよいし、インターネット経由等でドライバを取得してもよい。   Further, the control unit 54 of the robot apparatus 10 acquires the address information, the access password, etc. of the device used for the solving means (S51). The control unit 54 of the robot apparatus 10 may acquire address information or the like from a device such as a server that stores address information or the like, or may acquire address information or the like via the Internet or the like. As another example, address information and the like may be stored in the robot apparatus 10. Further, when the driver of the device is necessary to control the device used for the solving means, the control unit 54 of the robot device 10 acquires the driver and installs it in the robot device 10 (S52). The control unit 54 of the robot apparatus 10 may acquire a driver from an apparatus such as a server that stores the driver, or may acquire the driver via the Internet or the like.

次に、ロボット装置10の通信部30は、解決手段の実行指示(解決手段を実行するための機能の実行指示)を示す情報を、解決手段に利用される機器に送信する(S53)。実行指示を示す情報を受けた機器は、その指示に従って解決手段を実行する。   Next, the communication unit 30 of the robot apparatus 10 transmits information indicating an execution instruction of the solving means (execution instruction of a function for executing the solving means) to a device used for the solving means (S53). The device that has received the information indicating the execution instruction executes the solving means according to the instruction.

ロボット装置10の制御部54は、機器が問題を解決しているか否かを観察し(S54)、その観察に基づいて、問題が解消したか否かを判断する(S55)。例えば、解決手段を実現するために機器によって行われると想定される動作が、予め設定された時間内に当該機器によって実行されて、各種センサー(例えば視覚センサー)によってその動作が検知された場合、ロボット装置10の制御部54は、機器が問題を解決していると判断する(S55,Yes)。この場合、処理は終了する。一方、想定される動作が予め設定された時間内に実行されず、各種センサーによってその動作が検知されない場合、ロボット装置10の制御部54は、問題が解消していないと判断する(S55,No)。この場合、ロボット装置10は、別の解決手段を探索してもよいし、同じ実行指示を機器に送信してもよい(S56)。なお、ロボット装置10の制御部54は、別の新たな解決手段の実行が可能か否かを判断してもよい。例えば、部屋の温度が高い場合において、クーラー以外の機器として扇風機が部屋内に新たに設置された場合、制御部54は、その扇風機を用いた新たな解決手段を探索してもよい。また、検索部62は、インターネット等を利用することで、新たな解決手段を検索してもよい。   The control unit 54 of the robot apparatus 10 observes whether or not the device has solved the problem (S54), and determines whether or not the problem has been resolved based on the observation (S55). For example, when an operation that is assumed to be performed by a device to realize the solution is executed by the device within a preset time and the operation is detected by various sensors (for example, a visual sensor), The control unit 54 of the robot apparatus 10 determines that the device has solved the problem (S55, Yes). In this case, the process ends. On the other hand, when the assumed operation is not executed within the preset time and the operation is not detected by various sensors, the control unit 54 of the robot apparatus 10 determines that the problem has not been solved (S55, No). ). In this case, the robot apparatus 10 may search for another solution, or may transmit the same execution instruction to the device (S56). Note that the control unit 54 of the robot apparatus 10 may determine whether or not another new solving means can be executed. For example, when the temperature of the room is high and a fan is newly installed in the room as a device other than the cooler, the control unit 54 may search for a new solution using the fan. The search unit 62 may search for a new solution by using the Internet or the like.

解決手段に利用される機器が通信機能を介して制御可能な機器に該当しない場合(S49,No)、ロボット装置10は、当該機器を操作するためのリモコンを探索する(S57)。ロボット装置10は、例えば、視覚センサーによって得られた画像を解析することでリモコンを識別する。   If the device used for the solving means does not correspond to a device that can be controlled via the communication function (S49, No), the robot apparatus 10 searches for a remote controller for operating the device (S57). For example, the robot apparatus 10 identifies a remote controller by analyzing an image obtained by a visual sensor.

リモコンが見つからない場合(S58,No)、ロボット装置10は、別の解決手段を探す(S59)。   If the remote controller is not found (S58, No), the robot apparatus 10 searches for another solution (S59).

リモコンが見つかった場合(S58,Yes)、ロボット装置10は、リモコンを操作することで、解決手段の実行するための指示を入力する(S59)。その指示を受けた機器は、その指示に従って解決手段を実行する。   When the remote controller is found (S58, Yes), the robot apparatus 10 inputs an instruction to execute the solving means by operating the remote controller (S59). The device that has received the instruction executes the solving means according to the instruction.

ロボット装置10の制御部54は、機器が問題を解決しているか否かを観察し、その観察に基づいて、問題が解消したか否かを判断する(S61)。例えば、解決手段を実現するために機器によって行われると想定される動作が、予め設定された時間内に当該機器によって実行されて、各種センサー(例えば視覚センサー)によってその動作が検知された場合、ロボット装置10の制御部54は、機器が問題を解決していると判断する(S61,Yes)。この場合、処理は終了する。一方、想定される動作が予め設定された時間内に実行されず、各種センサーによってその動作が検知されない場合、ロボット装置10の制御部54は、問題が解消していないと判断する(S61,No)。この場合、ロボット装置10は、別の解決手段を探索してもよいし、リモコンを用いて同じ実行指示を機器に送信してもよい(S62)。   The control unit 54 of the robot apparatus 10 observes whether or not the device has solved the problem, and determines whether or not the problem has been resolved based on the observation (S61). For example, when an operation that is assumed to be performed by a device to realize the solution is executed by the device within a preset time and the operation is detected by various sensors (for example, a visual sensor), The control unit 54 of the robot apparatus 10 determines that the device has solved the problem (S61, Yes). In this case, the process ends. On the other hand, when the assumed operation is not executed within the preset time and the operation is not detected by various sensors, the control unit 54 of the robot apparatus 10 determines that the problem has not been solved (S61, No). ). In this case, the robot apparatus 10 may search for another solution, or may transmit the same execution instruction to the device using a remote controller (S62).

以下、本実施形態に係るロボット装置10の適用場面について詳しく説明する。   Hereinafter, application scenes of the robot apparatus 10 according to the present embodiment will be described in detail.

(適用場面1)
図17を参照して、適用場面1について説明する。図17には、人やロボット装置10等が示されている。例えば、人76(3人)によって会議が行われており、その場にロボット装置10が同席しているものとする。
(Application 1)
Application scene 1 will be described with reference to FIG. FIG. 17 shows a person, the robot apparatus 10 and the like. For example, it is assumed that a meeting is held by people 76 (three people) and the robot apparatus 10 is present at the meeting.

ロボット装置10の状況収集部44は、各種センサーによって周囲の状況情報を収集する。状況収集部44は、例えば、周囲の人76の会話を示す音声や、人76を表わす画像(例えば人76の顔を表わす画像や全身を表わす画像等)、温度、湿度、等を状況情報として収集する。ロボット装置10の検知部56は、その状況情報(例えば、人76の様子(会話、表情、態度等)や温度等)に基づいて、周囲の状況を検知する。例えば、人76が「今の発言をメモにして紙でほしい」と発言した場合、ロボット装置10の状況収集部44は、その会話の音声情報を状況情報として収集し、ロボット装置10の検知部56は、その会話に基づいて、問題が発生しているか否かを判断する。上記の発言では、「発言の内容を紙に印刷してほしい」という問題が検知される。   The situation collecting unit 44 of the robot apparatus 10 collects surrounding situation information using various sensors. The situation collecting unit 44 uses, for example, voice indicating the conversation of the surrounding person 76, an image representing the person 76 (for example, an image representing the face of the person 76, an image representing the whole body, etc.), temperature, humidity, and the like as the situation information. collect. The detection unit 56 of the robot apparatus 10 detects the surrounding situation based on the situation information (for example, the state of the person 76 (conversation, facial expression, attitude, etc.), temperature, etc.). For example, when the person 76 says, “I want you to make a note of the current remark and use paper”, the situation collection unit 44 of the robot apparatus 10 collects the voice information of the conversation as the situation information, and the detection unit of the robot apparatus 10 56 determines whether a problem has occurred based on the conversation. In the above utterance, the problem of “I want the contents of the utterance to be printed on paper” is detected.

解決手段特定部58は、解決手段管理情報38を参照して、その問題を解決するための解決手段を特定する。この問題は、例えば、「発言を音声情報として収集し、その発言内容を文字列に変換する機能」と、「プリント機能」と、を組み合わせることによって、解決できる問題である。すなわち、この問題に対する解決手段は、「発言を音声情報として収集し、その発言内容を文字列に変換する機能」と「プリント機能」との組み合わせによって構成される。   The solution means identification unit 58 refers to the solution means management information 38 and identifies a solution means for solving the problem. This problem can be solved by combining, for example, “a function for collecting utterances as voice information and converting the content of the utterances into character strings” and a “printing function”. That is, a solution to this problem is configured by a combination of “a function for collecting utterances as voice information and converting the utterance contents into a character string” and a “printing function”.

ここで、ロボット装置10が、「発言を音声情報として収集し、その発言内容を文字列に変換する機能」を備えており、「プリント機能」を備えていないものとする。この場合、ロボット装置10のみによっては、上記の問題を解決することができない。これに対処するために、ロボット装置10は、プリント機能を有する機器を探索する。例えば、ロボット装置10は、視覚センサー(例えばカメラ)によって周囲の機器を撮影し、ロボット装置10の識別部64は、その撮影で得られた画像を解析することで、撮影された機器を識別する。例えば、複合機78がロボット装置10の周囲に設置されており、プリント機能を備えているものとする。ロボット装置10の識別部64は、複合機78を識別し、その複合機78が有する機能(例えばプリント機能)を識別する。この場合、ロボット装置10と複合機78とによって、解決手段が実行される。この解決手段は、ロボット装置10と複合機78とを利用する連携機能によって実現される解決手段、つまり、ロボット装置10と複合機78とが連携することで実現される解決手段である。例えば、ロボット装置10は、自動的に解決手段を実行してもよいし、ユーザからの実行指示を受けて解決手段を実行してもよい。解決手段を実行する場合、ロボット装置10は、複合機78と通信し、人76の発言内容を示す情報を複合機78に送信するとともに、その情報の印刷指示を複合機78に与える。これにより、人76の発言内容が用紙に印刷される。   Here, it is assumed that the robot apparatus 10 has a “function to collect utterances as voice information and convert the utterance contents into a character string” and does not have a “print function”. In this case, the above problem cannot be solved only by the robot apparatus 10. In order to cope with this, the robot apparatus 10 searches for a device having a print function. For example, the robot apparatus 10 images surrounding devices with a visual sensor (for example, a camera), and the identification unit 64 of the robot apparatus 10 identifies the captured devices by analyzing an image obtained by the imaging. . For example, it is assumed that the multi-function device 78 is installed around the robot apparatus 10 and has a print function. The identification unit 64 of the robot apparatus 10 identifies the multifunction device 78 and identifies a function (for example, a print function) that the multifunction device 78 has. In this case, the solving means is executed by the robot apparatus 10 and the multi-function device 78. This solving means is a solving means realized by a cooperation function using the robot apparatus 10 and the multifunction machine 78, that is, a solving means realized by cooperation of the robot apparatus 10 and the multifunction machine 78. For example, the robot apparatus 10 may automatically execute the solving means, or may execute the solving means upon receiving an execution instruction from the user. When executing the solution, the robot apparatus 10 communicates with the multi-function device 78, transmits information indicating the content of the remarks of the person 76 to the multi-function device 78, and gives a print instruction for the information to the multi-function device 78. Thereby, the content of the remarks of the person 76 is printed on the paper.

ロボット装置10は、複合機78まで移動し、発言内容が印刷された用紙を取得してユーザに渡してもよい。また、ロボット装置10は、音声等によって、解決手段が実行されたことをユーザに報知してもよい。   The robot apparatus 10 may move to the multi-function device 78, obtain a sheet on which the content of the message is printed, and give it to the user. Further, the robot apparatus 10 may notify the user that the solving means has been executed by voice or the like.

図17に示す例では、ロボット装置10が解決手段に利用されているが、ロボット装置10が利用されずに、ロボット装置10以外の機器を利用する解決手段が実行されてもよい。この場合、ロボット装置10は、ロボット装置10以外の機器に、解決手段の実行指示を与える。   In the example illustrated in FIG. 17, the robot apparatus 10 is used as the solving means. However, the solving means using equipment other than the robot apparatus 10 may be executed without using the robot apparatus 10. In this case, the robot apparatus 10 gives an instruction to execute the solving means to devices other than the robot apparatus 10.

ロボット装置10は、複合機78を直接操作してもよい。例えば、「用紙をコピーしてほしい」といった問題がロボット装置10の検知部56によって検知された場合、ロボット装置10の解決手段特定部58は、「コピー機能」を解決手段として特定する。この場合、ロボット装置10は、コピー機能を有する機器(例えば複合機78)を探索し、複合機78に用紙のコピーを実行させる。例えば、ロボット装置10は、ユーザから用紙を受け取って複合機78にセットし、複合機78の操作パネルを直接操作することで、複合機78にコピー指示を与える。ロボット装置10は、例えば視覚センサーによって取得された画像を解析することで、操作パネル等を識別して、コピー指示を与える。   The robot apparatus 10 may directly operate the multi-function device 78. For example, when a problem such as “I want to copy paper” is detected by the detection unit 56 of the robot apparatus 10, the solution means specifying unit 58 of the robot apparatus 10 specifies “copy function” as the solution means. In this case, the robot apparatus 10 searches for a device having a copy function (for example, the multifunction device 78), and causes the multifunction device 78 to copy a sheet. For example, the robot apparatus 10 receives a sheet from the user, sets it in the multifunction device 78, and directly operates the operation panel of the multifunction device 78 to give a copy instruction to the multifunction device 78. The robot apparatus 10 analyzes an image acquired by, for example, a visual sensor to identify an operation panel and give a copy instruction.

以上のように、ロボット装置10のみによって解決できない問題が検知された場合であても、他の機器を利用してその問題を解決することが可能となる。これにより、ロボット装置10が状況に応じて連携して解決できる問題の範囲を広げることが可能となる。   As described above, even when a problem that cannot be solved only by the robot apparatus 10 is detected, it is possible to solve the problem by using another device. Thereby, it becomes possible to widen the range of problems that the robot apparatus 10 can solve in cooperation according to the situation.

(適用場面2)
図18を参照して、適用場面2について説明する。図18には、ユーザやロボット装置10等が示されている。例えば、人80が倒れているものとする。ロボット装置10の状況収集部44は、倒れている人80の画像を状況情報として収集し、ロボット装置10の検知部56は、その画像に基づいて、問題が発生しているか否かを判断する。図18に示す例では、「人が倒れている」という問題が検知される。
(Application scene 2)
Application scene 2 will be described with reference to FIG. FIG. 18 shows the user, the robot apparatus 10 and the like. For example, it is assumed that the person 80 has fallen. The situation collection unit 44 of the robot apparatus 10 collects an image of the person 80 who has fallen as situation information, and the detection unit 56 of the robot apparatus 10 determines whether or not a problem has occurred based on the image. . In the example illustrated in FIG. 18, the problem “a person is falling” is detected.

解決手段特定部58は、解決手段管理情報38を参照して、その問題を解決するための解決手段を特定する。この問題は、例えば、「倒れている人を救護するために人に助けを求める」ことで解決できる問題である。すなわち、この問題に対する解決手段には、「人に助けを求めること」が含まれている。この場合、ロボット装置10は、倒れている人80以外の人82に助けを求める。そのために、ロボット装置10は、音声を発生してもよいし、人82まで移動して人82に接触してもよい。このとき、ロボット装置10の制御部54は、救護するための手順を示す情報を、ロボット装置10のUI部50に表示させてもよいし、人82が所持する端末装置14に表示させてもよい。例えば、ロボット装置10は、各種センサーによって人82が所持する端末装置14を識別し、識別した端末装置14に、救助するための手順を示す情報を送信してもよい。   The solution means identification unit 58 refers to the solution means management information 38 and identifies a solution means for solving the problem. This problem can be solved by, for example, “asking for help from a person to rescue a fallen person”. In other words, the solution to this problem includes “seeking people for help”. In this case, the robot apparatus 10 requests help from a person 82 other than the person 80 who has fallen. For this purpose, the robot apparatus 10 may generate sound, or may move to the person 82 and contact the person 82. At this time, the control unit 54 of the robot apparatus 10 may display information indicating a procedure for rescue on the UI unit 50 of the robot apparatus 10 or may display the information on the terminal apparatus 14 possessed by the person 82. Good. For example, the robot device 10 may identify the terminal device 14 possessed by the person 82 using various sensors, and transmit information indicating a procedure for rescue to the identified terminal device 14.

なお、解決手段特定部58によって、「倒れている人を安全な場所まで運ぶ」という解決手段が特定された場合において、ロボット装置10が、物体を運ぶ機能を備えている場合、ロボット装置10は、ロボット装置10のみによって人80を運んでもよいし、他の人と共同で人80を運んでもよいし、他の機器と共同で人80を運んでもよいし、他の人と他の機器と共同して人80を運んでもよい。他の機器は、ロボット装置10によって識別された機器である。ロボット装置10が、物体を運ぶ機能を備えていない場合、ロボット装置10は、倒れている人80を安全な場所まで運ぶよう、人82に指示を与えてもよい。その指示を示す情報は、ロボット装置10のUI部50に表示されてもよいし、人82が有する端末装置に送信されて端末装置に表示されてもよい。   In the case where the solving means “carrying a fallen person to a safe place” is specified by the solving means specifying unit 58 and the robot apparatus 10 has a function of carrying an object, the robot apparatus 10 The person 80 may be carried only by the robot apparatus 10, the person 80 may be carried together with another person, the person 80 may be carried together with other equipment, or the other person and other equipment may be brought together. You may carry people 80 together. The other device is a device identified by the robot apparatus 10. If the robot apparatus 10 does not have a function of carrying an object, the robot apparatus 10 may give an instruction to the person 82 to carry the person 80 who has fallen to a safe place. Information indicating the instruction may be displayed on the UI unit 50 of the robot apparatus 10, or may be transmitted to a terminal apparatus held by the person 82 and displayed on the terminal apparatus.

以上のように、ロボット装置10のみによって解決できない問題が検知された場合であって、人に協力を依頼してその問題を解決することが可能となる。   As described above, when a problem that cannot be solved only by the robot apparatus 10 is detected, it is possible to request cooperation from a person and solve the problem.

(適用場面3)
図19を参照して、適用場面3について説明する。図19には、ユーザやロボット装置10等が示されている。例えば、人84が「喉が渇いた」と発言した場合、ロボット装置10の状況収集部44は、その発言の音声情報を状況情報として収集し、ロボット装置10の検知部56は、その発言に基づいて、問題が発生しているか否かを判断する。上記の発言では、「喉が渇いた」という問題が検知される。
(Application scene 3)
Application scene 3 will be described with reference to FIG. FIG. 19 shows the user, the robot apparatus 10 and the like. For example, when the person 84 says “I am thirsty”, the situation collection unit 44 of the robot apparatus 10 collects the voice information of the comment as situation information, and the detection unit 56 of the robot apparatus 10 responds to the statement. Based on this, it is determined whether or not a problem has occurred. In the above statement, the problem of “thirsty” is detected.

解決手段特定部58は、解決手段管理情報38を参照して、その問題を解決するための解決手段を特定する。この問題は、例えば、「飲み物を購入する」ことによって解決できる問題である。すなわち、この問題に対する解決手段は、「飲み物を提供する機能」によって構成される。   The solution means identification unit 58 refers to the solution means management information 38 and identifies a solution means for solving the problem. This problem can be solved by, for example, “purchasing a drink”. That is, the solution to this problem is constituted by “a function of providing a drink”.

ここで、ロボット装置10は、「飲み物を提供する機能」を備えていないものとする。この場合、ロボット装置10にのみによっては、上記の問題を解決することができない。これに対処するために、ロボット装置10は、飲み物を提供する機器を探索する。例えば、ロボット装置10は、視覚センサーによって周囲の機器を撮影し、ロボット装置10の識別部64は、その撮影で得られた画像を解析することで、撮影された機器を識別する。例えば、飲料水の自動販売機86(機器の一例)がロボット装置10の周囲に設置されているものとする。ロボット装置10の識別部64は、自動販売機86を識別し、その自動販売機86が有する機能(例えば有料で飲み物を提供する機能)を識別する。ロボット装置10の識別部64は、視覚センサーによって得られた画像に基づいて、自動販売機86が対応している支払方法(例えば電子マネーや貨幣)を識別してもよいし、自動販売機86と通信して、自動販売機86が対応している支払方法を識別してもよい。ロボット装置10の制御部54は、自動販売機86が対応している支払方法を準備する。   Here, it is assumed that the robot apparatus 10 does not have a “function for providing a drink”. In this case, the above problem cannot be solved only by the robot apparatus 10. In order to cope with this, the robot apparatus 10 searches for a device that provides a drink. For example, the robot apparatus 10 images surrounding devices with a visual sensor, and the identification unit 64 of the robot apparatus 10 identifies an imaged device by analyzing an image obtained by the imaging. For example, it is assumed that a drinking water vending machine 86 (an example of an apparatus) is installed around the robot apparatus 10. The identification unit 64 of the robot apparatus 10 identifies the vending machine 86 and identifies the function of the vending machine 86 (for example, the function of providing drinks for a fee). The identification unit 64 of the robot apparatus 10 may identify a payment method (for example, electronic money or money) supported by the vending machine 86 based on the image obtained by the visual sensor. And the payment method supported by the vending machine 86 may be identified. The control unit 54 of the robot apparatus 10 prepares a payment method supported by the vending machine 86.

ロボット装置10が、自動販売機86に対応している支払手段(例えば、電子マネー、貨幣、クレジットカード等)を有している場合、ロボット装置10の制御部54は、支払い動作を制御する。これにより、ロボット装置10は、自動販売機86において、その支払手段によって支払を行うことで、飲み物を購入する。例えば、ロボット装置10は、自動販売機86まで移動して自動販売機86を直接操作することで、飲み物を購入する。ロボット装置10は、例えば視覚センサーによって取得された画像を解析することで、自動販売機86の購入ボタン等を識別して、飲み物を購入する。ロボット装置10は、その飲み物を人84に届けてもよい。なお、ロボット装置10は、ユーザの指示に応じて、飲み物を購入してもよいし、ユーザの指示を受けずに、飲み物を購入してもよい。ユーザの指示に応じて購入処理を行う場合、ロボット装置10の制御部54は、解決手段を示す情報(例えば、飲み物を購入することを示す情報)をロボット装置10のUI部50に表示させる。ユーザがUI部50を用いて購入指示を与えた場合、ロボット装置10は、支払手段によって支払を行って飲み物を購入する。解決手段を示す情報は、ユーザの端末装置14に送信されて端末装置14に表示されてもよい。ユーザが端末装置14を用いて購入指示を与えると、その購入指示を示す情報が端末装置14からロボット装置10に送信され、ロボット装置10は、その購入指示に従って、飲み物を購入する。   When the robot apparatus 10 has a payment means (for example, electronic money, money, credit card, etc.) corresponding to the vending machine 86, the control unit 54 of the robot apparatus 10 controls the payment operation. Thereby, the robot apparatus 10 purchases a drink by paying with the payment means in the vending machine 86. For example, the robot apparatus 10 purchases a drink by moving to the vending machine 86 and directly operating the vending machine 86. The robot apparatus 10 purchases drinks by identifying a purchase button or the like of the vending machine 86 by analyzing an image acquired by a visual sensor, for example. The robot apparatus 10 may deliver the drink to the person 84. In addition, the robot apparatus 10 may purchase a drink according to a user's instruction | indication, and may purchase a drink, without receiving a user's instruction | indication. When the purchase process is performed in accordance with a user instruction, the control unit 54 of the robot apparatus 10 displays information indicating a solution (for example, information indicating that a drink is purchased) on the UI unit 50 of the robot apparatus 10. When the user gives a purchase instruction using the UI unit 50, the robot apparatus 10 purchases a drink by paying with the payment means. Information indicating the solution may be transmitted to the terminal device 14 of the user and displayed on the terminal device 14. When a user gives a purchase instruction using the terminal device 14, information indicating the purchase instruction is transmitted from the terminal device 14 to the robot apparatus 10, and the robot apparatus 10 purchases a drink according to the purchase instruction.

ロボット装置10が、自動販売機86に対応している支払手段を有していない場合、人84及び他の機器の中の少なくとも1つから支払いの援助を受けて、支払い動作を行ってもよい。例えば、ロボット装置10は、問題を解決するための行動に関与し得る人から支払用の金銭を受け取り、その金銭によって飲み物を購入してもよいし、支払手段を有する他の機器からその支払手段を借りて支払い動作を行ってもよい。問題を解決するための行動に関与し得る人は、例えば、「喉が渇いた」と発言した人84であり、この人84は、ロボット装置10の各種センサーによって識別される。   When the robot apparatus 10 does not have a payment means corresponding to the vending machine 86, the payment operation may be performed with payment assistance from at least one of the person 84 and other equipment. . For example, the robot apparatus 10 may receive money for payment from a person who may be involved in an action for solving the problem, and may purchase a drink with the money, or the payment means from another device having a payment means. The payment operation may be performed by borrowing. The person who can be involved in the action for solving the problem is, for example, a person 84 who has said that he is thirsty, and this person 84 is identified by various sensors of the robot apparatus 10.

(ユーザ判断モード1)
以下、ユーザ判断モードの一例(ユーザ判断モード1)について詳しく説明する。図20には、人やロボット装置10等が示されている。例えば、人87(3人)が会話をしており、ロボット装置10の周囲には、複数の機器(例えば、複合機78、プロジェクタ88、カメラ90、ディスプレイ92、アロマ器94)が設置されている。
(User judgment mode 1)
Hereinafter, an example of the user determination mode (user determination mode 1) will be described in detail. FIG. 20 shows a person, the robot apparatus 10 and the like. For example, a person 87 (three persons) is having a conversation, and a plurality of devices (for example, a multifunction machine 78, a projector 88, a camera 90, a display 92, and an aroma device 94) are installed around the robot apparatus 10. Yes.

ロボット装置10の状況収集部44は、各種センサーによって周囲の状況情報を収集し、検知部56は、その状況情報に基づいて周囲の状況を検知する。また、識別部64は、周囲に存在する機器を識別する。例えば、検知部56によって、「3人が会議しており、何やら揉めている」という状況(問題)が検知されたものとする。また、図20に示す例では、識別部64によって、複合機78、プロジェクタ88、カメラ90、ディスプレイ92及びアロマ器94が識別される。識別部64は、人(例えば問題が生じている人87)が所持している端末装置14を識別してもよい。   The situation collecting unit 44 of the robot apparatus 10 collects surrounding situation information using various sensors, and the detecting unit 56 detects the surrounding situation based on the situation information. Further, the identification unit 64 identifies devices present in the vicinity. For example, it is assumed that the detection unit 56 detects a situation (problem) that “three people are in a meeting and somehow give up”. In the example illustrated in FIG. 20, the identification unit 64 identifies the multifunction device 78, the projector 88, the camera 90, the display 92, and the aroma device 94. The identification unit 64 may identify the terminal device 14 possessed by a person (for example, a person 87 having a problem).

ロボット装置10の判断部60が、検知部56によって検知された問題をロボット装置10によって解決できないと判断した場合、ロボット装置10の通信部30は、制御部54の制御の下、ロボット装置10に予め登録された端末装置14や、識別部64によって識別された端末装置14(例えば問題が生じている人87が所持している端末装置14)に、状況情報を送信する。その状況情報には、検知部56によって検知された状況(問題)を示す情報、識別部64によって識別された機器を示す情報、等が含まれる。   When the determination unit 60 of the robot device 10 determines that the problem detected by the detection unit 56 cannot be solved by the robot device 10, the communication unit 30 of the robot device 10 controls the robot device 10 under the control of the control unit 54. The status information is transmitted to the terminal device 14 registered in advance or the terminal device 14 identified by the identifying unit 64 (for example, the terminal device 14 possessed by the person 87 having the problem). The status information includes information indicating the status (problem) detected by the detection unit 56, information indicating the device identified by the identification unit 64, and the like.

端末装置14のUI部72には、状況を説明する画面が表示される。図21には、その画面の一例が示されている。端末装置14のUI部72には、状況説明画面96が表示される。状況説明画面96には、検知部56によって検知された状況(問題)を示す情報、識別部64によって識別された機器を示す情報、等が表示される。図21に示す例では、状況(問題)として「3人が会議して、何か揉めている」ことを示す文字列が表示され、「周囲に、複合機、プロジェクタ、カメラ、ディスプレイ及びアロマ器が存在する」ことを示す文字列が表示される。   A screen for explaining the situation is displayed on the UI unit 72 of the terminal device 14. FIG. 21 shows an example of the screen. A situation explanation screen 96 is displayed on the UI unit 72 of the terminal device 14. On the situation explanation screen 96, information indicating a situation (problem) detected by the detection unit 56, information indicating a device identified by the identification unit 64, and the like are displayed. In the example shown in FIG. 21, a character string indicating that “three people are meeting and giving up” is displayed as a situation (problem), and “a multifunction machine, a projector, a camera, a display, and an aroma device are surrounded. A character string indicating that “is present” is displayed.

また、ユーザが端末装置14を使用して追加情報を要求した場合、その要求を示す情報が、端末装置14からロボット装置10に送信される。ロボット装置10の通信部30は、その要求に応じて、追加情報を端末装置14に送信する。例えば、追加情報として、周囲の状況を表わす画像がユーザによって要求された場合、ロボット装置10の通信部30は、周囲の状況を表わす画像データを端末装置14に送信する。   When the user requests additional information using the terminal device 14, information indicating the request is transmitted from the terminal device 14 to the robot device 10. The communication unit 30 of the robot apparatus 10 transmits additional information to the terminal apparatus 14 in response to the request. For example, when an image representing the surrounding situation is requested by the user as additional information, the communication unit 30 of the robot apparatus 10 transmits image data representing the surrounding situation to the terminal device 14.

ロボット装置10の通信部30は、例えば、問題が生じていると想定される人87に紐付く画像データ、識別部64によって識別された機器に紐付く画像データ、等を、周囲の状況を表わす画像データとして、端末装置14に送信する。人87に紐付く画像データは、視覚センサーによる撮影によって生成された画像データであってもよいし、人を模式的に表す画像データであってもよい。機器に紐付く画像データは、識別部64が機器を識別するときに視覚センサー(カメラ)による撮影で得られた画像データであってもよいし、識別された機器を模式的に表す画像データ(例えばアイコン)であってもよい。模式的に表す画像データは、例えば、ロボット装置10に予め記憶されていてもよいし、サーバ等の装置に予め記憶されて、ロボット装置10に送信されてもよい。   The communication unit 30 of the robot apparatus 10 represents, for example, image data associated with a person 87 who is assumed to have a problem, image data associated with a device identified by the identification unit 64, and the like in the surrounding situation. The image data is transmitted to the terminal device 14. The image data associated with the person 87 may be image data generated by photographing with a visual sensor, or image data schematically representing a person. The image data associated with the device may be image data obtained by photographing with a visual sensor (camera) when the identification unit 64 identifies the device, or image data (schematically representing the identified device ( For example, an icon) may be used. For example, the image data schematically represented may be stored in advance in the robot apparatus 10, or may be stored in advance in an apparatus such as a server and transmitted to the robot apparatus 10.

ロボット装置10の通信部30は、追加情報としての画像データ(例えば人87に紐付く画像データと機器に紐付く画像データ)を端末装置14に送信する。端末装置14のUI部72には、その画像が表示される。図22には、その画像の一例が示されている。端末装置14のUI部72には、状況説明画面98が表示される。状況説明画面96には、追加情報としての画像群が表示される。例えば、人87に紐付く画像100、複合機78に紐付く機器画像102、プロジェクタ88に紐付く機器画像104、カメラ90に紐付く機器画像106、ディスプレイ92に紐付く機器画像108、及び、アロマ器94に紐付く機器画像110が表示される。   The communication unit 30 of the robot device 10 transmits image data (for example, image data associated with the person 87 and image data associated with the device) as additional information to the terminal device 14. The image is displayed on the UI unit 72 of the terminal device 14. FIG. 22 shows an example of the image. A situation explanation screen 98 is displayed on the UI unit 72 of the terminal device 14. On the situation explanation screen 96, an image group as additional information is displayed. For example, an image 100 associated with a person 87, a device image 102 associated with a multifunction device 78, a device image 104 associated with a projector 88, a device image 106 associated with a camera 90, a device image 108 associated with a display 92, and an aroma A device image 110 associated with the device 94 is displayed.

ユーザが状況説明画面98上において、機器画像を指定し、その機器画像に紐付く機器を利用する解決手段の実行指示を与えると、その実行指示を示す情報が、その機器に送信される。その機器は、実行指示に従って、検知部56によって検知された問題を解決するための解決手段を実行する。実行指示を示す情報は、端末装置14から機器に送信されてもよいし、ロボット装置10から機器に送信されてもよい。   When the user designates a device image on the situation explanation screen 98 and gives an execution instruction of the solution means using the device associated with the device image, information indicating the execution instruction is transmitted to the device. The device executes solution means for solving the problem detected by the detection unit 56 in accordance with the execution instruction. Information indicating the execution instruction may be transmitted from the terminal device 14 to the device, or may be transmitted from the robot device 10 to the device.

例えば、ユーザによって機器画像108,110が指定されたものとする。この場合、解決手段特定部58は、解決手段管理情報38を参照することで、検知部56によって検知された問題「3人が会議して、何か揉めている」を解決するための解決手段であって、機器画像108に紐付くディスプレイ92と機器画像110に紐付くアロマ器94とを利用する解決手段を特定する。つまり、解決手段特定部58は、解決手段管理情報38を参照することで、検知部56によって検知された問題「3人が会議して、何か揉めている」を解決するための解決手段を特定し、デバイス機能管理情報40と連携機能管理情報42を参照することで、特定された各解決手段に用いられる機器群(各解決手段を実行するために利用される機能を有する機器群)を特定する。ユーザによってディスプレイ92とアロマ器94が指定されると、解決手段特定部58は、それらを利用する解決手段を選択する。   For example, it is assumed that the device images 108 and 110 are designated by the user. In this case, the solving means specifying unit 58 refers to the solving means management information 38 to solve the problem “three people are meeting and giving up” detected by the detecting unit 56. In this case, a solution means that uses the display 92 associated with the device image 108 and the aroma device 94 associated with the device image 110 is specified. In other words, the solving means specifying unit 58 refers to the solving means management information 38 to find a solving means for solving the problem “three people are meeting and giving up” detected by the detecting unit 56. By identifying and referring to the device function management information 40 and the link function management information 42, a device group (a device group having a function used to execute each solution unit) used for each identified solution unit is identified. Identify. When the display 92 and the aroma device 94 are designated by the user, the solving means specifying unit 58 selects a solving means using them.

ユーザによってディスプレイ92とアロマ器94が指定されると、例えば図23に示すように、端末装置14のUI部72に、実行指示画面112が表示される。その実行指示画面112には、ユーザによって指定された機器画像(例えば機器画像108,110)が表示され、ユーザによって指定された機器を利用して実行可能な機能(解決手段)を示す情報が表示される。例えば、ディスプレイ92とアロマ器94を利用することで実行可能な解決手段は、「癒し画像をディスプレイ92に表示し、癒しの香りをアロマ器94から発声させる」ことである。この解決手段は、ディスプレイ92とアロマ器94とを連携させることで実行可能な連携機能であり、この連携機能は、連携機能管理情報42に登録されている。ユーザが端末装置14を使用して解決手段の実行指示を与えると、その実行指示を示す情報が、端末装置14からディスプレイ92とアロマ器94に送信される。もちろん、実行指示を示す情報は、ロボット装置10を介してディスプレイ92とアロマ器94に送信されてもよい。実行指示を示す情報を受けたディスプレイ92は、癒し画像を表示し、実行指示を示す情報を受けたアロマ器94は、癒しの香りを発声させる。なお、癒し画像のデータは、ロボット装置10に予め記憶されており、ロボット装置10からディスプレイ92に送信されてもよいし、サーバ等の装置に記憶されて、サーバ等の装置からディスプレイ92に送信されてもよい。   When the display 92 and the aroma device 94 are designated by the user, an execution instruction screen 112 is displayed on the UI unit 72 of the terminal device 14, for example, as shown in FIG. On the execution instruction screen 112, a device image designated by the user (for example, device images 108 and 110) is displayed, and information indicating functions (solution means) that can be executed using the device designated by the user is displayed. Is done. For example, a solution that can be executed by using the display 92 and the aroma device 94 is to “display a healing image on the display 92 and utter a healing scent from the aroma device 94”. This solving means is a cooperation function that can be executed by linking the display 92 and the aroma device 94, and this cooperation function is registered in the cooperation function management information 42. When the user gives an execution instruction for the solving means using the terminal device 14, information indicating the execution instruction is transmitted from the terminal device 14 to the display 92 and the aroma device 94. Of course, the information indicating the execution instruction may be transmitted to the display 92 and the aroma device 94 via the robot apparatus 10. The display 92 that has received the information indicating the execution instruction displays a healing image, and the aroma device 94 that has received the information indicating the execution instruction causes the healing scent to utter. The healing image data is stored in advance in the robot apparatus 10 and may be transmitted from the robot apparatus 10 to the display 92, or stored in an apparatus such as a server and transmitted from the apparatus such as a server to the display 92. May be.

なお、図21から図23に示されている画面は、ロボット装置10のUI部50に表示されてもよい。この場合、各画面は、端末装置14のUI部72に表示されなくてもよい。また、画面に表示される情報は、音声情報として出力されてもよい。   Note that the screens shown in FIGS. 21 to 23 may be displayed on the UI unit 50 of the robot apparatus 10. In this case, each screen may not be displayed on the UI unit 72 of the terminal device 14. Information displayed on the screen may be output as audio information.

なお、解決手段を実行する機器の選択操作について後で詳しく説明する。   The device selection operation for executing the solving means will be described in detail later.

(ユーザ判断モード2)
以下、ユーザ判断モードの別の例(ユーザ判断モード2)について詳しく説明する。
(User judgment mode 2)
Hereinafter, another example of the user determination mode (user determination mode 2) will be described in detail.

ロボット装置10の判断部60が、検知部56によって検知された問題をロボット装置10によって解決できないと判断した場合、ロボット装置10の通信部30は、制御部54の制御の下、端末装置14に状況情報を送信する。   When the determination unit 60 of the robot apparatus 10 determines that the problem detected by the detection unit 56 cannot be solved by the robot apparatus 10, the communication unit 30 of the robot apparatus 10 controls the terminal device 14 under the control of the control unit 54. Send status information.

例えば図24に示すように、端末装置14のUI部72には通知画面114が表示される。通知画面114には、ロボット装置10によっては解決できない問題(事態)が発生した旨のメッセージが表示される。   For example, as illustrated in FIG. 24, a notification screen 114 is displayed on the UI unit 72 of the terminal device 14. The notification screen 114 displays a message indicating that a problem (situation) that cannot be solved by the robot apparatus 10 has occurred.

通知画面114においてユーザが「はい」ボタンを押すと、画面は次の画面に遷移する。例えば図25に示すように、端末装置14のUI部72には状況説明画面116が表示される。状況説明画面116には、ロボット装置10によって検知された状況(問題)の説明文が表示される。   When the user presses the “Yes” button on the notification screen 114, the screen transitions to the next screen. For example, as illustrated in FIG. 25, a situation explanation screen 116 is displayed on the UI unit 72 of the terminal device 14. On the situation explanation screen 116, an explanation of the situation (problem) detected by the robot apparatus 10 is displayed.

状況説明画面116には、ユーザに状況を理解できたか否かを問うメッセージが表示される。ユーザが「いいえ」ボタンを押すと、ロボット装置10に対して問い合わせを行うこと、つまり、追加情報を要求することが可能となる。この場合、図26に示されているように、端末装置14のUI部72には、問い合わせ画面118が表示される。問い合わせ画面118においては、ユーザは端末装置14を使用して、問い合わせ内容(例えば、ユーザが追加で知りたい事項等)を入力することが可能となっている。図26に示す例では、「○○のデータが欲しい。」、「△△の映像が見たい。」等といった問い合わせ内容がユーザによって入力されている。この問い合わせ内容を示す情報は、端末装置14からロボット装置10に送信される。ロボット装置10の状況収集部44は、その問い合わせに応じた情報(例えば画像や音声データ等)を収集し、ロボット装置10の通信部30は、状況収集部44によって収集された情報を端末装置14に送信する。端末装置14のUI部72の状況説明画面116には、追加で取得された情報が表示される。   The situation explanation screen 116 displays a message asking whether the user has understood the situation. When the user presses the “No” button, it is possible to make an inquiry to the robot apparatus 10, that is, to request additional information. In this case, as shown in FIG. 26, an inquiry screen 118 is displayed on the UI unit 72 of the terminal device 14. On the inquiry screen 118, the user can use the terminal device 14 to input inquiry contents (for example, items that the user wants to know further). In the example shown in FIG. 26, the contents of an inquiry such as “I want the data of XX” and “I want to see the video of △ Δ” are input by the user. Information indicating the inquiry content is transmitted from the terminal device 14 to the robot apparatus 10. The status collection unit 44 of the robot apparatus 10 collects information (for example, image and audio data) in response to the inquiry, and the communication unit 30 of the robot apparatus 10 uses the information collected by the status collection unit 44 as the terminal device 14. Send to. The additionally acquired information is displayed on the situation explanation screen 116 of the UI unit 72 of the terminal device 14.

状況説明画面116において、ユーザが「はい」ボタンを押すと、図27に示されているように、端末装置14のUI部72には、解決手段表示画面120が表示される。解決手段表示画面120には、ロボット装置10の解決手段特定部58によって特定された解決手段を示す情報(解決手段の説明文や名称等)が表示される。例えば、上述したように、「3人が会議して、何やら揉めている」という問題が検知された場合、解決手段特定部58は、解決手段管理情報38を参照することで、その問題を解決するための解決手段を特定する。特定された解決手段を示す情報は、ロボット装置10から端末装置14に送信され、端末装置14のUI部72に表示される。図27に示す例では、(1)から(4)までの4つの解決手段案が、上記の問題を解決するための推奨解決手段として特定されて、それらを示す情報が表示されている。各解決手段案は、ランダムの順番で表示されてもよいし、問題を解決する上でより高い効果が得られると想定される順番で表示されてもよいし、実行容易性で決定される順番で表示されてもよい。例えば、端末装置14又はロボット装置10からより近い位置に存在する機器を利用する解決手段ほど、実行容易性が高く、その解決手段はより上位に表示される。ロボット装置10、端末装置14及び各機器の位置情報は、例えばGPS(Global Positioning System)を利用することで得られる。ロボット装置10の制御部54は、GPSを利用することで得られた位置情報を用いて、端末装置14又はロボット装置10と各機器との間の距離を演算する。その演算結果に基づいて、上記の順位が決定される。   When the user presses the “Yes” button on the situation explanation screen 116, as shown in FIG. 27, the solution display screen 120 is displayed on the UI unit 72 of the terminal device 14. On the solution display screen 120, information indicating the solution specified by the solution specifying unit 58 of the robot apparatus 10 (descriptive text or name of the solution, etc.) is displayed. For example, as described above, when a problem that “three people have given up because of a meeting” is detected, the solution means specifying unit 58 refers to the solution management information 38 to solve the problem. Identify the solution to do this. Information indicating the identified solving means is transmitted from the robot apparatus 10 to the terminal apparatus 14 and displayed on the UI unit 72 of the terminal apparatus 14. In the example shown in FIG. 27, four solution means plans (1) to (4) are specified as recommended solution means for solving the above-described problem, and information indicating them is displayed. The solutions may be displayed in a random order, may be displayed in an order in which higher effects can be obtained in solving the problem, or may be displayed in an order determined by ease of execution. May be displayed. For example, the solution means that uses a device that is located closer to the terminal device 14 or the robot apparatus 10 is more easily executed, and the solution means is displayed at a higher level. The position information of the robot device 10, the terminal device 14, and each device is obtained by using, for example, GPS (Global Positioning System). The control unit 54 of the robot apparatus 10 calculates the distance between the terminal apparatus 14 or the robot apparatus 10 and each device using position information obtained by using GPS. Based on the calculation result, the ranking is determined.

解決手段表示画面120が端末装置14のUI部72に表示されている状態で、ユーザが画面遷移を指示した場合や、予め設定された時間が経過した場合、図28に示されているように、端末装置14のUI部72に画面122が表示される。その画面122には、「解決手段の選択してください。」といったメッセージ(例えば、解決手段の選択を促すメッセージ)が表示される。また、提示された解決手段案(図27参照)の中に適切な解決手段(例えば、ユーザが実行を希望する解決手段)が含まれていない場合、ユーザは、別の指示を与えることができるようになっている。   When the solution display screen 120 is displayed on the UI unit 72 of the terminal device 14 and the user instructs screen transition or when a preset time has elapsed, as shown in FIG. The screen 122 is displayed on the UI unit 72 of the terminal device 14. The screen 122 displays a message such as “Please select a solution” (for example, a message prompting the user to select a solution). In addition, when an appropriate solution (for example, a solution that the user desires to execute) is not included in the proposed solution (see FIG. 27), the user can give another instruction. It is like that.

例えば、提示された解決手段案(図27参照)の中に適切な解決手段が含まれており、ユーザが端末装置14を使用してその適切な解決手段を選択した場合、図29に示されているように、端末装置14のUI部72に確認画面124が表示される。その確認画面124には、ユーザによって選択された解決手段を示す情報等が表示される。図29に示す例では、解決手段(2)「ディスプレイで癒し画像を表示する。」と(3)「アロマ器で柑橘系の香りを出す。」がユーザによって選択されている。確認画面124においてユーザが「はい」ボタンを押すと、解決手段(2),(3)の実行指示を示す情報が、端末装置14又はロボット装置10から、解決手段(2),(3)の実行に用いられる機器(例えばディスプレイ92とアロマ器94)に送信される。これにより、ディスプレイ92によって解決手段(2)が実行され、アロマ器94によって解決手段(3)が実行される。   For example, when an appropriate solution is included in the proposed solution (see FIG. 27) and the user selects the appropriate solution using the terminal device 14, it is shown in FIG. As shown, the confirmation screen 124 is displayed on the UI unit 72 of the terminal device 14. The confirmation screen 124 displays information indicating the solving means selected by the user. In the example shown in FIG. 29, the user has selected solving means (2) “display a healing image on the display” and (3) “provide a citrus scent on the aroma apparatus”. When the user presses the “Yes” button on the confirmation screen 124, information indicating the execution instruction of the solving means (2) and (3) is sent from the terminal device 14 or the robot apparatus 10 to the solving means (2) and (3). It is transmitted to devices used for execution (for example, the display 92 and the aroma device 94). Thereby, the solving means (2) is executed by the display 92, and the solving means (3) is executed by the aroma device 94.

確認画面124においてユーザが「いいえ」ボタンを押すと、画面は前の画面122(図28参照)に戻る。   When the user presses the “No” button on the confirmation screen 124, the screen returns to the previous screen 122 (see FIG. 28).

提示された解決手段案(図27参照)の中に適切な解決手段が含まれていない場合、ユーザは、提示された解決手段案以外の解決手段を指定してもよい。ユーザが端末装置14を使用して、解決手段を指定するための入力画面の表示指示を与えると、例えば図30に示されているように、端末装置14のUI部72にユーザ入力画面126が表示される。そのユーザ入力画面126において、ユーザは、解決手段に用いられる機器と、その機器を用いた解決手段を指示する。図30に示す例では、解決手段に用いられる機器として複合機が指定されており、その複合機を用いた解決手段として「XX」処理が指定されている。なお、ユーザは、機器の名称を文字で入力することで、解決手段に用いられる機器を指定してもよいし、機器に紐付く機器画像を指定することで、解決手段に用いられる機器を指定してもよい。例えば、端末装置14のUI部72には、ロボット装置10によって識別された1又は複数の機器に紐付く1又は複数の機器画像が表示され、ユーザは、1又は複数の機器画像の中から、解決手段に用いられる機器に紐付く機器画像を選択する。このように機器画像によって機器を指定することで、機器の詳細な名称等が分からなくても、解決手段に用いられる機器を指定することができる。また、解決手段に用いられる機器がユーザによって指定されると、その機器が有する機能の一覧が端末装置14のUI部72に表示される。機器が有する機能は、例えば、デバイス機能管理情報40を参照することで特定される。ユーザは、機能の一覧の中から、解決手段に用いられる機能を選択する。そして、ユーザが端末装置14を使用して解決手段の実行指示を与えると、その実行指示を示す情報が、ユーザによって指定された機器に送信され、当該機器は解決手段を実行する。   When an appropriate solution is not included in the proposed solution (see FIG. 27), the user may specify a solution other than the proposed solution. When the user uses the terminal device 14 to give an instruction to display the input screen for designating the solution, for example, as shown in FIG. 30, the user input screen 126 is displayed on the UI unit 72 of the terminal device 14. Is displayed. On the user input screen 126, the user instructs a device used as a solution means and a solution means using the device. In the example shown in FIG. 30, a multifunction device is designated as the device used as the solving means, and “XX” processing is designated as the solving means using the multifunction device. The user may specify the device used for the solution by entering the name of the device in characters, or specify the device used for the solution by specifying the device image associated with the device. May be. For example, the UI unit 72 of the terminal device 14 displays one or a plurality of device images associated with one or a plurality of devices identified by the robot device 10, and the user can select from one or a plurality of device images. A device image associated with the device used for the solving means is selected. By specifying the device by the device image in this way, it is possible to specify the device used for the solving means without knowing the detailed name of the device. In addition, when a device used for the solving means is designated by the user, a list of functions of the device is displayed on the UI unit 72 of the terminal device 14. The function of the device is specified by referring to the device function management information 40, for example. The user selects a function used for the solving means from the list of functions. When the user gives an instruction to execute the solving means using the terminal device 14, information indicating the execution instruction is transmitted to the device designated by the user, and the device executes the solving means.

なお、図24から図30に示されている画面は、ロボット装置10のUI部50に表示されてもよい。この場合、各画面は、端末装置14のUI部72に表示されなくてもよい。また、画面に表示される情報は、音声情報として出力されてもよい。   Note that the screens shown in FIGS. 24 to 30 may be displayed on the UI unit 50 of the robot apparatus 10. In this case, each screen may not be displayed on the UI unit 72 of the terminal device 14. Information displayed on the screen may be output as audio information.

上記のユーザ判断モード1,2において、端末装置14のUI部72に表示される情報は、例えば、ロボット装置10から端末装置14に送信される。もちろん、その情報は、ロボット装置10の制御の下、サーバ等の装置から端末装置14に送信されてもよい。   In the user determination modes 1 and 2 described above, information displayed on the UI unit 72 of the terminal device 14 is transmitted from the robot device 10 to the terminal device 14, for example. Of course, the information may be transmitted from a device such as a server to the terminal device 14 under the control of the robot device 10.

(機器の識別処理)
以下、機器の識別処理について説明する。一例として、AR(Augmented Reality)技術(拡張現実技術)を適用することにより、デバイス識別情報が取得されて機器が識別される。例えば、AR技術を適用することにより、単独で使用される機器のデバイス識別情報が取得されて当該機器が識別され、また、連携対象の機器のデバイス識別情報が取得されて連携対象の機器が識別される。AR技術として公知のAR技術が用いられる。例えば、2次元バーコード等のマーカを用いるマーカ型AR技術、画像認識技術を用いるマーカレス型AR技術、位置情報を用いる位置情報AR技術、等が用いられる。もちろん、AR技術を適用せずにデバイス識別情報が取得されて機器が識別されてもよい。例えば、ネットワークに繋がっている機器であれば、IPアドレスに基づいて機器を識別してもよいし、機器IDを読み出して機器を識別してもよい。更に、赤外線通信、可視光通信、Wi−Fi、ブルートゥースといった各種無線通信機能を備えた機器、端末装置であれば、それら無線通信機能を利用して連携する機器の機器IDを取得することで機器を識別し、連携機能を実行してもよい。
(Device identification processing)
The device identification process will be described below. As an example, by applying AR (Augmented Reality) technology (augmented reality technology), device identification information is acquired and a device is identified. For example, by applying AR technology, device identification information of a device used alone is acquired and the device is identified, and device identification information of a device to be linked is acquired to identify a device to be linked. Is done. A known AR technique is used as the AR technique. For example, a marker type AR technique using a marker such as a two-dimensional barcode, a markerless type AR technique using an image recognition technique, a position information AR technique using position information, and the like are used. Of course, the device identification information may be acquired and the device may be identified without applying the AR technology. For example, if the device is connected to the network, the device may be identified based on the IP address, or the device ID may be read to identify the device. Furthermore, in the case of a device or a terminal device having various wireless communication functions such as infrared communication, visible light communication, Wi-Fi, and Bluetooth, the device ID is acquired by acquiring the device ID of the device to be linked using these wireless communication functions. May be identified and the linkage function may be executed.

以下、図31を参照して、デバイス識別情報の取得処理について詳しく説明する。一例として、ロボット装置10の周囲に複合機78が設置されており、ロボット装置10が複合機78のデバイス識別情報を取得する場合について説明する。図31には、複合機78の外観が模式的に示されている。ここでは、マーカ型AR技術を適用してデバイス識別情報を取得するための処理について説明する。複合機78の筐体には、2次元バーコード等のマーカ128が設けられている。マーカ128は、複合機78のデバイス識別情報がコード化された情報である。ロボット装置10は、視覚センサーによってマーカ128を撮影する。これにより、マーカ128を表す画像データが生成される。ロボット装置10においては、制御部54が、当該画像データに表されたマーカ画像に対してデコード処理を適用することにより、デバイス識別情報を抽出する。これにより、複合機78が識別される。ロボット装置10の識別部64は、デバイス機能管理情報40において、抽出されたデバイス識別情報に対応付けられている機能を示す機能情報を特定する。これにより、複合機78が有する機能が特定(識別)される。   The device identification information acquisition process will be described in detail below with reference to FIG. As an example, a case where the multifunction device 78 is installed around the robot device 10 and the robot device 10 acquires device identification information of the multifunction device 78 will be described. FIG. 31 schematically shows the appearance of the multi-function device 78. Here, a process for acquiring the device identification information by applying the marker AR technology will be described. A marker 128 such as a two-dimensional barcode is provided on the housing of the multi-function device 78. The marker 128 is information in which device identification information of the multi-function device 78 is encoded. The robot apparatus 10 photographs the marker 128 with a visual sensor. Thereby, image data representing the marker 128 is generated. In the robot apparatus 10, the control unit 54 extracts device identification information by applying a decoding process to the marker image represented in the image data. Thereby, the multi-function device 78 is identified. The identification unit 64 of the robot apparatus 10 specifies function information indicating a function associated with the extracted device identification information in the device function management information 40. Thereby, the function of the multi-function device 78 is specified (identified).

マーカ128は、複合機78が有する機能を示す機能情報がコード化されて含まれていてもよい。この場合、マーカ128を表す画像データにデコード処理を適用することにより、当該複合機78のデバイス識別情報が抽出されるとともに、当該複合機78が有する機能を示す機能情報も抽出される。これにより、複合機78が特定(識別)されるとともに、当該複合機78が有する機能が特定(識別)される。   The marker 128 may include encoded function information indicating the function of the multi-function device 78. In this case, by applying a decoding process to the image data representing the marker 128, the device identification information of the multifunction device 78 is extracted, and the function information indicating the function of the multifunction device 78 is also extracted. As a result, the multi-function device 78 is specified (identified) and the function of the multi-function device 78 is specified (identified).

マーカレス型AR技術を適用してデバイス識別情報を取得する場合、例えば、ロボット装置10は、視覚センサーによって機器(例えば複合機78)の外観の全部又は一部を撮影する。もちろん、機器の名称(例えば商品名)や型番号といった機器を特定するための情報を外観から撮影して得ることは役に立つ。撮影により、機器の外観の全部又は一部を表す外観画像データが生成される。ロボット装置10においては、制御部54が、当該外観画像データに基づいて利用対象の機器を識別する。例えば、ロボット装置10の記憶部32には、機器毎に、機器の外観の全部又は一部を表す外観画像データと、当該機器のデバイス識別情報と、の対応付けを示す外観画像対応付け情報が記憶されている。制御部54は、例えば、撮影で得られた外観画像データと外観画像対応付け情報に含まれる各外観画像データとを比較し、その比較結果に基づいて、利用対象の機器のデバイス識別情報を特定する。例えば、制御部54は、撮影で得られた外観画像データから機器の外観の特徴を抽出し、外観画像対応付け情報に含まれる外観画像データ群において、その外観の特徴と同一又は類似の特徴を表す外観画像データを特定し、その外観画像データに対応付けられているデバイス識別情報を特定する。これにより、機器(例えば複合機78)が識別される。別の例として、機器の名称(例えば商品名)や型番号が撮影され、名称や型番号を表す外観画像データが生成されている場合、その外観画像データに表された名称や型番号に基づいて、機器を識別してもよい。ロボット装置10の識別部64は、デバイス機能管理情報40において、特定されたデバイス識別情報に対応付けられている各機能を示す機能情報を特定する。これにより、機器(例えば複合機78)が有する機能が特定される。   When the device identification information is acquired by applying the markerless AR technology, for example, the robot apparatus 10 captures all or part of the appearance of the device (for example, the multi-function device 78) with a visual sensor. Of course, it is useful to capture information for identifying the device such as the device name (for example, product name) and model number from the appearance. Appearance image data representing all or part of the appearance of the device is generated by photographing. In the robot apparatus 10, the control unit 54 identifies a device to be used based on the appearance image data. For example, the storage unit 32 of the robot apparatus 10 includes, for each device, appearance image association information indicating association between appearance image data representing all or part of the appearance of the device and device identification information of the device. It is remembered. For example, the control unit 54 compares the appearance image data obtained by photographing with each appearance image data included in the appearance image association information, and specifies the device identification information of the device to be used based on the comparison result. To do. For example, the control unit 54 extracts the feature of the appearance of the device from the appearance image data obtained by photographing, and in the appearance image data group included in the appearance image association information, features that are the same as or similar to the feature of the appearance. Appearance image data to be represented is specified, and device identification information associated with the appearance image data is specified. As a result, the device (for example, the multifunction device 78) is identified. As another example, when a device name (for example, a product name) or model number is photographed and appearance image data representing the name or model number is generated, it is based on the name or model number represented in the appearance image data. The device may be identified. The identification unit 64 of the robot apparatus 10 identifies function information indicating each function associated with the identified device identification information in the device function management information 40. As a result, the function of the device (for example, the multifunction device 78) is specified.

位置情報AR技術を適用してデバイス識別情報を取得する場合、例えば、GPS機能を利用することにより、機器(例えば複合機78)が設置されている位置を示す位置情報が取得される。例えば、各機器がGPS機能を備えており、機器自身の位置を示すデバイス位置情報を取得する。ロボット装置10は、機器に対してデバイス位置情報の取得要求を示す情報を出力し、その取得要求に対する応答として、当該機器から当該機器のデバイス位置情報を受信する。ロボット装置10においては、制御部54が、当該デバイス位置情報に基づいて機器を識別する。例えば、ロボット装置10の記憶部32には、機器毎に、機器が設置されている位置を示すデバイス位置情報と、当該機器のデバイス識別情報と、の対応付けを示す位置対応付け情報が記憶されている。制御部54は、その位置対応付け情報において、デバイス位置情報に対応付けられているデバイス識別情報を特定する。これにより、機器が特定(識別)される。ロボット装置10の識別部64は、デバイス機能管理情報40において、特定されたデバイス識別情報に対応付けられている各機能を示す機能情報を特定する。これにより、機器(例えば複合機78)が有する機能が特定(識別)される。   When device identification information is acquired by applying the position information AR technology, for example, position information indicating a position where a device (for example, the multi-function device 78) is installed is acquired by using a GPS function. For example, each device has a GPS function and acquires device position information indicating the position of the device itself. The robot apparatus 10 outputs information indicating a device position information acquisition request to the device, and receives device position information of the device from the device as a response to the acquisition request. In the robot apparatus 10, the control unit 54 identifies a device based on the device position information. For example, the storage unit 32 of the robot apparatus 10 stores, for each device, position association information indicating association between device position information indicating the position where the device is installed and device identification information of the device. ing. The control unit 54 specifies device identification information associated with the device position information in the position association information. Thereby, the device is specified (identified). The identification unit 64 of the robot apparatus 10 identifies function information indicating each function associated with the identified device identification information in the device function management information 40. As a result, the function of the device (for example, the multifunction device 78) is specified (identified).

例えば、複合機78がロボット装置10によって識別された場合、上記のユーザ判断モード1においては、その複合機78に紐づく機器画像が、状況情報として端末装置14に表示される。例えば図32に示すように、端末装置14のUI部72に、複合機78に紐づく機器画像102が表示される。機器画像102は、例えば、ロボット装置10の視覚センサーによる撮影によって生成された画像であってもよいし、複合機78を模式的に表す画像であってもよい。   For example, when the multifunction device 78 is identified by the robot apparatus 10, in the user determination mode 1 described above, a device image associated with the multifunction device 78 is displayed on the terminal device 14 as status information. For example, as illustrated in FIG. 32, the device image 102 associated with the multifunction device 78 is displayed on the UI unit 72 of the terminal device 14. The device image 102 may be, for example, an image generated by photographing with a visual sensor of the robot apparatus 10 or an image schematically representing the multi-function device 78.

また、機器が識別されると、その機器の名称を示す情報がロボット装置10から端末装置14に送信され、端末装置14のUI部72に機器の名称が表示されてもよい。図32に示す例では、名称「複合機(B)」が表示されている。   Further, when a device is identified, information indicating the name of the device may be transmitted from the robot apparatus 10 to the terminal device 14 and the name of the device may be displayed on the UI unit 72 of the terminal device 14. In the example shown in FIG. 32, the name “MFP (B)” is displayed.

例えば、ユーザが端末装置14を使用して機器画像102を指定すると、例えば図33に示すように、端末装置14のUI部72には、機器画像102に紐づく複合機78を利用する解決手段を示す情報(例えば、解決手段の実行を指示するためのボタン画像)が表示される。複合機(B)は、例えば、プリント機能、スキャン機能、コピー機能、及び、ファクシミリ機能を備えており、これらの機能が解決手段として利用される場合、これらの機能を実行するためのボタン画像が端末装置14のUI部72に表示される。例えば、ユーザが端末装置14を使用してプリント機能を表わすボタン画像を指定し、プリント機能の実行を指示すると、プリント機能の実行指示を示す実行指示情報が、端末装置14又はロボット装置10から複合機78に送信される。その実行指示情報には、プリント機能を実行するための制御データや、プリント機能が適用される画像データ等のデータ、等が含まれる。複合機78は実行指示情報を受けると、その実行指示情報に従ってプリントを実行する。   For example, when the user designates the device image 102 using the terminal device 14, for example, as illustrated in FIG. 33, the UI unit 72 of the terminal device 14 uses a multifunction device 78 associated with the device image 102. (For example, a button image for instructing execution of the solution means) is displayed. The multifunction device (B) has, for example, a print function, a scan function, a copy function, and a facsimile function. When these functions are used as a solution, a button image for executing these functions is displayed. It is displayed on the UI unit 72 of the terminal device 14. For example, when a user designates a button image representing a print function using the terminal device 14 and instructs execution of the print function, execution instruction information indicating an instruction to execute the print function is combined from the terminal device 14 or the robot device 10. Is transmitted to the machine 78. The execution instruction information includes control data for executing the print function, data such as image data to which the print function is applied, and the like. Upon receiving the execution instruction information, the multi-function device 78 executes printing according to the execution instruction information.

複数の機器(例えば複合機78とプロジェクタ88)がロボット装置10によって識別された場合、上記のユーザ判断モード1においては、複合機78に紐づく機器画像とプロジェクタ88に紐づく機器画像が、状況情報として端末装置14に表示される。例えば図34に示すように、端末装置14のUI部72に、複合機78に紐づく機器画像102とプロジェクタ88に紐づく機器画像104が表示される。機器画像102,104は、例えば、ロボット装置10の視覚センサーによる撮影によって生成された画像であってもよいし、複合機78、プロジェクタ88を模式的に表す画像であってもよい。   When a plurality of devices (for example, the multifunction device 78 and the projector 88) are identified by the robot apparatus 10, in the user determination mode 1, the device image associated with the multifunction device 78 and the device image associated with the projector 88 are It is displayed on the terminal device 14 as information. For example, as shown in FIG. 34, the device image 102 associated with the multifunction device 78 and the device image 104 associated with the projector 88 are displayed on the UI unit 72 of the terminal device 14. The device images 102 and 104 may be, for example, images generated by photographing with a visual sensor of the robot apparatus 10 or may be images that schematically represent the multifunction machine 78 and the projector 88.

また、機器が識別されると、その機器の名称を示す情報がロボット装置10から端末装置14に送信され、端末装置14のUI部72に表示されてもよい。図34に示す例では、複合機78の名称「複合機(B)」と、プロジェクタ88の名称「プロジェクタ(C)」が表示されている。   Further, when a device is identified, information indicating the name of the device may be transmitted from the robot device 10 to the terminal device 14 and displayed on the UI unit 72 of the terminal device 14. In the example shown in FIG. 34, the name “multifunction machine (B)” of the multifunction machine 78 and the name “projector (C)” of the projector 88 are displayed.

例えば、ユーザが端末装置14を使用して機器画像102,104を指定すると、例えば図35に示すように、端末装置14のUI部72には、機器画像102に紐づく複合機78と機器画像104に紐づくプロジェクタ88を利用する解決手段を示す情報(例えば、解決手段の実行を指示するためのボタン画像)が表示される。その解決手段は、複合機78とプロジェクタ88を利用する連携機能によって実現される手段である。複合機78とプロジェクタ88を連携させることで、例えば、複合機78によるスキャンによって生成された画像をプロジェクタ88によって投影する連携機能や、プロジェクタ88によって投影されている画像を複合機78によってプリントする連携機能が実行可能となる。これらの連携機能の実行を指示するためのボタン画像が端末装置14のUI部72に表示される。例えば、ユーザが端末装置14を使用してボタン画像を指定し、解決手段(連携機能)の実行を指示すると、その解決手段の実行指示を示す実行指示情報が、端末装置14又はロボット装置10から複合機78とプロジェクタ88に送信される。複合機78とプロジェクタ88は、実行指示情報を受けると、ユーザによって指定された連携機能を実行する。   For example, when the user designates the device images 102 and 104 using the terminal device 14, as shown in FIG. 35, for example, the UI unit 72 of the terminal device 14 includes a multifunction device 78 associated with the device image 102 and the device image. Information (for example, a button image for instructing execution of the solution means) indicating the solution means using the projector 88 associated with 104 is displayed. The means for solving the problem is a means realized by a cooperation function using the multi-function device 78 and the projector 88. By coordinating the multi-function device 78 and the projector 88, for example, a co-operation function for projecting an image generated by scanning by the multi-function device 78 by the projector 88, or a co-operation for printing an image projected by the projector 88 by the multi-function device 78. The function can be executed. A button image for instructing execution of these cooperation functions is displayed on the UI unit 72 of the terminal device 14. For example, when the user designates a button image using the terminal device 14 and instructs execution of the solving means (cooperation function), execution instruction information indicating an execution instruction of the solving means is received from the terminal device 14 or the robot apparatus 10. It is transmitted to the multi function device 78 and the projector 88. Upon receiving the execution instruction information, the multi function device 78 and the projector 88 execute the cooperation function designated by the user.

ユーザが機器画像102をタッチして機器画像104までの間を指等で操作する(例えば指等でなぞる)ことにより、機器画像102,104が指定され、複合機78とプロジェクタ88が連携対象の機器として指定されてもよい。機器画像102,104を触れる順番やなぞる方向は、上記の例と逆であってもよい。もちろん、画面をなぞるためのペンといった指以外の画面接触手段が用いられてもよい。ユーザが機器画像102と機器画像104を繋げることにより、機器画像102、104が指定され、複合機78とプロジェクタ88が連携対象の機器として指定されてもよい。ユーザが機器画像102と機器画像104を重ねることにより、機器画像102,104が指定され、複合機78とプロジェクタ88が連携対象の機器として指定されてもよい。丸を付けるような描画操作によって連携対象の機器を指定してもよいし、連携したい機器に紐付く機器画像を予め設定された時間内に指定することで、連携対象の機器を指定してもよい。連携を解除する場合、ユーザが画面上で解除対象の機器を指定してもよいし、連携解除ボタンを押してもよい。バツ印等を付けるような予め設定された操作によって、解除対象の機器を指定してもよい。   When the user touches the device image 102 and operates the finger up to the device image 104 (for example, tracing with the finger), the device images 102 and 104 are designated, and the multifunction device 78 and the projector 88 are linked. It may be designated as a device. The order in which the device images 102 and 104 are touched and the direction of tracing may be the reverse of the above example. Of course, screen contact means other than a finger such as a pen for tracing the screen may be used. When the user connects the device image 102 and the device image 104, the device images 102 and 104 may be specified, and the multifunction device 78 and the projector 88 may be specified as devices to be linked. When the user overlaps the device image 102 and the device image 104, the device images 102 and 104 may be specified, and the multi-function device 78 and the projector 88 may be specified as devices to be linked. The device to be linked may be specified by a drawing operation such as adding a circle, or the device to be linked can be specified by specifying the device image associated with the device to be linked within a preset time. Good. When canceling the cooperation, the user may specify a device to be canceled on the screen, or may press a cooperation cancellation button. The device to be released may be designated by a preset operation such as adding a cross mark.

別の例として、連携対象の機器が基本連携機器として予め設定されていてもよい。例えば、複合機78が基本連携機器として予め設定されているものとする。基本連携機器のデバイス識別情報は、ロボット装置10やサーバ等の装置に予め記憶されていてもよい。ユーザが端末装置14を利用して基本連携機器を指定してもよい。基本連携機器が設定されている場合、ユーザは、基本連携機器以外の機器に紐づく機器画像を指定することで、その基本連携機器と連携する機器を指定する。   As another example, a device to be linked may be set in advance as a basic linked device. For example, it is assumed that the multi-function device 78 is preset as a basic cooperation device. The device identification information of the basic cooperation device may be stored in advance in an apparatus such as the robot apparatus 10 or a server. The user may specify the basic cooperation device using the terminal device 14. When the basic linkage device is set, the user designates a device linked to the basic linkage device by designating a device image associated with a device other than the basic linkage device.

なお、上記の例では、単体の機能及び連携機能は、ハードウェアとしての機器を利用する機能であるが、単体の機能及び連携機能は、ソフトウェア(アプリケーション)によって実現される機能であってもよい。例えば、機器画像の替わりに、ソフトウェアによって実現される機能に紐付く機能画像(例えばアイコン等の画像)が端末装置14のUI部72に表示され、1又は複数の機能画像がユーザによって指定されることで、機能画像に紐づく機能や、複数の機能画像に紐付く複数の機能を利用する連携機能が指定されてもよい。もちろん、ハードウェアとしての機器に紐付く機器画像と、ソフトウェアによって実現される機能に紐付く機能画像と、が端末装置14のUI部72に表示され、機器画像と機能画像がユーザによって指定された場合、その機器画像に紐付く機器とその機能画像に紐付く機能とを利用する連携機能が指定されてもよい。   In the above example, the stand-alone function and the linkage function are functions that use devices as hardware, but the stand-alone function and the linkage function may be functions realized by software (application). . For example, instead of a device image, a functional image (for example, an image such as an icon) associated with a function realized by software is displayed on the UI unit 72 of the terminal device 14 and one or a plurality of functional images are designated by the user. Thus, a cooperation function that uses a function associated with a function image or a plurality of functions associated with a plurality of function images may be designated. Of course, the device image associated with the device as hardware and the function image associated with the function realized by software are displayed on the UI unit 72 of the terminal device 14, and the device image and the function image are designated by the user. In this case, a cooperation function that uses a device associated with the device image and a function associated with the function image may be designated.

以下、機器が有する機能を実行するときの処理について説明する。一例として、連携機能を実行するときの処理について説明する。この場合、端末装置14から連携対象の機器に対して接続要求が送信され、端末装置14と連携対象の機器とが接続される。もちろん、ロボット装置10から連携対象の機器に対して接続要求が送信され、ロボット装置10と連携対象の機器とが接続されてもよい。以下、図36を参照して、この接続処理について説明する。図36は、その処理を示すシーケンス図である。   Hereinafter, processing when the function of the device is executed will be described. As an example, a process when executing the cooperation function will be described. In this case, a connection request is transmitted from the terminal device 14 to the cooperation target device, and the terminal device 14 and the cooperation target device are connected. Of course, the connection request may be transmitted from the robot apparatus 10 to the cooperation target apparatus, and the robot apparatus 10 and the cooperation target apparatus may be connected. Hereinafter, this connection process will be described with reference to FIG. FIG. 36 is a sequence diagram showing the processing.

端末装置14において、ユーザによって実行対象の連携機能が指定されると(S70)、端末装置14は、その連携機能を実行する連携対象の機器(例えば複合機78とプロジェクタ88)に接続要求を示す情報を送信する(S71)。例えば、連携対象の機器のアドレスを示すアドレス情報が、ロボット装置10に記憶されている場合、端末装置14は、連携対象の機器のアドレス情報をロボット装置10から取得する。別の例として、端末装置14に、連携対象の機器のアドレス情報が記憶されていてもよい。もちろん、端末装置14は、別の手法によって連携対象の機器のアドレス情報を取得してもよい。端末装置14は、連携対象の機器(例えば複合機78とプロジェクタ88)のアドレス情報を用いて、連携対象の機器(例えば複合機78とプロジェクタ88)に接続要求を示す情報を送信する。   In the terminal device 14, when the cooperation function to be executed is specified by the user (S 70), the terminal device 14 indicates a connection request to the cooperation target devices (for example, the multifunction machine 78 and the projector 88) that execute the cooperation function. Information is transmitted (S71). For example, when the address information indicating the address of the cooperation target device is stored in the robot device 10, the terminal device 14 acquires the address information of the cooperation target device from the robot device 10. As another example, the terminal device 14 may store address information of a device to be linked. Of course, the terminal device 14 may acquire the address information of the cooperation target device by another method. The terminal device 14 transmits information indicating a connection request to the devices to be linked (for example, the multifunction device 78 and the projector 88) using the address information of the devices to be linked (for example, the multifunction device 78 and the projector 88).

接続要求を示す情報を受けた複合機78とプロジェクタ88は、端末装置14との接続を許可する、又は、許可しない(S72)。例えば、複合機78とプロジェクタ88が、接続が許可されていない機器に該当する場合や、接続を要求している装置の数が上限を超えている機器に該当する場合、接続は許可されない。なお、端末装置14からの接続が許可された場合、複合機78とプロジェクタ88の固有の設定情報が端末装置14から変更されないように、その変更操作を禁止してもよい。例えば、複合機78の色彩のパラメータや、節電に移行する際の設定時間等の変更が禁止されてもよい。これにより、連携対象の機器に対するセキュリティが向上する。別の例として、機器を連携させる場合、当該機器を連携させずに単独で利用する場合と比べて、設定情報の変更が制限されてもよい。例えば、機器を単独で利用する場合と比べて、より少ない設定項目の変更が許可されてもよい。また、稼働履歴のような他のユーザの個人情報の閲覧を禁止してもよい。これにより、ユーザの個人情報に対するセキュリティが向上する。   Upon receiving the information indicating the connection request, the multi-function device 78 and the projector 88 permit or do not permit the connection with the terminal device 14 (S72). For example, when the multi-function device 78 and the projector 88 correspond to devices that are not permitted to be connected, or when the number of devices that request connection exceeds the upper limit, the connection is not permitted. When the connection from the terminal device 14 is permitted, the change operation may be prohibited so that the unique setting information of the multifunction device 78 and the projector 88 is not changed from the terminal device 14. For example, it may be prohibited to change the color parameters of the multi-function device 78 or the set time when shifting to power saving. As a result, the security for the cooperation target device is improved. As another example, when the devices are linked, the change of the setting information may be limited as compared to the case where the devices are used alone without being linked. For example, fewer setting item changes may be permitted as compared to the case where the device is used alone. In addition, browsing of personal information of other users such as operation history may be prohibited. Thereby, the security with respect to a user's personal information improves.

接続の許可又は不許可を示す結果情報が、複合機78とプロジェクタ88から端末装置14に送信される(S73)。複合機78とプロジェクタ88への接続が許可された場合、端末装置14と、複合機78及びプロジェクタ88と、の間で通信が確立される。   Result information indicating permission or non-permission of connection is transmitted from the multi-function device 78 and the projector 88 to the terminal device 14 (S73). When the connection to the multifunction device 78 and the projector 88 is permitted, communication is established between the terminal device 14 and the multifunction device 78 and the projector 88.

次に、ユーザは端末装置14を利用して連携機能の実行を指示する(S74)。この指示に応じて、連携機能の実行指示を示す実行指示情報が、端末装置14から複合機78とプロジェクタ88に送信される(S75)。複合機78に送信される実行指示情報には、複合機78にて実行される処理を示す情報(例えばジョブ情報)が含まれ、プロジェクタ88に送信される実行指示情報には、プロジェクタ88にて実行される処理を示す情報(例えばジョブ情報)が含まれる。   Next, the user uses the terminal device 14 to instruct execution of the cooperation function (S74). In response to this instruction, execution instruction information indicating an instruction to execute the cooperation function is transmitted from the terminal device 14 to the multi-function device 78 and the projector 88 (S75). The execution instruction information transmitted to the multi-function device 78 includes information (for example, job information) indicating processing executed by the multi-function device 78, and the execution instruction information transmitted to the projector 88 includes the projector 88. Information (for example, job information) indicating processing to be executed is included.

実行指示情報を受けた複合機78とプロジェクタ88は、実行指示情報に従って機能を実行する(S76)。例えば、複合機78(複合機(B))からプロジェクタ88(PC(A))へスキャンデータを転送してプロジェクタ88によってデータを投影する機能のように、連携機能に、複合機78とプロジェクタ88との間でデータの送受信が行われる処理が含まれている場合、複合機78とプロジェクタ88との間で通信が確立される。この場合、例えば、複合機78に送信される実行指示情報にはプロジェクタ88のアドレス情報が含まれ、プロジェクタ88に送信される実行指示情報には複合機78のアドレス情報が含まれ、それらのアドレス情報を用いて複合機78とプロジェクタ88との間で通信が確立される。   Receiving the execution instruction information, the multi-function device 78 and the projector 88 execute the function according to the execution instruction information (S76). For example, the multifunction device 78 and the projector 88 are linked to each other such as a function of transferring scan data from the multifunction device 78 (the multifunction device (B)) to the projector 88 (PC (A)) and projecting the data by the projector 88. Communication is established between the multi-function device 78 and the projector 88. In this case, for example, the execution instruction information transmitted to the multifunction device 78 includes address information of the projector 88, and the execution instruction information transmitted to the projector 88 includes address information of the multifunction device 78, and their addresses. Communication is established between the multifunction device 78 and the projector 88 using the information.

連携機能の実行が終了すると、連携機能の実行完了を示す情報が、複合機78とプロジェクタ88から端末装置14に送信される(S77)。端末装置14のUI部72には、連携機能の実行が完了したことを示す情報が表示される(S78)。なお、実行指示を与えた時点から予め設定された時間が経過しても実行完了を示す情報が表示されない場合、端末装置14は、エラーを示す情報をUI部72に表示させ、再度、実行指示情報、又は、接続要求を示す情報を、複合機78とプロジェクタ88に送信してもよい。   When the execution of the cooperation function is completed, information indicating the completion of the execution of the cooperation function is transmitted from the multi-function device 78 and the projector 88 to the terminal device 14 (S77). Information indicating that the execution of the cooperation function is completed is displayed on the UI unit 72 of the terminal device 14 (S78). If information indicating completion of execution is not displayed even after a preset time has elapsed from the time when the execution instruction is given, the terminal device 14 causes the UI unit 72 to display information indicating an error, and again executes the execution instruction. Information or information indicating a connection request may be transmitted to the multi-function device 78 and the projector 88.

次に、ユーザは、複合機78とプロジェクタ88の連携状態を解除するか否かを確認し(S79)、解除の有無に応じた処理が実行される(S80)。連携状態を解除する場合、ユーザは、端末装置14を利用して解除の指示を与える。これにより、端末装置14と、複合機78及びプロジェクタ88と、の間の通信が解除される。同様に、複合機78とプロジェクタ88との間の通信も解除される。連携状態を解除しない場合、継続して実行指示を与えてもよい。   Next, the user confirms whether or not to cancel the cooperative state of the multi-function device 78 and the projector 88 (S79), and performs processing according to the presence or absence of the cancellation (S80). When canceling the cooperation state, the user uses the terminal device 14 to give a cancellation instruction. As a result, communication between the terminal device 14 and the multi-function device 78 and the projector 88 is released. Similarly, communication between the multifunction device 78 and the projector 88 is also released. If the cooperation state is not canceled, an execution instruction may be given continuously.

なお、単独機能が実行される場合、その単独機能の実行指示を示す情報が、端末装置14から単独機能を実行する機器に送信される。当該機器は、その実行指示に従って単独機能を実行する。   When a single function is executed, information indicating an instruction to execute the single function is transmitted from the terminal device 14 to a device that executes the single function. The device executes a single function according to the execution instruction.

上記の実行指示情報は、ロボット装置10から各機器に送信されてもよい。   The execution instruction information may be transmitted from the robot apparatus 10 to each device.

以下、解決手段に用いられる機器の指定操作に関する処理について説明する。   In the following, processing related to the device designation operation used for the solving means will be described.

(連携機能に関する情報の表示の切り替え処理)
本実施形態において、機器に紐付く機器画像同士を繋げる順番に応じて、連携機能に関する情報の表示が切り替えられてもよい。以下、図37から図39を参照して、この処理について詳しく説明する。
(Switching display of information related to linkage function)
In the present embodiment, the display of information related to the cooperation function may be switched according to the order in which the device images associated with the devices are connected. Hereinafter, this processing will be described in detail with reference to FIGS.

図37には、連携機能管理情報42の別の例としての連携機能管理テーブルが示されている。この連携機能管理テーブルにおいては、一例として、機器IDの組み合わせを示す情報と、連携対象の機器名(例えば各機器の種類)を示す情報と、連携機能を示す情報(連携機能情報)と、接続順番を示す情報と、優先順位を示す情報と、が対応付けられている。接続順番は、機器に紐付く機器画像を繋ぐ順番に対応している。優先順位は、連携機能に関する情報の表示の優先順位である。例えば、機器IDが「A」の機器はPC(パーソナルコンピュータ)であり、機器IDが「B」の機器は複合機である。PC(A)と複合機(B)を連携させることにより、連携機能として、例えば「スキャン転送機能」と「印刷機能」が実現される。「スキャン転送機能」は、複合機(B)によるスキャンによって生成された画像データをPC(A)に転送する機能である。「印刷機能」は、PC(A)に保存されているデータ(例えば画像データや文書データ)を複合機(B)に送信して複合機(B)にて印刷する機能である。例えば、複合機(B)からPC(A)に機器が接続された場合、つまり、複合機(B)に紐付く機器画像からPC(A)に紐付く機器画像へ機器画像が繋がれた場合、「スキャン転送機能」の優先順位が「1位」となり、「印刷機能」の優先順位は「2位」となる。この場合、「スキャン転送機能」に関する情報が「印刷機能」に関する情報よりも優先的に表示される。これとは逆に、PC(A)から複合機(B)に機器が接続された場合、つまり、PC(A)に紐付く機器画像から複合機(B)に紐付く機器画像へ画像が繋がれた場合、「印刷機能」の優先順位が「1位」となり、「スキャン転送機能」の優先順位が「2位」となる。この場合、「印刷機能」に関する情報が「スキャン転送機能」に関する情報よりも優先的に表示される。   FIG. 37 shows a cooperative function management table as another example of the cooperative function management information 42. In this linkage function management table, as an example, information indicating a combination of device IDs, information indicating a device name to be linked (for example, the type of each device), information indicating a linkage function (linkage function information), and connection Information indicating the order is associated with information indicating the priority order. The connection order corresponds to the order of connecting the device images associated with the devices. The priority order is a display priority order of information related to the linkage function. For example, a device with a device ID “A” is a PC (personal computer), and a device with a device ID “B” is a multifunction device. By linking the PC (A) and the multifunction peripheral (B), for example, a “scan transfer function” and a “print function” are realized as linked functions. The “scan transfer function” is a function for transferring image data generated by scanning by the multifunction peripheral (B) to the PC (A). The “print function” is a function for transmitting data (for example, image data and document data) stored in the PC (A) to the multifunction device (B) and printing the data on the multifunction device (B). For example, when a device is connected from the multifunction device (B) to the PC (A), that is, when a device image is connected from a device image associated with the multifunction device (B) to a device image associated with the PC (A). The priority of the “scan transfer function” is “1st”, and the priority of the “printing function” is “2nd”. In this case, information related to the “scan transfer function” is displayed with priority over information related to the “print function”. Conversely, when a device is connected from the PC (A) to the multifunction device (B), that is, an image is connected from the device image associated with the PC (A) to the device image associated with the multifunction device (B). In this case, the priority of the “print function” is “1st”, and the priority of the “scan transfer function” is “2nd”. In this case, information related to the “print function” is displayed with priority over information related to the “scan transfer function”.

図38及び図39には、端末装置14のUI部72に表示される画面の一例が示されている。例えば、複合機(B)とPC(A)が識別されているものとする。上記のユーザ判断モード1においては、図38(a)に示すように、端末装置14のUI部72には、複合機(B)に紐付く機器画像102とPC(A)に紐付く機器画像130が、状況情報として表示される。この状態で、ユーザは指示子(例えばユーザの指、ペン、スタイラス等)を用いて連携対象の機器を表わす機器画像同士を繋ぐ。端末装置14の制御部74は、画面への指示子の接触を検知し、画面上での指示子の移動を検知する。例えば、矢印132で示すように、ユーザが操作子を用いて画面上で機器画像102をタッチして機器画像130まで操作する(例えば、画面上で操作子をなぞる)ことにより、機器画像102と機器画像130を繋ぐ。これにより、機器画像102に紐付く複合機(B)と機器画像130に紐付くPC(A)が、連携対象の機器として指定されるとともに、接続の順番が指定される。機器画像を繋ぐ順番が接続の順番に相当する。なお、複合機(B)が第1機器に該当し、PC(A)が第2機器に該当する。図38(a)に示す例では、機器画像102から機器画像130へ画像を繋げているため、複合機(B)からPC(A)へ機器が接続されている。機器の接続順番を示す情報は、端末装置14からロボット装置10に送信される。なお、端末装置14の制御部74は、ユーザがなぞった軌跡を表わす画像を画面に表示させてもよいし、機器同士が接続された後は、その軌跡を予め設定された直線等に置き換えて画面に表示させてもよい。   38 and 39 show an example of a screen displayed on the UI unit 72 of the terminal device 14. For example, it is assumed that the multifunction peripheral (B) and the PC (A) are identified. In the above-described user determination mode 1, as shown in FIG. 38A, the UI unit 72 of the terminal device 14 has a device image 102 associated with the multifunction device (B) and a device image associated with the PC (A). 130 is displayed as status information. In this state, the user connects device images representing devices to be linked using an indicator (for example, a user's finger, pen, stylus, etc.). The control unit 74 of the terminal device 14 detects the contact of the indicator on the screen and detects the movement of the indicator on the screen. For example, as indicated by an arrow 132, when the user touches the device image 102 on the screen using the operation element and operates the device image 130 (for example, tracing the operation element on the screen), Connect the device images 130. As a result, the MFP (B) associated with the device image 102 and the PC (A) associated with the device image 130 are designated as devices to be linked and the order of connection is designated. The order of connecting the device images corresponds to the order of connection. Note that the multifunction device (B) corresponds to the first device, and the PC (A) corresponds to the second device. In the example shown in FIG. 38A, since the image is connected from the device image 102 to the device image 130, the device is connected from the multifunction device (B) to the PC (A). Information indicating the connection order of the devices is transmitted from the terminal device 14 to the robot device 10. The control unit 74 of the terminal device 14 may display an image representing a locus traced by the user on the screen, or after the devices are connected, the locus is replaced with a preset straight line or the like. It may be displayed on the screen.

上記のように、連携対象の機器(例えば複合機(B)とPC(A))が指定されると、ロボット装置10の識別部64は、図37に示されている連携機能管理テーブルにおいて、PC(A)と複合機(B)の組み合わせに対応付けられている連携機能を特定する。これにより、PC(A)と複合機(B)を連携させることによって実行される連携機能が特定される。また、ユーザによって機器の接続順番が指定されると、識別部64は、連携機能管理テーブルにおいて、その接続順番に対応付けられている優先順位を特定する。図37を参照して具体例を挙げて説明すると、PC(A)と複合機(B)が連携対象の機器として指定されているため、それらによって実行される連携機能は「スキャン転送機能」と「印刷機能」である。また、複合機(B)からPC(A)へ機器が接続されているため(B→A)、「スキャン転送機能」の優先順位は「1位」であり、「印刷機能」の優先順位は「2位」である。   As described above, when the devices to be linked (for example, the multifunction device (B) and the PC (A)) are specified, the identification unit 64 of the robot apparatus 10 uses the linkage function management table shown in FIG. The cooperation function associated with the combination of the PC (A) and the multifunction machine (B) is specified. Thereby, the cooperation function executed by linking the PC (A) and the multifunction peripheral (B) is specified. When the connection order of devices is specified by the user, the identification unit 64 specifies the priority order associated with the connection order in the cooperation function management table. With reference to FIG. 37, a specific example will be described. Since the PC (A) and the multifunction peripheral (B) are designated as devices to be linked, the linkage function executed by them is “scan transfer function”. “Print function”. In addition, since a device is connected from the MFP (B) to the PC (A) (B → A), the priority of the “scan transfer function” is “first”, and the priority of the “print function” is “2nd place”.

上記のようにして特定された連携機能に関する情報と優先順位を示す情報は、ロボット装置10から端末装置14に送信される。端末装置14の制御部74は、その優先順位に従って、連携機能に関する情報をUI部72に表示させる。   Information relating to the cooperation function specified as described above and information indicating the priority order are transmitted from the robot apparatus 10 to the terminal apparatus 14. The control unit 74 of the terminal device 14 causes the UI unit 72 to display information related to the cooperation function according to the priority order.

例えば図38(b)に示すように、端末装置14の制御部74は、UI部72に連携機能候補に関する情報を表示させる。「スキャン転送機能」の優先順位が「1位」であり、「印刷機能」の優先順位が「2位」であるため、「スキャン転送機能」に関する情報が「印刷機能」に関する情報よりも優先的に(例えば上位に)表示されている。例えば、「スキャン転送機能」に関する情報として、「複合機(B)でスキャンしたデータをPC(A)に転送する。」という「スキャン転送機能」の説明文が表示される。また、「印刷機能」に関する情報として、「PC(A)にあるデータを印刷する。」という「印刷機能」の説明文が表示される。   For example, as illustrated in FIG. 38B, the control unit 74 of the terminal device 14 causes the UI unit 72 to display information related to the cooperative function candidate. Since the priority of the “scan transfer function” is “first” and the priority of the “print function” is “second”, the information related to the “scan transfer function” has priority over the information related to the “print function”. (For example, at the top). For example, as the information related to the “scan transfer function”, an explanatory text of “scan transfer function” “transfer data scanned by the MFP (B) to the PC (A)” is displayed. In addition, as the information related to the “print function”, an explanatory text of “print function” “print data in PC (A)” is displayed.

連携機能がユーザによって指定されて実行指示が与えられると、指定された連携機能が実行される。例えば、「YES」ボタンがユーザによって押されると、その「YES」ボタンに紐付く連携機能が実行される。   When the cooperation function is designated by the user and an execution instruction is given, the designated cooperation function is executed. For example, when a “YES” button is pressed by the user, a cooperation function associated with the “YES” button is executed.

なお、連携機能の特定処理及び優先順位の特定処理は、端末装置14にて行われてもよい。   In addition, the identification process of a cooperation function and the identification process of a priority may be performed in the terminal device 14.

機器画像の間を操作子でなぞる以外の操作として、丸印を付けるような描画操作によって連携対象の機器を指定するとともに、接続順番を指定してもよい。例えば、描画操作の順番が接続順番に相当する。別の例として、ユーザの音声指示に従って連携対象の機器や接続順番が指定されてもよい。   As an operation other than tracing between device images with an operator, a device to be linked may be specified by a drawing operation such as adding a circle, and a connection order may be specified. For example, the order of drawing operations corresponds to the connection order. As another example, a device to be linked and a connection order may be specified in accordance with a user's voice instruction.

図39には別の操作の例が示されている。例えば図39(a)に示すように、ユーザが操作子を用いて、機器画像130をタッチし、矢印134で示す方向に機器画像102まで操作することにより、機器画像130と機器画像102を繋ぐ。これにより、機器画像130に紐付くPC(A)と機器画像102に紐付く複合機(B)が、連携対象の機器として指定されるとともに、接続の順番が指定される。この例では、機器画像130から機器画像102へ画像を繋げているため、PC(A)から複合機(B)へ機器が接続されている。図37に示されている連携機能管理テーブルを参照すると、「印刷機能」の優先順位が「1位」であり、「スキャン転送機能」の優先順位は「2位」である。この場合、図39(b)に示すように、端末装置14のUI部72には、「印刷機能」に関する情報が「スキャン転送機能」に関する情報よりも優先的に(例えば上位に)表示される。   FIG. 39 shows another example of the operation. For example, as shown in FIG. 39A, the user touches the device image 130 using the operator and operates the device image 102 in the direction indicated by the arrow 134 to connect the device image 130 and the device image 102. . As a result, the PC (A) associated with the device image 130 and the multifunction peripheral (B) associated with the device image 102 are designated as devices to be linked and the order of connection is designated. In this example, since the image is connected from the device image 130 to the device image 102, the device is connected from the PC (A) to the multifunction device (B). Referring to the cooperation function management table shown in FIG. 37, the priority of “print function” is “1st”, and the priority of “scan transfer function” is “2nd”. In this case, as shown in FIG. 39B, the UI unit 72 of the terminal device 14 displays information related to the “printing function” preferentially (for example, higher) than information related to the “scan transfer function”. .

以上のように、機器に紐付く機器画像同士を繋ぐことにより、機器が有する機能を利用する連携機能が特定される。また、画像を繋ぐ順番、つまり、機器を接続する順番に応じて、連携機能に関する情報の表示順位が変更される。機器の接続順番は、各機器で利用される機能の順番や、連携する機器間を移動するデータの移動順番を兼ねており、機器を接続する操作(つまり画像を繋ぐ操作)は、機能の順番やデータの移動順番を指定する操作を兼ねることになる。それ故、接続順番に応じて連携機能に関する情報の表示順位を変えることにより、ユーザが利用するであろうと予測される連携機能に関する情報が優先的に表示される。つまり、ユーザが利用する可能性の高い連携機能に関する情報が優先的に表示される。例えば、複合機(B)からPC(A)へ画像が繋がれた場合、「PC(A)よりも先に複合機(B)の機能を利用し、複合機(B)からPC(A)へデータを転送する」という連携機能がユーザによって利用されると予測される。また、PC(A)から複合機(B)へ画像が繋がれた場合、「複合機(B)よりも先にPC(A)の機能を利用し、PC(A)から複合機(B)へデータを転送する」という連携機能がユーザによって利用されると予測される。それ故、画像を繋ぐ順番に応じて連携機能に関する情報の表示順位を変えることにより、ユーザが利用する可能性の高い連携機能に関する情報が優先的に表示される。また、機器画像同士を繋ぐ操作以外の操作を行わずに、利用する機能の順番やデータの移動順番が指定され、ユーザが利用するであろうと予測される連携機能に関する情報が表示される。   As described above, a linkage function that uses a function of a device is specified by connecting device images associated with the device. Further, the display order of information related to the cooperation function is changed according to the order in which the images are connected, that is, the order in which the devices are connected. The connection order of devices also serves as the order of functions used by each device and the movement order of data that moves between linked devices. The operation of connecting devices (that is, the operation of connecting images) is the order of functions. It also serves as an operation to specify the order of data movement. Therefore, by changing the display order of the information related to the cooperation function according to the connection order, the information related to the cooperation function predicted to be used by the user is preferentially displayed. That is, information related to a cooperative function that is highly likely to be used by the user is preferentially displayed. For example, when an image is connected from the multifunction device (B) to the PC (A), “the function of the multifunction device (B) is used before the PC (A), and the multifunction device (B) to the PC (A). It is anticipated that the user will use the link function "transfer data to". Further, when an image is connected from the PC (A) to the multifunction device (B), “the function of the PC (A) is used before the multifunction device (B), and the multifunction device (B) from the PC (A). It is anticipated that the user will use the link function "transfer data to". Therefore, by changing the display order of the information related to the cooperative function according to the order of connecting the images, information related to the cooperative function that is highly likely to be used by the user is preferentially displayed. In addition, without performing an operation other than the operation of connecting the device images, the order of the functions to be used and the data movement order are specified, and information on the cooperation function predicted to be used by the user is displayed.

上記の表示切替処理は、機能に紐付く機能画像が用いられる場合に適用されてもよい。例えば、第1機能に紐付く機器画像と第2機能に紐付く機器画像の指定の順番に応じて、連携機能に関する情報の表示が切り替えられる。   The display switching process described above may be applied when a function image associated with a function is used. For example, the display of information related to the cooperation function is switched according to the designation order of the device image associated with the first function and the device image associated with the second function.

(部分画像を用いた連携処理)
機器に紐付く機器画像内の位置に応じて、連携機能に割り当てられる機器が有する機能が異なっていてもよい。機器画像内において特定の位置がユーザによって指定されると、その特定の位置に対応する機能を利用する連携機能に関する情報が優先的に表示される。以下、この処理について詳しく説明する。
(Cooperative processing using partial images)
Depending on the position in the device image associated with the device, the function assigned to the device assigned to the cooperation function may be different. When a specific position is designated by the user in the device image, information related to a cooperation function that uses a function corresponding to the specific position is preferentially displayed. Hereinafter, this process will be described in detail.

図40には、デバイス機能管理テーブルの一例が示されている。このデバイス機能管理テーブルのデータは、デバイス機能管理情報40としてロボット装置10に記憶されている。このデバイス機能管理テーブルにおいては、一例として、機器IDと、機器名(例えば機器の種類)を示す情報と、機器画像内位置を示す情報と、その機器画像内位置に対応する機能を示す情報(機能情報)と、画像IDと、が対応付けられている。機器画像内位置は、機器に紐付く機器画像内の特定の位置(特定の部位)であり、例えば、機器を模式的に表す機器画像内の特定の位置や、カメラによって撮影された機器画像内の特定の位置である。機器画像内の特定の位置毎に、異なる機能が対応付けられている。   FIG. 40 shows an example of the device function management table. Data of this device function management table is stored in the robot apparatus 10 as device function management information 40. In this device function management table, as an example, information indicating a device ID, a device name (for example, a device type), information indicating a position in a device image, and information indicating a function corresponding to the position in the device image ( Function information) and an image ID are associated with each other. The position in the device image is a specific position (specific part) in the device image associated with the device, for example, a specific position in the device image schematically representing the device, or in the device image captured by the camera Is a specific position. Different functions are associated with each specific position in the device image.

図41には、端末装置14のUI部72に表示される画面の一例が示されている。例えば、複合機(B)とPC(A)が識別されているものとする。上記のユーザ判断モード1においては、図41(a)に示すように、端末装置14のUI部72には機器画像102,130が、状況情報として表示される。例えば、機器画像102において複合機(B)の本体部分に対応する特定の位置(部分画像102a)には、「プリント機能」が割り当てられている。機器画像102において複合機(B)の原稿カバーや原稿ガラスや自動原稿給紙装置に対応する特定の位置(部分画像102b)には、「スキャン機能」が割り当てられている。機器画像102において後処理装置に対応する特定の位置(部分画像102c)には、「ステープラ止め機能」が割り当てられている。「ステープラ止め機能」は、出力された用紙をステープラによって止める機能である。また、機器画像130においてPC(A)の本体部分に対応する特定の位置(部分画像130a)には、「データ保存機能」が割り当てられている。機器画像130においてPC(A)の表示部に対応する特定の位置(部分画像130b)には、「画面表示機能」が割り当てられている。「データ保存機能」は、他の装置から送られてきたデータをPC(A)にて保存する機能である。「画面表示機能」は、他の装置から送られてきたデータをPC(A)にて表示する機能である。   FIG. 41 shows an example of a screen displayed on the UI unit 72 of the terminal device 14. For example, it is assumed that the multifunction peripheral (B) and the PC (A) are identified. In the user determination mode 1 described above, as shown in FIG. 41A, the device images 102 and 130 are displayed as the situation information on the UI unit 72 of the terminal device 14. For example, a “print function” is assigned to a specific position (partial image 102 a) corresponding to the main body portion of the multifunction peripheral (B) in the device image 102. In the device image 102, a “scan function” is assigned to a specific position (partial image 102b) corresponding to the document cover, document glass, or automatic document feeder of the multifunction machine (B). A “stapler stop function” is assigned to a specific position (partial image 102 c) corresponding to the post-processing device in the device image 102. The “stapler stopping function” is a function for stopping the output paper with the stapler. Further, a “data storage function” is assigned to a specific position (partial image 130 a) corresponding to the main body portion of the PC (A) in the device image 130. A “screen display function” is assigned to a specific position (partial image 130 b) corresponding to the display unit of PC (A) in the device image 130. The “data storage function” is a function for storing data sent from another device on the PC (A). The “screen display function” is a function for displaying data sent from another device on the PC (A).

なお、端末装置14の制御部74は、機器画像内の特定の位置に割り当てられている機能の名称(例えば印刷やスキャン等)をUI部72に表示させてもよい。これにより、特定の位置にどのような機能が対応しているのかが分かり易い情報がユーザに提供される。もちろん、機能の名称は表示されなくてもよい。   Note that the control unit 74 of the terminal device 14 may cause the UI unit 72 to display the name of a function (for example, printing or scanning) assigned to a specific position in the device image. As a result, the user is provided with easy-to-understand information about what function corresponds to a specific position. Of course, the name of the function may not be displayed.

機器画像において機能が割り当てられている位置がユーザによって指定されると、その指定された位置に割り当てられている機能が連携対象の機能として指定される。ユーザは指示子を用いて、連携対象の機器を表わす機器画像において機能が割り当てられている特定の位置(部分画像)を繋ぐ。例えば、矢印136で示すように、ユーザが操作子を用いて、部分画像102bをタッチして部分画像130bまで操作することにより、部分画像102bと部分画像130bを繋ぐ。これにより、部分画像102bを含む機器画像102に紐付く複合機(B)と部分画像130bを含む機器画像130に紐付くPC(A)が、連携対象の機器として指定されるとともに、部分画像102bに割り当てられている「スキャン機能」と部分画像130bに割り当てられている「画面表示機能」が指定される。また、この繋ぐ操作によって、接続の順番が指定されてもよい。この場合、部分画像を繋ぐ順番が接続の順番に相当する。図41(a)に示す例では、部分画像102bから部分画像130bへ画像を繋げているため、複合機(B)からPC(A)へ機器が接続されている。また、連携機能に利用する機能として「スキャン機能」と「画面表示機能」が指定されている。機器の接続順番を示す情報と、機器画像内においてユーザによって指定された特定の位置を示す情報が、端末装置14からロボット装置10に送信される。   When the position to which the function is assigned in the device image is designated by the user, the function assigned to the designated position is designated as a function to be linked. The user uses an indicator to connect a specific position (partial image) to which a function is assigned in the device image representing the device to be linked. For example, as indicated by an arrow 136, the user touches the partial image 102b and operates to the partial image 130b using the operation element, thereby connecting the partial image 102b and the partial image 130b. As a result, the MFP (B) associated with the device image 102 including the partial image 102b and the PC (A) associated with the device image 130 including the partial image 130b are designated as devices to be linked and the partial image 102b. The “scan function” assigned to ”and the“ screen display function ”assigned to the partial image 130b are designated. Moreover, the order of connection may be designated by this connection operation. In this case, the order of connecting the partial images corresponds to the order of connection. In the example shown in FIG. 41A, since the images are connected from the partial image 102b to the partial image 130b, a device is connected from the multifunction peripheral (B) to the PC (A). In addition, “scan function” and “screen display function” are designated as functions used for the linkage function. Information indicating the connection order of devices and information indicating a specific position designated by the user in the device image are transmitted from the terminal device 14 to the robot device 10.

連携対象の機器(例えばPC(A)と複合機(B))が識別されると、ロボット装置10の識別部64は、例えば図11に示されている連携機能管理テーブルにおいて、PC(A)と複合機(B)を連携させることによって実現される連携機能を特定する。また、識別部64は、図40に示されているデバイス機能管理テーブルを参照することにより、機器画像内においてユーザによって指定された特定に位置に割り当てられている機能を特定する。そして、識別部64は、PC(A)と複合機(B)とを連携させることによって実現される連携機能群の中で、ユーザによって指定された位置に割り当てられている機能を利用する連携機能の優先順位を上げて、その機能を利用しない連携機能の優先順位を下げる。   When the devices to be linked (for example, PC (A) and multifunction device (B)) are identified, the identification unit 64 of the robot apparatus 10 uses, for example, the PC (A) in the linkage function management table shown in FIG. And a cooperating function realized by cooperating the MFP (B). Also, the identification unit 64 identifies the function assigned to the position specified by the user in the device image by referring to the device function management table shown in FIG. The identification unit 64 uses a function assigned to a position designated by the user in a cooperation function group realized by linking the PC (A) and the multifunction peripheral (B). The priority of the cooperative function that does not use the function is lowered.

上記のようにして特定された連携機能に関する情報と優先順位を示す情報は、ロボット装置10から端末装置14に送信される。端末装置14の制御部74は、その優先順位に従って、連携機能に関する情報を連携機能候補に関する情報としてUI部72に表示させる。   Information relating to the cooperation function specified as described above and information indicating the priority order are transmitted from the robot apparatus 10 to the terminal apparatus 14. The control unit 74 of the terminal device 14 causes the UI unit 72 to display information related to the cooperative function as information related to the cooperative function candidate according to the priority order.

例えば図41(b)に示すように、端末装置14の制御部74は、UI部72に連携機能候補に関する情報を表示させる。「スキャン機能」と「画面表示機能」がその順番でユーザによって指定されているため、「スキャン機能」と「画像表示機能」を連携させることによって実行される連携機能「スキャン転送表示機能」に関する情報が、他の連携機能に関する情報よりも優先的に(例えば上位に)表示される。例えば、「スキャン機能」と「データ保存機能」を連携させることによって実行される連携機能「スキャン転送保存機能」に関する情報よりも、「スキャン転送表示機能」に関する情報が優先的に表示される。なお、スキャン転送表示機能は、複合機(B)によるスキャンによって生成されたデータをPC(A)に転送してPC(A)の画面に表示する機能である。スキャン転送保存機能は、複合機(B)によるスキャンによって生成されたデータをPC(A)に転送してPC(A)に保存する機能である。図41(b)に示す例では、各連携機能に関する情報として、各連携機能の説明文が表示されている。   For example, as illustrated in FIG. 41B, the control unit 74 of the terminal device 14 causes the UI unit 72 to display information related to the cooperative function candidate. Since the “scan function” and “screen display function” are specified by the user in that order, information on the link function “scan transfer display function” that is executed by linking the “scan function” and the “image display function” However, it is displayed preferentially (for example, at a higher rank) than information related to other linkage functions. For example, information related to the “scan transfer display function” is preferentially displayed over information related to the link function “scan transfer storage function” executed by linking the “scan function” and the “data storage function”. The scan transfer display function is a function for transferring data generated by scanning by the multifunction peripheral (B) to the PC (A) and displaying it on the screen of the PC (A). The scan transfer storage function is a function for transferring data generated by scanning by the multifunction peripheral (B) to the PC (A) and storing it in the PC (A). In the example shown in FIG. 41 (b), explanatory text of each cooperative function is displayed as information relating to each cooperative function.

部分画像を用いた連携処理によると、連携対象の機器が複数の機能を有している場合に、機能が個別的に指定され、その指定された機能を利用する連携機能に関する情報が優先的に表示される。これにより、ユーザが利用するであろうと予測される連携機能が優先的に表示される。   According to the collaboration process using partial images, when a device to be linked has multiple functions, the functions are individually specified, and information on the linkage function that uses the specified function is given priority. Is displayed. Thereby, the cooperation function predicted to be used by the user is preferentially displayed.

なお、連携機能は、機器の部分同士の組み合わせを利用する機能であってもよいし、機器の全体と機器の部分との組み合わせを利用する機能であってもよいし、機器の全体同士の組み合わせを利用する機能であってもよい。   Note that the linkage function may be a function that uses a combination of device parts, a function that uses a combination of the entire device and the device part, or a combination of the entire device. It may be a function that uses.

部分画像を用いた連携処理は、機能に紐付く機能画像が用いられる場合に適用されてもよい。例えば、機能画像内の位置に応じて異なる機能が割り当てられており、ユーザによって指定された位置に割り当てられている機能を利用する連携機能が特定される。   The cooperation process using the partial image may be applied when a function image associated with the function is used. For example, different functions are assigned depending on the position in the function image, and the cooperation function that uses the function assigned to the position specified by the user is specified.

(部分画像を用いた連携処理の別の例)
以下、図42及び図43を参照して、部分画像を用いた連携処理の別の例について説明する。
(Another example of cooperative processing using partial images)
Hereinafter, another example of the cooperation process using the partial images will be described with reference to FIGS. 42 and 43.

図42には、デバイス機能管理テーブルの一例が示されている。このデバイス機能管理テーブルのデータは、デバイス機能管理情報40としてロボット装置10に記憶されている。デバイス機能管理テーブルにおいては、一例として、機器IDと、機器名(例えば機器の種類)を示す情報と、機器の部分の名称(例えば部分の種類)を示す情報と、その部分を識別するための部分識別情報としての部分IDと、その部分に割り当てられている機能(その部分が有する機能)を示す情報と、その部分に紐付く部分画像を識別するための部分画像IDと、が互いに対応付けられている。部分画像は、カメラによる撮影によって得られた機器の部分の外観を表わす画像である。もちろん、機器の部分を模式的に表す部分画像が、当該部分に対応付けられていてもよい。例えば、機器の部分毎に異なる機能が割り当てられている。   FIG. 42 shows an example of the device function management table. Data of this device function management table is stored in the robot apparatus 10 as device function management information 40. In the device function management table, for example, device ID, information indicating a device name (for example, device type), information indicating the name of a device part (for example, the type of portion), and identification of the portion A part ID as part identification information, information indicating a function assigned to the part (function possessed by the part), and a part image ID for identifying a part image associated with the part are associated with each other. It has been. The partial image is an image representing the appearance of the part of the device obtained by photographing with the camera. Of course, a partial image that schematically represents the part of the device may be associated with the part. For example, a different function is assigned to each part of the device.

具体例を挙げて説明すると、PC(A)の表示部には画面表示機能が割り当てられており、その表示部に紐付く部分画像の部分画像IDには、画面表示機能を示す情報が対応付けられている。画面表示機能は、情報をPC(A)にて表示する機能である。PC(A)の本体部にはデータ保存機能が割り当てられており、その本体部に紐付く部分画像の部分画像IDには、データ保存機能を示す情報が対応付けられている。データ保存機能は、データをPC(A)に保存する機能である。   A specific example will be described. A screen display function is assigned to the display unit of PC (A), and information indicating the screen display function is associated with the partial image ID of the partial image associated with the display unit. It has been. The screen display function is a function for displaying information on the PC (A). A data storage function is assigned to the main body of the PC (A), and information indicating the data storage function is associated with the partial image ID of the partial image associated with the main body. The data storage function is a function for storing data in the PC (A).

また、複合機(B)の本体部にはプリント機能が割り当てられており、その本体部に紐付く部分画像の部分画像IDには、プリント機能を示す情報が対応付けられている。複合機(B)の読取部(例えば、複合機(B)の原稿カバーや原稿ガラスや自動原稿給紙装置に対応する部分)にはスキャン機能が割り当てられており、その読取部に紐付く部分画像の部分画像IDには、スキャン機能を示す情報が対応付けられている。複合機(B)の後処理装置にはステープル止め機能が割り当てられており、その後処理装置に紐付く部分画像の部分画像IDには、ステープル止め機能を示す情報が対応付けられている。ステープル止め機能は、出力された用紙をステープルによって綴じる機能である。   Also, a print function is assigned to the main body of the multifunction peripheral (B), and information indicating the print function is associated with the partial image ID of the partial image associated with the main body. A scanning function is assigned to the reading unit of the multifunction device (B) (for example, a portion corresponding to the document cover, document glass, or automatic document feeder of the multifunction device (B)), and a portion associated with the reading unit Information indicating the scan function is associated with the partial image ID of the image. The stapling function is assigned to the post-processing apparatus of the multifunction peripheral (B), and information indicating the stapling function is associated with the partial image ID of the partial image associated with the processing apparatus thereafter. The stapling function is a function of binding the output paper by stapling.

機器の部分に割り当てられている機能は、例えば、マーカレス型AR技術を用いることによって特定(識別)される。例えば、機器の部分がカメラ(例えばロボット装置10の視覚センサー)によって撮影された場合、ロボット装置10の識別部64は、デバイス機能管理テーブルにおいて、その外観画像データに対応付けられている機能を特定(識別)する。これにより、撮影された部分に割り当てられている機能が特定(識別)される。例えば、複合機(B)の本体部が視覚センサーによって撮影された場合、ロボット装置10の識別部64は、デバイス機能管理テーブルにおいて、その外観画像データに対応付けられているプリント機能を特定する。これにより、複合機(B)の本体部に割り当てられている機能がプリント機能であることが特定される。   The function assigned to the device part is specified (identified) by using, for example, a markerless AR technology. For example, when the device portion is photographed by a camera (for example, a visual sensor of the robot apparatus 10), the identification unit 64 of the robot apparatus 10 specifies a function associated with the appearance image data in the device function management table. (Identify). Thereby, the function assigned to the photographed part is specified (identified). For example, when the main body of the multifunction peripheral (B) is photographed by the visual sensor, the identification unit 64 of the robot apparatus 10 specifies the print function associated with the appearance image data in the device function management table. Thereby, it is specified that the function assigned to the main body of the multifunction peripheral (B) is the print function.

もちろん、機器の部分に割り当てられている機能は、マーカ型AR技術を用いることによって特定(識別)されてもよい。例えば、機器の各部分に、部分を識別するための部分識別情報(例えば部分ID)がコード化された2次元バーコード等のマーカが設けられている。部分に設けられているマーカが視覚センサーによって撮影されてマーカ型AR技術が適用されると、その部分の部分識別情報(例えば部分ID)が取得される。このように部分識別情報が取得されると、ロボット装置10の識別部64は、デバイス機能管理テーブルにおいて、その部分識別情報(例えば部分ID)に対応付けられている機能を特定(識別)する。   Of course, the function assigned to the part of the device may be specified (identified) by using the marker type AR technology. For example, each part of the device is provided with a marker such as a two-dimensional barcode in which part identification information (for example, part ID) for identifying the part is encoded. When a marker provided in a part is photographed by a visual sensor and the marker type AR technology is applied, partial identification information (for example, a partial ID) of the part is acquired. When the partial identification information is acquired in this way, the identification unit 64 of the robot apparatus 10 specifies (identifies) a function associated with the partial identification information (for example, partial ID) in the device function management table.

図43には、連携機能管理テーブルの一例が示されている。この連携機能管理テーブルのデータは、連携機能管理情報42としてロボット装置10に記憶されている。この連携機能管理テーブルは、複数の部分が有する機能を利用する連携機能を示す情報であり、その連携機能管理テーブルにおいては、一例として、機器の部分の組み合わせを示す情報と、部分IDの組み合わせを示す情報と、その組み合わせに含まれる複数の部分が有する機能を利用する連携機能を示す情報と、が互いに対応付けられている。もちろん、連携機能管理テーブルにおいては、機器の部分と機器の全体との組み合わせを示す情報と、その機器の部分が有する機能と機器の全体が有する機能とを利用する連携機能を示す情報と、が対応付けられていてもよい。   FIG. 43 shows an example of the linkage function management table. The data of this cooperation function management table is stored in the robot apparatus 10 as cooperation function management information 42. This cooperation function management table is information indicating a cooperation function that uses the functions of a plurality of parts. In the cooperation function management table, for example, information indicating a combination of device parts and a combination of part IDs are included. The information indicating and the information indicating the cooperation function that uses the functions of a plurality of parts included in the combination are associated with each other. Of course, in the linkage function management table, information indicating the combination of the device portion and the entire device, and information indicating the linkage function using the function of the device portion and the function of the entire device are: It may be associated.

具体例を挙げて説明すると、PC(A)の表示部と複合機(B)の本体部との組み合わせには、連携機能としてのプリント機能が割り当てられており、PC(A)の表示部の部分IDと複合機(B)の本体部の部分IDとの組み合わせを示す情報には、連携機能としてのプリント機能を示す情報が対応付けられている。連携機能としてのプリント機能は、例えば、PC(A)に保存されているデータを複合機(B)に送信して、そのデータを複合機(B)によって印刷する機能である。   A specific example will be described. A print function as a cooperation function is assigned to the combination of the display unit of the PC (A) and the main unit of the multifunction peripheral (B). Information indicating the combination of the partial ID and the partial ID of the main body of the multifunction peripheral (B) is associated with information indicating a print function as a cooperation function. The print function as the linkage function is a function that, for example, transmits data stored in the PC (A) to the multifunction device (B) and prints the data by the multifunction device (B).

また、複合機(B)の本体部とプロジェクタ(C)の本体部との組み合わせには、連携機能としてのプリント機能が割り当てられており、複合機(B)の本体部の部分IDとプロジェクタ(C)の本体部の部分IDとの組み合わせを示す情報には、連携機能としてのプリント機能を示す情報が対応付けられている。連携機能としてのプリント機能は、例えば、プロジェクタ(C)によって投影されているデータを複合機(B)に送信して、そのデータを複合機(B)によって印刷する機能である。   A print function as a cooperation function is assigned to the combination of the main body of the multifunction peripheral (B) and the main body of the projector (C), and the partial ID of the main body of the multifunction peripheral (B) and the projector ( The information indicating the print function as the cooperation function is associated with the information indicating the combination with the partial ID of the main body part C). The print function as the cooperation function is, for example, a function of transmitting data projected by the projector (C) to the multifunction device (B) and printing the data by the multifunction device (B).

また、複合機(B)の読取部とプロジェクタ(C)の本体部との組み合わせには、連携機能としてのスキャン投影機能が割り当てられており、複合機(B)の読取部の部分IDとプロジェクタ(C)の本体部の部分IDとの組み合わせを示す情報には、連携機能としてのスキャン投影機能を示す情報が対応付けられている。連携機能としてのスキャン投影機能は、例えば、複合機(B)によるスキャンによって生成されたデータをプロジェクタ(C)に送信して、そのデータをプロジェクタ(C)によって投影する機能である。   Further, a scan projection function as a cooperation function is assigned to the combination of the reading unit of the multifunction device (B) and the main body of the projector (C), and the partial ID of the reading unit of the multifunction device (B) and the projector The information indicating the combination with the partial ID of the main body part in (C) is associated with information indicating the scan projection function as the cooperation function. The scan projection function as the cooperation function is a function of, for example, transmitting data generated by scanning by the multifunction peripheral (B) to the projector (C) and projecting the data by the projector (C).

なお、連携機能は、同一の機器に含まれる複数の部分が有する機能を利用する機能であってもよいし、互いに異なる複数の機器の部分が有する機能を利用する機能であってもよい。また、連携機能は、3つ以上の部分が有する機能を利用する機能であってもよい。   Note that the cooperation function may be a function that uses a function of a plurality of parts included in the same device, or may be a function that uses a function of a part of a plurality of different devices. In addition, the cooperation function may be a function that uses functions of three or more parts.

例えば、マーカ型AR技術又はマーカレス型AR技術を利用して、機器の複数の部分(例えば、互いに異なる複数の機器の複数の部分や、同一機器の複数の部分)が特定(識別)されると、ロボット装置10の識別部64は、連携機能管理テーブルにおいて、識別された複数の部分の組み合わせに対応付けられている連携機能を特定(識別)する。これにより、識別(例えば撮影)された複数の部分が有する機能を利用する連携機能が特定(識別)される。例えば、複合機(B)の本体部とプロジェクタ(C)の本体部が識別された場合、ロボット装置10は、連携機能管理テーブルにおいて、複合機(B)の本体部とプロジェクタ(C)の本体部の組み合わせに対応付けられている連携機能としてのプリント機能等を特定する。   For example, when a plurality of parts of a device (for example, a plurality of parts of a plurality of different devices or a plurality of parts of the same device) are specified (identified) using the marker type AR technology or the markerless type AR technology. The identification unit 64 of the robot apparatus 10 identifies (identifies) the cooperation function associated with the combination of the plurality of identified parts in the cooperation function management table. Thereby, the cooperation function using the function which the some part identified (for example, imaging | photography) has is pinpointed (identification). For example, when the main body of the multifunction peripheral (B) and the main body of the projector (C) are identified, the robot apparatus 10 uses the main body of the multifunction peripheral (B) and the main body of the projector (C) in the linkage function management table. A print function or the like as a cooperation function associated with a combination of sets is specified.

(機器画像の重ね合わせによる連携対象の機器の指定)
複数の機器画像を重ね合わせることによって、連携対象の機器群が指定されてもよい。以下、図44及び図45を参照して、この処理について説明する。図44及び図45には、端末装置14のUI部72に表示される画面の一例が示されている。
(Designation of devices to be linked by overlaying device images)
A device group to be linked may be designated by superimposing a plurality of device images. Hereinafter, this process will be described with reference to FIGS. 44 and 45. 44 and 45 show an example of a screen displayed on the UI unit 72 of the terminal device 14.

例えば、複合機(B)とPC(A)が識別されているものとする。上記のユーザ判断モード1においては、図44(a)に示すように、端末装置14のUI部72には、識別された機器に紐付く機器画像102,130が、状況情報として表示される。この状態で、ユーザが指示子(例えばユーザの指、ペン、スタイラス等)を用いて第1機器に紐付く機器画像を、連携先の機器(第2機器)に紐付く機器画像に重ね合わせる。例えば、図44(b)に示すように、ユーザが操作子を用いて機器画像102を指定し、矢印138で示すように、その機器画像102を機器画像130に重ね合わせる。例えば、ドラッグ&ドロップ操作によって機器画像同士を重ね合わせる。つまり、ユーザは機器画像102をドラッグ操作し、機器画像130に重なる位置で機器画像102をドロップ操作する。このドラッグ&ドロップ操作自体は、例えば公知の技術である。なお、ユーザの音声指示に従って、重ね合わせる機器画像が指定されてもよい。例えば、ユーザの音声指示に従って、機器画像102,130が重ね合わせ対象の機器画像として指定され、それらが重ねられてもよい。   For example, it is assumed that the multifunction peripheral (B) and the PC (A) are identified. In the user determination mode 1 described above, as shown in FIG. 44A, device images 102 and 130 associated with the identified device are displayed as status information on the UI unit 72 of the terminal device 14. In this state, the user uses an indicator (for example, the user's finger, pen, stylus, etc.) to superimpose the device image associated with the first device on the device image associated with the cooperation destination device (second device). For example, as shown in FIG. 44B, the user designates the device image 102 by using the operator, and the device image 102 is superimposed on the device image 130 as indicated by an arrow 138. For example, device images are overlapped by a drag and drop operation. That is, the user drags the device image 102 and performs a drop operation on the device image 102 at a position overlapping the device image 130. This drag and drop operation itself is a known technique, for example. Note that a device image to be superimposed may be designated in accordance with a user's voice instruction. For example, the device images 102 and 130 may be designated as device images to be superimposed in accordance with a user's voice instruction, and may be superimposed.

機器画像102,130を互いに重ね合わせることにより、機器画像102に紐付く複合機(B)と機器画像130に紐付くPC(A)が、連携対象の機器として指定される。   By superimposing the device images 102 and 130 on each other, the multifunction device (B) associated with the device image 102 and the PC (A) associated with the device image 130 are designated as devices to be linked.

なお、端末装置14の制御部74は、ドラッグ操作中の機器画像を識別可能な表示態様でUI部72に表示させてもよい。例えば、ドラッグ操作中の機器画像を半透明に表示したり、特定の色で表示したりしてもよい。   Note that the control unit 74 of the terminal device 14 may display the device image being dragged on the UI unit 72 in a display mode that can be identified. For example, the device image being dragged may be displayed semi-transparently or displayed in a specific color.

機器画像102が機器画像130に重ねられた場合において、PC(A)が複合機(B)と共に連携機能を実行することが可能な場合、図44(c)に示すように、端末装置14のUI部72に確認画面140が表示される。確認画面140は、連携対象の機器として指定された機器群を連携させるか否かを確認するための画面である。確認画面140において、連携指示がユーザによって与えられると(例えば「YES」ボタンがユーザによって押されると)、連携機能に関する情報が端末装置14のUI部72に表示される。   When the device image 102 is superimposed on the device image 130 and the PC (A) can execute the cooperation function together with the multifunction peripheral (B), as shown in FIG. A confirmation screen 140 is displayed on the UI unit 72. The confirmation screen 140 is a screen for confirming whether or not a device group designated as a device to be linked is to be linked. When a cooperation instruction is given by the user on the confirmation screen 140 (for example, when the “YES” button is pressed by the user), information regarding the cooperation function is displayed on the UI unit 72 of the terminal device 14.

例えば図45(a)に示すように、端末装置14の制御部74は、UI部72に連携機能候補に関する情報を表示させる。PC(A)と複合機(B)を連携させることにより、例えば、「スキャン転送機能」と「印刷機能」が実現されるため、UI部72には、「スキャン転送機能」に関する情報と「印刷機能」に関する情報が表示される。   For example, as illustrated in FIG. 45A, the control unit 74 of the terminal device 14 causes the UI unit 72 to display information related to the cooperative function candidate. By linking the PC (A) and the multifunction peripheral (B), for example, a “scan transfer function” and a “print function” are realized. Information about "Function" is displayed.

連携機能がユーザによって指定されて実行指示が与えられると、端末装置14から連携対象の機器に対して接続要求が行われる。図45(b)に示すように、その接続要求の間、端末装置14のUI部72には待機画面が表示される。端末装置14と連携対象の機器との接続が成功すると、指定された連携機能が実行される。   When the cooperation function is designated by the user and an execution instruction is given, the terminal device 14 issues a connection request to the cooperation target device. As shown in FIG. 45B, a standby screen is displayed on the UI unit 72 of the terminal device 14 during the connection request. When the connection between the terminal device 14 and the device to be linked is successful, the designated linkage function is executed.

以上のように、機器に紐付いた機器画像同士を重ね合わせることにより、機器が有する機能を利用する連携機能が特定される。それ故、画像操作以外の操作を行わずに、機能を連携させることが可能となり、簡易な操作で機能が連携される。   As described above, a cooperation function that uses a function of a device is specified by superimposing device images associated with the device. Therefore, the functions can be linked without performing an operation other than the image operation, and the functions are linked with a simple operation.

部分画像を機器画像又は部分画像に重ね合わせることで、連携機能が特定されてもよい。図46を参照して、この処理について説明する。図46には、端末装置14のUI部72に表示される画面の一例が示されている。   The cooperation function may be specified by superimposing the partial image on the device image or the partial image. This process will be described with reference to FIG. FIG. 46 shows an example of a screen displayed on the UI unit 72 of the terminal device 14.

上述した部分画像を用いた連携処理と同様に、機器に紐付く機器画像内の位置に応じて、機器が有する機能が異なっている。機器画像内の部分画像を、同一又は異なる機器画像内の部分画像に重ね合わせることにより、両部分画像に紐付く機能を利用する連携機能が特定される。以下、この処理について詳しく説明する。   Similar to the cooperation process using the partial image described above, the function of the device differs depending on the position in the device image associated with the device. By superimposing the partial images in the device images on the partial images in the same or different device images, a cooperation function that uses a function associated with both partial images is specified. Hereinafter, this process will be described in detail.

例えば、複合機(B)とPC(A)が識別されているものとする。上記のユーザ判断モード1においては、図46(a)に示すように、端末装置14のUI部72には、機器画像102,130が、状況情報として表示される。例えば、部分画像102a,102b,102c,130a,130bは他の部分画像から分離して個別的に移動可能な画像として表示されている。   For example, it is assumed that the multifunction peripheral (B) and the PC (A) are identified. In the user determination mode 1 described above, as shown in FIG. 46A, the device images 102 and 130 are displayed as the situation information on the UI unit 72 of the terminal device 14. For example, the partial images 102a, 102b, 102c, 130a, and 130b are displayed as images that are separately movable from the other partial images.

部分画像がユーザによって指定されて、その部分画像が他の部分画像に重ねられると、それら両部分画像に紐付く機能を利用する連携機能が特定され、その連携機能に関する情報が端末装置14のUI部72に表示される。   When a partial image is designated by the user and the partial image is superimposed on another partial image, a cooperative function that uses a function associated with both partial images is specified, and information regarding the cooperative function is stored in the UI of the terminal device 14. Displayed on the part 72.

例えば、図46(b)中の矢印142で示すように、ユーザが操作子を用いて、部分画像102bをドラッグ操作して部分画像130bに重ねてドロップ操作を行った場合、部分画像102bを含む機器画像102に紐付く複合機(B)と部分画像130bを含む機器画像130に紐付くPC(A)が、連携対象の機器として指定されるとともに、部分画像102bに割り当てられている「スキャン機能」と部分画像130bに割り当てられている「画面表示機能」が連携対象の機能として指定される。   For example, as indicated by an arrow 142 in FIG. 46B, when the user drags the partial image 102b using the operator and performs a drop operation on the partial image 130b, the partial image 102b is included. The multifunction device (B) associated with the device image 102 and the PC (A) associated with the device image 130 including the partial image 130b are designated as cooperation target devices and are assigned to the partial image 102b with the “scan function” "And a" screen display function "assigned to the partial image 130b are designated as functions to be linked.

ロボット装置10においては、部分画像に割り当てられている機能が管理されている。例えば、部分画像を識別するための識別情報と、部分画像に対応付けられている機能を示す機能情報と、機能を連携させることによって実行される連携機能を示す連携機能情報と、が対応付けられてロボット装置10に記憶されている。部分画像が選択されて他の部分画像に重ねられると、それらの部分画像を示す識別情報が、端末装置14からロボット装置10に送信される。図46(b)に示す例では、部分画像102b,130bをそれぞれ示す識別情報が端末装置14からロボット装置10に送信される。ロボット装置10の識別部64は、その識別情報に基づいて、重ねられた部分画像102b,130bのそれぞれに割り当てられている機能を特定し、その機能を利用する連携機能を特定する。その連携機能に関する情報は、ロボット装置10から端末装置14に送信されて表示される。   In the robot apparatus 10, functions assigned to the partial images are managed. For example, identification information for identifying a partial image, functional information indicating a function associated with the partial image, and cooperative function information indicating a cooperative function executed by linking the functions are associated with each other. And stored in the robot apparatus 10. When a partial image is selected and superimposed on another partial image, identification information indicating the partial image is transmitted from the terminal device 14 to the robot apparatus 10. In the example shown in FIG. 46B, identification information indicating the partial images 102 b and 130 b is transmitted from the terminal device 14 to the robot device 10. Based on the identification information, the identification unit 64 of the robot apparatus 10 identifies a function assigned to each of the superimposed partial images 102b and 130b, and identifies a cooperative function that uses the function. Information regarding the cooperation function is transmitted from the robot apparatus 10 to the terminal apparatus 14 and displayed.

以上の処理によると、連携対象の機器が複数の機能を有している場合に、機能が個別的に指定され、この指定された機能を利用する連携機能に関する情報が優先的に表示される。これにより、ユーザが利用するであろうと予測される連携機能が優先的に表示される。   According to the above processing, when a device to be linked has a plurality of functions, the functions are individually designated, and information related to the linked function using the designated function is preferentially displayed. Thereby, the cooperation function predicted to be used by the user is preferentially displayed.

また、部分画像を重ね合わせる順番に応じて、連携機能の表示の優先順位が変更されてもよい。この場合、重ねられた部分画像に紐付く機能を利用する連携機能に関する情報が優先的に表示される。   Further, the display priority of the cooperation function may be changed according to the order in which the partial images are superimposed. In this case, information related to the cooperation function that uses the function associated with the superimposed partial images is preferentially displayed.

上記のロボット装置10及び端末装置14のそれぞれは、一例としてハードウェアとソフトウェアとの協働により実現される。具体的には、ロボット装置10及び端末装置14のそれぞれは、図示しないCPU等の1又は複数のプロセッサを備えている。当該1又は複数のプロセッサが、図示しない記憶装置に記憶されたプログラムを読み出して実行することにより、ロボット装置10及び端末装置14の各部の機能が実現される。上記プログラムは、CDやDVD等の記録媒体を経由して、又は、ネットワーク等の通信経路を経由して、記憶装置に記憶される。別の例として、ロボット装置10及び端末装置14のそれぞれの各部は、例えばプロセッサや電子回路やASIC(Application Specific Integrated Circuit)等のハードウェア資源により実現されてもよい。その実現においてメモリ等のデバイスが利用されてもよい。更に別の例として、ロボット装置10及び端末装置14のそれぞれの各部は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等によって実現されてもよい。   Each of the robot apparatus 10 and the terminal apparatus 14 is realized by cooperation of hardware and software as an example. Specifically, each of the robot apparatus 10 and the terminal apparatus 14 includes one or a plurality of processors such as a CPU (not shown). The function of each part of the robot apparatus 10 and the terminal apparatus 14 is implement | achieved when the said 1 or several processor reads and runs the program memorize | stored in the memory | storage device which is not shown in figure. The program is stored in the storage device via a recording medium such as a CD or DVD, or via a communication path such as a network. As another example, each unit of the robot apparatus 10 and the terminal apparatus 14 may be realized by hardware resources such as a processor, an electronic circuit, and an ASIC (Application Specific Integrated Circuit). In the realization, a device such as a memory may be used. As yet another example, each unit of the robot apparatus 10 and the terminal apparatus 14 may be realized by a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), or the like.

10 ロボット装置、12 機器、14 端末装置、34 所有機能管理情報、36 非所有機能管理情報、38 解決手段管理情報、40 デバイス機能管理情報、42 連携機能管理情報、44 状況収集部、46 移動部、48 作業部、54 制御部、56 検知部、58 解決手段特定部、60 判断部、62 検索部、64 識別部。   DESCRIPTION OF SYMBOLS 10 Robot apparatus, 12 apparatus, 14 Terminal device, 34 Owned function management information, 36 Non-owned function management information, 38 Solution means management information, 40 Device function management information, 42 Cooperation function management information, 44 Status collection part, 46 Moving part , 48 working unit, 54 control unit, 56 detection unit, 58 solution means identification unit, 60 determination unit, 62 search unit, 64 identification unit.

Claims (43)

周囲の状況、及び、自装置の周囲に存在する人を検知する状況収集手段と、
人の属性毎に定められ、前記状況の問題の発生の有無を判断するための閾値を示す情報を記憶する記憶手段と、
前記状況収集手段によって検知された前記状況の検知結果を表す値が前記閾値以上となる場合、前記問題が発生したと判断する検知手段と、
自装置の機能だけでは前記問題を解決する解決手段が実行できない場合、前記自装置以外の要素を利用する前記解決手段を実行するための制御を行う制御手段と、
を含み、
前記検知手段は、更に、前記記憶手段に記憶されている情報を参照することで、前記状況収集手段によって検知された人の属性に応じて前記閾値を変更する、
ロボット装置。
A situation collecting means for detecting surrounding conditions and people existing around the device ;
A storage unit that stores information indicating a threshold value that is determined for each attribute of the person and that is used to determine whether or not the situation problem has occurred;
Detection means for determining that the problem has occurred when a value representing the detection result of the situation detected by the situation collection means is equal to or greater than the threshold;
If only the functions of the apparatus can not execute the solutions to solve the previous Kitoi title, and control means for performing control to execute the solutions that utilize elements other than the self apparatus,
Only including,
The detection means further changes the threshold according to the attribute of the person detected by the status collection means by referring to the information stored in the storage means.
Robot device.
前記要素は、前記自装置以外の機器及び人の中の少なくとも1つを含む、
ことを特徴とする請求項1に記載のロボット装置。
The element includes at least one of a device and a person other than the device.
The robot apparatus according to claim 1.
前記制御手段は、人が検知されない場合、人を用いない前記解決手段が実行されるための制御を優先的に実行する、
ことを特徴とする請求項2に記載のロボット装置。
The control means preferentially executes control for executing the solution means not using a person when no person is detected,
The robot apparatus according to claim 2.
前記制御手段は、前記自装置以外の機器に前記解決手段を実行させる、
ことを特徴とする請求項2又は請求項3に記載のロボット装置。
The control means causes a device other than the own apparatus to execute the solution means.
The robot apparatus according to claim 2 or claim 3, wherein
前記制御手段は、前記自装置以外の機器と通信して前記自装置以外の機器を制御することで、前記自装置以外の機器に前記解決手段を実行させる、
ことを特徴とする請求項4に記載のロボット装置。
The control means communicates with a device other than the device itself to control the device other than the device itself, thereby causing the device other than the device itself to execute the solution means.
The robot apparatus according to claim 4, wherein:
前記制御手段は、前記自装置以外の機器の操作部への直接操作を制御することで、前記自装置以外の機器に前記解決手段を実行させる、
ことを特徴とする請求項4に記載のロボット装置。
The control means controls a direct operation to an operation unit of a device other than the device itself to cause the device other than the device itself to execute the solution means.
The robot apparatus according to claim 4, wherein:
前記自装置以外の機器と通信して制御できない場合、前記制御手段は、前記直接操作を制御する、
ことを特徴とする請求項6に記載のロボット装置。
In the case where control is not possible by communicating with a device other than the device itself, the control means controls the direct operation.
The robot apparatus according to claim 6.
前記解決手段は、前記自装置、前記自装置以外の機器及び人の中の少なくとも2つの共同作業によって実行される手段である、
ことを特徴とする請求項2から請求項7何れかに記載のロボット装置。
The solving means is a means executed by at least two collaborative work among the own device, a device other than the own device, and a person.
The robot apparatus according to claim 2, wherein the robot apparatus is characterized.
前記制御手段は、前記解決手段が実行されるための制御として、前記解決手段を示す情報の出力を制御する、
ことを特徴とする請求項1から請求項8何れかに記載のロボット装置。
The control means controls output of information indicating the solving means as control for executing the solving means.
The robot apparatus according to any one of claims 1 to 8, wherein the robot apparatus is characterized.
前記解決手段を示す情報は、前記状況を示す情報を含む、
ことを特徴とする請求項9に記載のロボット装置。
The information indicating the solving means includes information indicating the situation,
The robot apparatus according to claim 9.
前記制御手段は、端末装置への前記解決手段を示す情報の出力を制御する、
ことを特徴とする請求項9又は請求項10に記載のロボット装置。
The control means controls output of information indicating the solving means to the terminal device;
The robot apparatus according to claim 9 or 10, wherein:
前記解決手段は、前記端末装置を利用するユーザの指示に基づき実行される、
ことを特徴とする請求項11に記載のロボット装置。
The solving means is executed based on an instruction of a user who uses the terminal device.
The robot apparatus according to claim 11.
前記指示は、前記自装置の周囲に存在する機器を利用することで実行できる機能の実行指示である、
ことを特徴とする請求項12に記載のロボット装置。
The instruction is an instruction to execute a function that can be executed by using a device that exists around the device.
The robot apparatus according to claim 12, wherein:
器の位置情報、周囲の画像及び通信状況の中の少なくとも1つに基づいて、前記自装置の周囲に存在する機器を識別する識別手段を更に有する、
ことを特徴とする請求項13に記載のロボット装置。
Position information of the equipment, based on at least one of the surrounding image and communication status further comprises identifying means for identifying a device existing around the own device,
The robot apparatus according to claim 13.
前記指示を示す情報を、前記自装置の周囲に存在する機器に送信する送信手段を更に有する、
ことを特徴とする請求項12から請求項14何れかに記載のロボット装置。
Further comprising transmission means for transmitting information indicating the instruction to devices existing around the device.
The robot apparatus according to any one of claims 12 to 14, wherein the robot apparatus is characterized.
前記制御手段は、前記解決手段を示す情報の表示を制御する、
ことを特徴とする請求項9から請求項15何れかに記載のロボット装置。
The control unit controls display of information indicating the solution unit;
The robot apparatus according to claim 9, wherein the robot apparatus is characterized.
前記制御手段は、前記解決手段を実行できる機器に紐付く機器画像の表示を更に制御する、
ことを特徴とする請求項16に記載のロボット装置。
The control means further controls display of a device image associated with a device capable of executing the solution means.
The robot apparatus according to claim 16.
ユーザによって指定された機器画像に紐付く機器を利用する機能が実行される、
ことを特徴とする請求項17に記載のロボット装置。
A function that uses the device associated with the device image specified by the user is executed.
The robot apparatus according to claim 17.
ユーザによって複数の機器画像が指定された場合、前記複数の機器画像に紐付く複数の機器を利用する連携機能が実行される、
ことを特徴とする請求項17に記載のロボット装置。
When a plurality of device images are designated by the user, a cooperation function that uses a plurality of devices associated with the plurality of device images is executed.
The robot apparatus according to claim 17.
人に関する情報に基づく第1の検知結果と、人以外の情報に基づく第2の検知結果と、に基づく前記状況の問題が異なる場合、前記制御手段は、予め定めた前記第1の検知結果又は前記第2の検知結果の優先順位に基づき、前記状況の問題を解決する前記解決手段を選択する、
ことを特徴とする請求項から請求項19何れかに記載のロボット装置。
When the problem of the situation based on the first detection result based on the information related to the person and the second detection result based on the information other than the person are different, the control unit may determine the first detection result determined in advance or Selecting the solution to solve the problem of the situation based on the priority of the second detection result;
Robot device according to any claim 19 claim 1, wherein the.
人に関する情報は、人を表わす画像を含む情報である、
ことを特徴とする請求項20に記載のロボット装置。
The information about the person is information including an image representing the person.
Robot device according to claim 2 0, characterized in that.
前記画像は、人の身体の少なくとも一部を表わす画像である、
ことを特徴とする請求項2に記載のロボット装置。
The image is an image representing at least a part of a human body.
Robot device according to claim 2 1, wherein the.
前記画像は、人の顔を表わす画像である、
ことを特徴とする請求項2に記載のロボット装置。
The image is an image representing a human face,
Robot device according to claim 2 2, characterized in that.
人に関する情報は、人の音声を含む情報である、
ことを特徴とする請求項20から請求項2何れかに記載のロボット装置。
Information about a person is information that includes the voice of the person.
Robot device according to claim 2 3 claim 20, characterized in that.
前記自装置以外の前記要素が有料で使用可能な場合、前記制御手段は、前記自装置以外の要素を使用するための支払い動作を制御する、
ことを特徴とする請求項1から請求項24何れかに記載のロボット装置。
When the element other than the device itself is available for a fee, the control means controls a payment operation for using the element other than the device itself.
The robot apparatus according to any one of claims 1 to 24, wherein:
前記支払い動作は、電子通貨及び仮想通貨の中の少なくとも1つの通貨による支払い動作を含む、
ことを特徴とする請求項2に記載のロボット装置。
The payment operation includes a payment operation using at least one of electronic currency and virtual currency.
The robot apparatus according to claim 25 , wherein:
前記自装置が支払い能力を有していない場合、前記制御手段は、前記自装置以外の要素から支払い援助を受けて前記支払い動作を行う、
ことを特徴とする請求項2又は請求項2に記載のロボット装置。
When the device itself does not have a payment capability, the control means performs the payment operation with payment assistance from an element other than the device itself.
The robot apparatus according to claim 25 or claim 26 , wherein
前記制御手段は、前記問題を解決するための行動に関与し得る人から支払用の金銭を取得する、
ことを特徴とする請求項27に記載のロボット装置。
The control means obtains money for payment from a person who may be involved in an action for solving the problem;
The robot apparatus according to claim 27 .
記問題を解決するための前記解決手段を検索する検索手段を更に有する
ことを特徴とする請求項1から請求項28何れかに記載のロボット装置。
Further comprising a retrieval means for search the means for solving the previous SL problem,
The robot apparatus according to any one of claims 1 to 28, wherein:
前記検索手段は、インターネットを利用して前記解決手段を検索する、
ことを特徴とする請求項29に記載のロボット装置。
The search means searches for the solution means using the Internet.
30. The robot apparatus according to claim 29 .
前記自装置のみで前記解決手段を決定できない場合、前記制御手段は、ユーザに問い合わせるモードの実行を制御する、
ことを特徴とする請求項1から請求項3何れかに記載のロボット装置。
If the solution means cannot be determined only by the device itself, the control means controls execution of a mode for inquiring the user
Robot device according to any one of claims 3 0 claim 1, characterized in that.
ユーザに問い合わせるモードでは、前記制御手段は、ユーザからの要求に応じて、前記状況に関する情報の更なる収集を制御する、
ことを特徴とする請求項3に記載のロボット装置。
In the mode for inquiring the user, the control means controls further collection of information on the situation in response to a request from the user.
Robot device according to claim 3 1, feature that.
前記自装置が解決できる問題は、前記自装置が有する機能の更新に応じて変更される、
ことを特徴とする請求項1から請求項3何れかに記載のロボット装置。
The problem that the device can solve is changed according to the update of the function of the device.
Robot device according to claim 3 2 claim 1, characterized in that.
前記機能の更新は、前記自装置が有するハードウェア及びソフトウェアの中の少なくとも1つを変更することで行われる、
ことを特徴とする請求項3に記載のロボット装置。
The update of the function is performed by changing at least one of hardware and software included in the device.
Robot device according to claim 3 3, characterized in that.
前記制御手段は、前記問題が解決されるまで、前記解決手段を実行するための制御を繰り返す、
ことを特徴とする請求項1から請求項3何れかに記載のロボット装置。
The control means repeats control for executing the solution means until the problem is solved.
Robot device according to claim 3 4 claim 1, characterized in that.
前記解決手段が実行されない場合、前記制御手段は、別の解決手段を実行するための制御を行う、
ことを特徴とする請求項1から請求項3何れかに記載のロボット装置。
When the solving means is not executed, the control means performs control for executing another solving means.
Robot device according to any one of claims 3 to 5 claim 1, characterized in that.
他の場所へ移動するための移動手段を更に有する、
ことを特徴とする請求項1から請求項3何れかに記載のロボット装置。
It further has a moving means for moving to another place,
Robot device according to any one of claims 3 to 6 claim 1, characterized in that.
前記移動手段は、陸上を移動する機能、飛行する機能、及び、水中を移動する機能、の中の少なくとも1つの機能を有する、
ことを特徴とする請求項37に記載のロボット装置。
The moving means has at least one of a function of moving on land, a function of flying, and a function of moving underwater.
The robot apparatus according to claim 37 , wherein:
周囲の環境に応じて通信方式を変えて前記自装置以外の機器と通信を行う通信手段を更に有する、
ことを特徴とする請求項1から請求項38何れかに記載のロボット装置。
It further has a communication means for communicating with devices other than the device itself by changing the communication method according to the surrounding environment.
The robot apparatus according to any one of claims 1 to 38, wherein:
前記周囲の環境は、周囲に存在する機器との間の距離、及び、障害物の有無、の中の少なくとも1つに関する、
ことを特徴とする請求項39に記載のロボット装置。
The surrounding environment relates to at least one of a distance between the surrounding devices and the presence or absence of an obstacle.
40. The robot apparatus according to claim 39 .
前記解決手段が、前記問題の解決のために人の行動を喚起させる手段の場合、前記制御手段は、前記問題を解決するための行動の手順の報知を制御する、
ことを特徴とする請求項1から請求項4何れかに記載のロボット装置。
In the case where the solving means is a means for invoking a human action for solving the problem, the control means controls notification of a procedure of the action for solving the problem.
Robot device according to any one of claims 4 0 from claim 1, characterized in that.
前記自装置の機能では解決できない前記問題は、前記自装置の機能だけでは解決できない問題、前記自装置の機能だけでは解決に要する時間が時間閾値以上となる問題、又は、前記自装置の機能による作業の結果の質が予め定められた質以下となる問題である、
ことを特徴とする請求項1から請求項4何れかに記載のロボット装置。
The problem that cannot be solved by the function of the own device is a problem that cannot be solved by the function of the own device alone, a problem that the time required for the solution by the function of the own device alone exceeds a time threshold, or the function of the own device It is a problem that the quality of work results is below a predetermined quality,
Robot device according to claim 4 1 claim 1, characterized in that.
コンピュータを、
周囲の状況、及び、自装置の周囲に存在する人を検知する状況収集手段、
人の属性毎に定められ、前記状況の問題の発生の有無を判断するための閾値を示す情報を記憶する記憶手段を参照し、前記状況収集手段によって検知された前記状況の検知結果を表す値が前記閾値以上となる場合、前記問題が発生したと判断する検知手段、
自装置の機能だけでは前記問題を解決する解決手段が実行できない場合、前記自装置以外の要素を利用する前記解決手段を実行するための制御を行う制御手段、
として機能させ、
前記検知手段は、更に、前記記憶手段に記憶されている情報を参照することで、前記状況収集手段によって検知された人の属性に応じて前記閾値を変更する、
プログラム。
Computer
Status collection means for detecting surrounding conditions and people existing around the device,
A value that is determined for each person attribute and that represents a detection result of the situation detected by the situation collection means with reference to storage means that stores information indicating a threshold for determining whether or not the situation problem has occurred Detecting means for determining that the problem has occurred when the threshold is equal to or greater than the threshold;
If only the functions of the apparatus can not execute the solutions to solve the previous Kitoi problem, control means for performing control to execute the solutions that utilize elements other than the self apparatus,
To function as,
The detection means further changes the threshold according to the attribute of the person detected by the status collection means by referring to the information stored in the storage means.
program.
JP2017002408A 2016-10-19 2017-01-11 Robot apparatus and program Active JP6439806B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017002408A JP6439806B2 (en) 2017-01-11 2017-01-11 Robot apparatus and program
US15/642,665 US10987804B2 (en) 2016-10-19 2017-07-06 Robot device and non-transitory computer readable medium
CN201710924391.XA CN108297092B (en) 2017-01-11 2017-09-30 Robot apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017002408A JP6439806B2 (en) 2017-01-11 2017-01-11 Robot apparatus and program

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2018208458A Division JP6721023B2 (en) 2018-11-05 2018-11-05 Information processing device and program
JP2018208618A Division JP6721024B2 (en) 2018-11-06 2018-11-06 Information processing device and program

Publications (2)

Publication Number Publication Date
JP2018111154A JP2018111154A (en) 2018-07-19
JP6439806B2 true JP6439806B2 (en) 2018-12-19

Family

ID=62869849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017002408A Active JP6439806B2 (en) 2016-10-19 2017-01-11 Robot apparatus and program

Country Status (2)

Country Link
JP (1) JP6439806B2 (en)
CN (1) CN108297092B (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109120968A (en) * 2018-08-14 2019-01-01 上海常仁信息科技有限公司 A kind of system and method for robot and display screen wireless transmission projection
EP3862838B1 (en) * 2018-10-03 2022-08-17 Sony Group Corporation Control device for mobile unit, control method for mobile unit, and program
JP7396303B2 (en) 2019-01-15 2023-12-12 ソニーグループ株式会社 Remote control device, mobile device, communication control method, and program
KR102386353B1 (en) 2020-09-17 2022-04-12 유진기술 주식회사 Telepresence robot and manless store managing method using the same
CN112294208A (en) * 2020-10-30 2021-02-02 江苏美的清洁电器股份有限公司 Cleaning robot map display method and device
KR20240005511A (en) * 2022-07-05 2024-01-12 삼성전자주식회사 Robot of performing a specific service and control method thereof

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100509308C (en) * 2002-03-15 2009-07-08 索尼公司 Robot behavior control system, behavior control method, and robot device
JP2003291083A (en) * 2002-03-28 2003-10-14 Toshiba Corp Robot device, robot controlling method, and robot delivery system
JP2005111637A (en) * 2003-10-10 2005-04-28 Ntt Data Corp Network robot service system
JP4588359B2 (en) * 2004-05-07 2010-12-01 富士通株式会社 Network robot function providing system and function providing method
JP2007249801A (en) * 2006-03-17 2007-09-27 Nippon Telegr & Teleph Corp <Ntt> Robot cooperation system
JP2007245317A (en) * 2006-03-17 2007-09-27 Nippon Telegr & Teleph Corp <Ntt> Robot controller, program, and robot control method
JP6069607B2 (en) * 2013-03-26 2017-02-01 株式会社国際電気通信基礎技術研究所 Robot service linkage system and platform
US20160314621A1 (en) * 2015-04-27 2016-10-27 David M. Hill Mixed environment display of attached data
CN105751196A (en) * 2016-04-12 2016-07-13 华南理工大学 Operating method on basis of master-slave industrial robot collaboration
CN106056207B (en) * 2016-05-09 2018-10-23 武汉科技大学 A kind of robot depth interaction and inference method and device based on natural language

Also Published As

Publication number Publication date
CN108297092B (en) 2022-09-20
JP2018111154A (en) 2018-07-19
CN108297092A (en) 2018-07-20

Similar Documents

Publication Publication Date Title
JP6439806B2 (en) Robot apparatus and program
US10987804B2 (en) Robot device and non-transitory computer readable medium
US20190105771A1 (en) Display control device, display control method, computer program product, and communication system
US20180136465A1 (en) Mobile terminal and controlling method thereof
US11284042B2 (en) Mobile robot, system and method for capturing and transmitting image data to remote terminal
JP7130929B2 (en) Information processing device, program and control method
JP7106827B2 (en) Information processing device, program and control method
US11514705B2 (en) Information processing apparatus and non-transitory computer readable medium to allow operation without contact
JP2018067139A (en) Information processing apparatus and program
JP2019049901A (en) Information processor and program
US10567608B2 (en) Information processing apparatus and non-transitory computer readable medium
JP6981118B2 (en) Information processing equipment, programs and control methods
JP6447689B1 (en) Information processing apparatus and program
US20210397695A1 (en) Information processing apparatus and non-transitory computer readable medium
JP6721023B2 (en) Information processing device and program
US11223729B2 (en) Information processing apparatus and non-transitory computer readable medium for instructing an object to perform a specific function
JP2021013159A (en) Information processing apparatus, telepresence robot, site control system, remote control system, information processing method, and program
JP6721024B2 (en) Information processing device and program
JP2019139306A (en) Information processing device and program
JP2022014758A (en) Information processing device and program
JP2019050552A (en) Information processing apparatus and program
JP2019040468A (en) Information processing apparatus and program
JP7119445B2 (en) Information processing device and program
US11310376B2 (en) Image processing apparatus for providing notification of a function selected using an aerial image
US20190054628A1 (en) Information processing apparatus and non-transitory computer readable medium

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181105

R150 Certificate of patent or registration of utility model

Ref document number: 6439806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350