JP2017119337A - Robot, robot control method and robot program - Google Patents

Robot, robot control method and robot program Download PDF

Info

Publication number
JP2017119337A
JP2017119337A JP2015257490A JP2015257490A JP2017119337A JP 2017119337 A JP2017119337 A JP 2017119337A JP 2015257490 A JP2015257490 A JP 2015257490A JP 2015257490 A JP2015257490 A JP 2015257490A JP 2017119337 A JP2017119337 A JP 2017119337A
Authority
JP
Japan
Prior art keywords
robot
voice
unit
information
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015257490A
Other languages
Japanese (ja)
Other versions
JP6711621B2 (en
Inventor
信夫 大和
Nobuo Yamato
信夫 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vstone Co Ltd
Original Assignee
Vstone Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vstone Co Ltd filed Critical Vstone Co Ltd
Priority to JP2015257490A priority Critical patent/JP6711621B2/en
Publication of JP2017119337A publication Critical patent/JP2017119337A/en
Application granted granted Critical
Publication of JP6711621B2 publication Critical patent/JP6711621B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot which can control output of personal information of a user on the basis of the disclosure range reflecting the intent of the user in communication between the user and the robot.SOLUTION: A robot includes: a reception unit which receives a message transmitted from a terminal owned by a user; a voice input unit which acquires the voice emitted from the user; a generation unit which generates voice information on the basis of the voice; a reception unit which receives designation of the disclosure range of at least one of the message and voice information; an association unit which associates the message or voice information with the disclosure range; and a control unit which controls a mechanism for making the robot perform an action, and controls output of personal information included in the message or voice information.SELECTED DRAWING: Figure 2

Description

本発明は、ロボット、ロボット制御方法およびロボットプログラムに関し、特に、ユーザの個人情報等の開示範囲に基づいて出力を制御するロボット、ロボット制御方法およびロボットプログラムに関する。   The present invention relates to a robot, a robot control method, and a robot program, and more particularly, to a robot, a robot control method, and a robot program that control output based on a disclosure range of user personal information and the like.

近年、ユーザとの共生を目的としたコミュニケーションロボットが普及しつつある。ユーザは、この様なコミュニケーションロボットに対して、ペット同様に気軽に、例えば他の人間には話せないような極めてプライベート性の高い話から、世間一般に広く知れ渡る話まで多岐に渡る話をして、コミュニケーションを図ることがある。この時の会話の内容は、個人情報保護の観点からセキュリティの必要性が高まりつつある。   In recent years, communication robots aimed at coexistence with users are becoming popular. Users can talk to such communication robots as easily as pets, for example, from a very private story that cannot be spoken to other people, to a story that is widely known to the general public, May communicate. The content of the conversation at this time is becoming increasingly necessary from the viewpoint of protecting personal information.

一方、ユーザがコミュニケーションロボットに話しかける内容は、他人の目(評価や意見)を気にせずに本音で話す内容も多いため、企業にとって貴重な情報であり、ビックデータとして、新しい市場、見えなかったニーズ、未来に向けた戦略等、これまで成し得なかった企業の発展に利用する価値を持つ。   On the other hand, the content that the user talks to the communication robot is precious information for companies because there are many content that does not care about other people's eyes (evaluation and opinion), so it is valuable information for the company, I could not see a new market as big data It has value to be used for the development of companies that could not be achieved so far, such as needs and strategies for the future.

特許文献1には、他のロボットと情報を共有するための通信機能を有するロボットであり、共有情報の世代管理を行う技術が開示されている。この技術は、他のロボットとの共有情報に対し上記の適切な制限と加えることで、著作権やプライバシーの問題発生を未然に防ぐための技術に関するものである。   Japanese Patent Application Laid-Open No. 2004-228561 is a robot having a communication function for sharing information with other robots, and discloses a technique for performing generation management of shared information. This technique relates to a technique for preventing copyright and privacy problems from occurring by adding the above-mentioned appropriate restrictions to information shared with other robots.

特許文献2には、アプリケーション又はグループへの参加する端末に対して、端末の識別情報と、アプリケーション又はグループの識別情報が対応付けられた属性情報に基づいて、プライベートな関係情報の共有を制御する技術が開示されている。この技術は、ユーザ間のプライベートな関係情報及び人物間仲介の情報流出を防ぐための技術に関するものである。   Patent Document 2 controls the sharing of private relation information for terminals participating in an application or group based on attribute information in which terminal identification information and application or group identification information are associated with each other. Technology is disclosed. This technique relates to a technique for preventing private relation information between users and information leakage through intermediary between persons.

特開2005−279830号公報JP 2005-279830 A 特開2008−003809号公報JP 2008-003809 A

しかしながら、特許文献1の技術では、送信相手と、共有する情報の種類に応じて世代数および暗号化処理を設定するため、ユーザの意図が考慮されず、ユーザの意図しない情報の共有がされるおそれがある。   However, in the technique of Patent Document 1, since the number of generations and encryption processing are set according to the type of information to be shared with the transmission partner, the intention of the user is not taken into consideration, and the information not intended by the user is shared. There is a fear.

また、特許文献2の技術においても、ユーザ、端末、グループ等の識別情報(例えば、人物のID)に基づいて、プライベートな関係情報の共有を制御するため、ユーザの意図しない情報の共有がされるおそれがある。   Also in the technique of Patent Document 2, sharing of private related information is controlled based on identification information (for example, person ID) of a user, a terminal, a group, etc., so that information unintended by the user is shared. There is a risk.

そこで、本発明は、上記問題に鑑みてなされたものであり、ユーザとロボットの会話において、ユーザの開示範囲の指定に基づき、ユーザの個人情報の出力を制御するロボット、ロボット制御方法およびロボットプログラムを提供することを目的とする。   Accordingly, the present invention has been made in view of the above problems, and a robot, a robot control method, and a robot program that control output of personal information of a user based on designation of a disclosure range of the user in a conversation between the user and the robot The purpose is to provide.

本発明に係るロボットは、ユーザが所有する端末から送信されたメッセージを受信する受信部と、ユーザから発せられた音声を取得する音声入力部と、音声に基づいて、音声情報を生成する生成部と、メッセージまたは音声情報の少なくともいずれか一つの開示範囲の指定を受け付ける受付部と、メッセージまたは音声情報と、開示範囲を対応付ける対応付け部と、ロボットにアクションさせるための機構を制御し、対応付けに基づいて、メッセージまたは音声情報に含まれる個人情報の出力を制御する制御部とを備える。   The robot according to the present invention includes a receiving unit that receives a message transmitted from a terminal owned by a user, a voice input unit that acquires a voice emitted from the user, and a generation unit that generates voice information based on the voice. A reception unit that accepts specification of at least one disclosure range of message or voice information, an association unit that associates the message or voice information with the disclosure range, and a mechanism for causing the robot to act and associate And a control unit for controlling the output of personal information included in the message or voice information.

さらに、本発明に係るロボットにおいて、対応付け部は、メッセージまたは音声情報と、メッセージの受信日時または音声情報の生成日時から所定の時間内に指定された開示範囲を対応付けるものであってもよい。   Furthermore, in the robot according to the present invention, the associating unit may associate the message or voice information with the disclosure range designated within a predetermined time from the date and time when the message was received or the date and time when the voice information was generated.

本発明に係るロボットは、ユーザが所有する端末から送信されたメッセージを受信する受信部と、ユーザから発せられた音声を取得し、音声情報を生成する音声入力部と、メッセージまたは音声情報の少なくともいずれか一つに付帯する情報から開示範囲を判定する判定部と、ロボットにアクションさせるための機構を制御し、判定に基づいて、メッセージまたは音声情報に含まれる個人情報の出力を制御する制御部とを備える。   A robot according to the present invention includes a receiving unit that receives a message transmitted from a terminal owned by a user, a voice input unit that acquires voice uttered by the user and generates voice information, and at least a message or voice information A determination unit that determines the disclosure range from information attached to any one of the above, and a control unit that controls a mechanism for causing the robot to act, and controls output of personal information included in the message or voice information based on the determination With.

さらに、本発明に係るロボットにおいて、制御部は、開示範囲に基づいて、ロボットのアクションを決定するものであってもよい。   Furthermore, in the robot according to the present invention, the control unit may determine the action of the robot based on the disclosure range.

さらに、本発明に係るロボットは、ユーザが所有する端末にメッセージを送信する送信部と、発声情報を生成し、該発声情報に基づいて音声を出力する音声出力部とをさらに備え、受付部は、メッセージの送信または音声の出力の少なくともいずれか一つのユーザによる出力範囲の指定を受け付け、制御部は、個人情報に対応付けられた開示範囲と出力範囲に基づいて、送信部または音声出力部の少なくともいずれか一つのメッセージまたは音声情報に含まれる個人情報の出力を制御するものであってもよい。   Furthermore, the robot according to the present invention further includes a transmission unit that transmits a message to a terminal owned by the user, and a voice output unit that generates utterance information and outputs a voice based on the utterance information. The control unit accepts the specification of the output range by at least one user of message transmission or voice output, and the control unit determines whether the transmission unit or the voice output unit is based on the disclosure range and the output range associated with the personal information. It may control output of personal information included in at least one message or voice information.

さらに、本発明に係るロボットは、ユーザの個人情報、および、ロボットの使用に係る契約期間またはロボットの最大バッテリー量の少なくともいずれか一つを記憶する記憶部をさらに備え、制御部は、ある時点の日時情報と契約期間との比較、または、ある時点のバッテリー量と最大バッテリー量との比較に基づいて、個人情報を段階的に一部または全部を消去するものであってもよい。   Furthermore, the robot according to the present invention further includes a storage unit that stores the user's personal information and at least one of a contract period related to the use of the robot or the maximum battery amount of the robot, and the control unit The personal information may be partially or entirely deleted step by step based on the comparison between the date and time information and the contract period, or the comparison between the battery amount at a certain point in time and the maximum battery amount.

本発明に係るロボット制御方法は、ユーザが所有する端末から送信されたメッセージを受信する受信ステップと、ユーザから発せられた音声を取得する音声入力ステップと、音声に基づいて、音声情報を生成する生成ステップと、メッセージまたは音声情報の少なくともいずれか一つの開示範囲の指定を受け付ける受付ステップと、メッセージまたは音声情報と、開示範囲を対応付ける対応付けステップと、ロボットにアクションさせるための機構を制御し、対応付けに基づいて、メッセージまたは音声情報に含まれる個人情報の出力を制御する制御ステップとを含む。   The robot control method according to the present invention generates voice information based on a reception step of receiving a message transmitted from a terminal owned by a user, a voice input step of acquiring voice emitted from the user, and the voice. Controlling a generation step, a reception step for accepting designation of at least one disclosure range of message or voice information, an association step for associating the message or voice information with the disclosure range, and a mechanism for causing the robot to act, And a control step of controlling output of personal information included in the message or the voice information based on the association.

本発明に係るロボットプログラムは、ロボットに搭載されるコンピュータを制御するプログラムであって、ユーザが所有する端末から送信されたメッセージを受信する受信機能と、ユーザから発せられた音声を取得する音声入力機能と、音声に基づいて、音声情報を生成する生成機能と、メッセージまたは音声情報の少なくともいずれか一つの開示範囲の指定を受け付ける受付機能と、メッセージまたは音声情報と、開示範囲を対応付ける対応付け機能と、ロボットにアクションさせるための機構を制御し、対応付けに基づいて、メッセージまたは音声情報に含まれる個人情報の出力を制御する制御機能と、をコンピュータにより実現させる。   A robot program according to the present invention is a program for controlling a computer mounted on a robot, and includes a reception function for receiving a message transmitted from a terminal owned by a user and a voice input for acquiring a voice uttered by the user. A function, a generation function for generating voice information based on voice, a reception function for accepting designation of at least one of message or voice information disclosure range, and a correspondence function for associating a message or voice information with a disclosure range And a control function for controlling the mechanism for causing the robot to act and controlling the output of personal information included in the message or voice information based on the correspondence.

本発明に係るロボットは、ユーザが所有する端末から送信されたメッセージを受信する受信部と、ユーザから発せられた音声を取得する音声入力部と、音声に基づいて、音声情報を生成する生成部と、メッセージまたは音声情報の少なくともいずれか一つの開示範囲の指定を受け付ける受付部と、メッセージまたは音声情報と、開示範囲を対応付ける対応付け部と、ロボットにアクションさせるための機構を制御し、対応付けに基づいて、メッセージまたは音声情報に含まれる個人情報の出力を制御する制御部とを備える。これらの構成により、本発明に係るロボットは、ユーザの指定した開示範囲に基づいて、簡易にユーザの個人情報ごとに、ユーザの意図を反映して出力を制御することができる。   The robot according to the present invention includes a receiving unit that receives a message transmitted from a terminal owned by a user, a voice input unit that acquires a voice emitted from the user, and a generation unit that generates voice information based on the voice. A reception unit that accepts specification of at least one disclosure range of message or voice information, an association unit that associates the message or voice information with the disclosure range, and a mechanism for causing the robot to act and associate And a control unit for controlling the output of personal information included in the message or voice information. With these configurations, the robot according to the present invention can easily control the output reflecting the user's intention for each user's personal information based on the disclosure range designated by the user.

本発明のロボット、ロボット制御方法及びロボットプログラムは、ユーザの個人情報の出力の制御において、ユーザの意図を反映した開示範囲に基づいて制御をすることができる。   The robot, the robot control method, and the robot program of the present invention can control the output of personal information of the user based on the disclosure range reflecting the user's intention.

ロボットシステム500の構成の一例を示すシステム図System diagram showing an example of the configuration of the robot system 500 ロボット100、サーバ200、ユーザ端末300の機能構成の例を示すブロック図The block diagram which shows the example of a function structure of the robot 100, the server 200, and the user terminal 300 実施形態1に係るロボットの動作を説明するための模式図Schematic diagram for explaining the operation of the robot according to the first embodiment. 実施形態2に係るロボットの動作を説明するための模式図Schematic diagram for explaining the operation of the robot according to the second embodiment. ユーザの個人情報と、ユーザ指定の開示範囲と、ユーザ指定の出力範囲と、通信状態と、出力の有無との対応付けの一例を説明するためのデータ構成図Data configuration diagram for explaining an example of correspondence between user personal information, user-specified disclosure range, user-specified output range, communication status, and presence / absence of output 音声等による開示範囲等の指定から出力を制御してアクションを決定するまでのロボット100の動作を示すフローチャート図The flowchart figure which shows operation | movement of the robot 100 from controlling designation | designated of the disclosure range etc. by audio | voice etc. to controlling an output and determining an action. 契約期間等の記憶から個人情報を消去するまでのロボットの動作を示すフローチャート図The flowchart figure which shows operation | movement of the robot until it erase | eliminates personal information from memory | storage of contract periods etc.

以下、本発明の一実施態様について、図面を参照しながら説明する。
<実施の形態>
<概要>
図1は、ロボットシステム500の構成の一例を示すシステム図である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
<Embodiment>
<Overview>
FIG. 1 is a system diagram showing an example of the configuration of the robot system 500.

図1に示すように、ロボットシステム500は、サーバ200、ユーザの携帯端末300a、ユーザ端末300a及びロボット100を含み、サーバ100は、ネットワーク400を介して、ユーザ端末300a、ユーザ端末300bおよびロボット100と通信接続される。なお、図1において、説明を簡単にするために、サーバ200、ロボット100は1台、ユーザ端末は2台だけ示してあるが、これ以上存在してもよいことは言うまでもない。また、ユーザ端末300aの具体的な機器は、図示のように、スマートフォンに限定されず、例えば、携帯端末、タブレット端末、パーソナルコンピュータ、その他の電子機器であってもよい。さらに、ユーザ端末300bは、図示のように、デスクトップ型パソコンに限定されず、例えば、ノート型パソコン、シンクライアントシステムのクライアント機器、その他の電子機器であってもよい。なお、以下においては、特に区別の必要がない場合に、ユーザ端末を総称して、ユーザ端末300と記載する。   As shown in FIG. 1, the robot system 500 includes a server 200, a user portable terminal 300 a, a user terminal 300 a, and a robot 100, and the server 100 is connected via a network 400 to the user terminal 300 a, the user terminal 300 b, and the robot 100. Communication connection. In FIG. 1, for simplicity of explanation, only one server 200 and one robot 100 and two user terminals are shown, but it goes without saying that there may be more than this. In addition, the specific device of the user terminal 300a is not limited to a smartphone as illustrated, and may be, for example, a mobile terminal, a tablet terminal, a personal computer, or other electronic devices. Further, as illustrated, the user terminal 300b is not limited to a desktop personal computer, and may be, for example, a notebook personal computer, a client device of a thin client system, or other electronic devices. In the following description, user terminals are collectively referred to as user terminals 300 when there is no particular need for distinction.

ユーザの携帯端末300aとロボット100は、一般的なインスタントメッセージングシステムを用いてメッセージのやり取り、いわゆるチャットを行うことができるシステムを構成する。ロボット100は、ユーザの携帯端末300aが送信したメッセージを、ネットワーク400を介して受信する。受信したメッセージに含まれるアプリケーションを指示する情報に基づき、アプリケーション131を選択し、選択したアプリケーション131に基づいて、ロボットが動作することもできる。アプリケーション131は、一例として、サーバ100にアプリケーションサーバとしての機能を備えさせ、当該アプリケーションサーバからユーザの要求に応じて、ユーザの携帯端末300aに端末アプリケーション部191として、または、ロボット100のアプリケーション131としてダウンロードおよびインストールできるため、汎用性のあるロボットの動作を実現することができる。   The user's portable terminal 300a and the robot 100 constitute a system that can exchange messages, that is, so-called chat, using a general instant messaging system. The robot 100 receives the message transmitted from the user's mobile terminal 300 a via the network 400. The application 131 can be selected based on the information indicating the application included in the received message, and the robot can operate based on the selected application 131. As an example, the application 131 causes the server 100 to have a function as an application server, and as a terminal application unit 191 on the user's portable terminal 300a or as an application 131 of the robot 100 according to a user request from the application server. Since it can be downloaded and installed, a versatile robot operation can be realized.

<構成>
以下、ロボット100、サーバ200、ユーザ端末300の構成について詳細に説明する。
図2は、サーバ200、ロボット100、ユーザ端末200の機能構成の例を示すブロック図である。なお、各部の配置においては、ロボット100、サーバ200、ユーザ端末300間で動作環境等に応じて適宜変更してもよい。例えば、ロボット100の対応付け部122、判定部123はサーバ200の制御部220に配置してもよい。
<Configuration>
Hereinafter, the configurations of the robot 100, the server 200, and the user terminal 300 will be described in detail.
FIG. 2 is a block diagram illustrating examples of functional configurations of the server 200, the robot 100, and the user terminal 200. In addition, in arrangement | positioning of each part, you may change suitably according to an operating environment etc. between the robot 100, the server 200, and the user terminal 300. FIG. For example, the association unit 122 and the determination unit 123 of the robot 100 may be arranged in the control unit 220 of the server 200.

以下、ロボット100の機能構成の例を説明する。一例として、図2に示すように、ロボット100は、通信部110と、制御部120と、記憶部130と、触覚検知部140と、撮影部150と、音声入力部160と、音声出力部170と、受付部180を、電源部190含んで構成される。   Hereinafter, an example of a functional configuration of the robot 100 will be described. As an example, as illustrated in FIG. 2, the robot 100 includes a communication unit 110, a control unit 120, a storage unit 130, a tactile sense detection unit 140, a photographing unit 150, a voice input unit 160, and a voice output unit 170. The reception unit 180 includes a power supply unit 190.

通信部110は、送信部111、受信部112、インタフェース113を含み、ネットワーク400を介して、ユーザの端末300、サーバ200と通信(各種データ、メッセージの送受信等)を実行する機能を有する。当該通信は有線、無線のいずれでもよく、また、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。さらに、当該通信は、セキュリティを確保するために、暗号化処理を施してもよい。   The communication unit 110 includes a transmission unit 111, a reception unit 112, and an interface 113, and has a function of executing communication (various data, message transmission / reception, etc.) with the user terminal 300 and the server 200 via the network 400. The communication may be either wired or wireless, and any communication protocol may be used as long as mutual communication can be performed. Further, the communication may be subjected to an encryption process in order to ensure security.

ここで、「メッセージ」とは、テキストメッセージに限らず、画像(写真、イラスト)、音声、動画等およびこれらに付帯する情報(イラストに付帯する意味情報、画像、音声、動画に付帯する日付および位置等に関する情報)が含まれる。また、メッセージには、ロボット100に対する指示情報も含まれる。ここで、「指示情報」とは、記憶部130に記憶されるアプリケーション131に対し、指示対象のアプリケーション131を指定する情報と、指定したアプリケーション131の処理を行うための入力情報(引数等)をいう。また、ここで「イラストに付帯する意味情報」とは、は、例えば、インスタントメッセージングシステムで用いられるスタンプ等のイラストに付与されているイラストを意味するテキスト情報をいう。ハートのイラストであった場合、当該テキスト情報は、好き、嬉しい、愛している等といったイラストから観念される意味を示した文字列となる。   Here, the “message” is not limited to the text message, but includes images (photos, illustrations), sounds, videos, and the like and information attached thereto (semantic information attached to the illustrations, dates attached to the images, sounds, and videos, and Information on position etc.). The message also includes instruction information for the robot 100. Here, “instruction information” refers to information for designating the application 131 to be designated for the application 131 stored in the storage unit 130 and input information (such as an argument) for performing processing of the designated application 131. Say. Here, the “semantic information attached to the illustration” refers to text information indicating an illustration attached to an illustration such as a stamp used in an instant messaging system, for example. In the case of an illustration of a heart, the text information is a character string indicating the meaning conceived from an illustration such as likes, joys, and loves.

また、画像には、ユーザ端末300からロボット100に送られてきた写真データを含む。写真データは、ユーザ端末300で撮影された画像あってもよいし、カメラや他の端末で撮影された画像であってもよい。また、画像や動画に付帯する日付に関する付帯情報は、画像および動画の撮影時の日付、時刻に関する情報をいう。また、位置に関する付帯情報とは、撮影時の位置情報であって、例えば、緯度及び経度情報等をいう。   Further, the image includes photo data sent from the user terminal 300 to the robot 100. The photograph data may be an image photographed by the user terminal 300, or an image photographed by a camera or another terminal. Further, the supplementary information related to dates attached to images and moving images refers to information related to dates and times when images and moving images are taken. Further, the incidental information regarding the position is position information at the time of photographing, for example, latitude and longitude information.

送信部111は、ネットワーク400を介して、制御部120の制御に従って、各部(制御部120、記憶部130等)から伝達されたメッセージ、対応付け部122の対応付けの結果、判定部123の判定結果等の各種データを、サーバ200、ユーザ端末300に送信する機能を有する。   The transmission unit 111 transmits a message transmitted from each unit (the control unit 120, the storage unit 130, etc.) via the network 400 according to the control of the control unit 120, the correlation result of the correlation unit 122, and the determination by the determination unit 123. It has a function of transmitting various data such as results to the server 200 and the user terminal 300.

受信部112は、ネットワーク400を介して、ユーザ端末300から送信されたメッセージを、サーバ200から送信されたロボット100の制御等のための各種データ、配布されたアプリケーションを受信し、当該メッセージに含まれるデータ、各種データ、アプリケーションを各部に伝達する機能を有する。   The receiving unit 112 receives a message transmitted from the user terminal 300 via the network 400, various data for controlling the robot 100 transmitted from the server 200, and a distributed application, and is included in the message. It has a function to transmit data, various data, and applications to each unit.

インタフェース113は、他の端末又は媒体と、無線又は有線による接続を行うものである。インタフェース113は、具体的には、WiFi(Wireless Fidelity)、HDMI(登録商標)(High-Definition Multimedia Interface)、USB(Universal Serial Bus)、電源コネクタ、I2C(Inter-Integrated Circuit)等の接続装置をいう。   The interface 113 is used for wireless or wired connection with another terminal or medium. Specifically, the interface 113 is a connection device such as WiFi (Wireless Fidelity), HDMI (registered trademark) (High-Definition Multimedia Interface), USB (Universal Serial Bus), power connector, and I2C (Inter-Integrated Circuit). Say.

制御部120は、ロボット100をアクションさせるための各機構、各部を制御する機能を有するプロセッサである。制御部120は、生成部121、対応付け部122、判定123を含む。制御部120は、具体的には、記憶部140に記憶されているプログラムまたはアプリケーション131から出力された命令を受信し、当該命令に基づいて、各機構等を動作させるよう制御する。ここで、各機構、各部とは、ロボットが備える胴体部、腕部、首部、眼球部、瞼部または口部等の自由度のある駆動装置を備える駆動部や、画像や動画を撮影する撮影部、接触を検知する触覚検知部、対象物との距離感覚を検知する距離感覚検知部、音声を入力する音声入力部160、音声を出力する音声出力部170等の構造部をいう。   The control unit 120 is a processor having functions for controlling each mechanism and each unit for causing the robot 100 to act. The control unit 120 includes a generation unit 121, an association unit 122, and a determination 123. Specifically, the control unit 120 receives a program stored in the storage unit 140 or a command output from the application 131, and controls each mechanism or the like to operate based on the command. Here, each mechanism and each part refers to a driving unit provided with a flexible driving device such as a body part, an arm part, a neck part, an eyeball part, a buttocks part, or a mouth part included in the robot, or a photographing that captures an image or a moving image. And a tactile sense detection unit that detects contact, a distance sensation detection unit that detects a sense of distance from an object, a sound input unit 160 that inputs sound, and a sound output unit 170 that outputs sound.

また、制御部120は、対応付け部122から伝達されたメッセージまたは音声情報と、開示範囲の対応付けに基づいて、メッセージまたは音声情報に含まれる個人情報の出力を制御する機能も有する。ここで、ユーザの「個人情報」とは、ユーザ個人に関する情報であり、例えば、ユーザの氏名、性別、生年月日、年齢、本籍、住所、住民票コード、マイナンバー、固定電話・携帯電話の番号、勤務場所、職業、収入(月収、年収)、家族、ユーザまたはユーザの関係者が写った写真、指紋、静脈パターン、虹彩、DNAの塩基配列などの生体情報、メールアドレス、コンピュータネットワークのIPアドレス・リモートホスト・MACアドレス・HTTP cookieなどの情報で、かつ個人を特定できる場合に該当する等の情報をいう。   The control unit 120 also has a function of controlling output of personal information included in the message or voice information based on the correspondence between the message or voice information transmitted from the correlation unit 122 and the disclosure range. Here, the “personal information” of the user is information relating to the individual of the user, for example, the user's name, gender, date of birth, age, permanent address, address, resident card code, my number, landline / mobile phone Number, work place, occupation, income (monthly income, annual income), family, user or related person's photo, fingerprint, vein pattern, iris, DNA base sequence and other biological information, email address, computer network IP Information such as address, remote host, MAC address, HTTP cookie, etc. and applicable to cases where an individual can be identified.

具体的には、例えば、制御部120は、メッセージと、メッセージに含まれる個人情報について開示対象を「本人のみ」、通信状態を「Offline」とする開示範囲が対応付けられた場合に、当該対応付けに基づいて、通信状態がOfflineの時に、周囲に本人しかいないことを認識した場合のみ、当該個人情報を出力(例えば、音声出力部170が音声で当該個人情報の内容を発する等)しないよう制御することができる。これにより、ユーザが指定した開示範囲に基づいて個人情報を開示させることができるため、ユーザは安心してプライベート性の高い話をロボット100にすることができ、また、ユーザの意図した個人情報の開示をすることができ、使い勝手のよいセキュリティ性の高いロボットを提供することができる。   Specifically, for example, the control unit 120 responds when a disclosure range corresponding to a message and personal information included in the message is associated with a disclosure range of “only the person” and a communication state of “Offline”. Based on the attachment, the personal information is not output (for example, the voice output unit 170 utters the content of the personal information by voice) only when it is recognized that there is only the person around when the communication state is offline. Can be controlled. As a result, the personal information can be disclosed based on the disclosure range designated by the user, so that the user can safely talk to the robot 100 with the privacy and the disclosure of the personal information intended by the user. It is possible to provide a robot with high security that is easy to use.

また、制御部120は、判定部123から伝達されたメッセージまたは音声情報に付帯する情報と、開示範囲の判定に基づいて、メッセージまたは音声情報に含まれる個人情報の出力を制御する機能も有する。具体的には、例えば、制御部120は、メッセージのヘッダ部またはフッタ部等に秘密のレベルが高いことを示す付帯情報が付帯していた場合、当該付帯情報からメッセージに含まれる個人情報の開示範囲について開示対象を「本人のみ」、通信状態を「Offline」と判定し、当該判定結果に基づいて、通信状態がOfflineの時に、周囲に本人しかいないことを認識した場合のみ、当該個人情報を出力(例えば、音声出力部170が音声で当該個人情報の内容を発する等)しないよう制御することができる。これにより、メッセージごと開示範囲を指定操作しなくとも、メッセージごとに個人情報の出力を制御させることができるため、ユーザは安心してプライベート性の高い話をロボット100にすることができ、使い勝手のよいセキュリティ性の高いロボットを提供することができる。   The control unit 120 also has a function of controlling the output of personal information included in the message or voice information based on the information attached to the message or voice information transmitted from the determination unit 123 and the determination of the disclosure range. Specifically, for example, when the accompanying information indicating that the secret level is high is attached to the header part or the footer part of the message, the control unit 120 discloses the personal information included in the message from the accompanying information. Only when the subject of disclosure is determined to be “person only” and the communication status is “Offline”, and based on the determination result, when the communication status is offline, it is recognized that there is only one person around. It can be controlled not to output (for example, the voice output unit 170 emits the content of the personal information by voice). Accordingly, since it is possible to control the output of personal information for each message without designating the disclosure range for each message, the user can make the robot 100 a highly private story with peace of mind, which is easy to use. A highly secure robot can be provided.

また、制御部120は、個人情報の開示範囲に基づいて、ロボット100のアクションを決定する機能を有する。具体的には、例えば、制御部120は、開示範囲について開示対象を「家族・友人」とし、通信状態を「Online」とする場合、現在の通信状態が「Online」とする場合において、本人および家族や友人の所有するユーザ端末300として記憶部130に記憶されているアドレス宛にしか、当該個人情報を含めたメッセージを送信しないようにロボット100にアクションさせることができる。また、現在の通信状態が「Offline」とする場合において、撮影部150が撮影した画像を制御部120で画像認識により人物を特定し、不特定の人物および特定した人物の中で本人および家族や友人以外の人物が含まれているときは、当該個人情報を含めた発話をしないようロボット100にアクションさせることができる。これにより、ユーザの指定した開示範囲に基づいて、ロボット100がアクションするため、ユーザの意図が反映された上で、セキュリティ性の高いロボットを提供することができる。   Further, the control unit 120 has a function of determining the action of the robot 100 based on the disclosure range of personal information. Specifically, for example, when the disclosure target is “family / friend” and the communication state is “Online” with respect to the disclosure range, the control unit 120 The robot 100 can be caused to act so as not to transmit a message including the personal information only to an address stored in the storage unit 130 as the user terminal 300 owned by a family member or a friend. Further, when the current communication state is “Offline”, a person is identified by image recognition by the control unit 120 using an image taken by the photographing unit 150, and the person, family, When a person other than a friend is included, the robot 100 can be caused to take an action so as not to make a speech including the personal information. Thereby, since the robot 100 acts based on the disclosure range designated by the user, it is possible to provide a robot with high security while reflecting the user's intention.

また、制御部120は、ユーザの個人情報に対応付けられた開示範囲と出力範囲に基づいて、送信部111または音声出力部170の少なくともいずれか一つのメッセージまたは音声情報に含まれる個人情報の出力を制御する機能を有する。具体的には、例えば、制御部120は、メッセージと、メッセージに含まれる個人情報について開示対象を「本人のみ」、通信状態を「Offline」とする開示範囲が対応付けられ、かつ、受付部180から出力範囲(出力対象)を「家族・友人」との指定が伝達された場合に、当該対応付けられた開示範囲と出力範囲に基づいて、通信状態がOfflineの時に、周囲に本人しかいないことを認識した場合のみ、当該個人情報を出力(例えば、音声出力部170が音声で当該個人情報の内容を発する等)しないよう制御することができる。これにより、ユーザが指定した開示範囲に基づいて個人情報を開示させることができるため、ユーザは安心してプライベート性の高い話をロボット100にすることができ、また、ユーザの意図した個人情報の開示をすることができ、使い勝手のよいセキュリティ性の高いロボットを提供することができる。   Further, the control unit 120 outputs personal information included in at least one message or audio information of the transmission unit 111 or the audio output unit 170 based on the disclosure range and the output range associated with the personal information of the user. It has a function to control. Specifically, for example, the control unit 120 associates a disclosure range of a message and personal information included in the message with a disclosure target “only the person” and a communication state “Offline”, and the reception unit 180. When the designation of “family / friends” is transmitted as the output range (output target) from, based on the corresponding disclosure range and output range, when the communication status is offline, there is only the person around Only when it is recognized, the personal information can be controlled not to be output (for example, the voice output unit 170 utters the content of the personal information by voice). As a result, the personal information can be disclosed based on the disclosure range designated by the user, so that the user can safely talk to the robot 100 with the privacy and the disclosure of the personal information intended by the user. It is possible to provide a robot with high security that is easy to use.

また、制御部120は、ある時点の日時情報とロボット100の契約期間との比較、または、ある時点のバッテリー量と最大バッテリー量の比較に基づいて、ユーザの個人情報を段階的にまたは全部消去することができる。具体的には、例えば、制御部120は、バッテリー量が最大バッテリー量と比較して、その差分が所定の量以下になった時に、記憶部130に記憶するユーザの個人情報を(1)フル記憶、(2)部分消去、(3)完全消去といったように段階的に、または一挙に消去することができる。または、ロボット100は、契約期間までの残りの使用期間(契約期間から最新の日時情報を差し引いた期間)が所定の期間以下になった時に、記憶部130に記憶するユーザの個人情報を(1)フル記憶、(2)部分消去、(3)完全消去といったように段階的に、または一挙に消去することができる。   In addition, the control unit 120 erases the user's personal information stepwise or entirely based on a comparison between the date and time information at a certain point in time and the contract period of the robot 100 or a comparison between the battery amount and the maximum battery amount at a certain point in time. can do. Specifically, for example, the control unit 120 compares (1) full user personal information stored in the storage unit 130 when the battery amount is less than a predetermined amount compared to the maximum battery amount. Erasing can be performed in stages, such as storage, (2) partial erasure, (3) complete erasure, etc. Alternatively, when the remaining usage period until the contract period (the period obtained by subtracting the latest date / time information from the contract period) becomes equal to or less than a predetermined period, the robot 100 stores the personal information of the user stored in the storage unit 130 as (1 The data can be erased in stages or all at once, such as full storage, (2) partial erase, and (3) complete erase.

また、制御部120は、音声出力部170に、ロボット100は、バッテリー量が所定の量付近まで減った際にユーザに「早く充電しないと記憶が消えちゃうよ〜」といったように、消去を予告するアラートのための音声を発するよう制御することもできる。または、ロボット100は、音声出力部170に契約期間までの残りの使用期間(契約期間から最新の日時情報を差し引いた期間)が所定の期間付近まで減った際にもユーザに「もう少しで契約満了だよ〜思い出が消えかかっているよ〜」といったように、消去を予告するアラートのための音声を発するよう制御することができる。これらにより、ユーザに積極的にバッテリー量の充電や契約期間の更新を促すことができ、ユーザに継続的に使用してもらえるロボットを提供することができる。また、これらにより、ユーザは積極的にロボットに関わるきっかけを作り、また、継続してロボットを使用してもらうよう促し、ユーザに密着したロボットを提供することができる。   Also, the control unit 120 informs the audio output unit 170 that the robot 100 will notify the user that the battery will be erased, such as “The memory will be erased if it is not charged quickly” when the battery amount is reduced to a predetermined amount. It can also be controlled to emit a sound for alerting. Alternatively, when the remaining usage period until the contract period (the period obtained by subtracting the latest date / time information from the contract period) is reduced to the vicinity of the predetermined period, the robot 100 informs the user that “the contract expires in a little more time”. It can be controlled to emit a sound for an alert for notifying deletion, such as “It ’s almost disappearing”. Accordingly, it is possible to actively prompt the user to charge the battery amount or update the contract period, and it is possible to provide a robot that can be used continuously by the user. In addition, by this, the user can actively create an opportunity to relate to the robot, prompt the user to continue to use the robot, and provide a robot that is in close contact with the user.

生成部121は、各部が検知、撮影、取得等したデータに基づいて、他の部で処理するための情報を生成する機能を有する。例えば、生成部121は、外部からの接触を検知した結果に基づいて、接触情報を生成することができる。具体的には、生成部121は、触覚検知部140から伝達された接触の圧力、人間等が自然に放射する赤外線による温度変化等を検知した結果に基づいて、または、当該検知した結果と記憶部130に記憶する所定の期間累積した検知した結果に基づいて、接触情報を生成する。ここで、「接触情報」とは、(1)接触位置(例えば、ロボットの腕部の末端に配置した触覚検知部140が接触を検知した場合であれば、「手」と位置する等)、(2)接触量(所定の期間における累積した接触検知回数、接触頻度(年月日単位での接触検知回数)、累積接触時間、所定期間における平均接触時間(時分秒/年月日単位))、(3)接触時の圧力量(Pa、kgf/m2)、(4)接触時の温度変化量(℃)等の情報をいう。生成部121は、生成した接触情報を制御部120に伝達する。   The generation unit 121 has a function of generating information for processing by other units based on data detected, photographed, acquired, and the like by each unit. For example, the production | generation part 121 can produce | generate contact information based on the result of having detected the contact from the outside. Specifically, the generation unit 121 stores the detection result based on the detection result of the contact pressure transmitted from the tactile sense detection unit 140, the temperature change caused by the infrared rays naturally radiated by humans or the like. The contact information is generated based on the detection result accumulated for a predetermined period stored in the unit 130. Here, the “contact information” means (1) a contact position (for example, if the tactile sense detection unit 140 arranged at the end of the arm part of the robot detects contact, it is positioned as “hand”). (2) Contact amount (accumulated number of contact detections in a given period, contact frequency (number of contact detections in year / month / day), cumulative contact time, average contact time in a given period (hour / minute / second / year / month / day) ), (3) pressure information (Pa, kgf / m2) at the time of contact, (4) temperature change amount (° C) at the time of contact, and the like. The generation unit 121 transmits the generated contact information to the control unit 120.

また、生成部121は、撮影部150から伝達された撮影した結果(画像)に基づいて、画像認識を行い、形状色彩情報を生成する。画像認識については、例えば、パターンマッチング、統計的識別法、構造識別法等を用いればよい。ここで、「形状色彩情報」は、撮影対象物の形状情報と色彩情報から構成される。具体的には、例えば、生成部121は、当該撮影した画像の特徴量(形状特徴量、濃淡特徴量)を抽出し、当該特徴量からパターンマッチング等を用いて物体の形状を推定し、形状情報を生成することができる。また、生成部121は、例えば、(1)画像の各ピクセルをRGB(Red Green Blue)空間に写像する。(2)ピクセルの分布範囲が最も広いRGBのいずれかの軸を対象に、ピクセル数が等分になるように空間を分割する。(3)分割された空間のうち、最もピクセルの分布範囲が大きい軸を持つ空間を次の分割対象とする。(2)〜(3)を繰り返して、必要な個数までRGB空間を分割する。(4)分割された部分空間毎に、その部分空間に含まれるピクセルの平均色を出すことで、色彩情報を生成することができる。生成部121は、生成した形状色彩情報を制御部120に伝達する。   In addition, the generation unit 121 performs image recognition based on the captured result (image) transmitted from the imaging unit 150, and generates shape color information. For image recognition, for example, pattern matching, statistical identification method, structure identification method or the like may be used. Here, the “shape color information” includes shape information and color information of the object to be photographed. Specifically, for example, the generation unit 121 extracts a feature amount (shape feature amount, grayscale feature amount) of the captured image, estimates the shape of the object from the feature amount using pattern matching, and the like. Information can be generated. Further, the generation unit 121, for example, (1) maps each pixel of the image to an RGB (Red Green Blue) space. (2) The space is divided so that the number of pixels is equally divided with respect to one of RGB axes having the widest pixel distribution range. (3) Among the divided spaces, a space having an axis with the largest pixel distribution range is set as the next division target. (2) to (3) are repeated to divide the RGB space to the required number. (4) For each divided partial space, color information can be generated by calculating an average color of pixels included in the partial space. The generation unit 121 transmits the generated shape color information to the control unit 120.

さらに、生成部121は、距離感覚検知部180が周囲の人や物体とロボット100の距離などを計測した結果に基づいて距離情報を生成する。具体的には、例えば、生成部121は、距離感覚検知部180から伝達された距離、人や対象物との距離を計測した結果に基づいて、または、当該計測した結果と記憶部130に記憶する所定の期間累積した計測した結果に基づいて、距離情報を生成する。ここで、「距離情報」とは、(1)最新の人や対象物ごとの距離(cm、m)、(2)所定の期間累積した距離データ群(cm、m)、(3)所定の期間の累積した距離の平均の距離(cm、m)等の情報をいう。生成部121は、生成した距離情報を制御部120に伝達する。   Further, the generation unit 121 generates distance information based on the result of the distance sense detection unit 180 measuring the distance between the surrounding person or object and the robot 100. Specifically, for example, the generation unit 121 stores the measured result and the storage unit 130 based on the distance transmitted from the distance sense detection unit 180 or the result of measuring the distance to a person or an object. The distance information is generated based on the measurement result accumulated for a predetermined period. Here, “distance information” includes (1) distance (cm, m) for each latest person or object, (2) distance data group (cm, m) accumulated for a predetermined period, (3) predetermined distance This refers to information such as the average distance (cm, m) of the accumulated distance over a period. The generation unit 121 transmits the generated distance information to the control unit 120.

また、生成部121は、音声入力部160が取得した音声に基づいて音声情報を生成する。生成部121は、生成した音声情報を制御部120に伝達する。   Further, the generation unit 121 generates audio information based on the audio acquired by the audio input unit 160. The generation unit 121 transmits the generated audio information to the control unit 120.

対応付け部122は、受信部112から伝達されたメッセージまたは生成部121から伝達された音声情報と、受付部180から伝達された開示範囲を対応付ける機能を有する。具体的には、例えば、対応付け部122は、メッセージに付帯する情報(送信日時、受信日時情報)または音声情報に含まれる日時情報(音声情報生成時の日時情報、音声取得時の日時情報)と、指定された開示範囲の指定の受付日時情報とを比較して、基準とする所定の時間(例えば、数秒、数分等、ロボット100の仕様によって適宜設定すればよい)内に双方の日時が収まるか否か判定し、収まる場合にはこれらの対応付けを行うことができる。なお、当該対応付けは、所定の時間内での対応付け以外にも、メッセージや音声情報の内容について形態素解析をしてキーワードを抽出し、当該キーワードが所定の基準以上に合致する場合に対応付けてもよい。これにより、ユーザの手動によってメッセージごとに開示範囲を指定する必要がなく、ユーザの意図が反映された個人情報保護ができ、かつ、使い勝手のよいロボットを提供することができる。   The association unit 122 has a function of associating the message transmitted from the reception unit 112 or the voice information transmitted from the generation unit 121 with the disclosure range transmitted from the reception unit 180. Specifically, for example, the associating unit 122 includes information attached to the message (transmission date / time, reception date / time information) or date / time information included in the voice information (date / time information when generating the voice information, date / time information when acquiring the voice). And the designated reception date / time information of the designated disclosure range, both dates and times within a predetermined time (for example, several seconds, several minutes, etc., depending on the specifications of the robot 100). Whether or not can be determined, and if so, they can be associated with each other. In addition to the association within a predetermined time, the association is performed when a keyword is extracted by performing morphological analysis on the content of the message or voice information, and the association is performed when the keyword matches a predetermined criterion or more. May be. Accordingly, it is not necessary to manually specify the disclosure range for each message by the user, and it is possible to protect the personal information reflecting the user's intention and provide a user-friendly robot.

判定部123は、メッセージ、取得した音声または撮影した顔の画像の少なくともいずれか一つに付帯する情報基づいて、メッセージ、取得した音声または撮影した顔の画像の開示範囲を判定する機能を有する。具体的には、例えば、判定部123は、メッセージに付帯する情報(秘密の指定(高、中、低)、送信日時、受信日時情報など)、音声情報に含まれる日時情報(音声情報生成時の日時情報、音声取得時の日時情報など)または画像情報に含まれる日時情報(画像情報生成時の日時情報、画像撮影時の日時情報など)に基づいて、例えば、メッセージに付帯する情報として秘密の指定が「高」だった場合、開示範囲について開示対象を「本人」、通信情報を「Offline」と判定することができる。   The determination unit 123 has a function of determining the disclosure range of the message, the acquired sound, or the captured face image based on information attached to at least one of the message, the acquired sound, or the captured face image. Specifically, for example, the determination unit 123 includes information attached to the message (secret designation (high, medium, low), transmission date / time, reception date / time information, etc.), date / time information included in the voice information (during voice information generation) Date / time information, date / time information at the time of voice acquisition) or date / time information included in the image information (date / time information at the time of image information generation, date / time information at the time of image shooting, etc.) Is designated as “high”, the disclosure target can be determined as “person” and the communication information as “Offline”.

記憶部130は、ロボット100が動作、制御するうえで必要とする各種プログラム、データ、パラメータを記憶する機能を有する。また、記憶部130は、アプリケーション131、ユーザ情報(ユーザの個人情報を含む)、ユーザの個人情報の開示範囲、音声情報、距離情報、ロボット100の使用に係る契約期間、最大バッテリー量、ユーザの個人情報とユーザの開示範囲と出力範囲と通信状態と出力の有無との対応付け等を記憶することができる。また、記憶部130は、接触情報、距離情報を、所定の期間累積して記憶することができる。当該所定の期間は、最初にロボット100に電源が入ったときから電源が落ちるまでの期間としてもよいし、予め数日、1ヶ月、数カ月、1年、数年等の定めた期間としてもいいし、記憶部130の記憶容量に従って設定する期間としてもよい。記憶部130は、典型的には、HDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリ(SD(Secure Digital)メモリーカード)等各種の記録媒体により実現される。ここで、「ユーザ情報」とは、ユーザの個人情報と、ユーザ個人に関する情報であり、かつ、ユーザを特定できない情報(例えば、ユーザID、趣味などの情報)とを含んだ情報いう。   The storage unit 130 has a function of storing various programs, data, and parameters necessary for the robot 100 to operate and control. In addition, the storage unit 130 includes application 131, user information (including user personal information), user personal information disclosure range, voice information, distance information, a contract period related to use of the robot 100, a maximum battery amount, It is possible to store correspondences between personal information, a user disclosure range, an output range, a communication state, and presence / absence of output. The storage unit 130 can accumulate and store contact information and distance information for a predetermined period. The predetermined period may be a period from when the robot 100 is first turned on until the power is turned off, or may be a predetermined period such as several days, one month, several months, one year, several years, etc. The period may be set according to the storage capacity of the storage unit 130. The storage unit 130 is typically realized by various recording media such as an HDD (Hard Disc Drive), an SSD (Solid State Drive), and a flash memory (SD (Secure Digital) memory card). Here, “user information” refers to information including personal information of the user and information relating to the individual user and information that cannot identify the user (for example, information such as a user ID and a hobby).

アプリケーション131は、受信部112がサーバ200、ユーザ端末300から受信したメッセージに含まれる指示情報に基づいて、ロボット100を動作させるための処理を行い、制御部120に命令を出力する。なお、図2において、説明を簡単にするためにアプリケーション131は2つだけ示してあるが、これ以上存在してもよいことは言うまでもない。   The application 131 performs processing for operating the robot 100 based on the instruction information included in the message received by the receiving unit 112 from the server 200 and the user terminal 300, and outputs a command to the control unit 120. In FIG. 2, only two applications 131 are shown for simplicity of explanation, but it goes without saying that more applications may exist.

また、アプリケーション131は、サーバ100のアプリマーケットサーバに登録されているアプリケーションとしてもよい。アプリマーケットサーバは、アプリケーションの流通を目的としたオンラインサービスを提供する。アプリマーケットサーバは、具体的には、開発者が作成したアプリケーションを登録することができ、登録されたアプリケーションをユーザの要求に応じて、ロボット100にダウンロードすることができる。アプリマーケットサーバのオンラインサービスの利用の料金体系は、ダウンロード毎の課金制にしてもよいし、定額制にしてもよい。   Further, the application 131 may be an application registered in the application market server of the server 100. The application market server provides an online service for the purpose of distributing applications. Specifically, the application market server can register an application created by a developer, and can download the registered application to the robot 100 in response to a user request. The charge system for using the online service of the application market server may be a charge system for each download or a flat-rate system.

触覚検知部140は、外部からの接触を検知する機能を有する。典型的には、触覚検知部140は、感圧センサ、感熱センサ、温度センサ等で実現してもよい。具体的には、例えば、触覚検知部140は、接触の圧力、人や動物等が自然に放射する赤外線による温度変化等を検知する。触覚検知部140は、当該検知した結果を生成部121に伝達する。触覚検知部140は、一例として(1)接触位置(例えば、ロボットの腕部の末端に配置した触覚検知部140が接触を検知した場合であれば、「手」と位置する等)、(2)接触量(接触検知回数、接触時間(時分秒/年月日単位))、(3)接触時の圧力量(Pa、kgf/m2)、(4)接触時の温度変化量(℃)を検知する。また、触覚検知部140は、当該検知の際の日時情報を検知結果に含めてもよい。触覚検知部140は、当該検知した結果を、生成部121に伝達する。なお、触覚検知部140は、図2において、頭部と腕部の末端と脚部の末端の5つ配置しているが、配置箇所および個数においてはこれに限られないことは言うまでもない。   The tactile sense detection unit 140 has a function of detecting contact from the outside. Typically, the tactile sense detection unit 140 may be realized by a pressure sensor, a heat sensor, a temperature sensor, or the like. Specifically, for example, the tactile sense detection unit 140 detects a pressure of contact, a temperature change due to infrared rays naturally radiated by a person or an animal, and the like. The tactile sense detection unit 140 transmits the detection result to the generation unit 121. As an example, the tactile sense detection unit 140 includes (1) a contact position (for example, if the tactile sense detection unit 140 disposed at the end of the arm part of the robot detects contact, it is positioned as “hand”), (2 ) Contact amount (number of contact detection, contact time (hour / minute / second / year / month)), (3) Pressure amount at contact (Pa, kgf / m2), (4) Temperature change at contact (° C) Is detected. Moreover, the tactile sense detection unit 140 may include date and time information at the time of the detection in the detection result. The tactile sense detection unit 140 transmits the detection result to the generation unit 121. In FIG. 2, five tactile sense detection units 140 are arranged, that is, the head, the end of the arm, and the end of the leg, but it goes without saying that the arrangement location and the number are not limited to this.

撮影部150は、ロボット100がレンズ越しに捉えている周囲の人又は景色等の静止画または動画を記録することで撮影する機能を有する。具体的には、例えば、撮影部150は、ロボット100を基準として所定領域内の対象物を撮影することができる。撮像部150は、CCD(Charge-Coupled Device)イメージセンサまたはCMOS(Complementary MOS)イメージセンサにより光信号を電気信号に変換することで画像を取得するものである。撮像部150は、デジタルカメラと同様の機能を有する。   The photographing unit 150 has a function of photographing by recording a still image or a moving image such as a surrounding person or a landscape captured by the robot 100 through the lens. Specifically, for example, the photographing unit 150 can photograph an object in a predetermined area with the robot 100 as a reference. The imaging unit 150 acquires an image by converting an optical signal into an electrical signal by a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary MOS) image sensor. The imaging unit 150 has the same function as a digital camera.

音声入力部160は、ロボット100がユーザの発声する音声を初めとした周囲の音を取得する機能を有する。音声入力部160は、具体的には、モノラルマイク又はステレオマイク等により実現される。   The voice input unit 160 has a function of acquiring ambient sounds including the voice uttered by the user by the robot 100. Specifically, the voice input unit 160 is realized by a monaural microphone or a stereo microphone.

音声出力部170は、ロボット100が音声を出力する機能を有する。当該音声は、音声合成による音声出力であっても、声優等が吹き込んだ音声による音声出力であってもよい。また、音声出力部170は、制御部120の制御に従って、記憶部130に記憶されている内容から発声情報を生成し、当該発声情報を音声出力することもできる。   The voice output unit 170 has a function for the robot 100 to output voice. The voice may be a voice output by voice synthesis, or a voice output by voice in which a voice actor or the like is blown. In addition, the voice output unit 170 can generate utterance information from the content stored in the storage unit 130 and output the utterance information by voice under the control of the control unit 120.

受付部180は、メッセージまたは音声情報の少なくともいずれか一つの開示範囲の指定を受け付ける機能を有する。具体的には、例えば、受付部180は、タッチパネルまたは押しボタンスイッチを備えて、ユーザの操作により開示範囲の指定を受け付けることができる。受付部180は、例えば、3段階の押しボタンスイッチとして、当該ボタンを最も深く押している押し具合のときは「本人のみ」、中間の押し具合のときは、「家族・友人」、最も浅く押している押し具合のときは、「オープン」と開示範囲を段階的に設定した場合、当該押し具合に応じて、受信したメッセージ、取得した音声の開示範囲の指定を受け付けることができる。   The reception unit 180 has a function of receiving specification of at least one disclosure range of message or voice information. Specifically, for example, the accepting unit 180 includes a touch panel or a push button switch, and can accept specification of a disclosure range by a user operation. The reception unit 180 is, for example, a three-stage push button switch that is “only the person” when the button is pressed most deeply, and “family / friends” when the button is pressed in the middle, and is pressed most shallowly. If the disclosure range is set stepwise as “open”, it is possible to accept the specification of the disclosure range of the received message and the acquired voice according to the pressing status.

また、受付部180は、メッセージまたは音声情報に含まれる、または、付帯する情報から開示範囲の指定を受け付けることもできる。例えば、受付部180は、メッセージに含まれる内容から個人情報と、開示範囲の指定を抽出(例えば、キーワードを「秘密」「秘匿」「内緒」としてキーワード検索による抽出など)し、抽出した個人情報と、当該個人情報の開示範囲を例えば「本人」「Online」として受け付ける。   In addition, the reception unit 180 can also receive specification of a disclosure range from information included in or attached to a message or voice information. For example, the reception unit 180 extracts personal information and disclosure range designation from the content included in the message (for example, extraction by keyword search with keywords as “secret”, “confidential”, and “secret”), and the extracted personal information Then, the disclosure range of the personal information is accepted as, for example, “person” or “Online”.

また、受付部180は、メッセージの送信または前記音声の出力の少なくともいずれか一つのユーザによる出力範囲の指定を受け付けることもできる。具体的には、例えば、受付部180は、開示範囲とは別途、タッチパネルまたは押しボタンスイッチを備えて、ユーザの操作により出力範囲の指定を受け付けることができる。受付部180は、例えば、3段階の押しボタンスイッチとして、当該ボタンを最も深く押している押し具合のときは「本人のみ」、中間の押し具合のときは、「家族・友人」、最も浅く押している押し具合のときは、「オープン」と出力範囲を段階的に設定した場合、当該押し具合に応じて、メッセージの送信、音声出力の出力範囲の指定を受け付けることができる。   The receiving unit 180 can also receive an output range specification by at least one of the user who transmits a message or outputs the voice. Specifically, for example, the accepting unit 180 includes a touch panel or a push button switch separately from the disclosure range, and can accept designation of an output range by a user operation. The reception unit 180 is, for example, a three-stage push button switch that is “only the person” when the button is pressed most deeply, and “family / friends” when the button is pressed in the middle, and is pressed most shallowly. At the time of pressing, when “open” and the output range are set stepwise, it is possible to accept the transmission of a message and the specification of the output range of audio output according to the pressing state.

また、受付部180は、メッセージまたは音声情報に含まれる出力範囲の指定を受け付けることもできる。例えば、受付部180は、メッセージに含まれる内容から出力範囲の指定を抽出、抽出した出力範囲を例えば「本人」「Online」として受け付けることができる。   The accepting unit 180 can also accept designation of an output range included in a message or voice information. For example, the accepting unit 180 can extract the designation of the output range from the content included in the message, and accept the extracted output range as, for example, “person” or “Online”.

また、受付部180は、通知部181を含んで構成してもよい。通知部131は、指定された開示範囲に基づいて、ユーザに当該開示範囲を通知することができる。当該通知にあたっては、例えば、通知部181は、照光灯、表示灯等のランプを備えて、当該ランプの点灯具合によって、現在の開示範囲をユーザに通知することができる。   The reception unit 180 may include the notification unit 181. The notification unit 131 can notify the user of the disclosure range based on the specified disclosure range. In the notification, for example, the notification unit 181 includes a lamp such as an illumination lamp or an indicator lamp, and can notify the user of the current disclosure range depending on how the lamp is lit.

電源部190は、ロボット100の電気を供給するものである。ユーザ端末300aを保持したユーザが、ロボット100に近付くと、ロボット100のインタフェース113が、ユーザ端末300a、または、ユーザ端末300aの端末アプリケーション部341から発せられる無線通信信号を受信し、電源部190が、自動で電源のオンを行うようにしてもよい。   The power supply unit 190 supplies electricity for the robot 100. When the user holding the user terminal 300a approaches the robot 100, the interface 113 of the robot 100 receives a wireless communication signal issued from the user terminal 300a or the terminal application unit 341 of the user terminal 300a, and the power supply unit 190 Alternatively, the power may be automatically turned on.

また、ロボット100は、距離感覚検知部195(不図示)を含んで構成してもよい。距離感覚検知部は、周囲の人や物体との距離を計測する機能を有する。距離感覚検知部195は、典型的には、超音波センサ、赤外線センサ、近接センサ、変位センサ等により実現される。具体的には、例えば、距離感覚検知部195は、撮影部150が撮影した画像から、画像認識により周囲の人や物体の中からユーザ等の対象物を特定し、当該特定したユーザ等の対象物に向けて超音波を発信し、その反射波を受波器で受信することにより、超音波の発信から受信までに要した時間と音速との関係を演算することでセンサからユーザ等の対象物までの距離を算出し、対象物の有無や対象物までの距離を計測することができる。距離感覚検知部195は、当該計測した結果を生成部121に伝達する。
以上が、ロボット100の機能構成の例の説明である。
Further, the robot 100 may include a distance sense detection unit 195 (not shown). The distance sensation detection unit has a function of measuring the distance to surrounding people and objects. The distance sense detection unit 195 is typically realized by an ultrasonic sensor, an infrared sensor, a proximity sensor, a displacement sensor, or the like. Specifically, for example, the distance sensation detection unit 195 identifies an object such as a user from surrounding people and objects by image recognition from the image captured by the imaging unit 150, and the identified object such as the user By transmitting the ultrasonic wave toward the object and receiving the reflected wave by the receiver, the relationship between the time required from the transmission of the ultrasonic wave to reception and the speed of sound is calculated, and the target from the sensor to the user. The distance to the object can be calculated, and the presence or absence of the object and the distance to the object can be measured. The distance sense detection unit 195 transmits the measurement result to the generation unit 121.
The above is an explanation of an example of the functional configuration of the robot 100.

以下、サーバ200の機能構成の例を説明する。一例として、図2に示すように、サーバ200は、通信部210と、制御部220と、記憶部230とを含んで構成される。   Hereinafter, an example of a functional configuration of the server 200 will be described. As an example, as illustrated in FIG. 2, the server 200 includes a communication unit 210, a control unit 220, and a storage unit 230.

通信部210は、送信部211、受信部212を含み、ネットワーク400を介して、ロボット100、ユーザの端末300と通信(各種データ、メッセージの送受信等)を実行する機能を有する。当該通信は有線、無線のいずれでもよく、また、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。   The communication unit 210 includes a transmission unit 211 and a reception unit 212 and has a function of performing communication (various data, message transmission / reception, etc.) with the robot 100 and the user terminal 300 via the network 400. The communication may be either wired or wireless, and any communication protocol may be used as long as mutual communication can be performed.

受信部211は、ネットワーク400を介して、ユーザ端末300から送信されたメッセージを、ロボット100から送信された対応付け結果や判定結果等の各種データを受信し、当該メッセージに含まれるデータ、各種データを各部に伝達する機能を有する。   The receiving unit 211 receives messages transmitted from the user terminal 300 via the network 400, various data such as association results and determination results transmitted from the robot 100, and includes data and various data included in the messages. Is transmitted to each part.

送信部212は、ネットワーク400を介して、制御部220の制御に従って、各部(制御部220、記憶部230等)から伝達されたメッセージ、データ、アプリケーションを、ロボット100およびユーザ端末300に送信する機能を有する。   The transmission unit 212 has a function of transmitting messages, data, and applications transmitted from each unit (the control unit 220, the storage unit 230, etc.) to the robot 100 and the user terminal 300 through the network 400 according to the control of the control unit 220. Have

制御部220は、サーバ200の各部を制御する機能を有するプロセッサである。   The control unit 220 is a processor having a function of controlling each unit of the server 200.

記憶部230は、サーバ200が動作するうえで必要とする各種プログラム、データおよびパラメータを記憶する機能を有する。具体的には、例えば、記憶部230は、ロボット100から受信した分析結果情報や評価情報等を記憶する。記憶部230は、典型的には、HDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリ等各種の記録媒体により実現される。
以上がサーバ200の機能構成の例の説明である。
The storage unit 230 has a function of storing various programs, data, and parameters required for the operation of the server 200. Specifically, for example, the storage unit 230 stores analysis result information, evaluation information, and the like received from the robot 100. The storage unit 230 is typically realized by various recording media such as an HDD (Hard Disc Drive), an SSD (Solid State Drive), and a flash memory.
The above is an example of the functional configuration of the server 200.

以下、ユーザ端末300の機能構成の例を説明する。一例として、図2に示すように、ユーザ端末300は、通信部310と、制御部320と、表示部330と、記憶部340とを含んで構成される。   Hereinafter, an example of a functional configuration of the user terminal 300 will be described. As an example, as illustrated in FIG. 2, the user terminal 300 includes a communication unit 310, a control unit 320, a display unit 330, and a storage unit 340.

通信部310は、受信部311、送信部312を含み、ネットワーク400を介して、ロボット100、サーバ200と通信(各種データ、メッセージの送受信等)を実行する機能を有する。当該通信は有線、無線のいずれでもよく、また、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。   The communication unit 310 includes a reception unit 311 and a transmission unit 312, and has a function of executing communication (various data, message transmission / reception, etc.) with the robot 100 and the server 200 via the network 400. The communication may be either wired or wireless, and any communication protocol may be used as long as mutual communication can be performed.

受信部311は、ネットワーク400を介して、制御部320の制御に従って、ロボット100から送信されたメッセージ、生成した各種情報、対応付け結果や判定結果等の各種データを、また、サーバ100から送信された制御等のための各種データ、アプリケーションを受信し、当該メッセージに含まれるデータ、各種データ、アプリケーションを各部に伝達する機能を有する。   The receiving unit 311 receives messages transmitted from the robot 100, various information generated, various data such as association results and determination results from the server 100 via the network 400 according to the control of the control unit 320. It has a function of receiving various data and applications for control and transmitting the data, various data, and applications included in the message to each unit.

送信部312は、ネットワーク400を介して、制御部320の制御に従って、各部(制御部320、表示部330、記憶部340等)から伝達されたメッセージ、データ、アプリケーションを、ロボット100、サーバ200に送信する機能を有する。   The transmission unit 312 transmits the message, data, and application transmitted from each unit (the control unit 320, the display unit 330, the storage unit 340, etc.) to the robot 100 and the server 200 via the network 400 according to the control of the control unit 320. It has a function to transmit.

制御部320は、ユーザ端末300の各部を制御する機能を有するプロセッサである。   The control unit 320 is a processor having a function of controlling each unit of the user terminal 300.

表示部330は、制御部320の制御に従い、ロボット100、サーバ200から送信された表示情報等を表示する機能を有するモニタである。典型的には、例えば、LCD(Liquid Crystal Display)ディスプレイ、LED(Light Emitting Diode)ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等を用いればよい。また、表示部330は、ユーザからの入力を受け付ける機能を有する。典型的には、タッチパネル等のソフトキーあるいはハードキーにより実現される。   The display unit 330 is a monitor having a function of displaying display information and the like transmitted from the robot 100 and the server 200 under the control of the control unit 320. Typically, for example, an LCD (Liquid Crystal Display) display, an LED (Light Emitting Diode) display, an OLED (Organic Light Emitting Diode) display, or the like may be used. The display unit 330 has a function of receiving input from the user. Typically, it is realized by a soft key or a hard key such as a touch panel.

記憶部340は、サーバ200が動作するうえで必要とする各種プログラム、データおよびパラメータを記憶する機能を有する。具体的には、例えば、記憶部340は、ロボット100から受信した分析結果情報、評価情報等を記憶する。記憶部340は、典型的には、HDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリ等各種の記録媒体により実現される。
以上が、ユーザ端末300の機能構成の例の説明である。
The storage unit 340 has a function of storing various programs, data, and parameters necessary for the operation of the server 200. Specifically, for example, the storage unit 340 stores analysis result information, evaluation information, and the like received from the robot 100. The storage unit 340 is typically realized by various recording media such as an HDD (Hard Disc Drive), an SSD (Solid State Drive), and a flash memory.
The above is an example of the functional configuration of the user terminal 300.

次に、本実施形態に係るロボット100のユーザとのコミュニケーション時のアクションの一態様について、図3および図4を用いて説明する。   Next, an aspect of the action at the time of communication with the user of the robot 100 according to the present embodiment will be described with reference to FIGS. 3 and 4.

<実施形態1>
図3は、実施形態1に係るロボットのアクションを説明するための模式図である。具体的には、図3は、ユーザ(女性)とロボット100の会話における、ロボット100のアクションの一例と段階的開示範囲、出力範囲のイメージを示す図である。図3に示すように、一例として、ユーザがロボット100に「・・・この内容は秘密ね!」と話しかけた場合、当該音声を音声入力部160が取得し、生成部121が音声情報を生成する。当該生成した音声情報に基づいて、制御部120は、「OK!」と音声出力部170から音声を発する。また、同時に、受付部180は、開示範囲の指定(「秘密ね!」という指定)を分析し、メッセージに含まれる個人情報の開示範囲を例えば「本人」「Online」として受け付ける。対応付け部122はメッセージに含まれる個人情報と、当該受け付けた開示範囲を対応付ける。また、受付部180は、押しボタンスイッチで開示範囲の指定を「本人」として受け付けることもでき、また、その指定されている開示範囲は通知部181のランプの点灯により、通知することもできる(例えば、ロボット100の胴体部分にある●で示した部分)。
<Embodiment 1>
FIG. 3 is a schematic diagram for explaining an action of the robot according to the first embodiment. Specifically, FIG. 3 is a diagram illustrating an example of an action of the robot 100, a stepwise disclosure range, and an image of an output range in a conversation between the user (woman) and the robot 100. As shown in FIG. 3, as an example, when the user speaks to the robot 100 “… This content is secret!”, The voice input unit 160 acquires the voice, and the generation unit 121 generates the voice information. To do. Based on the generated voice information, the control unit 120 emits voice from the voice output unit 170 with “OK!”. At the same time, the accepting unit 180 analyzes the disclosure range designation (designation “secret!”) And accepts the disclosure range of personal information included in the message as, for example, “person” or “Online”. The associating unit 122 associates the personal information included in the message with the accepted disclosure range. In addition, the reception unit 180 can also accept the designation of the disclosure range as a “principal” with a push button switch, and can also notify the designated disclosure range by lighting the lamp of the notification unit 181 ( For example, a portion indicated by ● in the body portion of the robot 100).

また、図3に示すように、ユーザが個人情報の出力範囲を、通信状態を「Online」とし、開示対象を(1)本人、(2)家族・友達、(3)オープンと3段階に設けた中で、例えば、ロボット100が音声出力部170から「ただいま、情報をオープンにしています」と発しているように(3)オープンを指定した場合、開示範囲を「本人」「Online」として指定したユーザの個人情報は、本人のみしか開示されないよう制御部120で制御される。具体的には、ロボット100は、ユーザの本人のユーザ端末300へ送信するメッセージに限定して当該個人情報は含めたり示唆したりするよう出力し、サーバ100を介して、他のユーザのユーザ端末300や連携する企業サーバには一切出力しないよう、制御する。これにより、ユーザのメッセージごとの開示の指定を反映して、メッセージに含まれる個人情報をロボットが利用することができ、セキュリティ性の高い、かつ、ユーザの意図を反映したロボットを提供することができる。   In addition, as shown in FIG. 3, the user sets the output range of personal information to “Online” as the communication state, the disclosure target is (1) himself, (2) family / friends, and (3) open. Among them, for example, if the robot 100 has issued from the voice output unit 170 “I'm opening the information right now” (3) When opening is specified, the disclosure range is specified as “Principal” or “Online” The personal information of the user is controlled by the control unit 120 so that only the user is disclosed. Specifically, the robot 100 outputs only the message transmitted to the user terminal 300 of the user himself / herself so as to include or suggest the personal information, and the user terminal of another user is transmitted via the server 100. It is controlled so that it is not output at all to the corporate server 300 or the linked company server. Accordingly, the robot can use the personal information included in the message reflecting the disclosure specification for each message of the user, and provide a robot with high security and reflecting the user's intention. it can.

<実施形態2>
図4は、実施形態2に係るロボットのアクションを説明するための模式図である。具体的には、図4、ユーザ(女性)とロボット100の個人情報消去に関する会話における、ロボット100のアクションの一例を示す図である。ロボット100は、例えば、図4に示すように、バッテリー量が所定の量以下になると、記憶部130に記憶する個人情報を(1)フル記憶、(2)部分消去、(3)完全消去といったように段階的に、または一挙に消去することができる。ロボット100は、バッテリー量が所定の量付近まで減った際にユーザに「早く充電しないと記憶が消えちゃうよ〜」といったように、消去を予告するアラートのための音声を音声出力部170から発することができる。または、ロボット100は、契約期間までの残りの使用期間(契約期間から最新の日時情報を差し引いた期間)が所定の期間付近まで減った際にもユーザに「もう少しで契約満了だよ〜思い出が消えかかっているよ〜」といったように、消去を予告するアラートのための音声を音声出力部170から発することができる。ロボット100は、バッテリー量が所定の量以下となったとき、または、契約期間が所定の期間をきったとき、ユーザの個人情報を記憶DBとする記憶部130から部分消去または完全消去することができる。これにより、ユーザに積極的にバッテリー量の充電や契約期間の更新を促すことができ、ユーザに継続的に使用してもらえるロボットを提供することができる。
<Embodiment 2>
FIG. 4 is a schematic diagram for explaining the action of the robot according to the second embodiment. Specifically, FIG. 4 is a diagram illustrating an example of an action of the robot 100 in a conversation related to the user (woman) and the robot 100 erasing personal information. For example, as shown in FIG. 4, the robot 100 stores (1) full storage, (2) partial erasure, and (3) complete erasure of personal information stored in the storage unit 130 when the battery amount falls below a predetermined amount. Can be erased step by step or at once. When the battery amount is reduced to the vicinity of the predetermined amount, the robot 100 issues a sound for an alert for notifying the user of the erasure from the sound output unit 170 such as “If the battery is not charged early, the memory will be erased”. be able to. Alternatively, when the remaining usage period until the contract period (the period obtained by subtracting the latest date / time information from the contract period) is reduced to the vicinity of the predetermined period, the robot 100 also notifies the user that “the contract is almost over. The voice output unit 170 can generate a sound for alerting the erasure, such as “It is almost disappearing”. The robot 100 can partially erase or completely erase the personal information of the user from the storage unit 130 as a storage DB when the battery amount becomes a predetermined amount or less, or when the contract period reaches a predetermined period. it can. Accordingly, it is possible to prompt the user to actively charge the battery amount or update the contract period, and it is possible to provide a robot that can be used continuously by the user.

<データ>
ここで、本実施形態において、ロボット100で用いられるユーザの個人情報と、ユーザ指定の開示範囲と、ユーザ指定の出力範囲と、通信状態、出力の有無とこれらの対応付けについて説明する。
図5は、ロボット100の記憶部130に記憶されている当該対応付け情報の例を示すデータ概念図である。
<Data>
Here, in the present embodiment, user personal information used in the robot 100, a user-specified disclosure range, a user-specified output range, a communication state, the presence / absence of an output, and an association thereof will be described.
FIG. 5 is a data conceptual diagram illustrating an example of the association information stored in the storage unit 130 of the robot 100.

図5に示すように、対応付け情報は、ユーザの個人情報ごとに、その開示範囲と出力範囲と、現在の通信状態と、その結果出力されるか否かを特定し得る情報であればどのような情報であってもよく、これ以外の情報を含んでもよいことは言うまでもない。   As shown in FIG. 5, as long as the association information is information that can specify the disclosure range and the output range, the current communication state, and whether or not to be output as a result, for each personal information of the user. Needless to say, such information may be included, and other information may be included.

ユーザの個人情報は、上述のとおりである。ユーザの個人情報は、どのような形で表現されてもよく、例えば、数字、ひらがな、カタカナ、漢字、アルファベット、記号等を用いて表現されてよい。   The personal information of the user is as described above. The user's personal information may be expressed in any form, for example, using numbers, hiragana, katakana, kanji, alphabets, symbols, and the like.

ユーザ指定の開示範囲は、ユーザが指定した個人情報ごとの開示の範囲を表す。ユーザ指定の開示範囲は、図5に示すように、開示対象と通信状態を含んで構成される。ユーザは、開示対象を、例えば、(1)本人、(2)家族・友人、(3)オープンといったように段階的に指定することができる。また、ユーザは、通信状態を、例えば、オフライン(Online)、オンライン(Offline)を指定することができる。なお、ユーザは、開示範囲の指定において、開示対象と通信状態の少なくともいずれか一つを指定すればよい。   The disclosure range specified by the user represents the disclosure range for each personal information specified by the user. As shown in FIG. 5, the user-specified disclosure range is configured to include a disclosure target and a communication state. The user can specify the disclosure target in stages such as (1) the person, (2) family / friends, and (3) open. Further, the user can designate the communication state, for example, offline (Online) or online (Offline). Note that the user may specify at least one of the disclosure target and the communication state in the specification of the disclosure range.

ユーザ指定の出力範囲は、ユーザが指定したその時点のロボット100の情報の出力範囲を表す。図5に示すように、出力対象を含んで構成される。ユーザは、開示対象を、例えば、(1)本人、(2)家族・友人、(3)オープンといったように段階的に指定することができる。現在の通信状態は、ユーザが設定したその時点の通信状態オフライン(Online)、オンライン(Offline)を表す。出力制御は、ユーザ指定の開示範囲とユーザ指定の出力範囲と通信状態との組み合わせに基づいたユーザの個人情報の出力の制御状態を示す。具体的には、例えば、ユーザの個人情報「年齢」に対して、開示対象を「本人」、通信状態を「Offline」、ユーザ指定の出力範囲を「オープン」通信状態が「Online」とするとき、「年齢」は当該組み合わせの中で最も狭い範囲での出力「出力無し」とすることができる。   The output range specified by the user represents the output range of information of the robot 100 at that time specified by the user. As shown in FIG. 5, it is configured to include an output target. The user can specify the disclosure target in stages such as (1) the person, (2) family / friends, and (3) open. The current communication state indicates the communication state offline (Online) or online (Offline) set by the user. The output control indicates the control state of the output of the personal information of the user based on the combination of the disclosure range specified by the user, the output range specified by the user, and the communication state. Specifically, for example, for the personal information “age” of the user, when the subject of disclosure is “Principal”, the communication state is “Offline”, the user-specified output range is “Open”, and the communication state is “Online” , “Age” can be “no output” output in the narrowest range of the combination.

<動作>
本実施の形態に係るロボット100の動作を説明する。
<Operation>
An operation of the robot 100 according to the present embodiment will be described.

図6を用いて、音声等による開示範囲等の指定から出力を制御してアクションを決定するまでのロボット100の動作を説明する。図6は、音声等による開示範囲等の指定から出力を制御してアクションを決定するまでのロボット100の動作を示すフローチャート図である。   With reference to FIG. 6, the operation of the robot 100 from designation of a disclosure range by voice or the like to control of output and determination of an action will be described. FIG. 6 is a flowchart showing the operation of the robot 100 from designation of a disclosure range or the like by voice or the like to control of output and determination of an action.

受信部112は、ユーザが所有するユーザ端末300から送信されたメッセージを受信する(ステップS11)。音声入力部160は、ユーザから発せられた音声を取得する(ステップS12)。生成部121は、取得した音声に基づいて、音声情報を生成する(ステップS13)。メッセージまたは音声情報に対し、開示範囲の指定があった場合(ステップS14の開示範囲の指定)で、ユーザによる指定の場合(ステップS15のユーザの指定)、受付部180は、開示範囲の指定を受け付ける(ステップS16)。開示範囲の指定があった場合(ステップS14の開示範囲の指定)で、付帯情報による判定の場合(ステップS15の付帯情報)、判定部123は、開示範囲を判定する(ステップS17)。対応付け部122は、メッセージまたは音声情報と開示範囲を対応付ける(ステップS18)。制御部120は、当該対応付けに基づいて、ユーザの個人情報の出力を制御する(ステップS19)。   The receiving unit 112 receives a message transmitted from the user terminal 300 owned by the user (step S11). The voice input unit 160 acquires voice uttered by the user (step S12). The generation unit 121 generates audio information based on the acquired audio (step S13). When the disclosure range is designated for the message or the voice information (designation of the disclosure range in step S14) and the designation is made by the user (designation of the user in step S15), the reception unit 180 designates the disclosure range. Accept (step S16). When the disclosure range is designated (designation of the disclosure range in step S14) and the determination is based on the supplementary information (supplemental information in step S15), the determination unit 123 determines the disclosure range (step S17). The associating unit 122 associates the message or voice information with the disclosure range (step S18). The control unit 120 controls the output of the user's personal information based on the association (step S19).

メッセージまたは音声情報に対し、出力範囲の指定があった場合(ステップS14の出力範囲の指定)で、受付部180は、出力範囲の指定を受け付ける(ステップS20)。対応付け部122は、メッセージまたは音声情報と出力範囲を対応付ける(ステップS21)。制御部120は、当該対応付けに基づいて、個人情報の出力を制御する(ステップS22)。制御部120は、開示範囲または出力範囲に基づいて、ロボット100のアクションを決定する(ステップS23)。   When the output range is designated for the message or the voice information (designation of the output range in Step S14), the accepting unit 180 accepts the designation of the output range (Step S20). The associating unit 122 associates the message or voice information with the output range (step S21). The control unit 120 controls the output of personal information based on the association (step S22). The control unit 120 determines the action of the robot 100 based on the disclosure range or the output range (step S23).

次に、ロボット100の契約期間等の記憶から個人情報を消去するまでの動作を説明する。図7は、契約期間等の記憶から個人情報を消去するまでのロボットの動作を示すフローチャート図である。   Next, an operation until the personal information is deleted from the storage of the contract period of the robot 100 will be described. FIG. 7 is a flowchart showing the operation of the robot until the personal information is deleted from the storage of the contract period and the like.

記憶部130は、契約期間および最大バッテリー量を記憶する(ステップS31)。生成部121は、最新日時を取得し日時情報を生成する(ステップS32)。制御部120は当該日時情報と契約期間との差分が所定の期間内に収まるか比較する(ステップS33)。制御部120は、最新のバッテリー量を取得する(ステップS34)。制御部120は、当該バッテリー量と最大バッテリー量との差分が、所定の量内に収まるか比較する(ステップS35)。触覚検知部は、外部からの接触を検知する(ステップS36)。生成部121は、当該検知結果に基づいて接触情報を生成する(ステップS37)。記憶部130は、当該接触情報を累積して記憶する(ステップS38)。制御部120は、累積した接触情報を所定の基準と比較する(ステップS39)。制御部120は、これらの比較結果に基づいて、記憶部130に記憶されているユーザの個人情報を消去する(ステップS40)。
以上が、ロボット100の動作である。
The storage unit 130 stores the contract period and the maximum battery amount (step S31). The generation unit 121 acquires the latest date and time and generates date information (step S32). The control unit 120 compares whether the difference between the date information and the contract period falls within a predetermined period (step S33). The control unit 120 acquires the latest battery amount (step S34). The control unit 120 compares whether the difference between the battery amount and the maximum battery amount falls within a predetermined amount (step S35). The tactile sense detection unit detects contact from the outside (step S36). The generation unit 121 generates contact information based on the detection result (step S37). The storage unit 130 accumulates and stores the contact information (step S38). The control unit 120 compares the accumulated contact information with a predetermined reference (step S39). Based on these comparison results, the control unit 120 deletes the user's personal information stored in the storage unit 130 (step S40).
The above is the operation of the robot 100.

本発明を実施形態と図面に基づき説明してきたが、代表的な実施形態の例を示したものであって、本発明はこの実施形態に限定されるものではない。   Although the present invention has been described based on the embodiment and the drawings, examples of the representative embodiment are shown, and the present invention is not limited to this embodiment.

100 ロボット
110 通信部
120 制御部
130 記憶部
140 触覚検知部
150 撮影部
160 音声入力部
170 音声出力部
180 受付部
190 電源部
200 サーバ
210 通信部(サーバ)
220 制御部(サーバ)
230 記憶部(サーバ)
300 ユーザ端末
310 通信部(ユーザ端末)
320 制御部(ユーザ端末)
330 表示部(ユーザ端末)
340 記憶部(ユーザ端末)
DESCRIPTION OF SYMBOLS 100 Robot 110 Communication part 120 Control part 130 Storage part 140 Tactile sense detection part 150 Image pick-up part 160 Audio | voice input part 170 Audio | voice output part 180 Reception part 190 Power supply part 200 Server 210 Communication part (server)
220 Control unit (server)
230 Storage unit (server)
300 user terminal 310 communication unit (user terminal)
320 Control unit (user terminal)
330 Display unit (user terminal)
340 storage unit (user terminal)

Claims (8)

ユーザが所有する端末から送信されたメッセージを受信する受信部と、
ユーザから発せられた音声を取得する音声入力部と、
前記音声に基づいて、音声情報を生成する生成部と、
前記メッセージまたは前記音声情報の少なくともいずれか一つの開示範囲の指定を受け付ける受付部と、
前記メッセージまたは音声情報と、前記開示範囲を対応付ける対応付け部と、
ロボットにアクションさせるための機構を制御し、前記対応付けに基づいて、前記メッセージまたは音声情報に含まれる個人情報の出力を制御する制御部と、
を備えるロボット。
A receiving unit for receiving a message transmitted from a terminal owned by the user;
A voice input unit for acquiring voice emitted from a user;
A generating unit that generates voice information based on the voice;
An accepting unit that accepts designation of at least one disclosure range of the message or the audio information;
An association unit associating the message or voice information with the disclosure range;
A control unit that controls a mechanism for causing the robot to act, and controls output of personal information included in the message or voice information based on the association;
Robot equipped with.
前記対応付け部は、前記メッセージまたは音声情報と、前記メッセージの受信日時または音声情報の生成日時から所定の時間内に指定された前記開示範囲を対応付けることを特徴とする請求項1に記載のロボット。   2. The robot according to claim 1, wherein the association unit associates the message or the voice information with the disclosure range designated within a predetermined time from the reception date and time of the message or the generation date and time of the voice information. . ユーザが所有する端末から送信されたメッセージを受信する受信部と、
ユーザから発せられた音声を取得し、音声情報を生成する音声入力部と、
前記メッセージまたは前記音声情報の少なくともいずれか一つに付帯する情報から開示範囲を判定する判定部と、
ロボットにアクションさせるための機構を制御し、前記判定に基づいて、前記メッセージまたは音声情報に含まれる個人情報の出力を制御する制御部と、
を備えるロボット。
A receiving unit for receiving a message transmitted from a terminal owned by the user;
A voice input unit that acquires voice generated by a user and generates voice information;
A determination unit that determines a disclosure range from information attached to at least one of the message and the voice information;
A control unit that controls a mechanism for causing the robot to act, and controls output of personal information included in the message or voice information based on the determination;
Robot equipped with.
前記制御部は、
前記開示範囲に基づいて、前記ロボットのアクションを決定することを特徴とする請求項1乃至3のいずれか1項に記載のロボット。
The controller is
The robot according to claim 1, wherein an action of the robot is determined based on the disclosure range.
前記ロボットは、
ユーザが所有する端末にメッセージを送信する送信部と、
発声情報を生成し、該発声情報に基づいて音声を出力する音声出力部とをさらに備え、
前記受付部は、前記メッセージの送信または前記音声の出力の少なくともいずれか一つのユーザによる出力範囲の指定を受け付け、
前記制御部は、前記個人情報に対応付けられた開示範囲と前記出力範囲に基づいて、前記送信部または前記音声出力部の少なくともいずれか一つの前記メッセージまたは音声情報に含まれる個人情報の出力を制御することを特徴とする請求項1乃至4のいずれか1項に記載のロボット。
The robot is
A transmission unit for transmitting a message to a terminal owned by the user;
A voice output unit for generating voice information and outputting voice based on the voice information;
The accepting unit accepts designation of an output range by at least one of the transmission of the message or the output of the voice;
The control unit outputs the personal information included in at least one of the message or the voice information of the transmission unit or the voice output unit based on the disclosure range associated with the personal information and the output range. The robot according to claim 1, wherein the robot is controlled.
前記ロボットは、
ユーザの個人情報、および、前記ロボットの使用に係る契約期間または前記ロボットの最大バッテリー量の少なくともいずれか一つを記憶する記憶部をさらに備え、
前記制御部は、ある時点の日時情報と前記契約期間との比較、または、ある時点のバッテリー量と前記最大バッテリー量との比較に基づいて、前記個人情報を段階的に一部または全部を消去することを特徴とする請求項1乃至5のいずれか1項に記載のロボット。
The robot is
A storage unit for storing personal information of the user and at least one of a contract period related to use of the robot or a maximum battery amount of the robot;
The control unit erases part or all of the personal information step by step based on a comparison between date and time information at a certain point in time and the contract period, or a comparison between a battery amount at a certain point in time and the maximum battery amount. The robot according to any one of claims 1 to 5, wherein:
ユーザが所有する端末から送信されたメッセージを受信する受信ステップと、
ユーザから発せられた音声を取得する音声入力ステップと、
前記音声に基づいて、音声情報を生成する生成ステップと、
前記メッセージまたは前記音声情報の少なくともいずれか一つの開示範囲の指定を受け付ける受付ステップと、
前記メッセージまたは音声情報と、前記開示範囲を対応付ける対応付けステップと、
ロボットにアクションさせるための機構を制御し、前記対応付けに基づいて、前記メッセージまたは音声情報に含まれる個人情報の出力を制御する制御ステップと、
を含むロボット制御方法。
A receiving step of receiving a message transmitted from a terminal owned by the user;
A voice input step for acquiring voice uttered by the user;
Generating step for generating voice information based on the voice;
An accepting step of accepting designation of a disclosure range of at least one of the message and the audio information;
A step of associating the message or voice information with the disclosure range;
A control step of controlling a mechanism for causing the robot to act, and controlling output of personal information included in the message or voice information based on the association;
A robot control method including:
ロボットに搭載されるコンピュータを制御するプログラムであって、
ユーザが所有する端末から送信されたメッセージを受信する受信機能と、
ユーザから発せられた音声を取得する音声入力機能と、
前記音声に基づいて、音声情報を生成する生成機能と、
前記メッセージまたは前記音声情報の少なくともいずれか一つの開示範囲の指定を受け付ける受付機能と、
前記メッセージまたは音声情報と、前記開示範囲を対応付ける対応付け機能と、
ロボットにアクションさせるための機構を制御し、前記対応付けに基づいて、前記メッセージまたは音声情報に含まれる個人情報の出力を制御する制御機能と、
をコンピュータにより実現させるロボットプログラム。
A program for controlling a computer mounted on a robot,
A receiving function for receiving a message sent from a terminal owned by the user;
A voice input function for acquiring voice emitted from the user;
A generation function for generating voice information based on the voice;
A reception function for receiving specification of a disclosure range of at least one of the message and the voice information;
An association function for associating the message or voice information with the disclosure range;
A control function for controlling a mechanism for causing the robot to act, and for controlling output of personal information included in the message or voice information based on the association;
Is a robot program that can be realized by computer.
JP2015257490A 2015-12-28 2015-12-28 Robot, robot control method, and robot program Active JP6711621B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015257490A JP6711621B2 (en) 2015-12-28 2015-12-28 Robot, robot control method, and robot program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015257490A JP6711621B2 (en) 2015-12-28 2015-12-28 Robot, robot control method, and robot program

Publications (2)

Publication Number Publication Date
JP2017119337A true JP2017119337A (en) 2017-07-06
JP6711621B2 JP6711621B2 (en) 2020-06-17

Family

ID=59272037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015257490A Active JP6711621B2 (en) 2015-12-28 2015-12-28 Robot, robot control method, and robot program

Country Status (1)

Country Link
JP (1) JP6711621B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019018962A1 (en) * 2017-07-22 2019-01-31 深圳市萨斯智能科技有限公司 Robot verification method and robot
WO2019181221A1 (en) * 2018-03-20 2019-09-26 ソニー株式会社 Information processing device and information processing system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004230479A (en) * 2003-01-28 2004-08-19 Advanced Telecommunication Research Institute International Communication robot and communication system using the same
JP2007190659A (en) * 2006-01-20 2007-08-02 Advanced Telecommunication Research Institute International Robot remote operation system
JP2014126912A (en) * 2012-12-25 2014-07-07 Sony Corp Information processing device, communication terminal device, and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004230479A (en) * 2003-01-28 2004-08-19 Advanced Telecommunication Research Institute International Communication robot and communication system using the same
JP2007190659A (en) * 2006-01-20 2007-08-02 Advanced Telecommunication Research Institute International Robot remote operation system
JP2014126912A (en) * 2012-12-25 2014-07-07 Sony Corp Information processing device, communication terminal device, and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019018962A1 (en) * 2017-07-22 2019-01-31 深圳市萨斯智能科技有限公司 Robot verification method and robot
WO2019181221A1 (en) * 2018-03-20 2019-09-26 ソニー株式会社 Information processing device and information processing system

Also Published As

Publication number Publication date
JP6711621B2 (en) 2020-06-17

Similar Documents

Publication Publication Date Title
US20220337693A1 (en) Audio/Video Wearable Computer System with Integrated Projector
US10692505B2 (en) Personal assistant application
CN104838642B (en) With founder&#39;s identity or the method and apparatus of scene markers media
TW202105199A (en) Data update method, electronic device and storage medium thereof
US20100060713A1 (en) System and Method for Enhancing Noverbal Aspects of Communication
KR102449670B1 (en) Method for creating video data using cameras and server for processing the method
US10146416B2 (en) Systems and methods for sensory interface
US10304352B2 (en) Electronic device and method for sharing image
KR102386893B1 (en) Method for securing image data and electronic device implementing the same
WO2017197778A1 (en) Image transmission method and device
WO2017219497A1 (en) Message generation method and apparatus
WO2018094911A1 (en) Multimedia file sharing method and terminal device
CN105426485A (en) Image combination method and device, intelligent terminal and server
TW201828152A (en) Feature image acquisition method and apparatus, and user authentication method avoiding a phenomenon that when a facial image rather than a real user is photographed, the photographed image is still considered as an effective feature image of the face
WO2018075523A1 (en) Audio/video wearable computer system with integrated projector
JP6054140B2 (en) Message management apparatus, message presentation apparatus, message management apparatus control method, and message presentation apparatus control method
JP6711621B2 (en) Robot, robot control method, and robot program
US20170034347A1 (en) Method and device for state notification and computer-readable storage medium
JP2017119336A (en) Robot, robot control method, and robot program
US20160019372A1 (en) Systems and methods for obtaining media consent
JP2016085594A (en) Portrait right protection program, information communication apparatus and portrait right protection method
US10593077B2 (en) Associating digital ink markups with annotated content
KR20210086031A (en) Method for proving original based on block chain and electronic device using the same
US11217253B2 (en) Information processing apparatus, information processing method, and information processing system
CN107239490B (en) Method and device for naming face image and computer readable storage medium

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160105

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160122

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170810

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20171124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200528

R150 Certificate of patent or registration of utility model

Ref document number: 6711621

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250