JP6994781B2 - On-board equipment and vehicles - Google Patents

On-board equipment and vehicles Download PDF

Info

Publication number
JP6994781B2
JP6994781B2 JP2020105300A JP2020105300A JP6994781B2 JP 6994781 B2 JP6994781 B2 JP 6994781B2 JP 2020105300 A JP2020105300 A JP 2020105300A JP 2020105300 A JP2020105300 A JP 2020105300A JP 6994781 B2 JP6994781 B2 JP 6994781B2
Authority
JP
Japan
Prior art keywords
learning
unit
vehicle
robot
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020105300A
Other languages
Japanese (ja)
Other versions
JP2020173453A (en
Inventor
辰美 黒田
博司 前川
勉 足立
寛隆 福田
健司 水野
健純 近藤
茂 林
丈誠 横井
謙史 竹中
Original Assignee
Case特許株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Case特許株式会社 filed Critical Case特許株式会社
Publication of JP2020173453A publication Critical patent/JP2020173453A/en
Priority to JP2021115110A priority Critical patent/JP7122038B2/en
Priority to JP2021197647A priority patent/JP7251833B2/en
Application granted granted Critical
Publication of JP6994781B2 publication Critical patent/JP6994781B2/en
Priority to JP2023032952A priority patent/JP2023065621A/en
Priority to JP2023038727A priority patent/JP7555620B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Robotics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Description

関連出願の参照Reference of related application

本国際出願は、2014年12月25日に日本国特許庁に出願された日本国特許出願第2014-262907号に基づく優先権を主張するものであり、日本国特許出願第2014-262907号の全内容を本国際出願に参照により援用する。 This international application claims priority based on Japanese Patent Application No. 2014-262907 filed with the Japan Patent Office on December 25, 2014, and Japanese Patent Application No. 2014-262907. The entire contents are incorporated in this international application by reference.

本開示はロボットに関する。 This disclosure relates to robots.

近年、人と会話できるロボットが注目されている。このロボットは、人が発音する音声をマイクで取得し、音声認識により音声の意味内容を推定する。そして、推定した意味内容に対し、予め関連付けられた回答を行う(特許文献1参照)。 In recent years, robots that can talk with people have been attracting attention. This robot acquires the voice produced by a person with a microphone and estimates the meaning and content of the voice by voice recognition. Then, an answer associated in advance is given to the estimated meaning and content (see Patent Document 1).

特許第4015424号公報Japanese Patent No. 4015424

ロボットの会話能力を、人工知能等を用いた学習により高めることが考えられる。しかしながら、ある特定のロボットの会話能力を学習により高めたとしても、例えば、異なる場所にある別のロボットを使用する場合、初歩から学習を行わなければならない。本開示は、ロボットの学習に関するユーザの負担を軽減できるロボットを提供することを一側面とする。 It is conceivable to improve the conversation ability of the robot by learning using artificial intelligence or the like. However, even if the conversation ability of a specific robot is enhanced by learning, for example, when using another robot in a different place, learning must be performed from the beginning. One aspect of the present disclosure is to provide a robot that can reduce the burden on the user regarding learning of the robot.

本開示の車載機は、車両の乗員の音声を取得するように構成された音声取得ユニットと、前記音声認識ユニットの認識結果について学習する第1学習ユニットと、前記音声認識ユニットの認識結果に対し、前記第1学習ユニットの学習結果を用いて、回答を発音するように構成された回答発音ユニットと、前記音声取得ユニットが取得した前記音声から、前記車両に対する指示を認識するように構成された指示認識ユニットと、前記指示認識ユニットが認識した前記指示に応じ、プログラムを使用して前記車両の制御内容を決定するように構成された制御内容決定ユニットと、前記制御内容決定ユニットが決定した前記制御内容を、前記車両を制御する車両制御部に出力するように構成された制御内容出力ユニットと、センサを使用して、前記車両の状態を取得するように構成された車両状態取得ユニットと、前記制御内容出力ユニットが出力した前記制御内容と、前記車両状態取得ユニットが取得した前記車両の状態とに基づき学習を行うように構成された第2学習ユニットと、前記第2学習ユニットの学習結果を反映するように前記プログラムを更新するように構成されたプログラム更新ユニットと、を備える。 The in -vehicle device of the present disclosure has a voice acquisition unit configured to acquire the voice of a vehicle occupant, a first learning unit for learning about the recognition result of the voice recognition unit, and a recognition result of the voice recognition unit. , The answer sounding unit configured to pronounce the answer using the learning result of the first learning unit, and the voice acquired by the voice acquisition unit are configured to recognize the instruction to the vehicle. The instruction recognition unit, the control content determination unit configured to determine the control content of the vehicle using a program in response to the instruction recognized by the instruction recognition unit, and the control content determination unit determined by the control content determination unit. A control content output unit configured to output the control content to the vehicle control unit that controls the vehicle, a vehicle state acquisition unit configured to acquire the state of the vehicle using a sensor, and a vehicle state acquisition unit. A second learning unit configured to perform learning based on the control content output by the control content output unit and the state of the vehicle acquired by the vehicle state acquisition unit, and a learning result of the second learning unit. A program update unit configured to update the program to reflect the above .

一実施形態のロボットの電気的構成を表すブロック図である。It is a block diagram which shows the electric structure of the robot of one Embodiment. ロボットの構成を表す正面図である。It is a front view which shows the structure of a robot. ロボットが実行するプログラム設定処理を表すフローチャートである。It is a flowchart which shows the program setting process which a robot executes. ロボットが実行する会話処理を表すフローチャートである。It is a flowchart which shows the conversation process which a robot executes. ロボットが実行する学習停止判断処理を表すフローチャートである。It is a flowchart which shows the learning stop judgment process executed by a robot. 図6Aは学習停止を指示する動作の一例を表す説明図であり、図6Bは、学習再開を指示する動作の一例を表す説明図である。FIG. 6A is an explanatory diagram showing an example of an operation for instructing learning stop, and FIG. 6B is an explanatory diagram showing an example of an operation for instructing learning restart. コンピュータの電気的構成を表すブロック図である。It is a block diagram which shows the electric structure of a computer. コンピュータの外観を表す斜視図である。It is a perspective view which shows the appearance of a computer. 車載機の電気的構成を表すブロック図である。It is a block diagram which shows the electric structure of an in-vehicle device. 車載機が実行する車両制御処理を表すフローチャートである。It is a flowchart which shows the vehicle control process which the on-board unit executes. 別の実施形態のロボットの電気的構成を表すブロック図である。It is a block diagram which shows the electric structure of the robot of another embodiment. ロボットが実行するプログラムインストール処理を表すフローチャートである。It is a flowchart which shows the program installation process which a robot executes. ロボットが実行する会話処理を表すフローチャートである。It is a flowchart which shows the conversation process which a robot executes. ロボットが実行する第2の人工知能ユニット学習停止判断処理を表すフローチャートである。It is a flowchart which shows the 2nd artificial intelligence unit learning stop determination process executed by a robot. ロボットが実行するプログラムアップロード処理を表すフローチャートである。It is a flowchart which shows the program upload process executed by a robot. 更に他の実施形態のロボットの電気的構成を表すブロック図である。It is a block diagram which shows the electric structure of the robot of still another embodiment. ロボットが実行する会話処理を表すフローチャートである。It is a flowchart which shows the conversation process which a robot executes. 通話処理を実行するための構成を表す説明図である。It is explanatory drawing which shows the structure for executing a call processing. ホストコンピュータが実行する通話ペア設定処理を表すフローチャートである。It is a flowchart which shows the call pair setting process executed by a host computer. アイコンを表示しているディスプレイを表す説明図である。It is explanatory drawing which shows the display which displays the icon.

1、301…ロボット、3…制御ユニット、5…マイク、7…カメラ、9…タッチパネル、11…センサ群、13…GPS、15…スピーカ、17…モータ群、19…ディスプレイ、21…入力ユニット、23…標準プログラム記憶ユニット、25…人工知能ユニット、26…通信ユニット、27…演算ユニット、29…出力ユニット、31…クラウドネットワーク、33…端末、35…頭部、37…胴部、39…右腕部、41…左腕部、43…右脚部、45…左脚部、47、49…車輪、51…移動用モータ、53…首関節、55…肩関節、57…肘関節、59…手首関節、61…関節用モータ、63…キーボード、65…マウス、67…筐体、69…端子、71…車両制御部、101…コンピュータ、201…車載機 1, 301 ... robot, 3 ... control unit, 5 ... microphone, 7 ... camera, 9 ... touch panel, 11 ... sensor group, 13 ... GPS, 15 ... speaker, 17 ... motor group, 19 ... display, 21 ... input unit, 23 ... standard program storage unit, 25 ... artificial intelligence unit, 26 ... communication unit, 27 ... arithmetic unit, 29 ... output unit, 31 ... cloud network, 33 ... terminal, 35 ... head, 37 ... body, 39 ... right arm Part, 41 ... left arm, 43 ... right leg, 45 ... left leg, 47, 49 ... wheel, 51 ... mobile motor, 53 ... neck joint, 55 ... shoulder joint, 57 ... elbow joint, 59 ... wrist joint , 61 ... Joint motor, 63 ... Keyboard, 65 ... Mouse, 67 ... Housing, 69 ... Terminal, 71 ... Vehicle control unit, 101 ... Computer, 201 ... In-vehicle device

本開示の実施形態を図面に基づき説明する。
<第1の実施形態>
1.ロボット1の構成
ロボット1の構成を図1、図2に基づき説明する。ロボット1は、図1に示すように、制御ユニット3、マイク5、カメラ7、タッチパネル9、センサ群11、GPS13、スピーカ15、モータ群17、及びディスプレイ19を備える。
The embodiments of the present disclosure will be described with reference to the drawings.
<First Embodiment>
1. 1. Configuration of Robot 1 The configuration of robot 1 will be described with reference to FIGS. 1 and 2. As shown in FIG. 1, the robot 1 includes a control unit 3, a microphone 5, a camera 7, a touch panel 9, a sensor group 11, a GPS 13, a speaker 15, a motor group 17, and a display 19.

制御ユニット3はマイクロコンピュータを備える。制御ユニットは、具体的には、入力ユニット21、標準プログラム記憶ユニット23、人工知能ユニット25、通信ユニット26、演算ユニット27、及び出力ユニット29を備える。 The control unit 3 includes a microcomputer. Specifically, the control unit includes an input unit 21, a standard program storage unit 23, an artificial intelligence unit 25, a communication unit 26, an arithmetic unit 27, and an output unit 29.

入力ユニット21は、マイク5、カメラ7、タッチパネル9、センサ群11、及びGPS13から情報を取得し、その情報を演算ユニット27及び人工知能ユニット25に出力する。 The input unit 21 acquires information from the microphone 5, the camera 7, the touch panel 9, the sensor group 11, and the GPS 13, and outputs the information to the calculation unit 27 and the artificial intelligence unit 25.

標準プログラム記憶ユニット23は、ロボット1の各種動作を実行するための標準プログラムを常時記憶している。標準プログラムは、後述するAI用プログラムとは異なり、
内容が変化しないプログラムである。
The standard program storage unit 23 constantly stores a standard program for executing various operations of the robot 1. The standard program is different from the AI program described later.
It is a program whose contents do not change.

人工知能ユニット25は、ロボット1の各種動作を実行するためのAI(人工知能)用プログラムを記憶可能である。人工知能ユニット25は、AI用プログラムを記憶しているとき、それを学習により変化、発展させる。また、人工知能ユニット25は、AI用プログラムを新規にインストールすること、及びAI用プログラムを消去することが可能である。 The artificial intelligence unit 25 can store an AI (artificial intelligence) program for executing various operations of the robot 1. When the artificial intelligence unit 25 stores the program for AI, it changes and develops it by learning. Further, the artificial intelligence unit 25 can newly install the AI program and delete the AI program.

通信ユニット26は、外部のクラウドネットワーク31、端末33等と通信を行う。通信は無線通信であってもよいし、有線通信であってもよい。
演算ユニット27は、標準プログラム又はAI用プログラムを用いて、ロボット1の各種動作を実現するたに必要な演算を実行する。
The communication unit 26 communicates with an external cloud network 31, a terminal 33, and the like. The communication may be wireless communication or wired communication.
The arithmetic unit 27 executes operations necessary for realizing various operations of the robot 1 by using a standard program or an AI program.

出力ユニット29は演算ユニット27の演算結果をスピーカ15、モータ群17、及びディスプレイ19に出力する。なお、制御ユニット3に属する各ユニットの詳しい機能は後述する。 The output unit 29 outputs the calculation result of the calculation unit 27 to the speaker 15, the motor group 17, and the display 19. The detailed functions of each unit belonging to the control unit 3 will be described later.

図2に示すように、ロボット1は、人型の外形を有しており、頭部35、胴部37、右腕部39、左腕部41、右脚部43、及び左脚部45を備える。
マイク5、カメラ7、及びスピーカ15は頭部35に設けられている。また、ディスプレイ19、及びタッチパネル9は胴部37の正面側に設けられている。
As shown in FIG. 2, the robot 1 has a humanoid outer shape, and includes a head portion 35, a body portion 37, a right arm portion 39, a left arm portion 41, a right leg portion 43, and a left leg portion 45.
The microphone 5, the camera 7, and the speaker 15 are provided on the head 35. Further, the display 19 and the touch panel 9 are provided on the front side of the body portion 37.

右脚部43、及び左脚部45は、それぞれ、移動用の車輪47、49を備えている。車輪47、49は、それぞれ、前後方向に2つ設けられている。よって、ロボット1は、合計4つの車輪により地面に接する。車輪47、49は、モータ群17に属する移動用モータ51により駆動される。移動用モータ51の駆動力によって車輪47、49を回転させることにより、ロボット1は前後に移動することができる。また、車輪47の回転数と、車輪49の回転数とを異ならせることにより、ロボット1は右旋回又は左旋回をすることができる。 The right leg portion 43 and the left leg portion 45 are provided with wheels 47 and 49 for movement, respectively. Two wheels 47 and 49 are provided in the front-rear direction, respectively. Therefore, the robot 1 comes into contact with the ground by a total of four wheels. The wheels 47 and 49 are driven by the moving motor 51 belonging to the motor group 17. The robot 1 can move back and forth by rotating the wheels 47 and 49 by the driving force of the moving motor 51. Further, by making the rotation speed of the wheel 47 different from the rotation speed of the wheel 49, the robot 1 can make a right turn or a left turn.

ロボット1は、首関節53、肩関節55、肘関節57、及び手首関節59を備える。各関節の自由度は、1~3の中から適宜設定できる。各関節は、モータ群17に属する関節用モータ61の駆動力により、動作する。上記の関節のうち、適宜選択したものを関節用モータ61で動かすことにより、ロボット1は所定の動作を行い、また、所定の姿勢を表現する。 The robot 1 includes a neck joint 53, a shoulder joint 55, an elbow joint 57, and a wrist joint 59. The degree of freedom of each joint can be appropriately set from 1 to 3. Each joint operates by the driving force of the joint motor 61 belonging to the motor group 17. By moving an appropriately selected joint among the above joints with the joint motor 61, the robot 1 performs a predetermined motion and expresses a predetermined posture.

センサ群11に属する複数のセンサは、ロボット1における各部の位置、速度、加速度、傾き、関節の角度等を検出する。その検出結果は、入力ユニット21を介して演算ユニット27にフィードバックされ、ロボット1の動作制御に用いられる。 The plurality of sensors belonging to the sensor group 11 detect the position, speed, acceleration, inclination, joint angle, and the like of each part in the robot 1. The detection result is fed back to the calculation unit 27 via the input unit 21 and used for the operation control of the robot 1.

なお、標準プログラム記憶ユニット23、人工知能ユニット25、及び演算ユニット27は、音声認識ユニット、処理ユニット、及び学習停止ユニットの一例である。人工知能ユニット25は、学習ユニットの一例である。通信ユニット26は、記憶ユニット及び学習結果取得ユニットの一例である。入力ユニット21及び通信ユニット26は識別情報取得ユニットの一例である。クラウドネットワーク31は外部の記憶装置の一例である。 The standard program storage unit 23, the artificial intelligence unit 25, and the calculation unit 27 are examples of a voice recognition unit, a processing unit, and a learning stop unit. The artificial intelligence unit 25 is an example of a learning unit. The communication unit 26 is an example of a storage unit and a learning result acquisition unit. The input unit 21 and the communication unit 26 are examples of the identification information acquisition unit. The cloud network 31 is an example of an external storage device.

2.ロボット1が実行する処理
(2-1)プログラム設定処理
制御ユニット3は、標準プログラムと、AI用プログラムとのうち、使用するプログラムを決めるために、図3に示すプログラム設定処理を実行する。このプログラム設定処理
は、ロボット1の電源がオンであるとき、所定時間ごとに繰り返し実行される。
2. 2. Process executed by the robot 1 (2-1) Program setting process The control unit 3 executes the program setting process shown in FIG. 3 in order to determine the program to be used among the standard program and the AI program. This program setting process is repeatedly executed at predetermined time intervals when the power of the robot 1 is on.

ステップ1では、その時点でAI用プログラムを使用しているか否かを判断する。AI用プログラムを使用していない場合(すなわち、標準プログラムを使用している場合)はステップ2に進み、AI用プログラムを使用している場合はステップ5に進む。 In step 1, it is determined whether or not the AI program is used at that time. If the AI program is not used (that is, if the standard program is used), the process proceeds to step 2, and if the AI program is used, the process proceeds to step 5.

ステップ2では、ユーザの識別情報が入力されたか否かを判断する。識別情報は、例えば、以下の方法で入力することができる。
・端末33から通信ユニット26に識別情報を送信する。
In step 2, it is determined whether or not the user's identification information has been input. The identification information can be input by, for example, the following method.
-Transmit the identification information from the terminal 33 to the communication unit 26.

・識別情報を表す電磁波(例えば、電波、赤外線等)を通信ユニット26に送信する。識別情報を表す電磁波は、端末33から送信してもよいし、固定式の装置(例えば、ビーコン、無線LANのアクセスポイント等)から送信してもよい。識別情報を表す電磁波は、定期的に送信してもよいし、ユーザの指示に応じて送信してもよいし、端末33や固定式の装置等がロボット1を検出することをきっかけとして送信してもよい。 -Electromagnetic waves representing identification information (for example, radio waves, infrared rays, etc.) are transmitted to the communication unit 26. The electromagnetic wave representing the identification information may be transmitted from the terminal 33 or may be transmitted from a fixed device (for example, a beacon, a wireless LAN access point, etc.). The electromagnetic wave representing the identification information may be transmitted periodically or in response to a user's instruction, or may be transmitted when the terminal 33, a fixed device, or the like detects the robot 1. You may.

・ユーザが識別情報の内容を声に出して言う。マイク5がその音声を取得し、音声認識により、識別情報を特定する。
・識別情報を表す一次元バーコードや二次元バーコードをカメラ7で撮影する。
-The user says the content of the identification information aloud. The microphone 5 acquires the voice and identifies the identification information by voice recognition.
-The camera 7 captures a one-dimensional bar code or a two-dimensional bar code representing identification information.

・タッチパネル9を用いて識別情報を入力する。
識別情報は、数字や文字で構成されるものであってもよいし、1次元又は2次元の画像(例えば一次元バーコードや二次元バーコード)であってもよいし、ユーザの生体情報(例えば、指紋、身体のいずれかの部位における静脈のパターン、虹彩、顔等)であってもよいし、音声で構成されるものであってもよい。
-Enter the identification information using the touch panel 9.
The identification information may be composed of numbers or characters, may be a one-dimensional or two-dimensional image (for example, a one-dimensional bar code or a two-dimensional bar code), or may be user biometric information (for example, a user's biometric information (). For example, it may be a fingerprint, a pattern of a vein in any part of the body, an iris, a face, etc.), or it may be composed of voice.

識別情報が入力された場合はステップ3に進み、識別情報が入力されなかった場合は本処理を終了する。
ステップ3では、前記ステップ2で入力されたと判断された識別情報に対応するAI用プログラム及びデータセットを、クラウドネットワーク31からインストールする。インストールしたAI用プログラム及びデータセットは、人工知能ユニット25に記憶する。
If the identification information is input, the process proceeds to step 3, and if the identification information is not input, this process ends.
In step 3, the AI program and data set corresponding to the identification information determined to have been input in step 2 are installed from the cloud network 31. The installed AI program and data set are stored in the artificial intelligence unit 25.

なお、クラウドネットワーク31には、識別情報と、AI用プログラム及びデータセットとが、対応付けられて記憶されている。データセットは、AI用プログラムの使用、学習等において用いるデータセットであり、音声認識及び音声合成において用いる辞書データを含む。 The cloud network 31 stores the identification information in association with the AI program and the data set. The data set is a data set used in the use of AI programs, learning, etc., and includes dictionary data used in speech recognition and speech synthesis.

ステップ4では、ロボット1が使用するプログラムを、標準プログラムから、前記ステップ3でインストールしたAI用プログラムに変更する。この時点以降、ロボット1はAI用プログラムを使用する。 In step 4, the program used by the robot 1 is changed from the standard program to the AI program installed in step 3. From this point onward, the robot 1 uses the AI program.

一方、前記ステップ1で肯定判断された場合はステップ5において、ロボット1の使用終了条件が充足されたか否かを判断する。使用終了条件は、例えば、以下のものとすることができる。 On the other hand, if the affirmative judgment is made in step 1, it is determined in step 5 whether or not the condition for ending the use of the robot 1 is satisfied. The end-of-use condition can be, for example, as follows.

・所定時間以上、ユーザがロボット1を操作しないこと。
・カメラ7の画像やマイク5で取得した音声においてユーザを認識できない状態が所定時間以上続くこと。
-The user does not operate the robot 1 for a predetermined time or longer.
-The state in which the user cannot be recognized in the image of the camera 7 or the voice acquired by the microphone 5 continues for a predetermined time or longer.

・ユーザがロボット1に対し、使用終了に該当する入力を行うこと(例えば、ユーザが
「使用終了」と声に出して言う、または、タッチパネル9に使用終了に該当する内容の入力を行う等)。
-The user inputs to the robot 1 corresponding to the end of use (for example, the user aloues "end of use" or inputs the content corresponding to the end of use to the touch panel 9). ..

・ロボット1の電源がオフになる。
・予め設定された時刻になる。
使用終了条件が充足された場合はステップ6に進み、使用終了条件が充足されない場合は本処理を終了する。
-The power of the robot 1 is turned off.
・ It will be a preset time.
If the end-of-use condition is satisfied, the process proceeds to step 6, and if the end-of-use condition is not satisfied, this process ends.

ステップ6では、AI用プログラム及びデータセットを、クラウドネットワーク31にアップロードする。このとき、ユーザの識別情報と対応付けてアップロードする。なお、後述する学習が行われた場合、アップロードするAI用プログラム及びデータセットは、学習後のものである。 In step 6, the AI program and data set are uploaded to the cloud network 31. At this time, uploading is performed in association with the user's identification information. When the learning described later is performed, the AI program and the data set to be uploaded are those after the learning.

ステップ7では、人工知能ユニット25からAI用プログラム及びデータセットを消去する。
ステップ8では、使用するプログラムを、AI用プログラムから標準プログラムに変更する。この時点以降、ロボット1は標準プログラムを使用する。
In step 7, the AI program and data set are deleted from the artificial intelligence unit 25.
In step 8, the program to be used is changed from the AI program to the standard program. From this point onward, Robot 1 uses the standard program.

(2-2)会話処理
制御ユニット3は、図4に示す会話処理を実行する。この処理は、マイク5が所定の閾値以上の音量を検出したときに実行される。
(2-2) Conversation processing The control unit 3 executes the conversation processing shown in FIG. This process is executed when the microphone 5 detects a volume equal to or higher than a predetermined threshold value.

ステップ11では、マイク5を用いて音声を取得する。
ステップ12では、周知の音声認識技術により、前記ステップ11で取得した音声の内容を認識する。このとき、標準プログラムを使用している場合は、ロボット1が予め備えている標準辞書データを用いて音声の内容を認識する。また、AI用プログラムを使用している場合は、AI用プログラムとともにクラウドネットワーク31からインストールされ、過去の学習によって強化された辞書データを用いて音声の内容を認識する。
In step 11, the microphone 5 is used to acquire voice.
In step 12, the content of the voice acquired in step 11 is recognized by a well-known voice recognition technique. At this time, when the standard program is used, the content of the voice is recognized by using the standard dictionary data provided in advance by the robot 1. When the AI program is used, the content of the voice is recognized by using the dictionary data installed from the cloud network 31 together with the AI program and enhanced by the past learning.

ステップ13では、前記ステップ12で認識した音声の内容に対し、回答する音声のデータ(以下では回答音声データとする)を作成する。このとき、標準プログラムを使用している場合は、ロボット1が予め備えている標準辞書データを用いて回答音声データを作成する。また、AI用プログラムを使用している場合は、AI用プログラムとともにクラウドネットワーク31からインストールされ、過去の学習によって強化された辞書データを用いて回答音声データを作成する。 In step 13, voice data (hereinafter referred to as answer voice data) to respond to the content of the voice recognized in step 12 is created. At this time, when the standard program is used, the answer voice data is created using the standard dictionary data provided in advance by the robot 1. If the AI program is used, the answer voice data is created using the dictionary data installed from the cloud network 31 together with the AI program and enhanced by the past learning.

回答音声データの内容は、例えば、前記ステップ12で認識した音声の内容からキーワードを検出し、そのキーワードに予め対象付けられた事項を辞書データから探し、作成することができる。また、回答音声データの内容は、前記ステップ12で認識した音声の内容に対し、人工知能を用いて推論したものであってもよい。 The content of the answer voice data can be created, for example, by detecting a keyword from the content of the voice recognized in step 12 and searching for the item previously targeted for the keyword from the dictionary data. Further, the content of the response voice data may be inferred by using artificial intelligence with respect to the content of the voice recognized in step 12.

ステップ14では、前記ステップ13で作成した回答音声データに基づき、スピーカ15を用いて発音する。すなわち、前記ステップ11で取得した音声に対する回答を発音する。 In step 14, the speaker 15 is used for pronunciation based on the response voice data created in step 13. That is, the answer to the voice acquired in step 11 is pronounced.

ステップ15では、その時点でAI用プログラムを使用中であるか否かを判断する。AI用プログラムを使用中である場合はステップ16に進み、標準プログラムを使用中である場合は本処理を終了する。 In step 15, it is determined whether or not the AI program is being used at that time. If the AI program is in use, the process proceeds to step 16, and if the standard program is in use, this process ends.

ステップ16では、その時点で学習停止中であるか否かを判断する。なお、学習停止は
、後述する学習停止判断処理により設定される。学習停止中ではない場合はステップ17に進み、学習停止中である場合は本処理を終了する。
In step 16, it is determined whether or not learning is stopped at that time. The learning stop is set by the learning stop determination process described later. If the learning is not stopped, the process proceeds to step 17, and if the learning is not stopped, the present process is terminated.

ステップ17では、その時点で設定されている学習制限内容を取得する。学習制限内容としては、例えば、ユーザ(前記ステップ2で入力されたと判断された識別情報に対応するユーザ)の家族、知人に関する情報(名前、住所、電話番号、メールアドレス、経歴、顔を含む画像)等である。 In step 17, the learning restriction content set at that time is acquired. The learning restriction content includes, for example, information (name, address, telephone number, e-mail address, biography, image including face) about the family and acquaintances of the user (the user corresponding to the identification information determined to be input in step 2 above). ) Etc.

ステップ18では、前記ステップ12で認識した音声の内容について学習を行う。学習としては、例えば、機械学習が挙げられる。機械学習は、教師付き学習であってもよいし、教師無し学習であってもよい。また、学習は、人工無能による学習であってもよい。この場合、前記ステップ12で認識した音声からキーワードを抽出し、そのキーワードをデータセット(例えば、音声認識に用いる辞書データ)に追加することができる。このキーワードは、例えば、回答音声データを作成する処理(前記ステップ13)において利用できる。 In step 18, learning is performed on the content of the voice recognized in step 12. Examples of learning include machine learning. Machine learning may be supervised learning or unsupervised learning. Further, the learning may be learning by artificial incompetence. In this case, a keyword can be extracted from the voice recognized in step 12 and the keyword can be added to a data set (for example, dictionary data used for voice recognition). This keyword can be used, for example, in the process of creating answer voice data (step 13).

ただし、前記ステップ12で認識した音声の内容であっても、前記ステップ17で取得した学習制限内容に該当する事項は、学習しないようにする。
ステップ19では、前記ステップ18での学習結果を反映するように、AI用プログラムとデータセットとを更新する。なお、学習結果を反映するように更新されたAI用プログラム及びデータセットは、学習結果の一例である。
However, even if the content of the voice is recognized in step 12, the item corresponding to the learning restriction content acquired in step 17 is not learned.
In step 19, the AI program and the data set are updated so as to reflect the learning result in step 18. The AI program and dataset updated to reflect the learning results are examples of the learning results.

(2-3)学習停止判断処理
制御ユニット3は、図5に示す学習停止判断処理を所定時間ごとに繰り返し実行する。図5のステップ21では、AI用プログラムを使用中であるか否かを判断する。AI用プログラムを使用中である場合はステップ22に進み、標準プログラムを使用中である場合は本処理を終了する。
(2-3) Learning stop determination process The control unit 3 repeatedly executes the learning stop determination process shown in FIG. 5 at predetermined time intervals. In step 21 of FIG. 5, it is determined whether or not the AI program is in use. If the AI program is in use, the process proceeds to step 22, and if the standard program is in use, this process ends.

ステップ22では、GPS13を用いてロボット1の位置情報を取得する。
ステップ23では、カメラ7を用いて、ロボット1の周囲を撮像した画像を取得する。
ステップ24では、マイク5を用いて、音声を取得する。
In step 22, the position information of the robot 1 is acquired by using the GPS 13.
In step 23, the camera 7 is used to acquire an image of the surroundings of the robot 1.
In step 24, the microphone 5 is used to acquire voice.

ステップ25では、その時点で学習停止中であるか否かを判断する。なお、学習停止の状態は、後述するステップ28において開始され、後述するステップ30において学習を再開したときに終了する。学習停止中ではない場合はステップ26に進み、学習停止中である場合はステップ29に進む。 In step 25, it is determined whether or not learning is stopped at that time. The learning stopped state starts in step 28 described later and ends when learning is restarted in step 30 described later. If the learning is not stopped, the process proceeds to step 26, and if the learning is not stopped, the process proceeds to step 29.

ステップ26では、前記ステップ23で取得した画像、又は前記ステップ24で取得した音声に、学習停止のきっかけとなるものがあるか否かを判断する。学習停止のきっかけとしては、例えば、以下のものが挙げられる。 In step 26, it is determined whether or not the image acquired in step 23 or the voice acquired in step 24 triggers learning stop. Examples of the trigger for stopping learning include the following.

・前記ステップ23で取得した画像において、学習停止を指示する動作として予め設定された動作が認識されること。その動作として、例えば、図6Aに示すように、人差し指を立てて口の前に置く動作が挙げられる。また、他の動作として、ウインクが挙げられる。 -In the image acquired in step 23, a preset operation is recognized as an operation for instructing the learning stop. As the operation, for example, as shown in FIG. 6A, the operation of raising the index finger and placing it in front of the mouth can be mentioned. Another operation is a wink.

・前記ステップ24で取得した音声において、学習停止を指示するキーワードとして予め設定された音声が認識されること。そのキーワードとして、例えば、「秘密」、「オフレコ」、「プライベート」等が挙げられる。また、別のキーワードとして、例えば、ユーザの家族や知人の名前等が挙げられる。ユーザは、家族や知人の名前をキーワードとして
予めロボット1に登録しておくことができる。また、ロボット1が、過去に認識した音声データに基づき、どの言葉がユーザの家族や知人の名前であるかを推論し、ユーザの家族や知人の名前であると推論した言葉をキーワードとして登録してもよい。
-In the voice acquired in step 24, the voice preset as a keyword for instructing the learning stop is recognized. Examples of the keywords include "secret", "off record", and "private". Further, as another keyword, for example, the name of a user's family or an acquaintance can be mentioned. The user can register the names of family members and acquaintances in the robot 1 in advance as keywords. Further, the robot 1 infers which word is the name of the user's family or acquaintance based on the voice data recognized in the past, and registers the inferred word as the name of the user's family or acquaintance as a keyword. You may.

・前記ステップ23で取得した画像において、予め登録された人の顔が認識されること。この人としては、例えば、ユーザの家族、知人等が挙げられる。なお、ユーザは、学習停止のきっかけとする人の顔画像を予め登録しておくことができる。 -The face of a person registered in advance is recognized in the image acquired in step 23. Examples of this person include the user's family, acquaintances, and the like. In addition, the user can register in advance the face image of the person who triggers the learning stop.

学習停止のきっかけがある場合はステップ28に進み、学習停止のきっかけがない場合はステップ27に進む。
ステップ27では、前記ステップ22で取得した位置情報が、学習を停止するべき位置として予め登録された位置に該当するか否かを判断する。学習を停止するべき位置としては、例えば、ユーザの自宅、会議室等が挙げられる。
If there is a trigger to stop learning, the process proceeds to step 28, and if there is no trigger to stop learning, the process proceeds to step 27.
In step 27, it is determined whether or not the position information acquired in step 22 corresponds to a position registered in advance as a position where learning should be stopped. Examples of the position where learning should be stopped include the user's home, a conference room, and the like.

ユーザは、学習を停止するべき位置を予め登録しておくことができる。また、ロボット1が、過去のデータに基づき、学習を停止するべき場所を推論し、推論した場所を登録することができる。例えば、ロボット1は、学習停止のきっかけが過去に認識された場所を、学習を停止するべき場所として推論することができる。 The user can register in advance the position where learning should be stopped. Further, the robot 1 can infer a place where learning should be stopped based on past data, and can register the inferred place. For example, the robot 1 can infer a place where the trigger for stopping learning was recognized in the past as a place where learning should be stopped.

ステップ28では、学習停止の状態を開始する。この時点以降、前記会話処理における前記ステップ16では、肯定判断がなされ、前記ステップ18での学習が行われない。
一方、前記ステップ25で肯定判断された場合はステップ29にて、前記ステップ23で取得した画像、又は前記ステップ24で取得した音声に、学習を再開するきっかけとなるものがあるか否かを判断する。学習再開のきっかけとしては、例えば、以下のものが挙げられる。
In step 28, the learning stopped state is started. After this point, in the step 16 in the conversation process, an affirmative judgment is made, and learning in the step 18 is not performed.
On the other hand, if an affirmative judgment is made in step 25, it is determined in step 29 whether or not the image acquired in step 23 or the voice acquired in step 24 triggers the restart of learning. do. Examples of the trigger for resuming learning include the following.

・前記ステップ23で取得した画像において、学習再開を指示する動作として予め設定された動作が認識されること。その動作として、例えば、図6Bに示すように、親指と人差し指とで輪を作る(いわゆるOKを示す)動作が挙げられる。 -In the image acquired in step 23, a preset operation is recognized as an operation for instructing the restart of learning. As the operation, for example, as shown in FIG. 6B, an operation of forming a ring with the thumb and the index finger (indicating so-called OK) can be mentioned.

・前記ステップ24で取得した音声において、学習再開を指示するキーワードとして予め設定された音声が認識されること。そのキーワードとして、例えば、「OK」、「再開」、「学習」等が挙げられる。 -In the voice acquired in step 24, the voice preset as a keyword for instructing the restart of learning is recognized. Examples of the keyword include "OK", "restart", "learning" and the like.

学習再開のきっかけがある場合はステップ30に進み、学習再開のきっかけがない場合は本処理を終了する。
ステップ30では、学習を再開する。この時点以降、前記会話処理における前記ステップ16では否定判断がなされ、前記ステップ18の学習が行われる。
If there is a trigger for resuming learning, the process proceeds to step 30, and if there is no trigger for resuming learning, this process ends.
In step 30, learning is resumed. From this point onward, a negative determination is made in step 16 of the conversation process, and learning in step 18 is performed.

(2-4)スケジュール管理処理
ロボット1は、以下に示すスケジュール管理処理を実行することができる。ユーザは予め自らのスケジュール情報を、ロボット1に入力しておく。スケジュール情報の入力は、例えば、タッチパネル9を用いて行ってもよいし、音声入力により行ってもよい。また、端末33からスケジュール情報を通信ユニット26に送信してもよい。
(2-4) Schedule management process The robot 1 can execute the schedule management process shown below. The user inputs his / her own schedule information into the robot 1 in advance. The schedule information may be input using, for example, the touch panel 9 or by voice input. Further, the schedule information may be transmitted from the terminal 33 to the communication unit 26.

スケジュール情報は、少なくとも、期日と、その期日までに実行すべき事項とを含む。ロボット1は、期日よりも所定時間(例えば、1日、3時間)前の時点で、マイク5により取得した音声、カメラ7により取得した画像、端末33から取得した情報等に基づき、ユーザがスケジュール情報に含まれる事項を実行済みであるか否かを判断し、未だ実行していない場合は、スピーカ15の音声、又はディスプレイ19に表示する画像により、ユ
ーザに警告する。
The schedule information includes at least the due date and the matters to be executed by the due date. The robot 1 is scheduled by the user based on the sound acquired by the microphone 5, the image acquired by the camera 7, the information acquired from the terminal 33, and the like at a predetermined time (for example, one day and three hours) before the due date. It is determined whether or not the matter included in the information has been executed, and if it has not been executed yet, the user is warned by the sound of the speaker 15 or the image displayed on the display 19.

3.ロボット1が奏する効果
(1A)ロボット1は、AI用プログラムを、学習により変化、発展させることができる。また、ロボット1は、データセット(例えば辞書データ)の内容を、学習により強化することができる。そして、ロボット1は、学習後のAI用プログラム及びデータセットを、クラウドネットワーク31にアップロードすることができる。また、ロボット1は、クラウドネットワーク31にアップロードされたAI用プログラム及びデータセットを、インストールすることができる。
3. 3. Effects of the robot 1 (1A) The robot 1 can change and develop the AI program by learning. Further, the robot 1 can enhance the contents of the data set (for example, dictionary data) by learning. Then, the robot 1 can upload the AI program and the data set after learning to the cloud network 31. In addition, the robot 1 can install the AI program and the data set uploaded to the cloud network 31.

学習後のAI用プログラム及びデータセットをインストールするロボット1は、過去に学習を行ったロボット1と同じであっても、異なっていてもよい。また、学習後のAI用プログラム及びデータセットをインストールするロボット1は、過去に学習を行った場所にあるものであってもよいし、異なる場所にあるものであってもよい。 The robot 1 that installs the AI program and the data set after learning may be the same as or different from the robot 1 that has learned in the past. Further, the robot 1 that installs the AI program and the data set after learning may be located in a place where learning has been performed in the past, or may be located in a different place.

よって、ユーザは、過去の自らの使用よって学習したAI用プログラム及びデータセットを、ユーザがその時点でいる場所(例えば、職場、店舗、自宅等様々な場所)のロボット1に、クラウドネットワーク31からインストールし、ロボット1を使用することができる。 Therefore, the user can apply the AI program and data set learned by his / her own use in the past to the robot 1 at the place where the user is at that time (for example, various places such as work, store, and home) from the cloud network 31. You can install and use Robot 1.

(1B)ロボット1は、ユーザの識別情報が入力されることを条件として、その識別情報に対応するAI用プログラム及びデータセットのインストールを許容する。そのため、あるユーザのAI用プログラム及びデータセットを、他人が勝手に使用してしまうことを抑制できる。 (1B) The robot 1 allows the installation of the AI program and the data set corresponding to the identification information on condition that the identification information of the user is input. Therefore, it is possible to prevent another person from using the AI program and data set of a certain user without permission.

(1C)ロボット1は、人の音声を認識し、それに対する回答の音声を発音することができる。すなわち、ロボット1は人と会話をすることができる。また、ロボット1は、AI用プログラムを使用している場合、音声の認識結果に基づき学習を行い、その学習結果を用いて回答の音声を作成するので、学習が進むほど、より高度な会話を行うことができる。 (1C) The robot 1 can recognize a human voice and pronounce a voice of an answer to the human voice. That is, the robot 1 can have a conversation with a person. Further, when the robot 1 is using the AI program, it learns based on the recognition result of the voice and creates the voice of the answer using the learning result. Therefore, the more advanced the learning, the more advanced the conversation. It can be carried out.

(1D)ロボット1は、その周囲にいる人の動作や、人の識別結果等に応じて、学習を停止する。そのため、ユーザにとって望ましくない事項をロボット1が学習し、後に他人に話してしまうことを抑制できる。 (1D) The robot 1 stops learning according to the movement of a person around it, the identification result of the person, and the like. Therefore, it is possible to prevent the robot 1 from learning an undesired matter for the user and later talking to another person.

(1E)ロボット1は、それが存在する場所に応じて、学習を停止する。そのため、学習してほしくない場所で学習した事項を、ロボット1が後に他人に話してしまうことを抑制できる。 (1E) The robot 1 stops learning according to the place where it exists. Therefore, it is possible to prevent the robot 1 from telling another person later what he / she has learned in a place where he / she does not want to learn.

(1F)ロボット1は、その周囲にいる人の動作等に応じて、学習を再開する。そのため、ロボット1の学習を促進することができる。
(1G)ロボット1は、学習制限内容に該当する事項を学習しない。そのため、ユーザにとって望ましくない事項をロボット1が学習し、後に他人に話してしまうことを抑制できる。
(1F) The robot 1 resumes learning according to the movements of people around it. Therefore, the learning of the robot 1 can be promoted.
(1G) The robot 1 does not learn the matters corresponding to the learning restriction contents. Therefore, it is possible to prevent the robot 1 from learning an undesired matter for the user and later talking to another person.

(1H)ロボット1は、ユーザのスケジュール管理を行うことができる。
(1I)ロボット1は、ロボット1の使用終了条件が充足された場合、AI用プログラム及びデータセットを消去する。そのため、ユーザは、自分のAI用プログラム及びデータセットを後で他人が使用することを抑制できる。
<第2の実施形態>
1.コンピュータ101の構成
コンピュータ101の構成を図7、図8に基づき説明する。コンピュータ101の電気的構成は、前記第1の実施形態におけるロボット1と基本的に同じである。ただし、コンピュータ101における入力ユニット21は、外部のマイク5、カメラ7、キーボード63、マウス65、タッチパネル9と接続している。また、出力ユニット29は、外部のスピーカ15、及びディスプレイ19と接続している。
(1H) The robot 1 can manage the user's schedule.
(1I) The robot 1 deletes the AI program and the data set when the usage end condition of the robot 1 is satisfied. Therefore, the user can prevent others from using his / her AI program and data set later.
<Second embodiment>
1. 1. Configuration of Computer 101 The configuration of the computer 101 will be described with reference to FIGS. 7 and 8. The electrical configuration of the computer 101 is basically the same as that of the robot 1 in the first embodiment. However, the input unit 21 in the computer 101 is connected to an external microphone 5, a camera 7, a keyboard 63, a mouse 65, and a touch panel 9. Further, the output unit 29 is connected to an external speaker 15 and a display 19.

コンピュータ101は、図8に示すように、箱型の筐体67を備え、その内部に各構成を収容している。また、コンピュータ101は、外部の機器(例えば、マイク5、カメラ7、キーボード63、マウス65、タッチパネル9、スピーカ15、ディスプレイ19等)を接続可能な端子69を複数備えている。なお、コンピュータ101は広義でのロボットである。 As shown in FIG. 8, the computer 101 includes a box-shaped housing 67, and each configuration is housed inside the box-shaped housing 67. Further, the computer 101 includes a plurality of terminals 69 to which external devices (for example, microphone 5, camera 7, keyboard 63, mouse 65, touch panel 9, speaker 15, display 19, etc.) can be connected. The computer 101 is a robot in a broad sense.

2.コンピュータ101が実行する処理
コンピュータ101は、前記第1の実施形態のロボット1と同様に、プログラム設定処理、会話処理、学習停止判断処理、及びスケジュール管理処理を実行する。また、コンピュータ101は、周知のコンピュータと同様の機能を有する。
2. 2. Processing executed by the computer 101 The computer 101 executes a program setting process, a conversation process, a learning stop determination process, and a schedule management process, similarly to the robot 1 of the first embodiment. Further, the computer 101 has the same function as a well-known computer.

3.コンピュータ101が奏する効果
コンピュータ101は、前記(1A)~(1I)の効果を奏する。
<第3の実施形態>
1.車載機201の構成
車載機201の構成を図9に基づき説明する。車載機201は車両に搭載される。車載機201の電気的構成は、前記第2の実施形態におけるコンピュータ101と基本的に同じである。ただし、車載機201における入力ユニット21は、車両に設けられたマイク5、カメラ7、タッチパネル9、センサ群11、及びGPS13と接続している。
3. 3. Effects of the computer 101 The computer 101 exhibits the effects of (1A) to (1I).
<Third embodiment>
1. 1. Configuration of the in-vehicle device 201 The configuration of the in-vehicle device 201 will be described with reference to FIG. The on-board unit 201 is mounted on the vehicle. The electrical configuration of the vehicle-mounted device 201 is basically the same as that of the computer 101 in the second embodiment. However, the input unit 21 in the vehicle-mounted device 201 is connected to the microphone 5, the camera 7, the touch panel 9, the sensor group 11, and the GPS 13 provided in the vehicle.

マイク5は車両の車室内に設けられ、車両の乗員(ドライバ、又は他の乗員)の声を検出する。カメラ7は乗員を撮影する。タッチパネル9は車両の車室内に設けられ、乗員により操作される。センサ群11は、ドライバの運転操作(操舵角、アクセルの踏み込み量、ブレーキの踏み込み量、シフト位置等)と、車両の状態(速度、加速度、ヨーレート、パワーユニット(内燃機関、モータ等)の状態、燃料の残量、バッテリーの残量等)とを検出する。 The microphone 5 is provided in the passenger compartment of the vehicle and detects the voice of the occupant (driver or other occupant) of the vehicle. The camera 7 photographs the occupants. The touch panel 9 is provided in the passenger compartment of the vehicle and is operated by an occupant. The sensor group 11 includes a driver's driving operation (steering angle, accelerator depression amount, brake depression amount, shift position, etc.) and vehicle state (speed, acceleration, yaw rate, power unit (internal combustion engine, motor, etc.) state, etc.). Detects the remaining amount of fuel, the remaining amount of battery, etc.).

また、出力ユニット29は、スピーカ15、ディスプレイ19、及び車両制御部71と接続している。スピーカ15及びディスプレイ19は車両の車室内に設けられている。車両制御部71は、車両に関する様々な制御(例えば、操舵、加速、減速、シフトチェンジ等)を行う。なお、車載機201は広義でのロボットである。 Further, the output unit 29 is connected to the speaker 15, the display 19, and the vehicle control unit 71. The speaker 15 and the display 19 are provided in the vehicle interior of the vehicle. The vehicle control unit 71 performs various controls related to the vehicle (for example, steering, acceleration, deceleration, shift change, etc.). The on-board unit 201 is a robot in a broad sense.

2.車載機201が実行する処理
(2-1)ロボット1と同様の処理
車載機201は、前記第1の実施形態のロボット1と同様に、プログラム設定処理、会話処理、学習停止判断処理、及びスケジュール管理処理を実行する。
2. 2. Process executed by the in-vehicle device 201 (2-1) Processing similar to the robot 1 The in-vehicle device 201 has a program setting process, a conversation process, a learning stop determination process, and a schedule, as in the robot 1 of the first embodiment. Execute management processing.

(2-2)車両制御処理
車載機201の制御ユニット3は、図10に示す車両制御処理を所定時間ごとに繰り返し実行する。この処理は、マイク5が所定の閾値以上の音量を検出したときに実行される。
(2-2) Vehicle Control Process The control unit 3 of the on-board unit 201 repeatedly executes the vehicle control process shown in FIG. 10 at predetermined time intervals. This process is executed when the microphone 5 detects a volume equal to or higher than a predetermined threshold value.

ステップ31では、マイク5を用いて音声を取得する。ステップ32では、周知の音声
認識技術により、前記ステップ31で取得した音声から、車両に対する指示(例えば、発進、停止、減速、加速、右左折、レーンチェンジ、シフトチェンジ等)を認識する。このとき、標準プログラムを使用している場合は、車載機201が予め備えている標準辞書データを用いて上記の指示を認識する。また、AI用プログラムを使用している場合は、AI用プログラムとともにクラウドネットワーク31からインストールされ、過去の学習によって強化された辞書データを用いて上記の指示を認識する。
In step 31, voice is acquired using the microphone 5. In step 32, instructions to the vehicle (for example, start, stop, deceleration, acceleration, right / left turn, lane change, shift change, etc.) are recognized from the voice acquired in step 31 by a well-known voice recognition technique. At this time, when the standard program is used, the above instruction is recognized by using the standard dictionary data provided in advance in the vehicle-mounted device 201. If the AI program is used, the above instruction is recognized using the dictionary data installed from the cloud network 31 together with the AI program and enhanced by the past learning.

ステップ33では、前記ステップ32で認識した、車両対する指示に応じて、車両の制御内容を決定する。例えば、車両に対する指示が発進である場合、ブレーキを解除するタイミング、エンジン回転数の増加量及び増加速度等を決定する。このとき、標準プログラムを使用している場合は、標準プログラムを用いて車両の制御内容を決定する。また、AI用プログラムを使用している場合は、過去の学習によって進化したAI用プログラムを用いて制御内容を決定する。 In step 33, the control content of the vehicle is determined according to the instruction to the vehicle recognized in step 32. For example, when the instruction to the vehicle is to start, the timing of releasing the brake, the amount of increase in engine speed, the speed of increase, and the like are determined. At this time, if a standard program is used, the control content of the vehicle is determined using the standard program. If an AI program is used, the control content is determined using the AI program that has evolved through past learning.

ステップ34では、前記ステップ33で決定した制御内容を車両制御部71に出力する。なお、車両制御部71は、その制御内容に従って車両を制御する。
ステップ35では、その時点でAI用プログラムを使用中であるか否かを判断する。AI用プログラムを使用中である場合はステップ36に進み、標準プログラムを使用中である場合は本処理を終了する。
In step 34, the control content determined in step 33 is output to the vehicle control unit 71. The vehicle control unit 71 controls the vehicle according to the control content.
In step 35, it is determined whether or not the AI program is being used at that time. If the AI program is in use, the process proceeds to step 36, and if the standard program is in use, this process ends.

ステップ36では、センサ群11から、車両の状態に関する検出結果を取得する。
ステップ37では、前記ステップ34で出力した制御内容と、前記ステップ36で取得したセンサ出力とに基づき学習を行う。その学習は、前記ステップ36で取得したセンサ出力が予め設定された最適範囲となるように、制御内容を修正するものである。
In step 36, the detection result regarding the state of the vehicle is acquired from the sensor group 11.
In step 37, learning is performed based on the control content output in step 34 and the sensor output acquired in step 36. The learning modifies the control content so that the sensor output acquired in step 36 has a preset optimum range.

例えば、前記ステップ34で出力した制御内容が発進であった場合、発進の過程におけるセンサ出力(例えば、速度、加速度等のセンサ出力)が最適範囲であったか否かを確認し、最適範囲から外れていたならば、次回以降の発進時におけるセンサ出力が最適範囲に近づくように、発進の制御内容を修正する。 For example, when the control content output in step 34 is a start, it is confirmed whether or not the sensor output (for example, the sensor output of speed, acceleration, etc.) in the starting process is within the optimum range, and the sensor output is out of the optimum range. If so, the start control content is modified so that the sensor output at the time of starting from the next time onward approaches the optimum range.

ステップ38では、前記ステップ37での学習結果を反映するように、AI用プログラムを更新する。
3.車載機201が奏する効果
車載機201は、前記(1A)~(1I)の効果を奏する。さらに、車載機201は次の効果も奏する。
In step 38, the AI program is updated so as to reflect the learning result in step 37.
3. 3. Effects of the in-vehicle device 201 The in-vehicle device 201 exhibits the effects of (1A) to (1I). Further, the in-vehicle device 201 also has the following effects.

(3A)車載機201は、人の音声を認識し、それに対応する車両制御を行うことができる。また、車載機201は、AI用プログラムを使用している場合、車両制御部71に出力した車両制御の内容と、車両の状態を表すセンサ出力とに基づき学習を行うので、学習が進むほど、より高度な車両制御を行うことができる。 (3A) The vehicle-mounted device 201 can recognize a human voice and perform vehicle control corresponding to the human voice. Further, when the in-vehicle device 201 is using the AI program, learning is performed based on the content of the vehicle control output to the vehicle control unit 71 and the sensor output indicating the state of the vehicle. More advanced vehicle control can be performed.

(3B)車載機201は、車両制御処理に関し、AI用プログラムを、学習により変化、発展させることができる。また、車載機201は、クラウドネットワーク31にアップロードされたAI用プログラムを、インストールすることができる。 (3B) The vehicle-mounted device 201 can change and develop the AI program by learning with respect to the vehicle control process. Further, the in-vehicle device 201 can install the AI program uploaded to the cloud network 31.

学習後のAI用プログラムをインストールする車載機201は、過去に学習を行った車載機201と同じであっても、異なっていてもよい。
よって、ユーザは、過去の自らの使用よって学習したAI用プログラムを、任意の車両の車載機201に、クラウドネットワーク31からインストールし、使用することができる。
<第4の実施形態>
1.ロボット301の構成
本実施形態のロボット301の構成は、基本的には前記第1の実施形態のロボット1と同様である。以下では、第1の実施形態との相違点を中心に説明する。ロボット301は、図11に示すように、第1の人工知能ユニット73と、第2の人工知能ユニット75とを備えている。
The on-board unit 201 on which the AI program after learning is installed may be the same as or different from the on-board unit 201 on which learning has been performed in the past.
Therefore, the user can install and use the AI program learned by his / her own use in the past on the in-vehicle device 201 of any vehicle from the cloud network 31.
<Fourth Embodiment>
1. 1. Configuration of Robot 301 The configuration of the robot 301 of the present embodiment is basically the same as that of the robot 1 of the first embodiment. Hereinafter, the differences from the first embodiment will be mainly described. As shown in FIG. 11, the robot 301 includes a first artificial intelligence unit 73 and a second artificial intelligence unit 75.

第1の人工知能ユニット73は、ロボット301の各種動作を実行するためのAI用プログラム及びデータセットを記憶している。以下では、このプログラムを第1のAI用プログラムとし、このデータセットを第1のデータセットとする。 The first artificial intelligence unit 73 stores an AI program and a data set for executing various operations of the robot 301. In the following, this program will be referred to as a first AI program, and this data set will be referred to as a first data set.

第1人工知能ユニット73は、第1のAI用プログラム及び第1のデータセットを学習により変化、発展させる。第1の人工知能ユニット73が行う学習は、後述する学習停止、及び学習制限に影響されない。また、第1のAI用プログラム及び第1のデータセットは、クラウドネットワーク31にアップロードされることはない。 The first artificial intelligence unit 73 changes and develops the first AI program and the first data set by learning. The learning performed by the first artificial intelligence unit 73 is not affected by the learning stop and learning restriction described later. Further, the first AI program and the first data set are not uploaded to the cloud network 31.

第2の人工知能ユニット75は、AI用プログラム及びデータセットを記憶可能である。以下では、このプログラムを第2のAI用プログラムとし、このデータセットを第2のデータセットとする。 The second artificial intelligence unit 75 can store programs and data sets for AI. In the following, this program will be referred to as a second AI program, and this data set will be referred to as a second data set.

第2のAI用プログラムは、基本的には第1のAI用プログラムと同様であるが、ロボット301の各種動作を実行するためには使用されない。第2人工知能ユニット75は、第2のAI用プログラム及び第2のデータセットを学習により変化、発展させる。第2のAI用プログラム及び第2のデータセットは、学習結果を蓄積し、クラウドネットワーク31にアップロードされる。そのことにより、学習結果をクラウドネットワーク31に記憶することができる。 The second AI program is basically the same as the first AI program, but is not used to execute various operations of the robot 301. The second artificial intelligence unit 75 changes and develops the second AI program and the second data set by learning. The second AI program and the second data set accumulate learning results and are uploaded to the cloud network 31. As a result, the learning result can be stored in the cloud network 31.

ただし、第2の人工知能ユニット75が行う学習は、後述する学習停止、及び学習制限により制限される。そのため、第2のAI用プログラム及び第2のデータセットのアップロードによってクラウドネットワーク31に記憶される学習結果は制限される。 However, the learning performed by the second artificial intelligence unit 75 is limited by the learning stop and learning restriction described later. Therefore, the learning result stored in the cloud network 31 is limited by the upload of the second AI program and the second data set.

第2のAI用プログラム及び第2のデータセットは、クラウドネットワーク31から第2の人工知能ユニット75にダウンロードすることが可能である。そして、ダウンロードされた第2のAI用プログラム及び第2のデータセットに基づき、第1のAI用プログラム及び第1のデータセットの学習を行うことができる。詳しくは後述する。 The second AI program and the second data set can be downloaded from the cloud network 31 to the second artificial intelligence unit 75. Then, based on the downloaded second AI program and the second data set, the first AI program and the first data set can be learned. Details will be described later.

2.ロボット301が実行する処理
(2-1)プログラムインストール処理
制御ユニット3は、ロボット301の電源がオンになったとき、図12に示すプログラムインストール処理を実行する。
2. 2. Process executed by the robot 301 (2-1) Program installation process The control unit 3 executes the program installation process shown in FIG. 12 when the power of the robot 301 is turned on.

ステップ41では、ユーザの識別情報が入力されたか否かを判断する。識別情報は、前記第1の実施形態と同様のものとすることができる。識別情報が入力された場合はステップ42に進み、識別情報が入力されなかった場合は本処理を終了する。 In step 41, it is determined whether or not the user's identification information has been input. The identification information can be the same as that of the first embodiment. If the identification information is input, the process proceeds to step 42, and if the identification information is not input, this process ends.

ステップ42では、前記ステップ41で入力されたと判断された識別情報に対応する第2のAI用プログラム及び第2のデータセットを、クラウドネットワーク31からインストールする。インストールした第2のAI用プログラム及び第2のデータセットは、第2の人工知能ユニット75に記憶する。第2の人工知能ユニット75に既に第2のAI用プログラム及び第2のデータセットが記憶されていた場合は上書きする。 In step 42, the second AI program and the second data set corresponding to the identification information determined to have been input in step 41 are installed from the cloud network 31. The installed second AI program and the second data set are stored in the second artificial intelligence unit 75. If the second AI program and the second data set are already stored in the second artificial intelligence unit 75, they are overwritten.

ステップ43では、前記ステップ42でインストールした第2のAI用プログラム及び第2のデータセットには含まれているが、第1のAI用プログラム及び第1のデータセットには記憶されていない内容を学習する。 In step 43, the contents included in the second AI program and the second data set installed in the step 42 but not stored in the first AI program and the first data set. learn.

ステップ44では、第1のAI用プログラム及び第1のデータセットに、前記ステップ43で学習した内容を加え、更新する。すなわち、ダウンロードされた第2のAI用プログラム及び第2のデータセットに基づき、第1のAI用プログラム及び第1のデータセットの学習を行う。 In step 44, the content learned in step 43 is added to and updated with the first AI program and the first data set. That is, learning of the first AI program and the first data set is performed based on the downloaded second AI program and the second data set.

(2-2)会話処理
制御ユニット3は、図13に示す会話処理を実行する。この処理は、マイク5が所定の閾値以上の音量を検出したときに実行される。会話処理は、第1の人工知能ユニット73に記憶されている第1のAI用プログラム及び第1のデータセットを用いて行われる。
(2-2) Conversation processing The control unit 3 executes the conversation processing shown in FIG. This process is executed when the microphone 5 detects a volume equal to or higher than a predetermined threshold value. The conversation processing is performed using the first AI program and the first data set stored in the first artificial intelligence unit 73.

ステップ51~54の処理は、前記第1の実施形態におけるステップ11~14の処理と同様である。
ステップ55では、第1の人工知能ユニット73が、前記ステップ52で認識した音声の内容について学習を行う。学習の内容は、前記第1の実施形態と同様である。
The processing of steps 51 to 54 is the same as the processing of steps 11 to 14 in the first embodiment.
In step 55, the first artificial intelligence unit 73 learns about the content of the voice recognized in step 52. The content of learning is the same as that of the first embodiment.

ステップ56では、前記ステップ55での学習結果を反映するように、第1のAI用プログラム及び第1のデータセットを更新する。
ステップ57では、第2の人工知能ユニット75がその時点で学習停止中であるか否かを判断する。なお、第2の人工知能ユニット75の学習停止は、後述する、第2の人工知能ユニット学習停止判断処理により設定される。第2の人工知能ユニット75が学習停止中ではない場合はステップ58に進み、学習停止中である場合は本処理を終了する。
In step 56, the first AI program and the first data set are updated so as to reflect the learning result in step 55.
In step 57, it is determined whether or not the second artificial intelligence unit 75 is learning stopped at that time. The learning stop of the second artificial intelligence unit 75 is set by the second artificial intelligence unit learning stop determination process, which will be described later. If the second artificial intelligence unit 75 is not stopped learning, the process proceeds to step 58, and if the second artificial intelligence unit 75 is not stopped learning, this process is terminated.

ステップ58では、その時点で設定されている学習制限内容を取得する。学習制限内容としては、例えば、ユーザ(前記ステップ41で入力されたと判断された識別情報に対応するユーザ)の家族、知人に関する情報(名前、住所、電話番号、メールアドレス、経歴、顔を含む画像)等である。 In step 58, the learning restriction content set at that time is acquired. The learning restriction content includes, for example, information (name, address, telephone number, e-mail address, biography, face) related to the family and acquaintances of the user (the user corresponding to the identification information determined to be input in step 41). ) Etc.

ステップ59では、第2の人工知能ユニット75が、前記ステップ52で認識した音声の内容について学習を行う。学習の内容は、前記第1の実施形態と同様である。ただし、前記ステップ52で認識した音声の内容であっても、前記ステップ58で取得した学習制限内容に該当する事項は、学習しないようにする。 In step 59, the second artificial intelligence unit 75 learns about the content of the voice recognized in step 52. The content of learning is the same as that of the first embodiment. However, even if the content of the voice is recognized in step 52, the item corresponding to the learning restriction content acquired in step 58 is not learned.

ステップ60では、前記ステップ59での学習結果を反映するように、第2のAI用プログラム及び第2のデータセットを更新する。
(2-3)第2の人工知能ユニット学習停止判断処理
制御ユニット3は、図14に示す第2の人工知能ユニット学習停止判断処理を所定時間ごとに繰り返し実行する。
In step 60, the second AI program and the second data set are updated so as to reflect the learning result in step 59.
(2-3) Second artificial intelligence unit learning stop determination process The control unit 3 repeatedly executes the second artificial intelligence unit learning stop determination process shown in FIG. 14 at predetermined time intervals.

ステップ71では、GPS13を用いてロボット301の位置情報を取得する。
ステップ72では、カメラ7を用いて、ロボット301の周囲を撮像した画像を取得する。
In step 71, the position information of the robot 301 is acquired by using the GPS 13.
In step 72, the camera 7 is used to acquire an image of the surroundings of the robot 301.

ステップ73では、マイク5を用いて、音声を取得する。
ステップ74では、第2の人工知能ユニット75がその時点で学習停止中であるか否かを判断する。なお、学習停止の状態は、後述するステップ77において開始され、後述す
るステップ79において学習を再開したときに終了する。学習停止中ではない場合はステップ75に進み、学習停止中である場合はステップ78に進む。
In step 73, the microphone 5 is used to acquire voice.
In step 74, it is determined whether or not the second artificial intelligence unit 75 is learning stopped at that time. The learning stopped state starts in step 77 described later and ends when learning is restarted in step 79 described later. If the learning is not stopped, the process proceeds to step 75, and if the learning is not stopped, the process proceeds to step 78.

ステップ75では、前記ステップ72で取得した画像、又は前記ステップ73で取得した音声に、学習停止のきっかけとなるものがあるか否かを判断する。学習停止のきっかけは、前記第1の実施形態と同様である。学習停止のきっかけがある場合はステップ77に進み、学習停止のきっかけがない場合はステップ76に進む。 In step 75, it is determined whether or not the image acquired in step 72 or the voice acquired in step 73 triggers learning stop. The trigger for stopping learning is the same as that of the first embodiment. If there is a trigger to stop learning, the process proceeds to step 77, and if there is no trigger to stop learning, the process proceeds to step 76.

ステップ76では、前記ステップ71で取得した位置情報が、学習を停止するべき位置として予め登録された位置に該当するか否かを判断する。学習を停止するべき位置は、前記第1の実施形態と同様である。 In step 76, it is determined whether or not the position information acquired in step 71 corresponds to a position registered in advance as a position where learning should be stopped. The position where learning should be stopped is the same as that of the first embodiment.

ステップ77では、第2の人工知能ユニット75について学習停止の状態を開始する。この時点以降、前記会話処理における前記ステップ57では、肯定判断がなされ、前記ステップ59での学習が行われない。 In step 77, the learning stop state of the second artificial intelligence unit 75 is started. After this point, in the step 57 in the conversation process, an affirmative judgment is made, and learning in the step 59 is not performed.

一方、前記ステップ74で肯定判断された場合はステップ78にて、前記ステップ72で取得した画像、又は前記ステップ73で取得した音声に、学習を再開するきっかけとなるものがあるか否かを判断する。学習再開のきっかけは、前記第1の実施形態と同様である。学習再開のきっかけがある場合はステップ79に進み、学習再開のきっかけがない場合は本処理を終了する。 On the other hand, if an affirmative judgment is made in step 74, it is determined in step 78 whether or not the image acquired in step 72 or the voice acquired in step 73 triggers the restart of learning. do. The trigger for resuming learning is the same as that of the first embodiment. If there is a trigger for resuming learning, the process proceeds to step 79, and if there is no trigger for resuming learning, this process ends.

ステップ79では、第2の人工知能ユニット75における学習を再開する。この時点以降、前記会話処理における前記ステップ57では否定判断がなされ、前記ステップ59の学習が行われる。 In step 79, learning in the second artificial intelligence unit 75 is resumed. From this point onward, a negative determination is made in step 57 of the conversation process, and learning in step 59 is performed.

(2-4)プログラムアップロード処理
制御ユニット3は、図15に示すプログラムアップロード処理を所定時間ごとに繰り返し実行する。
(2-4) Program upload process The control unit 3 repeatedly executes the program upload process shown in FIG. 15 at predetermined time intervals.

ステップ81では、ロボット301の使用終了条件が充足されたか否かを判断する。使用終了条件は、前記第1の実施形態の前記ステップ5で判断するものと同様である。使用終了条件が充足された場合はステップ82に進み、使用終了条件が充足されない場合は本処理を終了する。 In step 81, it is determined whether or not the condition for ending the use of the robot 301 is satisfied. The conditions for ending use are the same as those determined in step 5 of the first embodiment. If the end-of-use condition is satisfied, the process proceeds to step 82, and if the end-of-use condition is not satisfied, this process ends.

ステップ82では、第2のAI用プログラム及び第2のデータセットを、クラウドネットワーク31にアップロードする。このとき、ユーザの識別情報と対応付けてアップロードする。なお、前述した学習が行われた場合、アップロードする第2のAI用プログラム及び第2のデータセットは、学習後のものである。 In step 82, the second AI program and the second data set are uploaded to the cloud network 31. At this time, uploading is performed in association with the user's identification information. When the above-mentioned learning is performed, the second AI program and the second data set to be uploaded are those after learning.

3.ロボット301が奏する効果
ロボット301は、前記(1B)、(1C)、(1F)、(1H)の効果を奏する。さらに、ロボット301は、次の効果も奏する。
3. 3. Effects of the robot 301 The robot 301 exhibits the effects of (1B), (1C), (1F), and (1H). Further, the robot 301 also has the following effects.

(4A)ロボット301は、第1のAI用プログラム及び第1のデータセットを、学習により変化、発展させることができる。さらに、第1のAI用プログラム及び第1のデータセットにおける学習は、学習停止の処理、及び学習制限の処理に影響されない。 (4A) The robot 301 can change and develop the first AI program and the first data set by learning. Further, the learning in the first AI program and the first data set is not affected by the learning stop processing and the learning restriction processing.

また、第1のAI用プログラム及び第1のデータセットはクラウドネットワーク31にアップロードされないので、その内容が他人に知られることを抑制できる。
(4B)ロボット301は、学習後の第2のAI用プログラム及び第2のデータセットを、クラウドネットワーク31にアップロードすることができる。また、ロボット301は、第2のAI用プログラム及び第2のデータセットをクラウドネットワーク31からインストールすることができる。
Further, since the first AI program and the first data set are not uploaded to the cloud network 31, it is possible to prevent others from knowing their contents.
(4B) The robot 301 can upload the second AI program and the second data set after learning to the cloud network 31. In addition, the robot 301 can install the second AI program and the second data set from the cloud network 31.

学習後の第2のAI用プログラム及び第2のデータセットをインストールするロボット301は、過去に学習を行ったロボット301と同じであっても、異なっていてもよい。また、学習後の第2のAI用プログラム及び第2のデータセットをインストールするロボット301は、過去に学習を行った場所にあるものであってもよいし、異なる場所にあるものであってもよい。 The robot 301 that installs the second AI program and the second data set after learning may be the same as or different from the robot 301 that has been trained in the past. Further, the robot 301 that installs the second AI program and the second data set after learning may be in a place where learning has been performed in the past, or may be in a different place. good.

よって、ユーザは、過去の自らの使用よって学習した第2のAI用プログラム及び第2のデータセットを、ユーザがその時点でいる場所(例えば、職場、店舗、自宅等様々な場所)のロボット301に、クラウドネットワーク31からインストールすることができる。そして、第2のAI用プログラム及び第2データセットを用いて学習を行い、第1のAI用プログラム及び第1のデータセットを変化、発展させることができる。 Therefore, the user can use the second AI program and the second data set learned by his / her own use in the past at the robot 301 at the place where the user is at that time (for example, various places such as work, store, and home). It can be installed from the cloud network 31. Then, learning can be performed using the second AI program and the second data set, and the first AI program and the first data set can be changed and developed.

(4C)ロボット301は、クラウドネットワーク31にアップロードされる第2のAI用プログラム及び第2のデータセットついて、学習を制限する。すなわち、ロボット301は、その周囲にいる人の動作や、人の識別結果等に応じて、第2のAI用プログラム及び第2のデータセットについての学習を停止する。また、ロボット301は、それが存在する場所に応じて、第2のAI用プログラム及び第2のデータセットにおける学習を停止する。また、ロボット301は、学習制限内容に該当する事項を、第2のAI用プログラム及び第2のデータセットに含ませない。 (4C) The robot 301 limits learning about the second AI program and the second data set uploaded to the cloud network 31. That is, the robot 301 stops learning about the second AI program and the second data set according to the movements of people around it, the identification result of the person, and the like. Also, the robot 301 stops learning in the second AI program and the second dataset, depending on where it resides. Further, the robot 301 does not include the items corresponding to the learning restriction contents in the second AI program and the second data set.

そのため、ユーザが他人に知られたくない事項を含む第2のAI用プログラム及び第2のデータセットが、クラウドネットワーク31にアップロードされることを抑制できる。<第5の実施形態>
1.ロボット401の構成
本実施形態のロボット401の構成は、基本的には前記第1の実施形態のロボット1と同様である。以下では、第1の実施形態との相違点を中心に説明する。ロボット401は、図16に示すように、通信ユニット26を用いてインターネット77と接続することができる。インターネット77はネットワークの一例である。また、ロボット401は車両内に置くことができる。この場合、ロボット401は、後述する会話等処理により、車両の乗員と会話することができる。
Therefore, it is possible to prevent the second AI program and the second data set, which include matters that the user does not want others to know, from being uploaded to the cloud network 31. <Fifth Embodiment>
1. 1. Configuration of Robot 401 The configuration of the robot 401 of the present embodiment is basically the same as that of the robot 1 of the first embodiment. Hereinafter, the differences from the first embodiment will be mainly described. As shown in FIG. 16, the robot 401 can be connected to the Internet 77 by using the communication unit 26. The Internet 77 is an example of a network. Further, the robot 401 can be placed in the vehicle. In this case, the robot 401 can talk with the occupant of the vehicle by the conversation processing described later.

2.ロボット401が実行する処理
(2-1)ロボット1と同様の処理
ロボット401は、前記第1の実施形態のロボット1と同様に、プログラム設定処理、学習停止判断処理、及びスケジュール管理処理を実行する。
2. 2. Process executed by the robot 401 (2-1) Process similar to the robot 1 The robot 401 executes a program setting process, a learning stop determination process, and a schedule management process in the same manner as the robot 1 of the first embodiment. ..

(2-2)会話等処理
ロボット401の制御ユニット3は、図17に示す会話等処理を所定時間ごとに繰り返し実行する。この処理は、マイク5が所定の閾値以上の音量を検出したときに実行される。
(2-2) Conversation processing The control unit 3 of the robot 401 repeatedly executes the conversation processing shown in FIG. 17 at predetermined time intervals. This process is executed when the microphone 5 detects a volume equal to or higher than a predetermined threshold value.

ステップ91、92の処理は、それぞれ、前記第1の実施形態におけるステップ11、12の処理と同様である。
ステップ93では、前記ステップ92で認識した音声の内容に関連する情報を、通信ユニット26を用い、インターネット77において検索し、取得する。例えば、前記ステッ
プ92で認識した音声の内容からキーワードを抽出し、そのキーワードに予め関連付けられた事項を含む情報を検索する。検索の対象としては、例えば、SNS(ソーシャルネットワーキングサービス)、ブログ、電子掲示板等が挙げられる。また、前記ステップ92で認識した音声の内容が質問である場合、その質問に対する回答を検索する。検索の方法としては、例えば、公知の検索エンジンを用いることができる。
The processes of steps 91 and 92 are the same as the processes of steps 11 and 12, respectively, in the first embodiment.
In step 93, information related to the content of the voice recognized in step 92 is searched for and acquired on the Internet 77 using the communication unit 26. For example, a keyword is extracted from the content of the voice recognized in step 92, and information including items associated with the keyword in advance is searched for. Examples of the search target include SNS (social networking service), blogs, electronic bulletin boards, and the like. If the content of the voice recognized in step 92 is a question, the answer to the question is searched. As a search method, for example, a known search engine can be used.

ステップ94では、前記ステップ92で認識した音声の内容に対し、基本的には前記第1の実施形態におけるステップ13と同様に、回答音声データを作成する。ただし、本ステップでは、前記ステップ93で取得した情報も用いて、回答音声データを作成する。前記ステップ93で取得した情報を用いるとは、例えば、その情報を音声化したものを、回答音声データに含めることである。 In step 94, response voice data is basically created for the content of the voice recognized in step 92, as in step 13 in the first embodiment. However, in this step, the answer voice data is created by using the information acquired in step 93. Using the information acquired in step 93 means, for example, including a voiced version of the information in the answer voice data.

ステップ95では、後述するステップ96で発音するときの音声の種類を、前記ステップ94で作成した回答の内容に応じて決定する。音声の種類としては、例えば、男性の声、女性の声、大人の声、子供の声等が挙げられる。 In step 95, the type of voice to be pronounced in step 96, which will be described later, is determined according to the content of the answer created in step 94. Examples of the type of voice include male voice, female voice, adult voice, and child voice.

音声の種類は、具体的には、以下のようにして決定する。まず、制御ユニット3は、前記ステップ94で作成した回答の内容から、特徴(例えば、男性に特有の特徴、女性に特有の特徴、大人に特有の特徴、子供に特有の特徴等)を抽出する。 Specifically, the type of voice is determined as follows. First, the control unit 3 extracts characteristics (for example, characteristics peculiar to men, characteristics peculiar to women, characteristics peculiar to adults, characteristics peculiar to children, etc.) from the contents of the answer created in step 94. ..

制御ユニット3は、回答の内容における特徴と、音声の種類とを対応付けたマップを予め備えている。制御ユニット3は、上記のように抽出した特徴をそのマップに入力することで、抽出した特徴に対応した音声の種類を決定する。 The control unit 3 is provided with a map in which the features in the content of the answer and the type of voice are associated with each other in advance. The control unit 3 inputs the features extracted as described above into the map, and determines the type of voice corresponding to the extracted features.

例えば、前記ステップ94で作成した回答の内容から、男性に特有の特徴と大人に特有の特徴とが抽出されれば、制御ユニット3は、大人の男性の音声を決定する。
ステップ96では、前記ステップ94で作成した回答音声データに基づき、スピーカ15を用いて発音する。このとき、前記ステップ95で設定した種類の音声を用いて発音する。
For example, if the characteristics peculiar to a man and the characteristics peculiar to an adult are extracted from the contents of the answer created in step 94, the control unit 3 determines the voice of an adult male.
In step 96, the speaker 15 is used for pronunciation based on the response voice data created in step 94. At this time, the voice of the type set in step 95 is used for pronunciation.

ステップ97では、まず、前記ステップ92で認識した音声の内容、又は、前記ステップ94で作成した回答の内容に対応する感情(例えば、喜び、怒り、悲しみ、平静等)を取得する。この感情の取得は以下のように行う。 In step 97, first, emotions (for example, joy, anger, sadness, calmness, etc.) corresponding to the content of the voice recognized in step 92 or the content of the answer created in step 94 are acquired. The acquisition of this emotion is performed as follows.

制御ユニット3は、音声の内容や回答の内容に現れる特徴と、感情とを対応付けたマップを予め備えている。音声の内容に現れる特徴としては、例えば、音量、音声の抑揚、音程の高低等が挙げられる。また、回答の内容に現れる特徴としては、例えば、回答の内容に含まれる、感情を反映した語句、感情を反映した言い回し等が挙げられる。 The control unit 3 is provided with a map in which emotions are associated with features appearing in the contents of voice and answers. Features that appear in the content of the voice include, for example, volume, intonation of the voice, pitch, and the like. In addition, as features that appear in the content of the answer, for example, words and phrases that reflect emotions, phrases that reflect emotions, and the like included in the content of the answer can be mentioned.

制御ユニット3は、前記ステップ92で認識した音声の内容、又は、前記ステップ94で作成した回答から抽出した特徴を前記マップに入力することにより、対応する感情を取得する。 The control unit 3 acquires the corresponding emotion by inputting the content of the voice recognized in the step 92 or the feature extracted from the answer created in the step 94 into the map.

次に、制御ユニット3は、取得した感情を表現する人又はキャラクタの顔画像を作成し、ディスプレイ19に表示する。例えば、取得した感情が喜びである場合、笑顔の人又はキャラクタの顔画像をディスプレイ19に表示する。また、取得した感情が悲しみである場合、泣き顔の人又はキャラクタの顔画像をディスプレイ19に表示する。 Next, the control unit 3 creates a face image of a person or a character expressing the acquired emotion and displays it on the display 19. For example, when the acquired emotion is joy, a face image of a smiling person or character is displayed on the display 19. When the acquired emotion is sadness, a face image of a person or a character with a crying face is displayed on the display 19.

ステップ98~102の処理は、それぞれ、前記第1の実施形態におけるステップ15~19の処理と同様である。
3.ロボット401が奏する効果
ロボット401は、前記(1A)~(1I)の効果を奏する。さらに、ロボット401は次の効果も奏する。
The processes of steps 98 to 102 are the same as the processes of steps 15 to 19 in the first embodiment, respectively.
3. 3. Effects of the robot 401 The robot 401 exhibits the effects of (1A) to (1I). Further, the robot 401 also has the following effects.

(5A)ロボット401は、音声の内容に関連する情報を、インターネット77において検索し、取得することができる。そして、ロボット401は、そのように取得した情報も用いて、回答音声データを作成する。そのことにより、より適切な回答音声データを作成することができる。 (5A) The robot 401 can search and acquire information related to the content of the voice on the Internet 77. Then, the robot 401 also creates the response voice data by using the information acquired in this way. As a result, more appropriate answer voice data can be created.

(5B)ロボット401は、回答の内容に応じて音声の種類を決定することができる。そのため、ユーザは、回答の内容と、それを発音する音声の種類との不調和を感じにくい。 (5B) The robot 401 can determine the type of voice according to the content of the answer. Therefore, the user is less likely to feel a discrepancy between the content of the answer and the type of voice that pronounces it.

(5C)ロボット401は、認識した音声の内容、又は、回答の内容に対応する感情を取得し、取得した感情を表現する人又はキャラクタの顔画像をディスプレイ19に表示する。そのことにより、ユーザは、ロボット401をあたかも人間のように感じることができる。
<第6の実施形態>
1.ロボット501の構成
本実施形態のロボット501の構成は、基本的には前記第1の実施形態のロボット1と同様である。
(5C) The robot 401 acquires an emotion corresponding to the recognized voice content or the response content, and displays a face image of a person or a character expressing the acquired emotion on the display 19. As a result, the user can feel the robot 401 as if it were a human being.
<Sixth Embodiment>
1. 1. Configuration of Robot 501 The configuration of the robot 501 of the present embodiment is basically the same as that of the robot 1 of the first embodiment.

2.ロボット501が実行する処理
(2-1)ロボット1と同様の処理
ロボット501は、前記第1の実施形態のロボット1と同様に、プログラム設定処理、会話処理、学習停止判断処理、及びスケジュール管理処理を実行する。
2. 2. Processing executed by the robot 501 (2-1) Processing similar to the robot 1 The robot 501 performs program setting processing, conversation processing, learning stop determination processing, and schedule management processing, as in the robot 1 of the first embodiment. To execute.

(2-2)通話処理
図18に示すように、複数のロボット501は、ユーザ79とユーザ81との間の通話を可能にする。例えば、ユーザ79側のロボット501(以下ではロボット501Aとする)は、ユーザ79が発音した音声をマイク5で取得する。また、ロボット501Aは、ユーザ79による、通話相手のロボット501(以下ではロボット501Bとする)を指定する入力を、タッチパネル9を用いて受け付ける。
(2-2) Call Processing As shown in FIG. 18, the plurality of robots 501 enable a call between the user 79 and the user 81. For example, the robot 501 on the user 79 side (hereinafter referred to as the robot 501A) acquires the voice pronounced by the user 79 with the microphone 5. Further, the robot 501A receives an input by the user 79 for designating the robot 501 of the other party (hereinafter referred to as the robot 501B) by using the touch panel 9.

ロボット501Aは、ユーザ79が発音した音声を変換した信号(以下では音声変換信号とする)と、ロボット501Aの識別信号と、ユーザ79により指定された通話相手のロボット501Bの識別信号とを、通信ユニット26を用いてホストコンピュータ83に送信する。 The robot 501A communicates a signal obtained by converting the voice produced by the user 79 (hereinafter referred to as a voice conversion signal), the identification signal of the robot 501A, and the identification signal of the robot 501B of the other party designated by the user 79. The unit 26 is used to transmit to the host computer 83.

ホストコンピュータ83は、受信したロボット501Aの識別信号と、通話相手のロボット501Bの識別信号とが、通話ペアとして設定されているか否かを判断する。通話ペアとして設定されていれば、音声変換信号を、通話相手のロボット501Bに転送する。なお、通話ペアの設定については後述する。 The host computer 83 determines whether or not the received identification signal of the robot 501A and the identification signal of the robot 501B of the other party are set as a call pair. If it is set as a call pair, the voice conversion signal is transferred to the robot 501B of the other party. The setting of the call pair will be described later.

ロボット501Bは、通信ユニット26を用いて、転送された音声変換信号を受信し、その音声変換信号に基づき、スピーカ15を用いて発音する。以上の処理により、ユーザ79が発音した音声が、ロボット501B側のユーザ81に伝えられる。また、ロボット501Bは、音声を発音することに加えて、その音声を文字に変換し、その文字をディスプレイ19に表示する。 The robot 501B receives the transferred voice conversion signal using the communication unit 26, and pronounces it using the speaker 15 based on the voice conversion signal. By the above processing, the voice pronounced by the user 79 is transmitted to the user 81 on the robot 501B side. In addition to pronouncing the voice, the robot 501B converts the voice into characters and displays the characters on the display 19.

また、ロボット501Bが上述したロボット501Aの処理を行い、ロボット501Aが上述したロボット501Bの処理を行うことで、ユーザ81が発音した音声を、ユーザ79に伝えることもできる。 Further, the robot 501B performs the processing of the robot 501A described above, and the robot 501A performs the processing of the robot 501B described above, so that the voice pronounced by the user 81 can be transmitted to the user 79.

一方、ホストコンピュータ83は、受信したロボット501Aの識別信号と、通話相手のロボット501Bの識別信号とが、通話ペアとして設定されてなければ、上記の音声変換信号の転送を行わない。 On the other hand, the host computer 83 does not transfer the voice conversion signal unless the received identification signal of the robot 501A and the identification signal of the robot 501B of the other party are set as a call pair.

(2-3)通話ペア設定処理
次に、ホストコンピュータ83が上記の通話ペアを設定する処理を、図19に基づき説明する。
(2-3) Call Pair Setting Process Next, a process in which the host computer 83 sets the above call pair will be described with reference to FIG.

ステップ111では、通話ペアの設定要求を新たに受信したか否かを判断する。通話ペアの設定要求とは、ロボット501Aがホストコンピュータ83に送信する要求である。通話ペアの設定要求には、要求の送信元であるロボット501Aの識別信号と、そのロボット501A側のユーザ79の特徴(例えば、趣味、衣食住の好み、関心を持つ事項等)と、ユーザ79の顔写真の画像データとが含まれる。 In step 111, it is determined whether or not a new call pair setting request has been received. The call pair setting request is a request transmitted by the robot 501A to the host computer 83. The call pair setting request includes the identification signal of the robot 501A that is the source of the request, the characteristics of the user 79 on the robot 501A side (for example, hobbies, tastes of food, clothing, and housing, matters of interest, etc.), and the user 79. Includes image data of facial photographs.

通話ペアの設定要求は、ユーザの指示に応じてロボット501Aが送信してもよいし、ロボット501Aが自動的に送信してもよい。通話ペアの設定要求をホストコンピュータ83が新たに受信した場合はステップ112に進み、受信しなかった場合は本処理を終了する。 The call pair setting request may be transmitted by the robot 501A according to a user's instruction, or may be automatically transmitted by the robot 501A. If the host computer 83 newly receives the call pair setting request, the process proceeds to step 112, and if the host computer 83 does not receive the call pair setting request, the process ends.

ステップ112では、前記ステップ111で受信したと判断した通話ペアの設定要求(以下では、新たな設定要求とする)に含まれるユーザ79の特徴を、設定待ちリストにおいて検索する。ここで、設定待ちリストとは、過去にいずれかのロボット501から受信した、通話ペアの設定要求(以下では、過去の設定要求とする)のリストである。 In step 112, the feature of the user 79 included in the setting request (hereinafter referred to as a new setting request) of the call pair determined to have been received in step 111 is searched in the setting waiting list. Here, the setting waiting list is a list of call pair setting requests (hereinafter referred to as past setting requests) received from any robot 501 in the past.

ステップ113では、前記ステップ112での検索の結果、新たな設定要求に含まれるユーザ79の特徴と一致する特徴を有する、過去の設定要求が発見されたか否かを判断する。そのような過去の設定要求が発見された場合はステップ114に進み、発見されなかった場合はステップ116に進む。 In step 113, as a result of the search in step 112, it is determined whether or not a past setting request having characteristics matching the characteristics of the user 79 included in the new setting request has been found. If such a past setting request is found, the process proceeds to step 114, and if not found, the process proceeds to step 116.

ステップ114では、前記ステップ113で発見された、過去の設定要求の送信元であるロボット501Bと、新たな設定要求の送信元であるロボット501Aとを、通話ペアとして設定する。 In step 114, the robot 501B, which is the source of the past setting request, and the robot 501A, which is the source of the new setting request, found in step 113 are set as a call pair.

ステップ115では、通話ペアとして設定されたロボット501A、501Bのそれぞれに、相手のロボット501に関する情報を通知する。すなわち、ロボット501Aにはロボット501Bに関する情報を通知し、ロボット501Bにはロボット501Aに関する情報を通知する。通知する情報には、相手のロボット501の識別信号、対応するユーザの顔写真の画像データ等が含まれる。 In step 115, each of the robots 501A and 501B set as a call pair is notified of information about the other robot 501. That is, the robot 501A is notified of the information about the robot 501B, and the robot 501B is notified of the information about the robot 501A. The information to be notified includes the identification signal of the robot 501 of the other party, the image data of the corresponding user's facial photograph, and the like.

一方、前記ステップ113で否定判断された場合はステップ116にて、新たな設定要求を設定待ちリストに追加する。これ以降、新たな設定要求は、過去の設定要求のリストにおける一部となる。 On the other hand, if a negative determination is made in step 113, a new setting request is added to the setting waiting list in step 116. From then on, new configuration requests will be part of the list of past configuration requests.

なお、相手側のロボット501に関する情報を通知されたロボット501は、その情報を用いて、通話ペアの相手を表すアイコン85を作成し、図20に示すように、ディスプレイ19に表示する。アイコン85は、通話ペアの相手側のユーザの顔写真を含む。ロボ
ット501は、複数のアイコン85をディスプレイ19に表示することができる。
The robot 501 notified of the information about the robot 501 on the other side creates an icon 85 representing the other party of the call pair using the information, and displays it on the display 19 as shown in FIG. 20. Icon 85 includes a face photo of the user on the other side of the call pair. The robot 501 can display a plurality of icons 85 on the display 19.

ロボット501は、特定のアイコン85がユーザによってタッチされたとき、そのアイコン85に対応するユーザを通話相手として認識する。そして、ロボット501は、音声変換信号を上記のようにホストコンピュータ83に送信するとき、タッチしたアイコン85に対応するロボット501の識別信号を、ホストコンピュータ83に送信する。 When a specific icon 85 is touched by the user, the robot 501 recognizes the user corresponding to the icon 85 as a call partner. Then, when the robot 501 transmits the voice conversion signal to the host computer 83 as described above, the robot 501 transmits the identification signal of the robot 501 corresponding to the touched icon 85 to the host computer 83.

(2-4)その他の処理
ホストコンピュータ83は、前記(2-2)の通話処理のとき、ロボット501Aが送信した音声変換信号の内容を分析する。その分析結果が予め設定された禁止事項(例えば犯罪に関する事項等)に該当する場合、通話処理を開始しないようにしたり、通話処理を途中で終了したりする。そのため、ホストコンピュータ83は、通話処理が犯罪等に利用されることを抑制できる。
(2-4) Other Processing The host computer 83 analyzes the content of the voice conversion signal transmitted by the robot 501A during the call processing of (2-2). If the analysis result corresponds to a preset prohibited matter (for example, a matter related to a crime), the call processing is prevented from being started or the call processing is terminated in the middle. Therefore, the host computer 83 can prevent the call processing from being used for crimes and the like.

また、前記(2-2)の通話処理のとき、ロボット501Bは、他のコンピュータ501Aから送信された音声も用いて学習を行う。そのため、学習を一層効率的に行うことができる。 Further, at the time of the call processing of (2-2), the robot 501B also learns by using the voice transmitted from the other computer 501A. Therefore, learning can be performed more efficiently.

また、前記(2-2)の通話処理において、ユーザ79の発音が所定時間以上途絶えたとき、又は、ユーザ79が指示したとき、ロボット501Aは、自らが作成した音声変換信号をホストコンピュータ83に送信する。この場合、ロボット501Aと、ユーザ81とが通話することになる。コンピュータ501Aは、過去の通話処理により得られた学習結果を用いて音声変換信号を作成することができる。また、ロボット501Aは、過去の通話においてロボット501A又はロボット501Bが発音した音声(例えば、相槌等)を記憶しておき、その音声に対応する音声変換信号を作成してもよい。 Further, in the call processing of (2-2), when the pronunciation of the user 79 is interrupted for a predetermined time or more, or when the user 79 instructs, the robot 501A transmits the voice conversion signal created by the robot 501 to the host computer 83. Send. In this case, the robot 501A and the user 81 will talk to each other. The computer 501A can create a voice conversion signal using the learning result obtained by the past call processing. Further, the robot 501A may store a voice (for example, an aizuchi) produced by the robot 501A or the robot 501B in a past call, and create a voice conversion signal corresponding to the voice.

3.ロボット501が奏する効果
ロボット501は、前記(1A)~(1I)の効果を奏する。さらに、ロボット501は次の効果も奏する。
3. 3. Effects of Robot 501 Robot 501 exhibits the effects of (1A) to (1I). Further, the robot 501 also has the following effects.

(6A)ロボット501A側のユーザ79と、ロボット501B側のユーザ81とは、通話を行うことができる。
(6B)ユーザ79とユーザ81との通話は、ロボット501Aとロボット501Bとが通話ペアとして設定されていることが前提になる。通話ペアは、ユーザ79とユーザ81との特徴が一致する場合に設定される。よって、ロボット501は、特徴が一致するユーザ同士の通話を選択的に可能にする。
(6A) The user 79 on the robot 501A side and the user 81 on the robot 501B side can make a call.
(6B) The call between the user 79 and the user 81 is premised on the fact that the robot 501A and the robot 501B are set as a call pair. The call pair is set when the characteristics of the user 79 and the user 81 match. Therefore, the robot 501 selectively enables a call between users having the same characteristics.

(6C)ロボット501は通話相手のユーザの顔写真を含むアイコン85を作成し、ディスプレイ19に表示する。ユーザは、アイコン85をタッチすることで、容易に通話相手を選択することができる。また、アイコン85は通話相手の顔写真を含んでいるので、ユーザは、どのアイコン85がどの通話相手に対応しているのかを容易に理解することができる。
<その他の実施形態>
(1)前記第1~第6の実施形態において、ロボット1、301、401、501、コンピュータ101、車載機201は、状況に応じて学習制限内容を増減してもよい。例えば、当初は学習制限内容に属していた事項が、複数の人物によって話されたと認識した場合、その事項を学習制限内容から除外してもよい。
(6C) The robot 501 creates an icon 85 including a face photograph of the user of the other party and displays it on the display 19. The user can easily select the other party by touching the icon 85. Further, since the icon 85 includes a photograph of the face of the other party, the user can easily understand which icon 85 corresponds to which other party.
<Other embodiments>
(1) In the first to sixth embodiments, the robots 1, 301, 401, 501, the computer 101, and the on-board unit 201 may increase or decrease the learning restriction content depending on the situation. For example, when it is recognized that a matter that originally belonged to the learning restriction content was spoken by a plurality of persons, the matter may be excluded from the learning restriction content.

(2)前記第1~第6の実施形態において、ロボット1、301、401、501、コンピュータ101、車載機201は、マイク5により音声を取得したとき、その音声の声
色を判断し、その判断結果に応じて、音声の内容を学習するか否かを決めてもよい。
(2) In the first to sixth embodiments, the robots 1, 301, 401, 501, the computer 101, and the vehicle-mounted device 201 determine the voice color of the voice when the voice is acquired by the microphone 5, and the determination is made. Depending on the result, it may be decided whether or not to learn the content of the voice.

(3)前記第1~第6の実施形態において、音声の認識結果に応じて行う処理は、回答音声データの作成(前記ステップ13)、車両の制御内容決定(前記ステップ33)以外のものであってもよい。例えば、音声の認識結果に応じて、ロボット1、301、401、501を移動させたり、コンピュータ101に接続した外部装置を操作したりしてもよい。また、音声の認識結果に応じて、例えば、所定の動作(例えば、箱の開閉、窓の開閉、鍵の施錠又は開錠、家電製品の操作等)を行ってもよい。 (3) In the first to sixth embodiments, the processing performed according to the voice recognition result is other than the creation of the response voice data (step 13) and the determination of the control content of the vehicle (step 33). There may be. For example, the robots 1, 301, 401, and 501 may be moved or an external device connected to the computer 101 may be operated according to the voice recognition result. Further, depending on the voice recognition result, for example, a predetermined operation (for example, opening / closing a box, opening / closing a window, locking / unlocking a key, operating a home electric appliance, etc.) may be performed.

(4)前記第1~第6の実施形態において、AI用プログラム及びデータセットを記憶するものは、クラウドネットワーク31以外のものであってもよい。例えば、周知のサーバ、記憶媒体等に記憶してもよい。 (4) In the first to sixth embodiments, the one that stores the AI program and the data set may be something other than the cloud network 31. For example, it may be stored in a well-known server, storage medium, or the like.

(5)前記第3の実施形態において、車載機201は、車両以外の移動体(例えば、鉄道車両、航空機、船舶等)に搭載され、それらを制御するものであってもよい。
(6)前記第1、第4~6の実施形態において、ロボット1、301、401、501の形態は人型でなくてもよい。例えば、動物、魚、想像上キャラクタ等の形態であってもよい。
(5) In the third embodiment, the on-board unit 201 may be mounted on a moving body other than a vehicle (for example, a railroad vehicle, an aircraft, a ship, etc.) and control them.
(6) In the first, fourth to sixth embodiments, the robots 1, 301, 401 and 501 do not have to be humanoid. For example, it may be in the form of an animal, a fish, an imaginary character, or the like.

(7)前記第1~第3、第5、第6の実施形態において、ロボット1、401、501、コンピュータ101、車載機201は、標準プログラムと、AI用プログラムとを同時に使用してもよい。この場合、標準プログラムにより基本的な処理を実行するとともに、AI用プログラムにより、学習の結果得られた付加的な処理を実行することができる。 (7) In the first to third, fifth, and sixth embodiments, the robots 1, 401, 501, the computer 101, and the vehicle-mounted device 201 may use the standard program and the AI program at the same time. .. In this case, the standard program can execute the basic processing, and the AI program can execute the additional processing obtained as a result of the learning.

(8)前記第1~第6の実施形態において、ロボット1、301、401、501、コンピュータ101、車載機201の形態は、家電製品(例えば、テレビ、冷蔵庫、エアコン、掃除機、洗濯機等)、携帯端末(例えば、携帯電話(スマートフォンを含む)、メガネ型端末、腕時計型端末)等であってもよい。 (8) In the first to sixth embodiments, the robots 1, 301, 401, 501, the computer 101, and the in-vehicle device 201 are home appliances (for example, a television, a refrigerator, an air conditioner, a vacuum cleaner, a washing machine, etc.). ), A mobile terminal (for example, a mobile phone (including a smartphone), a glasses-type terminal, a wristwatch-type terminal) and the like.

(9)前記第1~第6の実施形態において、ロボット1、301、401、501、コンピュータ101、車載機201は、カメラ7を用いて自動的に画像を取得し、取得した画像をネットワーク上に送信する機能を有していてもよい。送信先としては、サーバ、端末、車両、他のロボット等が挙げられる。送信する画像は、カメラ7を用いて取得した画像そのものであってもよいし、カメラ7を用いて取得した画像から抽出した一部(例えば、人の顔、人の全身、車両、車両のナンバープレート等)の画像であってもよい。 (9) In the first to sixth embodiments, the robots 1, 301, 401, 501, the computer 101, and the on-board unit 201 automatically acquire images using the camera 7, and the acquired images are obtained on the network. It may have a function of transmitting to. Examples of the destination include servers, terminals, vehicles, and other robots. The image to be transmitted may be the image itself acquired by using the camera 7, or a part (for example, a person's face, a person's whole body, a vehicle, a vehicle number) extracted from the image acquired by using the camera 7. It may be an image of a plate or the like).

上記の機能を有するロボット1、301、401、501、コンピュータ101、車載機201は、防犯の用途、他のロボットの監視の用途等に使用することができる。上記の機能を有するロボット1、301、401、501、コンピュータ101、車載機201は、例えば、室内、路上、特定の施設(例えば、住居、マンション、オフィス、駐車場等)の入口、他のロボットの近傍等に設置することができる。 The robots 1, 301, 401, 501, the computer 101, and the on-board unit 201 having the above functions can be used for crime prevention, monitoring of other robots, and the like. The robots 1, 301, 401, 501, the computer 101, and the in-vehicle device 201 having the above functions are, for example, indoors, on the street, at the entrance of a specific facility (for example, a residence, an apartment, an office, a parking lot, etc.), and other robots. It can be installed in the vicinity of.

また、上記の機能を有するロボット1、301、401、501、コンピュータ101、車載機201は、空中を飛行する機能を持つか、飛行物に搭載することができる。その場合、上空の視点から撮影した地上の画像をネットワーク上で送信することができる。この場合、ロボット1、301、401、501、コンピュータ101、車載機201は、撮影した画像において道路の白線を認識し、その白線に沿って移動することができる。また、ロボット1、301、401、501、コンピュータ101、車載機201は、上空の視点から撮影した地上の画像において信号機を認識し、その表示内容(赤信号、青信号等)を、地上の車両に送信することができる。 Further, the robots 1, 301, 401, 501, the computer 101, and the on-board unit 201 having the above functions have a function of flying in the air or can be mounted on a flying object. In that case, the image on the ground taken from the viewpoint in the sky can be transmitted on the network. In this case, the robots 1, 301, 401, 501, the computer 101, and the on-board unit 201 can recognize the white line of the road in the captured image and move along the white line. Further, the robots 1, 301, 401, 501, the computer 101, and the on-board unit 201 recognize the traffic light in the image of the ground taken from the viewpoint in the sky, and display the display contents (red light, green light, etc.) on the vehicle on the ground. Can be sent.

(10)前記第1~第6の実施形態において、ロボット1、301、401、501、コンピュータ101、車載機201は、カメラ7を用いて人の行動を認識し、その認識結果に予め関連付けられた音声を出力してもよい。 (10) In the first to sixth embodiments, the robots 1, 301, 401, 501, the computer 101, and the vehicle-mounted device 201 recognize the human behavior by using the camera 7, and are associated with the recognition result in advance. You may output the voice.

例えば、ガスの火をつけたまま人が台所を離れるという行動を認識した場合、その人に対する警告の音声を出力することができる。また、人が所定の物を探す行動を認識した場合、その物の場所を探し、物のありかを音声で知らせることができる。また、人が住宅の入口から室内に入るという行動を認識したとき、「おかえりなさい」という音声を出力することができる。人の行動と、それに関連付けられた音声とは、学習により増加させることができる。 For example, if a person recognizes the behavior of leaving the kitchen with the gas lit, a warning voice for the person can be output. In addition, when a person recognizes an action of searching for a predetermined object, he / she can search for the location of the object and notify the location of the object by voice. In addition, when a person recognizes the behavior of entering the room from the entrance of the house, the voice "Welcome back" can be output. Human behavior and the voice associated with it can be increased by learning.

上記のように音声を発する場合、その音声の種類は、そのときの状況と、音声の内容とに関連付けられたものとすることができる。例えば、画像において父親を認識した場合、「おかえりなさい」という音声の種類は、その子供の声とすることができる。 When the voice is emitted as described above, the type of the voice can be associated with the situation at that time and the content of the voice. For example, if the father is recognized in the image, the type of voice "Welcome back" can be the voice of the child.

(11)前記第1~第6の実施形態において、制御ユニットは、マイクロコンピュータを備えているが、個別の電子回路の組合せであってもよいし、AISIC(Application Specified Integrated Circuit)であってもよいし、FPGA(Field Programmable Gate Array)などのプログラマブル・ロジック・デバイスあるいはこれらの組合せであってもよい。
(12)前記第1~第6の実施形態の構成の一部又は全部を適宜組み合わせてもよい。例えば、前記第4~第6の実施形態の構成を、前記第2、第3の実施形態に適用してもよい。
(11) In the first to sixth embodiments, the control unit includes a microcomputer, but it may be a combination of individual electronic circuits or an AISIC (Programmable Integrated Circuit). It may be a programmable logic device such as FPGA (Field Programmable Gate Array) or a combination thereof.
(12) A part or all of the configurations of the first to sixth embodiments may be combined as appropriate. For example, the configuration of the fourth to sixth embodiments may be applied to the second and third embodiments.

Claims (7)

車両の乗員の音声を取得するように構成された音声取得ユニットと、
前記音声取得ユニットが取得した前記音声を認識するように構成された音声認識ユニットと、
前記音声認識ユニットの認識結果について学習する第1学習ユニットと、
前記音声認識ユニットの認識結果に対し、前記第1学習ユニットの学習結果を用いて、回答を発音するように構成された回答発音ユニットと、
前記音声取得ユニットが取得した前記音声から、前記車両に対する指示を認識するように構成された指示認識ユニットと、
前記指示認識ユニットが認識した前記指示に応じ、プログラムを使用して前記車両の制御内容を決定するように構成された制御内容決定ユニットと、
前記制御内容決定ユニットが決定した前記制御内容を、前記車両を制御する車両制御部に出力するように構成された制御内容出力ユニットと、
センサを使用して、前記車両の状態を取得するように構成された車両状態取得ユニットと、
前記制御内容出力ユニットが出力した前記制御内容と、前記車両状態取得ユニットが取得した前記車両の状態とに基づき学習を行うように構成された第2学習ユニットと、
前記第2学習ユニットの学習結果を反映するように前記プログラムを更新するように構成されたプログラム更新ユニットと、
を備え
前記指示は、発進、停止、減速、加速、右左折、レーンチェンジ、又はシフトチェンジの指示である、
車載機。
With a voice acquisition unit configured to acquire the voice of the occupants of the vehicle,
A voice recognition unit configured to recognize the voice acquired by the voice acquisition unit, and a voice recognition unit.
A first learning unit that learns about the recognition result of the voice recognition unit, and
An answer pronunciation unit configured to pronounce an answer using the learning result of the first learning unit with respect to the recognition result of the voice recognition unit.
An instruction recognition unit configured to recognize an instruction to the vehicle from the voice acquired by the voice acquisition unit.
A control content determination unit configured to determine the control content of the vehicle using a program in response to the instruction recognized by the instruction recognition unit.
A control content output unit configured to output the control content determined by the control content determination unit to a vehicle control unit that controls the vehicle, and a control content output unit.
A vehicle state acquisition unit configured to acquire the state of the vehicle using sensors, and
A second learning unit configured to perform learning based on the control content output by the control content output unit and the state of the vehicle acquired by the vehicle state acquisition unit.
A program update unit configured to update the program so as to reflect the learning result of the second learning unit, and a program update unit.
Equipped with
The instructions are instructions for starting, stopping, decelerating, accelerating, turning left or right, lane change, or shift change.
In-vehicle device.
請求項1に記載の車載機であって、
前記乗員が声に出して言った識別情報から、音声認識により、前記識別情報を特定するように構成された識別情報特定ユニットと、
前記識別情報特定ユニットが特定した前記識別情報に対応する前記プログラムを前記車載機にインストールするように構成されたインストールユニットと、
をさらに備える車載機。
The in-vehicle device according to claim 1.
An identification information identification unit configured to identify the identification information by voice recognition from the identification information that the occupant said aloud.
An installation unit configured to install the program corresponding to the identification information specified by the identification information identification unit on the in-vehicle device, and an installation unit.
In-vehicle device equipped with.
請求項1又は2に記載の車載機であって、
前記プログラムを、クラウドから前記車載機にインストールするように構成されたインストールユニットをさらに備える、
車載機。
The in-vehicle device according to claim 1 or 2.
It further comprises an installation unit configured to install the program from the cloud onto the in-vehicle device.
In-vehicle device.
請求項1~3のいずれか1項に記載の車載機であって、
いずれかの前記車載機において更新された前記プログラムを、任意の前記車載機にインストール可能である、
車載機。
The in-vehicle device according to any one of claims 1 to 3.
The program updated in any of the in-vehicle devices can be installed in any of the in-vehicle devices.
In-vehicle device.
請求項1~4のいずれか1項に記載の車載機であって、
前記車載機の周囲にいる人の動作、前記人の識別結果、又は、前記車載機が存在する場所に応じて、前記第1学習ユニットによる学習を停止するように構成された学習停止ユニットと、
前記人の動作、又は、音声の認識結果に応じて、停止していた前記第1学習ユニットによる学習を再開するように構成された学習再開ユニットと、
をさらに備える、
車載機。
The in-vehicle device according to any one of claims 1 to 4.
A learning stop unit configured to stop learning by the first learning unit according to the movement of a person around the in-vehicle device, the identification result of the person, or the place where the in-vehicle device exists.
A learning restart unit configured to restart learning by the first learning unit that has been stopped according to the movement of the person or the recognition result of the voice.
Further prepare,
In-vehicle device.
請求項1~5のいずれか1項に記載の車載機であって、
前記第2学習ユニットが行う学習は、前記車両状態取得ユニットが取得する前記車両の状態が予め設定された最適範囲となるように、前記制御内容決定ユニットが決定する前記車両の制御内容を修正するものである、
車載機。
The in-vehicle device according to any one of claims 1 to 5.
The learning performed by the second learning unit modifies the control content of the vehicle determined by the control content determination unit so that the state of the vehicle acquired by the vehicle state acquisition unit is within a preset optimum range. Is a thing,
In-vehicle device.
請求項1~6のいずれか1項に記載の車載機を備える車両。 A vehicle including the in-vehicle device according to any one of claims 1 to 6.
JP2020105300A 2014-12-25 2020-06-18 On-board equipment and vehicles Active JP6994781B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021115110A JP7122038B2 (en) 2014-12-25 2021-07-12 In-vehicle device and vehicle
JP2021197647A JP7251833B2 (en) 2014-12-25 2021-12-06 Host computer and system
JP2023032952A JP2023065621A (en) 2014-12-25 2023-03-03 Robot and vehicle
JP2023038727A JP7555620B2 (en) 2014-12-25 2023-03-13 Information processing system, electronic device, information processing method, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014262907 2014-12-25
JP2014262907 2014-12-25

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018236315A Division JP6744529B2 (en) 2014-12-25 2018-12-18 In-vehicle device and vehicle

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2021115110A Division JP7122038B2 (en) 2014-12-25 2021-07-12 In-vehicle device and vehicle
JP2021197647A Division JP7251833B2 (en) 2014-12-25 2021-12-06 Host computer and system

Publications (2)

Publication Number Publication Date
JP2020173453A JP2020173453A (en) 2020-10-22
JP6994781B2 true JP6994781B2 (en) 2022-01-14

Family

ID=56149918

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2016565988A Active JP6544693B2 (en) 2014-12-25 2015-10-21 robot
JP2018236315A Active JP6744529B2 (en) 2014-12-25 2018-12-18 In-vehicle device and vehicle
JP2020105300A Active JP6994781B2 (en) 2014-12-25 2020-06-18 On-board equipment and vehicles
JP2021115110A Active JP7122038B2 (en) 2014-12-25 2021-07-12 In-vehicle device and vehicle
JP2021197647A Active JP7251833B2 (en) 2014-12-25 2021-12-06 Host computer and system
JP2023032952A Pending JP2023065621A (en) 2014-12-25 2023-03-03 Robot and vehicle

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016565988A Active JP6544693B2 (en) 2014-12-25 2015-10-21 robot
JP2018236315A Active JP6744529B2 (en) 2014-12-25 2018-12-18 In-vehicle device and vehicle

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2021115110A Active JP7122038B2 (en) 2014-12-25 2021-07-12 In-vehicle device and vehicle
JP2021197647A Active JP7251833B2 (en) 2014-12-25 2021-12-06 Host computer and system
JP2023032952A Pending JP2023065621A (en) 2014-12-25 2023-03-03 Robot and vehicle

Country Status (2)

Country Link
JP (6) JP6544693B2 (en)
WO (1) WO2016103881A1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017191390A (en) * 2016-04-12 2017-10-19 ロボットスタート株式会社 Communication system, communication log collection system, server, and communication method
JP6329331B1 (en) * 2016-07-04 2018-05-23 株式会社Seltech System with artificial intelligence
CN106297782A (en) * 2016-07-28 2017-01-04 北京智能管家科技有限公司 A kind of man-machine interaction method and system
US10304463B2 (en) * 2016-10-03 2019-05-28 Google Llc Multi-user personalization at a voice interface device
CN107053191B (en) 2016-12-31 2020-05-08 华为技术有限公司 Robot, server and man-machine interaction method
WO2019064650A1 (en) * 2017-09-28 2019-04-04 三菱自動車工業株式会社 Information transfer support system for vehicle
JP2021121877A (en) * 2018-04-27 2021-08-26 ソニーグループ株式会社 Information processing device and information processing method
CN109118860A (en) * 2018-09-19 2019-01-01 江苏金惠甫山软件科技有限公司 Expert English language training by qualified teachers system and method based on artificial intelligence
JP2020056907A (en) * 2018-10-02 2020-04-09 株式会社Tarvo Cloud voice conversion system
JP7342419B2 (en) * 2019-05-20 2023-09-12 カシオ計算機株式会社 Robot control device, robot, robot control method and program
JP7151654B2 (en) 2019-07-26 2022-10-12 トヨタ自動車株式会社 Search device, learning device, search system, search program, and learning program
JP2021144086A (en) * 2020-03-10 2021-09-24 株式会社東海理化電機製作所 Agent system and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004109323A (en) 2002-09-17 2004-04-08 Denso Corp Voice interaction apparatus and program
JP2005345903A (en) 2004-06-04 2005-12-15 Honda Motor Co Ltd Vocal equipment control unit
JP2007034198A (en) 2005-07-29 2007-02-08 Denso Corp Speech recognition system and mobile terminal device used therefor
JP2011073565A (en) 2009-09-30 2011-04-14 Nec Software Chubu Ltd Driving assistance system, server device, driving assistance device, and information processing method
JP2013079076A (en) 2013-02-05 2013-05-02 Denso Corp Control system of onboard device

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL90277A0 (en) * 1989-05-12 1989-12-15 Shmuel Shapira System for locating compatible persons at a given locality
JP2522414B2 (en) * 1989-10-19 1996-08-07 日本電気株式会社 Server-client connection method
JP4543444B2 (en) 1999-02-24 2010-09-15 株式会社エクォス・リサーチ Vehicle control device
JP4000828B2 (en) * 2001-11-06 2007-10-31 株式会社デンソー Information system, electronic equipment, program
JP2004214895A (en) 2002-12-27 2004-07-29 Toshiba Corp Auxiliary communication apparatus
JP4343621B2 (en) * 2003-08-22 2009-10-14 エヌ・ティ・ティ・コミュニケーションズ株式会社 File management system, file generation device, file acquisition device, authentication device, and program
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
WO2008007688A1 (en) 2006-07-13 2008-01-17 Nec Corporation Talking terminal having voice recognition function, sound recognition dictionary update support device, and support method
JP2011085966A (en) * 2009-10-13 2011-04-28 Sony Corp Information processing device, information processing method, and program
JP5742184B2 (en) 2010-11-16 2015-07-01 トヨタ自動車株式会社 Driving assistance device
JP5667895B2 (en) 2011-01-25 2015-02-12 メガトレンド株式会社 Bank transfer fraud prevention device
JP2013223161A (en) 2012-04-18 2013-10-28 Fic Service Co Ltd Telephone call connection service system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004109323A (en) 2002-09-17 2004-04-08 Denso Corp Voice interaction apparatus and program
JP2005345903A (en) 2004-06-04 2005-12-15 Honda Motor Co Ltd Vocal equipment control unit
JP2007034198A (en) 2005-07-29 2007-02-08 Denso Corp Speech recognition system and mobile terminal device used therefor
JP2011073565A (en) 2009-09-30 2011-04-14 Nec Software Chubu Ltd Driving assistance system, server device, driving assistance device, and information processing method
JP2013079076A (en) 2013-02-05 2013-05-02 Denso Corp Control system of onboard device

Also Published As

Publication number Publication date
JP2020173453A (en) 2020-10-22
JP2019095795A (en) 2019-06-20
JPWO2016103881A1 (en) 2017-10-05
JP6544693B2 (en) 2019-07-17
JP2022043116A (en) 2022-03-15
JP2021185410A (en) 2021-12-09
JP6744529B2 (en) 2020-08-19
JP7122038B2 (en) 2022-08-19
JP2023065621A (en) 2023-05-12
WO2016103881A1 (en) 2016-06-30
JP7251833B2 (en) 2023-04-04
JP2023072025A (en) 2023-05-23

Similar Documents

Publication Publication Date Title
JP6994781B2 (en) On-board equipment and vehicles
US20200042775A1 (en) Artificial intelligence server and method for de-identifying face area of unspecific person from image file
US11126833B2 (en) Artificial intelligence apparatus for recognizing user from image data and method for the same
US11430278B2 (en) Building management robot and method of providing service using the same
US11289074B2 (en) Artificial intelligence apparatus for performing speech recognition and method thereof
US11107471B2 (en) Dialog processing server, control method for dialog processing server, and terminal
US11568239B2 (en) Artificial intelligence server and method for providing information to user
US10872438B2 (en) Artificial intelligence device capable of being controlled according to user&#39;s gaze and method of operating the same
US20190354178A1 (en) Artificial intelligence device capable of being controlled according to user action and method of operating the same
US11501250B2 (en) Refrigerator for providing information on item using artificial intelligence and method of operating the same
US11748614B2 (en) Artificial intelligence device for controlling external device
CN110871447A (en) Vehicle-mounted robot and man-machine interaction method thereof
US11270700B2 (en) Artificial intelligence device and method for recognizing speech with multiple languages
JP2022183363A (en) Mobile device and program for mobile device
US11116027B2 (en) Electronic apparatus and operation method thereof
US20190371149A1 (en) Apparatus and method for user monitoring
US20210137311A1 (en) Artificial intelligence device and operating method thereof
JP7555620B2 (en) Information processing system, electronic device, information processing method, and computer program
US20190377489A1 (en) Artificial intelligence device for providing voice recognition service and method of operating the same
US11170239B2 (en) Electronic apparatus and operation method thereof
US11288840B2 (en) Artificial intelligence apparatus for estimating pose of head and method for the same
KR102514128B1 (en) An artificial intelligence apparatus for providing a connection between home devices and method thereof
US11345023B2 (en) Modular robot and operation method thereof
US20240203099A1 (en) Artificial intelligence device and 3d agency generating method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211207

R150 Certificate of patent or registration of utility model

Ref document number: 6994781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350