JP2018050161A - Communication system - Google Patents

Communication system Download PDF

Info

Publication number
JP2018050161A
JP2018050161A JP2016184097A JP2016184097A JP2018050161A JP 2018050161 A JP2018050161 A JP 2018050161A JP 2016184097 A JP2016184097 A JP 2016184097A JP 2016184097 A JP2016184097 A JP 2016184097A JP 2018050161 A JP2018050161 A JP 2018050161A
Authority
JP
Japan
Prior art keywords
information
user
terminal
communication
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016184097A
Other languages
Japanese (ja)
Inventor
直行 久保田
Naoyuki Kubota
直行 久保田
武慶 大保
Takenori Obo
武慶 大保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Metropolitan Public University Corp
Original Assignee
Tokyo Metropolitan Public University Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Metropolitan Public University Corp filed Critical Tokyo Metropolitan Public University Corp
Priority to JP2016184097A priority Critical patent/JP2018050161A/en
Publication of JP2018050161A publication Critical patent/JP2018050161A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a communication system contributing to protection of privacy by supporting communication based on the information between users, and exchanging information mutually without disclosing the information directly.SOLUTION: A communication system for supporting information exchange work of multiple users includes a terminal having voice call acquisition means and image display acquisition means, and including communication means capable of acquiring usage status information, and allowing mutual information exchange of respective terminals, a database storing user information and connected with the terminal, and information acquisition update means for acquiring information of a user by accessing the database, and additionally storing the user information, acquired from the terminal, in the database thus updating to the up-to-date information. The terminal includes information exchange means for exchanging information with the user by collating user status information and user information, and also exchanging information based on the information from other user according to the user status information from other terminal.SELECTED DRAWING: Figure 1

Description

本発明は、互いに離隔された位置にいる複数の利用者間におけるコミュニケーションを補助するコミュニケーションシステムに関する。   The present invention relates to a communication system for assisting communication between a plurality of users located at positions separated from each other.

近年、高齢化社会化における高齢者とその家族、又は共働きの核家族における親子のコミュニケーションを如何にして円滑にとるかという問題が指摘されている。この問題を解消するためにITを活用したシステムが活用されており、例えば特許文献1には、相手に自分の存在を提示する度合いの調整を行うことが可能なように、第1拠点に配置されたテレビ会議端末および第2拠点に配置されたテレビ会議端末との間で通信ネットワークを経由したコミュニケーションを補助するコミュニケーション補助装置であって、第1拠点には、推定された第2拠点の状況を表す第2拠点状況情報を受信する無線通信部と、第1拠点にいる第1参加者が知覚可能な感覚量の範囲を算出する感覚量範囲算出部と、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、第2拠点にいる第2参加者の意思量を算出する意思量算出部と、意思量に応じた刺激を前記第1参加者が知覚できるように出力する刺激出力部とを備えるコミュニケーション補助装置が提案されている。
また、特許文献2には、ロボットを使って近親者と単身の高齢者とのコミュニケーションを支援するシステムとして、高齢者の発話に対して近親者からの返答が所定時間無いとき、コンピュータの音声編集手段は、会話知識データベースを参照して、高齢者の発話から抽出されたキーワードに対応する近親者の発話データを取得し、その発話データを用いて、近親者の発話を伝達する形式の合成音声を編集し、その音声はロボットから発話され、近親者が高齢者と直接対応を始めた場合でも、途中で、ロボットに代わって貰うことがでる、コミュニケーション支援システムが提案されている。
In recent years, the problem of how to facilitate communication between the elderly and their families in an aging society, or parent and child in a dual working nuclear family has been pointed out. In order to solve this problem, a system using IT is used. For example, Patent Document 1 is arranged at the first base so that the degree of presenting its presence to the other party can be adjusted. A communication assistance device for assisting communication via a communication network between the video conference terminal and the video conference terminal arranged at the second site, and the first site has the estimated status of the second site A wireless communication unit that receives the second site status information representing the position, a sensory amount range calculation unit that calculates the range of the sensory amount perceivable by the first participant at the first site, the second site status information, the first Based on the range of the sense amount of the participant, an intention amount calculation unit for calculating the intention amount of the second participant at the second base, and output so that the first participant can perceive a stimulus according to the intention amount Stimulation output unit Communication assisting apparatus has been proposed which comprises a.
In addition, Patent Document 2 discloses a system for supporting communication between a close relative and a single elderly person using a robot. When there is no response from the close relative for an elderly person's utterance for a predetermined time, a computer voice editing is performed. The means refers to the conversation knowledge database, obtains the speech data of the close relative corresponding to the keyword extracted from the speech of the elderly person, and uses the speech data to transmit the speech of the close relative. A communication support system has been proposed in which the voice is spoken from the robot and even if a close relative starts to deal directly with the elderly, he / she can speak on behalf of the robot.

特開2015−220534号公報JP 2015-220534 A 特開2015−184597号公報Japanese Patent Laying-Open No. 2015-184597

しかしながら、従来提案されているコミュニケーション支援システムでは、少なくともいずれか一方の利用者にコミュニケーションをとろうという積極的な意思があって初めてシステムが機能するものであるため積極的な利用意志がなくてもコミュニケーションを負った方がいい場合に情報伝達が行われないという問題があった。また、両利用者の現在の状態など種々情報を相手側にそのまま開示するため、プライバシーの保護が不完全であるという問題もあった。   However, in the conventionally proposed communication support system, since the system functions only when there is an active intention to communicate with at least one of the users, even if there is no active use intention There was a problem that information was not transmitted when it was better to bear communication. In addition, since various information such as the current state of both users is disclosed to the other party as it is, there is a problem that privacy protection is incomplete.

したがって、本発明の目的は、直接コミュニケーションをとる意思を持っていない場合でも利用者相互の情報に基づいてコミュニケーション支援を行うことができ、また、直接情報を開示しないで相互に情報交換を行うことができ、プライバシーの保護に資する、コミュニケーションシステムを提供することにある。   Therefore, the object of the present invention is to provide communication support based on information between users even when they do not intend to communicate directly, and to exchange information without disclosing information directly. Is to provide a communication system that can protect privacy.

本発明は以下の各発明を提供するものである。
1.複数の利用者の情報交換作業をサポートするコミュニケーションシステムであって、
各利用者が利用する複数の端末であって、利用者と情報交換を行うための音声発信取得手段及び画像表示取得手段を有し、利用者の利用状態に基づく利用状態情報を取得することができると共に、各端末相互に情報交換可能な通信手段を備えた端末と、
利用者に関する所定の利用者情報が格納され、上記端末に連結されたデータベースと、
データベースにアクセスして利用者の情報を取得すると共に上記端末から取得する利用者情報をデータベースに追加格納して最新の情報に更新する情報取得更新手段と、
を具備し、
上記端末は、上記利用者状態情報及び上記利用者情報を照合して、利用者と情報交換すると共に、他の端末からの他の利用者状態情報に従って他の利用者からの情報にもとづいた情報交換をも行う、情報交換手段を具備する
コミュニケーションシステム。
2.上記端末は、画像表示手段、該端末自体の存在位置を適宜変更する移動手段及び端末の形を所望の形態に変形する変形手段を備える1記載のコミュニケーションシステム。
The present invention provides the following inventions.
1. A communication system that supports information exchange work among multiple users,
A plurality of terminals used by each user, having voice transmission acquisition means and image display acquisition means for exchanging information with the user, and acquiring usage state information based on the usage state of the user A terminal equipped with a communication means capable of exchanging information with each other, and
A predetermined user information about the user is stored and linked to the terminal,
Information acquisition and updating means for acquiring user information by accessing the database and additionally storing user information acquired from the terminal in the database and updating it to the latest information;
Comprising
The terminal collates the user status information and the user information, exchanges information with the user, and information based on information from other users according to other user status information from other terminals. A communication system equipped with information exchange means for exchanging information.
2. The communication system according to 1, wherein the terminal includes image display means, moving means for appropriately changing the location of the terminal itself, and deformation means for changing the shape of the terminal into a desired form.

本発明のコミュニケーションシステムは、直接コミュニケーションをとる意思を持っていない場合でも利用者相互の情報に基づいてコミュニケーション支援を行うことができ、また、直接情報を開示しないで相互に情報交換を行うことができ、プライバシーの保護に資するものである。   The communication system of the present invention can provide communication support based on mutual information even when the user does not intend to communicate directly, and can exchange information without disclosing the information directly. Yes, it helps protect privacy.

図1は、本発明の1実施形態としてのコミュニケーションシステムを模式的に示す概要図である。FIG. 1 is a schematic diagram schematically showing a communication system as one embodiment of the present invention. 図2は、図1に示す端末の拡大図である。FIG. 2 is an enlarged view of the terminal shown in FIG. 図3は、ロボットシステムとセンサノードから構成される全体システムのためのサーバー構成の1例を示すシステム構成図である。FIG. 3 is a system configuration diagram showing an example of a server configuration for the entire system including a robot system and sensor nodes. 図4はカメラで取得した画像の処理に関するフローと音声対話を行う場合のフローを示すフローシートである。FIG. 4 is a flow sheet showing a flow relating to processing of an image acquired by the camera and a flow in the case of performing voice dialogue. 図5は、会話システムを構成する場合に基本構造図である。FIG. 5 is a basic structure diagram when a conversation system is configured. 図6は、端末の対話システムの対話モードを示すフロー図である。FIG. 6 is a flowchart showing the dialogue mode of the dialogue system of the terminal. 図7は、時間依存発話の種類を示すチャートである。FIG. 7 is a chart showing types of time-dependent utterances. 図8は、マルチなロボットシステム(端末)によるコミュニケーションをとる場合のフローを示す図である。FIG. 8 is a diagram illustrating a flow when communication is performed by a multi-robot system (terminal). 図9は、タッチインターフェースのバリエーションを示す図である。FIG. 9 is a diagram showing variations of the touch interface. 図10は、インターフェースにおける情動モデルに基づく感情表出のバリエーションを示す図である。FIG. 10 is a diagram showing variations in emotional expression based on an emotion model in the interface. 図11は、情報の種類と構造を示す図である。FIG. 11 is a diagram showing information types and structures. 図12は、人間行動計測に関する情報をピラミッド構造において示す図である。FIG. 12 is a diagram showing information related to human behavior measurement in a pyramid structure.

1 、10 、20、30 、40 1, 10, 20, 30, 40

以下、本発明の実施形態を、図面を参照して説明する。
図1に示すように、本実施形態のコミュニケーションシステム1は、スマートデバイス12(図2参照)とスマートデバイスに連結されたロボットシステム14(図2参照)とからなる複数の端末10と、サーバー20とからなる。
端末10は、図1に示すように、各利用者が利用するものであり、利用者ごとに保有し利用するため、システム上複数存在する。また、端末は、利用者と情報交換を行うための音声発信取得手段及び画像表示取得手段を有し、利用者の利用状態に基づく利用状態情報を取得することができると共に、各端末相互に情報交換可能な通信手段を備える。さらに、上記利用者状態情報及び上記利用者情報を照合して、利用者と情報交換すると共に、他の端末からの他の利用者状態情報に従って他の利用者からの情報にもとづいた情報交換をも行う、情報交換手段を具備する。
また、サーバー20は、利用者に関する所定の利用者情報が格納され、上記端末に連結されたデータベースと、データベースにアクセスして利用者の情報を取得すると共に上記端末から取得する利用者情報をデータベースに追加格納して最新の情報に更新する情報取得更新手段とを具備する。
スマートデバイスは、通信機能、画像取得機能、画像表示機能、音声取得機能、音声発信機能を有し、中央演算装置(CPU)、処理のためのデータやプログラムを一時的に保存してCPUで適宜活用できるようにするメモリ、及びデータやプログラムを保存格納する記録媒体を有する通信機器であれば、特に制限なく用いることができる。
以下、さらに詳細に説明する。
Embodiments of the present invention will be described below with reference to the drawings.
As shown in FIG. 1, the communication system 1 of this embodiment includes a plurality of terminals 10 including a smart device 12 (see FIG. 2) and a robot system 14 (see FIG. 2) connected to the smart device, and a server 20. It consists of.
As shown in FIG. 1, a plurality of terminals 10 are used by each user, and each terminal 10 is owned and used by each user. In addition, the terminal has a voice transmission acquisition unit and an image display acquisition unit for exchanging information with the user, and can acquire usage state information based on the usage state of the user. An exchangeable communication means is provided. Further, the user status information and the user information are collated and exchanged with the user, and information exchange based on information from other users is performed in accordance with other user status information from other terminals. The information exchange means is also provided.
In addition, the server 20 stores predetermined user information related to users, a database connected to the terminal, a user accessing the database to acquire user information, and user information acquired from the terminal to the database. And an information acquisition / update means for updating the information to the latest information.
The smart device has a communication function, an image acquisition function, an image display function, a voice acquisition function, and a voice transmission function. The central processing unit (CPU) temporarily stores data and programs for processing and is appropriately executed by the CPU. Any communication device having a memory that can be utilized and a recording medium that stores and stores data and programs can be used without particular limitation.
This will be described in more detail below.

<端末>
端末10は、図2に示すように、人に見立てた構造となっており、胴体部分と、腕部分と、頭部分とを有するロボットシステム14を有し、この頭部分に、画像取得機能、画像表示機能、音声取得機能、音声発信機能を有し、中央演算装置(CPU)、処理のためのデータやプログラムを一時的に保存してCPUで適宜活用できるようにするメモリ、及びデータやプログラムを保存格納する記録媒体を有する(図示せず)通信機器である、スマートデバイス12を装着し、このスマートデバイス12によって顔部分を形成している。また、スマートデバイスには、画像表示のためのモニター、画像取得のためのカメラ、音声取得のためのマイク、音声出力のためのスピーカーを備えている。
(スマートデバイス)
スマートデバイス12は、人型に形成された端末の頭脳を構成する部材であり、上記音声発信取得手段、上記画像表示取得手段、上記通信手段は、いずれもこのスマートデバイスの上記記録媒体に隠されたアプリによって機能する。スマートデバイスには元々マイクやカメラ、加速度センサなどの多種のセンサが備わっており、これらをロボットの音声認識や画像処理、姿勢制御などに利用することでロボットへのセンサなどの搭載を不要にしている。また、Wi-Fiや無線WANなどの通信システムを利用して、様々な形態の通信を行うことができる。さらに、ロボットの制御のためのアプリケーションをスマートフォンにインストールすることで、ロボットシステムのソフトウェアのメンテナンスを容易にする。
スマートデバイスには、ジャイロ、加速度計、タッチインタフェース、カメラ、マイクなどの各種センサが搭載されている。その内部センサを用いて多くの情報を得ることができるので、ロボットの胴体はジェスチャの制御のためのサーボモータや本体だけで十分であり、コスト削減にも繋がる。自由度の可動部の制御は、Bluetooth(登録商標)通信によってスマートフォンから行われる。
(音声発信取得手段)
音声発信取得手段は、スマートデバイスに設けられたマイク、スピーカーを介して、外部音声を取得すると共に、CPUにより生成した音声を発する手段である。具体的には、取得した外部音声を、CPUであらかじめ記録媒体に記録されたアプリケーションに従って処理し、データベースと照合することによって意味内容を把握して、把握した内容を次の処理に回す。そして、把握した内容に応じて他の手段により何らかの動作を行う。この端末の行う動作にはいくつかあり、その一つが、端末がスピーカーから音声又は音を発することであり、この音声発信取得手段により達成される。
(画像表示取得手段)
画像表示取得手段は、スマートデバイスに設けられたカメラ、モニターを介して、外部画像を取得すると共に、CPUにより生成した画像を表示する手段である。具体的には、取得した画像を、CPUであらかじめ記録媒体に記録されたアプリケーションに従って処理し、データベースと照合することによって意味内容を把握して、把握した内容を次の処理に回す。そして、把握した内容に応じて他の手段により何らかの動作を行う。この端末の行う動作にはいくつかあり、その一つが、端末がモニターに所定の画像を表示する事であり、この画像表示取得手段により達成される。
<Terminal>
As shown in FIG. 2, the terminal 10 has a structure that looks like a person, and has a robot system 14 that has a body part, an arm part, and a head part. The head part has an image acquisition function, An image display function, a voice acquisition function, a voice transmission function, a central processing unit (CPU), a memory that temporarily stores data and programs for processing, and a memory and data and programs that can be used appropriately by the CPU A smart device 12, which is a communication device (not shown) having a recording medium for storing and storing the device, is mounted, and a face portion is formed by the smart device 12. The smart device also includes a monitor for image display, a camera for image acquisition, a microphone for audio acquisition, and a speaker for audio output.
(Smart device)
The smart device 12 is a member constituting the brain of a terminal formed in a human shape, and the voice transmission acquisition unit, the image display acquisition unit, and the communication unit are all hidden in the recording medium of the smart device. Function by different apps. Smart devices are originally equipped with a variety of sensors such as microphones, cameras, and accelerometers. These can be used for robot voice recognition, image processing, posture control, etc. Yes. In addition, various forms of communication can be performed using a communication system such as Wi-Fi or wireless WAN. Furthermore, by installing an application for controlling the robot on the smartphone, maintenance of the software of the robot system is facilitated.
Various devices such as a gyro, an accelerometer, a touch interface, a camera, and a microphone are mounted on the smart device. Since a lot of information can be obtained using the internal sensor, the body of the robot need only be a servo motor or body for controlling the gesture, which leads to cost reduction. Control of the movable part of the degree of freedom is performed from the smartphone by Bluetooth (registered trademark) communication.
(Voice transmission acquisition means)
The voice transmission acquisition unit is a unit that acquires an external voice and emits a voice generated by the CPU through a microphone and a speaker provided in the smart device. Specifically, the acquired external sound is processed by the CPU in accordance with an application recorded in advance on a recording medium, the semantic content is grasped by collating with the database, and the grasped content is passed to the next processing. Then, some operation is performed by other means according to the grasped contents. There are several operations performed by this terminal, one of which is that the terminal emits voice or sound from the speaker, and this is achieved by this voice transmission acquisition means.
(Image display acquisition means)
The image display acquisition unit is a unit that acquires an external image and displays an image generated by the CPU through a camera and a monitor provided in the smart device. Specifically, the acquired image is processed in accordance with an application recorded in advance on a recording medium by the CPU, and the semantic content is grasped by collating with the database, and the grasped content is passed to the next processing. Then, some operation is performed by other means according to the grasped contents. There are several operations performed by this terminal, one of which is that the terminal displays a predetermined image on the monitor, which is achieved by this image display acquisition means.

(通信手段)
通信手段は、スマートデバイスに設けられた通信機材により電波による通信を行うことからなる手段である。通信機材としては、WIFI(登録商標)機器、ジグビー(登録商標)等を用いることができる。
(情報交換手段)
情報交換手段は、上記通信手段を介してサーバーにアクセスしてサーバー上のデータベースに格納された利用者情報を取得し、また音声発信取得手段及び画像表示取得手段により取得した利用者の利用時における情報である利用者状態情報と取得する。そして、取得した利用者情報と利用者状態情報とを照合して、利用者に対して伝えるべき情報をデータベースから抽出し、利用者と情報交換を行う。
また、通信手段を介して、他の端末からの他の利用者状態情報を取得し、この情報をデータベースと照合して他の利用者の情報に基づいて、利用者に提示するべき情報を提供することで情報交換をも行う。
(Communication means)
The communication means is means for performing communication by radio waves using communication equipment provided in the smart device. As communication equipment, WIFI (registered trademark) equipment, ZigBee (registered trademark), or the like can be used.
(Information exchange means)
The information exchanging means accesses the server via the communication means to acquire user information stored in the database on the server, and at the time of use of the user acquired by the voice transmission acquisition means and the image display acquisition means Acquired as user status information that is information. Then, the acquired user information and user status information are collated, information to be transmitted to the user is extracted from the database, and information exchange is performed with the user.
Also, it acquires other user status information from other terminals via communication means, and collates this information with the database to provide information to be presented to the user based on the information of other users To exchange information.

(ロボットシステム)
ロボットシステム14は、胴体部分16と、腕部分18とを具備し、スマートデバイスを設置するための頭部構成部(図示せず)も具備する。また、胴体部分の下面には車輪などの移動手段が設けられており(図示せず)、任意の場所に移動することが可能である。このようなロボットシステムは、公知の装置構成を採用して作成することができ、各種アクチュエーター装置を用いて腕部分や移動手段等を構成することができる。
また。各部材はそれぞれスマートデバイスに配線などを介して連結されており、CPUからの指示に従って腕や胴体を動かすことができるように構成されている。
ロボットシステム14としては、iPhonoidやiPadrone(登録商標)などの卓上型ロボットシステム(情報支援用据え置き型))、シニアカー(搭乗型移動ロボット)、コンシェルジュロボット(案内型移動ロボット)、ペットロボット(多足型移動ロボットなど)等種々形態のものを用いることができる。
ロボットシステム14には、環境状態計測、人間状態計測(C4)、ロボットの行動モード・制御コマンド、ジェスチャによるノンバーバルコミュニケーション、ロボットの遠隔操作、行動モデル、ロボットハードウェアへのBluetooth通信などの機能を持たせることができる。
また、スマートデバイス12とロボットシステム14とからなる端末には、Sun SPOT、センサータグ、Kinect(登録商標)センサ(3次元測域センサ、赤外線)、レーザーレンジファインダ(2次元測域センサ)、Bluetooth(登録商標)等の各種センサーを装備することができ、これらのセンサーにより、上記の音声発信取得手段、画像表示取得手段及び情報交換手段を構成する。
(Robot system)
The robot system 14 includes a body portion 16 and an arm portion 18, and also includes a head component (not shown) for installing a smart device. Further, a moving means such as a wheel is provided on the lower surface of the body part (not shown), and it is possible to move to an arbitrary place. Such a robot system can be created by adopting a known device configuration, and an arm portion, a moving means, and the like can be configured using various actuator devices.
Also. Each member is connected to the smart device via a wiring or the like, and is configured so that the arm and the torso can be moved in accordance with instructions from the CPU.
The robot system 14 includes desktop robot systems such as iPhonoid and iPadrone (registered trademark) (stationary type for information support), senior cars (boarding type mobile robots), concierge robots (guide type mobile robots), pet robots (multi-legged) Various types of robots such as a type mobile robot) can be used.
The robot system 14 has functions such as environmental state measurement, human state measurement (C4), robot behavior mode / control command, non-verbal communication by gesture, remote operation of the robot, behavior model, and Bluetooth communication to the robot hardware. Can be made.
In addition, the terminal comprising the smart device 12 and the robot system 14 includes Sun SPOT, sensor tag, Kinect (registered trademark) sensor (3D range sensor, infrared), laser range finder (2D range sensor), Bluetooth Various sensors such as (registered trademark) can be equipped, and these sensors constitute the above-mentioned voice transmission acquisition means, image display acquisition means, and information exchange means.

<サーバー>
サーバー20は、利用者に関する所定の利用者情報が格納され、端末に連結されたデータベースと、データベースにアクセスして利用者の情報を取得すると共に端末から取得する利用者情報をデータベースに追加格納して最新の情報に更新する情報取得更新手段とを具備するものである。装置構成としては従来公知のサーバーとかわるものではなく、中央演算装置(CPU)、処理のためのデータやプログラムを一時的に保存してCPUで適宜活用できるようにするメモリ、及びデータやプログラムを保存格納する記録媒体を有する(図示せず)コンピュータにより構成され、更に通信機能を有する。
<Server>
The server 20 stores predetermined user information related to the user, and stores the database connected to the terminal, the user information by accessing the database, and the user information acquired from the terminal in the database. And information acquisition / update means for updating to the latest information. The device configuration is not a conventionally known server, but a central processing unit (CPU), a memory that temporarily stores data and programs for processing, and a memory, data and programs that can be used appropriately by the CPU. It is constituted by a computer (not shown) having a recording medium for storing and storing, and further has a communication function.

<プログラム構成>
上述の各手段を構成するプログラム構成は、機能として、計測(Measument; M)、コミュニケーション手段(Communication; C)、意思決定方法と内部情報処理(Decision Making and Internal Information Processing; D)、通信と情報アクセス(Network and Information Access; N)、サーバー(Informationally Structured Space; I)ロボットシステム(Robot Partners; R)、センサノード(Sensor Nodes; S)を有する。また、物理層(Physical Layer)、ミドルウェア層(Driver Layer)、アルゴリズム層(Algorithm Layer)、アプリケーション層(Application Layer)の各層により構成される。
<Program structure>
The program configuration that constitutes each of the above-mentioned means is as follows: measurement (Measument; M), communication means (Communication; C), decision making method and internal information processing (D), communication and information It has an access (Network and Information Access; N), a server (Informationally Structured Space; I), a robot system (Robot Partners; R), and a sensor node (Sensor Nodes; S). In addition, each layer includes a physical layer, a middleware layer (Driver Layer), an algorithm layer (Algorithm Layer), and an application layer (Application Layer).

<使用態様及び作用>
スマートデバイスとサーバー(サーバーサーバー)を用いることで、データベースへのアクセス、ライフログ収集、ライフログ解析、ペルソナ分析、嗜好情報抽出・個人情報分析、人間関係推定、情報推薦などの機能を実施できる。
また、音声発信取得手段及び画像表示取得手段により屋内の情報を、オフラインの状況であったとしても収集できる。
例えば、高齢者の見守りを対象とした計算論的システムケアでは、システム論的な観点から機能間の関係性を明確にしつつ、計算論的な観点から方法論を明確にすることにより、見守りに関する体系化を行うことを目的とする。左からボトムアップ的に、またトップダウン的に階層構造を考える。
計測から特徴抽出などでは、データマイニングや学習などが中心的な方法論であり、ペルソナ分析や情報推薦では、推論や探索が中心的な方法論となる。日々の見守りでは、生活スタイルのモデリングが重要であり、モデル化された生活スタイルを参照することができれば異常検出の推論を行うことが容易になる。
<Usage and action>
By using a smart device and a server (server server), functions such as database access, life log collection, life log analysis, persona analysis, preference information extraction / personal information analysis, human relationship estimation, and information recommendation can be implemented.
Also, the indoor information can be collected by the voice transmission acquisition means and the image display acquisition means even if it is offline.
For example, in computational system care for watching over elderly people, the relationship between functions is clarified from a system perspective, and the methodology is clarified from a computational perspective. The purpose is to perform. Consider a hierarchical structure from the left bottom-up and top-down.
From mining to feature extraction, data mining and learning are the central methodologies. In persona analysis and information recommendation, inference and search are the central methodologies. In daily monitoring, lifestyle modeling is important, and if it is possible to refer to the modeled lifestyle, it is easy to infer abnormality detection.

次に、本発明のシステムの使用態様について説明する。
まず、スマートデバイスに電源を投入する。電源投入時は、(1-1)未初期化の場合、「初期化」を行う。(1-2)初期化済みの場合、スマートデバイス内設定データファイルを読み込む。(1-3)サーバー、ロボットシステムにアクセスして、利用可能か確認する。(1-4)その際、必要なデバイスの電源が投入されていない場合、音声発話と画面表示により、電源投入を促す。(1-5)しばらく経っても、必要なデバイスの電源が投入されていない場合、未接続のまま、メインルーチンに移行する。(1-6)サーバーが利用可能な場合、スマートデバイスに関する各種設定データをダウンロードする。
サーバーのデータベースサーバの電源投入時は、(2-1)未初期化の場合、初期化を行う。(2-2)初期化済みの場合、サーバIPアドレスをUDP通信にて、送信開始し、TCP/IP通信、もしくは、SQLによる通信を開始する。(2-3)スマートデバイス、ロボットシステムがサーバIPアドレスを受信できれば、TCP/IP通信などでアクセスされるため、利用可能と確認できる。接続時には必ず、接続認証を行う。(2-4)必要なデバイスの電源が投入されていない場合、接続スタンバイの状態を維持する。
ロボットシステムの電源投入時は、(3-1)未初期化の場合、初期化を行う。(3-2)初期化済みの場合、スマートデバイス、サーバーにアクセスして、利用可能か確認する。(3-3)その際、必要なデバイスの電源が投入されていない場合、接続スタンバイの状態を維持する。 (3-4)サーバーが利用可能であれば、サーバーから設定を読み込み、制御コマンドに従い、稼働開始する。(3-5)サーバーが利用不可能な場合、サーバーに接続スタンバイのまま、スマートデバイスとBluetooth通信による制御コマンドに従い、稼働開始する。ここで、サーバーに接続可能になれば、(3-4)に移行する。
端末に電源投入時は、端末に搭載された各種センサー(センサーノード)に対して(4-1)未初期化の場合、初期化を行う。(4-2)初期化済みの場合、サーバーにアクセスして、利用可能か確認する。(4-3)その際、サーバーデータベースサーバの電源が投入されていない場合、接続スタンバイの状態を維持しつつ、データ計測モードに移行する。計測データの保存方法については、バッファの許す限り、first-in、first-outで、直近のデータを優先的に保持する。(4-4)サーバーデータベースサーバの電源が投入されている場合、サーバーに保存されているセンサノードの設定に基づき、サンプリング間隔、データ転送方法(データの種類とデータ長)にあわせて、データ計測を行い、逐次、転送開始する。
Next, usage modes of the system of the present invention will be described.
First, power on the smart device. When the power is turned on, (1-1) If it is not initialized, “Initialize” is performed. (1-2) If initialization has been completed, read the setting data file in the smart device. (1-3) Access the server and robot system and check if they are available. (1-4) At that time, if the necessary device is not turned on, it prompts the user to turn on the device by voice utterance and screen display. (1-5) If a necessary device is not turned on even after a while, the main routine is left unconnected. (1-6) If the server is available, download various setting data related to the smart device.
When the database server of the server is turned on, (2-1) If initialization is not performed, initialization is performed. (2-2) When initialization has been completed, transmission of the server IP address is started by UDP communication, and TCP / IP communication or communication by SQL is started. (2-3) If the smart device or robot system can receive the server IP address, it can be confirmed that it can be used because it is accessed by TCP / IP communication or the like. Always perform connection authentication when connecting. (2-4) When the necessary device is not powered on, the connection standby state is maintained.
When powering on the robot system, (3-1) If it is not initialized, initialize it. (3-2) If it has been initialized, access the smart device or server and check if it is available. (3-3) At this time, if the necessary device is not powered on, the connection standby state is maintained. (3-4) If the server is available, read the settings from the server and start operation according to the control command. (3-5) When the server is unavailable, the server starts operating according to the control command by the smart device and the Bluetooth communication while being connected to the server in the standby state. Here, if it becomes possible to connect to the server, the process proceeds to (3-4).
When the terminal is powered on, the various sensors (sensor nodes) mounted on the terminal are initialized (4-1) if they are not initialized. (4-2) If initialized, access the server and check if it is available. (4-3) At that time, when the power of the server database server is not turned on, the state shifts to the data measurement mode while maintaining the connection standby state. As for the storage method of measurement data, as long as the buffer allows, the first-in and first-out preferentially hold the latest data. (4-4) Server database When the server is powered on, data measurement is performed according to the sampling interval and data transfer method (data type and data length) based on the sensor node settings stored in the server. To start transfer sequentially.

<作用>
図3を参照して本発明のシステムの作用について説明する。
(1)スマートデバイス
(1-1)アドレス帳から、ユーザの氏名、ユーザ住所、ユーザ電話番号、ユーザe-mailなどを呼び出し、登録する。(1-2)次に、緊急連絡先を、アドレス帳から選択してもらい、緊急連絡先氏名、緊急電話番号、緊急e-mailを登録する。(1-3)次に、位置情報へのアクセス、誕生日などの個人情報、webのブックマーク、メモ帳、e-mail、カレンダ、音楽などのコンテンツへのアクセスに関する許可をもらう。
(2)サーバー
(2-1)まず、連携するスマートデバイスの登録を行う。(2-2)ここで、サーバーデータベースがスマートデバイス内であれば、そのまま、スマートデバイスで登録済みの情報を引用する。(2-3)外部PCのデータベースサーバであれば、TCP/IP通信、もしくは、SQLによるサーバを開始する。その際、スマートデバイスからアクセスがあれば、ユーザから承認をもらった上で、スマートデバイスに登録済みの情報を引用する。
(3)ロボットシステム
(3-1)ロボットシステムの登録を行う。ロボットは、最初にUDP通信をサーバーのサーバIPを受け取り、接続する。
(4)センサノード
(4-1)センサノードの登録を行う。ロボットは、最初にUDP通信をサーバーのサーバIPを受け取り、接続する。位置に関するタグ付けなどを行い(初期Localization)、サーバーデータベースサーバに転送する。
個人情報をサーバなどに引用する場合は、ユーザからの承認をもらう。
<Action>
The operation of the system of the present invention will be described with reference to FIG.
(1) Smart device (1-1) Call and register the user's name, user address, user phone number, user e-mail, etc. from the address book. (1-2) Next, have the emergency contact selected from the address book, and register the emergency contact name, emergency phone number, and emergency e-mail. (1-3) Next, get permission for access to location information, personal information such as birthday, web bookmarks, notepad, e-mail, calendar, music, and other contents.
(2) Server (2-1) First, register smart devices to be linked. (2-2) If the server database is in the smart device, the information registered in the smart device is quoted as it is. (2-3) If it is a database server of an external PC, start the server by TCP / IP communication or SQL. At that time, if there is an access from the smart device, the information registered in the smart device is quoted after obtaining approval from the user.
(3) Robot system (3-1) Register the robot system. The robot first receives and connects to the server IP of the server for UDP communication.
(4) Sensor node (4-1) The sensor node is registered. The robot first receives and connects to the server IP of the server for UDP communication. Perform location tagging (initial Localization) and transfer to server database server.
When quoting personal information to a server, etc., get approval from the user.

メインルーチンでは、アイドリング状態からはじめ、人間検出がなされた後、コミュニケーションモードに移行する。アイドリング状態では、以下の動作を行う。
・ カメラ画像による差分抽出(移動物体検出から、人間検出、コミュニケーションモードへ)
・ タッチインタフェースに基づく割り込み(コミュニケーションモードへ)
・ 音声入力による割り込み(音声認識へ)
・ その他のセンサによる割り込み(高齢者のタスクに関するイベントドリブン処理)
などで、人間の動作検出などを行う。
一定時間、イベントが発生しない場合は、スリープモードに移行して、上記のサンプリング間隔を長めに変更するとともに、ロボットハードウェアをスリープモードに移行させる。スリープモードへの移行にともない、「顔の表情」を寝ている表情に移行させる。
スマートデバイス内でのカメラ画像処理と音声対話に関する処理の流れを図4に示す。
In the main routine, starting from the idling state, the human detection is performed, and then the communication mode is entered. The following operations are performed in the idling state.
・ Difference extraction from camera images (from moving object detection to human detection, communication mode)
・ Interrupt based on touch interface (to communication mode)
・ Voice interrupt (to voice recognition)
・ Interruption by other sensors (event-driven processing related to elderly tasks)
For example, human motion detection is performed.
When an event does not occur for a certain time, the mode is shifted to the sleep mode, the above sampling interval is changed to be longer, and the robot hardware is shifted to the sleep mode. With the shift to the sleep mode, the “facial expression” is changed to the sleeping expression.
FIG. 4 shows the flow of processing relating to camera image processing and voice interaction within the smart device.

電源を切る場合の処理について以下に説明する。
(1)スマートデバイス
(1-1)スマートデバイスの電源オフ時(アプリケーション終了時)には、サーバーに接続オフ情報を転送し、終了時刻などを含む各種情報を転送する。(1-2)サーバーに接続されていない場合は、スマートデバイス内設定データファイルに、終了時刻などを含む各種情報を保存する。
(2)サーバー
(2-1)サーバーデータベースサーバの電源オフ時(アプリケーション終了時)には、スマートデバイスに接続オフ情報を転送し、終了時刻などを含む各種情報を転送する。(2-2)スマートデバイスに接続されていない場合は、サーバーデータベース内設定データファイルに、終了時刻などを含む各種情報を保存する。
Processing for turning off the power will be described below.
(1) Smart device (1-1) When the smart device is powered off (when the application ends), connection off information is transferred to the server, and various information including the end time is transferred. (1-2) When not connected to the server, various information including the end time is stored in the smart device setting data file.
(2) Server (2-1) Server Database When the server is turned off (when the application is terminated), connection off information is transferred to the smart device and various information including the end time is transferred. (2-2) When not connected to the smart device, various information including the end time is stored in the setting data file in the server database.

本発明のシステムにより各種サービスを行うためには、サービスに適したコミュニケーション機能をロボットシステムに実装する必要がある。コミュニケーション自体は、大きくバーバルコミュニケーション、ノンバーバルコミュニケーション、直接制御、遠隔操作などに分類でき、また、コミュニケーションの形態として、1対1、1対多、多対1、多対多に分類できる。自然なコミュニケーションを行うためには、人間の身振りや行動の認識を行う必要がある。
ここでは、先述の計測(Measument; M)、コミュニケーション手段(Communication; C)、意思決定方法と内部情報処理(Decision Making and Internal Information Processing; D)、通信と情報アクセス(Network and Information Access; N)、サーバー(Informationally Structured Space; I)ロボットシステム(Robot Partner; R)、センサーノード(Sensor Nodes; S)に分類して検討する。
(M1)スマートデバイスの状態推定
加速度センサとGPSの計測データを用いて、スマートデバイスが、(1)机の上に置かれている、(2)ポケット、あるいは、カバンの中に入れている、(3)ロボットシステムに取り付けられている、(4)歩行中である、(5)自転車に乗っている、(6)バスや車での移動中である、(7)電車に乗っている、(8)その他(不定)に分類する。
(M2)人間の状態推定
人間検出を行うために、時系列画像データに対し、逐次的に探索を行うことができる進化的ロボットビジョンを適用する。進化的ロボットビジョンは、進化的計算を用いた方法論であり、複数の解候補から構成される解集合(個体群と呼ぶ)に対し、交叉や突然変異などの遺伝的操作を行うことにより、新しい解候補を生成する。次に、選択により、次世代の解集合を構成する。解候補は、多角形テンプレートを用いて、中心座標、中心から各点への距離、各角に対する角度を変数として与え、人間の肌に対応する肌色と髪の毛の領域に相当する黒色(グレイ)の画素数を用いて、探索を行う。これらを繰り返すことにより、人間領域を特定する。人間検出の前処理として、差分抽出を用いて、変化が大きい領域を中心に探索を行う。
次に、スパイキングニューラルネットワークを用いた行動推定手法について説明する。人間の基本動作を、特徴的行為分節として扱い、基本点な動作に対応付ける。基本的には、人間の手の動作の抽出や身体全体の移動の抽出の他、人の接近、遠ざかりなどの検出があり、その他にカメラ画像上の占有領域など(上、中、下)などを人間の動作として推定する。また、これらの状態から、人間の行動を推定する。
スマートデバイス上で人間識別を行うのは、困難であるため、最低限の仕様を満たす程度で、できるだけ簡単なアルゴリズムとして、実装すべきである。
顔認証に使用する特徴量としてLBP-Histogram法を採用する。撮影画像から検出した顔情報よりLBP(Local Binary Pattern)の算出を行い、ヒストグラムを作成する。得られたヒストグラムに対し、PCA(主成分分析)を適用し、得られた主成分を特徴量とする。本手法では生体特徴量として80ビットの識別子を作成する。具体的には、まず、テンプレートとしてランダムに80ペア(A郡、B郡)の顔を用意し、登録する顔がA群の顔に擬似する場合は1、B群の顔に擬似する場合は0として80ビット分のバイナリデータを作成する、これを個人の識別コードとする。
音声認識と音声合成は、オープンソース、もしくは、市販されているライブラリを利用する。例えば、商業用にフリーで利用可能なライブラリとして、NTT DoCoMo Developer Support(商品名)などがある。
In order to perform various services using the system of the present invention, it is necessary to implement a communication function suitable for the service in the robot system. Communication itself can be broadly classified into verbal communication, non-verbal communication, direct control, remote control, etc., and communication modes can be classified into one-to-one, one-to-many, many-to-one, and many-to-many. In order to communicate naturally, it is necessary to recognize human gestures and actions.
Here, the measurement (Measument; M), communication method (Communication; C), decision-making method and internal information processing (D), communication and information access (N) , Server (Informationally Structured Space; I) Robot system (Robot Partner; R), Sensor node (Sensor Nodes; S)
(M1) Estimating the state of the smart device Using the acceleration sensor and GPS measurement data, the smart device is (1) placed on a desk, (2) placed in a pocket or bag, (3) Attached to the robot system, (4) Walking, (5) Riding a bicycle, (6) Moving by bus or car, (7) Riding on a train, (8) Classify as Other (undefined).
(M2) Human state estimation In order to perform human detection, we apply evolutionary robot vision that can search sequentially over time-series image data. Evolutionary Robot Vision is a methodology that uses evolutionary computation, and it is a new method that can be used by performing genetic operations such as crossover and mutation on a solution set (called an individual group) consisting of multiple solution candidates. Generate solution candidates. Next, a next generation solution set is constructed by selection. The solution candidate uses a polygon template to give the center coordinates, the distance from the center to each point, and the angle for each corner as variables, and the skin color corresponding to human skin and the black (gray) color corresponding to the hair region Search is performed using the number of pixels. By repeating these, the human region is specified. As pre-processing for human detection, a search is performed centering on a region with a large change using differential extraction.
Next, a behavior estimation method using a spiking neural network will be described. Treat human basic movements as distinctive action segments and associate them with basic movements. Basically, in addition to extraction of human hand movements and movement of the entire body, there are detections such as human approach and distance, and other areas such as occupied areas on the camera image (upper, middle, lower), etc. Is estimated as a human action. In addition, human behavior is estimated from these states.
Since it is difficult to perform human identification on a smart device, it should be implemented as an algorithm that is as simple as possible while satisfying the minimum specifications.
The LBP-Histogram method is adopted as the feature value used for face recognition. LBP (Local Binary Pattern) is calculated from face information detected from the captured image, and a histogram is created. PCA (principal component analysis) is applied to the obtained histogram, and the obtained principal component is used as a feature amount. In this method, an 80-bit identifier is created as a biometric feature. Specifically, first, prepare 80 pairs of faces (A group, B group) as templates at random, 1 if the face to be registered simulates the face of group A, 1 Create binary data for 80 bits with 0 as the personal identification code.
Speech recognition and speech synthesis use open source or commercially available libraries. For example, NTT DoCoMo Developer Support (product name) is a library that can be used free of charge for commercial use.

対話システムは、大きく分けて、(1)タスク指向型対話システムと(2)非タスク指向型対話システムに分類される。(1)タスク指向型対話システムは、情報支援や案内など、タスクの目的に沿った会話の実現を目的とする。一方、(2)非タスク指向型対話システムは、日常生活のストレスなどを軽減し、癒しや楽しみをもたらし、高齢者の話し相手などを対象とした雑談などのような会話である。さらに、非タスク指向型対話は、(A)話し上手フェーズと、(B)聞き上手フェーズに分類して考える。(A)話し上手フェーズは、ロボットが積極的に発話を行い、情報支援などを行う。(B)聞き上手フェーズは、うなずきなどを伴いながら、高齢者に積極的に、昔話や趣味などの内容を話してもらう。
図5に、会話システムの基本構造を示す。ロボット自身の発話の流れと、高齢者からの発話の認識結果を利用することにより、次の発話内容を選択する。
Dialog systems are roughly classified into (1) task-oriented dialog systems and (2) non-task-oriented dialog systems. (1) The task-oriented dialogue system aims to realize conversations according to the purpose of tasks such as information support and guidance. On the other hand, (2) the non-task-oriented dialogue system is a conversation such as a chat intended for a conversation partner of an elderly person, which reduces stress in daily life, brings healing and enjoyment. In addition, non-task-oriented dialogues are classified into (A) good speaking phase and (B) good listening phase. (A) In the talking skill phase, the robot actively speaks and provides information support. (B) In the advanced listening phase, the elderly people actively talk about the contents of old tales and hobbies, accompanied by nodding.
FIG. 5 shows the basic structure of the conversation system. The next utterance content is selected by using the flow of the utterance of the robot itself and the recognition result of the utterance from the elderly.

ここでは、会話モードを図5のように非タスク指向型対話システムとして、(1)日常会話モード、(2)コンテンツ会話モード、タスク指向型対話システムとして、(3)情報支援会話モード、(4)シナリオ会話モードの合計4種類に分類して詳細の方法論を検討する。日常会話は、日々のライフログから抽出された生活スタイルに基づく会話である。コンテンツ会話はカレンダやメールなどのスマートデバイス内の情報を利用した発話である。予定のリマインダなども兼ねているため、情報支援会話とも一部重複する。情報支援会話モードでは、ニュースや天気予報に基づく発話の他、スケジュール管理、高齢者の興味のあるトピックに関する情報収集などを行う。シナリオ会話モードでは、話し上手フェーズのように、多くの情報を高齢者に対話形式で提供する。シナリオ会話モードでは、ある目的にあわせた会話パッケージが用意され、「健康づくり支援会話パッケージ」や「見守り会話パッケージ」、「外出支援会話パッケージ」(図6)などがある。
(1)日常会話モード: 日常会話モードは、挨拶、口癖、独り言、反射的な発話(間投詞)の他に、共感発話などがある。特に、共感発話は、聞き上手フェーズとして、高齢者の見守りなどには、重要である。
共感とは、1.他人の考え行動に、全くそのとおりだと感ずること。同感。
2.〔 sympathy 〕他人の体験する感情を自分のもののように感じとること。
3.〔 empathy 〕感情移入
(2)コンテンツ会話モード: コンテンツ会話モードは、個人情報の他、カレンダ、e-mail、メモ帳などのスマートデバイス内の情報を用いて、発話を行う。
(3)情報支援会話モード: 情報支援を目的とした会話には、
(3-1)日常情報支援:天気、ニュース、地域コミュニティのイベント情報などのお知らせ、
(3-2)注意支援:閉め忘れなどの注意喚起、
(3-3)情報収集支援:趣味や娯楽情報の収集と検索情報支援
などがある。
(4)シナリオ会話モード: 健康づくり支援や、脳トレのような認知症予防会話、趣味や嗜好に関する豆知識、読み聞かせシナリオ、クイズなどがある。
Here, the conversation mode is a non-task-oriented conversation system as shown in FIG. 5, (1) daily conversation mode, (2) content conversation mode, task-oriented conversation system, (3) information support conversation mode, (4 ) Classify into 4 types of scenario conversation modes, and examine detailed methodologies. Daily conversation is conversation based on a lifestyle extracted from daily life logs. A content conversation is an utterance using information in a smart device such as a calendar or email. Since it also serves as a scheduled reminder, it partially overlaps with information support conversations. In the information support conversation mode, in addition to utterances based on news and weather forecasts, schedule management and information collection on topics of interest to the elderly are performed. In the scenario conversation mode, a lot of information is provided to the elderly in an interactive manner, as in the conversation skill phase. In the scenario conversation mode, a conversation package for a certain purpose is prepared, and there are “health promotion support conversation package”, “watch watching conversation package”, “outing support conversation package” (FIG. 6) and the like.
(1) Daily conversation mode: Daily conversation mode includes sympathy utterance, etc. in addition to greetings, mustaches, monologues, and reflexive utterances (interjections). In particular, sympathy utterances are important for the elderly, such as watching over the elderly as a good listening phase.
What is empathy? Feeling exactly what others think. I agree.
2. [Sympathy] Feel the feelings of others as if they were yours.
3. [Empathy] Emotion transfer (2) Content conversation mode: In the content conversation mode, in addition to personal information, information in smart devices such as calendars, e-mails, and notepads is used to speak.
(3) Information support conversation mode: For conversations aimed at information support,
(3-1) Daily information support: Weather, news, local community event information,
(3-2) Attention support: Calling attention such as forgetting to close,
(3-3) Information collection support: Hobby and entertainment information collection and search information support.
(4) Scenario conversation mode: There are health promotion support, dementia prevention conversation such as brain training, bean knowledge about hobbies and preferences, storytelling scenarios, quizzes and the like.

発話の方法には、ランダム発話、イベントドリブン発話、時間依存発話がある。ランダム発話は、長期的な沈黙が続かないようにランダムに発話を行う手段である。主に日常会話モードやコンテンツ会話モードと連動して選択される。また、イベントドリブン発話はタッチインタフェースや内部センサの閾値処理など、センサなどに関するイベントが発生した際に行う会話である。
時間依存発話は図7に示すように、大きく分けると、当該時間に発話するアラーム型、当該時間前後に発話する左右対象型(図7(a))、当該時間以前に発話する左サイド型(図7(b))、当該時間以降に発話右サイド型(図7(c))の4種類である。この分布に基づいて発話内容ごとに時間依存発話確率を求めて確率の高いものを発話する。時間依存発話確率Pは、前回発話した時間をrとすると、シグモイド関数を用いて、

となる。数式(3)におけるaは時間依存発話用係数であり、現在時刻、時間依存発話する時間、時間依存発話分布のグラフの幅から

と表される。
The utterance method includes random utterance, event-driven utterance, and time-dependent utterance. Random utterance is a means of uttering randomly so that long-term silence does not continue. Mainly selected in conjunction with daily conversation mode and content conversation mode. In addition, event-driven utterance is a conversation performed when an event related to a sensor or the like occurs, such as a touch interface or threshold processing of an internal sensor.
As shown in FIG. 7, time-dependent utterances are roughly divided into an alarm type that utters at the time, a left and right target type that utters before and after the time (FIG. 7 (a)), and a left side type that utters before the time ( FIG. 7 (b)), there are four types of utterance right side type (FIG. 7 (c)) after the time. Based on this distribution, a time-dependent utterance probability is obtained for each utterance content, and a utterance having a high probability is uttered. Time-dependent speech probability P, when the time was the last time speech and r t, using the sigmoid function,

It becomes. In Equation (3), a is a coefficient for time-dependent utterance, and is calculated from the current time, time for time-dependent utterance, and the width of the time-dependent utterance distribution graph.

It is expressed.

端末は、複数のセンサを持つセンサノードであり、人間とのコミュニケーションを行うためのアクションユニットでもある。個々のロボットの動作や発話を、サーバーを通して、集中管理的に制御することができる(図8)。つまり、ロボットシステム間のコミュニケーションは、個々のロボットシステムが思考し、発話するのでは無く、1つの演劇のように、集中管理的なシナリオ会話を実現する。 The terminal is a sensor node having a plurality of sensors, and is also an action unit for communicating with a human. The operations and utterances of individual robots can be controlled in a centralized manner through the server (FIG. 8). In other words, communication between robot systems is not thought and uttered by individual robot systems, but centralized scenario conversation is realized like a single play.

本発明のシステムは、顔を模倣したタッチインタフェースを実装している(図9)。基本的に、顔の各パーツは、何らかの機能を実装することができる。また、通常は、情動モデルに基づき、喜怒哀楽の表情を演出する(図10)。   The system of the present invention implements a touch interface imitating a face (FIG. 9). Basically, each part of the face can implement some function. In addition, usually, an emotional expression is produced based on the emotion model (FIG. 10).

音声認識などの不備により、コミュケーションが繋がらない場合がある。その際、エラーリカバリーを行う必要がある。ここでは、大きく分けて、(1)コミュニケーション場の選択機能、(2)話題変更機能、(3)間投詞発話機能、(4)視線配布機能、(5)停止機能を考える。
(1)コミュニケーション場の選択機能
カメラなどと異なり、ロボットシステムによるコミュニケーションは、コミュニケーションに必要とされる場を創り上げることができる点である。例えば、画像処理の場合、ロボットシステムが、「顔が見えにくい。こっちに来て」と発話して、人間を認識しやすい背景画像を選択することができる。また、複数の人が話しかけてくる場合、「静かにして」、「一人ずつしゃべってよ」などと発話することにより、一人の発話に集中することができる。人間のようなコミュニケーションを行う機能である。
(2)話題変更機能
音声認識結果がうまくできない場合、また、音声認識結果が、前の文脈と大きく異なる場合、話題を変更することにより、主導権をとって、コミュニケーションを進めることができる。
(3)間投詞発話機能
話題を変えたいときには、「あのー」「えーと」などの間投詞を入れて、フィラー化を行う。また、音声を取り込み後、音声認識中は、空白の時間となり、待ち時間が入るため、その際、間投詞を入れて、「間」を繋ぐ。
(4)視線配布機能
人間は、コミュニケーションを取る際、相手の顔をずっと凝視し続けているわけで無く、適度に視線をそらす。このようなノンバーバルコミュニケーションにおける行為を視線配布という。視線配布を適度に入れることにより、人間のようなコミュニケーションを実現することができる。
(5)コミュニケーションのための動作停止機能
画面をタッチしようとした場合など、人間の手が、ロボットに近づくため、接触事故などを防ぐために、パンチルト機構やジェスチャを停止する機能が必要である。
Communication may not be connected due to deficiencies such as voice recognition. At that time, it is necessary to perform error recovery. Here, broadly speaking, (1) a communication field selection function, (2) topic change function, (3) interjection utterance function, (4) gaze distribution function, and (5) stop function are considered.
(1) Communication field selection function Unlike a camera or the like, communication by a robot system is a point that can create a place required for communication. For example, in the case of image processing, the robot system can select a background image that is easy to recognize humans by saying “It is difficult to see the face. Come over here”. Also, when multiple people are speaking, you can concentrate on one person's utterances by saying "Keep quiet" or "Speak one by one". It is a function to communicate like a human.
(2) Topic change function If the speech recognition result is not good, or if the speech recognition result is significantly different from the previous context, changing the topic can take the initiative and advance communication.
(3) Interjection utterance function When you want to change the topic, insert an interjection such as “Ano” or “Utto” to make a filler. In addition, after speech is captured, there is a blank time during speech recognition and a waiting time is entered. At that time, an interjection is inserted to connect “between”.
(4) Gaze distribution function When communicating, humans do not keep staring at the other person's face for a long time, but appropriately divert their gaze. Such an action in non-verbal communication is called gaze distribution. Communication like a human being can be realized by appropriately distributing gaze distribution.
(5) Operation stop function for communication Since a human hand approaches the robot when trying to touch the screen, a function to stop the pan / tilt mechanism and the gesture is necessary to prevent a contact accident.

UDP/IP通信によるブロードキャスト的な通信とTCP/IP通信による個別のデータ転送の2種類の通信を併用することにより、ロボット、センサ、サーバーサーバ間の通信を実現する。
環境に取り付けられたセンサから計測される膨大なデータやロボットの計測データの他、人間との相互作用の状態など、その環境内の利用可能な情報をデータベースサーバに集約することができる。ここで、このような膨大なデータから、情報抽出、情報解析、情報変換、情報の蓄積、情報転送などを容易に行うためには、情報の構造化が必要となり、これらの情報はサーバーに格納されている。
サーバーの性質として、(1)情報の共有性、(2)人間との親和性、(3)情報変換の可逆性、(4)システムの汎用性に基づき設計される。
情報は、大きく、(1)人間に関する情報(human information、または、personal information)、(2)環境に関する情報(environmental information)、(3)インターネット上の情報(Intenert information)にわけることができる(図11)。また、人間の行動計測に関する情報の種類とその階層構造を図12に示す。
Communication between robots, sensors, and server servers is realized by using two types of communication, broadcast communication by UDP / IP communication and individual data transfer by TCP / IP communication.
In addition to the enormous amount of data measured from sensors attached to the environment and the measurement data of the robot, usable information in the environment, such as the state of interaction with humans, can be collected in the database server. Here, in order to easily perform information extraction, information analysis, information conversion, information accumulation, information transfer, etc. from such a vast amount of data, it is necessary to structure the information, and this information is stored in the server. Has been.
The server is designed based on (1) information sharing, (2) human affinity, (3) reversibility of information conversion, and (4) system versatility.
Information can be broadly divided into (1) human information or personal information, (2) environmental information, and (3) information on the Internet (Figure 10). 11). FIG. 12 shows the types of information related to human behavior measurement and its hierarchical structure.

<使用例、作用効果>
本発明のシステムは、図1に示すように互いに離隔された2以上の利用者の基に端末を設置し、各利用者の状態を計測し、判定して、利用者のコミュニケーションの仲介を行うため、少ない情報量で各利用者間のコミュニケーションを行うことが可能となる。
例えば、母親が仕事、子供が留守番している状況で、母親が仕事から17時に帰るという情報が入ると、「そろそろお母さん帰ってくるよ、よかったね。」と端末が発することで子供に親の帰ってくる時間を教えることができる。また、20時くらいになってかえってくる情報がはいると「お母さんかえってくるって、よく頑張ったね」という形で、コミュニケーションの隙間を埋める作業を行う。
本発明のシステムは、E−ラーニング、親子間、仕事仲間のコミュニケーションツールとして有用である。
<Usage example, effect>
As shown in FIG. 1, the system of the present invention installs a terminal on the basis of two or more users separated from each other, measures the state of each user, makes a determination, and mediates communication between users. Therefore, communication between users can be performed with a small amount of information.
For example, in the situation where the mother is at work and the child is at home, when the information that the mother returns from 17:00 at work comes in, "I'm glad I'm coming home soon," and the terminal emits a message to the child's parent. Can teach the time to come back. In addition, when there is information that comes back around 20:00, work is done to fill in the communication gap in the form of "I returned to my mom and worked hard."
The system of the present invention is useful as a communication tool for E-learning, between parents and children, and business associates.

Claims (2)

複数の利用者の情報交換作業をサポートするコミュニケーションシステムであって、
各利用者が利用する複数の端末であって、利用者と情報交換を行うための音声発信取得手段及び画像表示取得手段を有し、利用者の利用状態に基づく利用状態情報を取得することができると共に、各端末相互に情報交換可能な通信手段を備えた端末と、
利用者に関する所定の利用者情報が格納され、上記端末に連結されたデータベースと、
データベースにアクセスして利用者の情報を取得すると共に上記端末から取得する利用者情報をデータベースに追加格納して最新の情報に更新する情報取得更新手段と、
を具備し、
上記端末は、上記利用者状態情報及び上記利用者情報を照合して、利用者と情報交換すると共に、他の端末からの他の利用者状態情報に従って他の利用者からの情報にもとづいた情報交換をも行う、情報交換手段を具備する
コミュニケーションシステム。
A communication system that supports information exchange work among multiple users,
A plurality of terminals used by each user, having voice transmission acquisition means and image display acquisition means for exchanging information with the user, and acquiring usage state information based on the usage state of the user A terminal equipped with a communication means capable of exchanging information with each other, and
A predetermined user information about the user is stored and linked to the terminal,
Information acquisition and updating means for acquiring user information by accessing the database and additionally storing user information acquired from the terminal in the database and updating it to the latest information;
Comprising
The terminal collates the user status information and the user information, exchanges information with the user, and information based on information from other users according to other user status information from other terminals. A communication system equipped with information exchange means for exchanging information.
上記端末は、画像表示手段、該端末自体の存在位置を適宜変更する移動手段及び端末の形を所望の形態に変形する変形手段を備える
請求項1記載のコミュニケーションシステム。

The communication system according to claim 1, wherein the terminal includes image display means, moving means for appropriately changing the location of the terminal itself, and deformation means for changing the shape of the terminal into a desired form.

JP2016184097A 2016-09-21 2016-09-21 Communication system Pending JP2018050161A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016184097A JP2018050161A (en) 2016-09-21 2016-09-21 Communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016184097A JP2018050161A (en) 2016-09-21 2016-09-21 Communication system

Publications (1)

Publication Number Publication Date
JP2018050161A true JP2018050161A (en) 2018-03-29

Family

ID=61766617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016184097A Pending JP2018050161A (en) 2016-09-21 2016-09-21 Communication system

Country Status (1)

Country Link
JP (1) JP2018050161A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302351A (en) * 1994-05-09 1995-11-14 Canon Inc Picture and voice response equipment and method therefor
JP2006262411A (en) * 2005-03-18 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> Audio/video communication system
JP2009106325A (en) * 2007-10-26 2009-05-21 Advanced Telecommunication Research Institute International Communication induction system
JP2011097531A (en) * 2009-11-02 2011-05-12 Advanced Telecommunication Research Institute International System for continuing listening interaction
JP2011523840A (en) * 2008-06-09 2011-08-18 イマージョン コーポレーション Development of a notification framework for electronic device events
JP2015016549A (en) * 2010-05-20 2015-01-29 アイロボット コーポレイション Mobile Human interface robot
WO2015093382A1 (en) * 2013-12-20 2015-06-25 Re & Do 株式会社 Service-provision management system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302351A (en) * 1994-05-09 1995-11-14 Canon Inc Picture and voice response equipment and method therefor
JP2006262411A (en) * 2005-03-18 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> Audio/video communication system
JP2009106325A (en) * 2007-10-26 2009-05-21 Advanced Telecommunication Research Institute International Communication induction system
JP2011523840A (en) * 2008-06-09 2011-08-18 イマージョン コーポレーション Development of a notification framework for electronic device events
JP2011097531A (en) * 2009-11-02 2011-05-12 Advanced Telecommunication Research Institute International System for continuing listening interaction
JP2015016549A (en) * 2010-05-20 2015-01-29 アイロボット コーポレイション Mobile Human interface robot
WO2015093382A1 (en) * 2013-12-20 2015-06-25 Re & Do 株式会社 Service-provision management system

Similar Documents

Publication Publication Date Title
US10893236B2 (en) System and method for providing virtual interpersonal communication
Kanda et al. Development and evaluation of interactive humanoid robots
KR101057705B1 (en) Voice talk device and method and robot device
US20190143527A1 (en) Multiple interactive personalities robot
CN102609089B (en) For the multistate model of robot and user interactions
US7987091B2 (en) Dialog control device and method, and robot device
US11017551B2 (en) System and method for identifying a point of interest based on intersecting visual trajectories
CN112204564A (en) System and method for speech understanding via integrated audio and visual based speech recognition
KR20160034243A (en) Apparatus and methods for providing a persistent companion device
WO2016080553A1 (en) Learning robot, learning robot system, and learning robot program
US20190205390A1 (en) System and Method for Learning Preferences in Dialogue Personalization
US20220215678A1 (en) System and method for reconstructing unoccupied 3d space
US20190251350A1 (en) System and method for inferring scenes based on visual context-free grammar model
Manzi et al. Design of a cloud robotic system to support senior citizens: The KuBo experience
US20190253724A1 (en) System and method for visual rendering based on sparse samples with predicted motion
JP6891601B2 (en) Robot control programs, robot devices, and robot control methods
Anzalone et al. Automated prediction of extraversion during human–humanoid interaction
Chen et al. Human-robot interaction based on cloud computing infrastructure for senior companion
WO2016206646A1 (en) Method and system for urging machine device to generate action
Nagao et al. Symbiosis between humans and artificial intelligence
US11461404B2 (en) System and method for adjustment of a device personality profile
JP2007030050A (en) Robot control device, robot control system, robot device and robot control method
Sherry et al. Getting things done in an autonomous vehicle
Bohus et al. Situated interaction
JP2018050161A (en) Communication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200521

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210706