JP2019110535A - Communication device and remote communication system - Google Patents

Communication device and remote communication system Download PDF

Info

Publication number
JP2019110535A
JP2019110535A JP2018235927A JP2018235927A JP2019110535A JP 2019110535 A JP2019110535 A JP 2019110535A JP 2018235927 A JP2018235927 A JP 2018235927A JP 2018235927 A JP2018235927 A JP 2018235927A JP 2019110535 A JP2019110535 A JP 2019110535A
Authority
JP
Japan
Prior art keywords
unit
image
information
line
remote device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018235927A
Other languages
Japanese (ja)
Other versions
JP7189406B2 (en
Inventor
岡田 敦
Atsushi Okada
敦 岡田
浩史 森田
Hiroshi Morita
浩史 森田
暦本 純一
Junichi Rekimoto
純一 暦本
啓介 城
Keisuke Jo
啓介 城
崇 味八木
Takashi Miyagi
崇 味八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Information Services International Dentsu Ltd
Original Assignee
University of Tokyo NUC
Information Services International Dentsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Information Services International Dentsu Ltd filed Critical University of Tokyo NUC
Publication of JP2019110535A publication Critical patent/JP2019110535A/en
Application granted granted Critical
Publication of JP7189406B2 publication Critical patent/JP7189406B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a technique that presents sight line information to a user.SOLUTION: A communication device is provided at a spot where a user is and communicates with a remote device operated by a cooperator at a second spot distant from the first spot. The communication device includes: a photographing unit for photographing the first spot; an image transmission unit for transmitting a captured image taken with the photographing unit to the remote device; an output control unit for outputting a message received from the remote device to the user; a display unit including a plurality of light sources disposed in a plurality of directions on an outer surface of the communication device; and a display control unit for receiving sight line information indicating a sight line of the cooperator watching the captured image displayed by the remote device, turning on, among the light sources, light sources corresponding to the sight line information, and having a display indicating the sight line of the cooperator made.SELECTED DRAWING: Figure 1

Description

本発明は、 コミュニケーション装置及び遠隔コミュニケーションシステムに関する。   The present invention relates to a communication device and a remote communication system.

遠隔地に存在する人同士のコミュニケーションを実現するシステムとして、映像や音声を双方向に通信させてコミュニケーションを行う遠隔会議システムやテレプレゼンスシステム等が存在する。   As a system for realizing communication between people present in a remote place, there are a teleconferencing system, a telepresence system and the like which communicate by communicating two-way video and audio.

特許文献1では、現場において実際の作業を行う作業者と遠隔地でこの作業者を監督する監督者との間の意思の疎通を図るための遠隔通信システムが提案されている。   Patent Document 1 proposes a telecommunication system for communicating an intention between a worker who actually performs work on site and a supervisor who supervises this worker at a remote place.

また、人や機械が持つ能力をネットワークを介して提供し、人ができることを拡張するIoA(Internet of Abilities)という構想も提案されている。   In addition, the concept of Internet of Abilities (IoA) has been proposed, which provides human and machine capabilities via a network and extends what people can do.

特開平10−257475号公報JP 10-257475 A 特開2011−077652号公報JP, 2011-077652, A 特開2017−033575号公報JP, 2017-033575, A

「共同外出の感覚を作る遠隔コミュニケーションシステム」筑波大学大学院博士課程システム情報工学研究科修士論文、張 慶椿、2011年3月、http://www.iplab.cs.tsukuba.ac.jp/paper/master/tsubaki_master.pdf、検索日:平成29年10月10日"A remote communication system that makes sense of joint outing" Master's thesis, Graduate School of Information Science and Technology, University of Tsukuba, Kei Kei Zhang, March 2011, http://www.iplab.cs.tsukuba.ac.jp/paper /master/tsubaki_master.pdf, search date: October 10, 2017

通信装置等を介して遠隔地にいる人とコミュニケーションをとる場合、「あの車」、「そこの棚」などのように指示語を使って話をすると、何を対象として話をしているのかが分からなくなることがあった。人同士のコミュニケーションであれば、話している人の視線によって何について話しているのかが分かるが、遠隔地にいる人とのコミュニケーションでは、相手の視線が見えないため、指示語を使わず、「右前方を走っている赤い車」や「電話の横にある一番上の棚」などのように具体的に話す必要があり、円滑なコミュニケーションが図れないという問題があった。   When communicating with a person at a remote place via a communication device etc., when talking using a directive such as "that car", "a shelf there", etc., what are you talking about? I sometimes got lost. If it is communication between people, it is possible to know what they are talking about by the line of sight of the person who is talking, but in communication with people who are in distant places, they can not see the other person's line of sight, There is a problem that smooth communication can not be achieved because it is necessary to talk concretely, such as a red car running to the front right and "the top shelf next to a telephone."

また、初心者が熟練者のアドバイスを受けながら作業を行う場合、熟練者が何に注目しながら作業を進めるのかが重要な情報となるが、通信装置を介したコミュニケーションでは、この視線の情報が読み取れないという問題があった。   In addition, when a beginner performs work while receiving advice from a skilled person, what is important is whether the advanced person pays attention to the work is important information, but in communication via a communication device, this line-of-sight information can be read There was a problem of not being.

そこで、本発明は、利用者に対し、視線情報を提示する技術の提供を目的とする。   Then, this invention aims at provision of the technique which shows gaze information to a user.

上記課題を解決するため、本発明のコミュニケーション装置は、
利用者が存在する第一の地点に設けられ、前記第一の地点から離れた第二の地点に存在する協力者によって操作される遠隔装置と通信するコミュニケーション装置であって、
第1地点を撮影する撮影部と、
前記撮影部で撮影した撮影画像を前記遠隔装置へ送信する画像送信部と、
前記遠隔装置から受信したメッセージを前記利用者に対して出力する出力制御部と、
前記コミュニケーション装置の外面において複数方向に配列された複数の光源を有する表示部と、
前記遠隔装置にて表示させた前記撮影画像を見る前記協力者の視線を示す視線情報を受信し、前記光源のうち、前記視線情報に応じた前記光源を発光させて、前記協力者の視線を示す表示を行わせる表示制御部とを備える。
In order to solve the above-mentioned subject, the communication device of the present invention,
A communication device provided at a first location where a user exists and communicating with a remote device operated by a co-worker located at a second location remote from said first location,
An imaging unit for imaging the first point;
An image transmission unit for transmitting a photographed image photographed by the photographing unit to the remote device;
An output control unit for outputting the message received from the remote device to the user;
A display unit having a plurality of light sources arranged in a plurality of directions on an outer surface of the communication device;
The line-of-sight information indicating the line-of-sight of the collaborator who views the photographed image displayed on the remote device is received, and the light source corresponding to the line-of-sight information is made to emit light among the light sources. And a display control unit configured to perform the display shown.

上記課題を解決するため、本発明のコミュニケーションシステムは、
利用者が存在する第一の地点に設けられたコミュニケーション装置と、前記第一の地点から離れた第二の地点に設けられた遠隔装置とを有する遠隔コミュニケーションシステムであって、
前記コミュニケーション装置が、
第1地点を撮影する撮影部と、
前記撮影部で撮影した撮影画像を前記遠隔装置へ送信する画像送信部と、
前記遠隔装置から受信したメッセージを前記利用者に対して出力する出力制御部と、
前記コミュニケーション装置の外面において複数方向に配列された複数の光源を有する表示部と、
前記光源のうち、前記遠隔装置から受信した視線情報に応じた前記光源を発光させる表示制御部と、を備え、
前記遠隔装置が、
前記撮影画像を受信する画像受信部と、
前記撮影画像を表示装置に表示させる表示制御部と、
前記表示装置に表示された前記撮影画像を見る協力者から前記利用者に対するメッセージを取得するメッセージ取得部と、
前記協力者が注視している前記撮影画像内の位置を示す情報を視線情報として取得する視線情報取得部と、
前記メッセージ及び前記視線情報を前記コミュニケーション装置へ送信する送信制御部と、を備える。
In order to solve the above problems, the communication system of the present invention is
A telecommunication system comprising a communication device provided at a first point where a user exists and a remote device provided at a second point remote from said first point,
The communication device is
An imaging unit for imaging the first point;
An image transmission unit for transmitting a photographed image photographed by the photographing unit to the remote device;
An output control unit for outputting the message received from the remote device to the user;
A display unit having a plurality of light sources arranged in a plurality of directions on an outer surface of the communication device;
And a display control unit that causes the light source to emit light in accordance with the line-of-sight information received from the remote device, among the light sources.
The remote device is
An image receiving unit that receives the captured image;
A display control unit that causes the display device to display the captured image;
A message acquisition unit for acquiring a message for the user from a collaborator who views the photographed image displayed on the display device;
A line-of-sight information acquisition unit that acquires, as line-of-sight information, information indicating a position within the photographed image that the collaborator is gazing at;
And a transmission control unit that transmits the message and the line-of-sight information to the communication device.

前記コミュニケーション装置は、前記表示制御部が、前記遠隔装置から、前記視線情報と共に当該視線情報を生成した時刻を示す生成時刻情報を取得し、当該生成時刻情報が示す時刻から前記視線の表示を行う時刻までに変化した前記表示部の向きの変化量に基づいて、前記表示部に表示させる視線の向きを補正してもよい。   The display control unit acquires, from the remote device, generation time information indicating the time of generation of the line-of-sight information and the line-of-sight information from the remote device, and displays the line of sight from the time indicated by the generation time information. The direction of the line of sight displayed on the display unit may be corrected based on the amount of change in the direction of the display unit that has changed up to time.

また、上記課題を解決するため、本発明のコミュニケーションシステムは、
利用者が存在する第一の地点に設けられたコミュニケーション装置と、前記第一の地点から離れた第二の地点に存在する協力者によって操作される遠隔装置とを有する遠隔コミュニケーションシステムであって、
前記コミュニケーション装置が、
第1地点を撮影する撮影部と、
前記撮影部で撮影した撮影画像を前記遠隔装置へ送信する画像送信部と、
前記利用者の音声を示す音信号を前記遠隔装置へ送信する音信号送信部と、
前記遠隔装置から受信したメッセージを前記利用者に対して出力する出力制御部と、
前記コミュニケーション装置の外面において複数方向に配列された複数の光源を有する表示部と、
前記遠隔装置にて表示させた前記撮影画像を見る前記協力者の視線を示す視線情報を受信し、前記光源のうち、前記視線情報に応じた前記光源を発光させて、前記協力者の視線を示す表示を行わせる表示制御部と、を備え、
前記遠隔装置が、
前記撮影画像を受信する画像受信部と、
前記音信号を受信する音信号受信部と、
前記撮影画像を表示装置に表示させる表示制御部と、
前記音信号に基づき、前記利用者の音声を認識し、文字列に変換する音声認識部と、
前記文字列に基づいて前記利用者の要求を判定する要求判定部と、
前記文字列に基づいて前記要求の対象を判定する要求対象判定部と、
前記要求に対応するメッセージを生成するメッセージ生成部と、
前記要求の対象を示す画像を前記撮影画像から抽出する対象抽出部と、
前記対象を示す画像に対応する被写体が存在する位置を示す情報を視線情報として取得する視線情報取得部と、
前記メッセージ及び前記視線情報を前記コミュニケーション装置へ送信する送信制御部と、を備える。
Further, in order to solve the above problems, the communication system of the present invention is
A telecommunication system comprising: a communication device provided at a first point where a user exists, and a remote device operated by a co-worker present at a second point remote from said first point,
The communication device is
An imaging unit for imaging the first point;
An image transmission unit for transmitting a photographed image photographed by the photographing unit to the remote device;
A sound signal transmission unit for transmitting a sound signal indicating the voice of the user to the remote device;
An output control unit for outputting the message received from the remote device to the user;
A display unit having a plurality of light sources arranged in a plurality of directions on an outer surface of the communication device;
The line-of-sight information indicating the line-of-sight of the collaborator who views the photographed image displayed on the remote device is received, and the light source corresponding to the line-of-sight information is made to emit light among the light sources. And a display control unit that makes the display shown.
The remote device is
An image receiving unit that receives the captured image;
A sound signal receiving unit that receives the sound signal;
A display control unit that causes the display device to display the captured image;
A voice recognition unit that recognizes the voice of the user based on the sound signal and converts the voice into a character string;
A request determination unit that determines the user's request based on the character string;
A request target determination unit that determines the target of the request based on the character string;
A message generator for generating a message corresponding to the request;
A target extraction unit that extracts an image indicating a target of the request from the captured image;
A line-of-sight information acquisition unit that acquires, as line-of-sight information, information indicating a position where a subject corresponding to an image indicating the target is present;
And a transmission control unit that transmits the message and the line-of-sight information to the communication device.

前記コミュニケーション装置は、前記表示制御部が、複数の前記遠隔装置からそれぞれ前記視線情報を受信し、当該視線情報に基づいて前記表示部に複数の視線を示す表示を行わせてもよい。   In the communication device, the display control unit may receive the line-of-sight information from each of the plurality of remote devices, and may cause the display unit to display a plurality of lines of sight based on the line-of-sight information.

前記コミュニケーション装置は、前記コミュニケーション装置の少なくとも一部の位置を変えるように駆動する駆動部を備え、前記出力制御部が、前記遠隔装置から受信した動作指示情報に基づいて前記駆動部を動作させることによって、前記利用者に対する動作を行わせてもよい。
前記コミュニケーション装置は、前記撮影部を複数有し、前記撮影部によって撮影する撮影範囲が他の前記撮影部の撮影範囲と重複するように前記撮影部が配置され、
複数の前記撮影部で撮影した前記撮影画像の重複部分を合成し、前記撮影画像よりも解像度の高い合成画像とする画像合成部を備え、
前記画像送信部が、前記合成画像を前記遠隔装置へ送信してもよい。
前記コミュニケーション装置は、前記遠隔装置から前記協力者の感情の種別を示す感情信号を受信した場合に、前記表示制御部が、前記感情信号が示す感情の種別に応じた発光パターンで前記光源を発光させて、前記協力者の感情を提示してもよい。
前記遠隔コミュニケーションシステムは、前記コミュニケーション装置が、前記撮影部を複数有し、前記撮影部によって撮影する撮影範囲が他の前記撮影部の撮影範囲と一部重複するように前記撮影部が配置され、
前記遠隔装置が、
複数の前記撮影部で撮影した撮影画像の重複部分を合成して、前記撮影画像よりも解像度の高い合成画像とする画像合成部を更に備え、
前記表示制御部が、前記合成画像を前記表示装置へ表示させてもよい。
前記遠隔コミュニケーションシステムは、前記遠隔装置が、前記コミュニケーション装置の撮影方向を指示する指示情報を前記コミュニケーション装置へ送信する送信制御部を備え、
前記コミュニケーション装置が、前記遠隔装置から受信した指示情報に応じて、少なくとも前記撮影部の向きを変える駆動部を備えてもよい。
前記遠隔コミュニケーションシステムは、複数の協力者に関する属性情報を記憶した記憶部と、
前記利用者による入力情報、前記第一の地点における音情報、又は前記撮影部による前記撮影画像を選択用情報として取得する取得部と、
前記協力者の前記属性情報と前記選択用情報とに基づいて前記協力者を選択する選択部と、
前記選択部によって選択された前記協力者の連絡先に選択されたことを通知する通知部と、
を備えるてもよい。
The communication device includes a drive unit that drives to change the position of at least a part of the communication device, and the output control unit operates the drive unit based on operation instruction information received from the remote device. May cause the user to perform an action.
The communication device includes a plurality of the imaging units, and the imaging unit is disposed such that an imaging range imaged by the imaging unit overlaps with an imaging range of another imaging unit.
The image combining unit is configured to combine overlapping portions of the captured images captured by a plurality of the imaging units, and to generate a composite image having a resolution higher than that of the captured images.
The image transmission unit may transmit the composite image to the remote device.
When the communication device receives an emotion signal indicating the type of emotion of the collaborator from the remote device, the display control unit emits the light source with a light emission pattern according to the type of emotion indicated by the emotion signal. It may be allowed to present the emotions of the collaborator.
In the remote communication system, the communication device includes a plurality of the imaging units, and the imaging units are arranged such that the imaging range imaged by the imaging unit partially overlaps the imaging range of another imaging unit.
The remote device is
The image composition device further includes an image combining unit that combines overlapping parts of captured images captured by a plurality of the capturing units into a composite image having a resolution higher than that of the captured images.
The display control unit may display the composite image on the display device.
The remote communication system includes a transmission control unit that transmits, to the communication device, instruction information that instructs the imaging direction of the communication device.
The communication device may include a drive unit that changes at least the direction of the imaging unit in accordance with instruction information received from the remote device.
The remote communication system includes a storage unit storing attribute information on a plurality of collaborators;
An acquisition unit for acquiring the input information by the user, the sound information at the first point, or the photographed image by the photographing unit as selection information;
A selection unit that selects the collaborator based on the attribute information of the collaborator and the selection information;
A notification unit for notifying that the contact point of the collaborator selected by the selection unit is selected;
May be provided.

本発明は、利用者に対し、視線情報を提示する技術を提供することができる。   The present invention can provide a technology for presenting the gaze information to the user.

図1は、第一実施形態に係る遠隔コミュニケーションシステムの概略構成図である。FIG. 1 is a schematic configuration diagram of the remote communication system according to the first embodiment. 図2は、アバターの側面図である。FIG. 2 is a side view of the avatar. 図3は、アバターにおいて表示部のカバーを外した状態を示す斜視図である。FIG. 3 is a perspective view showing a state in which the cover of the display unit is removed in the avatar. 図4は、表示部の部分断面図である。FIG. 4 is a partial cross-sectional view of the display unit. 図5は、遠隔装置の表示部を備えたゴーグルの構成を示す図である。FIG. 5 is a view showing the configuration of the goggles provided with the display unit of the remote device. 図6は、ゴーグルをゴーストが装着した状態を示す図である。FIG. 6 is a view showing a state in which the ghost wears the goggles. 図7は、ゴーグルの向きと注視位置との関係を示す図である。FIG. 7 is a diagram showing the relationship between the direction of the goggles and the gaze position. 図8は、アバターが画像や音声のデータを送信する処理を示す図である。FIG. 8 is a diagram showing a process in which the avatar transmits image and voice data. 図9は、遠隔装置が画像や音声のデータを受信する処理を示す図である。FIG. 9 is a diagram showing processing in which the remote device receives image and audio data. 図10は、遠隔装置からアバターへメッセージ及び視線情報を送信する処理を示す図である。FIG. 10 is a diagram showing a process for transmitting a message and gaze information from the remote device to the avatar. 図11は、アバターが視線情報を表示する処理を示す図である。FIG. 11 is a diagram showing a process in which the avatar displays line-of-sight information. 図12は、アバターが、視線情報に基づいて点灯させる光源を補正する処理を示す図である。FIG. 12 is a diagram showing a process of correcting the light source to be lighted based on the sight line information by the avatar. 図13は、視線の方向を表示する例を示す図である。FIG. 13 is a diagram showing an example of displaying the direction of the line of sight. 図14は、本実施形態に係る遠隔コミュニケーションシステムの利用シーンを示す図である。FIG. 14 is a view showing a usage scene of the remote communication system according to the present embodiment. 図15は、変形例1に係るアバターを示す図である。FIG. 15 is a view showing an avatar according to the first modification. 図16は、遠隔装置から動作指示情報をアバターへ送信する処理を示す図である。FIG. 16 is a diagram showing processing of transmitting operation instruction information from the remote device to the avatar. 図17は、遠隔装置から受信した動作指示情報に基づいてアバターが行う処理を示す図である。FIG. 17 is a diagram showing processing performed by the avatar based on the operation instruction information received from the remote device. 図18は、第二実施形態に係る遠隔コミュニケーションシステムの概略構成図である。FIG. 18 is a schematic configuration diagram of the remote communication system according to the second embodiment. 図19は、要求パターンの一例を示す図である。FIG. 19 is a diagram illustrating an example of the request pattern. 図20は、第二実施形態に係る遠隔装置が、アバターから受信したデータに基づいて、メッセージ及び視線情報を生成して、アバターへ送信する処理を示す図である。FIG. 20 is a diagram showing a process in which the remote device according to the second embodiment generates a message and line-of-sight information based on the data received from the avatar and transmits it to the avatar. 図21は、アバターの変形例2を示す図である。FIG. 21 is a view showing a second modification of the avatar. 図22は、変形例2の光源を示す図である。FIG. 22 is a view showing a light source of the second modification. 図23は、第三実施形態に係る撮影部の構成を示す図である。FIG. 23 is a diagram showing the configuration of an imaging unit according to the third embodiment. 図24は、撮影範囲を模式的に示すアバターの側面図である。FIG. 24 is a side view of an avatar schematically showing a shooting range. 図25は、撮影範囲を模式的に示すアバターの平面図である。FIG. 25 is a plan view of an avatar schematically showing a shooting range. 図26は、第三実施形態に係る遠隔コミュニケーションシステムの概略構成図である。FIG. 26 is a schematic configuration diagram of the remote communication system according to the third embodiment. 図27は、アバターが画像や音声のデータを送信する処理を示す図である。FIG. 27 is a diagram showing a process in which the avatar transmits image and voice data. 図28は、合成ステップにて合成される画像の説明図である。FIG. 28 is an explanatory diagram of an image synthesized at the synthesis step. 図29は、合成処理の対象とする被写体の一例を示す図である。FIG. 29 is a view showing an example of a subject to be subjected to the combining process. 図30は、撮影レンズの収差によって歪んだ画像の一例を示す図である。FIG. 30 is a view showing an example of an image distorted by the aberration of the photographing lens. 図31は、撮影レンズの収差によって歪んだ画像の一例を示す図である。FIG. 31 is a view showing an example of an image distorted by the aberration of the photographing lens. 図32は、撮影画像における画像の歪みを補正した例を示す図である。FIG. 32 is a diagram illustrating an example in which distortion of an image in a captured image is corrected. 図33は、変形例3−1に係る遠隔コミュニケーションシステムの概略構成図である。FIG. 33 is a schematic configuration diagram of the remote communication system according to the modified example 3-1. 図34は、遠隔装置が画像や音声のデータを送信する処理を示す図である。FIG. 34 is a diagram showing processing in which the remote device transmits image and audio data. 図35は、変形例3−2に係るアバターの正面図である。FIG. 35 is a front view of an avatar according to Modification 3-2. 図36は、変形例3−2に係るアバターの側面図である。FIG. 36 is a side view of an avatar according to Modification 3-2. 図37は、変形例3−2に係るアバターの平面図である。FIG. 37 is a plan view of an avatar according to Modification 3-2. 図38は、第四実施形態に係る遠隔コミュニケーションシステムの概略構成図である。FIG. 38 is a schematic configuration diagram of the remote communication system according to the fourth embodiment. 図39は、ゴーストDBの一例を示す図である。FIG. 39 is a diagram showing an example of the ghost DB. 図40は、アバターが画像や音声のデータを送信する処理を示す図である。FIG. 40 is a diagram showing a process in which the avatar transmits image and voice data. 図41は、管理サーバが、ゴーストを特定する処理を示す図である。FIG. 41 is a diagram of processing in which the management server identifies a ghost. 図42は、第五実施形態に係る遠隔コミュニケーションシステムの概略構成図である。FIG. 42 is a schematic configuration diagram of the remote communication system according to the fifth embodiment. 図43は、第五実施形態に係るアバターが視線情報及び感情信号に基づく表示処理を示す図である。FIG. 43 is a diagram showing display processing based on gaze information and an emotion signal by the avatar according to the fifth embodiment.

〈第一実施形態〉
《装置構成》
以下本発明の一実施形態を図面を用いて説明する。図1は本実施形態に係る遠隔コミュニケーションシステム100の概略構成図である。遠隔コミュニケーションシステム100は、利用者が存在する第一の地点に設けられるコミュニケーション装置1と、第一の地点から離れた第二の地点に設けられる遠隔装置2とを備える。コミュニケーション装置1は、利用者の周囲を撮影し、この撮影画像と音をインターネット等の通信回線を介して遠隔装置2へ送信する。遠隔装置2は、受信した画像や音を協力者に対して出力し、協力者からのメッセージを遠隔装置2へ送信する。これにより例えば利用者が質問し、協力者が回答するといったコミュニケーションをとることができる。この場合、コミュニケーション装置1は、協力者の分身として利用者とのコミュニケーションをとるので、以下本実施形態ではアバター1とも称する。また、アバター1を介して利用者とコミュニケーションをとる協力者は、以下ゴーストとも称する。
First Embodiment
"Device configuration"
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic configuration diagram of the remote communication system 100 according to the present embodiment. The remote communication system 100 includes a communication device 1 provided at a first point where a user is present, and a remote device 2 provided at a second point remote from the first point. The communication device 1 photographs the surroundings of the user, and transmits the photographed image and sound to the remote device 2 via a communication line such as the Internet. The remote device 2 outputs the received image or sound to the cooperator, and transmits a message from the coworker to the remote device 2. Thus, for example, communication can be made such that the user asks a question and the collaborator answers. In this case, since the communication device 1 communicates with the user as a substitute of the collaborator, the communication device 1 is hereinafter also referred to as an avatar 1 in the present embodiment. Further, a collaborator who communicates with the user through the avatar 1 is hereinafter also referred to as a ghost.

アバター1は、表示部10や、撮影部21、スピーカ22、マイク23、検出部24、制御部40を備えている。   The avatar 1 includes a display unit 10, an imaging unit 21, a speaker 22, a microphone 23, a detection unit 24, and a control unit 40.

表示部10は、アバター1の外面において複数方向に配列された複数の光源を有し、協力者の視線の方向を示す。なお、表示部の具体的な構成は後述する。   The display unit 10 has a plurality of light sources arranged in a plurality of directions on the outer surface of the avatar 1 and indicates the direction of the line of sight of the collaborator. The specific configuration of the display unit will be described later.

撮影部21は、利用者が存在する第一の地点を撮影するカメラである。ここで第一の地点とは、例えば利用者が存在する位置から見える範囲である。なお、利用者の視界と、撮影部21による撮影範囲とが完全に一致する必要はなく、撮影部21が撮影する範囲は、例えば利用者から視角となる範囲を含んでもよい。また、撮影部21は、複数備えられてもよい。   The photographing unit 21 is a camera for photographing a first point where a user exists. Here, the first point is, for example, a range seen from the position where the user is present. Note that the field of view of the user and the imaging range of the imaging unit 21 do not have to completely match, and the range imaged by the imaging unit 21 may include, for example, a range from the user to the viewing angle. Also, a plurality of imaging units 21 may be provided.

スピーカ22は、制御部40から出力される音声メッセージや音楽等の信号を音として出力する。マイク23は、利用者の周囲の音や利用者の音声を電気信号(音信号)に変換して制御部40へ入力する。検出部24は、アバター1の状態を検出するセンサーであり、例えば、GPS信号を受信して、アバター1の現在地を取得する位置検出部や、アバター1の移動方向や回転方向を検出する加速度センサー、地磁気を検出して方位を求める地磁気センサー等である。   The speaker 22 outputs a sound message or a signal such as music output from the control unit 40 as a sound. The microphone 23 converts sounds around the user and voices of the user into electrical signals (sound signals) and inputs the signals to the control unit 40. The detection unit 24 is a sensor that detects the state of the avatar 1, and for example, a position detection unit that receives a GPS signal and acquires the current position of the avatar 1, and an acceleration sensor that detects the movement direction and rotation direction of the avatar 1. , Geomagnetic sensor etc. which detect geomagnetism and obtain direction.

制御部40は、CPUやメモリを有するコンピュータであり、画像送信部41や、出力制御部42、表示制御部43、音信号送信部44の処理を行う。   The control unit 40 is a computer having a CPU and a memory, and performs processing of the image transmission unit 41, the output control unit 42, the display control unit 43, and the sound signal transmission unit 44.

画像送信部41は、撮影部21で撮影した撮影画像を遠隔装置2の仕様に応じて変換すると共に、データサイズを圧縮して遠隔装置2へ送信する。ここで画像送信部41は、アバター1の前方や後方等の基準とする方位で撮影された画像の位置が、撮影画像中の何処の位置であるかが分かるように送信する。例えば、撮影部21Aで撮影した全方位画像の中心がアバター1の前方で撮影された画像の位置、撮影部21Bで撮影した全方位画像の中心がアバター1の後方で撮影された画像の位置等のように特定のフォーマットで遠隔装置2へ送信する。なお、撮影画像の変換や圧縮の処理は、必須ではなく、撮影画像をそのまま遠隔装置2へ送信してもよい。また、画像送信部41は、撮影画像の撮影位置や撮影方向等の撮影情報を撮影画像と共に遠隔装置2へ送信してもよい。   The image transmission unit 41 converts the photographed image photographed by the photographing unit 21 according to the specification of the remote device 2, compresses the data size, and transmits the compressed image to the remote device 2. Here, the image transmission unit 41 transmits so that the position of the image photographed in the azimuth used as the reference, such as the front or back of the avatar 1, is the position in the photographed image. For example, the center of the omnidirectional image captured by the imaging unit 21A is the position of the image captured in front of the avatar 1, the center of the omnidirectional image captured by the imaging unit 21B is the position of the image captured behind the avatar 1, etc. To the remote device 2 in a specific format. Note that the process of converting and compressing the captured image is not essential, and the captured image may be transmitted to the remote device 2 as it is. Further, the image transmission unit 41 may transmit shooting information such as a shooting position and a shooting direction of a shot image to the remote device 2 together with the shot image.

音信号送信部44は、マイク23を介して取得した、利用者の周囲の音や利用者の音声を示す音信号を遠隔装置2へ送信する。   The sound signal transmission unit 44 transmits to the remote device 2 a sound signal indicating the sound around the user and the voice of the user acquired via the microphone 23.

出力制御部42は、遠隔装置2から受信したメッセージを利用者に対して出力する。本実施形態では、協力者の音声によるメッセージを遠隔装置2から受信し、スピーカ22から音声メッセージとして利用者へ出力する。なお、アバター1が、文字や画像を表示可能な表示装置を出力手段として備えている場合、出力制御部42は、遠隔装置2から協力者による文字や画像をメッセージとして受信し、この文字や画像を表示装置に表示させてもよい。また、アバター1が、バイブレータを出力手段として備えている場合、出力制御部42は、遠隔装置2から協力者による振動を指示する命令をメッセージとして受信し、この命令に従ってバイブレータを振動させてもよい。   The output control unit 42 outputs the message received from the remote device 2 to the user. In this embodiment, a voice message of the collaborator's voice is received from the remote device 2 and output from the speaker 22 to the user as a voice message. In addition, when the avatar 1 is provided with a display device capable of displaying characters and images as an output unit, the output control unit 42 receives characters and images by the cooperator from the remote device 2 as a message, and the characters and images May be displayed on the display device. In addition, when the avatar 1 includes a vibrator as an output unit, the output control unit 42 may receive a command instructing vibration by a cooperator from the remote device 2 as a message, and may vibrate the vibrator according to the command. .

表示制御部43は、遠隔装置2から協力者の視線に係る視線情報を受信し、表示部10に備えられた複数の光源のうち、視線情報に応じた光源を発光させて、協力者の視線の方向を利用者に提示する。このため表示制御部43は、視線情報が示す視線の方向(角度)等の値と、発光させる光源とを対応付けて、マッピング情報として記憶しておく。そして、視線情報を受信した場合に、このマッピング情報を参照し、視線情報と対応する光源を特定して発光させる。   The display control unit 43 receives the line-of-sight information related to the line of sight of the collaborator from the remote device 2 and causes the light source according to the line-of-sight information to emit light among the plurality of light sources provided in the display unit 10. Present the user the direction of Therefore, the display control unit 43 stores, as mapping information, a value such as the direction (angle) of the line of sight indicated by the line-of-sight information and the light source to be lit. When the line-of-sight information is received, the mapping information is referred to, and the light source corresponding to the line-of-sight information is identified and emitted.

図2は、アバター1の側面図、図3は、アバター1において表示部10のカバー14を外した状態を示す斜視図、図4は、表示部10の部分断面図である。   2 is a side view of the avatar 1, FIG. 3 is a perspective view showing the avatar 1 with the cover 14 of the display unit 10 removed, and FIG. 4 is a partial cross-sectional view of the display unit 10.

本実施形態のアバター1は、概ね正十二面体の外形を成す本体31と、本体31を支持する支持体32を備えている。本体31は、外形を成す十二面のうち、平行な二面に撮影部21を備え、その他の面に表示部10を備えている。   The avatar 1 according to the present embodiment includes a main body 31 having a substantially regular dodecahedron outer shape, and a support 32 for supporting the main body 31. The main body 31 includes the imaging units 21 on two parallel surfaces of the twelve surfaces forming the outer shape, and the display unit 10 on the other surfaces.

本実施形態では、利用者から前へ向かう方向を前方、この反対方向を後方とし、利用者の右手側へ向かう方向を右方、この反対方向を左方とし、利用者から上へ向かう方向を上方、この反対方向を下方とする。これらの方向は、説明の便宜のために示したものであり、アバター1の構成が、これらの方向に限定されるものではない。   In this embodiment, the direction from the user to the front is forward, the opposite direction to the rear, the direction to the right of the user to the right, the opposite direction to the left, and the direction from the user to the upper Upward, let this opposite direction be downward. These directions are shown for the convenience of description, and the configuration of the avatar 1 is not limited to these directions.

図2の例では、撮影部21のうち、前方を撮影するように配置されたものを撮影部21Aとし、後方を撮影するように配置されたものを撮影部21Bとしている。撮影部21A、21Bは、それぞれ190°程度の撮影画角を有しており、それぞれで撮影した画像をつなぎ合わせることで、いわゆる全天球画像が得られる。   In the example of FIG. 2, among the photographing units 21, those arranged to photograph the front are set as the photographing unit 21 A, and those arranged to photograph the rear are set as the photographing unit 21 B. The imaging units 21A and 21B each have an imaging angle of view of about 190 °, and so-called omnidirectional images can be obtained by connecting the images captured by each.

表示部10は、略正十二面体のカバー14と、カバー14に囲まれた略正十二面体状の基台15を有する。カバー14は、正十二面体のうち、平行な2面に撮影部21を露出させる開口が設けられている。表示部10の基台15は、五角形の基板13上に、光源としてチップ状のLED(light emitting diode)12が複数方向に配列され、このLED12の外側に乳白色のカバー14が設けられている。各LED12は、個別或は所定の単位で点灯できるように制御部40と接続されている。なお、本実施形態の表示部10は、多数のLED12を備えているため、図3では便宜上一部のLED12にのみ符号を付して、その他のLED12については、符号を省略して示している。また、以降の図についても同様である。表示部10は、液晶表示素子やELパネル等の表示素子でもよく、この場合、表示素子の各画素が光源に相当する。カバー14は、LED12から出力される光を拡散することで、この光による表示を見ることができる範囲(視野角)を広げている。   The display unit 10 has a substantially regular dodecahedron cover 14 and a substantially regular dodecahedron base 15 surrounded by the cover 14. The cover 14 is provided with an opening that exposes the photographing unit 21 on two parallel surfaces of the regular dodecahedron. In the base 15 of the display unit 10, chip-shaped LEDs (light emitting diodes) 12 are arranged in a plurality of directions as light sources on a pentagonal substrate 13, and a milky white cover 14 is provided on the outside of the LEDs 12. Each of the LEDs 12 is connected to the control unit 40 so that it can be lit individually or in predetermined units. In addition, since the display part 10 of this embodiment is equipped with many LED12, in FIG. 3, the code is attached to only a part of LED12 for convenience, and the code | symbol is abbreviate | omitted and shown about the other LED12. . The same is true for the subsequent figures. The display unit 10 may be a display element such as a liquid crystal display element or an EL panel. In this case, each pixel of the display element corresponds to a light source. The cover 14 spreads the range (viewing angle) in which the display by this light can be seen by diffusing the light output from the LED 12.

次に図1に戻って遠隔装置2について説明する。遠隔装置2は、表示部51や、スピーカ52、マイク53、検出部54、制御部60を備えている。   Next, returning to FIG. 1, the remote device 2 will be described. The remote device 2 includes a display unit 51, a speaker 52, a microphone 53, a detection unit 54, and a control unit 60.

表示部51は、アバター1から受信した撮影画像を表示して協力者へ提示する表示装置である。   The display unit 51 is a display device that displays the photographed image received from the avatar 1 and presents the image to the collaborator.

スピーカ52は、制御部60から出力される第一の地点の音や利用者の音声等の信号を音として出力する。マイク53は、協力者の音声を電気信号に変換して制御部60へ入力する。検出部54は、例えばゴーストが注視している撮影画像内の位置を検出するセンサーである。   The speaker 52 outputs a signal such as the sound of the first point output from the control unit 60 or the voice of the user as a sound. The microphone 53 converts the voice of the collaborator into an electrical signal and inputs the electrical signal to the control unit 60. The detection unit 54 is, for example, a sensor that detects the position in the captured image at which the ghost is watching.

制御部60は、CPUやメモリを有するコンピュータであり、画像受信部61や、表示制御部62、メッセージ取得部63、視線情報取得部64、送信制御部65、音信号受信部66の処理を行う。   The control unit 60 is a computer having a CPU and a memory, and performs processing of the image reception unit 61, the display control unit 62, the message acquisition unit 63, the line-of-sight information acquisition unit 64, the transmission control unit 65, and the sound signal reception unit 66. .

画像受信部61は、アバター1から撮影画像を受信する。表示制御部62は、この撮影画像を表示部51に表示させる。表示制御部62は、アバター1で圧縮されたデータの伸長や、表示部51に応じて撮影画像を変換する処理を行ってもよい。   The image reception unit 61 receives a photographed image from the avatar 1. The display control unit 62 causes the display unit 51 to display the captured image. The display control unit 62 may perform processing of decompressing the data compressed by the avatar 1 and converting the photographed image according to the display unit 51.

メッセージ取得部63は、表示部51に表示された撮影画像を見ているゴーストから前記利用者に対するメッセージを取得する。メッセージ取得部63は、例えば、マイク53により、ゴーストの音声をメッセージとして取得する。   The message acquisition unit 63 acquires a message for the user from the ghost viewing the captured image displayed on the display unit 51. The message acquisition unit 63 acquires, for example, the sound of a ghost as a message by the microphone 53.

視線情報取得部64は、ゴーストが注視している撮影画像内の位置を示す情報を視線情報として取得する。なお、視線情報を取得する具体的な手法については後述する。送信制御部65は、前記メッセージや視線情報等の情報をアバター1へ送信する。音信号受信部66は、アバター1から利用者の音声等を示す音信号を受信する。   The line-of-sight information acquisition unit 64 acquires, as line-of-sight information, information indicating the position in the captured image at which the ghost is watching. In addition, the specific method of acquiring line-of-sight information will be described later. The transmission control unit 65 transmits information such as the message and the line-of-sight information to the avatar 1. The sound signal receiving unit 66 receives a sound signal indicating the voice or the like of the user from the avatar 1.

図5は、遠隔装置2の表示部51を備えたゴーグル70の構成を示す図、図6は、ゴーグル70をゴーストが装着した状態を示す図、図7は、ゴーグル70の向きと注視位置との関係を示す図である。   5 shows the configuration of the goggles 70 provided with the display unit 51 of the remote device 2, FIG. 6 shows the goggles 70 attached to a ghost, and FIG. FIG.

図5の例では、ゴーグル70が、筐体内に表示部51や、マイク53、検出部54、レンズ55を備えている。レンズ55は、表示部51の表示面から射出する光束をゴーストの眼39へ導光し、網膜上に結像させる接眼レンズ系である。これによりゴーストが、当該映像を拡大された虚像として観察できるようにしている。   In the example of FIG. 5, the goggles 70 include the display unit 51, the microphone 53, the detection unit 54, and the lens 55 in a housing. The lens 55 is an eyepiece system that guides a light flux emitted from the display surface of the display unit 51 to the ghost eye 39 and forms an image on the retina. This allows the ghost to observe the image as a magnified virtual image.

検出部54は、例えば角速度センサや地磁気センサであり、ゴーグル70の向き、即ち
図6のようにゴーグル70を装着したゴーストの視線の向きを検出する。制御部60は、検出部54で検出した向きに対応した映像を表示部51に表示させる。図7では、ゴーグル70を俯瞰し、水平面内において基準方向に対する右回りの角度θでゴーグル70の向きを示している。例えば、アバター1の前方に相当する方向を基準方向(0°)とした場合、右方を90°、後方を180°、左方を270°として示す。なお、アバター1において、撮影方向や表示する視線の方向を示す場合にも、図7と同様に、アバター1を俯瞰し、水平面内において基準方向に対する右回りの角度θで示す。
アバター1の撮影部21Aは、撮影レンズ(不図示)の光軸を前方(図7における0°)に向け、略190°の撮影画角で、撮影を行っている。また、アバター1の撮影部21Bは、撮影レンズ(不図示)の光軸を後方(図7における180°)に向け、略190°の撮影画角で、撮影を行っている。アバター1は、撮影部21A、21Bでそれぞれ撮影した画像をスティッチ処理して全天球画像とし、全方位(360°)の画像を記録する。そして、アバター1は、この全方位の画像を遠隔装置2へ送信する。
アバター1から撮影画像を受信した遠隔装置2は、アバター1で撮影した全方位(360°)の撮影画像のうち、ゴーグル70の向きに応じ、このゴーグルの向きを中心とした所定範囲の画像を切り出して表示部51に表示させる。例えば、表示する範囲を±30°とした場合、ゴーグル70の向きが図7に示した0°であれば、全方位(360°)の撮影画像から330°〜30°の範囲の撮影画像を切り出して表示部51に表示させる。同様に、ゴーグル70の向きが90°であれば、全方位(360°)の撮影画像から60°〜120°の範囲の撮影画像を切り出して表示部51に表示させる。このため、ゴーグル70を装着したゴーストは、頭部の向きを変えることで、あたかも第一の地点で周囲を見回しているかのように、周囲の状況を観察できる。制御部60は、このようにゴーストが周囲を観察しているときのゴーグル70の向きを視線情報として取得する。図7では、水平面内におけるゴーグルの向きを定義したが、垂直面内におけるゴーグルの向きについても同様に定義できる。例えば、垂直面内において基準方向に対する右回りの角度でゴーグル70の向きを示す。同じくアバター1における、撮影方向や表示する視線の方向についても、垂直面内において基準方向に対する右回りの角度で示す。制御部60は、垂直面内のゴーグル70の向きについても上記水平方向と同様に視線情報として取得し、アバター1へ送信して表示部10に表示させる。
The detection unit 54 is, for example, an angular velocity sensor or a geomagnetic sensor, and detects the direction of the goggles 70, that is, the direction of the line of sight of the ghost wearing the goggles 70 as shown in FIG. The control unit 60 causes the display unit 51 to display an image corresponding to the direction detected by the detection unit 54. In FIG. 7, the goggle 70 is turned over, and the orientation of the goggle 70 is shown at a clockwise angle θ with respect to the reference direction in the horizontal plane. For example, assuming that the direction corresponding to the front of the avatar 1 is a reference direction (0 °), the right side is indicated as 90 °, the rear side as 180 °, and the left side as 270 °. Also in the avatar 1, when showing the shooting direction and the direction of the line of sight to be displayed, the avatar 1 is turned in the same manner as in FIG. 7 and is indicated by a clockwise angle θ with respect to the reference direction in the horizontal plane.
The imaging unit 21A of the avatar 1 performs imaging at an imaging angle of view of approximately 190 ° with the optical axis of the imaging lens (not shown) directed forward (0 ° in FIG. 7). Further, the imaging unit 21B of the avatar 1 performs imaging at an imaging angle of view of approximately 190 ° with the optical axis of the imaging lens (not shown) directed rearward (180 ° in FIG. 7). The avatar 1 stitch-processes the images captured by the imaging units 21A and 21B, respectively, to obtain an omnidirectional image, and records an image in all directions (360 °). Then, the avatar 1 transmits this omnidirectional image to the remote device 2.
The remote device 2 having received the photographed image from the avatar 1 selects an image of a predetermined range centered on the direction of the goggles 70 among the photographed images of all directions (360 °) photographed by the avatar 1 according to the direction of the goggles 70 It is cut out and displayed on the display unit 51. For example, when the range to be displayed is ± 30 °, if the direction of the goggles 70 is 0 ° shown in FIG. 7, the captured image in the range of 330 ° to 30 ° from the captured image of all directions (360 °) It is cut out and displayed on the display unit 51. Similarly, when the direction of the goggles 70 is 90 °, the captured image in the range of 60 ° to 120 ° is cut out from the captured image of all directions (360 °) and displayed on the display unit 51. Therefore, by changing the orientation of the head, the ghost wearing the goggles 70 can observe the surrounding situation as if looking around at the first point. The control unit 60 acquires the direction of the goggles 70 when the ghost observes the surroundings as gaze information. Although the orientation of the goggles in the horizontal plane is defined in FIG. 7, the orientation of the goggles in the vertical plane can be defined in the same manner. For example, the orientation of the goggle 70 is indicated at a clockwise angle with respect to the reference direction in the vertical plane. Similarly, in the avatar 1, the shooting direction and the direction of the line of sight to be displayed are also indicated by a clockwise angle with respect to the reference direction in the vertical plane. The control unit 60 also acquires the direction of the goggles 70 in the vertical plane as line-of-sight information as in the above horizontal direction, and transmits the information to the avatar 1 for display on the display unit 10.

なお、上記の例では、ゴーグル70の向きをゴーストの視線情報として取得したが、これに限らず、アバター1から受信した撮影画像を表示装置に表示させ、ゴーストが撮影画像中の注視位置をポインティングデバイスで指定し、この注視位置を視線情報としてもよい。この場合、視線情報を受信したアバター1は、例えば撮影画像上で指定された注視位置と対応する第一の地点上の注視位置を求め、アバター1の位置から当該注視位置へ向かう方向を視線の方向として表示部10に表示させる。   In the above example, the direction of the goggles 70 is acquired as gaze information of a ghost. However, the present invention is not limited to this. A captured image received from the avatar 1 is displayed on a display device, and the ghost points a gaze position in the captured image. It is also possible to designate this gaze position as gaze information by designating with the device. In this case, the avatar 1 having received the line-of-sight information determines the gaze position on the first point corresponding to the gaze position designated on the photographed image, for example, and the direction from the position of the avatar 1 to the gaze position is It is displayed on the display unit 10 as the direction.

《遠隔コミュニケーション方法》
図8は、アバター1が画像や音声のデータを送信する処理を示す図である。アバター1が起動された場合や通信の開始が指示された場合に、アバター1は、図8の処理を開始する。ステップS10にて、アバター1は、マイク23を介して利用者の音声や周囲の音を取得し、音信号とする。
"Remote communication method"
FIG. 8 is a diagram showing a process in which the avatar 1 transmits image and audio data. When the avatar 1 is activated or when the start of communication is instructed, the avatar 1 starts the process of FIG. In step S10, avatar 1 acquires the user's voice and surrounding sounds via microphone 23, and uses it as a sound signal.

ステップS20にて、アバター1は、撮影部21から撮影画像を取得する。また、ステップS30にて、アバター1は、撮影画像を遠隔装置2の仕様に応じて変換する。例えば、広角レンズで撮影した際の歪みを補正する処理や、複数の撮影部21A,21Bで撮影した撮影画像をつなぎ合わせる処理を行う。また、ゴーストが撮影画像をゴーグル70で観察する場合、視線の方向に応じて一部の撮影画像しか表示されないため、視線方向に応じて表示範囲となる撮影画像を抽出してもよい。   In step S <b> 20, avatar 1 acquires a photographed image from photographing unit 21. Further, in step S30, avatar 1 converts the photographed image according to the specification of remote device 2. For example, processing for correcting distortion when shooting with a wide-angle lens, and processing for connecting captured images captured by a plurality of imaging units 21A and 21B are performed. When the ghost observes the photographed image with the goggles 70, only a part of the photographed image is displayed according to the direction of the line of sight, so the photographed image to be the display range may be extracted according to the line of sight.

アバター1は、ステップS40にて、取得した音と撮影画像のデータを圧縮し、ステップS50にて、音と撮影画像のデータを遠隔装置2へ送信する。なお、アバター1は、電源がオフにされるまで、或は通信の終了が指示されるまでは、図8の処理を繰り返し実行する。また、アバター1は、複数の遠隔装置と通信する場合、図8の処理を並列して実行しても良いし、ステップS50にて、音と撮影画像のデータを複数の遠隔装置2へマルチキャストしてもよい。   The avatar 1 compresses the acquired sound and the data of the photographed image in step S40, and transmits the data of the sound and the photographed image to the remote device 2 in step S50. The avatar 1 repeatedly executes the process of FIG. 8 until the power is turned off or until the end of the communication is instructed. Further, when communicating with a plurality of remote devices, avatar 1 may execute the processing of FIG. 8 in parallel, or in step S50, multicast data of sound and photographed image to a plurality of remote devices 2. May be

図9は、遠隔装置2が画像や音声のデータを受信する処理を示す図である。遠隔装置2が起動された場合や通信の開始が指示された場合に、遠隔装置2は、図9の処理を開始する。遠隔装置2は、ステップS110にて、音と撮影画像のデータをアバター1から受信し、ステップS120にて、圧縮されているデータを伸長する。   FIG. 9 is a diagram showing processing in which the remote device 2 receives image and audio data. When the remote device 2 is activated or the start of communication is instructed, the remote device 2 starts the process of FIG. The remote device 2 receives the sound and the image data from the avatar 1 in step S110, and decompresses the compressed data in step S120.

ステップS130にて、遠隔装置2は、受信した音信号をスピーカ52から音として出力する。   In step S130, the remote device 2 outputs the received sound signal from the speaker 52 as a sound.

遠隔装置2は、ステップS140にて、表示部51の仕様に応じて撮影画像を変換し、ステップS150にて、撮影画像を表示部51に表示させる。なお、遠隔装置2は、電源がオフにされるまで、或は通信の終了が指示されるまでは、図9の処理を繰り返し実行する。   At step S140, remote device 2 converts the photographed image according to the specification of display unit 51, and causes display unit 51 to display the photographed image at step S150. The remote device 2 repeatedly executes the processing of FIG. 9 until the power is turned off or until termination of communication is instructed.

図10は、遠隔装置2からアバター1へメッセージ及び視線情報を送信する処理を示す図である。遠隔装置2が起動された場合や通信の開始が指示された場合に、遠隔装置2は、図10の処理を開始する。   FIG. 10 is a diagram showing a process of transmitting a message and line-of-sight information from the remote device 2 to the avatar 1. When the remote device 2 is activated or the start of communication is instructed, the remote device 2 starts the process of FIG.

ステップS210にて、表示部51に表示された撮影画像を見るゴーストの視線を示す情報を視線情報として取得する。例えば、ゴーストがゴーグル70を用いて撮影画像を観察している場合には、ゴーグル70の向きを検出し、視線情報とする。   In step S210, information indicating the line of sight of the ghost who views the photographed image displayed on the display unit 51 is acquired as line of sight information. For example, when the ghost observes a captured image using the goggles 70, the direction of the goggles 70 is detected and used as line-of-sight information.

また、遠隔装置2は、ステップS220にて、マイク53を介してゴーストの音声メッセージを取得し、ステップS230にて、音声メッセージを圧縮する。   Also, in step S220, the remote device 2 acquires a ghost voice message via the microphone 53, and compresses the voice message in step S230.

ステップS240にて、遠隔装置2は、視線情報及び音声メッセージをアバター1へ送信する。なお、遠隔装置2は、電源がオフにされるまで、或は通信の終了が指示されるまでは、図10の処理を繰り返し実行する。   In step S240, the remote device 2 transmits the gaze information and the voice message to the avatar 1. The remote device 2 repeatedly executes the processing of FIG. 10 until the power is turned off or until termination of communication is instructed.

図11は、アバター1が視線情報を表示する処理を示す図である。アバター1が起動された場合や通信の開始が指示された場合に、アバター1は、図11の処理を開始する。ステップS310にて、アバター1は、遠隔装置2から視線情報及び音声メッセージを受信する。   FIG. 11 is a diagram showing processing in which the avatar 1 displays line-of-sight information. When the avatar 1 is activated or when the start of communication is instructed, the avatar 1 starts the process of FIG. In step S310, avatar 1 receives the line-of-sight information and the voice message from remote device 2.

アバター1は、ステップS320にて、視線情報に基づいて点灯させるLED(光源)12を特定し、ステップS330にて、特定のLED12を点灯させることで、視線の方向を利用者へ提示する。   In step S320, the avatar 1 specifies the LED (light source) 12 to be lit based on the line-of-sight information, and presents the direction of the line of sight to the user by turning on the specific LED 12 in step S330.

また、アバター1は、ステップS340にて、圧縮されている音声メッセージを伸張し、ステップS350にて音声メッセージをスピーカ22から出力させる。なお、アバター1は、電源がオフにされるまで、或は通信の終了が指示されるまでは、図11の処理を繰り返し実行する。また、アバター1は、複数の遠隔装置2と通信する場合、図11の処理を並列して実行しても良い。この場合、複数の遠隔装置2からそれぞれ視線情報を取得し、当該視線情報に基づいて、表示部10に複数の視線を示す表示を行わせる。遠隔装置2
毎に、LED12の発光色や輝度、点滅パターン等を異ならせて、各視線を区別できるように表示させる。
Further, the avatar 1 decompresses the compressed voice message in step S340, and causes the speaker 22 to output the voice message in step S350. The avatar 1 repeatedly executes the process of FIG. 11 until the power is turned off or until the end of communication is instructed. Further, when the avatar 1 communicates with a plurality of remote devices 2, the process of FIG. 11 may be executed in parallel. In this case, line-of-sight information is obtained from each of the plurality of remote devices 2, and based on the line-of-sight information, the display unit 10 is made to display a plurality of lines of sight. Remote unit 2
The line of sight is displayed in a distinguishable manner by changing the light emission color, the luminance, the blinking pattern and the like of the LED 12 each time.

図12は、アバター1が、視線情報に基づいて点灯させる光源を補正する処理を示す図である。アバター1は、図11に示すように、遠隔装置2から受信した視線情報に基づいて点灯させるLED12を決定しているが、例えば遠隔装置2が、視線情報を取得した時点と、この視線情報に基づいてLED12を点灯させる時点とで、アバター1の位置や姿勢が異なると、表示部10の向きが異なり、表示部10に表示させた視線に誤差が生じてしまう。このためアバター1の位置や姿勢の変化に応じて点灯させる光源を補正する。この場合、アバター1は、姿勢の変化を検出するために、例えばアバター1の向き(表示部10の向き)や撮影位置を周期的に測定し、測定時刻と共に履歴情報として記憶しておく。また、遠隔装置は、視線情報を生成した時刻を示す生成時刻情報を視線情報と共にアバター1へ送信する。そして、アバター1が起動された場合や通信の開始が指示された場合に、アバター1は、図12の処理を周期的に実行する。例えば、図11よりも短い周期で実行する。   FIG. 12 is a diagram showing a process of correcting the light source to be turned on based on the sight line information by the avatar 1. The avatar 1 determines the LED 12 to be lighted on the basis of the line-of-sight information received from the remote device 2 as shown in FIG. 11. For example, when the line-of-sight information is acquired by the remote device 2, If the position and the attitude of the avatar 1 are different at the time when the LED 12 is lighted on the basis, the direction of the display unit 10 is different, and an error occurs in the line of sight displayed on the display unit 10. Therefore, the light source to be turned on is corrected according to the change of the position and posture of the avatar 1. In this case, in order to detect a change in posture, the avatar 1 periodically measures, for example, the direction of the avatar 1 (the direction of the display unit 10) and the photographing position, and stores them as history information together with the measurement time. Further, the remote device transmits generation time information indicating the time of generation of the line-of-sight information to the avatar 1 together with the line-of-sight information. Then, when the avatar 1 is activated or when the start of communication is instructed, the avatar 1 periodically executes the process of FIG. 12. For example, it executes at a cycle shorter than that in FIG.

図12を開始すると、アバター1は、ステップS405にて、遠隔装置2から受信した視線情報と生成時刻情報を取得する。また、ステップS410にて、アバター1は、現時点の位置(撮影位置)と撮影方向を取得する。   When FIG. 12 is started, the avatar 1 acquires line-of-sight information and generation time information received from the remote device 2 in step S405. Also, in step S410, the avatar 1 acquires the current position (shooting position) and the shooting direction.

ステップS420にて、アバター1は、前記履歴情報を参照し、ステップS405で取得した生成時刻情報が示す時刻の撮影位置及び撮影方向と、ステップS410で取得した現時点の撮影位置及び撮影方向とを比較して、差分を求める。   In step S420, avatar 1 refers to the history information and compares the shooting position and shooting direction at the time indicated by the generation time information obtained in step S405 with the current shooting position and shooting direction obtained in step S410. And find the difference.

ステップS430にて、アバター1は、視線情報に基づいて発光させる光源をステップS420で求めた差分に基づいて補正する。例えば、視線情報が示す視線の方向から、差分として求めた撮影方向の変化量を減算する。具体的には、視線情報が示す視線の方向が図7に示した基準とする方向に対して20°であって、この時点と比べて現時点の撮影方向が5°ズレた場合、これを減算して、視線の方向を15°に補正する。   In step S430, avatar 1 corrects the light source to emit light based on the line-of-sight information based on the difference obtained in step S420. For example, the amount of change in the imaging direction obtained as a difference is subtracted from the direction of the line of sight indicated by the line-of-sight information. Specifically, if the direction of the line of sight indicated by the line-of-sight information is 20 ° with respect to the reference direction shown in FIG. 7 and the current shooting direction deviates 5 ° from this time point, this is subtracted And correct the direction of the line of sight to 15 °.

ステップS440にて、アバター1は、補正した視線情報に基づいて視線の方向を表示させる。   In step S440, avatar 1 displays the direction of the line of sight based on the corrected line-of-sight information.

なお、図12の例では、遠隔装置2側で生成した視線情報が示す視線の方向と、アバター1が表示する視線の方向の差を補正する例を示したが、これに限らず、例えばアバター1が、第一の地点において基準とする方位で撮影された画像の位置が、撮影画像中の何処の位置であるかが分かるように送信し、遠隔装置が、第一の地点において基準とする方位に対する方向(角度)で、視線の方向を示す視線情報を生成してアバター1へ送信する構成としてもよい。例えば、アバター1が、撮影画像を撮影したときの撮影方向を第一の地点において基準とする方位(例えば北)に対する角度(方位角)で示し、これを撮影情報として撮影画像と共に遠隔装置2へ送信する。そして、遠隔装置2は、表示させた撮影画像を見るゴーストの視線の方向を第一の地点において基準とする方位(例えば北)に対する角度(方位角)で示して視線情報を生成しアバター1へ送信する。これにより、アバター1は、視線を表示する際の姿勢が変化しても補正せずに、視線の方向を示すことができる。なお、垂直面内の向きについても水平方向や鉛直方向等の基準とする方向に対する角度で視線の方向を示して視線情報を生成する構成とすれば、アバターは、上記と同様に補正なく視線の方向を示すことができる。   Although the example of FIG. 12 illustrates an example of correcting the difference between the direction of the line of sight indicated by the line-of-sight information generated on the remote device 2 side and the direction of the line of sight displayed by the avatar 1, the present invention is not limited thereto. 1 transmits so that the position of the image photographed in the reference orientation at the first point is the position in the photographed image, and the remote device makes the reference at the first point Line-of-sight information indicating the direction of the line of sight may be generated and transmitted to the avatar 1 in the direction (angle) with respect to the direction. For example, the avatar 1 indicates the photographing direction when the photographed image is photographed by an angle (azimuth angle) with respect to the azimuth (for example, north) at the first point as a reference, and this to the remote device 2 together with the photographed image Send. Then, the remote device 2 generates line-of-sight information by indicating the direction of the line of sight of the ghost looking at the displayed photographed image by an angle (azimuth angle) with respect to the direction (for example, north) at the first point. Send. As a result, the avatar 1 can indicate the direction of the line of sight without correcting even if the posture at the time of displaying the line of sight changes. If the direction of the line of sight is indicated by an angle to the reference direction such as the horizontal direction or the vertical direction also in the vertical plane and the line-of-sight information is generated, the avatar is not corrected as described above. You can indicate the direction.

図13は、視線の方向を表示する例を示す図である。図13では、点灯しているLED12を網掛けを付して示している。図13(A)〜図13(C)では点灯させたLED1
2の配列方向で視線の方向を示している。
FIG. 13 is a diagram showing an example of displaying the direction of the line of sight. In FIG. 13, the lit LEDs 12 are shown with hatching. In FIG. 13 (A) to FIG. 13 (C), the lighted LED 1
The direction of the line of sight is indicated by the arrangement direction of two.

図14は、本実施形態に係る遠隔コミュニケーションシステム100の利用シーンを示す図である。図14では、利用者の肩にアバター1を装着した例を示している。図14の例では、利用者が、買い物をする際、遠隔コミュニケーションシステム100を介してゴーストと、以下のような会話をしながら商品を選んでいる。
利用者:「これかな?」
ゴースト:「いや違うよ。こっちが良いね」
このように遠隔コミュニケーションシステム100を用いることで、利用者は遠隔地にいるゴーストとコミュニケーションをとることができる。このため、利用者に商品の知識がなくても、ゴーストの知識を利用して適切に商品を選ぶことができる。
FIG. 14 is a view showing a usage scene of the remote communication system 100 according to the present embodiment. FIG. 14 shows an example in which the avatar 1 is attached to the shoulder of the user. In the example of FIG. 14, the user selects a product while having the following conversation with the ghost via the remote communication system 100 when shopping.
User: "Is this?"
Ghost: "No, no, this is good."
Thus, by using the remote communication system 100, the user can communicate with a ghost located at a remote place. Therefore, even if the user does not have knowledge of the product, it is possible to appropriately select the product using the knowledge of the ghost.

また、ゴーストの視線の方向を利用者に提示できるので、ゴーストが何を見ながら話しているのかがわかり、円滑にコミュニケーションをとることができる。   Also, since the direction of the ghost's line of sight can be presented to the user, it is possible to understand what the ghost is talking while talking, and to communicate smoothly.

また、海外旅行等で、利用者が現地の言葉を話せず、店の人に質問できなくても、現地の言葉が話せるゴーストがアバターを介して店の人に質問し、質問の回答をゴーストが利用者へ伝えることができる。   In addition, even if the user can not speak the local language and can not ask the person of the store in overseas travel etc., the ghost who can speak the local language asks the person of the store via the avatar, and the question answer is ghosted Can communicate to the user.

このように、利用者が一人では解決できない問題があっても、遠隔地にいるゴーストの能力を借りて、この問題を解決することができる。一方、ゴーストにとっても、外出せずにショッピングや海外旅行を楽しむことができる。   In this way, even if there is a problem that the user can not solve alone, this problem can be solved by using the ghost's ability at a remote place. On the other hand, ghosts can enjoy shopping and traveling abroad without going out.

また、ストリーミング配信を行うような場合に、遠隔コミュニケーションシステム100を用いて、他の人とコミュニケーションをとることで、他の人の客観的な意見をストリーミング内容に反映させることができる。   Further, in the case of performing streaming distribution, by communicating with another person using the remote communication system 100, it is possible to reflect an objective opinion of the other person in the streaming content.

〈変形例1〉
図15は、変形例1に係るアバター1Aを示す図である。図15のアバター1Aは、垂直な回転軸VAを中心に本体31を回転させる回転機構33と、水平な回転軸HAを中心に本体31を回転させる回転機構34とを有している。回転機構33、34は、駆動部の一形態である。
Modified Example 1
FIG. 15 is a view showing an avatar 1A according to the first modification. The avatar 1A of FIG. 15 has a rotation mechanism 33 for rotating the main body 31 around the vertical rotation axis VA, and a rotation mechanism 34 for rotating the main body 31 around the horizontal rotation axis HA. The rotation mechanisms 33 and 34 are one form of a drive unit.

本変形例では、ゴーストが、回転機構33、34を動作させ、この動作によって、利用者へメッセージを伝える構成としている。なお、この他の構成は、前述の実施形態と同じであるので、同一の要素には同符号を付す等して再度の説明を省略している。   In this modification, the ghost operates the rotation mechanisms 33 and 34, and this operation transmits a message to the user. Since the other configuration is the same as that of the above-described embodiment, the same components are denoted by the same reference symbols, and the description thereof is omitted.

遠隔装置2は、送信制御部65の機能により、アバター1Aの動作を指示する動作指示情報をアバター1Aへ送信する。図16は、遠隔装置から動作指示情報をアバター1へ送信する処理を示す図である。遠隔装置2は、ゴーストがキーボードやポインティングデバイス等の入力手段を用いて回転機構33,34を動作させる指示を入力した場合に図16の処理を開始する。   The remote device 2 transmits operation instruction information for instructing the operation of the avatar 1A to the avatar 1A by the function of the transmission control unit 65. FIG. 16 is a diagram showing processing of transmitting operation instruction information to the avatar 1 from the remote device. The remote device 2 starts the process of FIG. 16 when the ghost inputs an instruction to operate the rotation mechanisms 33 and 34 using input means such as a keyboard and a pointing device.

ステップS510にて、遠隔装置2は、ゴーストの操作によって入力された回転機構33,34に対する指示を動作指示情報として取得する。   In step S510, the remote device 2 acquires, as operation instruction information, an instruction for the rotation mechanisms 33 and 34 input by the operation of the ghost.

ステップS520にて、遠隔装置2は、動作指示情報を圧縮する。なお、動作指示情報を圧縮する処理は、必須ではなく、データ量が少ない場合には、省略してもよい。   In step S520, the remote device 2 compresses the operation instruction information. The process of compressing the operation instruction information is not essential, and may be omitted when the amount of data is small.

ステップS530にて、遠隔装置2は、ネットワークを介して動作指示情報をアバター
1へ送信する。
In step S530, the remote device 2 transmits operation instruction information to the avatar 1 via the network.

図17は、遠隔装置から受信した動作指示情報に基づいてアバター1が行う処理を示す図である。ステップS570にて、アバター1は、遠隔装置2から動作指示情報を受信する。   FIG. 17 is a diagram showing the process performed by the avatar 1 based on the operation instruction information received from the remote device. In step S570, avatar 1 receives operation instruction information from remote device 2.

アバター1は、ステップS580にて、圧縮されている動作指示情報を伸張し、ステップS590にて、動作指示情報に基づく動作を行う。例えば、回転機構34を動作させることで、アバター1がうなずくような動作を行わせることができる。また、回転機構33を動作させることで、アバター1が首を振るような動作を行わせることができる。このように、アバター1の動作によって、肯定や否定を示すメッセージを利用者に伝えることができる。   The avatar 1 decompresses the compressed operation instruction information in step S 580, and performs an operation based on the operation instruction information in step S 590. For example, by operating the rotation mechanism 34, the avatar 1 can perform an operation such as nodding. Further, by operating the rotation mechanism 33, it is possible to perform an operation such that the avatar 1 shakes its neck. Thus, the action of the avatar 1 can transmit a message indicating positive or negative to the user.

なお、前述の実施形態では、撮影部21が広角レンズを用いて全方位の画像を撮影するように構成したが、撮影部21が限られた範囲を撮影する構成の場合、この撮影範囲を変えるために、回転機構33,34を動作させてもよい。   In the above embodiment, the imaging unit 21 is configured to capture an omnidirectional image using a wide-angle lens, but in the case of a configuration in which the imaging unit 21 captures a limited range, the imaging range is changed. For this purpose, the rotation mechanisms 33 and 34 may be operated.

また、アバター1にバイブレータを備え、ゴーストの操作によって指示された動作指示情報に基づいてアバター1を振動させる構成としてもよい。   Further, the avatar 1 may be provided with a vibrator, and the avatar 1 may be vibrated based on the operation instruction information instructed by the operation of the ghost.

〈第二実施形態〉
前述の実施形態では、人(協力者)がゴーストとしてメッセージを入力し、この協力者の視線を検出して視線情報としたが、本実施形態では、コンピュータが仮想のゴーストとして動作し、このコンピュータが視線情報を生成する構成としている。なお、この他の構成は同じであるため、同一の要素には同符号を付して再度の説明を省略する。
Second Embodiment
In the above-described embodiment, a person (cooperator) inputs a message as a ghost, and the gaze of the collaborator is detected to be gaze information, but in the present embodiment, the computer operates as a virtual ghost. Is configured to generate line-of-sight information. Here, since the other configuration is the same, the same reference numerals are given to the same elements and the description thereof will not be repeated.

図18は本実施形態に係る遠隔コミュニケーションシステム100の概略構成図である。本実施形態の遠隔装置2Aは、CPUやメモリを有するコンピュータであり、画像受信部61や、表示制御部62、メッセージ取得部63、視線情報取得部64、送信制御部65、音信号受信部66、音声認識部67、要求判定部68、要求対象判定部69、メッセージ生成部71、対象抽出部72、視線情報取得部73の処理を行う。   FIG. 18 is a schematic configuration diagram of the remote communication system 100 according to the present embodiment. The remote device 2A according to the present embodiment is a computer having a CPU and a memory, and the image reception unit 61, the display control unit 62, the message acquisition unit 63, the line-of-sight information acquisition unit 64, the transmission control unit 65, and the sound signal reception unit 66. The voice recognition unit 67, the request determination unit 68, the request target determination unit 69, the message generation unit 71, the target extraction unit 72, and the line-of-sight information acquisition unit 73 are processed.

音声認識部67は、アバター1から受信した音信号に基づいて利用者の音声を認識し、文字列に変換する。要求判定部68は、音声認識部67で取得した文字列を形態素解析及び構文解析を行って、当該文字列から利用者の要求を判定する。   The voice recognition unit 67 recognizes the voice of the user based on the sound signal received from the avatar 1 and converts it into a character string. The request determination unit 68 performs morphological analysis and syntax analysis on the character string acquired by the speech recognition unit 67, and determines the user's request from the character string.

例えば、図19に示す所定の要求パターンに該当するものを利用者の要求と判定する。図19の例では、〈施設名〉へ行く、〈物品〉は何処(ですか)?、〈食品名〉を食べる、等のように要求パターンを有し、この要求パターンに合致した場合に、この文字列を利用者の要求と判定し、当該文字列に基づいて、要求の内容を特定する。   For example, it is determined that the user's request corresponds to the predetermined request pattern shown in FIG. In the example in Fig. 19, go to <facility name>, where is <article>? If there is a request pattern such as eating <food name>, etc., and the request pattern is met, the character string is determined to be a user request, and the content of the request is determined based on the character string. Identify.

要求対象判定部69は、前記文字列に基づいて前記要求の対象を判定する。例えば、前記要求パターンに含まれる〈施設名〉、〈物品〉、〈食品名〉等、目的語や主語、主題となる名詞を要求対象として判定する。この場合、要求パターンに合致した文字列に構文解析によって求めた述語が「行く」であれば、その目的語を〈施設名〉とする。また、述語が「食べる」であれば、その目的語を〈食品名〉とする。述語が「何処?」であれば、その主語を〈物品〉とする。更に、要求の対象とする語を予め辞書に登録しておき、要求パターンに合致した文字列のうち、施設名の辞書に該当した語を〈施設名〉、物品の辞書に該当した語を〈物品〉と判定してもよい。例えば、財布や、スマートフォン、鍵など、対象とすべき〈物品〉を予め辞書に登録しておく。   The request target determination unit 69 determines the target of the request based on the character string. For example, it is determined that the object, the subject, and the subject noun, such as <facility name>, <article>, <food name>, and the like, which are included in the request pattern, are to be requested. In this case, if the predicate obtained by the syntactic analysis for the character string matching the required pattern is "go", the object is set to <facility name>. If the predicate is "eat", the object is "food name". If the predicate is "where", the subject is "the article". Furthermore, the word targeted for the request is registered in advance in the dictionary, and among the character strings matching the request pattern, the word corresponding to the facility name dictionary is <facility name> and the word corresponding to the article dictionary is It may be determined that the article]. For example, <article> to be an object, such as a wallet, a smartphone, or a key, is registered in advance in the dictionary.

メッセージ生成部71は、図19に示すように前記要求と対応付けたメッセージの生成処理を行って、メッセージを生成する。例えば、前記要求パターンが「〈施設名〉へ行く」であった場合には、当該〈施設名〉までの経路案内をメッセージとして出力する。また、前記要求パターンが「〈物品〉は何処?」であった場合には、当該〈物品〉を過去の撮影画像から検索し、当該物品の位置を示す音声をメッセージとして出力する。更に前記要求パターンが「〈食品名〉を食べる、」であった場合には、当該〈食品名〉を食べることができる店舗をデータベース或はインターネット上の検索エンジンで当該店舗の位置を求めて目的地とし、現在地から目的地までの経路案内をメッセージとして出力する。ここで、経路案内は、例えば、交差点(ノード)や、この交差点間の道路(リンク)、目標物の位置等を示すデータを有する地図情報を検索して、現在地から目的地までの経路を求め、この経路上の交差点や交差点間の道路、目標物を示す情報を音声メッセージとして出力する。例えば、「こちらの方向へ100m進み、次の交差点を右折です。」「あのビルの右の道を直進です。」等のように、アバター1の現在地から次の交差点や目的地までの距離や方向を音声で出力する。   The message generator 71 generates a message by performing a process of generating a message associated with the request as shown in FIG. For example, when the request pattern is "Go to <facility name>", route guidance up to the <facility name> is output as a message. If the request pattern is "where is the <article>?", The <article> is retrieved from the past captured image, and a voice indicating the position of the article is output as a message. Furthermore, if the request pattern is "Eat <food name>", the store where the <food name> can be eaten is searched for using the database or search engine on the Internet to find the location of the shop. It is taken as a place, and the route guidance from the present place to the destination is outputted as a message. Here, for route guidance, for example, a map information having data indicating an intersection (node), a road (link) between the intersections, a position of a target, etc. is searched to obtain a route from the current location to the destination Information on the intersection on this route, the road between the intersections, and the target is output as a voice message. For example, the distance from Avatar1's current location to the next intersection or destination, such as "Go 100m in this direction and turn right at the next intersection." "Go straight on the right road to that building." Output the direction as voice.

対象抽出部72は、要求の対象を示す画像を撮影画像から抽出する。例えば、財布や、スマートフォン、鍵など、要求の対象とすべき〈物品〉の画像を対象パターンとして予め記憶部に登録しておき、撮影画像から、この対象パターンと合致する部分をパターンマッチングによって抽出する。そして、メッセージ生成部71は、「〈物品〉は何処?」といった要求に対して、対象抽出部72で求めた〈物品〉の画像に対応する被写体が存在する位置を求め、この位置を示す音声メッセージを出力する。例えば「あっちの方向に在ったよ」「むこうの方向に置いたよ」のように出力する。また、対象抽出部72で抽出した画像から〈物品〉が存在する位置の情報として、棚の上、電話の横などのように認識できる場合には、これを音声メッセージに含め、「あっちの棚の上に在ったよ」「むこうの電話の横に置いたよ」のように出力してもよい。また、対象抽出部72は、メッセージ生成部71で、「あのビル・・・」「こちらの川に沿って直進・・・」などのように、目標物を示すメッセージを生成した場合、この目標物「ビル」「川」を要求(経路案内)の対象とし、この画像を撮影画像から抽出する。   The target extraction unit 72 extracts an image indicating the target of the request from the captured image. For example, an image of an <article> to be requested, such as a wallet, a smartphone, or a key, is registered in advance as a target pattern in the storage unit, and a portion matching the target pattern is extracted from the photographed image by pattern matching. Do. Then, the message generation unit 71, in response to a request such as “where is the <article>?”, Determines the position where the subject corresponding to the image of the <article> obtained by the target extraction unit 72 is present. Output a message. For example, "I was in the direction of each place" and "I put it in the direction of the other side". If the image extracted by the object extraction unit 72 can be recognized as information on the position where the <article> is present, such as on a shelf, next to a telephone, etc., include this in the voice message. It may be output like "I placed it on the side of the phone". In addition, when the message extracting unit 71 generates a message indicating a target, such as “A building ...”, “Go straight along the river ...”, etc. The object "building" and "river" are requested (route guidance), and this image is extracted from the photographed image.

視線情報取得部73は、前記対象を示す画像に対応する被写体が存在する位置を示す情報を視線情報として取得する。例えば、〈物品〉や目標物の画像に対応する被写体が存在する位置を求め、この位置(例えば緯度・経度)やアバター1から見た方向(例えば図7のようにアバター1を中心として前方から右回りの角度)を示す情報を視線情報とする。そして、この視線情報を送信制御部65が、アバター1へ送信する。視線情報を受信したアバター1は、この視線情報に基づいて表示部10に視線の方向を表示する。なお、視線情報がアバター1から見た方向を示す場合には、前述と同様に、この方向を示すLED12を点灯させる。また、視線情報が被写体の位置を示す場合、アバター1は、アバター1の位置から視線情報が示す被写体の位置へ向かう方向を示すようにLED12を点灯させ、これを視線の方向として表示部10に表示させる。   The line-of-sight information acquisition unit 73 acquires, as line-of-sight information, information indicating the position where the subject corresponding to the image indicating the target is present. For example, the position where the subject corresponding to the <article> or the image of the target exists is determined, and the position (for example, latitude and longitude) or the direction viewed from the avatar 1 (for example, as shown in FIG. Information indicating the clockwise angle) is used as the line-of-sight information. Then, the transmission control unit 65 transmits the line-of-sight information to the avatar 1. The avatar 1 having received the line-of-sight information displays the direction of the line of sight on the display unit 10 based on the line-of-sight information. When the line-of-sight information indicates the direction viewed from the avatar 1, the LED 12 indicating the direction is turned on as described above. When the line-of-sight information indicates the position of the subject, the avatar 1 lights the LED 12 so as to indicate the direction from the position of the avatar 1 to the position of the subject indicated by the line-of-sight information. Display.

遠隔装置2は、上記のように要求パターンに基づいて利用者の要求を判定し、この要求と対応するメッセージ生成処理を行ってメッセージを作成し、アバター1へ送信する。これにより、遠隔装置2は、利用者の要求に応じてメッセージを返信する所謂チャッターボットとして機能する。なお、本実施形態の遠隔装置2は、要求パターンやメッセージの生成処理を固定的に用意するのではなく、AIによって、利用者の要求の判定と、当該要求に対するメッセージの生成を行ってもよい。例えば、利用者の要求と、当該要求に対するメッセージを求める多層のモデルを設定し、音声認識部67で認識した利用者の音声とアバター1から取得した撮影画像について学習を繰り返しすことにより、利用者の要求として判定すべきパターンと、当該要求に対するメッセージを求める。   As described above, the remote device 2 determines the user's request based on the request pattern, performs message generation processing corresponding to the request, creates a message, and transmits it to the avatar 1. Thus, the remote device 2 functions as a so-called chatter bot that sends back a message in response to the user's request. Note that the remote device 2 according to the present embodiment may determine the user's request and generate a message for the request by AI, instead of fixedly preparing the request pattern and the process of generating the message. . For example, the user sets the multi-layer model for requesting the user and the message for the request, and repeatedly learning about the voice of the user recognized by the voice recognition unit 67 and the photographed image acquired from the avatar 1. Request a pattern to be determined as a request for and a message for the request.

図20は、本実施形態の遠隔装置2が、アバター1から受信したデータに基づいて、メッセージ及び視線情報を生成して、アバター1へ送信する処理を示す図である。なお、アバター1から遠隔装置2へデータを送信する処理は、図8と同じである。遠隔装置2が起動された場合や通信の開始が指示された場合に、遠隔装置2は、図20の処理を開始する。   FIG. 20 is a diagram showing a process in which the remote device 2 of the present embodiment generates a message and line-of-sight information based on the data received from the avatar 1 and transmits it to the avatar 1. The process of transmitting data from the avatar 1 to the remote device 2 is the same as that shown in FIG. When the remote device 2 is activated or the start of communication is instructed, the remote device 2 starts the process of FIG.

遠隔装置2は、ステップS610にて、音と撮影画像のデータをアバター1から受信し、ステップS620にて、圧縮されているデータを伸長する。   At step S610, the remote device 2 receives the sound and the image data from the avatar 1, and at step S620, the compressed data is decompressed.

ステップS630にて、遠隔装置2は、アバター1から受信した音信号に基づいて利用者の音声を認識し、文字列に変換する。   In step S630, remote device 2 recognizes the user's voice based on the sound signal received from avatar 1, and converts it into a character string.

ステップS640にて、遠隔装置2は、ステップS630で取得した文字列を形態素解析及び構文解析を行って、当該文字列から利用者の要求を判定する。また、ステップS650にて、遠隔装置2は、ステップS630で取得した文字列に基づいて要求の対象を判定する。   In step S640, the remote device 2 performs morphological analysis and syntax analysis on the character string acquired in step S630, and determines the user's request from the character string. Also, in step S650, the remote device 2 determines the target of the request based on the character string acquired in step S630.

ステップS660にて、遠隔装置2は、ステップS630で求めた利用者の要求に対応するメッセージを生成する。また、遠隔装置2は、ステップS670にて、要求の対象を示す画像を過去の撮影画像から抽出し、ステップ680にて、対象を示す画像に対応する被写体が存在する位置を示す情報を視線情報として取得する。   In step S660, the remote device 2 generates a message corresponding to the user request obtained in step S630. Also, in step S670, the remote device 2 extracts an image indicating the target of the request from the captured image in the past, and in step 680, information indicating the position where the subject corresponding to the image indicates the target is sight line information Get as.

そして、ステップS690にて、遠隔装置2は、前記メッセージ及び前記視線情報をアバター1へ送信する。なお、前記メッセージ及び前記視線情報をアバター1が受信して、利用者に対して出力する処理は、前記図11の処理と同じである。   Then, in step S690, the remote device 2 transmits the message and the gaze information to the avatar 1. The process in which the avatar 1 receives the message and the line-of-sight information and outputs it to the user is the same as the process in FIG.

このように本実施形態によれば、利用者がアバター1を介してコンピュータとコミュニケーションをとることができる。また、ゴーストであるコンピュータが、アバター1の視線を模擬して、表示させることで、円滑にコミュニケーションを図ることができるようにしている。   Thus, according to the present embodiment, the user can communicate with the computer via the avatar 1. In addition, the computer, which is a ghost, simulates and displays the line of sight of the avatar 1 so that communication can be smoothly performed.

〈変形例2〉
図21は、アバター1の変形例2を示す図、図22は、本変形例の光源を示す図である。前述の実施形態では、アバター1の外形を略正十二面体としたが、アバター1の外形は、これに限定されるものではない。本変形例では、図21のように、アバター1の外形を略球形としている。本変形例では、円弧状のフィルム基板1F1〜1F5,1R1〜1R5に光源12を配設し、これをアバター1の略球形の筐体の外面に貼り付けている。円弧状のフィルム基板1F1〜1F5,1R1〜1R5は、ケーブルIC及びコネクタITを介して、筐体内の制御部60に接続されている。そして、表示制御部43が、各光源12の配置に応じたマッピング情報を参照し、視線情報と対応する光源を特定して発光させることによって、視線の方向を表示する。更に、アバター1は、六面体や、二十面体など、他の外形であってもよい。
<Modification 2>
FIG. 21 is a view showing a second modification of the avatar 1 and FIG. 22 is a view showing a light source of the present modification. In the above-mentioned embodiment, although the external shape of avatar 1 was made into approximately regular dodecahedron, the external shape of avatar 1 is not limited to this. In this modification, as shown in FIG. 21, the outer shape of the avatar 1 is substantially spherical. In this modification, the light source 12 is disposed on the arc-shaped film substrates 1F1 to 1F5 and 1R1 to 1R5, and the light source 12 is attached to the outer surface of the substantially spherical casing of the avatar 1. The arc-shaped film substrates 1F1 to 1F5 and 1R1 to 1R5 are connected to the control unit 60 in the housing via the cable IC and the connector IT. Then, the display control unit 43 refers to the mapping information according to the arrangement of the light sources 12, identifies the light source corresponding to the line-of-sight information, and causes the light source to emit light, thereby displaying the direction of the line of sight. Furthermore, the avatar 1 may have another external shape such as a hexahedron or an icosahedron.

〈第三実施形態〉
第三実施形態は、前述の第一実施形態と比べて、複数の撮影部21による撮影範囲の所定部分が重複するように撮影部21を配置し、重複部分の撮影画像を合成して高解像度の合成画像を得る構成が異なっている。なお、その他の構成は同じであるため、同一の要素には、同符号を付す等して、再度の説明を省略する。
Third Embodiment
In the third embodiment, as compared with the first embodiment described above, the imaging unit 21 is disposed such that predetermined portions of the imaging ranges by the plurality of imaging units 21 overlap, and the captured images of the overlapping portions are synthesized to achieve high resolution The configuration for obtaining a composite image of is different. In addition, since the other configuration is the same, the same reference numerals are given to the same elements, and the description thereof will not be repeated.

図23は、撮影部21の構成を示す図、図24は、撮影範囲を模式的に示すアバター1Bの側面図、図25は、撮影範囲を模式的に示すアバター1Bの平面図である。   FIG. 23 is a view showing the configuration of the photographing unit 21, FIG. 24 is a side view of an avatar 1B schematically showing a photographing range, and FIG. 25 is a plan view of the avatar 1B schematically showing a photographing range.

図23に示すように、撮影部21は、撮影レンズ211と、撮像素子212を有している。撮影レンズ211は、被写体の像を撮像素子212の撮像面上に形成する。撮影レンズ211の画角は、特に限定されるものではないが、広い範囲の被写体を撮影できるように、広画角のレンズであることが望ましく、本実施形態では所謂魚眼レンズを採用している。撮影レンズ211は、光軸A0が、撮像素子212における撮像面の中心に位置するように配置されている。   As shown in FIG. 23, the imaging unit 21 includes an imaging lens 211 and an imaging element 212. The imaging lens 211 forms an image of a subject on the imaging surface of the imaging element 212. The angle of view of the photographing lens 211 is not particularly limited, but is preferably a lens with a wide angle of view so that a wide range of subjects can be photographed, and a so-called fisheye lens is adopted in this embodiment. The imaging lens 211 is disposed such that the optical axis A 0 is located at the center of the imaging surface of the imaging element 212.

撮像素子212は、CCDイメージセンサやCMOSイメージセンサといった撮像デバイスであり、受光面(撮像面)上に形成された光の像をその光の強さに応じた電気信号に変換して、所定形式の画像情報(撮影画像)とする。   The imaging element 212 is an imaging device such as a CCD image sensor or a CMOS image sensor, converts an image of light formed on a light receiving surface (imaging surface) into an electrical signal according to the intensity of the light, Image information (photographed image).

図24に示すように、本実施形態のアバター1Bは、撮影部21Aと撮影部21Bを有し、側面視において、一方の撮影部21Aによって撮影する撮影範囲が他方の撮影部21Bによって撮影する撮影範囲と重複するように、各撮影部21A,21Bが配置されている。なお、本実施形態の表示部10は、多数のLED12を備えているため、図24では便宜上一部のLED12にのみ符号を付して、その他のLED12については、符号を省略して示している。   As shown in FIG. 24, the avatar 1B of this embodiment has a photographing unit 21A and a photographing unit 21B, and in side view, a photographing range in which a photographing range photographed by one photographing unit 21A is photographed by the other photographing unit 21B The respective imaging units 21A and 21B are disposed so as to overlap with the range. In addition, since the display part 10 of this embodiment is equipped with many LED12, in FIG. 24, the code is attached to only a part of LED12 for convenience, and the code | symbol is abbreviate | omitted and shown about other LED12. .

前述の第一の実施形態では、撮影部21A,21Bが背合わせに配置され、各撮影部21A,21Bが水平方向へ向けられて全天球画像を得る構成である。この場合、アバター1Bの下方を撮影した画像は、必ず支持体32を撮影したものとなり、第一の地点の状況を知る上では価値の低い領域となってしまう。このため、本実施形態では、支持体32が存在する下方を撮影範囲から外すように、撮影部21A,21Bが水平方向よりも上向きに配置され、上方の撮影範囲が重複されている。   In the first embodiment described above, the imaging units 21A and 21B are disposed in a back-to-back relationship, and the imaging units 21A and 21B are horizontally directed to obtain an omnidirectional image. In this case, the image of the lower part of avatar 1 B is necessarily the image of support 32, which is an area of low value in order to know the situation at the first point. For this reason, in the present embodiment, the imaging units 21A and 21B are disposed more upward than the horizontal direction so that the lower side where the support 32 exists is removed from the imaging range, and the upper imaging range is overlapped.

撮影部21Aは、撮影レンズ211の光軸A1を中心とした190°の範囲を撮影範囲としている。同じく撮影部21Bは、光軸A2を中心とした190°の範囲を撮影範囲としている。そして、側面視において光軸A1を像面以降へ延伸した直線と光軸A2を像面以降へ延伸した直線とが交わる点V0を頂点として、光軸A1と光軸A2とが成す劣角θが120°となっている。即ち、撮影部21A,21Bの撮影範囲が、点V0を頂点とする50°の範囲で重複している。   The photographing unit 21A sets a range of 190 ° around the optical axis A1 of the photographing lens 211 as a photographing range. Similarly, the imaging unit 21B sets an imaging range of 190 ° centered on the optical axis A2. Then, in a side view, a recess angle θ formed by the optical axis A1 and the optical axis A2 with a point V0 at which the straight line extending the optical axis A1 extending to the image plane or later intersects the straight line extending the optical axis A2 to the image plane Is 120 °. That is, the imaging | photography range of imaging part 21A, 21B overlaps in the range of 50 degrees which make point V0 a vertex.

一方、平面視においてアバター1Bは、図25に示すように、撮影部21Aを前方、撮影部21Bを後方に向け、光軸A1,A2を一直線状としている。即ち、撮影部21Aの光軸A1と撮影部21Bの光軸A2とが点V0を中心として180°異なる方向へ向けられるように撮影部21A,21Bが配置されている。このため、撮影部21A,21Bの撮影画角が190°の場合、第一実施形態と同様に撮影範囲のうち周辺部が重複する。なお、図23,図24の配置は、一例であり、撮影部21A,21Bの配置は、これに限定されるものではない。例えば平面視においても、点V0を頂点とした光軸A1,A2の角度を180°未満として撮影領域を重複させてもよい。アバター1Bを利用者の肩や腕に装着した場合、平面視において特定の方向に利用者が写ることになるので、この方向をさけるように撮影部21A,21Bの向きを定め、利用者と反対側の撮影領域を重複させるようにしてもよい。また、カメラを三台以上配置して、少なくとも一部のカメラの撮影領域を重複させるようにしてもよい。   On the other hand, in plan view, as shown in FIG. 25, the avatar 1B has the imaging unit 21A forward, the imaging unit 21B backward, and the optical axes A1 and A2 in a straight line. That is, the imaging units 21A and 21B are arranged such that the optical axis A1 of the imaging unit 21A and the optical axis A2 of the imaging unit 21B are directed in directions different by 180 ° around the point V0. Therefore, when the imaging angle of view of the imaging units 21A and 21B is 190 °, the peripheral portion of the imaging range overlaps as in the first embodiment. The arrangement of FIGS. 23 and 24 is an example, and the arrangement of the imaging units 21A and 21B is not limited to this. For example, also in planar view, the imaging regions may be overlapped with the angle of the optical axes A1 and A2 with the point V0 at the top being less than 180 °. When the avatar 1B is attached to the shoulder or arm of the user, the user is photographed in a specific direction in plan view, so the direction of the photographing units 21A and 21B is determined so as to avoid this direction and the user is opposed The imaging area on the side may be made to overlap. Further, three or more cameras may be arranged to overlap at least some of the shooting areas of the cameras.

図26は、本実施形態に係る遠隔コミュニケーションシステム100の概略構成図である。本実施形態のアバター1Bは、図1のアバター1と比べ、画像合成部45を更に備え
ている。
FIG. 26 is a schematic configuration diagram of the remote communication system 100 according to the present embodiment. The avatar 1B of the present embodiment further includes an image combining unit 45 as compared with the avatar 1 of FIG.

画像合成部45は、複数の撮影部21A,21Bで撮影した撮影画像の重複部分を合成し、撮影画像よりも解像度の高い合成画像を生成する。   The image combining unit 45 combines overlapping portions of the captured images captured by the plurality of capturing units 21A and 21B, and generates a composite image having a higher resolution than the captured images.

図27は、アバター1Bが画像や音声のデータを送信する処理を示す図である。アバター1Bが起動された場合や通信の開始が指示された場合に、アバター1Bは、図27の処理を開始する。ステップS10〜S30については、前述した図8の処理と同じである。   FIG. 27 is a diagram showing a process in which the avatar 1B transmits image and audio data. When the avatar 1B is activated or when the start of communication is instructed, the avatar 1B starts the process of FIG. Steps S10 to S30 are the same as the process of FIG. 8 described above.

ステップS35にて、アバター1Bは、画像合成部45の機能により、撮影部21A,21Bで撮影した撮影画像の重複部分を合成する。この場合、アバター1Bは、撮影部21Aで撮影した画像の情報と撮影部21Bで撮影した画像の情報の両方を用いて合成画像を得ることにより、ステップS30でつなぎ合わせた撮影画像よりも高い解像度の合成画像を得ることができる。そして、アバター1Bは、ステップS30で得た撮影画像及びステップS35で得た合成画像や音のデータをステップS40にて圧縮し、ステップS50にて遠隔装置2へ送信する。なお、アバター1Bは、電源がオフにされるまで、或は通信の終了が指示されるまでは、図27の処理を繰り返し実行する。   In step S35, avatar 1B uses the function of image combining unit 45 to combine overlapping portions of the captured images captured by imaging units 21A and 21B. In this case, the avatar 1B obtains a composite image using both the information of the image photographed by the photographing unit 21A and the information of the image photographed by the photographing unit 21B, so that the resolution is higher than that of the photographed images joined in step S30. The composite image of can be obtained. Then, the avatar 1B compresses in step S40 the captured image obtained in step S30 and the composite image and sound data obtained in step S35, and transmits the compressed image to the remote apparatus 2 in step S50. Note that the avatar 1B repeatedly executes the processing of FIG. 27 until the power is turned off, or until termination of communication is instructed.

図28は、前述の合成ステップS35にて合成される画像の説明図である。撮影部21Aの撮影レンズ211は、撮像面上にほぼ円形の像を形成し、撮像素子212がこの像を電気信号に変換して、撮影画像51Aとする。同様に、撮影部21Bは、撮像面上にほぼ円形の像を形成し、撮像センサがこの像を電気信号に変換して、撮影画像51Bとする。前述のように撮影部21A,21Bは、撮影範囲が一部重複するように設けられており、図28において網掛けした部分が、撮影画像51A,51Bの重複部分51Cである。   FIG. 28 is an explanatory diagram of an image synthesized at the above-described synthesis step S35. The imaging lens 211 of the imaging unit 21A forms a substantially circular image on the imaging surface, and the imaging element 212 converts the image into an electrical signal to form a captured image 51A. Similarly, the imaging unit 21B forms a substantially circular image on the imaging surface, and the imaging sensor converts the image into an electrical signal to obtain a captured image 51B. As described above, the imaging units 21A and 21B are provided so that the imaging ranges partially overlap, and the shaded portion in FIG. 28 is the overlapping portion 51C of the captured images 51A and 51B.

重複部分51Cで得られる画像は、同じ被写体を撮影したものであるが、撮影レンズの収差によって、それぞれ異なる歪みを有している。例えば、図29に示す矩形状の被写体92を撮影した場合、撮影部21Aによる撮影画像51Aでは、図30の画像92Aのように歪曲して撮影される。この場合、撮影画像51Aの中心側よりも周辺側の方が、歪みが大きいため、画像92Aは円の外側に向けて膨張したように撮影される。また、撮影部21Bによる撮影画像51Bにおいても、被写体92の画像92Bは、図31に示すように周辺側へ向けて膨張したように撮影される。このように画像92Aと画像92Bとでは、歪み方が異なるため、同じ被写体92を撮影したものであっても形状が一致しない。   The images obtained in the overlapping portion 51C are obtained by shooting the same subject, but have different distortions due to the aberration of the shooting lens. For example, when the rectangular subject 92 shown in FIG. 29 is photographed, the photographed image 51A taken by the photographing unit 21A is distorted and photographed as an image 92A of FIG. In this case, since distortion is larger on the peripheral side than on the center side of the photographed image 51A, the image 92A is photographed as if expanding toward the outside of the circle. Further, also in the photographed image 51B by the photographing unit 21B, the image 92B of the subject 92 is photographed as if expanding toward the peripheral side as shown in FIG. As described above, since the image 92A and the image 92B are distorted differently, the shapes do not match even when the same subject 92 is photographed.

但し、画像92A,92Bに生じる歪みは、撮影画像51A,51Bの中心からの距離等によって定まる。このため、アバター1Bは、撮影画像51A,51Bにおける重複部分の歪みを中心からの距離等に基づいて補正する。図32は、撮影画像51A,51Bにおける画像92A,92Bの歪みを補正した例を示す図である。   However, distortion occurring in the images 92A and 92B is determined by the distance from the center of the captured images 51A and 51B. Therefore, the avatar 1B corrects the distortion of the overlapping portion in the captured images 51A and 51B based on the distance from the center and the like. FIG. 32 is a diagram showing an example in which distortion of the images 92A and 92B in the photographed images 51A and 51B is corrected.

図29に示す被写体92は、左右の辺92L,92Rが同じ長さであるが、例えば図30に示す画像92Aは、歪みの影響によって、周辺側の左辺92ALよりも中心側の右辺92ARが小さく変形している。即ち、左辺92ALを成す画素数よりも右辺92ARを成す画素数の方が少ない。このため画像92Aを図32に示すように補正するためには、右辺92ARに合わせて左辺92ALを縮小するか、左辺92ALに合わせて右辺92ARを拡大することになる。   Although the subject 92 shown in FIG. 29 has the same length on the left and right sides 92L and 92R, for example, the image 92A shown in FIG. 30 has a smaller right side 92AR on the center side than the left side 92AL on the peripheral side due to the influence of distortion. It is deformed. That is, the number of pixels forming the right side 92AR is smaller than the number of pixels forming the left side 92AL. Therefore, in order to correct the image 92A as shown in FIG. 32, the left side 92AL is reduced according to the right side 92AR, or the right side 92AR is enlarged according to the left side 92AL.

左辺92ALを縮小する場合、左辺92ALを撮像した画素の情報を間引くことになるため、画像92A全体が右辺92ARに合わせた低い解像度となる。一方、右辺92ARを拡大する場合、画像92Aのうち、左辺92AL付近は解像度を高く維持できるが、右辺92AR付近は少ない画素の情報に基づいて拡大処理を行うことになるので、左辺92
AL付近と比べて解像度が低くなる。
When the left side 92AL is reduced, the information of the pixels obtained by imaging the left side 92AL is thinned out, so that the entire image 92A has a low resolution that matches the right side 92AR. On the other hand, when the right side 92AR is enlarged, the resolution can be maintained high near the left side 92AL in the image 92A, but the enlargement process is performed based on information of a small number of pixels near the right side 92AR.
Resolution is lower than near AL.

また、図31に示す画像92Bは、画像32Aと反対に、歪みの影響によって、周辺側の右辺92BRよりも中心側の左辺92BLが小さく変形している。このため画像92Bを図32に示すように補正するためには、左辺92BLに合わせて右辺92BRを縮小するか、右辺92BRに合わせて左辺92BLを拡大することになる。   Further, in the image 92B shown in FIG. 31, contrary to the image 32A, the left side 92BL on the center side is deformed smaller than the right side 92BR on the peripheral side due to the influence of distortion. Therefore, in order to correct the image 92B as shown in FIG. 32, the right side 92BR is reduced according to the left side 92BL or the left side 92BL is enlarged according to the right side 92BR.

そこで、画像92Aについて、右辺92ARの画素間を広げるように拡大する際、広げた画素間の情報として、他方の画像92Bにおける右辺92BRの画素の情報を採用し、合成画像を生成する。なお、図30、図31では、画像92A,92Bの左辺92AL,BLと右辺92AR,BRについて示したが、この中間部についても同様である。   Therefore, when the image 92A is expanded so as to expand the pixels on the right side 92AR, information on the pixels on the right side 92BR in the other image 92B is adopted as information between the expanded pixels, and a composite image is generated. Although FIG. 30 and FIG. 31 show the left sides 92AL and BL and the right sides 92AR and BR of the images 92A and 92B, the same applies to the middle part.

このように、本実施形態のアバター1Bは、重複して撮影した画像92A,92Bの一方、例えば画像92Aについて、撮影レンズの収差による歪みを補正する際、周辺側を基準として中心側の画素間を広げるように拡大し、この広げた間の画素として、他方の画像92Bにおいて対応する位置の画素(周辺側の画素)を用い、合成画像とする。即ち、アバター1Bは、重複して撮影した画像92A,92Bの解像度の高い部分を合わせて合成画像とすることにより、単体の撮影部21で撮影した撮影画像よりも高い解像度の合成画像が得られる。なお、本実施形態において、解像度とは、単に画素の密度ではなく、撮影画像や合成画像等において、被写体をどれだけ詳しく描写できるかを示す程度である。例えば、平行線を等間隔に並べたテストチャートを撮影し、画像上に再現される前記平行線の1mmあたりの本数や、分離した二点の被写体を撮影し、画像上で分離して再現できる最小の幅の逆数が挙げられる。   As described above, when correcting distortion due to the aberration of the imaging lens in one of the images 92A and 92B captured in duplicate, for example, the image 92A, the avatar 1B of the present embodiment And the pixels at the corresponding positions (pixels on the peripheral side) in the other image 92B are used as pixels in the other image 92B as a composite image. That is, the avatar 1B combines the high resolution portions of the images 92A and 92B captured in duplicate to form a composite image, whereby a composite image having a resolution higher than that of the captured image captured by the single capturing unit 21 can be obtained. . In the present embodiment, the resolution is not simply the density of pixels, but is a degree that indicates how well an object can be depicted in a captured image, a composite image, or the like. For example, a test chart in which parallel lines are arranged at equal intervals can be taken, and the number of parallel lines per mm reproduced on an image, and two separated subjects can be photographed and separated and reproduced on an image. The reciprocal of the minimum width can be mentioned.

前記撮影画像や合成画像を受信した遠隔装置2は、前述の図9や図10と同様に撮影画像や合成画像を表示させる。例えば、ゴーグル70に表示させる場合、ゴーグル70の向きに応じ、このゴーグルの向きを中心とした所定範囲の画像を切り出して表示部51に表示させる。図24,図25の例では、アバター1Bの上方を重複して撮影するので、ゴーグル70を装着したゴーストが上を向いた場合に合成画像を表示部51に表示させ、重複範囲以外を向いた場合に撮影画像を表示させる。また、遠隔装置2は、ゴーストの操作に応じて、撮影画像や合成画像の拡大表示又は縮小表示が可能である。   The remote device 2 that has received the captured image or the composite image displays the captured image or the composite image as in the case of FIG. 9 or 10 described above. For example, when displaying on the goggles 70, according to the direction of the goggles 70, an image of a predetermined range centered on the direction of the goggles is cut out and displayed on the display unit 51. In the example shown in FIGS. 24 and 25, since the upper side of the avatar 1B is photographed redundantly, the composite image is displayed on the display unit 51 when the ghost wearing the goggles 70 faces upward, and the outside of the overlapping range is observed. Display the captured image in case. Further, the remote device 2 can perform enlarged display or reduced display of a captured image or a composite image according to the operation of the ghost.

本実施形態によれば、アバター1Bが、一部の領域を複数の撮影部21で重複して撮影し、当該重複領域の画像を高い解像度で提供することができる。このため、ゴーストは、重複領域の画像を詳細に観察することができる。また、重複領域の画像は、解像度が高いため、ゴーストが、重複領域の画像を拡大表示した場合でも画質が荒くなりにくく、観察視し易い。   According to the present embodiment, the avatar 1B can capture a part of the area in an overlapping manner by the plurality of imaging units 21, and provide an image of the overlapping area with high resolution. Thus, the ghost can observe the image of the overlapping area in detail. Further, since the image in the overlapping area has a high resolution, the image quality is hardly deteriorated even when the ghost displays the image in the overlapping area in an enlarged scale, and it is easy to observe and observe.

〈変形例3−1〉
図33は、変形例3−1に係る遠隔コミュニケーションシステム100の概略構成図である。前述の第三実施形態では、アバター1が重複領域の合成画像を生成したが、本変形例では、遠隔装置2Bが重複領域の合成画像を生成する構成としている。なお、この他の構成は第三実施形態と同じであるため、同一の要素には同符号を付して再度の説明を省略している。
<Modification 3-1>
FIG. 33 is a schematic configuration diagram of the remote communication system 100 according to the modified example 3-1. In the third embodiment described above, the avatar 1 generates a composite image of the overlapping area, but in the present modification, the remote device 2B is configured to generate a composite image of the overlapping area. In addition, since this other structure is the same as 3rd embodiment, the same code | symbol is attached | subjected to the same element and description for the second time is abbreviate | omitted.

本変形例のアバター1Bは、前述の第三実施形態のアバター1Bと同様に複数の撮影部21で一部の領域を重複して撮影する構成とし、この複数の撮影部21で撮影した撮影画像を合成せずに遠隔装置2Bへ送信する。この場合、アバター1Bは、画像合成部45を備えなくてもよい。また、ユーザの選択操作に応じて、アバター1Bで合成画像を生成するモードと、遠隔装置2Bで合成画像を生成するモードとを切り替えられるようにアバタ
ー1Bと遠隔装置2Bの両方が画像合成部を有してもよい。
The avatar 1B of this modification has a configuration in which a plurality of imaging units 21 overlap and image a part of the area as in the avatar 1B of the third embodiment described above, and the photographed images photographed by the plurality of imaging units 21 Are transmitted to the remote device 2B without being synthesized. In this case, the avatar 1B may not include the image combining unit 45. In addition, both avatar 1B and remote device 2B perform the image combining unit so that the mode for generating a composite image with avatar 1B and the mode for generating a composite image with remote device 2B can be switched according to the user's selection operation. You may have.

遠隔装置2Bは、図26の遠隔装置2と比べ、画像合成部75を更に備えている。画像合成部75は、アバター1Bから複数の撮影部21A,21Bでそれぞれ撮影した撮影画像を受信し、重複部分を合成して、撮影画像よりも解像度の高い合成画像を生成する。   The remote device 2B further includes an image combining unit 75 as compared with the remote device 2 of FIG. The image combining unit 75 receives the captured images captured by the multiple capturing units 21A and 21B from the avatar 1B, combines the overlapping parts, and generates a composite image having a higher resolution than the captured image.

図34は、遠隔装置2Bが画像や音声のデータを送信する処理を示す図である。遠隔装置2Bが起動された場合や通信の開始が指示された場合に、遠隔装置2Bは、図34の処理を開始する。ステップS110〜S130については、前述した図9の処理と略同じである。   FIG. 34 is a diagram showing processing in which the remote device 2B transmits image and audio data. When the remote device 2B is activated or the start of communication is instructed, the remote device 2B starts the process of FIG. Steps S110 to S130 are substantially the same as the process of FIG. 9 described above.

ステップS133にて、遠隔装置2Bは、表示部51の仕様に応じて重複部分の撮影画像を変換する。なお、本変形例では、アバター1Bで変換処理する前の撮影画像をアバター1Bから取得するので、前述のステップS30と同様に、広角レンズで撮影した際の歪みを補正する処理や、複数の撮影部21A,21Bで撮影した撮影画像をつなぎ合わせる処理を行う。   In step S133, the remote device 2B converts the photographed image of the overlapping portion according to the specification of the display unit 51. In this modification, since the photographed image before conversion processing by avatar 1B is acquired from avatar 1B, processing for correcting distortion when photographed with a wide-angle lens, a plurality of photographings, as in step S30 described above A process of connecting the photographed images photographed by the units 21A and 21B is performed.

ステップS135にて、遠隔装置2Bは、画像合成部75の機能により、撮影部21A,21Bで撮影した撮影画像の重複部分を合成する。なお、ステップS135の処理は、前述のステップS35と同様である。   In step S135, the remote device 2B combines the overlapping portions of the captured images captured by the imaging units 21A and 21B by the function of the image combining unit 75. In addition, the process of step S135 is the same as that of above-mentioned step S35.

ステップS140Aにて、遠隔装置2Bは、ステップS133で変換した撮影画像や、ステップ135で生成した合成画像から、表示部51の仕様に応じて表示する画像を抽出する。   In step S140A, remote device 2B extracts an image to be displayed according to the specification of display unit 51 from the captured image converted in step S133 and the composite image generated in step S135.

ステップS150にて、遠隔装置2Bは、ステップS140Aで抽出した画像を表示部51に表示させる。   In step S150, the remote device 2B causes the display unit 51 to display the image extracted in step S140A.

本変形例によれば、遠隔装置2Bが複数の撮影部21で重複して撮影した撮影画像を合成するので、アバター1Bの処理負荷が軽減される。   According to this modification, since the remote device 2B combines the photographed images photographed in duplicate by the plurality of photographing units 21, the processing load on the avatar 1B is reduced.

〈変形例3−2〉
図35は、変形例3−2に係るアバター1Cの正面図、図36は、変形例3−2に係るアバター1Cの側面図、図37は、変形例3−2に係るアバター1Cの平面図である。本変形例のアバター1Cは、前述の第三実施形態のアバター1Bと同様に複数の撮影部21で一部の領域を重複して撮影する構成とし、この重複して撮影する領域の方向を変えるように本体31を回転させる回転機構を有している。なお、この他の構成は前述の第三実施形態と同じであるため、同一の要素には同符号を付す等して再度の説明を省略している。
<Modification 3-2>
35 is a front view of avatar 1C according to modification 3-2, FIG. 36 is a side view of avatar 1C according to modification 3-2, and FIG. 37 is a plan view of avatar 1C according to modification 3-2. It is. The avatar 1C of this modification has a configuration in which a plurality of imaging units 21 overlap and capture a part of the area as in the avatar 1B of the third embodiment described above, and the direction of the overlapping imaging area is changed Thus, it has a rotation mechanism for rotating the main body 31. Since the other configuration is the same as that of the third embodiment described above, the same components are denoted by the same reference symbols, and the description thereof will not be repeated.

図35に示すように、アバター1Cは、垂直な回転軸VAを中心に本体31を回転させる回転機構131と、水平な回転軸HAを中心に本体31を回転させる回転機構132とを有している。回転機構131、132は、駆動部の一形態である。   As shown in FIG. 35, the avatar 1C has a rotation mechanism 131 for rotating the main body 31 about the vertical rotation axis VA, and a rotation mechanism 132 for rotating the main body 31 about the horizontal rotation axis HA. There is. The rotation mechanisms 131 and 132 are one form of a drive unit.

回転機構131は、支持体32上に設置され、支持体32に対して回転可能に支柱133を保持している。支柱133の上端に円弧状のアーム134の一端が接続され、アーム134の他端に回転機構132が接続されている。   The rotation mechanism 131 is disposed on the support 32 and holds the support post 133 rotatably relative to the support 32. One end of an arc-shaped arm 134 is connected to the upper end of the support column 133, and the rotation mechanism 132 is connected to the other end of the arm 134.

回転機構132は、アーム134の上端に支持されると共に、アバター1Cの本体表面に接続され、アーム134に対して本体31を回転させる。   The rotation mechanism 132 is supported by the upper end of the arm 134 and connected to the body surface of the avatar 1 C to rotate the body 31 relative to the arm 134.

回転機構131は、回転軸VAが垂直方向に本体31の中心を通る構成であり、支柱133及びアーム134を介して本体31を垂直軸回りに回転させる、即ち本体31をヨーイングさせる。   The rotation mechanism 131 has a configuration in which the rotation axis VA passes through the center of the main body 31 in the vertical direction, and rotates the main body 31 around the vertical axis via the columns 133 and the arms 134, that is, yaws the main body 31.

回転機構132は、図35に示す面をアバター1Cの正面とし、紙面と垂直方向を前後方向とた場合に、回転軸HAがアバター1Cの左右方向であって、本体31の中心を水平方向に渡るように設けられた構成であり、本体31を左右軸回りに回転させる、即ち本体31をピッチングさせる。   When the rotation mechanism 132 has the surface shown in FIG. 35 as the front of the avatar 1C and the direction perpendicular to the paper surface as the front-rear direction, the rotation axis HA is the left-right direction of the avatar 1C and the center of the main body 31 is horizontal. The main body 31 is rotated about the left and right axes, that is, the main body 31 is pitched.

回転機構131,132が、アバター1Cの本体31をピッチング及びヨーイングさせることにより、撮影部21が重複して撮影する領域の方向を任意の方向に向けることができる。例えば、ゴーストが遠隔装置2Bを操作し、重複して撮影する方向を指定した場合、遠隔装置2Bが、この方向を指定する動作指示情報をアバター1Cへ送信する。そして、この動作指示情報を受信したアバター1Cが、この動作指示情報に基づいて回転機構131,132を動作させて本体31を回転させ、重複して撮影する領域を指定の方向へ向ける。   When the rotation mechanisms 131 and 132 pitch and yaw the main body 31 of the avatar 1C, it is possible to turn the direction of the area where the photographing unit 21 redundantly photographs in any direction. For example, when the ghost operates the remote device 2B and designates the direction to shoot in duplicate, the remote device 2B transmits operation instruction information specifying this direction to the avatar 1C. Then, the avatar 1C having received the operation instruction information operates the rotation mechanisms 131 and 132 based on the operation instruction information to rotate the main body 31, and turns the overlappingly photographed area in the specified direction.

例えば、ゴーストは、アバター1Cの正面を0°とし、真上を90°、真後ろ(背面)を180°、真下を270°として、0°から360°未満の範囲で回転機構132の回転角を指定する。また、アバター1Cの正面を0°とし、左方を90°、真後ろ(背面)を180°、右方を270°として、0°から360°未満の範囲で回転機構131の回転角を指定する。これによりアバター1Cが重複して撮影する領域を任意の方向へ向けさせることができる。なお、動作指示情報を送受信する構成は、図16,図17と同じである。   For example, with the ghost, the front of avatar 1C is 0 °, 90 ° directly above, 180 ° directly behind (back), 270 ° directly below, and the rotation angle of rotation mechanism 132 is within 0 ° to less than 360 °. specify. In addition, the front of avatar 1C is 0 °, the left is 90 °, the rear right (back) is 180 °, the right is 270 °, and the rotation angle of rotation mechanism 131 is specified in the range of 0 ° to less than 360 °. . As a result, it is possible to make the area in which the avatar 1C redundantly shoots be directed in any direction. The configuration for transmitting and receiving the operation instruction information is the same as in FIGS.

このように本変形例によれば、アバター1Cが重複して撮影し、高解像度の合成画像を生成する領域の方向を任意に指定することができ、当該方向の状況を詳細に観察することや、当該方向の画像を拡大して表示させることができる。   As described above, according to the present modification, the avatar 1C can be redundantly photographed, and the direction of the area for generating the high-resolution composite image can be specified arbitrarily, and the situation in the direction can be observed in detail. , The image of the said direction can be expanded and displayed.

〈第四実施形態〉
第四実施形態の遠隔コミュニケーションシステム100Aは、前述の第一実施形態や第二実施形態と比べ、第一の地点の状況に応じてゴースト(協力者)を選択する管理サーバ8を備えた構成が異なっている。なお、その他の構成は同じであるため、同一の要素に同符号を付す等して、再度の説明を省略する。
Fourth Embodiment
The remote communication system 100A according to the fourth embodiment has a configuration provided with a management server 8 for selecting a ghost (cooperator) according to the situation at the first point, as compared with the first embodiment and the second embodiment described above. It is different. In addition, since the other configuration is the same, the same reference numerals are given to the same elements, and the description thereof will not be repeated.

図38は、第四実施形態に係る遠隔コミュニケーションシステム100Aの概略構成図である。本実施形態のアバター1Dは、図1のアバター1と比べ、選択用情報取得部46や選択用情報送信部47を更に備えている。   FIG. 38 is a schematic configuration diagram of the remote communication system 100A according to the fourth embodiment. Avatar 1D of this embodiment is further provided with the information acquisition part 46 for selection, and the information transmission part 47 for selection compared with the avatar 1 of FIG.

選択用情報取得部46は、マイク23から入力された音信号や、撮影部21で撮影した撮影画像から、協力者を選択するための情報を取得する。例えば、選択用情報取得部46は、利用者の音声や、撮影部21で撮影した撮影画像を取得して、これらを選択用情報とする。また、選択用情報取得部46は、利用者の音声を取得し、音声認識によって利用者の要求を特定し、この要求がどの分野の要求かを判定して、当該分野を示す選択用情報を生成してもよい。また、選択用情報取得部46は、撮影部21で撮影した撮影画像を取得し、撮影画像から看板や人の顔、車両、交通標識など、所定のパターンと一致する画像を抽出し、この画像を含む選択用情報を生成してもよい。更に、選択用情報取得部46は、撮影部21で撮影した撮影画像から、利用者のジェスチャを認識し、利用者が特定のジェスチャを行った場合に選択用情報を取得するようにしてもよい。   The selection information acquisition unit 46 acquires information for selecting a collaborator from the sound signal input from the microphone 23 and the photographed image photographed by the photographing unit 21. For example, the selection information acquisition unit 46 acquires the voice of the user and the photographed image photographed by the photographing unit 21 and uses these as selection information. In addition, the selection information acquisition unit 46 acquires the voice of the user, identifies the user's request by voice recognition, determines which field the request is from, and selects information indicating the relevant field. It may be generated. In addition, the selection information acquisition unit 46 acquires a photographed image photographed by the photographing unit 21, extracts an image matching a predetermined pattern, such as a signboard, a human face, a vehicle, a traffic sign, etc. from the photographed image. Information for selection may be generated. Furthermore, the selection information acquisition unit 46 may recognize the user's gesture from the captured image captured by the imaging unit 21 and acquire the selection information when the user performs a specific gesture. .

選択用情報送信部47は、選択用情報取得部46で取得した選択用情報を管理サーバ8へ送信する。   The selection information transmission unit 47 transmits the selection information acquired by the selection information acquisition unit 46 to the management server 8.

本実施形態の遠隔コミュニケーションシステム100Aは、図1の遠隔コミュニケーションシステム100と比べ、管理サーバ8を更に備えている。管理サーバ8は、CPUやメモリ(記憶部)を有するコンピュータであり、選択用情報受信部81と、選択部82と、通知部83の処理を行う。また、管理サーバ8は、複数のゴーストに関する属性情報を記憶したデータベース(以下、ゴーストDBと称す)をメモリに格納している。   The remote communication system 100A of the present embodiment further includes a management server 8 as compared to the remote communication system 100 of FIG. The management server 8 is a computer having a CPU and a memory (storage unit), and performs processing of the selection information reception unit 81, the selection unit 82, and the notification unit 83. Further, the management server 8 stores a database (hereinafter, referred to as a ghost DB) in which the attribute information on a plurality of ghosts is stored in the memory.

選択用情報受信部81は、利用者による入力情報や、前記第一の地点における音情報、前記撮影部による前記撮影画像を選択用情報として取得する。例えば、利用者の音声を認識し利用者の質問や要望を選択用情報として取得する。また、撮影画像中の被写体を認識し、この被写体に関するジャンルを選択用情報として取得する。   The selection information receiving unit 81 acquires input information by the user, sound information at the first spot, and the photographed image by the photographing unit as selection information. For example, the voice of the user is recognized, and the user's question or request is acquired as selection information. In addition, the subject in the photographed image is recognized, and the genre related to the subject is acquired as selection information.

選択部82は、ゴーストDBを参照し、各ゴーストの属性情報と選択用情報とに基づいてゴーストを選択する。図39は、ゴーストDBの一例を示す図である。図39のゴーストDBは、ゴーストの識別情報(ゴーストID)や、属性情報、連絡先等が記憶されている。ゴーストIDは、ゴーストを一意に識別するための情報であり、番号や氏名、愛称などである。属性情報は、ゴーストの性質を示す情報であり、選択部82による選択の要素となる情報である。通知先は、選択されたことをゴーストに知らせるための宛先であり、例えば遠隔装置2のネットワークアドレスである。通知部83は、選択部によって選択されたゴーストの通知先に、選択されたことを通知する。   The selection unit 82 refers to the ghost DB and selects a ghost based on the attribute information of each ghost and the information for selection. FIG. 39 is a diagram showing an example of the ghost DB. The ghost DB in FIG. 39 stores ghost identification information (ghost ID), attribute information, contact information, and the like. The ghost ID is information for uniquely identifying a ghost, and is a number, a name, a nickname or the like. The attribute information is information indicating the nature of the ghost, and is information serving as an element of selection by the selection unit 82. The notification destination is a destination for notifying the ghost that the notification has been selected, and is, for example, the network address of the remote device 2. The notification unit 83 notifies the notification destination of the ghost selected by the selection unit that the ghost has been selected.

図40は、アバター1Dが画像や音声のデータを送信する処理を示す図である。アバター1Dが起動された場合や通信の開始が指示された場合に、アバター1Dは、図40の処理を開始し、図8等の処理と並行して実行する。   FIG. 40 is a diagram showing a process in which the avatar 1D transmits image and audio data. When the avatar 1D is activated or when the start of communication is instructed, the avatar 1D starts the process of FIG. 40 and executes the process in parallel with the process of FIG.

ステップS710にて、アバター1Dは、所定期間(例えば、直近の数秒間)に撮影部21で撮影された撮影画像を取得する。   In step S710, avatar 1D acquires a photographed image photographed by photographing unit 21 in a predetermined period (for example, the last few seconds).

ステップS720にて、アバター1Dは、ステップS710で取得した画像を解析し、特定のジェスチャが行われたか否かを判定する。特定のジェスチャとは、例えば、手を振る、掌や顔などの部位をアバター1Dに向ける、サムズアップやコルナ(メロイックサイン)のように特定の指を立てて手をアバター1Dに近づける等の動作が挙げられる。   In step S720, avatar 1D analyzes the image acquired in step S710, and determines whether a specific gesture has been performed. The specific gesture is, for example, an action such as waving a hand, directing a part such as palm or face to avatar 1D, raising a specific finger such as thumb-up or korna (melonic sign) and bringing hand to avatar 1D It can be mentioned.

ステップS720で否定判定であれば、アバター1Dは、図40の処理を終了する。一方、ステップS720で肯定判定であれば、アバター1Dは、ステップ730へ移行し、マイク23を介して入力された利用者の音声や周囲の音を音信号として取得する。   If a negative determination is made at step S720, the avatar 1D ends the process of FIG. On the other hand, if it is affirmation determination by step S720, avatar 1D will transfer to step 730 and will acquire the user's voice and surrounding sound inputted via microphone 23 as a sound signal.

ステップS740にて、アバター1Dは、音信号について音声認識を行い、利用者の音声を文字列に変換する。   In step S 740, avatar 1 D performs speech recognition on the sound signal, and converts the user's voice into a character string.

ステップS750にて、アバター1Dは、ステップS740で取得した文字列を形態素解析及び構文解析を行って、当該文字列から利用者の要求を判別する。例えば、取得した文字列を一文毎に区切り、述語とその目的語が、図19に示す所定の要求パターンに該当するものを利用者の要求と判定する。図19の例では、〈施設名〉へ行く、〈物品〉は何処(にありますか)?、〈物品〉は何ですか?、〈食品名〉を食べる、〈言語〉を教えて等のように要求パターンを有し、このうち「行く」「何処?」「何ですか?」「食べる」「教えて」などが述語の部分であり、〈施設名〉〈物品〉〈食品名〉〈言語〉が主語又は目的語の部分(以下、要求対象とも称す)である。   In step S750, the avatar 1D performs morphological analysis and syntax analysis on the character string acquired in step S740, and determines the user's request from the character string. For example, the acquired character string is divided for each sentence, and it is determined that the predicate and the object thereof correspond to the predetermined request pattern shown in FIG. 19 as the user's request. In the example in Fig. 19, go to <facility name>, where is <article>? , What is the <article>? , Eat <food name>, teach <language> etc. Have a required pattern, such as "Go" "Where?" "What?" "Eat" "Teach me" etc. “Facility name”, “article”, “food name”, and “language” are parts of the subject or object (hereinafter, also referred to as request objects).

取得した文が、「この花の名前は何ですか?」であれば、要求パターンの「〈物品〉は何ですか?」に合致し、「花の名前」が〈物品〉となる。   If the acquired sentence is "What is the name of this flower?", Then it matches the request pattern "What is the <article>?" And the "flower name" becomes the <article>.

また、取得した文が、「侘び寂びにあたるフランス語を教えて?」であれば、要求パターンの「〈言語〉を教えて」に合致し、「フランス語」が〈言語〉となる。   Moreover, if the acquired sentence is "Tell me the French which is the apology", the request pattern "Tell <Language>" is met, and the "French" becomes the <Language>.

ステップS760にて、アバター1Dは、ステップS750で求めた要求対象の分野を判定する。例えば、アバター1Dは、「動物」「植物」「車両」「英語」「フランス語」「歴史」「地理」などの分野毎に対応する要求対象を定めた対象分野テーブルを備えておき、ステップS750で求めた要求対象と対応する分野を判定する。例えば、要求対象が「花の名前」であれば分野を「植物」と判定する。また、上記の例では、要求対象が「フランス語」であれば分野も「フランス語」と判定する。   In step S760, avatar 1D determines the field of the request target obtained in step S750. For example, avatar 1D is provided with a target field table defining request targets corresponding to fields such as “animal”, “plant”, “vehicle”, “English”, “French”, “history”, “geography”, etc. Determine the field corresponding to the requested object you have found. For example, if the request target is "flower name", the field is determined to be "plant". Also, in the above example, if the request target is "French", the field is also determined to be "French".

ステップS770にて、アバター1Dは、撮影部21で撮影された撮影画像を取得する。ステップS780にて、アバター1Dは、ステップS770で取得した画像を解析し、特定のパターンと類似する画像を抽出する。ここで特定のパターンとは、要求対象になると想定された画像であり、例えば、看板や書類、人の顔、車両、犬、猫、交通標識などが挙げられる。なお、ステップS750で要求対象が求められている場合には、取得した撮影画像から「花」や「車」など当該要求対象のパターンと類似する画像を抽出してもよい。また、利用者の要求が「これは何?」のように、要求対象に「これ」等、近くを示す代名詞を含む場合、利用者が手にしている物体や、利用者の近くにある物体の画像を抽出してもよい。また、要求対象に「あれ」等、遠くを示す代名詞を含む場合、利用者が指をさしている場所や顔を向けている場所にある物体の画像を抽出してもよい。   In step S 770, avatar 1 D acquires a photographed image photographed by photographing unit 21. In step S780, avatar 1D analyzes the image acquired in step S770, and extracts an image similar to the specific pattern. Here, the specific pattern is an image assumed to be a request target, and examples thereof include signboards, documents, human faces, vehicles, dogs, cats, traffic signs, and the like. When the request object is determined in step S750, an image similar to the pattern of the request object, such as “flower” or “car” may be extracted from the acquired captured image. Also, if the user's request includes a pronoun that indicates proximity, such as "this", such as "What is this?", The object that the user is holding or an object that is near the user The image of may be extracted. Further, when the request object includes a pronoun indicating “far” such as “that”, an image of an object in a place where the user is pointing a finger or a place where the face is directed may be extracted.

ステップS790にて、アバター1Dは、ステップS780で抽出した画像の分野を判定する。例えば、抽出した画像が類似すると判定されたパターンの名称に対応する分野をステップS760と同様に対象分野テーブルから求める。即ち、抽出した画像が「犬」や「猫」のパターンと類似していた場合、対応する分野を「動物」とする。   In step S790, avatar 1D determines the field of the image extracted in step S780. For example, the field corresponding to the name of the pattern for which the extracted image is determined to be similar is determined from the target field table as in step S760. That is, when the extracted image is similar to the pattern of “dog” or “cat”, the corresponding field is “animal”.

また、抽出した画像に文字が含まれている場合、文字認識し、施設名や所在地、見出し、タイトルなどを抽出し、対応する分野を対象分野テーブルから求める。例えば、抽出した画像が店舗の看板であり、看板から読み取った店舗名や取扱い商品が「パスタ」「ランチ」「リストランテ○○」であった場合、対象分野テーブルを参照して、「グルメ」「イタリア料理」等、対応する分野を求める。   If the extracted image contains characters, character recognition is performed, facility names, locations, headings, titles and the like are extracted, and the corresponding fields are obtained from the target field table. For example, when the extracted image is a signboard of a store, and the store name and the handling product read from the signboard are "pasta", "lunch", and "restaurante ○ ○", refer to the target field table, "gourmet" " Seek corresponding fields such as "Italian food".

ステップS795にて、アバター1Dは、ネットワークを介して管理サーバ8と接続し、ステップS760,S790で判定した分野を示す選択用情報を管理サーバへ送信する。なお、選択用情報は、分野を示す情報の他、年齢(年代)や性別、スキルレベル等を指定する情報を含んでもよい。例えば、予め利用者が、「ファッション」であれば10代、「グルメ」であれば同性の20代以下、「スポーツ」であれば初心者(スキルレベル)などのように、ゴーストの属性を指定する情報をアバター1Dに入力しておき、これらの情報をアバター1Dが選択用情報に含めて送信するようにしてもよい。更に、分野等の属性を指定する情報だけでなく、ステップS750で判別した「侘び寂びにあたるフランス語を教えて?」といった利用者の要求や、ステップS780で抽出した画像を選択用情報に含めてもよい。   In step S795, the avatar 1D connects to the management server 8 via the network, and transmits selection information indicating the field determined in steps S760 and S790 to the management server. Note that the selection information may include, in addition to the information indicating the field, information specifying an age (age), a gender, a skill level, and the like. For example, in advance, if the user is a "fashion" teenager, if it is a "gourmet" teens or less of the same sex, if it is "sport" a beginner (skill level), etc., specify the ghost attribute Information may be input to the avatar 1D, and the avatar 1D may transmit the information by including it in the selection information. Furthermore, not only the information specifying the attribute of the field etc., but also the request of the user such as "Tell me the French which is the problem" determined in step S750 or the image extracted in step S780 may be included in the selection information. Good.

なお、図40の例では、音信号と画像の両方から選択用情報に用いる分野を求める例を示したが、これに限らず、音信号と画像の一方から分野を求める構成としてよい。また、音信号に基づきステップS760で分野が求められた場合に、ステップS770〜S79
0を省略し、ステップS750で抽出した要求対象が「これ」「あれ」といった代名詞であるなど、ステップS760で分野が特定できない場合に、ステップS770〜S790を行って、画像から分野を特定してもよい。
Although the example shown in FIG. 40 shows an example in which the field used for selection information is obtained from both the sound signal and the image, the present invention is not limited to this, and the field may be obtained from one of the sound signal and the image. When the field is determined in step S760 based on the sound signal, steps S770 to S79 are performed.
If the field can not be specified in step S760, for example, 0 is omitted and the request object extracted in step S750 is a pronoun such as "this" or "that", steps S770 to S790 are performed to specify the field from the image. It is also good.

アバター1Dは、電源が切断された場合や、通信の開始が指示さるまで図40の処理を繰り返し実行する。   The avatar 1D repeatedly executes the process of FIG. 40 until the power is turned off or the start of communication is instructed.

図41は、管理サーバ8が、ゴーストを特定する処理を示す図である。管理サーバ8は、ネットワークを介してアバター1Dと接続した場合に図41の処理を開始する。   FIG. 41 is a diagram showing processing in which the management server 8 identifies a ghost. The management server 8 starts the process of FIG. 41 when connected to the avatar 1D via the network.

ステップS810にて、管理サーバ8は、アバター1Dから選択用情報を取得する。なお、本例では、アバター1Dが分野を特定する処理を行ったが、アバター1Dが音信号や撮影画像等を選択用情報として管理サーバ8へ送信し、管理サーバ8が前述のステップS730〜S790と同様に分野を特定してもよい。   At step S810, management server 8 acquires information for selection from avatar 1D. In this example, the avatar 1D performs the process of specifying the field, but the avatar 1D transmits a sound signal, a photographed image, and the like as selection information to the management server 8, and the management server 8 performs the above steps S730 to S790. The field may be specified as well.

ステップS820にて、管理サーバ8は、ゴーストDBを参照し、ステップS810で取得した選択用情報と対応するゴーストを求める。例えば、選択用情報に示される分野と、属性情報の分野とが一致するゴーストを特定する。なお、選択用情報に、年代や性別、スキルレベル等、分野以外の情報が含まれている場合には、これらの情報と一致する属性を有するゴーストを特定する。選択用情報と一致した属性情報を有するゴーストが複数存在した場合、各ゴーストの優先度や順番等に基づいて所定数のゴーストを選択する。   In step S820, the management server 8 refers to the ghost DB and obtains a ghost corresponding to the information for selection acquired in step S810. For example, a ghost in which the field indicated in the selection information matches the field of the attribute information is identified. In addition, when information other than the field, such as age, gender, skill level, etc., is included in the information for selection, a ghost having an attribute matching the information is identified. When there are a plurality of ghosts having attribute information that matches the selection information, a predetermined number of ghosts are selected based on the priority, order, and the like of each ghost.

ステップS830にて、管理サーバ8は、ゴーストDBに基づいて、ステップS820で選択したゴーストの連絡先に、選択されたことを示す通知情報を送信する。ここで、ゴーストの連絡先は、例えば、当該ゴーストが用いる遠隔装置2のネットワークアドレスである。これに限らずゴーストの連絡先は、ゴーストが用いるスマートフォン等、他の装置のアドレスであってもよい。なお、管理サーバ8は、通知情報に、アバター1Dのアドレスや、利用者の要求等の情報を含めて送信してもよい。   In step S830, the management server 8 transmits notification information indicating that it has been selected, to the contact point of the ghost selected in step S820, based on the ghost DB. Here, the contact point of the ghost is, for example, the network address of the remote device 2 used by the ghost. Not limited to this, the contact point of the ghost may be the address of another device such as a smartphone used by the ghost. The management server 8 may transmit the notification information including the address of the avatar 1D and information such as the user request.

通知情報を受信したゴーストは、利用者との通信を了承する場合、受信した装置を操作して承認情報を返信する。なお、利用者との通信を了承しない場合、非承認を示す情報を返信してもよい。   When the ghost that has received the notification information approves the communication with the user, the ghost operates the received device and sends back the approval information. If the communication with the user is not accepted, information indicating non-approval may be returned.

ステップS840にて、管理サーバ8は、承認情報を受信したか否かを判定する。ステップS840で、管理サーバ8は、所定時間以内に承認情報を受信しない場合や、非承認を示す情報を受信した場合に、否定判定とし、図41の処理を終了する。   At step S 840, management server 8 determines whether or not the approval information has been received. If the management server 8 does not receive the approval information within a predetermined time or receives information indicating non-approval in step S840, the management server 8 determines that the result is negative and ends the processing of FIG.

ステップS840で肯定判定の場合、管理サーバ8は、ステップS850へ移行し、選択されたゴーストが用いる遠隔装置2のアドレスやゴーストIDをアバター1Dに通知して、遠隔装置2との通信を促す。なお、ゴーストが承認した場合に、通知情報が示すアバター1Dのアドレスに基づいて、遠隔装置2がアバター1Dとの通信を行うこととし、ステップS840、S850を省略してもよい。   In the case of a positive determination in step S840, the management server 8 proceeds to step S850, notifies the avatar 1D of the address and ghost ID of the remote device 2 used by the selected ghost, and promotes communication with the remote device 2. When the ghost is approved, the remote device 2 may communicate with the avatar 1D based on the address of the avatar 1D indicated by the notification information, and the steps S840 and S850 may be omitted.

このように本実施形態によれば、第一の地点の音信号や撮影画像に基づいて利用者の要求を判定し、利用者の要求に応じた適切なゴーストを選択することができる。これにより利用者は、要求に適したゴーストの協力を受けることができる。   As described above, according to the present embodiment, it is possible to determine the user's request based on the sound signal of the first spot and the photographed image, and to select an appropriate ghost according to the user's request. This allows the user to receive the ghost's cooperation suitable for the request.

なお、選択するゴーストは、人に限らず、第二実施形態に示す遠隔装置2Aの処理によって実現される仮想のゴーストであってもよい。例えば、経路案内や、交通機関の乗換案内、インターネット上の検索、計算など、コンピュータ(遠隔装置2A)が得意とする分
野を属性情報としてゴーストDBに登録しておき、当該分野と一致する選択要求情報を受けた場合に仮想のゴーストを選択する。具体的には、利用者が複数人で食事をした際、伝票をアバター1Dにかざし、「5人で割り勘すると一人いくら?」のように音声を発すると、アバター1Dは「〈割り勘〉いくら?」のように利用者の要求を認識する。この場合、アバター1Dは、要求対象が〈割り勘〉であるので、分野を「計算」とし、選択用情報に含めて管理サーバ8に送信する。管理サーバ8は、受信した選択用情報が示す分野が「計算」の場合、ゴーストDBを参照して対応する仮想のゴーストを選択し、連絡先である遠隔装置2Aのアドレスへ通知情報を送信する。通知情報を受信した遠隔装置2Aは、通知情報に基づいてアバター1Dと接続して、伝票の画像を取得し、合計欄の金額を読み取って5で割り、一人当たりの金額を求め、第二実施形態と同様にメッセージを作成してアバター1Dへ送信する。
The ghost to be selected is not limited to a person, and may be a virtual ghost realized by the processing of the remote device 2A shown in the second embodiment. For example, the field where the computer (remote device 2A) excels, such as route guidance, transit guidance for transportation, search on the Internet, calculation, etc., is registered in the ghost DB as attribute information, and a selection request matching the field Select a virtual ghost when it receives information. Specifically, when the user has a meal with a plurality of people, hold the slip over avatar 1D, and say "How much is it per person when split by 5 people?" Recognize the user's request like In this case, the avatar 1 D sets the field as “calculation”, and transmits it to the management server 8 by including it in the information for selection, since the target of the request is “share”. When the field indicated by the received selection information is "calculation", the management server 8 refers to the ghost DB to select a corresponding virtual ghost, and transmits notification information to the address of the remote device 2A as a contact. . The remote device 2A that has received the notification information connects with the avatar 1D based on the notification information, acquires the image of the slip, reads the amount of money in the total column and divides by 5 to obtain the amount of money per person, the second embodiment Create a message as well as the form and send it to Avatar 1D.

このようにコンピュータが得意とする分野であれば仮想のゴーストを選択し、その他の分野であれば実在の人をゴーストとして選択することで、人の感性等が必要な場合にのみ実在の人をゴーストとして選択することができ、人的資源を有効に活用できる。   In this way, by selecting a virtual ghost if it is an area in which the computer is good, and by selecting an existing person as a ghost in other areas, it is possible to select an existing person only when human sensitivities and the like are necessary. It can be selected as a ghost, and human resources can be used effectively.

〈第五実施形態〉
第五実施形態の遠隔コミュニケーションシステム100Bは、前述の第四実施形態と比べ、遠隔装置2Cが、ゴーストの感情を示す感情信号をアバター1Eへ送信し、アバター1Eが感情信号に応じて光源を発光させる構成が異なっている。なお、その他の構成は同じであるため、同一の要素に同符号を付す等して、再度の説明を省略する。
Fifth Embodiment
In the remote communication system 100B of the fifth embodiment, the remote device 2C transmits an emotion signal indicating a ghost's emotion to the avatar 1E, and the avatar 1E emits a light source according to the emotion signal, as compared with the fourth embodiment described above. The configuration is different. In addition, since the other configuration is the same, the same reference numerals are given to the same elements, and the description thereof will not be repeated.

図42は、第五実施形態に係る遠隔コミュニケーションシステム100Aの概略構成図である。本実施形態の遠隔装置2Cは、図1の遠隔装置2と比べ、感情検出部76や感情信号送信部77を更に備えている。   FIG. 42 is a schematic configuration diagram of the remote communication system 100A according to the fifth embodiment. The remote device 2C of the present embodiment further includes an emotion detection unit 76 and an emotion signal transmission unit 77, as compared with the remote device 2 of FIG.

感情検出部76は、ゴーストが発する音声や、ゴーストの顔の表情等から、ゴーストの感情を検出し、感情の種類を示す感情信号を生成する。例えば、感情検出部76は、マイク53を介してゴーストの音声を取得し、音声認識を行って利用者の音声を文字列に変換する。そして、感情検出部76は、変換した文字列から「嬉しい」「ありがとう」「悲しい」「寂しい」「酷い」「ダメ」「止めなさい」等、感情に関わる所定の語を検出すると共に、発話スピードや声の高さ、声の大きさを検出する。また、感情検出部76は、笑い声や、ため息、嗚咽などの非言語音声を検出するようにしてもよい。   The emotion detection unit 76 detects a ghost's emotion from the sound emitted by the ghost, the facial expression of the ghost, etc., and generates an emotion signal indicating the type of emotion. For example, the emotion detection unit 76 acquires a ghost voice via the microphone 53, performs voice recognition, and converts a user voice into a character string. Then, the emotion detection unit 76 detects predetermined words related to emotions, such as “happy”, “thank”, “sad”, “bad”, “bad”, “stop”, etc. Detect the height of the voice and the loudness of the voice. In addition, the emotion detection unit 76 may detect non-speech voice such as laughter, sigh, sore throat and the like.

感情検出部76は、文字列等の検出結果に基づき、喜び、心配、驚き、悲しみ、怒りといった感情の種類を判別し、この感情の種類や強さを示す感情信号を生成する。例えば、「嬉しい」「ありがとう」といった語や笑い声が検出された場合には、感情の種類を「喜び」と判別し、「大丈夫?」「危ないよ」「心配だ」といった語が検出された場合には、感情の種類を「心配」と判別する。また、「悲しい」「寂しい」といった語や嗚咽、泣き声が検出された場合には、感情の種類を「悲しみ」と判別し、「ダメ」「止めなさい」といった語が検出された場合には、感情の種類を「怒り」と判別する。また、検出した発話スピードや声の高さ、声の大きさを、予め測定した平常時のものと比べ、この変化量に応じて感情の強さを求めてもよい。例えば、発話スピードが速い、声が高い、声が大きいほど、「喜び」「心配」「驚き」「怒り」の感情の強さを強い値とする。なお、ネガティブな感情(例えば「悲しみ」)は、発話スピードが遅い、声が低い、声が小さいほど、感情の強さを強い値としてもよい。   The emotion detection unit 76 determines the type of emotion such as joy, worry, surprise, sadness, anger based on the detection result of a character string or the like, and generates an emotion signal indicating the type and strength of the emotion. For example, if words such as "happy" or "thank you" or laughter are detected, the kind of emotion is determined as "joy" and words such as "all right", "dangerous", or "worry" are detected. To determine the type of emotion as "anxious". In addition, when words such as "sad", "sorry" and sore throats or crying are detected, the type of emotion is determined as "sadness" and when words such as "no good" or "stop" are detected. Determine the type of emotion as "anger". Also, the strength of the emotion may be determined according to the amount of change as compared to the detected utterance speed, the height of the voice, and the size of the voice in advance. For example, as the speaking speed is high, the voice is high, and the voice is high, the intensity of the emotions of "joy", "care", "surprise" and "anger" is set to a strong value. As for negative emotions (for example, "sadness"), the lower the speech speed, the lower the voice, the smaller the voice, and the stronger the emotion strength may be.

また、遠隔装置2Cは、カメラ(撮影部)でゴーストの顔を撮影し、顔の表情から感情の種類や強さを検出する。なお、顔の表情から感情を検出する技術は、公知の技術が利用できるので、詳しい説明は省略する。   Further, the remote device 2C captures a ghost face with a camera (shooting unit), and detects the type and strength of emotion from the facial expression of the face. In addition, since the technique which detects an emotion from the facial expression of a face can utilize a well-known technique, detailed description is abbreviate | omitted.

感情信号送信部77は、感情検出部76で生成した感情信号をアバター1へ送信する。このように、本実施形態の遠隔装置2Cでは、ゴーストが「怒り」や「喜び」といった感情の種類を選択するといった特段の操作を行わなくても、感情検出部76がゴーストの音声や顔の表情から感情を検出して、アバター1Eへ送り、利用者に提示することができる。このため、本実施形態のアバター1Eは、図38のアバター1Dと比べ、感情信号受信部48を更に備えている。   The emotion signal transmission unit 77 transmits the emotion signal generated by the emotion detection unit 76 to the avatar 1. As described above, in the remote device 2C according to the present embodiment, the emotion detection unit 76 detects the ghost voice or the face without performing a special operation such as the ghost selecting the kind of emotion such as "anger" or "joy". An emotion can be detected from the expression, sent to the avatar 1E, and presented to the user. For this reason, the avatar 1E of the present embodiment further includes an emotion signal receiving unit 48, as compared with the avatar 1D of FIG.

感情信号受信部48は、遠隔装置2Cから感情信号を受信する。また、本実施形態の表示制御部43は、感情信号を受信した場合に、当該感情信号が示す感情の種別に応じた発光パターンでLED(光源)12を発光させて、ゴーストの感情を利用者に提示する。   The emotion signal receiving unit 48 receives an emotion signal from the remote device 2C. In addition, when receiving an emotion signal, the display control unit 43 of the present embodiment causes the LED (light source) 12 to emit light with a light emission pattern according to the type of emotion indicated by the emotion signal, and the ghost emotion is To present.

表示制御部43は、例えば、「喜び」はピンク、「心配」は緑、「驚き」はオレンジ、「悲しみ」は青、「怒り」は赤など、感情信号が示す感情の種類毎に所定の色でLED12を発光させる。なお、淡色に限らず、「怒り」は赤と紫、「喜び」はピンクと緑などのように複数色を組み合わせて発光させてもよい。また、表示制御部43は、感情の強さが強いほど、LED12の輝度を高くする。更に、表示制御部43は、LED12を点滅させ、感情の強さが強いほど、点滅の速度を速くしてもよい。   The display control unit 43 is, for example, predetermined for each type of emotion indicated by the emotion signal, such as “joy” is pink, “care” is green, “surprise” is orange, “sorrow” is blue, and “anger” is red. The LED 12 emits light in color. In addition, you may make it light-emit combining not only light color but "anger" red and purple and "pleasure" multiple colors like pink and green. Further, the display control unit 43 increases the luminance of the LED 12 as the intensity of emotion is stronger. Furthermore, the display control unit 43 may blink the LED 12 and may make the blink speed faster as the intensity of emotion is stronger.

図43は、第五実施形態に係るアバター1Eが視線情報及び感情信号に基づいて表示する処理を示す図である。アバター1Eが起動された場合や通信の開始が指示された場合に、アバター1Eは、図43の処理を開始する。ステップS310Aにて、アバター1Eは、遠隔装置2から視線情報、感情情報及び音声メッセージを受信する。   FIG. 43 is a diagram showing a process in which the avatar 1E according to the fifth embodiment displays based on the line-of-sight information and the emotion signal. When the avatar 1E is activated or when the start of communication is instructed, the avatar 1E starts the process of FIG. In step S310A, avatar 1E receives the line-of-sight information, the emotion information, and the voice message from remote device 2.

ステップS320にて、アバター1Eは、視線情報に基づいて点灯させるLED(光源)12を特定し、ステップS330にて、特定のLED12を点灯させることで、視線の方向を利用者へ提示する。   In step S320, the avatar 1E specifies the LED (light source) 12 to be lit based on the line-of-sight information, and in step S330, turns on the specific LED 12 to present the direction of the line of sight to the user.

ステップS335にて、アバター1Eは、ステップS320で特定した以外のLED12を感情情報が示す感情の種別に応じて、色や輝度、点滅速度等を所定のパターンで点灯させる。なお、ステップS330で視線情報に基づいて点灯させるLED12と、感情信号に応じて発光させるLED12とは、色を異ならせることが望ましい。例えば、表示制御部43は、視線情報に基づいて点灯させるLED12を特定の色(例えば白)で発光させ、感情信号に応じて発光させるLED12の色が当該特定の色以外となるように、感情の種類毎に割り当てる色を当該特定の色以外(例えば白以外)とする。   In step S335, avatar 1E lights color, brightness, blinking speed, and the like in a predetermined pattern according to the type of emotion indicating emotion information indicating LEDs 12 other than those identified in step S320. In addition, as for LED12 made to light based on gaze information in step S330, and LED12 made to emit light according to an emotion signal, it is desirable to make a color different. For example, the display control unit 43 causes the LED 12 to be lit based on the line-of-sight information to emit light in a specific color (for example, white), and the emotion is controlled so that the color of the LED 12 to emit light according to the emotion signal becomes other than the specific color. The color to be assigned to each type of color is a color other than the specific color (for example, other than white).

なお、ステップS340,ステップS350については、前述の図11と同じである。アバター1Eは、電源がオフにされるまで、或は通信の終了が指示されるまでは、図43の処理を繰り返し実行する。図43の例では、感情信号に応じて発光させるLED12は、ステップS320で特定した視線方向を提示するLED12以外としたが、これに限らず、視線方向を提示するLED12の色や輝度を感情信号に応じたパターンで発光させてもよい。   Steps S340 and S350 are the same as in FIG. 11 described above. The avatar 1E repeatedly executes the processing of FIG. 43 until the power is turned off, or until termination of communication is instructed. In the example of FIG. 43, the LED 12 to emit light according to the emotion signal is other than the LED 12 that presents the gaze direction specified in step S320. However, the present invention is not limited thereto. The light may be emitted in a pattern according to

本実施形態によれば、遠隔装置2Cがゴーストの感情を検出してアバター1Eに提示させるので、ゴーストが感情を提示するための手間をかける必要がなく、利用者へのアドバイス等の作業に集中できる。   According to the present embodiment, since the remote device 2C detects the ghost's emotion and causes the avatar 1E to present it, there is no need for the ghost to spend time for presenting the emotion, and concentration on work such as advice to the user it can.

なお、上記の実施形態や変形例は、一例であり、上記構成に限定されるものではなく、発明の趣旨に反しない範囲で変更してもよい。例えば上記の実施形態や変形例の要素を組み合わせたり、一部の要素を省略してもよい。   In addition, said embodiment and modification are an example, and it is not limited to the said structure, You may change in the range which does not deviate from the meaning of invention. For example, the elements of the above-described embodiment and modifications may be combined, or some of the elements may be omitted.

1 :コミュニケーション装置(アバター)
2,2A :遠隔装置
10 :表示部
12 :LED
13 :基板
14 :カバー
15 :基台
21 :撮影部
31 :本体
32 :支持体
40 :制御部
60 :制御部
70 :ゴーグル
100 :遠隔コミュニケーションシステム
1: Communication device (avatar)
2, 2A: remote device 10: display 12: LED
13: Substrate 14: Cover 15: Base 21: Imaging unit 31: Body 32: Support 40: Control unit 60: Control unit 70: Goggle 100: Remote communication system

Claims (11)

利用者が存在する第一の地点に設けられ、前記第一の地点から離れた第二の地点に設けられた遠隔装置と通信するコミュニケーション装置であって、
前記第一の地点を撮影する撮影部と、
前記撮影部で撮影した撮影画像を前記遠隔装置へ送信する画像送信部と、
前記遠隔装置から受信したメッセージを利用者に対して出力する出力制御部と、
前記コミュニケーション装置の外面において複数方向に配列された複数の光源を有する表示部と、
前記遠隔装置にて表示させた前記撮影画像を見る協力者の視線を示す視線情報を受信し、前記光源のうち、前記視線情報に応じた前記光源を発光させて、前記協力者の視線を示す表示を行わせる表示制御部と、
を備えるコミュニケーション装置。
A communication device provided at a first point where a user exists and communicating with a remote device provided at a second point remote from the first point,
A photographing unit for photographing the first spot;
An image transmission unit for transmitting a photographed image photographed by the photographing unit to the remote device;
An output control unit for outputting a message received from the remote device to a user;
A display unit having a plurality of light sources arranged in a plurality of directions on an outer surface of the communication device;
The line-of-sight information indicating the line-of-sight of the collaborator who views the photographed image displayed on the remote device is received, and the light source corresponding to the line-of-sight information is emitted among the light sources to indicate the line-of-sight of the collaborator A display control unit for performing display;
Communication device comprising
前記表示制御部が、複数の前記遠隔装置からそれぞれ前記視線情報を受信し、当該視線情報に基づいて前記表示部に複数の視線を示す表示を行わせる請求項1に記載のコミュニケーション装置。   The communication device according to claim 1, wherein the display control unit receives the line-of-sight information from each of the plurality of remote devices, and causes the display unit to display a plurality of lines of sight based on the line-of-sight information. 前記コミュニケーション装置の少なくとも一部の位置を変えるように駆動する駆動部を備え、
前記出力制御部が、前記遠隔装置から受信した動作指示情報に基づいて前記駆動部を動作させることによって、前記利用者に対する動作を行わせる請求項1又は2に記載のコミュニケーション装置。
A drive unit configured to drive to change a position of at least a part of the communication device;
The communication device according to claim 1 or 2, wherein the output control unit operates the drive unit based on operation instruction information received from the remote device to cause the user to perform an operation.
前記表示制御部が、前記遠隔装置から、前記視線情報と共に当該視線情報を生成した時刻を示す生成時刻情報を取得し、当該生成時刻情報が示す時刻から前記視線の表示を行う時刻までに変化した前記表示部の向きの変化量に基づいて、前記表示部に表示させる視線の向きを補正する請求項1〜3の何れか一項に記載のコミュニケーション装置。   The display control unit acquires, from the remote device, generation time information indicating the time when the line-of-sight information was generated along with the line-of-sight information, and changed from the time indicated by the generation time information to the time when the line of sight is displayed The communication apparatus according to any one of claims 1 to 3, wherein the direction of the line of sight displayed on the display unit is corrected based on the amount of change in the direction of the display unit. 前記撮影部を複数有し、前記撮影部によって撮影する撮影範囲が他の前記撮影部の撮影範囲と重複するように前記撮影部が配置され、
複数の前記撮影部で撮影した前記撮影画像の重複部分を合成し、前記撮影画像よりも解像度の高い合成画像とする画像合成部を備え、
前記画像送信部が、前記合成画像を前記遠隔装置へ送信する
請求項1〜4の何れか一項に記載のコミュニケーション装置。
The imaging unit is provided such that the imaging unit has a plurality of imaging units, and the imaging range imaged by the imaging unit overlaps with the imaging range of another imaging unit.
The image combining unit is configured to combine overlapping portions of the captured images captured by a plurality of the imaging units, and to generate a composite image having a resolution higher than that of the captured images.
The communication device according to any one of claims 1 to 4, wherein the image transmission unit transmits the composite image to the remote device.
前記遠隔装置から前記協力者の感情の種別を示す感情信号を受信した場合に、前記表示制御部が、前記感情信号が示す感情の種別に応じた発光パターンで前記光源を発光させて、前記協力者の感情を提示する請求項1〜5の何れか一項に記載のコミュニケーション装置。   When the emotion signal indicating the type of emotion of the collaborator is received from the remote device, the display control unit causes the light source to emit light with a light emission pattern according to the type of emotion indicated by the emotion signal, and the cooperation The communication apparatus according to any one of claims 1 to 5, which presents the emotion of the person. 利用者が存在する第一の地点に設けられたコミュニケーション装置と、前記第一の地点から離れた第二の地点に設けられ、前記コミュニケーション装置と通信する遠隔装置とを有する遠隔コミュニケーションシステムであって、
前記コミュニケーション装置が、
前記第一の地点を撮影する撮影部と、
前記撮影部で撮影した撮影画像を前記遠隔装置へ送信する画像送信部と、
前記遠隔装置から受信したメッセージを前記利用者に対して出力する出力制御部と、
前記コミュニケーション装置の外面において複数方向に配列された複数の光源を有する表示部と、
前記遠隔装置にて表示させた前記撮影画像を見る協力者の視線を示す視線情報を受信し、前記光源のうち、前記視線情報に応じた前記光源を発光させて、前記協力者の視線を示す表示を行わせる表示制御部と、を備え、
前記遠隔装置が、
前記撮影画像を受信する画像受信部と、
前記撮影画像を表示装置に表示させる表示制御部と、
前記表示装置に表示された前記撮影画像を見る前記協力者から前記利用者に対するメッセージを取得するメッセージ取得部と、
前記表示装置に表示された前記撮影画像を見る前記協力者の視線を示す情報を視線情報として取得する視線情報取得部と、
前記メッセージ及び前記視線情報を前記コミュニケーション装置へ送信する送信制御部と、
を備える遠隔コミュニケーションシステム。
A communication system comprising: a communication device provided at a first point where a user exists; and a remote device provided at a second point remote from the first point and in communication with the communication device ,
The communication device is
A photographing unit for photographing the first spot;
An image transmission unit for transmitting a photographed image photographed by the photographing unit to the remote device;
An output control unit for outputting the message received from the remote device to the user;
A display unit having a plurality of light sources arranged in a plurality of directions on an outer surface of the communication device;
The line-of-sight information indicating the line-of-sight of the collaborator who views the photographed image displayed on the remote device is received, and the light source corresponding to the line-of-sight information is emitted among the light sources to indicate the line-of-sight of the collaborator And a display control unit for displaying
The remote device is
An image receiving unit that receives the captured image;
A display control unit that causes the display device to display the captured image;
A message acquisition unit for acquiring a message for the user from the collaborator who views the photographed image displayed on the display device;
A line-of-sight information acquisition unit that acquires, as line-of-sight information, information indicating the line-of-sight of the collaborator who views the photographed image displayed on the display device;
A transmission control unit that transmits the message and the line-of-sight information to the communication device;
Communication system comprising
利用者が存在する第一の地点に設けられたコミュニケーション装置と、前記第一の地点から離れた第二の地点に設けられ、前記コミュニケーション装置と通信する遠隔装置とを有する遠隔コミュニケーションシステムであって、
前記コミュニケーション装置が、
前記第一の地点を撮影する撮影部と、
前記撮影部で撮影した撮影画像を前記遠隔装置へ送信する画像送信部と、
前記利用者の音声を示す音信号を前記遠隔装置へ送信する音信号送信部と、
前記遠隔装置から受信したメッセージを前記利用者に対して出力する出力制御部と、
前記コミュニケーション装置の外面において複数方向に配列された複数の光源を有する表示部と、
前記光源のうち、前記遠隔装置から受信した視線情報に応じて前記光源を発光させる表示制御部と、を備え、
前記遠隔装置が、
前記撮影画像を受信する画像受信部と、
前記音信号を受信する音信号受信部と、
前記撮影画像を表示装置に表示させる表示制御部と、
前記音信号に基づき、前記利用者の音声を認識し、文字列に変換する音声認識部と、
前記文字列に基づいて前記利用者の要求を判定する要求判定部と、
前記文字列に基づいて前記要求の対象を判定する要求対象判定部と、
前記要求に対応するメッセージを生成するメッセージ生成部と、
前記要求の対象を示す画像を前記撮影画像から抽出する対象抽出部と、
前記対象を示す画像に対応する被写体が存在する位置を示す情報を視線情報として取得する視線情報取得部と、
前記メッセージ及び前記視線情報を前記コミュニケーション装置へ送信する送信制御部と、
を備える遠隔コミュニケーションシステム。
A communication system comprising: a communication device provided at a first point where a user exists; and a remote device provided at a second point remote from the first point and in communication with the communication device ,
The communication device is
A photographing unit for photographing the first spot;
An image transmission unit for transmitting a photographed image photographed by the photographing unit to the remote device;
A sound signal transmission unit for transmitting a sound signal indicating the voice of the user to the remote device;
An output control unit for outputting the message received from the remote device to the user;
A display unit having a plurality of light sources arranged in a plurality of directions on an outer surface of the communication device;
And a display control unit that causes the light source to emit light according to the line-of-sight information received from the remote device, among the light sources.
The remote device is
An image receiving unit that receives the captured image;
A sound signal receiving unit that receives the sound signal;
A display control unit that causes the display device to display the captured image;
A voice recognition unit that recognizes the voice of the user based on the sound signal and converts the voice into a character string;
A request determination unit that determines the user's request based on the character string;
A request target determination unit that determines the target of the request based on the character string;
A message generator for generating a message corresponding to the request;
A target extraction unit that extracts an image indicating a target of the request from the captured image;
A line-of-sight information acquisition unit that acquires, as line-of-sight information, information indicating a position where a subject corresponding to an image indicating the target is present;
A transmission control unit that transmits the message and the line-of-sight information to the communication device;
Communication system comprising
前記コミュニケーション装置が、前記撮影部を複数有し、前記撮影部によって撮影する撮影範囲が他の前記撮影部の撮影範囲と一部重複するように前記撮影部が配置され、
前記遠隔装置が、
複数の前記撮影部で撮影した撮影画像の重複部分を合成して、前記撮影画像よりも解像度の高い合成画像とする画像合成部を更に備え、
前記表示制御部が、前記合成画像を前記表示装置へ表示させる
請求項7又は8に記載の遠隔コミュニケーションシステム。
The communication device includes a plurality of the imaging units, and the imaging unit is disposed such that an imaging range imaged by the imaging unit partially overlaps with an imaging range of another imaging unit.
The remote device is
The image composition device further includes an image combining unit that combines overlapping parts of captured images captured by a plurality of the capturing units into a composite image having a resolution higher than that of the captured images.
The remote communication system according to claim 7, wherein the display control unit causes the display device to display the composite image.
前記遠隔装置が、前記コミュニケーション装置の撮影方向を指示する指示情報を前記コ
ミュニケーション装置へ送信する送信制御部を備え、
前記コミュニケーション装置が、前記遠隔装置から受信した指示情報に応じて、少なくとも前記撮影部の向きを変える駆動部を備える、
請求項9に記載の遠隔コミュニケーションシステム。
The remote device includes a transmission control unit that transmits instruction information for instructing a photographing direction of the communication device to the communication device.
The communication device includes a drive unit that changes at least the direction of the imaging unit in accordance with instruction information received from the remote device.
The remote communication system according to claim 9.
複数の協力者に関する属性情報を記憶した記憶部と、
前記利用者による入力情報、前記第一の地点における音情報、又は前記撮影部による前記撮影画像を選択用情報として取得する取得部と、
前記協力者の前記属性情報と前記選択用情報とに基づいて前記協力者を選択する選択部と、
前記選択部によって選択された前記協力者の連絡先に選択されたことを通知する通知部と、
を備える請求項7〜10の何れか一項に記載の遠隔コミュニケーションシステム。
A storage unit storing attribute information on a plurality of collaborators;
An acquisition unit for acquiring the input information by the user, the sound information at the first point, or the photographed image by the photographing unit as selection information;
A selection unit that selects the collaborator based on the attribute information of the collaborator and the selection information;
A notification unit for notifying that the contact point of the collaborator selected by the selection unit is selected;
The remote communication system according to any one of claims 7 to 10, comprising:
JP2018235927A 2017-12-15 2018-12-17 Communication device and remote communication system Active JP7189406B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017240783 2017-12-15
JP2017240783 2017-12-15

Publications (2)

Publication Number Publication Date
JP2019110535A true JP2019110535A (en) 2019-07-04
JP7189406B2 JP7189406B2 (en) 2022-12-14

Family

ID=67180315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018235927A Active JP7189406B2 (en) 2017-12-15 2018-12-17 Communication device and remote communication system

Country Status (1)

Country Link
JP (1) JP7189406B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021027390A (en) * 2019-07-31 2021-02-22 株式会社リコー Display terminal, remote control system, display control method, and program
JP7472483B2 (en) 2018-12-21 2024-04-23 富士フイルムビジネスイノベーション株式会社 System, method, device, and program for observing and noticing with a super-wide 360-degree camera

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002046088A (en) * 2000-08-03 2002-02-12 Matsushita Electric Ind Co Ltd Robot device
JP2005218103A (en) * 2004-01-28 2005-08-11 Hewlett-Packard Development Co Lp Device for displaying facial feature
JP2010206307A (en) * 2009-02-27 2010-09-16 Toshiba Corp Information processor, information processing method, information processing program, and network conference system
JP2011152593A (en) * 2010-01-26 2011-08-11 Nec Corp Robot operation device
JP2012175136A (en) * 2011-02-17 2012-09-10 Nec Corp Camera system and control method of the same
JP2014110558A (en) * 2012-12-03 2014-06-12 Ricoh Co Ltd Information processing device, information processing system, and program
US20150281640A1 (en) * 2013-09-03 2015-10-01 Center Of Human-Centered Interaction For Coexistence Telepresence Device
WO2017183292A1 (en) * 2016-04-20 2017-10-26 株式会社ソニー・インタラクティブエンタテインメント Processing device and image determination method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002046088A (en) * 2000-08-03 2002-02-12 Matsushita Electric Ind Co Ltd Robot device
JP2005218103A (en) * 2004-01-28 2005-08-11 Hewlett-Packard Development Co Lp Device for displaying facial feature
JP2010206307A (en) * 2009-02-27 2010-09-16 Toshiba Corp Information processor, information processing method, information processing program, and network conference system
JP2011152593A (en) * 2010-01-26 2011-08-11 Nec Corp Robot operation device
JP2012175136A (en) * 2011-02-17 2012-09-10 Nec Corp Camera system and control method of the same
JP2014110558A (en) * 2012-12-03 2014-06-12 Ricoh Co Ltd Information processing device, information processing system, and program
US20150281640A1 (en) * 2013-09-03 2015-10-01 Center Of Human-Centered Interaction For Coexistence Telepresence Device
WO2017183292A1 (en) * 2016-04-20 2017-10-26 株式会社ソニー・インタラクティブエンタテインメント Processing device and image determination method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7472483B2 (en) 2018-12-21 2024-04-23 富士フイルムビジネスイノベーション株式会社 System, method, device, and program for observing and noticing with a super-wide 360-degree camera
JP2021027390A (en) * 2019-07-31 2021-02-22 株式会社リコー Display terminal, remote control system, display control method, and program
JP7346983B2 (en) 2019-07-31 2023-09-20 株式会社リコー Display terminal, remote control system, display control method and program

Also Published As

Publication number Publication date
JP7189406B2 (en) 2022-12-14

Similar Documents

Publication Publication Date Title
CN110300909B (en) Systems, methods, and media for displaying an interactive augmented reality presentation
US10453248B2 (en) Method of providing virtual space and system for executing the same
JP6266736B1 (en) Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
RU2670784C9 (en) Orientation and visualization of virtual object
US9390561B2 (en) Personal holographic billboard
US11165837B2 (en) Viewing a virtual reality environment on a user device by joining the user device to an augmented reality session
JP6298561B1 (en) Program executed by computer capable of communicating with head mounted device, information processing apparatus for executing the program, and method executed by computer capable of communicating with head mounted device
WO2021184952A1 (en) Augmented reality processing method and apparatus, storage medium, and electronic device
US20100060713A1 (en) System and Method for Enhancing Noverbal Aspects of Communication
US20180196506A1 (en) Information processing method and apparatus, information processing system, and program for executing the information processing method on computer
JP6298563B1 (en) Program and method for providing virtual space by head mounted device, and information processing apparatus for executing the program
US11948256B2 (en) Systems and methods for artificial intelligence-based virtual and augmented reality
JP2019020908A (en) Information processing method, information processing program, information processing system, and information processing device
US20180190010A1 (en) Method for providing virtual space, program for executing the method on computer, and information processing apparatus for executing the program
JP2019110535A (en) Communication device and remote communication system
US20210302922A1 (en) Artificially intelligent mechanical system used in connection with enabled audio/video hardware
CN110178159A (en) Audio/video wearable computer system with integrated form projector
JP6495399B2 (en) Program and method executed by computer to provide virtual space, and information processing apparatus for executing the program
JP2019012509A (en) Program for providing virtual space with head-mounted display, method, and information processing apparatus for executing program
JP2018142319A (en) Method to be executed by computer for movement in virtual space, program causing computer to execute the same and information processing device
JP2022075662A (en) Information extraction apparatus
JPH09327006A (en) Two-way interactive system
JP2019083029A (en) Information processing method, information processing program, information processing system, and information processing device
WO2023248832A1 (en) Remote viewing system and on-site imaging system
US20240104862A1 (en) Spatially aware playback for extended reality content

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20190219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221108

R150 Certificate of patent or registration of utility model

Ref document number: 7189406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350