JP6615716B2 - Robot and enclosure - Google Patents

Robot and enclosure Download PDF

Info

Publication number
JP6615716B2
JP6615716B2 JP2016155889A JP2016155889A JP6615716B2 JP 6615716 B2 JP6615716 B2 JP 6615716B2 JP 2016155889 A JP2016155889 A JP 2016155889A JP 2016155889 A JP2016155889 A JP 2016155889A JP 6615716 B2 JP6615716 B2 JP 6615716B2
Authority
JP
Japan
Prior art keywords
user
housing
robot
image
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016155889A
Other languages
Japanese (ja)
Other versions
JP2018023464A5 (en
JP2018023464A (en
Inventor
泰史 奥村
勝久 只野
佑介 高橋
重之 風間
翼 梅木
望 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2016155889A priority Critical patent/JP6615716B2/en
Priority to PCT/JP2017/007952 priority patent/WO2017183319A1/en
Priority to US16/092,615 priority patent/US11052547B2/en
Priority to EP17785664.8A priority patent/EP3446839B1/en
Publication of JP2018023464A publication Critical patent/JP2018023464A/en
Publication of JP2018023464A5 publication Critical patent/JP2018023464A5/ja
Application granted granted Critical
Publication of JP6615716B2 publication Critical patent/JP6615716B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボットおよびロボットの筐体に関する。   The present invention relates to a robot and a robot casing.

ヘッドマウントディスプレイ(HMD)が様々な分野で利用されている。HMDにヘッドトラッキング機能をもたせ、ユーザの頭部の姿勢と連動して表示画面を更新することで、映像世界への没入感を高められる。   Head mounted displays (HMD) are used in various fields. By providing the HMD with a head tracking function and updating the display screen in conjunction with the posture of the user's head, a sense of immersion in the video world can be enhanced.

特開2015−95045号公報Japanese Patent Laying-Open No. 2015-95045

近年、遠隔地に配置したロボットを自分の分身として利用するテレイグジスタンスと呼ばれる技術が登場している。遠隔地にいるロボットが周囲の画像データや音声データをユーザに送信し、ユーザ側で再生することで、ユーザは、ロボットの場所にいるような臨場感をもって、周囲の人達とコミュニケーションをとることが可能となる。   In recent years, a technology called tele-existence has appeared that uses a robot placed in a remote location as its alternation. A remote robot sends surrounding image data and audio data to the user and reproduces it on the user side, so that the user can communicate with the surrounding people with a sense of presence like being in the robot's location. It becomes possible.

本発明者はテレイグジステンスとHMDの連携による可能性に注目し、テレイグレジスタンスシステムの利便性および有用性を高める技術を開発するに至った。   The present inventor has paid attention to the possibility of the cooperation between the telexistence and the HMD, and has developed a technique for enhancing the convenience and usefulness of the telejeg resistance system.

本発明はこうした課題に鑑みてなされたものであり、その目的は、遠隔操作するロボットの構造や、ロボットが取得した視聴データを加工する技術、またロボットが取得した視聴データを有用に活用するための技術を提供することにある。   The present invention has been made in view of these problems, and its purpose is to make effective use of the structure of a remotely operated robot, technology for processing viewing data acquired by the robot, and viewing data acquired by the robot. Is to provide the technology.

上記課題を解決するために、本発明のある態様のロボットは、アクチュエータ装置と、アクチュエータ装置により姿勢を変更可能とされる筐体とを備える。この態様のロボットは、筐体に動作可能に支持される可動部材と、筐体内に設けられるモータと、モータの回転を可動部材に伝達する伝達部材と、モータの回転を制御する駆動制御部と、ヘッドマウントディスプレイ装置を装着しているユーザの表情情報および/または感情情報を取得する状態情報取得部と、を備える。駆動制御部は、表情情報および/または感情情報にもとづいて、モータの回転を制御する。   In order to solve the above problems, a robot according to an aspect of the present invention includes an actuator device and a housing whose posture can be changed by the actuator device. The robot of this aspect includes a movable member that is operatively supported by the housing, a motor provided in the housing, a transmission member that transmits the rotation of the motor to the movable member, and a drive control unit that controls the rotation of the motor. A state information acquisition unit that acquires facial expression information and / or emotion information of the user wearing the head-mounted display device. The drive control unit controls the rotation of the motor based on facial expression information and / or emotion information.

本発明の別の態様は、筐体であって、筐体に動作可能に支持される可動部材と、モータと、モータの回転を可動部材に伝達する伝達部材とを備える。伝達部材は、ねじり弾性変形する部材である。   Another aspect of the present invention is a housing that includes a movable member that is operatively supported by the housing, a motor, and a transmission member that transmits rotation of the motor to the movable member. The transmission member is a member that undergoes torsional elastic deformation.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。   Note that any combination of the above components, the expression of the present invention converted between a method, an apparatus, a system, a computer program, a recording medium on which the computer program is recorded so as to be readable, a data structure, etc. are also included in the present invention It is effective as an embodiment of

本発明によれば、遠隔操作するロボットの構造を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the structure of the robot operated remotely can be provided.

実施例における情報処理システムの構成例を示す図である。It is a figure which shows the structural example of the information processing system in an Example. ロボットの利用場面の例を示す図である。It is a figure which shows the example of the usage scene of a robot. HMDの外観形状の例を示す図である。It is a figure which shows the example of the external appearance shape of HMD. HMDの機能ブロックを示す図である。It is a figure which shows the functional block of HMD. ロボットの外観構成を示す図である。It is a figure which shows the external appearance structure of a robot. 挿通部材の構成を示す図である。It is a figure which shows the structure of an insertion member. ロボットの断面を示す図である。It is a figure which shows the cross section of a robot. ロボットにおける筐体の姿勢の例を示す図である。It is a figure which shows the example of the attitude | position of the housing | casing in a robot. ロボットにおける筐体の姿勢の例を示す図である。It is a figure which shows the example of the attitude | position of the housing | casing in a robot. ロボットの機能ブロックを示す図である。It is a figure which shows the functional block of a robot. 音声処理部が備える位相差増幅装置の回路構成を示す図である。It is a figure which shows the circuit structure of the phase difference amplifier with which an audio | voice processing part is provided. 信号波形の位相差を説明するための図である。It is a figure for demonstrating the phase difference of a signal waveform. 入力信号波形の位相差を増幅する原理を説明するための図である。It is a figure for demonstrating the principle which amplifies the phase difference of an input signal waveform. 応用技術を実現するためのロボットの機能ブロックを示す図である。It is a figure which shows the functional block of the robot for implement | achieving applied technology. 処理装置の機能ブロックを示す図である。It is a figure which shows the functional block of a processing apparatus. 全天球パノラマ画像を説明するための図である。It is a figure for demonstrating an omnidirectional panoramic image. 画像記録部に記録されている撮影画像データを説明するための図である。It is a figure for demonstrating the picked-up image data currently recorded on the image recording part. 画像生成部が生成するフレーム画像と、画像データとの関係を示す図である。It is a figure which shows the relationship between the frame image which an image generation part produces | generates, and image data. 筐体内部の概略構造を示す図である。It is a figure which shows schematic structure inside a housing | casing. 入力系統の機能ブロックを示す図である。It is a figure which shows the functional block of an input system. 保護カバーの位置を示す図である。It is a figure which shows the position of a protective cover. 動作テーブルの保持内容の例を示す図である。It is a figure which shows the example of the holding | maintenance content of an operation table.

図1は、実施例における情報処理システム1の構成例を示す。情報処理システム1は、ロボット10と、ユーザAが頭部に装着するヘッドマウントディスプレイ装置(HMD)100とを備える。HMD100は、両眼用の表示パネル102と、両耳用のイヤホン104と、マイク106とを備える。ここでは音声出力手段としてイヤホン104を採用しているが、耳に当てる形状のヘッドホンを採用してもよい。HMD100はアクセスポイント(AP)2を介して、ネットワーク4に接続される。AP2は無線アクセスポイントおよびルータの機能を有し、HMD100は、AP2と既知の無線通信プロトコルで接続するが、ケーブルで接続してもよい。   FIG. 1 shows a configuration example of an information processing system 1 in the embodiment. The information processing system 1 includes a robot 10 and a head mounted display device (HMD) 100 that a user A wears on the head. The HMD 100 includes a display panel 102 for both eyes, an earphone 104 for both ears, and a microphone 106. Here, the earphone 104 is used as the sound output means, but a headphone shaped to touch the ear may be used. The HMD 100 is connected to the network 4 via an access point (AP) 2. The AP 2 has functions of a wireless access point and a router, and the HMD 100 is connected to the AP 2 by a known wireless communication protocol, but may be connected by a cable.

ロボット10は、アクチュエータ装置12と、アクチュエータ装置12により姿勢を変更可能に駆動される筐体20とを備える。筐体20には、右カメラ14a、左カメラ14b、右マイク16a、左マイク16bおよびスピーカ18が搭載される。以下、右カメラ14aおよび左カメラ14bを特に区別しない場合には「カメラ14」と呼び、右マイク16aおよび左マイク16bを特に区別しない場合には「マイク16」と呼ぶ。実施例においてカメラ14およびマイク16は、アクチュエータ装置12により駆動される筐体20に設けられるが、スピーカ18は、たとえばアクチュエータ装置12の半球状のハウジング36に設けられてもよい。ロボット10はアクセスポイント(AP)3を介して、ネットワーク4に接続される。ロボット10は、AP3と既知の無線通信プロトコルで接続するが、ケーブルで接続してもよい。   The robot 10 includes an actuator device 12 and a housing 20 that is driven by the actuator device 12 so that the posture can be changed. The housing 20 is equipped with a right camera 14a, a left camera 14b, a right microphone 16a, a left microphone 16b, and a speaker 18. Hereinafter, the right camera 14a and the left camera 14b will be referred to as “camera 14” unless otherwise distinguished, and the right microphone 16a and the left microphone 16b will be referred to as “mic 16” unless otherwise distinguished. In the embodiment, the camera 14 and the microphone 16 are provided in the housing 20 driven by the actuator device 12, but the speaker 18 may be provided in the hemispherical housing 36 of the actuator device 12, for example. The robot 10 is connected to the network 4 via an access point (AP) 3. The robot 10 is connected to the AP 3 by a known wireless communication protocol, but may be connected by a cable.

情報処理システム1において、HMD100とロボット10はネットワーク4を介して通信可能に接続する。なおHMD100とロボット10とが近くに存在する場合、両者はAPを介さずに、直接、無線または有線で通信可能に接続してもよい。情報処理システム1においてロボット10は、ユーザAのいわば分身として動作する。ユーザAが装着しているHMD100の動きはロボット10に伝達され、アクチュエータ装置12が、HMD100の動きに連動して筐体20を動かす。たとえばユーザAが首を前後に振ると、アクチュエータ装置12が筐体20を前後に振るように動かし、ユーザAが首を左右に振ると、アクチュエータ装置12が筐体20を左右に振るように動かす。これによりロボット10の周囲にいる人は、ユーザAがその場にいるかのような感覚をもって、ユーザAとコミュニケーションをとることができる。   In the information processing system 1, the HMD 100 and the robot 10 are communicably connected via the network 4. When the HMD 100 and the robot 10 exist in the vicinity, they may be connected to each other so as to be able to communicate directly or wirelessly without using an AP. In the information processing system 1, the robot 10 operates as a so-called alternate user A. The movement of the HMD 100 worn by the user A is transmitted to the robot 10, and the actuator device 12 moves the housing 20 in conjunction with the movement of the HMD 100. For example, when the user A swings his / her neck back and forth, the actuator device 12 moves the casing 20 to swing back and forth, and when the user A swings his / her neck left and right, the actuator device 12 moves the casing 20 to swing left and right. . Thus, a person around the robot 10 can communicate with the user A with a sense that the user A is on the spot.

右カメラ14aおよび左カメラ14bは、筐体20の前面にて横方向に所定の間隔を空けて配置される。右カメラ14aおよび左カメラ14bはステレオカメラを構成し、右カメラ14aは右目用画像を所定の周期で撮影し、左カメラ14bは左目用画像を所定の周期で撮影する。撮影された右目用画像および左目用画像は、リアルタイムでユーザAのHMD100に送信される。HMD100は、受信した右目用画像を右目用表示パネルに表示し、受信した左目用画像を左目用表示パネルに表示する。これによりユーザAは、ロボット10の筐体20が向いている方向の映像をリアルタイムで見ることができる。   The right camera 14a and the left camera 14b are arranged on the front surface of the housing 20 with a predetermined interval in the lateral direction. The right camera 14a and the left camera 14b constitute a stereo camera. The right camera 14a captures a right-eye image at a predetermined cycle, and the left camera 14b captures a left-eye image at a predetermined cycle. The captured right-eye image and left-eye image are transmitted to the user A's HMD 100 in real time. The HMD 100 displays the received right-eye image on the right-eye display panel, and displays the received left-eye image on the left-eye display panel. As a result, the user A can view the video in the direction in which the housing 20 of the robot 10 is facing in real time.

右マイク16aおよび左マイク16bは、筐体20において横方向に所定の間隔を空けて配置される。右マイク16aおよび左マイク16bはステレオマイクを構成し、横方向に所定の間隔を空けて配置されることで、音源の位置に応じて音声が到達する時間が異なるようにされる。音声の到達時間の差は、右マイク16aおよび左マイク16bが生成する音声信号の位相差として表れる。なお右マイク16aおよび左マイク16bの音声信号の位相差を大きくするために、右マイク16aおよび左マイク16bは可能な限り離して、具体的には筐体20の両側面に配置されることが好ましい。   The right microphone 16a and the left microphone 16b are arranged in the housing 20 with a predetermined interval in the lateral direction. The right microphone 16a and the left microphone 16b constitute a stereo microphone, and are arranged at a predetermined interval in the horizontal direction, so that the time for the sound to reach varies depending on the position of the sound source. The difference in the arrival time of sound appears as a phase difference between sound signals generated by the right microphone 16a and the left microphone 16b. In order to increase the phase difference between the audio signals of the right microphone 16a and the left microphone 16b, the right microphone 16a and the left microphone 16b may be arranged as far apart as possible, specifically on both sides of the housing 20. preferable.

右マイク16aおよび左マイク16bで生成された音声信号は、後述するように加工されて、右耳用音声データおよび左耳用音声データとしてリアルタイムでユーザAのHMD100に送信される。HMD100は、受信した右耳用音声データを右耳用のイヤホン104から出力し、受信した左耳用音声データを左耳用のイヤホン104から出力する。これによりユーザAは、ロボット10の周囲の音声をリアルタイムで聞くことができる。   The audio signals generated by the right microphone 16a and the left microphone 16b are processed as described later, and are transmitted to the user A's HMD 100 in real time as audio data for the right ear and audio data for the left ear. The HMD 100 outputs the received right ear audio data from the right ear earphone 104, and outputs the received left ear audio data from the left ear earphone 104. Thereby, the user A can hear the sound around the robot 10 in real time.

人間が左右方向の音源の位置を音波の両耳への到達時間の差によって知覚することは知られているが、実際には到達時間の差だけでなく、音波を集める耳介の形状、音波を中耳に伝える外耳道の形状等にも依存して音源の位置を知覚している。また人間の正面に対して右側または左側に音源がある場合、距離の近い側の耳介と比べると、距離の遠い側の耳介に音波が到達するためには経路中に顔が位置するため、音波の到達時間差は音源からの距離差以上に大きくなる。   It is known that humans perceive the position of a sound source in the left-right direction based on the difference in arrival time of sound waves to both ears, but in reality, not only the difference in arrival time but also the shape of the pinna that collects sound waves, The position of the sound source is perceived depending on the shape of the ear canal that conveys the sound to the middle ear. Also, when the sound source is on the right or left side of the human front, the face is located in the path for the sound wave to reach the pinna on the far side compared to the pinna on the near side. The difference in arrival time of sound waves becomes larger than the difference in distance from the sound source.

一方で筐体20の前面は平坦な形状を有し、またマイク16は耳介や外耳道に相当する形状を有していないため、音声到達時間差は、実質的に音源と両マイクとの距離差に対応することになる。実施例では、筐体20の両側面に右マイク16aおよび左マイク16bを配置して両者を最大限離れた位置に設けているが、右マイク16aで生成した音声信号と左マイク16bで生成した音声信号を増幅して右耳用イヤホンと左耳用イヤホンから出力しても、音源の左右方向の位置をよく知覚できないことが本発明者の実験により明らかになった。   On the other hand, the front surface of the housing 20 has a flat shape, and the microphone 16 does not have a shape corresponding to an auricle or an external auditory canal, so the difference in sound arrival time is substantially the difference between the sound source and both microphones. It will correspond to. In the embodiment, the right microphone 16a and the left microphone 16b are arranged on both side surfaces of the housing 20 and are provided at positions farthest from each other. However, the sound signal generated by the right microphone 16a and the left microphone 16b are generated. The inventor's experiment has revealed that even if the audio signal is amplified and output from the right earphone and the left earphone, the position of the sound source in the left-right direction cannot be perceived well.

つまり人間が普段聞き慣れている音と比べると、右マイク16aおよび左マイク16bが生成する音声信号の位相差は、左右方向を知覚するには小さいことが実験により判明した。そこでロボット10は、右マイク16aおよび左マイク16bの音声信号の位相差を増幅して、より人間の両耳で聞こえる音に近づけた音声データをHMD100に提供する仕組みを備えている。この仕組みについては後述する。   In other words, it has been experimentally found that the phase difference between the audio signals generated by the right microphone 16a and the left microphone 16b is small to perceive the left-right direction as compared with the sound that humans are usually accustomed to listening to. Therefore, the robot 10 has a mechanism for amplifying the phase difference between the audio signals of the right microphone 16a and the left microphone 16b and providing the HMD 100 with audio data that is closer to the sound that can be heard by both human ears. This mechanism will be described later.

HMD100において、マイク106は、ユーザAが発した音声信号を生成する。ユーザAによる音声データは、リアルタイムでロボット10に送信され、ロボット10は、受信した音声データをスピーカ18から出力する。これによりロボット10の周辺にいる人は、ユーザAが発した音声をリアルタイムで聞くことができる。   In the HMD 100, the microphone 106 generates an audio signal emitted by the user A. The voice data by the user A is transmitted to the robot 10 in real time, and the robot 10 outputs the received voice data from the speaker 18. Thereby, the person around the robot 10 can hear the voice uttered by the user A in real time.

このように情報処理システム1では、ロボット10がユーザAにより遠隔操作されてユーザAの顔の動きや音声を再現し、またユーザAがHMD100を通じて、ロボット周辺の画像や音声を視聴でき、ユーザAとロボット10周辺の人とが、リアルタイムでコミュニケーションをとることができる。このような情報処理システム1は、様々な環境において有用に利用される。   As described above, in the information processing system 1, the robot 10 is remotely operated by the user A to reproduce the movement and sound of the face of the user A, and the user A can view images and sounds around the robot through the HMD 100. And people around the robot 10 can communicate in real time. Such an information processing system 1 is usefully used in various environments.

図2は、ロボット10の利用場面の例を示す。この例では、部屋で会議をしており、ユーザAの分身であるロボット10が、テーブル上に配置されている。この例でロボット10は正面の4人の方向を向いており、カメラ14は、正面の4人を画角内で撮影している。ロボット10は、カメラ14の撮影画像をリアルタイムでユーザAのHMD100に送信する。ユーザAはHMD100の表示パネル102を通じて部屋の状況を見ながら会議に参加し、発言するとユーザAの音声がロボット10にリアルタイムで送信され、ロボット10は、スピーカ18からユーザAの音声を出力する。   FIG. 2 shows an example of a usage scene of the robot 10. In this example, a meeting is held in a room, and a robot 10 that is a user A's alternate is placed on a table. In this example, the robot 10 faces the front four people, and the camera 14 photographs the front four people within the angle of view. The robot 10 transmits the captured image of the camera 14 to the user A's HMD 100 in real time. The user A participates in the conference while viewing the room status through the display panel 102 of the HMD 100 and speaks to transmit the voice of the user A to the robot 10 in real time, and the robot 10 outputs the voice of the user A from the speaker 18.

また上記したように、ロボット10は、左右のマイク16で生成した音声信号の位相差を増幅した音声データを、リアルタイムでHMD100に送信する。これによりユーザAは、部屋内で声を出した人が、筐体20が向いている方向に対して右側に位置するのか、または左側に位置するのか、または正面に位置するのかを知覚できる。ユーザAは、自分の右側の人が発言したと感じると、首を右に回して右側を向く。このときロボット10の筐体20もユーザAの首の動きに連動して右側に向くため、カメラ14は、右側に座っている参加者を撮影することになる。   As described above, the robot 10 transmits the audio data obtained by amplifying the phase difference between the audio signals generated by the left and right microphones 16 to the HMD 100 in real time. Thereby, the user A can perceive whether the person who has spoken in the room is located on the right side, the left side, or the front side with respect to the direction in which the housing 20 is facing. When the user A feels that the person on the right side speaks, the user A turns the neck to the right and turns to the right side. At this time, since the housing 20 of the robot 10 also faces the right side in conjunction with the movement of the neck of the user A, the camera 14 photographs the participant sitting on the right side.

このようにユーザAは、分身であるロボット10がユーザAの動きに連動することで、遠隔地にいながら、あたかも部屋にいるような感覚で会議に参加できる。また実際に部屋にいる参加者も、ユーザAの声や、また筐体20の動きから、ユーザAと違和感なくコミュニケーションをとることができる。なお図2に示す利用場面は一例であり、他の利用場面においてもユーザAは遠隔地にいながら、ロボット10から視聴データを得ることができる。   In this way, the user A can join the conference as if he was in a room while being at a remote place by having the alternate robot 10 interlocked with the movement of the user A. In addition, participants who are actually in the room can communicate with the user A from the voice of the user A and the movement of the housing 20 without feeling uncomfortable. Note that the usage scene shown in FIG. 2 is an example, and the user A can obtain viewing data from the robot 10 while in a remote location even in other usage scenes.

図3は、HMD100の外観形状の例を示す。この例においてHMD100は、出力機構部110および装着機構部112から構成される。装着機構部112は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド108を含む。装着バンド108はユーザの頭囲に合わせて長さの調節が可能な素材または構造とする。   FIG. 3 shows an example of the external shape of the HMD 100. In this example, the HMD 100 includes an output mechanism unit 110 and a mounting mechanism unit 112. The wearing mechanism unit 112 includes a wearing band 108 that goes around the head when worn by the user and fixes the HMD 100 to the head. The wearing band 108 is made of a material or a structure whose length can be adjusted according to the user's head circumference.

出力機構部110は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体114を含み、内部には目に正対する位置に表示パネル102を備える。表示パネル102は液晶パネルや有機ELパネルなどであってよい。筐体114内部には、表示パネル102とユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。   The output mechanism unit 110 includes a housing 114 shaped to cover the left and right eyes when the user wears the HMD 100, and includes a display panel 102 in a position facing the eyes. The display panel 102 may be a liquid crystal panel or an organic EL panel. Inside the housing 114, a pair of left and right optical lenses that are positioned between the display panel 102 and the user's eyes and expand the viewing angle of the user are provided.

HMD100はさらに、装着時にユーザの耳に差し込まれるイヤホン104を備える。なおイヤホン104は、音声出力手段の一例であり、HMD100はヘッドホンを備えてもよい。このときHMD100とヘッドホンとは、一体に構成されてもよいが、別体であってもよい。   The HMD 100 further includes an earphone 104 that is inserted into the user's ear when worn. The earphone 104 is an example of an audio output unit, and the HMD 100 may include a headphone. At this time, the HMD 100 and the headphones may be configured integrally, but may be separate.

HMD100は、姿勢センサが検出したセンサ情報、およびマイク106からの音声信号を符号化した音声データをロボット10に送信し、またロボット10で生成された画像データおよび音声データを受信して、表示パネル102およびイヤホン104から出力する。   The HMD 100 transmits the sensor information detected by the posture sensor and the voice data obtained by encoding the voice signal from the microphone 106 to the robot 10 and receives the image data and voice data generated by the robot 10 to display the display panel. 102 and the earphone 104.

なお図3に示すHMD100は、両目を完全に覆う没入型(非透過型)のディスプレイ装置を示すが、透過型のディスプレイ装置であってもよい。また形状としては、図示されるような帽子型であってもよいが、眼鏡型であってもよい。なおHMD100は専用の頭部装着ディスプレイ装置のみならず、表示パネル、マイク、スピーカを有する端末装置と、端末装置の表示パネルをユーザの目の前の位置に固定する筐体とから構成されてもよい。端末装置は、たとえばスマートフォンやポータブルゲーム機など、比較的小型の表示パネルを有するものであってよい。   3 shows an immersive (non-transmissive) display device that completely covers both eyes, but may be a transmissive display device. The shape may be a hat shape as shown in the figure, but may also be a glasses shape. Note that the HMD 100 may include not only a dedicated head-mounted display device but also a terminal device having a display panel, a microphone, and a speaker, and a housing that fixes the display panel of the terminal device to a position in front of the user's eyes. Good. The terminal device may have a relatively small display panel such as a smartphone or a portable game machine.

図4は、HMD100の機能ブロックを示す。制御部120は、画像信号、音声信号、センサ情報などの各種信号およびデータや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の回転角度や傾きなどの姿勢情報を所定の周期で検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。マイク106は、ユーザの声を電気信号に変換して音声信号を生成する。   FIG. 4 shows functional blocks of the HMD 100. The control unit 120 is a main processor that processes and outputs various signals and data such as image signals, audio signals, sensor information, and commands. The storage unit 122 temporarily stores data, commands, and the like that are processed by the control unit 120. The attitude sensor 124 detects attitude information such as the rotation angle and inclination of the HMD 100 at a predetermined cycle. The posture sensor 124 includes at least a triaxial acceleration sensor and a triaxial gyro sensor. The microphone 106 converts a user's voice into an electrical signal and generates an audio signal.

通信制御部126は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、ロボット10との間で信号やデータを送受信する。通信制御部126は、制御部120から、姿勢センサ124で検出された姿勢情報、およびマイク106からの音声信号を符号化した音声データを受け取り、ロボット10に送信する。また通信制御部126は、ロボット10から、画像データおよび音声データを受け取り、制御部120に供給する。制御部120は、画像データおよび音声データをロボット10から受け取ると、画像データを表示パネル102に供給して表示させ、また音声データをイヤホン104に供給して音声出力させる。   The communication control unit 126 transmits and receives signals and data to and from the robot 10 by wired or wireless communication via a network adapter or an antenna. The communication control unit 126 receives, from the control unit 120, the posture information detected by the posture sensor 124 and the voice data obtained by encoding the voice signal from the microphone 106, and transmits them to the robot 10. In addition, the communication control unit 126 receives image data and audio data from the robot 10 and supplies them to the control unit 120. Upon receiving image data and audio data from the robot 10, the control unit 120 supplies the image data to the display panel 102 for display, and supplies the audio data to the earphone 104 for audio output.

図5は、ロボット10の外観構成を示す。筐体20は、カメラ14、マイク16およびスピーカ18を収容する。カメラ14およびスピーカ18は筐体前面に設けられ、マイク16は筐体側面に設けられる。カメラ14、マイク16およびスピーカ18は、ハウジング36内に収容されている電源装置から電力線(図示せず)を介して電力を供給されて動作する。   FIG. 5 shows an external configuration of the robot 10. The housing 20 accommodates the camera 14, the microphone 16, and the speaker 18. The camera 14 and the speaker 18 are provided on the front surface of the housing, and the microphone 16 is provided on the side surface of the housing. The camera 14, the microphone 16, and the speaker 18 operate by being supplied with electric power from a power supply device housed in the housing 36 via a power line (not shown).

筐体20は保護カバー19を有し、ロボット10を使用しない状態、つまりロボット10の電源がオフにされた状態では、保護カバー19が筐体前面を覆う閉位置に配置されて、カメラ14およびスピーカ18を保護する。保護カバー19は長手方向の両端に内向きに突設された回転軸を有し、筐体側面の一対の軸穴に各回転軸を挿入して取り付けられている。これにより保護カバー19は、回転軸を中心に筐体20に対して回転自在に取り付けられる。図5に示す状態は、保護カバー19が閉位置から略180度回転した開位置に配置され、カメラ14が露出して、周囲を撮影可能となっている。保護カバー19は開位置で固定されるストッパ機構を有することが好ましい。   The housing 20 has a protective cover 19. When the robot 10 is not used, that is, when the power of the robot 10 is turned off, the protective cover 19 is disposed at a closed position that covers the front of the housing, and the camera 14 and The speaker 18 is protected. The protective cover 19 has a rotation shaft projecting inward at both ends in the longitudinal direction, and is attached by inserting each rotation shaft into a pair of shaft holes on the side surface of the housing. Thus, the protective cover 19 is attached to the housing 20 so as to be rotatable about the rotation axis. In the state shown in FIG. 5, the protective cover 19 is disposed at the open position rotated approximately 180 degrees from the closed position, and the camera 14 is exposed so that the surroundings can be photographed. The protective cover 19 preferably has a stopper mechanism that is fixed in the open position.

なおロボット10を使用する状態において、保護カバー19は、HMD100を装着したユーザの感情や首の傾きに応じて駆動制御されてよい。この場合、筐体20内には駆動部であるモータが設けられ、モータ軸を保護カバー19の回転軸に連結することで、保護カバー19の動作を制御できる。この場合、上記ストッパ機構は有しておらず、また保護カバー19は、閉位置から略270度の範囲で回転可能とされてもよい。   In a state where the robot 10 is used, the protective cover 19 may be driven and controlled according to the emotion of the user wearing the HMD 100 and the tilt of the neck. In this case, a motor as a drive unit is provided in the housing 20, and the operation of the protective cover 19 can be controlled by connecting the motor shaft to the rotating shaft of the protective cover 19. In this case, the stopper mechanism is not provided, and the protective cover 19 may be rotatable within a range of approximately 270 degrees from the closed position.

筐体20はアクチュエータ装置12によって姿勢を変更可能に支持されている。アクチュエータ装置12は、脚部40と、脚部40の上部に支持される半球状のハウジング36と、筐体20を駆動するための駆動機構50とを備える。駆動機構50は、長尺方向に第1貫通長孔32aを形成された第1円弧状アーム32と、長尺方向に第2貫通長孔34aを形成された第2円弧状アーム34と、第1円弧状アーム32と第2円弧状アーム34とを交差させた状態で、第1円弧状アーム32と第2円弧状アーム34とを回動可能に支持する台座30とを備える。台座30の上側は、カバー38により覆われており、カバー38で覆われた空間には、第1円弧状アーム32および第2円弧状アーム34をそれぞれ回転させるモータが配置されている。なお台座30は、ハウジング36に対して回動可能に支持されており、ハウジング36内には、台座30を回転させるモータが配置されている。   The housing 20 is supported by the actuator device 12 so that the posture can be changed. The actuator device 12 includes a leg portion 40, a hemispherical housing 36 supported on the upper portion of the leg portion 40, and a drive mechanism 50 for driving the housing 20. The drive mechanism 50 includes a first arcuate arm 32 having a first through hole 32a formed in the longitudinal direction, a second arcuate arm 34 having a second through hole 34a formed in the longitudinal direction, A pedestal 30 that rotatably supports the first arc-shaped arm 32 and the second arc-shaped arm 34 in a state where the first arc-shaped arm 32 and the second arc-shaped arm 34 intersect each other is provided. The upper side of the pedestal 30 is covered with a cover 38, and motors for rotating the first arcuate arm 32 and the second arcuate arm 34 are arranged in the space covered with the cover 38, respectively. The pedestal 30 is rotatably supported with respect to the housing 36, and a motor for rotating the pedestal 30 is disposed in the housing 36.

第1円弧状アーム32および第2円弧状アーム34は半円状に形成され、同じ回転中心を有するように両端部が台座30に支持される。半円状の第1円弧状アーム32の径は、半円状の第2円弧状アーム34の径よりも僅かに大きく、第1円弧状アーム32は、第2円弧状アーム34の外周側に配置される。第1円弧状アーム32と第2円弧状アーム34は、台座30において直交するように配置されてよい。実施例では、第1円弧状アーム32が台座30に支持された両端部を結ぶラインと、第2円弧状アーム34が台座30に支持された両端部を結ぶラインとが直交する。挿通部材42は、第1貫通長孔32aおよび第2貫通長孔34aに挿通されて、第1貫通長孔32aおよび第2貫通長孔34aの交差位置に配置される。挿通部材42は、第1円弧状アーム32および第2円弧状アーム34の回転により、第1貫通長孔32a内および第2貫通長孔34a内を摺動する。   The first arc-shaped arm 32 and the second arc-shaped arm 34 are formed in a semicircular shape, and both ends are supported by the pedestal 30 so as to have the same center of rotation. The diameter of the semicircular first arc-shaped arm 32 is slightly larger than the diameter of the semicircular second arc-shaped arm 34, and the first arc-shaped arm 32 is located on the outer peripheral side of the second arc-shaped arm 34. Be placed. The first arc-shaped arm 32 and the second arc-shaped arm 34 may be arranged so as to be orthogonal to each other on the pedestal 30. In the embodiment, a line connecting both ends of the first arcuate arm 32 supported by the pedestal 30 and a line connecting both ends of the second arcuate arm 34 supported by the pedestal 30 are orthogonal to each other. The insertion member 42 is inserted into the first through long hole 32a and the second through long hole 34a, and is disposed at the intersection of the first through long hole 32a and the second through long hole 34a. The insertion member 42 slides in the first through long hole 32a and the second through long hole 34a by the rotation of the first arc-shaped arm 32 and the second arc-shaped arm 34.

図6は、挿通部材42の構成を示す。挿通部材42は、第1貫通長孔32aおよび第2貫通長孔34aの挿通状態を維持するように、第1貫通長孔32aよりも幅広の第1規制部42aと、第2貫通長孔34aよりも幅広の第2規制部42bとを備える。第1規制部42aは第1貫通長孔32aよりも上側に配置され、第2規制部42bは第2貫通長孔34aよりも下側に配置されて、挿通部材42が第1貫通長孔32aおよび第2貫通長孔34aから脱落することを防止する。挿通部材42を第1貫通長孔32aおよび第2貫通長孔34aに取り付ける際は、第1規制部42aまたは第2規制部42bのいずれか一方が軸部42cとは別体に形成され、軸部42cを第1貫通長孔32aおよび第2貫通長孔34aに挿入した状態で、軸部42cの端部に固定する構造をとってもよい。   FIG. 6 shows the configuration of the insertion member 42. The insertion member 42 has a first restriction portion 42a wider than the first through long hole 32a and the second through long hole 34a so as to maintain the insertion state of the first through long hole 32a and the second through long hole 34a. And a wider second restricting portion 42b. The first restricting portion 42a is disposed above the first through long hole 32a, the second restricting portion 42b is disposed below the second through long hole 34a, and the insertion member 42 is the first through long hole 32a. Further, it is prevented from dropping off from the second through long hole 34a. When the insertion member 42 is attached to the first through long hole 32a and the second through long hole 34a, either the first restricting portion 42a or the second restricting portion 42b is formed separately from the shaft portion 42c, and the shaft A structure may be adopted in which the portion 42c is fixed to the end portion of the shaft portion 42c in a state where the portion 42c is inserted into the first through long hole 32a and the second through long hole 34a.

軸部42cは、第1貫通長孔32aおよび第2貫通長孔34aに挿入される部分であり、第1貫通長孔32aおよび第2貫通長孔34aの交差箇所に常時位置する。軸部42cは、第1貫通長孔32a内および第2貫通長孔34a内において回転を規制される。実施例では軸部42cが、第1貫通長孔32aおよび第2貫通長孔34aの幅よりも僅かに狭い幅をもつ矩形断面を有し、第1貫通長孔32a内および第2貫通長孔34a内で回転を規制されるが、それ以外の手段により軸部42cの回転が規制されてよい。たとえば第2円弧状アーム34の内周面にレールが設けられ、第2規制部42bにレール溝が設けられて、レールとレール溝とが嵌合することで軸部42cの回転が規制されてもよい。第1規制部42aには筐体20が取り付けられ、軸部42cの回転が規制されることで、筐体20を所望の姿勢に維持することが可能となる。   The shaft portion 42c is a portion that is inserted into the first through long hole 32a and the second through long hole 34a, and is always located at the intersection of the first through long hole 32a and the second through long hole 34a. The rotation of the shaft portion 42c is restricted in the first through long hole 32a and the second through long hole 34a. In the embodiment, the shaft portion 42c has a rectangular cross section having a width slightly narrower than the widths of the first through long hole 32a and the second through long hole 34a, and the inside of the first through long hole 32a and the second through long hole Although the rotation is restricted within 34a, the rotation of the shaft portion 42c may be restricted by other means. For example, a rail is provided on the inner peripheral surface of the second arc-shaped arm 34, a rail groove is provided in the second restricting portion 42b, and the rotation of the shaft portion 42c is restricted by fitting the rail and the rail groove. Also good. The housing 20 is attached to the first restricting portion 42a, and the rotation of the shaft portion 42c is restricted, so that the housing 20 can be maintained in a desired posture.

なお軸部42cは、第1貫通長孔32aおよび第2貫通長孔34aの幅よりも狭い幅を有することで、第1貫通長孔32a内および第2貫通長孔34a内を摺動可能とする。これにより挿通部材42は、第1円弧状アーム32および第2円弧状アーム34の回転により、第1貫通長孔32aに沿って移動でき、また第2貫通長孔34aに沿って移動できる。   The shaft portion 42c has a narrower width than the first through long hole 32a and the second through long hole 34a, so that it can slide in the first through long hole 32a and the second through long hole 34a. To do. Accordingly, the insertion member 42 can move along the first through long hole 32a and can move along the second through long hole 34a by the rotation of the first circular arc arm 32 and the second circular arc arm 34.

図7は、ロボット10の断面を示す。図7はロボット10の駆動系を主として示し、制御回路基板やメモリ、配線などの図示は省略している。図7(a)は、第1円弧状アーム32と第2円弧状アーム34とが台座30に対して90度起立した状態で第2円弧状アーム34に沿って切断した断面を示し、図7(b)は、第1円弧状アーム32と第2円弧状アーム34とが台座30に対して90度起立した状態で第1円弧状アーム32に沿って切断した断面を示す。   FIG. 7 shows a cross section of the robot 10. FIG. 7 mainly shows a drive system of the robot 10, and illustration of a control circuit board, a memory, wiring, and the like is omitted. FIG. 7A shows a cross section cut along the second arcuate arm 34 in a state where the first arcuate arm 32 and the second arcuate arm 34 stand 90 degrees with respect to the pedestal 30. (B) shows a cross-section cut along the first arc-shaped arm 32 in a state where the first arc-shaped arm 32 and the second arc-shaped arm 34 stand 90 degrees with respect to the pedestal 30.

第1モータ52は、第1円弧状アーム32を回転させるために設けられ、第2モータ54は、第2円弧状アーム34を回転させるために設けられる。第1モータ52および第2モータ54は、台座30上に配置されて、台座30が回転すると、第1モータ52および第2モータ54も台座30とともに回転する。第3モータ56は、台座30を回転させるために設けられ、ハウジング36内に配置される。第1モータ52、第2モータ54および第3モータ56は、図示しない電源装置から電力を供給されて回転する。   The first motor 52 is provided for rotating the first arcuate arm 32, and the second motor 54 is provided for rotating the second arcuate arm 34. The first motor 52 and the second motor 54 are arranged on the pedestal 30, and when the pedestal 30 rotates, the first motor 52 and the second motor 54 also rotate together with the pedestal 30. The third motor 56 is provided to rotate the pedestal 30 and is disposed in the housing 36. The first motor 52, the second motor 54, and the third motor 56 are rotated by power supplied from a power supply device (not shown).

第1モータ52が第1円弧状アーム32を回転し、第2モータ54が第2円弧状アーム34を回転し、第3モータ56が台座30を回転することで、アクチュエータ装置12は、挿通部材42に取り付けられた筐体20の向きおよび姿勢を変化させられる。   The first motor 52 rotates the first arc-shaped arm 32, the second motor 54 rotates the second arc-shaped arm 34, and the third motor 56 rotates the pedestal 30. The orientation and posture of the housing 20 attached to 42 can be changed.

図8および図9は、ロボット10における筐体20の姿勢の例を示す図である。
図8(a)および(b)は、筐体20を左右方向に傾けた例を示す。図9(a)および(b)は、筐体20を前後方向に傾けた例を示す。このようにロボット10の駆動機構50は、筐体20に任意の姿勢をとらせることが可能となる。筐体20の姿勢は、第1モータ52および第2モータ54の駆動量を調整することで制御され、また筐体20の向きは、第3モータ56の駆動量を調整することで制御される。
8 and 9 are diagrams illustrating examples of the posture of the housing 20 in the robot 10.
8A and 8B show an example in which the housing 20 is tilted in the left-right direction. FIGS. 9A and 9B show an example in which the housing 20 is tilted in the front-rear direction. Thus, the drive mechanism 50 of the robot 10 can cause the housing 20 to take an arbitrary posture. The attitude of the housing 20 is controlled by adjusting the driving amounts of the first motor 52 and the second motor 54, and the orientation of the housing 20 is controlled by adjusting the driving amount of the third motor 56. .

図10は、ロボット10の機能ブロックを示す。ロボット10は、外部からの入力を受け付けて処理する入力系統22と、外部への出力を処理する出力系統24とを備える。入力系統22は、受信部60、センサ情報取得部62、動き検出部64、視線方向決定部66、アクチュエータ制御部68、音声データ取得部70および音声処理部72を備える。また出力系統24は、画像処理部80、音声処理部82および送信部90を備える。   FIG. 10 shows functional blocks of the robot 10. The robot 10 includes an input system 22 that receives and processes input from the outside, and an output system 24 that processes output to the outside. The input system 22 includes a reception unit 60, a sensor information acquisition unit 62, a motion detection unit 64, a line-of-sight direction determination unit 66, an actuator control unit 68, an audio data acquisition unit 70, and an audio processing unit 72. The output system 24 includes an image processing unit 80, an audio processing unit 82, and a transmission unit 90.

図10において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   In FIG. 10, each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded in the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

上記したようにHMD100は、姿勢センサ124が検出したセンサ情報およびマイク106が生成した音声信号を符号化した音声データをロボット10に送信し、受信部60は、センサ情報および音声データを受信する。音声データ取得部70は、受信した音声データを取得し、音声処理部72が音声処理を実施して、スピーカ18から出力する。これによりロボット10は、ユーザAの音声をリアルタイムで再生し、ロボット10の周囲の人が、ユーザAの声を聞くことができる。   As described above, the HMD 100 transmits to the robot 10 the audio data obtained by encoding the sensor information detected by the posture sensor 124 and the audio signal generated by the microphone 106, and the receiving unit 60 receives the sensor information and the audio data. The audio data acquisition unit 70 acquires the received audio data, the audio processing unit 72 performs audio processing, and outputs it from the speaker 18. Thereby, the robot 10 reproduces the voice of the user A in real time, and the people around the robot 10 can hear the voice of the user A.

センサ情報取得部62は、HMD100の姿勢センサ124が検出した姿勢情報を取得する。動き検出部64は、ユーザAの頭部に装着されたHMD100の姿勢を検出する。視線方向決定部66は、動き検出部64により検出されたHMD100の姿勢に応じて筐体20のカメラ14の視線方向を定める。   The sensor information acquisition unit 62 acquires posture information detected by the posture sensor 124 of the HMD 100. The motion detection unit 64 detects the posture of the HMD 100 attached to the user A's head. The line-of-sight direction determination unit 66 determines the line-of-sight direction of the camera 14 of the housing 20 according to the attitude of the HMD 100 detected by the motion detection unit 64.

動き検出部64は、HMD100を装着したユーザの頭部の姿勢を検出するヘッドトラッキング処理を行う。ヘッドトラッキング処理は、ユーザの頭部の姿勢に、HMD100の表示パネル102に表示する視野を連動させるために行われ、実施例のヘッドトラッキング処理では、HMD100の水平基準方向に対する回転角度と、水平面に対する傾き角度とが検出される。水平基準方向は、たとえばHMD100の電源がオンされたときに向いている方向として設定されてよい。   The motion detection unit 64 performs head tracking processing that detects the posture of the head of the user wearing the HMD 100. The head tracking process is performed in order to link the visual field displayed on the display panel 102 of the HMD 100 to the posture of the user's head. In the head tracking process of the embodiment, the rotation angle with respect to the horizontal reference direction of the HMD 100 and the horizontal plane The tilt angle is detected. The horizontal reference direction may be set, for example, as a direction facing when the power of the HMD 100 is turned on.

視線方向決定部66は、動き検出部64により検出されたHMD100の姿勢に応じて、視線方向を定める。この視線方向は、ユーザAの視線方向であり、ひいては分身であるロボット10のカメラ14の視線方向(光軸方向)である。   The line-of-sight direction determination unit 66 determines the line-of-sight direction according to the posture of the HMD 100 detected by the motion detection unit 64. This line-of-sight direction is the line-of-sight direction of the user A, and by extension, the line-of-sight direction (optical axis direction) of the camera 14 of the robot 10 that is a substitute.

カメラ14の視線方向(光軸方向)をユーザAの視線方向に連動させるために、ロボット10の基準姿勢を事前に設定しておく必要がある。図5には、第1円弧状アーム32と第2円弧状アーム34とが台座30に対して90度起立した状態を示しているが、この状態を水平方向として設定し、またロボット10の電源がオンされたときに筐体20の前面が向いている方向を、水平基準方向として設定してよい。なおロボット10は、HMD100と同様に姿勢センサを有して、水平方向を自律的に設定できるようにしてもよい。   In order to link the viewing direction (optical axis direction) of the camera 14 with the viewing direction of the user A, the reference posture of the robot 10 needs to be set in advance. FIG. 5 shows a state in which the first arc-shaped arm 32 and the second arc-shaped arm 34 stand up by 90 degrees with respect to the pedestal 30. This state is set as the horizontal direction, and the power supply of the robot 10 The direction in which the front surface of the housing 20 faces when is turned on may be set as the horizontal reference direction. Note that the robot 10 may have a posture sensor as in the HMD 100 so that the horizontal direction can be set autonomously.

HMD100およびロボット10の基準姿勢を設定した状態で、視線方向決定部66は、動き検出部64により検出された回転角度および傾き角度を、そのままカメラ14の視線方向(光軸方向)として決定してよい。動き検出部64が、HMD100の回転角度および傾き角度を検出すると、視線方向決定部66は、HMD100の視線方向を3次元座標のベクトル(x,y,z)として決定し、このときロボット10のカメラ14の視線方向を同じ(x,y,z)と決定してもよく、また何らかの補正を加えた(x’,y’,z’)として決定してもよい。   With the reference postures of the HMD 100 and the robot 10 set, the line-of-sight direction determination unit 66 determines the rotation angle and tilt angle detected by the motion detection unit 64 as the line-of-sight direction (optical axis direction) of the camera 14 as it is. Good. When the motion detection unit 64 detects the rotation angle and the inclination angle of the HMD 100, the line-of-sight direction determination unit 66 determines the line-of-sight direction of the HMD 100 as a vector (x, y, z) of three-dimensional coordinates. The line-of-sight direction of the camera 14 may be determined as the same (x, y, z), or may be determined as (x ′, y ′, z ′) with some correction.

アクチュエータ制御部68は、視線方向決定部66で決定された視線方向となるようにカメラ14の向きを制御する。具体的にアクチュエータ制御部68は、第1モータ52、第2モータ54、第3モータ56に供給する電力を調整して、HMD100の動きに、筐体20の動きを追従させる。アクチュエータ制御部68によるモータ駆動制御は、リアルタイムに実施され、したがって筐体20の向きは、ユーザAの視線の向きと同じように動かされる。   The actuator control unit 68 controls the orientation of the camera 14 so that the line-of-sight direction determined by the line-of-sight direction determination unit 66 is obtained. Specifically, the actuator control unit 68 adjusts the power supplied to the first motor 52, the second motor 54, and the third motor 56 so that the movement of the housing 20 follows the movement of the HMD 100. The motor drive control by the actuator control unit 68 is performed in real time, and therefore the direction of the housing 20 is moved in the same way as the direction of the line of sight of the user A.

実施例のアクチュエータ装置12によれば、筐体20は、第1円弧状アーム32および第2円弧状アーム34の回転中心を基準として駆動されるが、この動きは人の首と同じ動きを示す。アクチュエータ装置12は、2本の半円アームを交差させた簡易な構造でユーザAの首の動きを再現する。   According to the actuator device 12 of the embodiment, the housing 20 is driven with reference to the rotation centers of the first arc-shaped arm 32 and the second arc-shaped arm 34, and this movement shows the same movement as the human neck. . The actuator device 12 reproduces the movement of the neck of the user A with a simple structure in which two semicircular arms are crossed.

人は首の動きによって意思を伝達する。たとえば日本では首を縦に振ると肯定を、横に振ると否定を表現するが、アクチュエータ装置12は、ユーザAの首の動きと同じように筐体20を動かすため、ロボット10の周囲の人は、筐体20の動きによってもユーザAの意思を感じ取ることができる。そのためユーザAの首の動きを簡易な構造で再現できることは、テレイグジステンス技術において非常に有用である。   A person communicates his intention by moving his neck. For example, in Japan, if the head is swung vertically, positive is expressed, and if it is swung horizontally, negative is expressed. However, since the actuator device 12 moves the housing 20 in the same manner as the movement of the neck of the user A, people around the robot 10 Can sense the intention of the user A also by the movement of the housing 20. Therefore, the ability to reproduce the movement of the neck of the user A with a simple structure is very useful in the teleexistence technology.

次に出力系統24について説明する。
出力系統24において、右カメラ14aおよび左カメラ14bは、アクチュエータ装置12により制御された方向に向けられて、それぞれの画角内を撮影する。右カメラ14aおよび左カメラ14bは、たとえば大人の平均的な両目の間隔となるように離れて配置されてよい。右カメラ14aが撮影した右目用画像データおよび左カメラ14bが撮影した左目用画像データは、送信部90からHMD100に送信されて、それぞれ表示パネル102の右半分および左半分に表示される。これらの画像は、右目および左目から見た視差画像を形成し、表示パネル102を2分割してなる領域にそれぞれ表示させることで、画像を立体視させることができる。なおユーザAは光学レンズを通して表示パネル102を見るために、画像処理部80は、予めレンズによる光学歪みを補正した画像データを生成して、HMD100に供給してもよい。
Next, the output system 24 will be described.
In the output system 24, the right camera 14a and the left camera 14b are directed in the directions controlled by the actuator device 12 and shoot the respective angles of view. The right camera 14a and the left camera 14b may be arranged apart from each other, for example, so as to be an average distance between eyes of an adult. The right-eye image data captured by the right camera 14a and the left-eye image data captured by the left camera 14b are transmitted from the transmission unit 90 to the HMD 100 and displayed on the right half and the left half of the display panel 102, respectively. These images form parallax images viewed from the right eye and the left eye, and can be displayed stereoscopically by displaying the display panel 102 in an area divided into two. In order for the user A to view the display panel 102 through the optical lens, the image processing unit 80 may generate image data in which optical distortion caused by the lens is corrected in advance and supply the image data to the HMD 100.

右カメラ14aおよび左カメラ14bは、所定の周期(たとえば1/60秒)で撮影を行い、送信部90は遅延なく画像データをHMD100に送信する。これによりユーザAはロボット10の周囲の状況をリアルタイムで見ることができ、また顔の向きを変えることで、見たい方向を見ることができる。   The right camera 14a and the left camera 14b capture images at a predetermined cycle (for example, 1/60 seconds), and the transmission unit 90 transmits image data to the HMD 100 without delay. As a result, the user A can see the situation around the robot 10 in real time, and can also see the desired direction by changing the direction of the face.

右マイク16aおよび左マイク16bは、ロボット10の周囲の音を電気信号に変換して音声信号を生成する。以下、右マイク16aが生成する音声信号を「第1音声信号」と呼び、左マイク16bが生成する音声信号を「第2音声信号」と呼ぶ。上記したように、右マイク16aおよび左マイク16bは、筐体20において横方向に離れて配置されているため、右マイク16aが生成する第1音声信号と左マイク16bが生成する第2音声信号には、位相差が生じる。   The right microphone 16a and the left microphone 16b convert sound around the robot 10 into an electric signal to generate a sound signal. Hereinafter, the audio signal generated by the right microphone 16a is referred to as a “first audio signal”, and the audio signal generated by the left microphone 16b is referred to as a “second audio signal”. As described above, since the right microphone 16a and the left microphone 16b are disposed laterally apart from each other in the housing 20, the first audio signal generated by the right microphone 16a and the second audio signal generated by the left microphone 16b. Causes a phase difference.

本発明者は、第1音声信号および第2音声信号を、そのままの位相差で符号化してHMD100に提供した場合に、ユーザが、音源の方向を認識できない、つまり音声が右側から聞こえてくるのか、または左側から聞こえてくるのかを判別しにくいという知見を実験により得た。実験では筐体20の横方向の幅を大人の人間の顔幅程度(16cm)に設定しているが、人間の耳における音波伝達構造をマイク16では再現できないために、第1音声信号および第2音声信号の位相差のみでは、人間が音源の方向を知覚するには足りないという結論が得られた。   When the present inventor encodes the first audio signal and the second audio signal with the same phase difference and provides them to the HMD 100, the user cannot recognize the direction of the sound source, that is, whether the audio can be heard from the right side. Or, it was found through experiments that it was difficult to determine whether the sound was heard from the left side. In the experiment, the lateral width of the housing 20 is set to about the adult human face width (16 cm). However, since the sound transmission structure in the human ear cannot be reproduced by the microphone 16, It was concluded that only the phase difference between the two audio signals is insufficient for humans to perceive the direction of the sound source.

これを解決する手段として、筐体20の横方向の幅を大きくして、第1音声信号と第2音声信号の位相差を大きくすることが考えられるが、その場合は筐体20の重量が重くなり、アクチュエータ装置12で使用するモータの出力を高める必要が生じる。また筐体20の横方向の幅を大きくすると、右マイク16aと左マイク16bの間隔が、人間の両耳の間隔よりも広くなるため、実際に人が音を聞く感覚とは異なる音声信号が取得されることになる。   As a means for solving this, it is conceivable to increase the lateral width of the casing 20 to increase the phase difference between the first audio signal and the second audio signal. It becomes heavier and it becomes necessary to increase the output of the motor used in the actuator device 12. Further, when the lateral width of the housing 20 is increased, the interval between the right microphone 16a and the left microphone 16b becomes wider than the interval between both ears of a human, so that an audio signal that is different from the sense that a person actually hears sound is generated. Will be acquired.

そこで本発明者は、第1音声信号と第2音声信号の位相差を増幅することで、この問題を解決することを考え出した。音声処理部82は、以下に説明するように、右マイク16aが生成する第1音声信号および左マイク16bが生成する第2音声信号の位相差を増幅する機能を有する。なおロボット10は、リアルタイムでマイク音声をHMD100に伝達する必要があるため、音声処理部82は、位相差増幅機能を、ハードウェア回路によって実現する。   Therefore, the present inventor has devised to solve this problem by amplifying the phase difference between the first audio signal and the second audio signal. As will be described below, the audio processing unit 82 has a function of amplifying the phase difference between the first audio signal generated by the right microphone 16a and the second audio signal generated by the left microphone 16b. Since the robot 10 needs to transmit the microphone sound to the HMD 100 in real time, the sound processing unit 82 realizes the phase difference amplification function by a hardware circuit.

図11は、音声処理部82が備える位相差増幅装置82aの回路構成を示す。位相差増幅装置82aは、右マイク16aが生成した第1音声信号vと左マイク16bが生成した第2音声信号vの位相差を増幅して出力するアナログ回路装置である。 FIG. 11 shows a circuit configuration of the phase difference amplifying device 82a included in the audio processing unit 82. Phase difference amplifier 82a is an analog circuit device for amplifying and outputting the phase difference between the second audio signal v L of the first audio signal v R and the left microphone 16b to the right microphone 16a was formed was produced.

第1増幅器84aは、右マイク16aから第1音声信号vを入力されると、第1音声信号vを増幅した第1正相信号V と、第1音声信号vを反転増幅した第1逆相信号V とを出力する。第1増幅器84aは、入力信号の正相成分を増幅して出力するオペアンプと、入力信号の逆相成分を増幅して出力するオペアンプとから構成されてもよいが、正相成分および逆相成分を出力する2つの出力端子を有するオペアンプから構成されてもよい。 The first amplifier 84a, when the right microphone 16a is inputted to the first audio signal v R, the first and positive-phase signal V R + obtained by amplifying the first voice signal v R, inverting amplifying the first voice signal v R The first negative phase signal V R is output. The first amplifier 84a may be composed of an operational amplifier that amplifies and outputs the positive phase component of the input signal and an operational amplifier that amplifies and outputs the negative phase component of the input signal. May be composed of an operational amplifier having two output terminals for outputting.

また第2増幅器84bは、左マイク16bから第2音声信号vを入力されると、第2音声信号vを増幅した第2正相信号V と、第2音声信号vを反転増幅した第2逆相信号V とを出力する。第2増幅器84bも、第1増幅器84aと同様に、それぞれ正相成分および逆相成分を出力する2つのオペアンプから構成されてもよく、また正相成分および逆相成分の双方を出力する1つのオペアンプから構成されてもよい。 The second amplifier 84b is inverted and left microphone 16b is input to the second audio signal v L, the second positive phase signal V L + obtained by amplifying the second audio signal v L, the second audio signal v L The amplified second negative phase signal V L is output. Similarly to the first amplifier 84a, the second amplifier 84b may be composed of two operational amplifiers that output the positive phase component and the negative phase component, respectively, and one output that outputs both the positive phase component and the negative phase component. You may comprise from an operational amplifier.

第1加算器86aは、第1正相信号V を第1係数倍(α倍)した信号と、第2逆相信号V を第2係数倍(β倍)した信号とを加算した出力信号VrOUTを出力する。ここでα、βは、0より大きく、1以下の値を示す。なおαとβは異なるように設定され、この例ではα>βである。出力信号VrOUTは、以下の式で表現される。
rOUT=α×V +β×V
The first adder 86a adds a signal obtained by multiplying the first positive phase signal V R + by a first coefficient (α times) and a signal obtained by multiplying the second negative phase signal V L by a second coefficient (β times). The output signal V rOUT is output. Here, α and β are values greater than 0 and 1 or less. Note that α and β are set to be different, and α> β in this example. The output signal V rOUT is expressed by the following equation.
V rOUT = α × V R + + β × V L

第1加算器86aは、第1正相信号V をα倍に分圧する分圧回路の出力と、第2逆相信号V をβ倍に分圧する分圧回路の出力とを加算する加算回路であってもよいが、第1正相信号V をα倍した電圧信号と第2逆相信号V をβ倍した電圧信号とを加算するオペアンプであってもよい。 The first adder 86a adds the output of the voltage dividing circuit that divides the first positive phase signal V R + by α times and the output of the voltage dividing circuit that divides the second negative phase signal V L by β times. However, it may be an operational amplifier that adds a voltage signal obtained by multiplying the first positive phase signal V R + by α and a voltage signal obtained by multiplying the second negative phase signal V L by β.

第2加算器86bは、第2正相信号V を第1係数倍(α倍)した信号と、第1逆相信号V を第2係数倍(β倍)した信号とを加算した出力信号VlOUTを出力する。出力信号VlOUTは、以下の式で表現される。
lOUT=α×V +β×V
The second adder 86b adds the signal obtained by multiplying the second positive phase signal V L + by the first coefficient (α times) and the signal obtained by multiplying the first negative phase signal V R by the second coefficient (β times). The output signal VlOUT is output. The output signal VlOUT is expressed by the following equation.
V lOUT = α × V L + + β × V R

第2加算器86bは、第2正相信号V をα倍に分圧する分圧回路の出力と、第1逆相信号V をβ倍に分圧する分圧回路の出力とを加算する加算回路であってもよいが、第2正相信号V をα倍した電圧信号と第1逆相信号V をβ倍した電圧信号とを加算するオペアンプであってもよい。 The second adder 86b adds the output of the voltage dividing circuit that divides the second positive phase signal V L + by α times and the output of the voltage dividing circuit that divides the first negative phase signal V R by β times. However, it may be an operational amplifier that adds a voltage signal obtained by multiplying the second positive phase signal V L + by α and a voltage signal obtained by multiplying the first negative phase signal V R by β.

第3増幅器88aは、第1加算器86aの出力信号VrOUTを第3係数倍(γ倍)してVROUTを出力し、第4増幅器88bは、第2加算器86bの出力信号VlOUTを第3係数倍(γ倍)してVLOUTを出力する。音声処理部82において、位相差増幅装置82aからの出力信号VROUT、VLOUTは、それぞれ音声符号化されて、右耳用音声データおよび左耳用音声データとして送信部90からHMD100に送信される。 The third amplifier 88a is an output signal V ROUT of the first adder 86a third factor multiplication (gamma times) and outputs a V ROUT, fourth amplifier 88b is an output signal V LOUT of the second adder 86b V LOUT is output by multiplying by the third coefficient (γ times). In the audio processing unit 82, the output signals V ROUT and V LOUT from the phase difference amplifying device 82a are respectively audio encoded and transmitted from the transmission unit 90 to the HMD 100 as audio data for right ear and audio data for left ear. .

図12は、信号波形の位相差を説明するための図である。図12(a)は、右マイク16aが生成する第1音声信号vと左マイク16bが生成する第2音声信号vの波形の関係を示す。ここでは説明の便宜上、第1音声信号vと第2音声信号vとをそれぞれ同倍に増幅した第1正相信号V と第2正相信号V との関係を示している。この入力波形では、ロボット10の筐体20から見て音源が右側に配置されており、第1正相信号V の位相の方が、第2正相信号V よりも僅かに進んでおり、また振幅は第1正相信号V の方が高い。 FIG. 12 is a diagram for explaining a phase difference between signal waveforms. 12 (a) shows a relationship between the second audio signal v L waveform first audio signal v R and the left microphone 16b to the right microphone 16a is generated is produced. Here, for convenience of explanation, the relationship between the first positive phase signal V R + and the second positive phase signal V L + obtained by amplifying the first audio signal v R and the second audio signal v L to the same magnification is shown. Yes. In this input waveform, the sound source is arranged on the right side when viewed from the housing 20 of the robot 10, and the phase of the first positive phase signal V R + slightly advances from the second positive phase signal V L +. Also, the amplitude of the first positive phase signal V R + is higher.

図12(b)は、第1加算器86aの出力信号VrOUTと第2加算器86bの出力信号VlOUTの波形の関係を示す。図12(a)に示す入力波形の位相差と比較すると、図12(b)に示す加算器の出力波形の位相差が広がっている(増幅している)ことが分かる。 FIG. 12B shows the relationship between the waveforms of the output signal V rOUT of the first adder 86a and the output signal V lOUT of the second adder 86b. Compared with the phase difference of the input waveform shown in FIG. 12A, it can be seen that the phase difference of the output waveform of the adder shown in FIG. 12B is widened (amplified).

図13は、入力信号波形の位相差を増幅する原理を説明するための図である。図13(a)は、第1正相信号V および第1逆相信号V と、第2正相信号V および第2逆相信号V を2次元座標系で表現している。第1正相信号V と第2正相信号V の位相差はθである。 FIG. 13 is a diagram for explaining the principle of amplifying the phase difference of the input signal waveform. FIG. 13A shows the first positive phase signal V R + and the first negative phase signal V R , the second positive phase signal V L + and the second negative phase signal V L in a two-dimensional coordinate system. doing. The phase difference between the first positive phase signal V R + and the second positive phase signal V L + is θ.

図13(b)は、第1加算器86aの出力信号VrOUTと第2加算器86bの出力信号VlOUTを示す。上記したように、VrOUT、VlOUTは、
rOUT=α×V +β×V
lOUT=α×V +β×V
と表現される。図13(b)では、α=1.0、β=0.6を設定する。
Figure 13 (b) shows the output signal V ROUT of the first adder 86a and the output signal V LOUT of the second adder 86b. As described above, V rOUT and V lOUT are
V rOUT = α × V R + + β × V L
V lOUT = α × V L + + β × V R
It is expressed as In FIG. 13B, α = 1.0 and β = 0.6 are set.

図13(b)に示すように、VrOUTとVlOUTの位相差はθ’となり、図13(a)に示す位相差θよりも大きくなっている。このように位相差増幅装置82aは、入力された2つの音声信号の位相差を増幅する。 As shown in FIG. 13B , the phase difference between V rOUT and V 1OUT is θ ′, which is larger than the phase difference θ shown in FIG. Thus, the phase difference amplifying device 82a amplifies the phase difference between the two input audio signals.

本発明者によるシミュレーションの結果、入力信号の位相差が15度のとき、出力信号の位相差は4倍の60度となり、入力信号の位相差が30度のとき、出力信号の位相差は3倍の90度となり、入力信号の位相差が45度のとき、出力信号の位相差は約2.7倍の120度となることが分かった。   As a result of simulation by the present inventor, when the phase difference of the input signal is 15 degrees, the phase difference of the output signal is 4 times 60 degrees, and when the phase difference of the input signal is 30 degrees, the phase difference of the output signal is 3 It was found that when the input signal phase difference was 45 degrees, the output signal phase difference was approximately 2.7 times 120 degrees when the input signal was 90 degrees.

このシミュレーション結果によると、位相差が小さいほど増幅率が大きくなっている。実際の筐体20では、入力信号の位相差は5度〜20度程度であり、位相差増幅装置82aは、この範囲における増幅率を大きくできることで、出力信号の位相差を、ユーザが音源の方向を聞き分けられる程度に広げられる。位相差増幅装置82aからの出力信号VROUT、VLOUTは、それぞれ音声符号化されて、右耳用音声データおよび左耳用音声データとして送信部90からHMD100に送信される。 According to this simulation result, the smaller the phase difference, the greater the amplification factor. In the actual case 20, the phase difference of the input signal is about 5 to 20 degrees, and the phase difference amplifying device 82a can increase the amplification factor in this range, so that the phase difference of the output signal can be determined by the user. It is widened to the extent that you can hear the direction. The output signals V ROUT and V LOUT from the phase difference amplifying device 82a are each audio-encoded and transmitted from the transmission unit 90 to the HMD 100 as audio data for the right ear and audio data for the left ear.

HMD100において、右耳用音声データは、右耳用のイヤホン104から音声として出力され、左耳用音声データは、左耳用のイヤホン104から音声として出力される。ユーザAは、位相差を増幅された音声を両耳から聞くことで、音源の方向を認識する。ユーザAは、右側から声が聞こえてきたと感じれば、顔を右側に向ける。このときユーザAの顔の動きに連動してロボット10の筐体20が右側を向くため(図2参照)、ロボット10のカメラ14は、右側の環境を撮影して、撮影画像データをリアルタイムでHMD100に送信する。これによりユーザAは、発声した人の顔を見ながら話すことができ、従来にない優れたユーザインタフェースを実現できる。   In the HMD 100, right ear audio data is output as audio from the right ear earphone 104, and left ear audio data is output as audio from the left ear earphone 104. User A recognizes the direction of the sound source by listening to the sound with the amplified phase difference from both ears. If the user A feels that a voice has been heard from the right side, the user A turns his face to the right side. At this time, since the housing 20 of the robot 10 faces the right side in conjunction with the movement of the face of the user A (see FIG. 2), the camera 14 of the robot 10 captures the environment on the right side and captures the captured image data in real time. Send to HMD100. As a result, the user A can speak while looking at the face of the person who speaks, and can realize an unprecedented excellent user interface.

なお上記した例では、α=1.0、β=0.6と設定したが、α、βの値は、実験により適切に設定されることが好ましい。図5に示すように、右マイク16aおよび左マイク16bは、筐体20の側面を窪ませた位置であって、前面からみて奥側の位置に設けている。マイク16における音波の伝達構造は、筐体側面の形状に依存するため、α、βの比は、実験により最適に求められることが好ましい。   In the above example, α = 1.0 and β = 0.6 are set. However, it is preferable that the values of α and β are appropriately set by experiments. As shown in FIG. 5, the right microphone 16 a and the left microphone 16 b are provided at positions where the side surface of the housing 20 is recessed and at the back side when viewed from the front. Since the sound wave transmission structure in the microphone 16 depends on the shape of the side surface of the housing, the ratio of α and β is preferably determined optimally through experiments.

なお図5において、マイク16は、後板17の横方向の内側に配置されている。これは後板17に、前方からの音波と後方からの音波の周波数特性を異ならせ、後方からの高域成分を低減させる役割をもたせるためである。つまり後板17は、マイク16に対して人の耳介のような機能をもち、後方からの音波が後板17を回り込んでマイク16に到達するようにしている。なお前方からの音波と後方からの音波の周波数特性を異ならせるために、後板17は、さらに上下方向および横方向に広げられて形成されてもよい。マイク16の後方に後板17のような音波遮蔽体を形成することで、ユーザAは、音源の前後方向の位置を聞き分けることも可能となる。   In FIG. 5, the microphone 16 is disposed inside the rear plate 17 in the lateral direction. This is because the rear plate 17 has a function of making the frequency characteristics of the sound wave from the front and the sound wave from the rear different from each other and reducing the high frequency component from the rear. In other words, the rear plate 17 has a function like a human auricle with respect to the microphone 16, and a sound wave from the rear wraps around the rear plate 17 and reaches the microphone 16. In order to make the frequency characteristics of the sound wave from the front and the sound wave from the rear different, the rear plate 17 may be formed to be further expanded in the vertical direction and the horizontal direction. By forming a sound wave shield such as the rear plate 17 behind the microphone 16, the user A can also recognize the position of the sound source in the front-rear direction.

このように情報処理システム1では、ユーザAが、自分の分身であるロボット10を用いて、リアルタイムでロボット10の周囲にいる人達と自由にコミュニケーションをとることができる。以下では、情報処理システム1の利用可能性をさらに高める技術について提案する。   As described above, in the information processing system 1, the user A can freely communicate with the people around the robot 10 in real time using the robot 10 that is his or her own character. Below, the technique which further raises the usability of the information processing system 1 is proposed.

従来より、カメラの傾きを変えながら撮影した画像をスティッチ(縫い合わせ)して全天球パノラマ画像を生成する技術が知られている。最近では、専用のパンチルトカメラも販売されており、個人でも全天球パノラマ画像を撮影できるようになっている。   2. Description of the Related Art Conventionally, a technique for generating an omnidirectional panoramic image by stitching (sewing) images taken while changing the tilt of a camera is known. Recently, a dedicated pan / tilt camera has also been sold, and individuals can shoot spherical panoramic images.

情報処理システム1において、ロボット10は、ユーザAの頭部の動きに応じた視線方向にカメラ14を向けて、周囲を撮影する。ユーザAが様々な方向を向くことで、カメラ14が様々な方向を撮影する。この撮影画像に、視線方向を表現する3次元ベクトルを付加して記録しておくことで、仮想的な全天球パノラマ画像を生成することが可能となる。   In the information processing system 1, the robot 10 photographs the surroundings by directing the camera 14 in the line-of-sight direction according to the movement of the user A's head. As the user A faces various directions, the camera 14 captures various directions. It is possible to generate a virtual omnidirectional panoramic image by adding a three-dimensional vector representing the line-of-sight direction to this captured image and recording it.

図14は、ロボット10の機能ブロックの変形例を示す。この機能ブロックは、図10に示す機能ブロックを前提としており、その中で視線方向決定部66から画像処理部80に対して、決定した視線方向が供給されることを示している。   FIG. 14 shows a modification of the functional block of the robot 10. This functional block is based on the functional block shown in FIG. 10, and shows that the determined visual line direction is supplied from the visual line direction determining unit 66 to the image processing unit 80.

ユーザAによるロボット10の使用中、送信部90は、両眼用の画像データおよび両耳用の音声データ(以下、まとめて「視聴データ」と呼ぶこともある)を、ネットワーク4経由でユーザAのHMD100に送信している。このとき送信部90は、同じ視聴データをネットワーク4経由でルータ5を介して処理装置200にも送信し、処理装置200はユーザAの視聴データを記録する。   During the use of the robot 10 by the user A, the transmission unit 90 transmits the image data for both eyes and the sound data for both ears (hereinafter sometimes collectively referred to as “viewing data”) via the network 4 to the user A. To the HMD100. At this time, the transmission unit 90 transmits the same viewing data to the processing device 200 via the network 4 via the router 5, and the processing device 200 records the viewing data of the user A.

処理装置200は、ユーザAの視聴データを記録しつつ、ユーザAの画像データをもとに全天球パノラマ画像をリアルタイム生成し、ユーザAとは異なるユーザBの視線方向に応じた画像をユーザBのHMD100aに提供する機能をもつ。なおHMD100aは、これまで説明したHMD100と同じ構成を備える。処理装置200は、たとえば単一のサーバにより構成されてもよいが、クラウドサービスを提供するサーバ群により構成されてもよい。   The processing device 200 generates the omnidirectional panoramic image in real time based on the image data of the user A while recording the viewing data of the user A, and displays an image corresponding to the viewing direction of the user B different from the user A. B has a function provided to the HMD 100a. The HMD 100a has the same configuration as the HMD 100 described so far. The processing device 200 may be configured by a single server, for example, but may be configured by a server group that provides a cloud service.

処理装置200が全天球パノラマ画像を生成できるようにするために、画像処理部80は、フレーム画像データのそれぞれに、視線方向決定部66から供給される視線方向を示すベクトル情報と、撮影開始点からの経過時間を示す撮影時間情報とを付加する。ベクトル情報は、ロボット10のカメラ14の視線方向を示す。撮影時間情報は、撮影開始点からの時間を表現するものであればよく、たとえば撮影された順番を示すフレーム番号であってもよい。   In order to enable the processing device 200 to generate an omnidirectional panoramic image, the image processing unit 80 includes vector information indicating the line-of-sight direction supplied from the line-of-sight direction determination unit 66 and the start of shooting for each frame image data. Shooting time information indicating the elapsed time from the point is added. The vector information indicates the line-of-sight direction of the camera 14 of the robot 10. The shooting time information only needs to express the time from the shooting start point, and may be a frame number indicating the order of shooting, for example.

この技術では、ユーザAによるロボット10の使用中に、ユーザBがHMD100aを装着し、ロボット10から供給されるユーザAの視聴データをもとに生成される画像データおよび音声データを、HMD100aに提供する。ユーザAの視聴データをそのまま再生するだけであれば、処理装置200は、受信した視聴データをそのままユーザBのHMD100aにストリーミング配信するだけでよいが、この技術では、処理装置200が、ユーザAの画像データをもとに構成される全天球パノラマ画像から、ユーザBの視線方向にもとづいた画像を再構成して、ユーザBのHMD100aに提供できるようにする。なお音声データは、ユーザBのHMD100aにストリーミング配信される。   In this technique, while the robot 10 is being used by the user A, the user B wears the HMD 100a and provides the HMD 100a with image data and audio data generated based on the viewing data of the user A supplied from the robot 10. To do. If the viewing data of the user A is simply reproduced as it is, the processing device 200 may simply stream the received viewing data to the HMD 100a of the user B as it is. An image based on the line-of-sight direction of the user B is reconstructed from the panoramic image formed based on the image data, and can be provided to the user B's HMD 100a. The audio data is streamed to user B's HMD 100a.

図15は、処理装置200の機能ブロックを示す。処理装置200は、受信部202、センサ情報取得部204、動き検出部206、視線方向決定部208、画像決定部210、音声決定部212、視聴データ提供部214、送信部216および記録部218を備える。記録部218は画像記録部220および音声記録部222を含む。受信部202が、ロボット10から送信された視聴データを受信すると、画像記録部220は、受信した画像データを順次記録し、音声記録部222は、受信した音声データを順次記録する。なお画像データは、フレーム画像ごとに、撮影時のベクトル情報および撮影時間情報を付加されている。   FIG. 15 shows functional blocks of the processing apparatus 200. The processing device 200 includes a reception unit 202, a sensor information acquisition unit 204, a motion detection unit 206, a line-of-sight direction determination unit 208, an image determination unit 210, an audio determination unit 212, a viewing data provision unit 214, a transmission unit 216, and a recording unit 218. Prepare. The recording unit 218 includes an image recording unit 220 and an audio recording unit 222. When the receiving unit 202 receives the viewing data transmitted from the robot 10, the image recording unit 220 sequentially records the received image data, and the audio recording unit 222 sequentially records the received audio data. The image data is added with vector information and shooting time information at the time of shooting for each frame image.

ユーザBは、HMD100aを通じて、処理装置200に、ユーザAの視聴データの再生指示を送信する。処理装置200は、再生指示を受け付けると、視聴データの再生処理を開始する。音声決定部212はユーザBに提供する音声データを決定し、音声記録部222に記録された音声データを、音声記録部222からただちに読み出し視聴データ提供部214に提供する。つまり音声決定部212は、ロボット10から提供される音声データを、HMD100aにストリーミング配信する。したがってユーザBは、ユーザAが聞いている音声と同じ音声をHMD100aのイヤホン104から聞くことができる。   User B transmits an instruction to reproduce viewing data of user A to processing apparatus 200 through HMD 100a. When receiving the playback instruction, the processing device 200 starts playback processing of viewing data. The audio determination unit 212 determines audio data to be provided to the user B, and immediately reads out the audio data recorded in the audio recording unit 222 from the audio recording unit 222 and provides it to the viewing data providing unit 214. That is, the sound determination unit 212 distributes the sound data provided from the robot 10 to the HMD 100a in a streaming manner. Therefore, the user B can hear the same sound as the sound that the user A is listening from the earphone 104 of the HMD 100a.

処理装置200による再生処理中、受信部202は、ユーザBが装着したHMD100aから送信されるセンサ情報を受信し、センサ情報取得部204は、受信したセンサ情報を取得する。このセンサ情報は、姿勢センサ124がHMD100aの姿勢を検出した姿勢情報である。動き検出部206は、ユーザBの頭部に装着されたHMD100aの姿勢を検出する。視線方向決定部208は、動き検出部206により検出されたHMD100aの姿勢に応じて、全天球パノラマ画像における仮想カメラの視線方向を定める。画像決定部210はユーザBに提供する画像データを決定し、画像記録部220に記録された複数の画像データを用いて、決定された視線方向に向けた仮想カメラにより撮影される画像を合成して画像データを生成する。   During the reproduction process by the processing device 200, the reception unit 202 receives sensor information transmitted from the HMD 100a worn by the user B, and the sensor information acquisition unit 204 acquires the received sensor information. This sensor information is posture information obtained by the posture sensor 124 detecting the posture of the HMD 100a. The motion detection unit 206 detects the posture of the HMD 100a mounted on the user B's head. The line-of-sight direction determination unit 208 determines the line-of-sight direction of the virtual camera in the omnidirectional panoramic image according to the attitude of the HMD 100 a detected by the motion detection unit 206. The image determination unit 210 determines image data to be provided to the user B, and uses the plurality of image data recorded in the image recording unit 220 to synthesize an image photographed by the virtual camera toward the determined line-of-sight direction. To generate image data.

視聴データ提供部214は、画像決定部210で決定された画像データと、音声決定部212で決定された音声データとを合わせた視聴データを、送信部216からユーザBのHMD100aに提供する。   The viewing data providing unit 214 provides viewing data that combines the image data determined by the image determining unit 210 and the sound data determined by the sound determining unit 212 from the transmitting unit 216 to the HMD 100a of the user B.

図15において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   In FIG. 15, each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded in the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

処理装置200は、全方位のパノラマ画像を生成する。したがってユーザBが首を左または右に回して水平方向の視線を左または右に回転させることで、左方向または右方向のパノラマ画像がHMD100aの表示パネル102に表示され、またユーザBが首を上または下に傾けて、垂直方向に視線を傾けることで、上方向または下方向のパノラマ画像がHMD100aの表示パネル102に表示されるようになる。   The processing device 200 generates an omnidirectional panoramic image. Therefore, when the user B turns his / her neck left or right and rotates the horizontal line of sight to the left or right, the panorama image in the left or right direction is displayed on the display panel 102 of the HMD 100a, and the user B By tilting up or down and tilting the line of sight in the vertical direction, a panoramic image in the upward or downward direction is displayed on the display panel 102 of the HMD 100a.

図16は、処理装置200が生成する全天球パノラマ画像を説明するための図である。この技術では、ユーザBが球体の中心に位置し、視線の方向を変更することで、見える画像が変更される仮想環境を実現する。画像決定部210は、画像記録部220に記録されている画像データをスティッチ(縫い合わせ)して、全天球パノラマ画像を生成する。   FIG. 16 is a diagram for explaining an omnidirectional panoramic image generated by the processing device 200. In this technology, a virtual environment in which a visible image is changed is realized by the user B being positioned at the center of the sphere and changing the direction of the line of sight. The image determining unit 210 stitches the image data recorded in the image recording unit 220 to generate an omnidirectional panoramic image.

実施例では、説明を単純にするためにロボット10がカメラ14をズームせず、一定の拡大率で画像データを取得する。そのため画像決定部210は、画像データに付加されたベクトル情報にもとづいて、画像データを全天球の内周面に張り合わせることで、全天球パノラマ画像を構成する。なお複数の画像データが重複する箇所については、最新の画像データで上書きし、これによりリアルタイムの状況に近い全天球パノラマ画像を構成できるようになる。   In the embodiment, for simplicity of explanation, the robot 10 does not zoom the camera 14 and acquires image data at a constant enlargement ratio. Therefore, the image determination unit 210 forms an omnidirectional panoramic image by pasting the image data onto the inner peripheral surface of the omnidirectional sphere based on the vector information added to the image data. It should be noted that a portion where a plurality of image data overlap is overwritten with the latest image data, so that an omnidirectional panoramic image close to a real-time situation can be constructed.

なお実際の画像決定部210の画像生成処理は、処理負荷を軽減するために、常に全天球パノラマ画像を再構成するのではなく、ユーザBが位置する中心点9から撮影されるフレーム画像7を動的に生成する処理となる。このとき画像決定部210は、仮想カメラ8の撮影範囲(画角)を、実際のロボット10のカメラ14の撮影範囲(画角)に対応するように設定することが好ましい。これによりユーザAの視線方向とユーザBの視線方向とが一致しているタイミングでは、ユーザBは、ユーザAと同じ画像を見られるようになる。   Note that the actual image generation processing of the image determination unit 210 does not always reconstruct the omnidirectional panoramic image in order to reduce the processing load, but the frame image 7 taken from the center point 9 where the user B is located. Is a process of dynamically generating. At this time, the image determination unit 210 preferably sets the shooting range (view angle) of the virtual camera 8 so as to correspond to the actual shooting range (view angle) of the camera 14 of the robot 10. As a result, at the timing when the line-of-sight direction of user A and the line-of-sight direction of user B match, user B can see the same image as user A.

このように画像決定部210は、画像データにメタデータとして設定されているベクトル情報を用いて、イメージスティッチング処理を実施し、ユーザBの視線方向から定まる撮影範囲のフレーム画像7を生成する。動き検出部206は、ユーザBのヘッドトラッキング処理を行うことで、ユーザBの頭部(実際にはHMD100a)の回転角度および傾きを検出する。ここでHMD100aの回転角度は、水平面の基準方向に対する回転角度であり、基準方向は、たとえばHMD100aの電源がオンされたときに向いている方向として設定されてよい。またHMD100aの傾きは、水平面に対する傾斜角度である。ヘッドトラッキング処理として既知の技術が利用されてよく、動き検出部206は、HMD100aの姿勢センサが検出したセンサ情報から、HMD100aの回転角度および傾きを検出する。   In this manner, the image determination unit 210 performs image stitching processing using the vector information set as metadata in the image data, and generates the frame image 7 in the shooting range determined from the line-of-sight direction of the user B. The motion detection unit 206 detects the rotation angle and inclination of the head of the user B (actually, the HMD 100a) by performing the head tracking process of the user B. Here, the rotation angle of the HMD 100a is a rotation angle with respect to the reference direction of the horizontal plane, and the reference direction may be set as a direction facing when the power of the HMD 100a is turned on, for example. The inclination of the HMD 100a is an inclination angle with respect to the horizontal plane. A known technique may be used as the head tracking process, and the motion detection unit 206 detects the rotation angle and inclination of the HMD 100a from the sensor information detected by the attitude sensor of the HMD 100a.

視線方向決定部208は、検出したHMD100aの回転角度および傾きにしたがって、仮想球体における仮想カメラ8の姿勢を定める。仮想カメラ8は、仮想球体の中心点9から仮想球体の内周面を撮影するように配置されており、視線方向決定部208は、仮想カメラ8の光軸の向きを、ロボット10のカメラ14の光軸方向と一致するように決定してもよい。   The line-of-sight direction determination unit 208 determines the posture of the virtual camera 8 in the virtual sphere according to the detected rotation angle and inclination of the HMD 100a. The virtual camera 8 is arranged so as to photograph the inner peripheral surface of the virtual sphere from the center point 9 of the virtual sphere, and the line-of-sight direction determination unit 208 changes the direction of the optical axis of the virtual camera 8 to the camera 14 of the robot 10. It may be determined so as to coincide with the optical axis direction.

ロボット10において、視線方向決定部66は、ユーザAのHMD100の視線方向を3次元座標のベクトル(x,y,z)として決定すると、ロボット10のカメラ14の視線方向を同じ(x,y,z)と決定してもよいことを説明した。処理装置200においても、視線方向決定部208は、ユーザBのHMD100aの視線方向を3次元座標のベクトル(x,y,z)として決定すると、仮想カメラ8の視線方向を同じ(x,y,z)と決定してもよい。また視線方向決定部66において、HMD100の視線方向を所定の変換式で補正してカメラ14の視線方向を求める場合には、視線方向決定部208においても、HMD100aの視線方向を同じ変換式で補正して仮想カメラ8の視線方向を求めてもよい。このように、それぞれの3次元座標系を取り扱うことで、ユーザAの視線方向とユーザBの視線方向とが一致しているタイミングでは、ユーザBは、ユーザAと同じ画像を見られるようになる。   In the robot 10, when the line-of-sight direction determination unit 66 determines the line-of-sight direction of the HMD 100 of the user A as a three-dimensional coordinate vector (x, y, z), the line-of-sight direction of the camera 14 of the robot 10 is the same (x, y, It was explained that z) may be determined. Also in the processing apparatus 200, when the line-of-sight direction determination unit 208 determines the line-of-sight direction of the HMD 100a of the user B as a vector (x, y, z) of three-dimensional coordinates, the line-of-sight direction of the virtual camera 8 is the same (x, y, z) may be determined. When the gaze direction determining unit 66 determines the gaze direction of the camera 14 by correcting the gaze direction of the HMD 100 with a predetermined conversion formula, the gaze direction determination unit 208 also corrects the gaze direction of the HMD 100a with the same conversion formula. Then, the line-of-sight direction of the virtual camera 8 may be obtained. In this way, by handling each three-dimensional coordinate system, the user B can see the same image as the user A at the timing when the line-of-sight direction of the user A matches the line-of-sight direction of the user B. .

画像決定部210は、仮想カメラ8のフレーム画像7を生成すると、光学レンズ用の光学歪み補正を施し、視聴データ提供部214に画像データを供給する。なお図16においては1つの仮想カメラ8が示されているが、実際には左目用と右目用の2つの仮想カメラ8が配置されて、それぞれの画像データが、ロボット10から提供される左目用画像データおよび右目用画像データにもとづいて生成される。   When the image determination unit 210 generates the frame image 7 of the virtual camera 8, the image determination unit 210 performs optical distortion correction for the optical lens, and supplies image data to the viewing data providing unit 214. In FIG. 16, one virtual camera 8 is shown. Actually, however, two virtual cameras 8 for the left eye and the right eye are arranged, and each image data is provided for the left eye provided from the robot 10. It is generated based on the image data and the right-eye image data.

図17は、画像記録部220に記録されている撮影画像データを説明するための図である。ここでは説明の便宜上、片目用の複数の画像データを示し、またユーザBの視線方向に対して適切なアフィン変換を施した状態の画像データを2次元平面上に配置している。なおユーザBの視線方向については後述する。   FIG. 17 is a diagram for describing captured image data recorded in the image recording unit 220. Here, for convenience of explanation, a plurality of image data for one eye is shown, and image data in a state in which an appropriate affine transformation is applied to the user B's line-of-sight direction is arranged on a two-dimensional plane. Note that the line-of-sight direction of the user B will be described later.

画像決定部210は、各撮影画像の重複する部分をつなぎ合わせて、全天球パノラマ画像を生成する機能をもつ。撮影画像をつなぎ合わせる技術については、たとえば同一出願人による特許第5865388号にも記載されているように既知の技術を利用してよい。以下では、画像記録部220に記録された複数の撮影画像データのうち、いずれの撮影画像データを用いるかを選択する手法について説明する。   The image determination unit 210 has a function of generating an omnidirectional panoramic image by connecting overlapping portions of the captured images. As a technique for joining photographed images, for example, a known technique may be used as described in Japanese Patent No. 5865388 by the same applicant. Hereinafter, a method for selecting which captured image data to use from among a plurality of captured image data recorded in the image recording unit 220 will be described.

図17に、5つの画像データI1〜I5を示す。各画像データに含まれる(x,y,z)は、撮影時のカメラ14の視線方向(ベクトル情報)を表現し、“t”は、撮影時間情報を表現する。ここで画像データI1は、ベクトル情報(x1,y1,z1)および撮影時間情報t1を付加情報として有する。同様に画像データI2は、ベクトル情報(x2,y2,z2)および撮影時間情報t2を付加情報として有し、画像データI3は、ベクトル情報(x3,y3,z3)および撮影時間情報t3を付加情報として有し、画像データI4は、ベクトル情報(x4,y4,z4)および撮影時間情報t4を付加情報として有し、画像データI5は、ベクトル情報(x5,y5,z5)および撮影時間情報t5を付加情報として有する。   FIG. 17 shows five image data I1 to I5. (X, y, z) included in each image data represents the viewing direction (vector information) of the camera 14 at the time of photographing, and “t” represents photographing time information. Here, the image data I1 has vector information (x1, y1, z1) and shooting time information t1 as additional information. Similarly, the image data I2 has vector information (x2, y2, z2) and shooting time information t2 as additional information, and the image data I3 has vector information (x3, y3, z3) and shooting time information t3 as additional information. The image data I4 includes vector information (x4, y4, z4) and shooting time information t4 as additional information, and the image data I5 includes vector information (x5, y5, z5) and shooting time information t5. It has as additional information.

なお付加情報である撮影時間情報t1〜t5は、撮影開始点(時間0)からの経過時間を表現し、t1<t2<t3<t4<t5の関係にある。したがって画像データI1〜I5の中では、画像データI1が最初に撮影され、画像データI5が最後に撮影されている。画像決定部210は、撮影時間情報と、視線方向決定部208が決定した仮想カメラ8の視線方向にもとづいて、合成画像を生成するための画像データを選択する。   Note that the shooting time information t1 to t5 as additional information expresses the elapsed time from the shooting start point (time 0) and has a relationship of t1 <t2 <t3 <t4 <t5. Therefore, among the image data I1 to I5, the image data I1 is photographed first and the image data I5 is photographed last. The image determination unit 210 selects image data for generating a composite image based on the shooting time information and the visual line direction of the virtual camera 8 determined by the visual line direction determination unit 208.

具体的に画像決定部210は、視線方向決定部208が決定した仮想カメラ8の視線方向、つまりHMD100aを装着したユーザBが向いている方向から、全天球パノラマ画像から切り取る撮影範囲(仮想カメラ8の画角)を定め、撮影範囲内に含まれる画像を含む画像データを、画像データに付加されたベクトル情報にもとづいて抽出する。   Specifically, the image determination unit 210 captures a shooting range (virtual camera) cut from the panoramic image from the gaze direction of the virtual camera 8 determined by the gaze direction determination unit 208, that is, the direction in which the user B wearing the HMD 100a faces. 8) and image data including an image included in the shooting range is extracted based on vector information added to the image data.

図18は、画像決定部210が生成するべきフレーム画像7と、画像データとの関係を示す図である。図17および図18において、各画像データI1〜I5は、各ベクトル情報にもとづいて、仮想カメラ8の視線方向(X,Y,Z)に直交する2次元平面上に写像されており、各画像データI1〜I5の位置は、2次元平面において4つの頂点座標で定義される。画像決定部210は、仮想カメラ8の視線方向(X,Y,Z)により、全天球パノラマ画像における仮想カメラ8の画角の位置(撮影範囲)を定め、視線方向に直交する2次元平面のフレーム画像7の4つの頂点座標を定める。画像決定部210は、画像記録部220に記録された画像データのうち、フレーム画像7に含まれる画像データを抽出する。図示されるように画像データI1〜I5は、フレーム画像7に含まれる画像を含んでいるため、仮想カメラ8の撮影範囲内に含まれる画像データとして抽出される。   FIG. 18 is a diagram illustrating the relationship between the frame image 7 to be generated by the image determination unit 210 and the image data. 17 and 18, each image data I1 to I5 is mapped on a two-dimensional plane orthogonal to the viewing direction (X, Y, Z) of the virtual camera 8 based on each vector information. The positions of the data I1 to I5 are defined by four vertex coordinates on the two-dimensional plane. The image determination unit 210 determines the position (shooting range) of the field angle of the virtual camera 8 in the panoramic image based on the line-of-sight direction (X, Y, Z) of the virtual camera 8, and is a two-dimensional plane orthogonal to the line-of-sight direction. The four vertex coordinates of the frame image 7 are determined. The image determination unit 210 extracts image data included in the frame image 7 from the image data recorded in the image recording unit 220. As illustrated, the image data I1 to I5 include images included in the frame image 7, and thus are extracted as image data included in the shooting range of the virtual camera 8.

画像決定部210は、複数の画像データが重複する領域については、遅い撮影時間情報をもつ画像データを優先して用いて合成画像を生成する。図18に示す例では、フレーム画像7に、撮影時間の早い画像データから順に、つまり画像データI1から順に書き込み、新しい画像データで順次上書きしていくようにフレーム画像7を合成する。   For an area where a plurality of image data overlaps, the image determination unit 210 generates a composite image by preferentially using image data having late shooting time information. In the example shown in FIG. 18, the frame image 7 is combined with the frame image 7 so that the image data is written in order from the image data with the earliest shooting time, that is, in order from the image data I1.

このように画像決定部210は、複数の画像データのうち重複する領域については、より現在時刻に近い撮影時間情報をもつ画像データを用いて、合成画像を生成するようにする。たとえば撮影範囲内に含まれる画像で、画像データI4と画像データI5に重複する部分が存在した場合には、より遅い撮影時間をもつ画像データI5を重複部分に埋め込む。これにより、現在時刻に近い画像データを用いて合成画像を生成できるようになり、ユーザBに対して、現在時刻に近い合成画像を提供できるようになる。   As described above, the image determination unit 210 generates a composite image using image data having shooting time information closer to the current time for overlapping regions of the plurality of image data. For example, in the image included in the shooting range, when there is an overlapping portion between the image data I4 and the image data I5, the image data I5 having a later shooting time is embedded in the overlapping portion. As a result, a composite image can be generated using image data close to the current time, and a composite image close to the current time can be provided to the user B.

この画像再生アプリケーションでは、ユーザBが向く方向によっては、画像データが不足して、フレーム画像7の生成が困難な場合がある。特にロボット10が撮影を開始した直後は、画像データ数がそもそも少ないため、画像決定部210が、ユーザBの視線方向に応じたフレーム画像7を生成できないことも生じる。実際には起こりえないが、撮影期間中、ユーザAがHMD100を全く動かさなかった場合には、画像記録部220に記録されている画像データのベクトル情報は全て同じとなるため、たとえばユーザBが、ユーザAと真逆の方向を向くと、当該視線方向の仮想カメラ8の撮影範囲内に含まれる画像データは存在しない。   In this image reproduction application, depending on the direction in which the user B is facing, image data may be insufficient and it may be difficult to generate the frame image 7. In particular, immediately after the robot 10 starts shooting, the number of image data is small in the first place, so that the image determination unit 210 may not be able to generate the frame image 7 according to the user B's line-of-sight direction. Although this cannot actually occur, if the user A does not move the HMD 100 during the shooting period, the vector information of the image data recorded in the image recording unit 220 is all the same. When facing the direction opposite to the user A, there is no image data included in the shooting range of the virtual camera 8 in the line-of-sight direction.

そのような場合、画像決定部210は、受信したユーザAの画像データに、ユーザBの視線方向の画像を生成できない旨のメッセージを重畳した画像データを生成して、視聴データ提供部214からHMD100aに提供してもよい。たとえばユーザBの視線方向の画像を所定割合(たとえば30%)以上合成できない場合に、画像決定部210は合成画像の生成を行わず、上記メッセージとともに、ユーザAが見た画像データを視聴データ提供部214に供給してもよい。   In such a case, the image determination unit 210 generates image data in which a message indicating that an image in the line-of-sight direction of the user B cannot be generated is superimposed on the received image data of the user A, and the viewing data providing unit 214 sends the image data to the HMD 100a. May be provided. For example, when the image of the user B's line-of-sight direction cannot be synthesized by a predetermined ratio (for example, 30%) or more, the image determination unit 210 does not generate a synthesized image and provides viewing data for the image data viewed by the user A together with the message It may be supplied to the unit 214.

また画像決定部210は、複数の画像データからフレーム画像7を合成するため、生成されたフレーム画像7は、つぎはぎ画像となり、視認性が悪くなる場合もある。そのため、たとえば撮影範囲内の所定割合(たとえば50%)の画像を1つの画像データから形成できない場合には、上記したように、画像決定部210は、ユーザBの視線方向の画像を生成できない旨のメッセージを、ユーザAの画像データに重畳した画像データを生成してもよい。   Further, since the image determination unit 210 synthesizes the frame image 7 from a plurality of image data, the generated frame image 7 becomes a stitched image, and visibility may be deteriorated. Therefore, for example, when an image of a predetermined ratio (for example, 50%) within the shooting range cannot be formed from one image data, as described above, the image determination unit 210 cannot generate an image in the line-of-sight direction of the user B. The image data may be generated by superimposing the above message on the image data of the user A.

上記した例では、画像決定部210が、遅い撮影時間情報をもつ画像データを優先して用いて合成画像を生成することを説明したが、より早い撮影時間情報をもつ画像データを用いることでフレーム画像7の所定割合以上を構成できる場合には、より早い撮影時間情報をもつ画像データを用いてもよい。   In the example described above, it has been described that the image determination unit 210 generates a composite image by using image data having late shooting time information preferentially. However, a frame can be generated by using image data having earlier shooting time information. When a predetermined ratio or more of the image 7 can be configured, image data having earlier shooting time information may be used.

また時間が経過すると、ロボット10の撮影している環境に変化が生じるため、過去の画像データを用いた合成画像をユーザBに提供することが好ましくないことも考えられる。そのため画像決定部210は、所定時間以上前の画像データについては、合成画像に含めないように、画像抽出処理を行ってもよい。   Further, as time elapses, the environment in which the robot 10 is shooting changes, so it may be undesirable to provide the user B with a composite image using past image data. Therefore, the image determination unit 210 may perform image extraction processing so that image data older than a predetermined time is not included in the composite image.

以上は、ユーザBが、ユーザAの視聴データをリアルタイムで利用する例を示した。以下は、その応用技術について説明する。応用技術では、処理装置200が、ユーザAの視聴データのリアルタイム再生を目的とするのではなく、二次利用を目的として視聴データを記録する。   The above shows an example in which the user B uses the viewing data of the user A in real time. The applied technology will be described below. In the applied technology, the processing device 200 records the viewing data for the secondary use, not for the purpose of real-time reproduction of the viewing data of the user A.

視聴データの二次利用のために、ロボット10において画像処理部80は、フレーム画像データのそれぞれに、撮影時間情報とベクトル情報を付加し、また音声処理部82は、音声データに、録音開始点からの経過時間を示す録音時間情報を付加する。なおカメラ14による撮影(録画)およびマイク16による録音は同じタイミングで開始されるため、撮影開始点および録音開始点は同じタイミングを示す。撮影時間情報および録音時間情報は、ロボット10におけるクロック生成部で生成された時刻情報であってよい。画像データおよび音声データに付加情報を付加する形式は何であってもよく、処理装置200が、再生用の視聴データを生成する際に参照できる形式であればよい。   For secondary use of viewing data, in the robot 10, the image processing unit 80 adds shooting time information and vector information to each of the frame image data, and the audio processing unit 82 adds the recording start point to the audio data. Recording time information indicating the elapsed time from is added. Note that since shooting (recording) by the camera 14 and recording by the microphone 16 are started at the same timing, the shooting start point and the recording start point indicate the same timing. The shooting time information and the recording time information may be time information generated by a clock generation unit in the robot 10. Any format may be used for adding the additional information to the image data and the audio data as long as the processing device 200 can refer to the viewing data for reproduction.

この応用技術では、ユーザAがロボット10の使用を終了した後、別のユーザB(ユーザAであってもよい)がHMD100aを装着して、処理装置200に記録されたユーザAの視聴データをもとに生成される画像データおよび音声データを、HMD100aに提供する。このとき実施例で説明したように、処理装置200は、ユーザAの視聴データをもとに全天球パノラマ画像を構成し、全天球パノラマ画像からユーザBの視線方向にもとづいた画像を再構成して、ユーザBのHMD100aに提供できるようにする。この利用環境では、ロボット10は使用しない。   In this applied technology, after the user A finishes using the robot 10, another user B (which may be the user A) wears the HMD 100 a and the viewing data of the user A recorded in the processing device 200 is stored. Originally generated image data and audio data are provided to the HMD 100a. At this time, as described in the embodiment, the processing device 200 constructs an omnidirectional panoramic image based on the viewing data of the user A, and regenerates an image based on the viewing direction of the user B from the omnidirectional panoramic image. It is configured so that it can be provided to the HMD 100a of the user B. In this usage environment, the robot 10 is not used.

図15を参照して、画像記録部220は、ロボット10から送信された画像データを記録しており、音声記録部222は、ロボット10から送信された音声データを記録している。この応用技術においては、画像記録部220および音声記録部222は、ロボット10からユーザAに対して送信された視聴データの全てが記録済みの状態にある。なお画像データは、撮影時間情報と、撮影時のベクトル情報とを付加されており、音声データは、録音時間情報を付加されている。   Referring to FIG. 15, the image recording unit 220 records image data transmitted from the robot 10, and the audio recording unit 222 records audio data transmitted from the robot 10. In this applied technology, the image recording unit 220 and the audio recording unit 222 are in a state where all the viewing data transmitted from the robot 10 to the user A has been recorded. The image data is added with shooting time information and vector information at the time of shooting, and the audio data is added with recording time information.

ユーザBは、HMD100aを通じて、処理装置200に、ユーザAの視聴データの再生指示を送信する。処理装置200は、再生指示を受け付けると、視聴データの再生処理を開始する。なお記録部218が1時間分の視聴データを記録している場合、ユーザBは、1時間の範囲内で、任意の時間から再生を開始できるようにしてもよい。この場合、受信部202は、ユーザBから時間指定を受け付け、画像決定部210および音声決定部212に供給する。   User B transmits an instruction to reproduce viewing data of user A to processing apparatus 200 through HMD 100a. When receiving the playback instruction, the processing device 200 starts playback processing of viewing data. Note that when the recording unit 218 records viewing data for one hour, the user B may be allowed to start playback from any time within the range of one hour. In this case, the receiving unit 202 receives time designation from the user B and supplies it to the image determining unit 210 and the sound determining unit 212.

音声決定部212は、再生開始点からの経過時間を示す再生時間情報に対応する録音時間情報をもつ音声データを、音声記録部222から読み出し、視聴データ提供部214に提供する。再生開始点は、視聴データの再生開始点を意味し、したがって撮影開始点および録音開始点と同じタイミングを示す。音声決定部212は再生時間情報に録音時間情報が一致する音声データを音声記録部222から読み出し、視聴データ提供部214に提供する。   The audio determination unit 212 reads audio data having recording time information corresponding to the reproduction time information indicating the elapsed time from the reproduction start point from the audio recording unit 222 and provides the audio data to the viewing data providing unit 214. The playback start point means a playback start point of viewing data, and therefore indicates the same timing as the shooting start point and the recording start point. The audio determination unit 212 reads out audio data whose recording time information matches the reproduction time information from the audio recording unit 222 and provides it to the viewing data providing unit 214.

処理装置200による再生処理中、受信部202は、ユーザBが装着したHMD100aから送信されるセンサ情報を受信し、センサ情報取得部204は、受信したセンサ情報を取得する。このセンサ情報は、姿勢センサ124がHMD100aの姿勢を検出した姿勢情報である。動き検出部206は、ユーザBの頭部に装着されたHMD100aの姿勢を検出する。視線方向決定部208は、動き検出部206により検出されたHMD100aの姿勢に応じて、仮想カメラの視線方向を定める。画像決定部210は、画像記録部220に記録された複数の画像データを用いて、決定された視線方向に向けた仮想カメラにより撮影される画像を合成する。視聴データ提供部214は、画像決定部210で合成された画像データと、音声決定部212で読み出された音声データとを合わせた視聴データを、送信部216からHMD100aに提供する。   During the reproduction process by the processing device 200, the reception unit 202 receives sensor information transmitted from the HMD 100a worn by the user B, and the sensor information acquisition unit 204 acquires the received sensor information. This sensor information is posture information obtained by the posture sensor 124 detecting the posture of the HMD 100a. The motion detection unit 206 detects the posture of the HMD 100a mounted on the user B's head. The line-of-sight direction determination unit 208 determines the line-of-sight direction of the virtual camera according to the posture of the HMD 100a detected by the motion detection unit 206. The image determination unit 210 uses the plurality of image data recorded in the image recording unit 220 to synthesize an image photographed by the virtual camera oriented in the determined line-of-sight direction. The viewing data providing unit 214 provides viewing data, which is a combination of the image data combined by the image determining unit 210 and the audio data read by the audio determining unit 212, from the transmitting unit 216 to the HMD 100a.

画像決定部210は、ユーザBによる視聴データの再生時間以前にユーザAが見た画像をスティッチ(縫い合わせ)して、ユーザBが位置する中心点9から撮影されるフレーム画像7を動的に生成する。   The image determination unit 210 stitches the images viewed by the user A before the reproduction time of the viewing data by the user B, and dynamically generates a frame image 7 photographed from the center point 9 where the user B is located. To do.

ユーザBによる視聴データの再生時間以前にユーザAが見た画像について説明する。画像記録部220に、撮影開始点から1時間分の画像データが記録されている場合、ユーザBによる再生開始点からの再生時間は、1時間以内のどこかのタイミングで特定される。たとえば再生時間が再生開始から15分のタイミングである場合、15分以内の撮影時間情報が付加された画像、つまり撮影開始点から15分が経過するまでに撮影された画像が、再生時間以前にユーザAが見た画像となる。つまり再生開始から15分の時点を再生しているのであれば、画像決定部210は、撮影開始から15分以内の撮影時間情報が付加された画像データを用いてフレーム画像7を生成し、再生開始から45分の時点を再生しているのであれば、画像決定部210は、撮影開始から45分以内の撮影時間情報が付加された画像データを用いてフレーム画像7を生成する。   An image viewed by the user A before the viewing data playback time by the user B will be described. When image data for one hour from the shooting start point is recorded in the image recording unit 220, the playback time from the playback start point by the user B is specified at some timing within one hour. For example, if the playback time is 15 minutes from the start of playback, an image to which shooting time information within 15 minutes has been added, that is, an image shot until 15 minutes have passed since the start of shooting is displayed before the playback time. The image viewed by the user A is displayed. That is, if the playback is performed at the time point of 15 minutes from the start of playback, the image determination unit 210 generates the frame image 7 using the image data to which shooting time information within 15 minutes from the start of shooting is added, and plays back. If the time point of 45 minutes from the start is being played back, the image determination unit 210 generates the frame image 7 using image data to which shooting time information within 45 minutes from the start of shooting is added.

図18を参照して、画像決定部210は、再生時間情報以前の撮影時間情報を付加された画像データを抽出するようにし、再生時間情報よりも後の撮影時間情報を付加された画像データを抽出しないようにする。たとえば、フレーム画像7を再生する時間情報が時間t3より後であって、時間t4より前であれば、画像決定部210は、画像データI1〜I3を抽出し、画像データI4、I5は抽出しない。このように、再生時間情報以前の撮影時間情報を付加された画像データを用いて合成画像を生成することで、画像決定部210は、再生時間よりも後に撮影された画像をユーザBに見せないようにする。   Referring to FIG. 18, the image determination unit 210 extracts image data to which shooting time information before the playback time information is added, and extracts image data to which shooting time information after the playback time information is added. Do not extract. For example, if the time information for reproducing the frame image 7 is after the time t3 and before the time t4, the image determination unit 210 extracts the image data I1 to I3 and does not extract the image data I4 and I5. . As described above, by generating a composite image using image data to which shooting time information before playback time information is added, the image determination unit 210 does not show the user B an image shot after the playback time. Like that.

視聴データ提供部214は、再生時間に対応する録音時間情報をもつ音声データをHMD100aに送信しているため、ユーザBは、再生時間に同期した音声を聞いている。そのため再生時間以前の状況については概ね承知しており、提供される画像データが再生時間以前の画像データから合成されたものであれば、どのような状況が表示されているかを把握できる。しかしながら提供される画像データが、再生時間より後の画像データから合成されていれば、ユーザBは承知していない画像を見せられることになり、ユーザBを混乱させることが予想される。そこで画像決定部210は、再生時間よりも後に撮影された画像をユーザBに見せないようにする。   Since the viewing data providing unit 214 transmits audio data having recording time information corresponding to the reproduction time to the HMD 100a, the user B is listening to audio synchronized with the reproduction time. Therefore, the situation before the reproduction time is generally known, and if the provided image data is synthesized from the image data before the reproduction time, it is possible to grasp what kind of situation is displayed. However, if the provided image data is synthesized from image data after the reproduction time, the user B will be shown an image that he / she does not know, and it is expected that the user B will be confused. Therefore, the image determination unit 210 prevents the user B from seeing an image taken after the reproduction time.

なお画像決定部210は、複数の画像データのうち重複する部分については、再生時間情報に近い撮影時間情報をもつ画像データを用いて、合成画像を生成するようにする。たとえば撮影範囲内に含まれる画像で、画像データI1と画像データI2に重複する部分が存在した場合には、より後に撮影された画像データI2を重複部分に埋め込む。これにより、再生時間情報に近い画像データを用いて合成画像を生成できるようになり、ユーザBには、再生時間の直近の画像データから合成した画像を提供できるようになる。   Note that the image determination unit 210 generates a composite image by using image data having shooting time information close to reproduction time information for overlapping portions of the plurality of image data. For example, in the case where an image included in the imaging range includes an overlapping portion between the image data I1 and the image data I2, the image data I2 captured later is embedded in the overlapping portion. As a result, a composite image can be generated using image data close to the reproduction time information, and an image synthesized from image data with the latest reproduction time can be provided to the user B.

以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. It is to be understood by those skilled in the art that the embodiments are exemplifications, and that various modifications can be made to combinations of the respective components and processing processes, and such modifications are within the scope of the present invention.

実施例では、画像決定部210が、イメージスティッチング処理を実施し、ユーザBの視線方向から定まる撮影範囲のフレーム画像7を生成することを説明した。変形例では、イメージスティッチング処理を実施することなく、画像決定部210が、仮想カメラ8の視線方向と、画像記録部220に記録された画像データに付加されたベクトル情報とにもとづいて、ユーザBに提供する画像データを決定する。   In the embodiment, it has been described that the image determination unit 210 performs the image stitching process and generates the frame image 7 in the shooting range determined from the user B's line-of-sight direction. In the modification, the image determination unit 210 performs the user based on the line-of-sight direction of the virtual camera 8 and the vector information added to the image data recorded in the image recording unit 220 without performing the image stitching process. The image data to be provided to B is determined.

この変形例で画像決定部210は、仮想カメラ8の視線方向に対応するベクトル情報を付加された画像データを、ユーザBに提供する画像データとして決定する。仮想カメラ8の視線方向に対応するベクトル情報とは、仮想カメラ8の視線方向と一致するベクトル情報、および仮想カメラ8の視線方向と実質的に一致するとみなせるベクトル情報を含む。具体的には、仮想カメラ8の視線方向とベクトル情報とが所定の角度以内(たとえば10度)にある場合に、画像決定部210は、仮想カメラ8の視線方向とベクトル情報とが実質的に一致することを判定してもよい。   In this modification, the image determination unit 210 determines the image data to which the vector information corresponding to the viewing direction of the virtual camera 8 is added as the image data to be provided to the user B. The vector information corresponding to the line-of-sight direction of the virtual camera 8 includes vector information that matches the line-of-sight direction of the virtual camera 8 and vector information that can be considered to substantially match the line-of-sight direction of the virtual camera 8. Specifically, when the visual line direction of the virtual camera 8 and the vector information are within a predetermined angle (for example, 10 degrees), the image determination unit 210 substantially determines that the visual line direction of the virtual camera 8 and the vector information are substantially the same. It may be determined that they match.

ユーザAの視聴データを同期再生する場合、画像決定部210は、仮想カメラ8の視線方向に対応するベクトル情報を付加された画像データのうち、最も遅い撮影時間情報をもつ画像データを、ユーザBに提供する画像データとして決定する。これによりユーザBに対して、現在時刻に近い画像を提供できるようになる。   When synchronously reproducing the viewing data of the user A, the image determination unit 210 converts the image data having the latest shooting time information from among the image data to which the vector information corresponding to the line-of-sight direction of the virtual camera 8 is added. Determined as image data to be provided. As a result, an image close to the current time can be provided to the user B.

仮想カメラ8の視線方向に対応するベクトル情報を付加された画像データが画像記録部220に記録されていない場合、画像決定部210は、高さ方向(z軸方向)の成分を除いた(x、y)成分が実質的に一致するとみなせるベクトル情報を付加された画像データを、ユーザBに提供する画像データとして決定してもよい。一致するとみなせるベクトル情報とは、(x、y)成分が所定角度以内(たとえば7度)の範囲にあるベクトル情報である。(x、y)成分のみの近似をみることで、画像決定部210は、仮想カメラ8の視線方向に対応するベクトル情報を付加された画像データを見つけやすくし、これによりユーザBに画像データを提供できない事態を回避できるようになる。   When the image data to which the vector information corresponding to the line-of-sight direction of the virtual camera 8 is not recorded in the image recording unit 220, the image determination unit 210 removes the component in the height direction (z-axis direction) (x , Y) Image data to which vector information that can be regarded as substantially matching components may be determined as image data to be provided to the user B. The vector information that can be regarded as matching is vector information in which the (x, y) component is within a predetermined angle (for example, 7 degrees). By looking at the approximation of only the (x, y) component, the image determination unit 210 makes it easy to find the image data to which the vector information corresponding to the line-of-sight direction of the virtual camera 8 is added. It will be possible to avoid situations that cannot be provided.

ユーザAの視聴データを二次利用する場合、画像決定部210は、ユーザBによる視聴データの再生時間以前にユーザAが見た画像から、ユーザBに提供する画像データを決定する。つまり画像決定部210は、再生時間情報以前の撮影時間情報を付加された画像データの中から、仮想カメラ8の視線方向に対応するベクトル情報を付加された画像データを決定する。このとき、該当する画像データが複数存在すれば、画像決定部210は、再生時間情報に近い撮影時間情報をもつ画像データを選択することが好ましい。   When the user A's viewing data is secondarily used, the image determination unit 210 determines image data to be provided to the user B from images viewed by the user A before the playback time of the viewing data by the user B. That is, the image determination unit 210 determines image data to which vector information corresponding to the line-of-sight direction of the virtual camera 8 is added from among image data to which shooting time information before reproduction time information is added. At this time, when there are a plurality of corresponding image data, the image determination unit 210 preferably selects image data having shooting time information close to reproduction time information.

なおユーザAが横方向に首を回したときの画像データが画像記録部220に記録されているケースを検討する。ユーザBがユーザAから少し遅れて、ユーザAと逆方向に首を回すと、HMD100aに、ユーザAが見た画像が逆再生されることが生じうる。この場合、画像データの時系列が逆転することになり、ユーザBに違和感を生じさせる可能性がある。そのためユーザBが連続的に視線方向を変化させる際に、ユーザAの画像データを逆再生させることになる場合には、画像決定部210は、画像データを固定して、提供する画像データを変化させないようにしてもよい。   A case where image data when the user A turns his / her neck in the horizontal direction is recorded in the image recording unit 220 will be considered. When the user B is slightly delayed from the user A and turns his head in the opposite direction to the user A, an image viewed by the user A may be reversely reproduced on the HMD 100a. In this case, the time series of the image data is reversed, which may cause the user B to feel uncomfortable. Therefore, when the user B continuously changes the line-of-sight direction, when the image data of the user A is reversely reproduced, the image determination unit 210 fixes the image data and changes the provided image data. It may not be allowed to.

情報処理システム1の有用性を高めるために、ロボット10は、触覚センサや振動センサなど、外部からの入力を受け付ける入力センサをさらに備えてもよい。図10に示す機能ブロックにおいて、入力センサは、出力系統24に設けられ、入力センサのセンサ情報は、送信部90からHMD100に送信される。HMD100は、センサ情報を出力する出力手段を備え、センサ情報を振動などに変換してユーザAに伝達してもよい。   In order to enhance the usefulness of the information processing system 1, the robot 10 may further include an input sensor that accepts an external input, such as a tactile sensor or a vibration sensor. In the functional block shown in FIG. 10, the input sensor is provided in the output system 24, and sensor information of the input sensor is transmitted from the transmission unit 90 to the HMD 100. The HMD 100 may include an output unit that outputs sensor information, and may convert the sensor information into vibration or the like and transmit it to the user A.

また情報処理システム1では、ロボット10が、ユーザAの首の動きに筐体20を連動させることを説明したが、さらにユーザAの表情などの状態を伝達する手段を有してもよい。たとえばHMD100は、装着したユーザAの目や眉の動きを検出するセンサや、声の調子を解析する手段などを備える。目や眉の動きは、ユーザの表情や感情を表現するものであり、また声の調子は、ユーザの心理状態や感情を表現する。目や眉の動きおよび/または声の調子に関する状態情報は、HMD100からロボット10に送信され、ロボット10は、筐体20に設けた表情ユニットを駆動して、ユーザAの表情や感情などを再現してもよい。表情ユニットは、筐体20の前面においてカメラ14の上部に形成した可動部材(たとえば眉の形状を模したもの)であってよく、HMD100から送信された情報をもとに、可動部材が駆動される。なおカメラ14の上部にて回転自在に取り付けられた保護カバー19を人の眉を模した表情ユニットとして利用してもよく、筐体20内に保護カバー19を動かすモータを設けて、保護カバー19を動かしてもよい。また表情ユニットは、ユーザAの表情や心理状態を色で表現するディスプレイであってよく、表示色を変化させることで、ユーザAの表情や感情を表現してもよい。   In the information processing system 1, it has been described that the robot 10 interlocks the housing 20 with the movement of the neck of the user A. However, the robot 10 may further include means for transmitting a state such as the facial expression of the user A. For example, the HMD 100 includes a sensor that detects the movement of the user A's eyes and eyebrows, a means for analyzing the tone of the voice, and the like. The movements of the eyes and eyebrows express the user's facial expressions and emotions, and the tone of the voice expresses the user's psychological state and emotions. The state information regarding the movement of the eyes and eyebrows and / or the tone of the voice is transmitted from the HMD 100 to the robot 10, and the robot 10 drives the facial expression unit provided in the housing 20 to reproduce the facial expression and emotion of the user A. May be. The facial expression unit may be a movable member (for example, imitating the shape of an eyebrow) formed on the upper surface of the camera 14 on the front surface of the housing 20, and the movable member is driven based on information transmitted from the HMD 100. The The protective cover 19 that is rotatably attached to the upper part of the camera 14 may be used as an expression unit imitating a human eyebrow. A motor that moves the protective cover 19 is provided in the housing 20, and the protective cover 19 is provided. You may move. The facial expression unit may be a display that expresses the facial expression and psychological state of the user A with colors, and may express the facial expression and emotion of the user A by changing the display color.

以下、ロボット10に設ける可動部材について説明する。上記したように可動部材は、ロボット10の表情を作り出すために設けられる。可動部材は、HMD100を装着しているユーザAの表情や感情を表現するように動作制御されてよいが、筐体20の姿勢にもとづいて動作制御されてもよい。ロボット10が筐体20を動かすだけでなく、筐体20に取り付けられた可動部材も動かすことで、ロボット10の周囲にいる人に、ロボット10がユーザAであるかのような感覚を提供する。   Hereinafter, the movable member provided in the robot 10 will be described. As described above, the movable member is provided to create the facial expression of the robot 10. The movement of the movable member may be controlled so as to express the facial expression and emotion of the user A wearing the HMD 100, but may be controlled based on the attitude of the housing 20. The robot 10 not only moves the housing 20 but also moves the movable member attached to the housing 20 to provide a person around the robot 10 as if the robot 10 is the user A. .

これまで説明してきたように、筐体20はアクチュエータ装置12により姿勢を変更可能とされ、アクチュエータ装置12は、ユーザAが装着しているHMD100の動きに筐体20の姿勢を連動させる。筐体20およびアクチュエータ装置12はロボット10を構成し、このうち筐体20はロボット10の顔を構成する。ここで「ロボットの顔を構成する」とは、ロボット10の周囲にいる人がロボット10を見たときに、筐体20が顔であると認識できるように筐体20を形成することである。顔と認識されるためのポイントは、筐体20がロボット10の最上部に位置して人間の目に対応するカメラ14を備え、また筐体20の姿勢がユーザの首の動きに連動することであり、これらのポイントをおさえることで、筐体20がロボット10の顔として認識される。   As described so far, the posture of the housing 20 can be changed by the actuator device 12, and the actuator device 12 interlocks the posture of the housing 20 with the movement of the HMD 100 worn by the user A. The housing 20 and the actuator device 12 constitute the robot 10, and the housing 20 constitutes the face of the robot 10. Here, “to configure the face of the robot” is to form the casing 20 so that when a person around the robot 10 looks at the robot 10, the casing 20 can be recognized as a face. . The point to be recognized as a face is that the housing 20 is located at the top of the robot 10 and includes the camera 14 corresponding to the human eye, and the posture of the housing 20 is linked to the movement of the user's neck. By holding these points, the housing 20 is recognized as the face of the robot 10.

図19(a)は筐体20の前面の概略構造を示し、図19(b)は筐体20の上面の概略構造を示す。筐体20は、カメラ14のレンズを露出させる前板、前板に連接して挿通部材42を取り付けられる底板、底板に連接して前板に対向する後板17、後板17と前板に連接して底板に対向する上板とを備え、さらに前板、底板、後板17および上板の両端側を塞ぐ一対の側板とを備える。なお図9などにおいて、後板17が後方に突出している様子を示しているが、後板17の形状はこれからの説明に特に関係しないため、図19(a)および(b)では筐体20が横方向に長い直方体を有するように示している。なお図19(a)の前面概略構造は、前板を外した状態を示し、図19(b)の上面概略構造は、上板を外した状態を示しており、スピーカ18の図示、およびカメラ14、マイク16、駆動モータ142の電力線および制御信号線を含む配線の図示は省略している。   FIG. 19A shows a schematic structure of the front surface of the housing 20, and FIG. 19B shows a schematic structure of the top surface of the housing 20. The housing 20 includes a front plate that exposes the lens of the camera 14, a bottom plate that is connected to the front plate and to which the insertion member 42 is attached, a rear plate 17 that is connected to the bottom plate and faces the front plate, and the rear plate 17 and the front plate. And an upper plate that is connected to face the bottom plate, and further includes a front plate, a bottom plate, a rear plate 17 and a pair of side plates that close both ends of the upper plate. 9 and the like show a state in which the rear plate 17 protrudes rearward. However, since the shape of the rear plate 17 is not particularly related to the following description, the housing 20 is shown in FIGS. 19 (a) and 19 (b). Is shown as having a rectangular parallelepiped that is long in the lateral direction. 19A shows a state in which the front plate is removed, and a schematic top view in FIG. 19B shows a state in which the upper plate has been removed. 14, the wiring including the microphone 16 and the power line and the control signal line of the drive motor 142 are not shown.

筐体20の内部には、各種部品を固定するための構造が設けられる。マイク収納部11a、11bは側板内壁に設けられて、それぞれ右マイク16a、左マイク16bを収納するための空間を形成する。マイク収納部11a、11bには、右マイク16a、左マイク16bが前方から差し込まれて固定される。右カメラ14a、左カメラ14bは、後板17の内壁から前方に向けて突設されるカメラ支持部13にネジ15で固定される。右カメラ14aと左カメラ14bの間にはモータ固定部140が形成され、駆動モータ142がモータ固定部140に固定される。   A structure for fixing various components is provided in the housing 20. The microphone storage portions 11a and 11b are provided on the inner walls of the side plates and form spaces for storing the right microphone 16a and the left microphone 16b, respectively. The right microphone 16a and the left microphone 16b are inserted and fixed to the microphone storage portions 11a and 11b from the front. The right camera 14a and the left camera 14b are fixed with screws 15 to a camera support portion 13 that protrudes forward from the inner wall of the rear plate 17. A motor fixing unit 140 is formed between the right camera 14 a and the left camera 14 b, and the drive motor 142 is fixed to the motor fixing unit 140.

可動部材である保護カバー19は矩形状の板部材であって、筐体20に動作可能に支持される。保護カバー19は、長手方向の両端に内向きに突設された回転軸19a、19bを有する。筐体20の一対の側板上部の前縁近傍には、それぞれ軸穴が形成されており、回転軸19aが右側板の軸穴に挿入され、回転軸19bが左側板の軸穴に挿入されて、保護カバー19が筐体20に回転可能に支持される。   The protective cover 19, which is a movable member, is a rectangular plate member and is operably supported by the housing 20. The protective cover 19 has rotating shafts 19a and 19b projecting inward at both ends in the longitudinal direction. Shaft holes are formed in the vicinity of the front edges of the upper portions of the pair of side plates of the housing 20, the rotation shaft 19a is inserted into the shaft hole of the right side plate, and the rotation shaft 19b is inserted into the shaft hole of the left side plate. The protective cover 19 is rotatably supported by the housing 20.

回転軸19aおよび回転軸19bの少なくとも一方は、側板内壁を越えて筐体内部まで挿入され、筐体内部で駆動モータ142のモータ軸142aに連結されるようにする。図19(a)および(b)では、回転軸19a、19bの双方が筐体側板内壁よりも内側まで進入しており、このうち回転軸19bが伝達部材144の一端に固定されている。   At least one of the rotation shaft 19a and the rotation shaft 19b is inserted into the housing beyond the inner wall of the side plate, and is connected to the motor shaft 142a of the drive motor 142 inside the housing. In FIGS. 19A and 19B, both of the rotation shafts 19a and 19b have entered the inner side of the inner wall of the housing side plate, and the rotation shaft 19b is fixed to one end of the transmission member 144.

伝達部材144は、駆動モータ142の回転を、可動部材である保護カバー19に伝達する部材である。伝達部材144の一端は回転軸19bに固定され、他端は駆動モータ142のモータ軸142aに固定される。なお伝達部材144の他端は、モータ軸142aに直結されてもよいが、モータ回転を減速する減速機構の出力軸に固定されてもよい。保護カバー19は、伝達部材144により駆動モータ142に連結されて、カメラ14を保護する閉位置と、それ以外の位置との間で動かされるようになる。ロボット10の電源オフ中、保護カバー19はカメラ14を保護し、一方で電源オン中は保護カバー19が表情ユニットとして動作することで、保護カバー19の有効利用が実現される。   The transmission member 144 is a member that transmits the rotation of the drive motor 142 to the protective cover 19 that is a movable member. One end of the transmission member 144 is fixed to the rotary shaft 19 b, and the other end is fixed to the motor shaft 142 a of the drive motor 142. The other end of the transmission member 144 may be directly connected to the motor shaft 142a, but may be fixed to an output shaft of a speed reduction mechanism that decelerates motor rotation. The protective cover 19 is connected to the drive motor 142 by the transmission member 144 and is moved between a closed position for protecting the camera 14 and other positions. The protective cover 19 protects the camera 14 while the power of the robot 10 is turned off. On the other hand, the protective cover 19 operates as an expression unit while the power is turned on, so that the protective cover 19 can be effectively used.

ここで伝達部材144は、ねじり弾性変形する部材として形成される。この例で伝達部材144はコイルばねであり、モータ軸142aの回転入力を、コイルばねがねじられることで時間的に遅延させて回転軸19bに回転出力する。なおコイルばねに生じたねじりは復元力となり、モータ軸142aの回転入力から遅れて、ねじりを解消する方向にコイルばねを回転させる。   Here, the transmission member 144 is formed as a member that undergoes torsional elastic deformation. In this example, the transmission member 144 is a coil spring, and the rotation input of the motor shaft 142a is delayed in time by the coil spring being twisted and rotated and output to the rotation shaft 19b. The torsion generated in the coil spring becomes a restoring force, and is delayed from the rotation input of the motor shaft 142a to rotate the coil spring in a direction to cancel the torsion.

また伝達部材144は、軸方向に対して曲げ弾性を有することが好ましい。図示されるように筐体20の内部には様々な部品が収容されるため、駆動モータ142を配置するスペースは限定される。伝達部材144が軸方向に対して曲げ弾性を有することで、モータ軸142aと回転軸19bとが同一軸線上になくても、伝達部材144が軸方向に曲げられた状態で両者を連結できる。図19(a)および(b)には、伝達部材144が、モータ軸142aと回転軸19bの軸ズレを吸収するように、曲げられた状態で両者を連結している様子が示される。   Moreover, it is preferable that the transmission member 144 has bending elasticity with respect to the axial direction. As shown in the drawing, since various components are accommodated in the housing 20, the space for arranging the drive motor 142 is limited. Since the transmission member 144 has bending elasticity with respect to the axial direction, even if the motor shaft 142a and the rotation shaft 19b are not on the same axis, the transmission member 144 can be coupled in a state where the transmission member 144 is bent in the axial direction. FIGS. 19A and 19B show a state in which the transmission member 144 connects the motor shaft 142a and the rotating shaft 19b in a bent state so as to absorb the misalignment between the motor shaft 142a and the rotating shaft 19b.

ねじり弾性を有する伝達部材144を採用する理由は、モータ軸142aの回転に対して回転軸19bの回転を遅延させることにある。後述するように駆動モータ142は、筐体20の姿勢やユーザの感情情報等に応じて保護カバー19を駆動するが、保護カバー19は、ロボットの顔の目(カメラ14)の上にある、いわば眉のような存在となる。保護カバー19が高速でパタパタと往復動を行うと、周囲の人から見て忙しない動きに感じられ、また人間の眉の動きとも違うため、表情ユニットの動きとして理想的ではない。   The reason for adopting the transmission member 144 having torsional elasticity is to delay the rotation of the rotating shaft 19b with respect to the rotation of the motor shaft 142a. As will be described later, the drive motor 142 drives the protective cover 19 according to the posture of the housing 20 and the emotion information of the user, etc., but the protective cover 19 is on the eyes of the robot (camera 14). It becomes like an eyebrow. When the protective cover 19 reciprocates at high speed, the movement of the facial expression unit is not ideal because it feels unsatisfactory as seen by the surrounding people and is different from the movement of the human eyebrows.

駆動モータ142の回転をソフトウェアで演算制御して、回転加速度を緩やかに制限するフィルタ処理を行うことも可能であるが、演算器の負荷が大きくなることは避けられない。そこで、ねじり弾性変形する伝達部材144を用いて駆動モータ142の回転を保護カバー19の回転軸19bに伝達することで、ソフト演算を行うことなく自然に伝達応答を遅らせて、保護カバー19の高速な動きを抑制することが可能となる。   Although it is possible to perform filter processing for gently limiting the rotation acceleration by calculating and controlling the rotation of the drive motor 142 with software, it is inevitable that the load on the calculator increases. Therefore, by transmitting the rotation of the drive motor 142 to the rotating shaft 19b of the protective cover 19 using the transmission member 144 that is torsionally elastically deformed, the transmission response is naturally delayed without performing a soft calculation, and the high speed of the protective cover 19 is achieved. Can be suppressed.

伝達部材144のねじり剛性が高いと回転軸19bへの伝達応答遅れが生じにくくなるため、ねじり剛性は低く設定されることが好ましいが、実際に伝達部材144に生じるねじれ量は、保護カバー19の重量にも依存する。そこで応答遅れを大きくするために、保護カバー19の重量を重くしてもよい。現在、様々な特性をもつコイルばねが販売されているため、伝達部材144をコイルばねとすることはコストの観点から有利であるが、たとえば伝達部材144は、ゴム材料で形成した中実の棒状部材としてもよい。ゴム材料で伝達部材144を形成することで、ねじり弾性および曲げ弾性を持たせることができる。   If the torsional rigidity of the transmission member 144 is high, it is difficult to cause a delay in transmission response to the rotating shaft 19b. Therefore, it is preferable to set the torsional rigidity low. Also depends on weight. Therefore, in order to increase the response delay, the weight of the protective cover 19 may be increased. Currently, coil springs having various characteristics are on the market, and it is advantageous from the viewpoint of cost to use the transmission member 144 as a coil spring. For example, the transmission member 144 is a solid rod-shaped member made of a rubber material. It is good also as a member. By forming the transmission member 144 from a rubber material, it is possible to provide torsional elasticity and bending elasticity.

図20は、ロボット10における入力系統22の機能ブロックを示す。なお図20に示す機能ブロックは、図10に示す入力系統22に追加されるものであり、図20には、保護カバー19を駆動制御するための構成のみを示している。入力系統22は、受信部60、アクチュエータ制御部68、状態情報取得部74、駆動制御部76および動作テーブル78を備える。   FIG. 20 shows functional blocks of the input system 22 in the robot 10. The functional blocks shown in FIG. 20 are added to the input system 22 shown in FIG. 10, and FIG. 20 shows only the configuration for driving and controlling the protective cover 19. The input system 22 includes a receiving unit 60, an actuator control unit 68, a state information acquisition unit 74, a drive control unit 76, and an operation table 78.

図20において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   In FIG. 20, each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded into the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

以下、保護カバー19の制御手法の例について説明する。まず前提として、ロボット10の電源がオンされると、アクチュエータ制御部68が、第1円弧状アーム32と第2円弧状アーム34とを台座30に対して90度起立した状態となるように、第1モータ52および第2モータ54を駆動する。このときの筐体20の姿勢を基準姿勢として、第1モータ52の回転角φx、第2モータ54の回転角φy、第3モータ56の回転角φzを基準値(たとえば0)にセットする。つまり基準姿勢において、(φx,φy,φz)が(0,0,0)とセットされる。   Hereinafter, an example of a control method of the protective cover 19 will be described. First, as a premise, when the power supply of the robot 10 is turned on, the actuator control unit 68 stands up 90 degrees with respect to the base 30 with respect to the first arcuate arm 32 and the second arcuate arm 34. The first motor 52 and the second motor 54 are driven. The rotation angle φx of the first motor 52, the rotation angle φy of the second motor 54, and the rotation angle φz of the third motor 56 are set to reference values (for example, 0), with the posture of the housing 20 at this time as a reference posture. That is, (φx, φy, φz) is set to (0, 0, 0) in the reference posture.

図21(a)〜(c)は筐体側板と保護カバー19との位置関係を示す。
ロボット10の電源がオフの間、保護カバー19は、カメラ14を保護する閉位置に配置されている。図21(a)は、保護カバー19が筐体20の前面を覆い、カメラ14を保護している状態を示す。
21A to 21C show the positional relationship between the housing side plate and the protective cover 19.
While the power of the robot 10 is off, the protective cover 19 is disposed at a closed position that protects the camera 14. FIG. 21A shows a state in which the protective cover 19 covers the front surface of the housing 20 and protects the camera 14.

ロボット10の電源がオンされると、駆動制御部76は駆動モータ142の回転を制御して、保護カバー19を動作初期位置まで動かす。動作初期位置は、保護カバー19を閉位置から90度上向きに回転させた位置である。図21(b)は、保護カバー19が動作初期位置に動かされた状態を示す。保護カバー19が動作初期位置に動くことで、カメラ14が正面方向を撮像できるようになる。なお動作初期位置は、カメラ14の視野角に入らない位置に設定されてもよい。   When the power supply of the robot 10 is turned on, the drive control unit 76 controls the rotation of the drive motor 142 to move the protective cover 19 to the initial operation position. The initial operation position is a position where the protective cover 19 is rotated 90 degrees upward from the closed position. FIG. 21B shows a state where the protective cover 19 has been moved to the initial operation position. When the protective cover 19 moves to the initial operation position, the camera 14 can capture the front direction. Note that the initial operation position may be set to a position that does not fall within the viewing angle of the camera 14.

ロボット10の電源オン後は、保護カバー19が、動作初期位置から動作最大位置の間で動作可能であるが、閉位置から動作最大位置の間で動作可能であってもよい。
図21(c)は、保護カバー19が動作最大位置に動かされた状態を示す。動作最大位置は、保護カバー19と筐体上板とが接触する保護カバー19の回転制限位置に設定されてもよいが、その手前に設定されてもよい。
After the power of the robot 10 is turned on, the protective cover 19 is operable between the initial operation position and the maximum operation position, but may be operable between the closed position and the maximum operation position.
FIG. 21C shows a state where the protective cover 19 has been moved to the maximum operating position. The maximum operation position may be set at a rotation limit position of the protective cover 19 where the protective cover 19 and the upper plate of the casing come into contact, or may be set before that.

以下、アクチュエータ装置12により定められる筐体20の姿勢にもとづいて、駆動モータ142の回転を制御する手法について説明する。
アクチュエータ制御部68は、HMD100からのセンサ情報にしたがって、第1モータ52、第2モータ54、第3モータ56のそれぞれの回転角を制御する。アクチュエータ制御部68は、筐体20の姿勢を示す回転角情報(φx,φy,φz)を駆動制御部76に提供し、駆動制御部76は、回転角情報(φx,φy,φz)を用いて、駆動モータ142の回転を制御する。
Hereinafter, a method for controlling the rotation of the drive motor 142 based on the attitude of the housing 20 determined by the actuator device 12 will be described.
The actuator control unit 68 controls the rotation angles of the first motor 52, the second motor 54, and the third motor 56 according to the sensor information from the HMD 100. The actuator control unit 68 provides rotation angle information (φx, φy, φz) indicating the attitude of the housing 20 to the drive control unit 76, and the drive control unit 76 uses the rotation angle information (φx, φy, φz). Thus, the rotation of the drive motor 142 is controlled.

具体的に駆動制御部76は、以下の計算式にしたがって、駆動モータ142の回転角Φを求める。なお動作初期位置の回転角Φを0とする。
Φ=a×|φx|+b×|φy|+c×|φz|
ここで|φx|、|φy|、|φz|は、回転角の絶対値を表現する。a、b、cは、各回転角に対する重み係数であり、重み係数を適宜設定することで、保護カバー19の動作特性を好みに応じて定められる。
Specifically, the drive control unit 76 obtains the rotation angle Φ of the drive motor 142 according to the following calculation formula. The rotation angle Φ at the initial operation position is set to zero.
Φ = a × | φx | + b × | φy | + c × | φz |
Here, | φx |, | φy |, and | φz | express the absolute value of the rotation angle. “a”, “b”, and “c” are weighting coefficients for the respective rotation angles, and the operating characteristics of the protective cover 19 are determined according to preference by appropriately setting the weighting coefficients.

駆動制御部76が、回転角情報(φx,φy,φz)にもとづいて回転角Φを演算し、駆動モータ142の回転角がΦとなるように駆動モータ142に電力を供給することで、筐体20の姿勢に連動した保護カバー19の挙動を実現できる。   The drive control unit 76 calculates the rotation angle Φ based on the rotation angle information (φx, φy, φz), and supplies power to the drive motor 142 so that the rotation angle of the drive motor 142 becomes Φ. The behavior of the protective cover 19 linked to the posture of the body 20 can be realized.

筐体20の姿勢にもとづく回転制御手法の別の例を示す。
上記例では、保護カバー19の挙動を筐体20の姿勢に連動させたが、たとえば筐体20の姿勢が所定時間変動しない場合に、保護カバー19を起立させるような制御を行ってもよい。筐体20の姿勢が変動しないとき、ユーザAが何らかの対象に集中し、凝視している状況が想定される。このとき駆動制御部76は保護カバー19を起立させるように駆動モータ142を制御する。なおロボット10の周囲にいる人は、保護カバー19が起立することが、ユーザAが集中していることを表現していることを事前に知っていることが好ましい。このように筐体20の姿勢からユーザAの集中している状況を推測することで、ユーザAの状況を保護カバー19の動作で表現できるようになる。
Another example of the rotation control method based on the attitude of the housing 20 will be shown.
In the above example, the behavior of the protective cover 19 is linked to the posture of the housing 20. However, for example, when the posture of the housing 20 does not fluctuate for a predetermined time, control may be performed such that the protective cover 19 is raised. When the posture of the housing 20 does not change, it is assumed that the user A is concentrating on some object and staring. At this time, the drive control unit 76 controls the drive motor 142 so that the protective cover 19 is raised. In addition, it is preferable that the person around the robot 10 knows in advance that the standing of the protective cover 19 expresses that the user A is concentrated. Thus, by estimating the situation where the user A is concentrated from the attitude of the housing 20, the situation of the user A can be expressed by the operation of the protective cover 19.

次に、HMD100で検出されたユーザの表情情報および/または感情情報にもとづいて、駆動モータ142の回転を制御する手法について説明する。
この例ではHMD100が、ユーザAの顔の特定部位の動きを検出するセンサを備える。HMD100は筐体114の内部や外部にカメラを備え、ユーザの顔の表情、具体的には目、眉、鼻、唇などの動きを監視する表情監視部を備える。従来より感情と表情との関係について様々な研究がされているが、以下の(1)〜(5)は、これまでの研究で発表された感情と表情との関係である。
(1)幸福:唇の上端があがって後ろに引かれる。
(2)驚き:眉が上がり、目が大きく見開かれる。
(3)嫌悪:上唇があがり、鼻にしわが寄る。
(4)怒り:眉の間に縦じわができ、口は強く閉じられる。
(5)悲しみ:唇の両端が下がり、視線も下がり気味になる。
Next, a method for controlling the rotation of the drive motor 142 based on the facial expression information and / or emotion information of the user detected by the HMD 100 will be described.
In this example, the HMD 100 includes a sensor that detects the movement of a specific part of the face of the user A. The HMD 100 includes a camera inside and outside the housing 114, and includes a facial expression monitoring unit that monitors facial expressions of the user, specifically, movements of eyes, eyebrows, nose, lips, and the like. Various studies have been made on the relationship between emotions and facial expressions, and the following (1) to (5) are the relationships between emotions and facial expressions that have been announced so far.
(1) Happiness: The upper end of the lips is raised and pulled back.
(2) Surprise: Eyebrows go up and eyes wide open.
(3) Disgust: Raises upper lip and wrinkles nose.
(4) Anger: Vertical lines are formed between the eyebrows, and the mouth is strongly closed.
(5) Sadness: Both ends of the lips are lowered and the line of sight is lowered.

HMD100において感情と表情の関係はデータベース化されており、表情監視部は、ユーザAの表情をカメラ画像から特定すると、データベースを参照して、表情に対応する感情情報を読み出せるように構成されている。人の感情は刻一刻と変化するため、表情監視部は、カメラ画像に含まれる特定部位の変化から感情の変化が生じたことを判断するたびに、データベースから抽出した感情情報を、ロボット10に送信する。   In the HMD 100, the relationship between emotions and facial expressions is stored in a database, and the facial expression monitoring unit is configured to read emotion information corresponding to facial expressions by referring to the database when the facial expression of the user A is identified from the camera image. Yes. Since the emotion of a person changes every moment, the facial expression monitoring unit sends the emotion information extracted from the database to the robot 10 every time it determines that a change in emotion has occurred from a change in a specific part included in the camera image. Send.

たとえば表情監視部が、カメラ画像から「唇の上端があがって後ろに引かれ」たことを判定すると、当該表情情報に対応付けられた感情情報(「幸福」)を読み出して、ロボット10に送信する。その後、表情監視部が、カメラ画像から「眉が上がり、目が大きく見開かれ」たことを判定すると、当該表情情報に対応付けられた感情情報(「驚き」)を読み出して、ロボット10に送信する。なお表情監視部が検出した表情情報がデータベースに登録されていない場合、表情監視部は、ユーザの感情がないことを示す感情情報をロボット10に送信する。なお送信される感情情報は、感情を特定できるものであればよく、たとえば(1)番や(2)番などの感情情報の情報IDであってよい。   For example, when the facial expression monitoring unit determines from the camera image that “the upper end of the lips is raised and pulled backward”, the emotion information (“happiness”) associated with the facial expression information is read and transmitted to the robot 10. To do. Thereafter, when the facial expression monitoring unit determines from the camera image that “the eyebrows are raised and the eyes are wide open”, the emotion information (“surprise”) associated with the facial expression information is read and transmitted to the robot 10. To do. If facial expression information detected by the facial expression monitoring unit is not registered in the database, the facial expression monitoring unit transmits emotion information indicating that there is no user emotion to the robot 10. The sent emotion information only needs to be able to identify an emotion, and may be an information ID of emotion information such as No. (1) or No. (2), for example.

表情監視部は、感情情報の代わりに、表情情報自体、たとえば「唇の上端があがって後ろに引かれ」たことを示す表情情報や、「眉が上がり、目が大きく見開かれ」たことを示す表情情報を、ロボット10に送信してもよい。また表情監視部は、感情情報と表情情報の双方をロボット10に送信してもよい。以下、このような表情情報および/または感情情報を、まとめて状態情報とよぶ。   Instead of the emotion information, the facial expression monitoring section itself displays facial expression information, for example, facial expression information indicating that the upper end of the lips is raised and pulled backward, or that the eyebrows are raised and the eyes are wide open. The facial expression information shown may be transmitted to the robot 10. The facial expression monitoring unit may transmit both emotion information and facial expression information to the robot 10. Hereinafter, such facial expression information and / or emotion information is collectively referred to as state information.

図20を参照して、受信部60が状態情報を受信し、状態情報取得部74が、状態情報を取得する。駆動制御部76は状態情報にもとづいて、駆動モータ142の回転を制御する。このとき駆動制御部76は、動作テーブル78を参照する。   Referring to FIG. 20, reception unit 60 receives state information, and state information acquisition unit 74 acquires state information. The drive control unit 76 controls the rotation of the drive motor 142 based on the state information. At this time, the drive control unit 76 refers to the operation table 78.

動作テーブル78は、表情情報および/または感情情報と保護カバー19の動作態様とを対応付けて保持する。
図22は、動作テーブルの保持内容の例を示す。図22に示す動作テーブル78では、感情情報と、保護カバー19の動作態様とが関連づけて記録されている。駆動制御部76は、HMD100から取得した感情情報にもとづいて、対応する動作態様で保護カバー19が動作するように駆動モータ142を駆動する。たとえば感情情報が「幸福」である場合、駆動制御部76は、保護カバー19を動作初期位置から90度起立させた状態から、前後に30度ずつ(振幅60度で)往復動させるように、駆動モータ142の回転を制御する。これによりロボット10の周囲にいる人は、保護カバー19の動きを見ることで、ユーザAが幸福を感じていることを認識できる。たとえばHMD100における表情監視部が、感情が大きいか小さいかを表す程度まで判定できる場合、駆動制御部76は、その程度に応じて往復動のスピードを設定してもよい。
The operation table 78 holds facial expression information and / or emotion information in association with the operation mode of the protective cover 19.
FIG. 22 shows an example of the contents held in the operation table. In the operation table 78 shown in FIG. 22, emotion information and the operation mode of the protective cover 19 are recorded in association with each other. The drive control unit 76 drives the drive motor 142 so that the protective cover 19 operates in a corresponding operation mode based on the emotion information acquired from the HMD 100. For example, when the emotion information is “happiness”, the drive control unit 76 reciprocates 30 degrees back and forth (with an amplitude of 60 degrees) from the state where the protective cover 19 is raised 90 degrees from the initial operation position. The rotation of the drive motor 142 is controlled. Thereby, a person around the robot 10 can recognize that the user A feels happiness by seeing the movement of the protective cover 19. For example, when the facial expression monitoring unit in the HMD 100 can determine to the extent that the emotion is large or small, the drive control unit 76 may set the reciprocating speed according to the degree.

図22において動作テーブル78は、感情情報と保護カバー19の動作態様とを対応付けて保持しているが、表情情報と保護カバー19の動作態様とを対応付けて保持してもよい。   In FIG. 22, the operation table 78 holds emotion information and the operation mode of the protective cover 19 in association with each other. However, the facial expression information and the operation mode of the protection cover 19 may be stored in association with each other.

なお上記した例では、状態情報取得部74が、ユーザが装着しているHMD100で検出されたユーザの表情情報および/または感情情報を取得した。このようにHMD100を装着しているユーザの表情情報および/または感情情報はHMD100で検出されてよいが、HMD100の外部に設けられた情報処理装置で検出されてもよい。つまり表情監視部はHMD100に設けられてもよいが、HMD100とは異なる情報処理装置に設けられてもよい。このとき情報処理装置は、ユーザを撮影するカメラによって撮影されたカメラ画像にもとづいてユーザの表情または感情を特定し、ロボット10に送信する。いずれの場合であっても状態情報取得部74は、HMD100を装着しているユーザの表情情報および/または感情情報を取得し、駆動制御部76が、ユーザの表情情報および/または感情情報にもとづいて、駆動モータ142の回転を制御する。   In the above-described example, the state information acquisition unit 74 acquires the facial expression information and / or emotion information of the user detected by the HMD 100 worn by the user. In this way, facial expression information and / or emotion information of the user wearing the HMD 100 may be detected by the HMD 100, but may be detected by an information processing apparatus provided outside the HMD 100. That is, the facial expression monitoring unit may be provided in the HMD 100, but may be provided in an information processing apparatus different from the HMD 100. At this time, the information processing apparatus specifies the facial expression or emotion of the user based on the camera image captured by the camera that captures the user, and transmits it to the robot 10. In any case, the state information acquisition unit 74 acquires facial expression information and / or emotion information of the user wearing the HMD 100, and the drive control unit 76 uses the facial expression information and / or emotion information of the user. Thus, the rotation of the drive motor 142 is controlled.

1・・・情報処理システム、10・・・ロボット、12・・・アクチュエータ装置、14a・・・右カメラ、14b・・・左カメラ、16a・・・右マイク、16b・・・左マイク、20・・・筐体、22・・・入力系統、24・・・出力系統、30・・・台座、32・・・第1円弧状アーム、32a・・・第1貫通長孔、34・・・第2円弧状アーム、34a・・・第2貫通長孔、36・・・ハウジング、38・・・カバー、40・・・脚部、42・・・挿通部材、42a・・・第1規制部、42b・・・第2規制部、42c・・・軸部、50・・・駆動機構、52・・・第1モータ、54・・・第2モータ、56・・・第3モータ、60・・・受信部、62・・・センサ情報取得部、64・・・動き検出部、66・・・視線方向決定部、68・・・アクチュエータ制御部、70・・・音声データ取得部、72・・・音声処理部、74・・・状態情報取得部、76・・・駆動制御部、78・・・動作テーブル、80・・・画像処理部、82・・・音声処理部、82a・・・位相差増幅装置、84a・・・第1増幅器、84b・・・第2増幅器、86a・・・第1加算器、86b・・・第2加算器、88a・・・第3増幅器、88b・・・第4増幅器、90・・・送信部、92・・・画像記録装置、100・・・HMD、102・・・表示パネル、104・・・イヤホン、106・・・マイク、108・・・装着バンド、110・・・出力機構部、112・・・装着機構部、114・・・筐体、120・・・制御部、122・・・記憶部、124・・・姿勢センサ、126・・・通信制御部、142・・・駆動モータ、144・・・伝達部材、200・・・処理装置、202・・・受信部、204・・・センサ情報取得部、206・・・動き検出部、208・・・視線方向決定部、210・・・画像決定部、212・・・音声決定部、214・・・視聴データ提供部、216・・・送信部、218・・・記録部、220・・・画像記録部、222・・・音声記録部。 DESCRIPTION OF SYMBOLS 1 ... Information processing system, 10 ... Robot, 12 ... Actuator apparatus, 14a ... Right camera, 14b ... Left camera, 16a ... Right microphone, 16b ... Left microphone, 20 ... Case, 22 ... Input system, 24 ... Output system, 30 ... Pedestal, 32 ... First arc arm, 32a ... First through slot, 34 ... Second arcuate arm, 34a, second through hole, 36, housing, 38, cover, 40, leg, 42, insertion member, 42a, first regulating portion , 42b... Second restricting portion, 42c... Shaft portion, 50... Driving mechanism, 52... First motor, 54. ..Reception unit, 62... Sensor information acquisition unit, 64... Motion detection unit, 66. 8 ... Actuator control unit, 70 ... Audio data acquisition unit, 72 ... Audio processing unit, 74 ... Status information acquisition unit, 76 ... Drive control unit, 78 ... Operation table, 80 ... Image processing unit, 82 ... Audio processing unit, 82a ... Phase difference amplifying device, 84a ... First amplifier, 84b ... Second amplifier, 86a ... First adder, 86b ... Second adder, 88a ... Third amplifier, 88b ... Fourth amplifier, 90 ... Transmitter, 92 ... Image recording device, 100 ... HMD, 102 ... Display Panel, 104 ... Earphone, 106 ... Microphone, 108 ... Mounting band, 110 ... Output mechanism, 112 ... Mounting mechanism, 114 ... Case, 120 ... Control unit 122, storage unit, 124, posture sensor, 126, communication Control unit, 142... Drive motor, 144... Transmission member, 200... Processing device, 202 .. reception unit, 204... Sensor information acquisition unit, 206. ..Gaze direction determination unit, 210... Image determination unit, 212... Audio determination unit, 214 .. viewing data providing unit, 216... Transmission unit, 218. Image recording unit, 222... Voice recording unit.

Claims (8)

アクチュエータ装置と、アクチュエータ装置により姿勢を変更可能とされる筐体とを備えたロボットであって、前記筐体は、カメラ、マイク、スピーカを少なくとも有し、前記アクチュエータ装置は、ユーザが装着しているヘッドマウントディスプレイ装置の動きに当該筐体の姿勢を連動させるものであって、
前記筐体に動作可能に支持される可動部材と、
前記筐体内に設けられるモータと、
前記モータの回転を前記可動部材に伝達する伝達部材と、
前記筐体の姿勢にもとづいて、前記モータの回転を制御する駆動制御部と、を備える、
ことを特徴とするロボット。
A robot including an actuator device and a housing whose posture can be changed by the actuator device, wherein the housing includes at least a camera, a microphone, and a speaker, and the actuator device is attached by a user. The attitude of the housing is linked to the movement of the head mounted display device,
A movable member operably supported in said housing,
A motor provided in the housing;
A transmission member for transmitting rotation of the motor to the movable member;
A drive control unit that controls the rotation of the motor based on the attitude of the housing;
A robot characterized by that.
アクチュエータ装置と、アクチュエータ装置により姿勢を変更可能とされる筐体とを備えたロボットであって、前記筐体は、カメラ、マイク、スピーカを少なくとも有し、前記アクチュエータ装置は、ユーザが装着しているヘッドマウントディスプレイ装置の動きに当該筐体の姿勢を連動させるものであって、
前記筐体に動作可能に支持される可動部材と、
前記筐体内に設けられるモータと、
前記モータの回転を前記可動部材に伝達する伝達部材と、
前記モータの回転を制御する駆動制御部と、を備え、
前記伝達部材は、ねじり弾性変形する部材である、
ことを特徴とするロボット。
A robot including an actuator device and a housing whose posture can be changed by the actuator device, wherein the housing includes at least a camera, a microphone, and a speaker, and the actuator device is attached by a user. The attitude of the housing is linked to the movement of the head mounted display device,
A movable member operably supported in said housing,
A motor provided in the housing;
A transmission member for transmitting rotation of the motor to the movable member;
E Bei and a drive control unit for controlling the rotation of said motor,
The transmission member is a member that undergoes torsional elastic deformation,
A robot characterized by that.
前記伝達部材は、コイルばねである、  The transmission member is a coil spring.
ことを特徴とする請求項1または2に記載のロボット。  The robot according to claim 1 or 2, wherein
前記筐体は、ロボットの顔を構成する、
ことを特徴とする請求項1から3のいずれかに記載のロボット。
The housing constitutes the face of the robot;
The robot according to any one of claims 1 to 3, wherein:
カメラ、マイク、スピーカを有する筐体であって、
筐体に動作可能に支持される可動部材と、
モータと、
前記モータの回転を前記可動部材に伝達する伝達部材と、を備え、
前記伝達部材は、ねじり弾性変形する部材である、
ことを特徴とする筐体。
A housing having a camera, a microphone, and a speaker,
A movable member operatively supported by the housing;
A motor,
A transmission member that transmits the rotation of the motor to the movable member ,
The transmission member is a member that undergoes torsional elastic deformation,
A housing characterized by that.
前記伝達部材は、コイルばねである、
ことを特徴とする請求項に記載の筐体。
The transmission member is a coil spring.
The housing according to claim 5 .
前記可動部材は、前記カメラを保護する閉位置と、それ以外の位置との間で動かされる、
ことを特徴とする請求項5または6に記載の筐体。
The movable member is moved between a closed position that protects the camera and other positions.
The housing according to claim 5 or 6 .
前記可動部材は、筐体に回転可能に支持される、
ことを特徴とする請求項5からのいずれかに記載の筐体。
The movable member is rotatably supported by the housing.
The housing according to any one of claims 5 to 7 , wherein:
JP2016155889A 2016-04-20 2016-08-08 Robot and enclosure Active JP6615716B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016155889A JP6615716B2 (en) 2016-08-08 2016-08-08 Robot and enclosure
PCT/JP2017/007952 WO2017183319A1 (en) 2016-04-20 2017-02-28 Robot and housing
US16/092,615 US11052547B2 (en) 2016-04-20 2017-02-28 Robot and housing
EP17785664.8A EP3446839B1 (en) 2016-04-20 2017-02-28 Robot and housing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016155889A JP6615716B2 (en) 2016-08-08 2016-08-08 Robot and enclosure

Publications (3)

Publication Number Publication Date
JP2018023464A JP2018023464A (en) 2018-02-15
JP2018023464A5 JP2018023464A5 (en) 2018-06-07
JP6615716B2 true JP6615716B2 (en) 2019-12-04

Family

ID=61193703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016155889A Active JP6615716B2 (en) 2016-04-20 2016-08-08 Robot and enclosure

Country Status (1)

Country Link
JP (1) JP6615716B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023172428A (en) 2022-05-24 2023-12-06 国立大学法人東海国立大学機構 Robot, robot control method, and computer program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002046088A (en) * 2000-08-03 2002-02-12 Matsushita Electric Ind Co Ltd Robot device
JP2004363987A (en) * 2003-06-05 2004-12-24 Advanced Telecommunication Research Institute International Image presentation system
JP2006289508A (en) * 2005-04-05 2006-10-26 Sony Corp Robot device and its facial expression control method

Also Published As

Publication number Publication date
JP2018023464A (en) 2018-02-15

Similar Documents

Publication Publication Date Title
WO2017183319A1 (en) Robot and housing
KR102197544B1 (en) Mixed reality system with spatialized audio
JP6565903B2 (en) Information reproducing apparatus and information reproducing method
JP5891131B2 (en) Image generating apparatus and image generating method
JP6580516B2 (en) Processing apparatus and image determination method
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
WO2017183294A1 (en) Actuator device
CN113396337A (en) Audio enhancement using environmental data
CN112335264B (en) Apparatus and method for presenting audio signals for playback to a user
JP6216398B2 (en) Image generating apparatus and image generating method
US11096006B1 (en) Dynamic speech directivity reproduction
JP6538003B2 (en) Actuator device
US10536666B1 (en) Systems and methods for transmitting aggregated video data
WO2017183292A1 (en) Processing device and image determination method
JP6615716B2 (en) Robot and enclosure
WO2017156622A1 (en) Head-mounted audiovisual capture device
WO2017183293A1 (en) Phase difference amplification device
JP2021512402A (en) Multi-viewing virtual reality user interface
WO2019176035A1 (en) Image generation device, image generation system, and image generation method
JP2023546839A (en) Audiovisual rendering device and method of operation thereof
JP2020025275A (en) Video and audio reproduction device and method
WO2018198777A1 (en) Virtual reality image provision device and virtual reality image provision program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191106

R150 Certificate of patent or registration of utility model

Ref document number: 6615716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150