JP2017201742A - Processing device, and image determining method - Google Patents

Processing device, and image determining method Download PDF

Info

Publication number
JP2017201742A
JP2017201742A JP2016092622A JP2016092622A JP2017201742A JP 2017201742 A JP2017201742 A JP 2017201742A JP 2016092622 A JP2016092622 A JP 2016092622A JP 2016092622 A JP2016092622 A JP 2016092622A JP 2017201742 A JP2017201742 A JP 2017201742A
Authority
JP
Japan
Prior art keywords
image data
image
user
line
sight direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016092622A
Other languages
Japanese (ja)
Other versions
JP2017201742A5 (en
JP6580516B2 (en
Inventor
泰史 奥村
Yasushi Okumura
泰史 奥村
博之 勢川
Hiroyuki Segawa
博之 勢川
小林 郁夫
Ikuo Kobayashi
郁夫 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2016092622A priority Critical patent/JP6580516B2/en
Priority to PCT/JP2017/006941 priority patent/WO2017183292A1/en
Publication of JP2017201742A publication Critical patent/JP2017201742A/en
Publication of JP2017201742A5 publication Critical patent/JP2017201742A5/ja
Application granted granted Critical
Publication of JP6580516B2 publication Critical patent/JP6580516B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for effective utilization of viewing data acquired by robots.SOLUTION: An image recording unit 220 records image data that is photographed by a camera moving the line of sight direction interlocked with movements of a human face and to which vector information indicating the line of sight direction is added. A sensor information acquiring unit 204 acquires attitude information detecting the attitude of an HMD 100a fitted to the head of a user B. A line of sight direction determining unit 208 determines from the attitude information the line of sight direction of a virtual camera. An image determining unit 210 determines image data to be offered to the user on the basis of the line of sight direction of the virtual camera and vector information added to the image data. A viewing data offering unit 214 provides the HMD 100a with the image data determined by the image determining unit 210.SELECTED DRAWING: Figure 15

Description

本発明は、ユーザの動きに応じてロボットを動かし、ロボットが生成した視聴データを利用する技術に関する。   The present invention relates to a technique for moving a robot according to a user's movement and using viewing data generated by the robot.

ヘッドマウントディスプレイ(HMD)が様々な分野で利用されている。HMDにヘッドトラッキング機能をもたせ、ユーザの頭部の姿勢と連動して表示画面を更新することで、映像世界への没入感を高められる。   Head mounted displays (HMD) are used in various fields. By providing the HMD with a head tracking function and updating the display screen in conjunction with the posture of the user's head, a sense of immersion in the video world can be enhanced.

特開2015−95045号公報Japanese Patent Laying-Open No. 2015-95045

近年、遠隔地に配置したロボットを自分の分身として利用するテレイグジスタンスと呼ばれる技術が登場している。遠隔地にいるロボットが周囲の画像データや音声データをユーザに送信し、ユーザ側で再生することで、ユーザは、ロボットの場所にいるような臨場感をもって、周囲の人達とコミュニケーションをとることが可能となる。   In recent years, a technology called tele-existence has appeared that uses a robot placed in a remote location as its alternation. A remote robot sends surrounding image data and audio data to the user and reproduces it on the user side, so that the user can communicate with the surrounding people with a sense of presence like being in the robot's location. It becomes possible.

本発明者はテレイグジステンスとHMDの連携による可能性に注目し、テレイグレジスタンスシステムの利便性および有用性を高める技術を開発するに至った。   The present inventor has paid attention to the possibility of the cooperation between the telexistence and the HMD, and has developed a technique for enhancing the convenience and usefulness of the telejeg resistance system.

本発明はこうした課題に鑑みてなされたものであり、その目的は、遠隔操作するロボットの構造や、ロボットが取得した視聴データを加工する技術、またロボットが取得した視聴データを有用に活用するための技術を提供することにある。   The present invention has been made in view of these problems, and its purpose is to make effective use of the structure of a remotely operated robot, technology for processing viewing data acquired by the robot, and viewing data acquired by the robot. Is to provide the technology.

上記課題を解決するために、本発明のある態様の処理装置は、顔の動きに連動して視線方向を動かすカメラにより撮影された画像データであって、視線方向を示すベクトル情報を付加された画像データを記録する記録部と、ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出した姿勢情報を取得する取得部と、姿勢情報から、仮想カメラの視線方向を決定する視線方向決定部と、仮想カメラの視線方向と、記録部に記録された画像データに付加されたベクトル情報とにもとづいて、ユーザに提供する画像データを決定する画像決定部と、画像決定部が決定した画像データをヘッドマウントディスプレイに提供する提供部とを備える。   In order to solve the above problems, a processing device according to an aspect of the present invention is image data captured by a camera that moves the line-of-sight direction in conjunction with the movement of the face, and is added with vector information indicating the line-of-sight direction Recording unit for recording image data, acquisition unit for acquiring posture information for detecting the posture of a head mounted display mounted on the user's head, and a gaze direction determining unit for determining the gaze direction of the virtual camera from the posture information And an image determination unit that determines image data to be provided to the user based on the viewing direction of the virtual camera and the vector information added to the image data recorded in the recording unit, and the image data determined by the image determination unit And a providing unit that provides a head-mounted display.

本発明の別の態様は、顔の動きに連動して視線方向を動かすカメラにより撮影された画像データであって、視線方向を示すベクトル情報を付加された画像データを記録した記録部から、画像データを読み出して、ユーザに提供する画像を決定する方法である。この方法は、ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出した姿勢情報を取得するステップと、姿勢情報から、仮想カメラの視線方向を決定するステップと、仮想カメラの視線方向と、記録部に記録された画像データに付加されたベクトル情報とにもとづいて、ユーザに提供する画像データを決定するステップと、画像データをヘッドマウントディスプレイに提供するステップと、を備える。   Another aspect of the present invention is image data captured by a camera that moves the line-of-sight direction in conjunction with the movement of the face, from a recording unit that records image data to which vector information indicating the line-of-sight direction is added. This is a method of reading data and determining an image to be provided to a user. This method includes the steps of obtaining posture information that detects the posture of a head mounted display mounted on the user's head, determining the visual line direction of the virtual camera from the posture information, the visual line direction of the virtual camera, The method includes determining image data to be provided to the user based on vector information added to the image data recorded in the recording unit, and providing the image data to the head mounted display.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。   Note that any combination of the above components, the expression of the present invention converted between a method, an apparatus, a system, a computer program, a recording medium on which the computer program is recorded so as to be readable, a data structure, and the like are also included in the present invention. It is effective as an embodiment of

本発明によれば、遠隔操作するロボットの構造や、ロボットが取得した視聴データを加工する技術、またロボットが取得した視聴データを有用に活用するための技術を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the structure of the robot operated remotely, the technique which processes the viewing-and-listening data which the robot acquired, and the technique for utilizing the viewing-and-listening data which the robot acquired effectively can be provided.

実施例における情報処理システムの構成例を示す図である。It is a figure which shows the structural example of the information processing system in an Example. ロボットの利用場面の例を示す図である。It is a figure which shows the example of the usage scene of a robot. HMDの外観形状の例を示す図である。It is a figure which shows the example of the external appearance shape of HMD. HMDの機能ブロックを示す図である。It is a figure which shows the functional block of HMD. ロボットの外観構成を示す図である。It is a figure which shows the external appearance structure of a robot. 挿通部材の構成を示す図である。It is a figure which shows the structure of an insertion member. ロボットの断面を示す図である。It is a figure which shows the cross section of a robot. ロボットにおける筐体の姿勢の例を示す図である。It is a figure which shows the example of the attitude | position of the housing | casing in a robot. ロボットにおける筐体の姿勢の例を示す図である。It is a figure which shows the example of the attitude | position of the housing | casing in a robot. ロボットの機能ブロックを示す図である。It is a figure which shows the functional block of a robot. 音声処理部が備える位相差増幅装置の回路構成を示す図である。It is a figure which shows the circuit structure of the phase difference amplifier with which an audio | voice processing part is provided. 信号波形の位相差を説明するための図である。It is a figure for demonstrating the phase difference of a signal waveform. 入力信号波形の位相差を増幅する原理を説明するための図である。It is a figure for demonstrating the principle which amplifies the phase difference of an input signal waveform. 応用技術を実現するためのロボットの機能ブロックを示す図である。It is a figure which shows the functional block of the robot for implement | achieving applied technology. 処理装置の機能ブロックを示す図である。It is a figure which shows the functional block of a processing apparatus. 全天球パノラマ画像を説明するための図である。It is a figure for demonstrating an omnidirectional panoramic image. 画像記録部に記録されている撮影画像データを説明するための図である。It is a figure for demonstrating the picked-up image data currently recorded on the image recording part. 画像決定部が生成するフレーム画像と、画像データとの関係を示す図である。It is a figure which shows the relationship between the frame image which an image determination part produces | generates, and image data.

図1は、実施例における情報処理システム1の構成例を示す。情報処理システム1は、ロボット10と、ユーザAが頭部に装着するヘッドマウントディスプレイ装置(HMD)100とを備える。HMD100は、両眼用の表示パネル102と、両耳用のイヤホン104と、マイク106とを備える。ここでは音声出力手段としてイヤホン104を採用しているが、耳に当てる形状のヘッドホンを採用してもよい。HMD100はアクセスポイント(AP)2を介して、ネットワーク4に接続される。AP2は無線アクセスポイントおよびルータの機能を有し、HMD100は、AP2と既知の無線通信プロトコルで接続するが、ケーブルで接続してもよい。   FIG. 1 shows a configuration example of an information processing system 1 in the embodiment. The information processing system 1 includes a robot 10 and a head mounted display device (HMD) 100 that a user A wears on the head. The HMD 100 includes a display panel 102 for both eyes, an earphone 104 for both ears, and a microphone 106. Here, the earphone 104 is used as the sound output means, but a headphone shaped to touch the ear may be used. The HMD 100 is connected to the network 4 via an access point (AP) 2. The AP 2 has functions of a wireless access point and a router, and the HMD 100 is connected to the AP 2 by a known wireless communication protocol, but may be connected by a cable.

ロボット10は、アクチュエータ装置12と、アクチュエータ装置12により姿勢を変更可能に駆動される筐体20とを備える。筐体20には、右カメラ14a、左カメラ14b、右マイク16a、左マイク16bおよびスピーカ18が搭載される。以下、右カメラ14aおよび左カメラ14bを特に区別しない場合には「カメラ14」と呼び、右マイク16aおよび左マイク16bを特に区別しない場合には「マイク16」と呼ぶ。実施例においてカメラ14およびマイク16は、アクチュエータ装置12により駆動される筐体20に設けられるが、スピーカ18は、たとえばアクチュエータ装置12の半球状のハウジング36に設けられてもよい。ロボット10はアクセスポイント(AP)3を介して、ネットワーク4に接続される。ロボット10は、AP3と既知の無線通信プロトコルで接続するが、ケーブルで接続してもよい。   The robot 10 includes an actuator device 12 and a housing 20 that is driven by the actuator device 12 so that the posture can be changed. The housing 20 is equipped with a right camera 14a, a left camera 14b, a right microphone 16a, a left microphone 16b, and a speaker 18. Hereinafter, the right camera 14a and the left camera 14b will be referred to as “camera 14” unless otherwise distinguished, and the right microphone 16a and the left microphone 16b will be referred to as “mic 16” unless otherwise distinguished. In the embodiment, the camera 14 and the microphone 16 are provided in the housing 20 driven by the actuator device 12, but the speaker 18 may be provided in the hemispherical housing 36 of the actuator device 12, for example. The robot 10 is connected to the network 4 via an access point (AP) 3. The robot 10 is connected to the AP 3 by a known wireless communication protocol, but may be connected by a cable.

情報処理システム1において、HMD100とロボット10はネットワーク4を介して通信可能に接続し、ロボット10は、ユーザAのいわば分身として動作する。ユーザAが装着しているHMD100の動きはロボット10に伝達され、アクチュエータ装置12が、HMD100の動きに連動して筐体20を動かす。たとえばユーザAが首を前後に振ると、アクチュエータ装置12が筐体20を前後に振るように動かし、ユーザAが首を左右に振ると、アクチュエータ装置12が筐体20を左右に振るように動かす。これによりロボット10の周囲にいる人は、ユーザAがその場にいるかのような感覚をもって、ユーザAとコミュニケーションをとることができる。   In the information processing system 1, the HMD 100 and the robot 10 are communicably connected via the network 4, and the robot 10 operates as a so-called alternate user A. The movement of the HMD 100 worn by the user A is transmitted to the robot 10, and the actuator device 12 moves the housing 20 in conjunction with the movement of the HMD 100. For example, when the user A swings his / her neck back and forth, the actuator device 12 moves the casing 20 to swing back and forth, and when the user A swings his / her neck left and right, the actuator device 12 moves the casing 20 to swing left and right. . Thus, a person around the robot 10 can communicate with the user A with a sense that the user A is on the spot.

右カメラ14aおよび左カメラ14bは、筐体20の前面にて横方向に所定の間隔を空けて配置される。右カメラ14aおよび左カメラ14bはステレオカメラを構成し、右カメラ14aは右目用画像を所定の周期で撮影し、左カメラ14bは左目用画像を所定の周期で撮影する。撮影された右目用画像および左目用画像は、リアルタイムでユーザAのHMD100に送信される。HMD100は、受信した右目用画像を右目用表示パネルに表示し、受信した左目用画像を左目用表示パネルに表示する。これによりユーザAは、ロボット10の筐体20が向いている方向の映像をリアルタイムで見ることができる。   The right camera 14a and the left camera 14b are arranged on the front surface of the housing 20 with a predetermined interval in the lateral direction. The right camera 14a and the left camera 14b constitute a stereo camera. The right camera 14a captures a right-eye image at a predetermined cycle, and the left camera 14b captures a left-eye image at a predetermined cycle. The captured right-eye image and left-eye image are transmitted to the user A's HMD 100 in real time. The HMD 100 displays the received right-eye image on the right-eye display panel, and displays the received left-eye image on the left-eye display panel. As a result, the user A can view the video in the direction in which the housing 20 of the robot 10 is facing in real time.

右マイク16aおよび左マイク16bは、筐体20において横方向に所定の間隔を空けて配置される。右マイク16aおよび左マイク16bはステレオマイクを構成し、横方向に所定の間隔を空けて配置されることで、音源の位置に応じて音声が到達する時間が異なるようにされる。音声の到達時間の差は、右マイク16aおよび左マイク16bが生成する音声信号の位相差として表れる。なお右マイク16aおよび左マイク16bの音声信号の位相差を大きくするために、右マイク16aおよび左マイク16bは可能な限り離して、具体的には筐体20の両側面に配置されることが好ましい。   The right microphone 16a and the left microphone 16b are arranged in the housing 20 with a predetermined interval in the lateral direction. The right microphone 16a and the left microphone 16b constitute a stereo microphone, and are arranged at a predetermined interval in the horizontal direction, so that the time for the sound to reach varies depending on the position of the sound source. The difference in the arrival time of sound appears as a phase difference between sound signals generated by the right microphone 16a and the left microphone 16b. In order to increase the phase difference between the audio signals of the right microphone 16a and the left microphone 16b, the right microphone 16a and the left microphone 16b may be arranged as far apart as possible, specifically on both sides of the housing 20. preferable.

右マイク16aおよび左マイク16bで生成された音声信号は、後述するように加工されて、右耳用音声データおよび左耳用音声データとしてリアルタイムでユーザAのHMD100に送信される。HMD100は、受信した右耳用音声データを右耳用のイヤホン104から出力し、受信した左耳用音声データを左耳用のイヤホン104から出力する。これによりユーザAは、ロボット10の周囲の音声をリアルタイムで聞くことができる。   The audio signals generated by the right microphone 16a and the left microphone 16b are processed as described later, and are transmitted to the user A's HMD 100 in real time as audio data for the right ear and audio data for the left ear. The HMD 100 outputs the received right ear audio data from the right ear earphone 104, and outputs the received left ear audio data from the left ear earphone 104. Thereby, the user A can hear the sound around the robot 10 in real time.

人間が左右方向の音源の位置を音波の両耳への到達時間の差によって知覚することは知られているが、実際には到達時間の差だけでなく、音波を集める耳介の形状、音波を中耳に伝える外耳道の形状等にも依存して音源の位置を知覚している。また人間の正面に対して右側または左側に音源がある場合、距離の近い側の耳介と比べると、距離の遠い側の耳介に音波が到達するためには経路中に顔が位置するため、音波の到達時間差は音源からの距離差以上に大きくなる。   It is known that humans perceive the position of a sound source in the left-right direction based on the difference in arrival time of sound waves to both ears, but in reality, not only the difference in arrival time but also the shape of the pinna that collects sound waves, The position of the sound source is perceived depending on the shape of the ear canal that conveys the sound to the middle ear. Also, when the sound source is on the right or left side of the human front, the face is located in the path for the sound wave to reach the pinna on the far side compared to the pinna on the near side. The difference in arrival time of sound waves becomes larger than the difference in distance from the sound source.

一方で筐体20の前面は平坦な形状を有し、またマイク16は耳介や外耳道に相当する形状を有していないため、音声到達時間差は、実質的に音源と両マイクとの距離差に対応することになる。実施例では、筐体20の両側面に右マイク16aおよび左マイク16bを配置して両者を最大限離れた位置に設けているが、右マイク16aで生成した音声信号と左マイク16bで生成した音声信号を増幅して右耳用イヤホンと左耳用イヤホンから出力しても、音源の左右方向の位置をよく知覚できないことが本発明者の実験により明らかになった。   On the other hand, the front surface of the housing 20 has a flat shape, and the microphone 16 does not have a shape corresponding to an auricle or an external auditory canal, so the difference in sound arrival time is substantially the difference between the sound source and both microphones. It will correspond to. In the embodiment, the right microphone 16a and the left microphone 16b are arranged on both side surfaces of the housing 20 and are provided at positions farthest from each other. However, the sound signal generated by the right microphone 16a and the left microphone 16b are generated. The inventor's experiment has revealed that even if the audio signal is amplified and output from the right earphone and the left earphone, the position of the sound source in the left-right direction cannot be perceived well.

つまり人間が普段聞き慣れている音と比べると、右マイク16aおよび左マイク16bが生成する音声信号の位相差は、左右方向を知覚するには小さいことが実験により判明した。そこでロボット10は、右マイク16aおよび左マイク16bの音声信号の位相差を増幅して、より人間の両耳で聞こえる音に近づけた音声データをHMD100に提供する仕組みを備えている。この仕組みについては後述する。   In other words, it has been experimentally found that the phase difference between the audio signals generated by the right microphone 16a and the left microphone 16b is small to perceive the left-right direction as compared with the sound that humans are usually accustomed to listening to. Therefore, the robot 10 has a mechanism for amplifying the phase difference between the audio signals of the right microphone 16a and the left microphone 16b and providing the HMD 100 with audio data that is closer to the sound that can be heard by both human ears. This mechanism will be described later.

HMD100において、マイク106は、ユーザAが発した音声信号を生成する。ユーザAによる音声データは、リアルタイムでロボット10に送信され、ロボット10は、受信した音声データをスピーカ18から出力する。これによりロボット10の周辺にいる人は、ユーザAが発した音声をリアルタイムで聞くことができる。   In the HMD 100, the microphone 106 generates an audio signal emitted by the user A. The voice data by the user A is transmitted to the robot 10 in real time, and the robot 10 outputs the received voice data from the speaker 18. Thereby, the person around the robot 10 can hear the voice uttered by the user A in real time.

このように情報処理システム1では、ロボット10がユーザAにより遠隔操作されてユーザAの顔の動きや音声を再現し、またユーザAがHMD100を通じて、ロボット周辺の画像や音声を視聴でき、ユーザAとロボット10周辺の人とが、リアルタイムでコミュニケーションをとることができる。このような情報処理システム1は、様々な環境において有用に利用される。   As described above, in the information processing system 1, the robot 10 is remotely operated by the user A to reproduce the movement and sound of the face of the user A, and the user A can view images and sounds around the robot through the HMD 100. And people around the robot 10 can communicate in real time. Such an information processing system 1 is usefully used in various environments.

図2は、ロボット10の利用場面の例を示す。この例では、部屋で会議をしており、ユーザAの分身であるロボット10が、テーブル上に配置されている。この例でロボット10は正面の4人の方向を向いており、カメラ14は、正面の4人を画角内で撮影している。ロボット10は、カメラ14の撮影画像をリアルタイムでユーザAのHMD100に送信する。ユーザAはHMD100の表示パネル102を通じて部屋の状況を見ながら会議に参加し、発言するとユーザAの音声がロボット10にリアルタイムで送信され、ロボット10は、スピーカ18からユーザAの音声を出力する。   FIG. 2 shows an example of a usage scene of the robot 10. In this example, a meeting is held in a room, and a robot 10 that is a user A's alternate is placed on a table. In this example, the robot 10 faces the front four people, and the camera 14 photographs the front four people within the angle of view. The robot 10 transmits the captured image of the camera 14 to the user A's HMD 100 in real time. The user A participates in the conference while viewing the room status through the display panel 102 of the HMD 100 and speaks to transmit the voice of the user A to the robot 10 in real time, and the robot 10 outputs the voice of the user A from the speaker 18.

また上記したように、ロボット10は、左右のマイク16で生成した音声信号の位相差を増幅した音声データを、リアルタイムでHMD100に送信する。これによりユーザAは、部屋内で声を出した人が、筐体20が向いている方向に対して右側に位置するのか、または左側に位置するのか、または正面に位置するのかを知覚できる。ユーザAは、自分の右側の人が発言したと感じると、首を右に回して右側を向く。このときロボット10の筐体20もユーザAの首の動きに連動して右側に向くため、カメラ14は、右側に座っている参加者を撮影することになる。   As described above, the robot 10 transmits the audio data obtained by amplifying the phase difference between the audio signals generated by the left and right microphones 16 to the HMD 100 in real time. Thereby, the user A can perceive whether the person who has spoken in the room is located on the right side, the left side, or the front side with respect to the direction in which the housing 20 is facing. When the user A feels that the person on the right side speaks, the user A turns the neck to the right and turns to the right side. At this time, since the housing 20 of the robot 10 also faces the right side in conjunction with the movement of the neck of the user A, the camera 14 photographs the participant sitting on the right side.

このようにユーザAは、分身であるロボット10がユーザAの動きに連動することで、遠隔地にいながら、あたかも部屋にいるような感覚で会議に参加できる。また実際に部屋にいる参加者も、ユーザAの声や、また筐体20の動きから、ユーザAと違和感なくコミュニケーションをとることができる。なお図2に示す利用場面は一例であり、他の利用場面においてもユーザAは遠隔地にいながら、ロボット10から視聴データを得ることができる。   In this way, the user A can join the conference as if he was in a room while being at a remote place by having the alternate robot 10 interlocked with the movement of the user A. In addition, participants who are actually in the room can communicate with the user A from the voice of the user A and the movement of the housing 20 without feeling uncomfortable. Note that the usage scene shown in FIG. 2 is an example, and the user A can obtain viewing data from the robot 10 while in a remote location even in other usage scenes.

図3は、HMD100の外観形状の例を示す。この例においてHMD100は、出力機構部110および装着機構部112から構成される。装着機構部112は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド108を含む。装着バンド108はユーザの頭囲に合わせて長さの調節が可能な素材または構造とする。   FIG. 3 shows an example of the external shape of the HMD 100. In this example, the HMD 100 includes an output mechanism unit 110 and a mounting mechanism unit 112. The wearing mechanism unit 112 includes a wearing band 108 that goes around the head when worn by the user and fixes the HMD 100 to the head. The wearing band 108 is made of a material or a structure whose length can be adjusted according to the user's head circumference.

出力機構部110は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体114を含み、内部には目に正対する位置に表示パネル102を備える。表示パネル102は液晶パネルや有機ELパネルなどであってよい。筐体114内部には、表示パネル102とユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。   The output mechanism unit 110 includes a housing 114 shaped to cover the left and right eyes when the user wears the HMD 100, and includes a display panel 102 in a position facing the eyes. The display panel 102 may be a liquid crystal panel or an organic EL panel. Inside the housing 114, a pair of left and right optical lenses that are positioned between the display panel 102 and the user's eyes and expand the viewing angle of the user are provided.

HMD100はさらに、装着時にユーザの耳に差し込まれるイヤホン104を備える。なおイヤホン104は、音声出力手段の一例であり、HMD100はヘッドホンを備えてもよい。このときHMD100とヘッドホンとは、一体に構成されてもよいが、別体であってもよい。   The HMD 100 further includes an earphone 104 that is inserted into the user's ear when worn. The earphone 104 is an example of an audio output unit, and the HMD 100 may include a headphone. At this time, the HMD 100 and the headphones may be configured integrally, but may be separate.

HMD100は、姿勢センサが検出したセンサ情報、およびマイク106からの音声信号を符号化した音声データをロボット10に送信し、またロボット10で生成された画像データおよび音声データを受信して、表示パネル102およびイヤホン104から出力する。   The HMD 100 transmits the sensor information detected by the posture sensor and the voice data obtained by encoding the voice signal from the microphone 106 to the robot 10 and receives the image data and voice data generated by the robot 10 to display the display panel. 102 and the earphone 104.

なお図3に示すHMD100は、両目を完全に覆う没入型(非透過型)のディスプレイ装置を示すが、透過型のディスプレイ装置であってもよい。また形状としては、図示されるような帽子型であってもよいが、眼鏡型であってもよい。   3 shows an immersive (non-transmissive) display device that completely covers both eyes, but may be a transmissive display device. The shape may be a hat shape as shown in the figure, but may also be a glasses shape.

図4は、HMD100の機能ブロックを示す。制御部120は、画像信号、音声信号、センサ情報などの各種信号およびデータや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の回転角度や傾きなどの姿勢情報を所定の周期で検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。マイク106は、ユーザの声を電気信号に変換して音声信号を生成する。   FIG. 4 shows functional blocks of the HMD 100. The control unit 120 is a main processor that processes and outputs various signals and data such as image signals, audio signals, sensor information, and commands. The storage unit 122 temporarily stores data, commands, and the like that are processed by the control unit 120. The attitude sensor 124 detects attitude information such as the rotation angle and inclination of the HMD 100 at a predetermined cycle. The posture sensor 124 includes at least a triaxial acceleration sensor and a triaxial gyro sensor. The microphone 106 converts a user's voice into an electrical signal and generates an audio signal.

通信制御部126は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、ロボット10との間で信号やデータを送受信する。通信制御部126は、制御部120から、姿勢センサ124で検出された姿勢情報、およびマイク106からの音声信号を符号化した音声データを受け取り、ロボット10に送信する。また通信制御部126は、ロボット10から、画像データおよび音声データを受け取り、制御部120に供給する。制御部120は、画像データおよび音声データをロボット10から受け取ると、画像データを表示パネル102に供給して表示させ、また音声データをイヤホン104に供給して音声出力させる。   The communication control unit 126 transmits and receives signals and data to and from the robot 10 by wired or wireless communication via a network adapter or an antenna. The communication control unit 126 receives, from the control unit 120, the posture information detected by the posture sensor 124 and the voice data obtained by encoding the voice signal from the microphone 106, and transmits them to the robot 10. In addition, the communication control unit 126 receives image data and audio data from the robot 10 and supplies them to the control unit 120. Upon receiving image data and audio data from the robot 10, the control unit 120 supplies the image data to the display panel 102 for display, and supplies the audio data to the earphone 104 for audio output.

図5は、ロボット10の外観構成を示す。筐体20は、カメラ14、マイク16およびスピーカ18を収容する。カメラ14およびスピーカ18は筐体前面に設けられ、マイク16は筐体側面に設けられる。筐体20は保護カバー19を有し、ロボット10を使用しない状態では、保護カバー19が筐体前面を覆う閉位置に配置されて、カメラ14およびスピーカ18を保護する。図5に示す状態は、保護カバー19が閉位置から略180度回転した開位置に配置され、カメラ14が露出して、周囲を撮影可能となっている。保護カバー19は開位置で固定されるストッパ機構を有することが好ましい。   FIG. 5 shows an external configuration of the robot 10. The housing 20 accommodates the camera 14, the microphone 16, and the speaker 18. The camera 14 and the speaker 18 are provided on the front surface of the housing, and the microphone 16 is provided on the side surface of the housing. The housing 20 has a protective cover 19. When the robot 10 is not used, the protective cover 19 is disposed at a closed position covering the front surface of the housing to protect the camera 14 and the speaker 18. In the state shown in FIG. 5, the protective cover 19 is disposed at the open position rotated approximately 180 degrees from the closed position, and the camera 14 is exposed so that the surroundings can be photographed. The protective cover 19 preferably has a stopper mechanism that is fixed in the open position.

筐体20はアクチュエータ装置12によって姿勢を変更可能に支持されている。アクチュエータ装置12は、脚部40と、脚部40の上部に支持される半球状のハウジング36と、筐体20を駆動するための駆動機構50とを備える。駆動機構50は、長尺方向に第1貫通長孔32aを形成された第1円弧状アーム32と、長尺方向に第2貫通長孔34aを形成された第2円弧状アーム34と、第1円弧状アーム32と第2円弧状アーム34とを交差させた状態で、第1円弧状アーム32と第2円弧状アーム34とを回動可能に支持する台座30とを備える。台座30の上側は、カバー38により覆われており、カバー38で覆われた空間には、第1円弧状アーム32および第2円弧状アーム34をそれぞれ回転させるモータが配置されている。なお台座30は、ハウジング36に対して回動可能に支持されており、ハウジング36内には、台座30を回転させるモータが配置されている。   The housing 20 is supported by the actuator device 12 so that the posture can be changed. The actuator device 12 includes a leg portion 40, a hemispherical housing 36 supported on the upper portion of the leg portion 40, and a drive mechanism 50 for driving the housing 20. The drive mechanism 50 includes a first arcuate arm 32 having a first through hole 32a formed in the longitudinal direction, a second arcuate arm 34 having a second through hole 34a formed in the longitudinal direction, A pedestal 30 that rotatably supports the first arc-shaped arm 32 and the second arc-shaped arm 34 in a state where the first arc-shaped arm 32 and the second arc-shaped arm 34 intersect each other is provided. The upper side of the pedestal 30 is covered with a cover 38, and motors for rotating the first arcuate arm 32 and the second arcuate arm 34 are arranged in the space covered with the cover 38, respectively. The pedestal 30 is rotatably supported with respect to the housing 36, and a motor for rotating the pedestal 30 is disposed in the housing 36.

第1円弧状アーム32および第2円弧状アーム34は半円状に形成され、同じ回転中心を有するように両端部が台座30に支持される。半円状の第1円弧状アーム32の径は、半円状の第2円弧状アーム34の径よりも僅かに大きく、第1円弧状アーム32は、第2円弧状アーム34の外周側に配置される。第1円弧状アーム32と第2円弧状アーム34は、台座30において直交するように配置されてよい。実施例では、第1円弧状アーム32が台座30に支持された両端部を結ぶラインと、第2円弧状アーム34が台座30に支持された両端部を結ぶラインとが直交する。挿通部材42は、第1貫通長孔32aおよび第2貫通長孔34aに挿通されて、第1貫通長孔32aおよび第2貫通長孔34aの交差位置に配置される。挿通部材42は、第1円弧状アーム32および第2円弧状アーム34の回転により、第1貫通長孔32a内および第2貫通長孔34a内を摺動する。   The first arc-shaped arm 32 and the second arc-shaped arm 34 are formed in a semicircular shape, and both ends are supported by the pedestal 30 so as to have the same center of rotation. The diameter of the semicircular first arc-shaped arm 32 is slightly larger than the diameter of the semicircular second arc-shaped arm 34, and the first arc-shaped arm 32 is located on the outer peripheral side of the second arc-shaped arm 34. Be placed. The first arc-shaped arm 32 and the second arc-shaped arm 34 may be arranged so as to be orthogonal to each other on the pedestal 30. In the embodiment, a line connecting both ends of the first arcuate arm 32 supported by the pedestal 30 and a line connecting both ends of the second arcuate arm 34 supported by the pedestal 30 are orthogonal to each other. The insertion member 42 is inserted into the first through long hole 32a and the second through long hole 34a, and is disposed at the intersection of the first through long hole 32a and the second through long hole 34a. The insertion member 42 slides in the first through long hole 32a and the second through long hole 34a by the rotation of the first arc-shaped arm 32 and the second arc-shaped arm 34.

図6は、挿通部材42の構成を示す。挿通部材42は、第1貫通長孔32aおよび第2貫通長孔34aの挿通状態を維持するように、第1貫通長孔32aよりも幅広の第1規制部42aと、第2貫通長孔34aよりも幅広の第2規制部42bとを備える。第1規制部42aは第1貫通長孔32aよりも上側に配置され、第2規制部42bは第2貫通長孔34aよりも下側に配置されて、挿通部材42が第1貫通長孔32aおよび第2貫通長孔34aから脱落することを防止する。挿通部材42を第1貫通長孔32aおよび第2貫通長孔34aに取り付ける際は、第1規制部42aまたは第2規制部42bのいずれか一方が軸部42cとは別体に形成され、軸部42cを第1貫通長孔32aおよび第2貫通長孔34aに挿入した状態で、軸部42cの端部に固定する構造をとってもよい。   FIG. 6 shows the configuration of the insertion member 42. The insertion member 42 has a first restriction portion 42a wider than the first through long hole 32a and the second through long hole 34a so as to maintain the insertion state of the first through long hole 32a and the second through long hole 34a. And a wider second restricting portion 42b. The first restricting portion 42a is disposed above the first through long hole 32a, the second restricting portion 42b is disposed below the second through long hole 34a, and the insertion member 42 is the first through long hole 32a. Further, it is prevented from dropping off from the second through long hole 34a. When the insertion member 42 is attached to the first through long hole 32a and the second through long hole 34a, either the first restricting portion 42a or the second restricting portion 42b is formed separately from the shaft portion 42c, and the shaft A structure may be adopted in which the portion 42c is fixed to the end portion of the shaft portion 42c in a state where the portion 42c is inserted into the first through long hole 32a and the second through long hole 34a.

軸部42cは、第1貫通長孔32aおよび第2貫通長孔34aに挿入される部分であり、第1貫通長孔32aおよび第2貫通長孔34aの交差箇所に常時位置する。軸部42cは、第1貫通長孔32a内および第2貫通長孔34a内において回転を規制される。実施例では軸部42cが、第1貫通長孔32aおよび第2貫通長孔34aの幅よりも僅かに狭い幅をもつ矩形断面を有し、第1貫通長孔32a内および第2貫通長孔34a内で回転を規制されるが、それ以外の手段により軸部42cの回転が規制されてよい。たとえば第2円弧状アーム34の内周面にレールが設けられ、第2規制部42bにレール溝が設けられて、レールとレール溝とが嵌合することで軸部42cの回転が規制されてもよい。第1規制部42aには筐体20が取り付けられ、軸部42cの回転が規制されることで、筐体20を所望の姿勢に維持することが可能となる。   The shaft portion 42c is a portion that is inserted into the first through long hole 32a and the second through long hole 34a, and is always located at the intersection of the first through long hole 32a and the second through long hole 34a. The rotation of the shaft portion 42c is restricted in the first through long hole 32a and the second through long hole 34a. In the embodiment, the shaft portion 42c has a rectangular cross section having a width slightly narrower than the widths of the first through long hole 32a and the second through long hole 34a, and the inside of the first through long hole 32a and the second through long hole Although the rotation is restricted within 34a, the rotation of the shaft portion 42c may be restricted by other means. For example, a rail is provided on the inner peripheral surface of the second arc-shaped arm 34, a rail groove is provided in the second restricting portion 42b, and the rotation of the shaft portion 42c is restricted by fitting the rail and the rail groove. Also good. The housing 20 is attached to the first restricting portion 42a, and the rotation of the shaft portion 42c is restricted, so that the housing 20 can be maintained in a desired posture.

なお軸部42cは、第1貫通長孔32aおよび第2貫通長孔34aの幅よりも狭い幅を有することで、第1貫通長孔32a内および第2貫通長孔34a内を摺動可能とする。これにより挿通部材42は、第1円弧状アーム32および第2円弧状アーム34の回転により、第1貫通長孔32aに沿って移動でき、また第2貫通長孔34aに沿って移動できる。   The shaft portion 42c has a narrower width than the first through long hole 32a and the second through long hole 34a, so that it can slide in the first through long hole 32a and the second through long hole 34a. To do. Accordingly, the insertion member 42 can move along the first through long hole 32a and can move along the second through long hole 34a by the rotation of the first circular arc arm 32 and the second circular arc arm 34.

図7は、ロボット10の断面を示す。図7(a)は、第1円弧状アーム32と第2円弧状アーム34とが台座30に対して90度起立した状態で第2円弧状アーム34に沿って切断した断面を示し、図7(b)は、第1円弧状アーム32と第2円弧状アーム34とが台座30に対して90度起立した状態で第1円弧状アーム32に沿って切断した断面を示す。   FIG. 7 shows a cross section of the robot 10. FIG. 7A shows a cross section cut along the second arcuate arm 34 in a state where the first arcuate arm 32 and the second arcuate arm 34 stand 90 degrees with respect to the pedestal 30. (B) shows a cross-section cut along the first arc-shaped arm 32 in a state where the first arc-shaped arm 32 and the second arc-shaped arm 34 stand 90 degrees with respect to the pedestal 30.

第1モータ52は、第1円弧状アーム32を回転させるために設けられ、第2モータ54は、第2円弧状アーム34を回転させるために設けられる。第1モータ52および第2モータ54は、台座30上に配置されて、台座30が回転すると、第1モータ52および第2モータ54も台座30とともに回転する。第3モータ56は、台座30を回転させるために設けられ、ハウジング36内に配置される。第1モータ52、第2モータ54および第3モータ56は、図示しない電源装置から電力を供給されて回転する。   The first motor 52 is provided for rotating the first arcuate arm 32, and the second motor 54 is provided for rotating the second arcuate arm 34. The first motor 52 and the second motor 54 are arranged on the pedestal 30, and when the pedestal 30 rotates, the first motor 52 and the second motor 54 also rotate together with the pedestal 30. The third motor 56 is provided to rotate the pedestal 30 and is disposed in the housing 36. The first motor 52, the second motor 54, and the third motor 56 are rotated by power supplied from a power supply device (not shown).

第1モータ52が第1円弧状アーム32を回転し、第2モータ54が第2円弧状アーム34を回転し、第3モータ56が台座30を回転することで、アクチュエータ装置12は、挿通部材42に取り付けられた筐体20の向きおよび姿勢を変化させられる。   The first motor 52 rotates the first arc-shaped arm 32, the second motor 54 rotates the second arc-shaped arm 34, and the third motor 56 rotates the pedestal 30. The orientation and posture of the housing 20 attached to 42 can be changed.

図8および図9は、ロボット10における筐体20の姿勢の例を示す図である。
図8(a)および(b)は、筐体20を左右方向に傾けた例を示す。図9(a)および(b)は、筐体20を前後方向に傾けた例を示す。このようにロボット10の駆動機構50は、筐体20に任意の姿勢をとらせることが可能となる。筐体20の姿勢は、第1モータ52および第2モータ54の駆動量を調整することで制御され、また筐体20の向きは、第3モータ56の駆動量を調整することで制御される。
8 and 9 are diagrams illustrating examples of the posture of the housing 20 in the robot 10.
8A and 8B show an example in which the housing 20 is tilted in the left-right direction. FIGS. 9A and 9B show an example in which the housing 20 is tilted in the front-rear direction. Thus, the drive mechanism 50 of the robot 10 can cause the housing 20 to take an arbitrary posture. The attitude of the housing 20 is controlled by adjusting the driving amounts of the first motor 52 and the second motor 54, and the orientation of the housing 20 is controlled by adjusting the driving amount of the third motor 56. .

図10は、ロボット10の機能ブロックを示す。ロボット10は、外部からの入力を受け付けて処理する入力系統22と、外部への出力を処理する出力系統24とを備える。入力系統22は、受信部60、センサ情報取得部62、動き検出部64、視線方向決定部66、アクチュエータ制御部68、音声データ取得部70および音声処理部72を備える。また出力系統24は、画像処理部80、音声処理部82および送信部90を備える。   FIG. 10 shows functional blocks of the robot 10. The robot 10 includes an input system 22 that receives and processes input from the outside, and an output system 24 that processes output to the outside. The input system 22 includes a reception unit 60, a sensor information acquisition unit 62, a motion detection unit 64, a line-of-sight direction determination unit 66, an actuator control unit 68, an audio data acquisition unit 70, and an audio processing unit 72. The output system 24 includes an image processing unit 80, an audio processing unit 82, and a transmission unit 90.

図10において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   In FIG. 10, each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded in the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

上記したようにHMD100は、姿勢センサ124が検出したセンサ情報およびマイク106が生成した音声信号を符号化した音声データをロボット10に送信し、受信部60は、センサ情報および音声データを受信する。音声データ取得部70は、受信した音声データを取得し、音声処理部72が音声処理を実施して、スピーカ18から出力する。これによりロボット10は、ユーザAの音声をリアルタイムで再生し、ロボット10の周囲の人が、ユーザAの声を聞くことができる。   As described above, the HMD 100 transmits to the robot 10 the audio data obtained by encoding the sensor information detected by the posture sensor 124 and the audio signal generated by the microphone 106, and the receiving unit 60 receives the sensor information and the audio data. The audio data acquisition unit 70 acquires the received audio data, the audio processing unit 72 performs audio processing, and outputs it from the speaker 18. Thereby, the robot 10 reproduces the voice of the user A in real time, and the people around the robot 10 can hear the voice of the user A.

センサ情報取得部62は、HMD100の姿勢センサ124が検出した姿勢情報を取得する。動き検出部64は、ユーザAの頭部に装着されたHMD100の姿勢を検出する。視線方向決定部66は、動き検出部64により検出されたHMD100の姿勢に応じて筐体20のカメラ14の視線方向を定める。   The sensor information acquisition unit 62 acquires posture information detected by the posture sensor 124 of the HMD 100. The motion detection unit 64 detects the posture of the HMD 100 attached to the user A's head. The line-of-sight direction determination unit 66 determines the line-of-sight direction of the camera 14 of the housing 20 according to the attitude of the HMD 100 detected by the motion detection unit 64.

動き検出部64は、HMD100を装着したユーザの頭部の姿勢を検出するヘッドトラッキング処理を行う。ヘッドトラッキング処理は、ユーザの頭部の姿勢に、HMD100の表示パネル102に表示する視野を連動させるために行われ、実施例のヘッドトラッキング処理では、HMD100の水平基準方向に対する回転角度と、水平面に対する傾き角度とが検出される。水平基準方向は、たとえばHMD100の電源がオンされたときに向いている方向として設定されてよい。   The motion detection unit 64 performs head tracking processing that detects the posture of the head of the user wearing the HMD 100. The head tracking process is performed in order to link the visual field displayed on the display panel 102 of the HMD 100 to the posture of the user's head. In the head tracking process of the embodiment, the rotation angle with respect to the horizontal reference direction of the HMD 100 and the horizontal plane The tilt angle is detected. The horizontal reference direction may be set, for example, as a direction facing when the power of the HMD 100 is turned on.

視線方向決定部66は、動き検出部64により検出されたHMD100の姿勢に応じて、視線方向を定める。この視線方向は、ユーザAの視線方向であり、ひいては分身であるロボット10のカメラ14の視線方向(光軸方向)である。   The line-of-sight direction determination unit 66 determines the line-of-sight direction according to the posture of the HMD 100 detected by the motion detection unit 64. This line-of-sight direction is the line-of-sight direction of the user A, and by extension, the line-of-sight direction (optical axis direction) of the camera 14 of the robot 10 that is a substitute.

カメラ14の視線方向(光軸方向)をユーザAの視線方向に連動させるために、ロボット10の基準姿勢を事前に設定しておく必要がある。図5には、第1円弧状アーム32と第2円弧状アーム34とが台座30に対して90度起立した状態を示しているが、この状態を水平方向として設定し、またロボット10の電源がオンされたときに筐体20の前面が向いている方向を、水平基準方向として設定してよい。なおロボット10は、HMD100と同様に姿勢センサを有して、水平方向を自律的に設定できるようにしてもよい。   In order to link the viewing direction (optical axis direction) of the camera 14 with the viewing direction of the user A, the reference posture of the robot 10 needs to be set in advance. FIG. 5 shows a state in which the first arc-shaped arm 32 and the second arc-shaped arm 34 stand up by 90 degrees with respect to the pedestal 30. This state is set as the horizontal direction, and the power supply of the robot 10 The direction in which the front surface of the housing 20 faces when is turned on may be set as the horizontal reference direction. Note that the robot 10 may have a posture sensor as in the HMD 100 so that the horizontal direction can be set autonomously.

HMD100およびロボット10の基準姿勢を設定した状態で、視線方向決定部66は、動き検出部64により検出された回転角度および傾き角度を、そのままカメラ14の視線方向(光軸方向)として決定してよい。動き検出部64が、HMD100の回転角度および傾き角度を検出すると、視線方向決定部66は、HMD100の視線方向を3次元座標のベクトル(x,y,z)として決定し、このときロボット10のカメラ14の視線方向を同じ(x,y,z)と決定してもよく、また何らかの補正を加えた(x’,y’,z’)として決定してもよい。   With the reference postures of the HMD 100 and the robot 10 set, the line-of-sight direction determination unit 66 determines the rotation angle and tilt angle detected by the motion detection unit 64 as the line-of-sight direction (optical axis direction) of the camera 14 as it is. Good. When the motion detection unit 64 detects the rotation angle and the inclination angle of the HMD 100, the line-of-sight direction determination unit 66 determines the line-of-sight direction of the HMD 100 as a vector (x, y, z) of three-dimensional coordinates. The line-of-sight direction of the camera 14 may be determined as the same (x, y, z), or may be determined as (x ′, y ′, z ′) with some correction.

アクチュエータ制御部68は、視線方向決定部66で決定された視線方向となるようにカメラ14の向きを制御する。具体的にアクチュエータ制御部68は、第1モータ52、第2モータ54、第3モータ56に供給する電力を調整して、HMD100の動きに、筐体20の動きを追従させる。アクチュエータ制御部68によるモータ駆動制御は、リアルタイムに実施され、したがって筐体20の向きは、ユーザAの視線の向きと同じように動かされる。   The actuator control unit 68 controls the orientation of the camera 14 so that the line-of-sight direction determined by the line-of-sight direction determination unit 66 is obtained. Specifically, the actuator control unit 68 adjusts the power supplied to the first motor 52, the second motor 54, and the third motor 56 so that the movement of the housing 20 follows the movement of the HMD 100. The motor drive control by the actuator control unit 68 is performed in real time, and therefore the direction of the housing 20 is moved in the same way as the direction of the line of sight of the user A.

実施例のアクチュエータ装置12によれば、筐体20は、第1円弧状アーム32および第2円弧状アーム34の回転中心を基準として駆動されるが、この動きは人の首と同じ動きを示す。アクチュエータ装置12は、2本の半円アームを交差させた簡易な構造でユーザAの首の動きを再現する。   According to the actuator device 12 of the embodiment, the housing 20 is driven with reference to the rotation centers of the first arc-shaped arm 32 and the second arc-shaped arm 34, and this movement shows the same movement as the human neck. . The actuator device 12 reproduces the movement of the neck of the user A with a simple structure in which two semicircular arms are crossed.

人は首の動きによって意思を伝達する。たとえば日本では首を縦に振ると肯定を、横に振ると否定を表現するが、アクチュエータ装置12は、ユーザAの首の動きと同じように筐体20を動かすため、ロボット10の周囲の人は、筐体20の動きによってもユーザAの意思を感じ取ることができる。そのためユーザAの首の動きを簡易な構造で再現できることは、テレイグジステンス技術において非常に有用である。   A person communicates his intention by moving his neck. For example, in Japan, if the head is swung vertically, positive is expressed, and if it is swung horizontally, negative is expressed. However, since the actuator device 12 moves the housing 20 in the same manner as the movement of the neck of the user A, people around the robot 10 Can sense the intention of the user A also by the movement of the housing 20. Therefore, the ability to reproduce the movement of the neck of the user A with a simple structure is very useful in the teleexistence technology.

次に出力系統24について説明する。
出力系統24において、右カメラ14aおよび左カメラ14bは、アクチュエータ装置12により制御された方向に向けられて、それぞれの画角内を撮影する。右カメラ14aおよび左カメラ14bは、たとえば大人の平均的な両目の間隔となるように離れて配置されてよい。右カメラ14aが撮影した右目用画像データおよび左カメラ14bが撮影した左目用画像データは、送信部90からHMD100に送信されて、それぞれ表示パネル102の右半分および左半分に表示される。これらの画像は、右目および左目から見た視差画像を形成し、表示パネル102を2分割してなる領域にそれぞれ表示させることで、画像を立体視させることができる。なおユーザAは光学レンズを通して表示パネル102を見るために、画像処理部80は、予めレンズによる光学歪みを補正した画像データを生成して、HMD100に供給してもよい。
Next, the output system 24 will be described.
In the output system 24, the right camera 14a and the left camera 14b are directed in the directions controlled by the actuator device 12 and shoot the respective angles of view. The right camera 14a and the left camera 14b may be arranged apart from each other, for example, so as to be an average distance between eyes of an adult. The right-eye image data captured by the right camera 14a and the left-eye image data captured by the left camera 14b are transmitted from the transmission unit 90 to the HMD 100 and displayed on the right half and the left half of the display panel 102, respectively. These images form parallax images viewed from the right eye and the left eye, and can be displayed stereoscopically by displaying the display panel 102 in an area divided into two. In order for the user A to view the display panel 102 through the optical lens, the image processing unit 80 may generate image data in which optical distortion caused by the lens is corrected in advance and supply the image data to the HMD 100.

右カメラ14aおよび左カメラ14bは、所定の周期(たとえば1/60秒)で撮影を行い、送信部90は遅延なく画像データをHMD100に送信する。これによりユーザAはロボット10の周囲の状況をリアルタイムで見ることができ、また顔の向きを変えることで、見たい方向を見ることができる。   The right camera 14a and the left camera 14b capture images at a predetermined cycle (for example, 1/60 seconds), and the transmission unit 90 transmits image data to the HMD 100 without delay. As a result, the user A can see the situation around the robot 10 in real time, and can also see the desired direction by changing the direction of the face.

右マイク16aおよび左マイク16bは、ロボット10の周囲の音を電気信号に変換して音声信号を生成する。以下、右マイク16aが生成する音声信号を「第1音声信号」と呼び、左マイク16bが生成する音声信号を「第2音声信号」と呼ぶ。上記したように、右マイク16aおよび左マイク16bは、筐体20において横方向に離れて配置されているため、右マイク16aが生成する第1音声信号と左マイク16bが生成する第2音声信号には、位相差が生じる。   The right microphone 16a and the left microphone 16b convert sound around the robot 10 into an electric signal to generate a sound signal. Hereinafter, the audio signal generated by the right microphone 16a is referred to as a “first audio signal”, and the audio signal generated by the left microphone 16b is referred to as a “second audio signal”. As described above, since the right microphone 16a and the left microphone 16b are disposed laterally apart from each other in the housing 20, the first audio signal generated by the right microphone 16a and the second audio signal generated by the left microphone 16b. Causes a phase difference.

本発明者は、第1音声信号および第2音声信号を、そのままの位相差で符号化してHMD100に提供した場合に、ユーザが、音源の方向を認識できない、つまり音声が右側から聞こえてくるのか、または左側から聞こえてくるのかを判別しにくいという知見を実験により得た。実験では筐体20の横方向の幅を大人の人間の顔幅程度(16cm)に設定しているが、人間の耳における音波伝達構造をマイク16では再現できないために、第1音声信号および第2音声信号の位相差のみでは、人間が音源の方向を知覚するには足りないという結論が得られた。   When the present inventor encodes the first audio signal and the second audio signal with the same phase difference and provides them to the HMD 100, the user cannot recognize the direction of the sound source, that is, whether the audio can be heard from the right side. Or, it was found through experiments that it was difficult to determine whether the sound was heard from the left side. In the experiment, the lateral width of the housing 20 is set to about the adult human face width (16 cm). However, since the sound transmission structure in the human ear cannot be reproduced by the microphone 16, It was concluded that only the phase difference between the two audio signals is insufficient for humans to perceive the direction of the sound source.

これを解決する手段として、筐体20の横方向の幅を大きくして、第1音声信号と第2音声信号の位相差を大きくすることが考えられるが、その場合は筐体20の重量が重くなり、アクチュエータ装置12で使用するモータの出力を高める必要が生じる。また筐体20の横方向の幅を大きくすると、右マイク16aと左マイク16bの間隔が、人間の両耳の間隔よりも広くなるため、実際に人が音を聞く感覚とは異なる音声信号が取得されることになる。   As a means for solving this, it is conceivable to increase the lateral width of the casing 20 to increase the phase difference between the first audio signal and the second audio signal. It becomes heavier and it becomes necessary to increase the output of the motor used in the actuator device 12. Further, when the lateral width of the housing 20 is increased, the interval between the right microphone 16a and the left microphone 16b becomes wider than the interval between both ears of a human, so that an audio signal that is different from the sense that a person actually hears sound is generated. Will be acquired.

そこで本発明者は、第1音声信号と第2音声信号の位相差を増幅することで、この問題を解決することを考え出した。音声処理部82は、以下に説明するように、右マイク16aが生成する第1音声信号および左マイク16bが生成する第2音声信号の位相差を増幅する機能を有する。なおロボット10は、リアルタイムでマイク音声をHMD100に伝達する必要があるため、音声処理部82は、位相差増幅機能を、ハードウェア回路によって実現する。   Therefore, the present inventor has devised to solve this problem by amplifying the phase difference between the first audio signal and the second audio signal. As will be described below, the audio processing unit 82 has a function of amplifying the phase difference between the first audio signal generated by the right microphone 16a and the second audio signal generated by the left microphone 16b. Since the robot 10 needs to transmit the microphone sound to the HMD 100 in real time, the sound processing unit 82 realizes the phase difference amplification function by a hardware circuit.

図11は、音声処理部82が備える位相差増幅装置82aの回路構成を示す。位相差増幅装置82aは、右マイク16aが生成した第1音声信号vと左マイク16bが生成した第2音声信号vの位相差を増幅して出力するアナログ回路装置である。 FIG. 11 shows a circuit configuration of the phase difference amplifying device 82a included in the audio processing unit 82. Phase difference amplifier 82a is an analog circuit device for amplifying and outputting the phase difference between the second audio signal v L of the first audio signal v R and the left microphone 16b to the right microphone 16a was formed was produced.

第1増幅器84aは、右マイク16aから第1音声信号vを入力されると、第1音声信号vを増幅した第1正相信号V と、第1音声信号vを反転増幅した第1逆相信号V とを出力する。第1増幅器84aは、入力信号の正相成分を増幅して出力するオペアンプと、入力信号の逆相成分を増幅して出力するオペアンプとから構成されてもよいが、正相成分および逆相成分を出力する2つの出力端子を有するオペアンプから構成されてもよい。 The first amplifier 84a, when the right microphone 16a is inputted to the first audio signal v R, the first and positive-phase signal V R + obtained by amplifying the first voice signal v R, inverting amplifying the first voice signal v R The first negative phase signal V R is output. The first amplifier 84a may be composed of an operational amplifier that amplifies and outputs the positive phase component of the input signal and an operational amplifier that amplifies and outputs the negative phase component of the input signal. May be composed of an operational amplifier having two output terminals for outputting.

また第2増幅器84bは、左マイク16bから第2音声信号vを入力されると、第2音声信号vを増幅した第2正相信号V と、第2音声信号vを反転増幅した第2逆相信号V とを出力する。第2増幅器84bも、第1増幅器84aと同様に、それぞれ正相成分および逆相成分を出力する2つのオペアンプから構成されてもよく、また正相成分および逆相成分の双方を出力する1つのオペアンプから構成されてもよい。 The second amplifier 84b is inverted and left microphone 16b is input to the second audio signal v L, the second positive phase signal V L + obtained by amplifying the second audio signal v L, the second audio signal v L The amplified second negative phase signal V L is output. Similarly to the first amplifier 84a, the second amplifier 84b may be composed of two operational amplifiers that output the positive phase component and the negative phase component, respectively, and one output that outputs both the positive phase component and the negative phase component. You may comprise from an operational amplifier.

第1加算器86aは、第1正相信号V を第1係数倍(α倍)した信号と、第2逆相信号V を第2係数倍(β倍)した信号とを加算した出力信号VrOUTを出力する。ここでα、βは、0より大きく、1以下の値を示す。なおαとβは異なるように設定され、この例ではα>βである。出力信号VrOUTは、以下の式で表現される。
rOUT=α×V +β×V
The first adder 86a adds a signal obtained by multiplying the first positive phase signal V R + by a first coefficient (α times) and a signal obtained by multiplying the second negative phase signal V L by a second coefficient (β times). The output signal V rOUT is output. Here, α and β are values greater than 0 and 1 or less. Note that α and β are set to be different, and α> β in this example. The output signal V rOUT is expressed by the following equation.
V rOUT = α × V R + + β × V L

第1加算器86aは、第1正相信号V をα倍に分圧する分圧回路の出力と、第2逆相信号V をβ倍に分圧する分圧回路の出力とを加算する加算回路であってもよいが、第1正相信号V をα倍した電圧信号と第2逆相信号V をβ倍した電圧信号とを加算するオペアンプであってもよい。 The first adder 86a adds the output of the voltage dividing circuit that divides the first positive phase signal V R + by α times and the output of the voltage dividing circuit that divides the second negative phase signal V L by β times. However, it may be an operational amplifier that adds a voltage signal obtained by multiplying the first positive phase signal V R + by α and a voltage signal obtained by multiplying the second negative phase signal V L by β.

第2加算器86bは、第2正相信号V を第1係数倍(α倍)した信号と、第1逆相信号V を第2係数倍(β倍)した信号とを加算した出力信号VlOUTを出力する。出力信号VlOUTは、以下の式で表現される。
lOUT=α×V +β×V
The second adder 86b adds the signal obtained by multiplying the second positive phase signal V L + by the first coefficient (α times) and the signal obtained by multiplying the first negative phase signal V R by the second coefficient (β times). The output signal VlOUT is output. The output signal VlOUT is expressed by the following equation.
V lOUT = α × V L + + β × V R

第2加算器86bは、第2正相信号V をα倍に分圧する分圧回路の出力と、第1逆相信号V をβ倍に分圧する分圧回路の出力とを加算する加算回路であってもよいが、第2正相信号V をα倍した電圧信号と第1逆相信号V をβ倍した電圧信号とを加算するオペアンプであってもよい。 The second adder 86b adds the output of the voltage dividing circuit that divides the second positive phase signal V L + by α times and the output of the voltage dividing circuit that divides the first negative phase signal V R by β times. However, it may be an operational amplifier that adds a voltage signal obtained by multiplying the second positive phase signal V L + by α and a voltage signal obtained by multiplying the first negative phase signal V R by β.

第3増幅器88aは、第1加算器86aの出力信号VrOUTを第3係数倍(γ倍)してVROUTを出力し、第4増幅器88bは、第2加算器86bの出力信号VlOUTを第3係数倍(γ倍)してVLOUTを出力する。音声処理部82において、位相差増幅装置82aからの出力信号VROUT、VLOUTは、それぞれ音声符号化されて、右耳用音声データおよび左耳用音声データとして送信部90からHMD100に送信される。 The third amplifier 88a is an output signal V ROUT of the first adder 86a third factor multiplication (gamma times) and outputs a V ROUT, fourth amplifier 88b is an output signal V LOUT of the second adder 86b V LOUT is output by multiplying by the third coefficient (γ times). In the audio processing unit 82, the output signals V ROUT and V LOUT from the phase difference amplifying device 82a are respectively audio encoded and transmitted from the transmission unit 90 to the HMD 100 as audio data for right ear and audio data for left ear. .

図12は、信号波形の位相差を説明するための図である。図12(a)は、右マイク16aが生成する第1音声信号vと左マイク16bが生成する第2音声信号vの波形の関係を示す。ここでは説明の便宜上、第1音声信号vと第2音声信号vとをそれぞれ同倍に増幅した第1正相信号V と第2正相信号V との関係を示している。この入力波形では、ロボット10の筐体20から見て音源が右側に配置されており、第1正相信号V の位相の方が、第2正相信号V よりも僅かに進んでおり、また振幅は第1正相信号V の方が高い。 FIG. 12 is a diagram for explaining a phase difference between signal waveforms. 12 (a) shows a relationship between the second audio signal v L waveform first audio signal v R and the left microphone 16b to the right microphone 16a is generated is produced. Here, for convenience of explanation, the relationship between the first positive phase signal V R + and the second positive phase signal V L + obtained by amplifying the first audio signal v R and the second audio signal v L to the same magnification is shown. Yes. In this input waveform, the sound source is arranged on the right side when viewed from the housing 20 of the robot 10, and the phase of the first positive phase signal V R + slightly advances from the second positive phase signal V L +. Also, the amplitude of the first positive phase signal V R + is higher.

図12(b)は、第1加算器86aの出力信号VrOUTと第2加算器86bの出力信号VlOUTの波形の関係を示す。図12(a)に示す入力波形の位相差と比較すると、図12(b)に示す加算器の出力波形の位相差が広がっている(増幅している)ことが分かる。 FIG. 12B shows the relationship between the waveforms of the output signal V rOUT of the first adder 86a and the output signal V lOUT of the second adder 86b. Compared with the phase difference of the input waveform shown in FIG. 12A, it can be seen that the phase difference of the output waveform of the adder shown in FIG. 12B is widened (amplified).

図13は、入力信号波形の位相差を増幅する原理を説明するための図である。図13(a)は、第1正相信号V および第1逆相信号V と、第2正相信号V および第2逆相信号V を2次元座標系で表現している。第1正相信号V と第2正相信号V の位相差はθである。 FIG. 13 is a diagram for explaining the principle of amplifying the phase difference of the input signal waveform. FIG. 13A shows the first positive phase signal V R + and the first negative phase signal V R , the second positive phase signal V L + and the second negative phase signal V L in a two-dimensional coordinate system. doing. The phase difference between the first positive phase signal V R + and the second positive phase signal V L + is θ.

図13(b)は、第1加算器86aの出力信号VrOUTと第2加算器86bの出力信号VlOUTを示す。上記したように、VrOUT、VlOUTは、
rOUT=α×V +β×V
lOUT=α×V +β×V
と表現される。図13(b)では、α=1.0、β=0.6を設定する。
Figure 13 (b) shows the output signal V ROUT of the first adder 86a and the output signal V LOUT of the second adder 86b. As described above, V rOUT and V lOUT are
V rOUT = α × V R + + β × V L
V lOUT = α × V L + + β × V R
It is expressed. In FIG. 13B, α = 1.0 and β = 0.6 are set.

図13(b)に示すように、VrOUTとVlOUTの位相差はθ’となり、図13(a)に示す位相差θよりも大きくなっている。このように位相差増幅装置82aは、入力された2つの音声信号の位相差を増幅する。 As shown in FIG. 13B , the phase difference between V rOUT and V 1OUT is θ ′, which is larger than the phase difference θ shown in FIG. Thus, the phase difference amplifying device 82a amplifies the phase difference between the two input audio signals.

本発明者によるシミュレーションの結果、入力信号の位相差が15度のとき、出力信号の位相差は4倍の60度となり、入力信号の位相差が30度のとき、出力信号の位相差は3倍の90度となり、入力信号の位相差が45度のとき、出力信号の位相差は約2.7倍の120度となることが分かった。   As a result of simulation by the present inventor, when the phase difference of the input signal is 15 degrees, the phase difference of the output signal is 4 times 60 degrees, and when the phase difference of the input signal is 30 degrees, the phase difference of the output signal is 3 It was found that when the input signal phase difference was 45 degrees, the output signal phase difference was approximately 2.7 times 120 degrees when the input signal was 90 degrees.

このシミュレーション結果によると、位相差が小さいほど増幅率が大きくなっている。実際の筐体20では、入力信号の位相差は5度〜20度程度であり、位相差増幅装置82aは、この範囲における増幅率を大きくできることで、出力信号の位相差を、ユーザが音源の方向を聞き分けられる程度に広げられる。位相差増幅装置82aからの出力信号VROUT、VLOUTは、それぞれ音声符号化されて、右耳用音声データおよび左耳用音声データとして送信部90からHMD100に送信される。 According to this simulation result, the smaller the phase difference, the greater the amplification factor. In the actual case 20, the phase difference of the input signal is about 5 to 20 degrees, and the phase difference amplifying device 82a can increase the amplification factor in this range, so that the phase difference of the output signal can be determined by the user. It is widened to the extent that you can hear the direction. The output signals V ROUT and V LOUT from the phase difference amplifying device 82a are each audio-encoded and transmitted from the transmission unit 90 to the HMD 100 as audio data for the right ear and audio data for the left ear.

HMD100において、右耳用音声データは、右耳用のイヤホン104から音声として出力され、左耳用音声データは、左耳用のイヤホン104から音声として出力される。ユーザAは、位相差を増幅された音声を両耳から聞くことで、音源の方向を認識する。ユーザAは、右側から声が聞こえてきたと感じれば、顔を右側に向ける。このときユーザAの顔の動きに連動してロボット10の筐体20が右側を向くため(図2参照)、ロボット10のカメラ14は、右側の環境を撮影して、撮影画像データをリアルタイムでHMD100に送信する。これによりユーザAは、発声した人の顔を見ながら話すことができ、従来にない優れたユーザインタフェースを実現できる。   In the HMD 100, right ear audio data is output as audio from the right ear earphone 104, and left ear audio data is output as audio from the left ear earphone 104. User A recognizes the direction of the sound source by listening to the sound with the amplified phase difference from both ears. If the user A feels that a voice has been heard from the right side, the user A turns his face to the right side. At this time, since the housing 20 of the robot 10 faces the right side in conjunction with the movement of the face of the user A (see FIG. 2), the camera 14 of the robot 10 captures the environment on the right side and captures the captured image data in real time. Send to HMD100. As a result, the user A can speak while looking at the face of the person who speaks, and can realize an unprecedented excellent user interface.

なお上記した例では、α=1.0、β=0.6と設定したが、α、βの値は、実験により適切に設定されることが好ましい。図5に示すように、右マイク16aおよび左マイク16bは、筐体20の側面を窪ませた位置であって、前面からみて奥側の位置に設けている。マイク16における音波の伝達構造は、筐体側面の形状に依存するため、α、βの比は、実験により最適に求められることが好ましい。   In the above example, α = 1.0 and β = 0.6 are set. However, it is preferable that the values of α and β are appropriately set by experiments. As shown in FIG. 5, the right microphone 16 a and the left microphone 16 b are provided at positions where the side surface of the housing 20 is recessed and at the back side when viewed from the front. Since the sound wave transmission structure in the microphone 16 depends on the shape of the side surface of the housing, the ratio of α and β is preferably determined optimally through experiments.

なお図5において、マイク16は、後板17の横方向の内側に配置されている。これは後板17に、前方からの音波と後方からの音波の周波数特性を異ならせ、後方からの高域成分を低減させる役割をもたせるためである。つまり後板17は、マイク16に対して人の耳介のような機能をもち、後方からの音波が後板17を回り込んでマイク16に到達するようにしている。なお前方からの音波と後方からの音波の周波数特性を異ならせるために、後板17は、さらに上下方向および横方向に広げられて形成されてもよい。マイク16の後方に後板17のような音波遮蔽体を形成することで、ユーザAは、音源の前後方向の位置を聞き分けることも可能となる。   In FIG. 5, the microphone 16 is disposed inside the rear plate 17 in the lateral direction. This is because the rear plate 17 has a function of making the frequency characteristics of the sound wave from the front and the sound wave from the rear different from each other and reducing the high frequency component from the rear. In other words, the rear plate 17 has a function like a human auricle with respect to the microphone 16, and a sound wave from the rear wraps around the rear plate 17 and reaches the microphone 16. In order to make the frequency characteristics of the sound wave from the front and the sound wave from the rear different, the rear plate 17 may be formed to be further expanded in the vertical direction and the horizontal direction. By forming a sound wave shield such as the rear plate 17 behind the microphone 16, the user A can also recognize the position of the sound source in the front-rear direction.

このように情報処理システム1では、ユーザAが、自分の分身であるロボット10を用いて、リアルタイムでロボット10の周囲にいる人達と自由にコミュニケーションをとることができる。以下では、情報処理システム1の利用可能性をさらに高める技術について提案する。   As described above, in the information processing system 1, the user A can freely communicate with the people around the robot 10 in real time using the robot 10 that is his or her own character. Below, the technique which further raises the usability of the information processing system 1 is proposed.

従来より、カメラの傾きを変えながら撮影した画像をスティッチ(縫い合わせ)して全天球パノラマ画像を生成する技術が知られている。最近では、専用のパンチルトカメラも販売されており、個人でも全天球パノラマ画像を撮影できるようになっている。   2. Description of the Related Art Conventionally, a technique for generating an omnidirectional panoramic image by stitching (sewing) images taken while changing the tilt of a camera is known. Recently, a dedicated pan / tilt camera has also been sold, and individuals can shoot spherical panoramic images.

情報処理システム1において、ロボット10は、ユーザAの頭部の動きに応じた視線方向にカメラ14を向けて、周囲を撮影する。ユーザAが様々な方向を向くことで、カメラ14が様々な方向を撮影する。この撮影画像に、視線方向を表現する3次元ベクトルを付加して記録しておくことで、仮想的な全天球パノラマ画像を生成することが可能となる。   In the information processing system 1, the robot 10 photographs the surroundings by directing the camera 14 in the line-of-sight direction according to the movement of the user A's head. As the user A faces various directions, the camera 14 captures various directions. It is possible to generate a virtual omnidirectional panoramic image by adding a three-dimensional vector representing the line-of-sight direction to this captured image and recording it.

図14は、ロボット10の機能ブロックの変形例を示す。この機能ブロックは、図10に示す機能ブロックを前提としており、その中で視線方向決定部66から画像処理部80に対して、決定した視線方向が供給されることを示している。   FIG. 14 shows a modification of the functional block of the robot 10. This functional block is based on the functional block shown in FIG. 10, and shows that the determined visual line direction is supplied from the visual line direction determining unit 66 to the image processing unit 80.

ユーザAによるロボット10の使用中、送信部90は、両眼用の画像データおよび両耳用の音声データ(以下、まとめて「視聴データ」と呼ぶこともある)を、ネットワーク4経由でユーザAのHMD100に送信している。このとき送信部90は、同じ視聴データをネットワーク4経由でルータ5を介して処理装置200にも送信し、処理装置200はユーザAの視聴データを記録する。   During the use of the robot 10 by the user A, the transmission unit 90 transmits the image data for both eyes and the sound data for both ears (hereinafter sometimes collectively referred to as “viewing data”) via the network 4 to the user A. To the HMD100. At this time, the transmission unit 90 transmits the same viewing data to the processing device 200 via the network 4 via the router 5, and the processing device 200 records the viewing data of the user A.

処理装置200は、ユーザAの視聴データを記録しつつ、ユーザAの画像データをもとに全天球パノラマ画像をリアルタイム生成し、ユーザAとは異なるユーザBの視線方向に応じた画像をユーザBのHMD100aに提供する機能をもつ。なおHMD100aは、これまで説明したHMD100と同じ構成を備える。処理装置200は、たとえば単一のサーバにより構成されてもよいが、クラウドサービスを提供するサーバ群により構成されてもよい。   The processing device 200 generates the omnidirectional panoramic image in real time based on the image data of the user A while recording the viewing data of the user A, and displays an image corresponding to the viewing direction of the user B different from the user A. B has a function provided to the HMD 100a. The HMD 100a has the same configuration as the HMD 100 described so far. The processing device 200 may be configured by a single server, for example, but may be configured by a server group that provides a cloud service.

処理装置200が全天球パノラマ画像を生成できるようにするために、画像処理部80は、フレーム画像データのそれぞれに、視線方向決定部66から供給される視線方向を示すベクトル情報と、撮影開始点からの経過時間を示す撮影時間情報とを付加する。ベクトル情報は、ロボット10のカメラ14の視線方向を示す。撮影時間情報は、撮影開始点からの時間を表現するものであればよく、たとえば撮影された順番を示すフレーム番号であってもよい。   In order to enable the processing device 200 to generate an omnidirectional panoramic image, the image processing unit 80 includes vector information indicating the line-of-sight direction supplied from the line-of-sight direction determination unit 66 and the start of shooting for each frame image data. Shooting time information indicating the elapsed time from the point is added. The vector information indicates the line-of-sight direction of the camera 14 of the robot 10. The shooting time information only needs to express the time from the shooting start point, and may be a frame number indicating the order of shooting, for example.

この技術では、ユーザAによるロボット10の使用中に、ユーザBがHMD100aを装着し、ロボット10から供給されるユーザAの視聴データをもとに生成される画像データおよび音声データを、HMD100aに提供する。ユーザAの視聴データをそのまま再生するだけであれば、処理装置200は、受信した視聴データをそのままユーザBのHMD100aにストリーミング配信するだけでよいが、この技術では、処理装置200が、ユーザAの画像データをもとに構成される全天球パノラマ画像から、ユーザBの視線方向にもとづいた画像を再構成して、ユーザBのHMD100aに提供できるようにする。なお音声データは、ユーザBのHMD100aにストリーミング配信される。   In this technique, while the robot 10 is being used by the user A, the user B wears the HMD 100a and provides the HMD 100a with image data and audio data generated based on the viewing data of the user A supplied from the robot 10. To do. If the viewing data of the user A is simply reproduced as it is, the processing device 200 may simply stream the received viewing data to the HMD 100a of the user B as it is. An image based on the line-of-sight direction of the user B is reconstructed from the panoramic image formed based on the image data, and can be provided to the user B's HMD 100a. The audio data is streamed to user B's HMD 100a.

図15は、処理装置200の機能ブロックを示す。処理装置200は、受信部202、センサ情報取得部204、動き検出部206、視線方向決定部208、画像決定部210、音声決定部212、視聴データ提供部214、送信部216および記録部218を備える。記録部218は画像記録部220および音声記録部222を含む。受信部202が、ロボット10から送信された視聴データを受信すると、画像記録部220は、受信した画像データを順次記録し、音声記録部222は、受信した音声データを順次記録する。なお画像データは、フレーム画像ごとに、撮影時のベクトル情報および撮影時間情報を付加されている。   FIG. 15 shows functional blocks of the processing apparatus 200. The processing device 200 includes a reception unit 202, a sensor information acquisition unit 204, a motion detection unit 206, a line-of-sight direction determination unit 208, an image determination unit 210, an audio determination unit 212, a viewing data provision unit 214, a transmission unit 216, and a recording unit 218. Prepare. The recording unit 218 includes an image recording unit 220 and an audio recording unit 222. When the receiving unit 202 receives the viewing data transmitted from the robot 10, the image recording unit 220 sequentially records the received image data, and the audio recording unit 222 sequentially records the received audio data. The image data is added with vector information and shooting time information at the time of shooting for each frame image.

ユーザBは、HMD100aを通じて、処理装置200に、ユーザAの視聴データの再生指示を送信する。処理装置200は、再生指示を受け付けると、視聴データの再生処理を開始する。音声決定部212はユーザBに提供する音声データを決定し、音声記録部222に記録された音声データを、音声記録部222からただちに読み出し視聴データ提供部214に提供する。つまり音声決定部212は、ロボット10から提供される音声データを、HMD100aにストリーミング配信する。したがってユーザBは、ユーザAが聞いている音声と同じ音声をHMD100aのイヤホン104から聞くことができる。   User B transmits an instruction to reproduce viewing data of user A to processing apparatus 200 through HMD 100a. When receiving the playback instruction, the processing device 200 starts playback processing of viewing data. The audio determination unit 212 determines audio data to be provided to the user B, and immediately reads out the audio data recorded in the audio recording unit 222 from the audio recording unit 222 and provides it to the viewing data providing unit 214. That is, the sound determination unit 212 distributes the sound data provided from the robot 10 to the HMD 100a in a streaming manner. Therefore, the user B can hear the same sound as the sound that the user A is listening from the earphone 104 of the HMD 100a.

処理装置200による再生処理中、受信部202は、ユーザBが装着したHMD100aから送信されるセンサ情報を受信し、センサ情報取得部204は、受信したセンサ情報を取得する。このセンサ情報は、姿勢センサ124がHMD100aの姿勢を検出した姿勢情報である。動き検出部206は、ユーザBの頭部に装着されたHMD100aの姿勢を検出する。視線方向決定部208は、動き検出部206により検出されたHMD100aの姿勢に応じて、全天球パノラマ画像における仮想カメラの視線方向を定める。画像決定部210はユーザBに提供する画像データを決定し、画像記録部220に記録された複数の画像データを用いて、決定された視線方向に向けた仮想カメラにより撮影される画像を合成して画像データを生成する。   During the reproduction process by the processing device 200, the reception unit 202 receives sensor information transmitted from the HMD 100a worn by the user B, and the sensor information acquisition unit 204 acquires the received sensor information. This sensor information is posture information obtained by the posture sensor 124 detecting the posture of the HMD 100a. The motion detection unit 206 detects the posture of the HMD 100a mounted on the user B's head. The line-of-sight direction determination unit 208 determines the line-of-sight direction of the virtual camera in the omnidirectional panoramic image according to the attitude of the HMD 100 a detected by the motion detection unit 206. The image determination unit 210 determines image data to be provided to the user B, and uses the plurality of image data recorded in the image recording unit 220 to synthesize an image photographed by the virtual camera toward the determined line-of-sight direction. To generate image data.

視聴データ提供部214は、画像決定部210で決定された画像データと、音声決定部212で決定された音声データとを合わせた視聴データを、送信部216からユーザBのHMD100aに提供する。   The viewing data providing unit 214 provides viewing data that combines the image data determined by the image determining unit 210 and the sound data determined by the sound determining unit 212 from the transmitting unit 216 to the HMD 100a of the user B.

図15において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   In FIG. 15, each element described as a functional block for performing various processes can be configured by a circuit block, a memory, and other LSIs in terms of hardware, and loaded in the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

処理装置200は、全方位のパノラマ画像を生成する。したがってユーザBが首を左または右に回して水平方向の視線を左または右に回転させることで、左方向または右方向のパノラマ画像がHMD100aの表示パネル102に表示され、またユーザBが首を上または下に傾けて、垂直方向に視線を傾けることで、上方向または下方向のパノラマ画像がHMD100aの表示パネル102に表示されるようになる。   The processing device 200 generates an omnidirectional panoramic image. Therefore, when the user B turns his / her neck left or right and rotates the horizontal line of sight to the left or right, the panorama image in the left or right direction is displayed on the display panel 102 of the HMD 100a, and the user B By tilting up or down and tilting the line of sight in the vertical direction, a panoramic image in the upward or downward direction is displayed on the display panel 102 of the HMD 100a.

図16は、処理装置200が生成する全天球パノラマ画像を説明するための図である。この技術では、ユーザBが球体の中心に位置し、視線の方向を変更することで、見える画像が変更される仮想環境を実現する。画像決定部210は、画像記録部220に記録されている画像データをスティッチ(縫い合わせ)して、全天球パノラマ画像を生成する。   FIG. 16 is a diagram for explaining an omnidirectional panoramic image generated by the processing device 200. In this technology, a virtual environment in which a visible image is changed is realized by the user B being positioned at the center of the sphere and changing the direction of the line of sight. The image determining unit 210 stitches the image data recorded in the image recording unit 220 to generate an omnidirectional panoramic image.

実施例では、説明を単純にするためにロボット10がカメラ14をズームせず、一定の拡大率で画像データを取得する。そのため画像決定部210は、画像データに付加されたベクトル情報にもとづいて、画像データを全天球の内周面に張り合わせることで、全天球パノラマ画像を構成する。なお複数の画像データが重複する箇所については、最新の画像データで上書きし、これによりリアルタイムの状況に近い全天球パノラマ画像を構成できるようになる。   In the embodiment, for simplicity of explanation, the robot 10 does not zoom the camera 14 and acquires image data at a constant enlargement ratio. Therefore, the image determination unit 210 forms an omnidirectional panoramic image by pasting the image data onto the inner peripheral surface of the omnidirectional sphere based on the vector information added to the image data. It should be noted that a portion where a plurality of image data overlap is overwritten with the latest image data, so that an omnidirectional panoramic image close to a real-time situation can be constructed.

なお実際の画像決定部210の画像生成処理は、処理負荷を軽減するために、常に全天球パノラマ画像を再構成するのではなく、ユーザBが位置する中心点9から撮影されるフレーム画像7を動的に生成する処理となる。このとき画像決定部210は、仮想カメラ8の撮影範囲(画角)を、実際のロボット10のカメラ14の撮影範囲(画角)に対応するように設定することが好ましい。これによりユーザAの視線方向とユーザBの視線方向とが一致しているタイミングでは、ユーザBは、ユーザAと同じ画像を見られるようになる。   Note that the actual image generation processing of the image determination unit 210 does not always reconstruct the omnidirectional panoramic image in order to reduce the processing load, but the frame image 7 taken from the center point 9 where the user B is located. Is a process of dynamically generating. At this time, the image determination unit 210 preferably sets the shooting range (view angle) of the virtual camera 8 so as to correspond to the actual shooting range (view angle) of the camera 14 of the robot 10. As a result, at the timing when the line-of-sight direction of user A and the line-of-sight direction of user B match, user B can see the same image as user A.

このように画像決定部210は、画像データにメタデータとして設定されているベクトル情報を用いて、イメージスティッチング処理を実施し、ユーザBの視線方向から定まる撮影範囲のフレーム画像7を生成する。動き検出部206は、ユーザBのヘッドトラッキング処理を行うことで、ユーザBの頭部(実際にはHMD100a)の回転角度および傾きを検出する。ここでHMD100aの回転角度は、水平面の基準方向に対する回転角度であり、基準方向は、たとえばHMD100aの電源がオンされたときに向いている方向として設定されてよい。またHMD100aの傾きは、水平面に対する傾斜角度である。ヘッドトラッキング処理として既知の技術が利用されてよく、動き検出部206は、HMD100aの姿勢センサが検出したセンサ情報から、HMD100aの回転角度および傾きを検出する。   In this manner, the image determination unit 210 performs image stitching processing using the vector information set as metadata in the image data, and generates the frame image 7 in the shooting range determined from the line-of-sight direction of the user B. The motion detection unit 206 detects the rotation angle and inclination of the head of the user B (actually, the HMD 100a) by performing the head tracking process of the user B. Here, the rotation angle of the HMD 100a is a rotation angle with respect to the reference direction of the horizontal plane, and the reference direction may be set as a direction facing when the power of the HMD 100a is turned on, for example. The inclination of the HMD 100a is an inclination angle with respect to the horizontal plane. A known technique may be used as the head tracking process, and the motion detection unit 206 detects the rotation angle and inclination of the HMD 100a from the sensor information detected by the attitude sensor of the HMD 100a.

視線方向決定部208は、検出したHMD100aの回転角度および傾きにしたがって、仮想球体における仮想カメラ8の姿勢を定める。仮想カメラ8は、仮想球体の中心点9から仮想球体の内周面を撮影するように配置されており、視線方向決定部208は、仮想カメラ8の光軸の向きを、ロボット10のカメラ14の光軸方向と一致するように決定してもよい。   The line-of-sight direction determination unit 208 determines the posture of the virtual camera 8 in the virtual sphere according to the detected rotation angle and inclination of the HMD 100a. The virtual camera 8 is arranged so as to photograph the inner peripheral surface of the virtual sphere from the center point 9 of the virtual sphere, and the line-of-sight direction determination unit 208 changes the direction of the optical axis of the virtual camera 8 to the camera 14 of the robot 10. It may be determined so as to coincide with the optical axis direction.

ロボット10において、視線方向決定部66は、ユーザAのHMD100の視線方向を3次元座標のベクトル(x,y,z)として決定すると、ロボット10のカメラ14の視線方向を同じ(x,y,z)と決定してもよいことを説明した。処理装置200においても、視線方向決定部208は、ユーザBのHMD100aの視線方向を3次元座標のベクトル(x,y,z)として決定すると、仮想カメラ8の視線方向を同じ(x,y,z)と決定してもよい。また視線方向決定部66において、HMD100の視線方向を所定の変換式で補正してカメラ14の視線方向を求める場合には、視線方向決定部208においても、HMD100aの視線方向を同じ変換式で補正して仮想カメラ8の視線方向を求めてもよい。このように、それぞれの3次元座標系を取り扱うことで、ユーザAの視線方向とユーザBの視線方向とが一致しているタイミングでは、ユーザBは、ユーザAと同じ画像を見られるようになる。   In the robot 10, when the line-of-sight direction determination unit 66 determines the line-of-sight direction of the HMD 100 of the user A as a three-dimensional coordinate vector (x, y, z), the line-of-sight direction of the camera 14 of the robot 10 is the same (x, y, It was explained that z) may be determined. Also in the processing apparatus 200, when the line-of-sight direction determination unit 208 determines the line-of-sight direction of the HMD 100a of the user B as a vector (x, y, z) of three-dimensional coordinates, the line-of-sight direction of the virtual camera 8 is the same (x, y, z) may be determined. When the gaze direction determining unit 66 determines the gaze direction of the camera 14 by correcting the gaze direction of the HMD 100 with a predetermined conversion formula, the gaze direction determination unit 208 also corrects the gaze direction of the HMD 100a with the same conversion formula. Then, the line-of-sight direction of the virtual camera 8 may be obtained. In this way, by handling each three-dimensional coordinate system, the user B can see the same image as the user A at the timing when the line-of-sight direction of the user A matches the line-of-sight direction of the user B. .

画像決定部210は、仮想カメラ8のフレーム画像7を生成すると、光学レンズ用の光学歪み補正を施し、視聴データ提供部214に画像データを供給する。なお図16においては1つの仮想カメラ8が示されているが、実際には左目用と右目用の2つの仮想カメラ8が配置されて、それぞれの画像データが、ロボット10から提供される左目用画像データおよび右目用画像データにもとづいて生成される。   When the image determination unit 210 generates the frame image 7 of the virtual camera 8, the image determination unit 210 performs optical distortion correction for the optical lens, and supplies image data to the viewing data providing unit 214. In FIG. 16, one virtual camera 8 is shown. Actually, however, two virtual cameras 8 for the left eye and the right eye are arranged, and each image data is provided for the left eye provided from the robot 10. It is generated based on the image data and the right-eye image data.

図17は、画像記録部220に記録されている撮影画像データを説明するための図である。ここでは説明の便宜上、片目用の複数の画像データを示し、またユーザBの視線方向に対して適切なアフィン変換を施した状態の画像データを2次元平面上に配置している。なおユーザBの視線方向については後述する。   FIG. 17 is a diagram for describing captured image data recorded in the image recording unit 220. Here, for convenience of explanation, a plurality of image data for one eye is shown, and image data in a state in which an appropriate affine transformation is applied to the user B's line-of-sight direction is arranged on a two-dimensional plane. Note that the line-of-sight direction of the user B will be described later.

画像決定部210は、各撮影画像の重複する部分をつなぎ合わせて、全天球パノラマ画像を生成する機能をもつ。撮影画像をつなぎ合わせる技術については、たとえば同一出願人による特許第5865388号にも記載されているように既知の技術を利用してよい。以下では、画像記録部220に記録された複数の撮影画像データのうち、いずれの撮影画像データを用いるかを選択する手法について説明する。   The image determination unit 210 has a function of generating an omnidirectional panoramic image by connecting overlapping portions of the captured images. As a technique for joining photographed images, for example, a known technique may be used as described in Japanese Patent No. 5865388 by the same applicant. Hereinafter, a method for selecting which captured image data to use from among a plurality of captured image data recorded in the image recording unit 220 will be described.

図17に、5つの画像データI1〜I5を示す。各画像データに含まれる(x,y,z)は、撮影時のカメラ14の視線方向(ベクトル情報)を表現し、“t”は、撮影時間情報を表現する。ここで画像データI1は、ベクトル情報(x1,y1,z1)および撮影時間情報t1を付加情報として有する。同様に画像データI2は、ベクトル情報(x2,y2,z2)および撮影時間情報t2を付加情報として有し、画像データI3は、ベクトル情報(x3,y3,z3)および撮影時間情報t3を付加情報として有し、画像データI4は、ベクトル情報(x4,y4,z4)および撮影時間情報t4を付加情報として有し、画像データI5は、ベクトル情報(x5,y5,z5)および撮影時間情報t5を付加情報として有する。   FIG. 17 shows five image data I1 to I5. (X, y, z) included in each image data represents the viewing direction (vector information) of the camera 14 at the time of photographing, and “t” represents photographing time information. Here, the image data I1 has vector information (x1, y1, z1) and shooting time information t1 as additional information. Similarly, the image data I2 has vector information (x2, y2, z2) and shooting time information t2 as additional information, and the image data I3 has vector information (x3, y3, z3) and shooting time information t3 as additional information. The image data I4 includes vector information (x4, y4, z4) and shooting time information t4 as additional information, and the image data I5 includes vector information (x5, y5, z5) and shooting time information t5. It has as additional information.

なお付加情報である撮影時間情報t1〜t5は、撮影開始点(時間0)からの経過時間を表現し、t1<t2<t3<t4<t5の関係にある。したがって画像データI1〜I5の中では、画像データI1が最初に撮影され、画像データI5が最後に撮影されている。画像決定部210は、撮影時間情報と、視線方向決定部208が決定した仮想カメラ8の視線方向にもとづいて、合成画像を生成するための画像データを選択する。   Note that the shooting time information t1 to t5 as additional information expresses the elapsed time from the shooting start point (time 0) and has a relationship of t1 <t2 <t3 <t4 <t5. Therefore, among the image data I1 to I5, the image data I1 is photographed first and the image data I5 is photographed last. The image determination unit 210 selects image data for generating a composite image based on the shooting time information and the visual line direction of the virtual camera 8 determined by the visual line direction determination unit 208.

具体的に画像決定部210は、視線方向決定部208が決定した仮想カメラ8の視線方向、つまりHMD100aを装着したユーザBが向いている方向から、全天球パノラマ画像から切り取る撮影範囲(仮想カメラ8の画角)を定め、撮影範囲内に含まれる画像を含む画像データを、画像データに付加されたベクトル情報にもとづいて抽出する。   Specifically, the image determination unit 210 captures a shooting range (virtual camera) cut from the panoramic image from the gaze direction of the virtual camera 8 determined by the gaze direction determination unit 208, that is, the direction in which the user B wearing the HMD 100a faces. 8) and image data including an image included in the shooting range is extracted based on vector information added to the image data.

図18は、画像決定部210が生成するべきフレーム画像7と、画像データとの関係を示す図である。図17および図18において、各画像データI1〜I5は、各ベクトル情報にもとづいて、仮想カメラ8の視線方向(X,Y,Z)に直交する2次元平面上に写像されており、各画像データI1〜I5の位置は、2次元平面において4つの頂点座標で定義される。画像決定部210は、仮想カメラ8の視線方向(X,Y,Z)により、全天球パノラマ画像における仮想カメラ8の画角の位置(撮影範囲)を定め、視線方向に直交する2次元平面のフレーム画像7の4つの頂点座標を定める。画像決定部210は、画像記録部220に記録された画像データのうち、フレーム画像7に含まれる画像データを抽出する。図示されるように画像データI1〜I5は、フレーム画像7に含まれる画像を含んでいるため、仮想カメラ8の撮影範囲内に含まれる画像データとして抽出される。   FIG. 18 is a diagram illustrating the relationship between the frame image 7 to be generated by the image determination unit 210 and the image data. 17 and 18, each image data I1 to I5 is mapped on a two-dimensional plane orthogonal to the viewing direction (X, Y, Z) of the virtual camera 8 based on each vector information. The positions of the data I1 to I5 are defined by four vertex coordinates on the two-dimensional plane. The image determination unit 210 determines the position (shooting range) of the field angle of the virtual camera 8 in the panoramic image based on the line-of-sight direction (X, Y, Z) of the virtual camera 8, and is a two-dimensional plane orthogonal to the line-of-sight direction. The four vertex coordinates of the frame image 7 are determined. The image determination unit 210 extracts image data included in the frame image 7 from the image data recorded in the image recording unit 220. As illustrated, the image data I1 to I5 include images included in the frame image 7, and thus are extracted as image data included in the shooting range of the virtual camera 8.

画像決定部210は、複数の画像データが重複する領域については、遅い撮影時間情報をもつ画像データを優先して用いて合成画像を生成する。図18に示す例では、フレーム画像7に、撮影時間の早い画像データから順に、つまり画像データI1から順に書き込み、新しい画像データで順次上書きしていくようにフレーム画像7を合成する。   For an area where a plurality of image data overlaps, the image determination unit 210 generates a composite image by preferentially using image data having late shooting time information. In the example shown in FIG. 18, the frame image 7 is combined with the frame image 7 so that the image data is written in order from the image data with the earliest shooting time, that is, in order from the image data I1.

このように画像決定部210は、複数の画像データのうち重複する領域については、より現在時刻に近い撮影時間情報をもつ画像データを用いて、合成画像を生成するようにする。たとえば撮影範囲内に含まれる画像で、画像データI4と画像データI5に重複する部分が存在した場合には、より遅い撮影時間をもつ画像データI5を重複部分に埋め込む。これにより、現在時刻に近い画像データを用いて合成画像を生成できるようになり、ユーザBに対して、現在時刻に近い合成画像を提供できるようになる。   As described above, the image determination unit 210 generates a composite image using image data having shooting time information closer to the current time for overlapping regions of the plurality of image data. For example, in the image included in the shooting range, when there is an overlapping portion between the image data I4 and the image data I5, the image data I5 having a later shooting time is embedded in the overlapping portion. As a result, a composite image can be generated using image data close to the current time, and a composite image close to the current time can be provided to the user B.

この画像再生アプリケーションでは、ユーザBが向く方向によっては、画像データが不足して、フレーム画像7の生成が困難な場合がある。特にロボット10が撮影を開始した直後は、画像データ数がそもそも少ないため、画像決定部210が、ユーザBの視線方向に応じたフレーム画像7を生成できないことも生じる。実際には起こりえないが、撮影期間中、ユーザAがHMD100を全く動かさなかった場合には、画像記録部220に記録されている画像データのベクトル情報は全て同じとなるため、たとえばユーザBが、ユーザAと真逆の方向を向くと、当該視線方向の仮想カメラ8の撮影範囲内に含まれる画像データは存在しない。   In this image reproduction application, depending on the direction in which the user B is facing, image data may be insufficient and it may be difficult to generate the frame image 7. In particular, immediately after the robot 10 starts shooting, the number of image data is small in the first place, so that the image determination unit 210 may not be able to generate the frame image 7 according to the user B's line-of-sight direction. Although this cannot actually occur, if the user A does not move the HMD 100 during the shooting period, the vector information of the image data recorded in the image recording unit 220 is all the same. When facing the direction opposite to the user A, there is no image data included in the shooting range of the virtual camera 8 in the line-of-sight direction.

そのような場合、画像決定部210は、受信したユーザAの画像データに、ユーザBの視線方向の画像を生成できない旨のメッセージを重畳した画像データを生成して、視聴データ提供部214からHMD100aに提供してもよい。たとえばユーザBの視線方向の画像を所定割合(たとえば30%)以上合成できない場合に、画像決定部210は合成画像の生成を行わず、上記メッセージとともに、ユーザAが見た画像データを視聴データ提供部214に供給してもよい。   In such a case, the image determination unit 210 generates image data in which a message indicating that an image in the line-of-sight direction of the user B cannot be generated is superimposed on the received image data of the user A, and the viewing data providing unit 214 sends the image data to the HMD 100a. May be provided. For example, when the image of the user B's line-of-sight direction cannot be synthesized by a predetermined ratio (for example, 30%) or more, the image determination unit 210 does not generate a synthesized image and provides viewing data for the image data viewed by the user A together with the above message It may be supplied to the unit 214.

また画像決定部210は、複数の画像データからフレーム画像7を合成するため、生成されたフレーム画像7は、つぎはぎ画像となり、視認性が悪くなる場合もある。そのため、たとえば撮影範囲内の所定割合(たとえば50%)の画像を1つの画像データから形成できない場合には、上記したように、画像決定部210は、ユーザBの視線方向の画像を生成できない旨のメッセージを、ユーザAの画像データに重畳した画像データを生成してもよい。   Further, since the image determination unit 210 synthesizes the frame image 7 from a plurality of image data, the generated frame image 7 becomes a stitched image, and visibility may be deteriorated. Therefore, for example, when an image of a predetermined ratio (for example, 50%) within the shooting range cannot be formed from one image data, as described above, the image determination unit 210 cannot generate an image in the line-of-sight direction of the user B. The image data may be generated by superimposing the above message on the image data of the user A.

上記した例では、画像決定部210が、遅い撮影時間情報をもつ画像データを優先して用いて合成画像を生成することを説明したが、より早い撮影時間情報をもつ画像データを用いることでフレーム画像7の所定割合以上を構成できる場合には、より早い撮影時間情報をもつ画像データを用いてもよい。   In the example described above, it has been described that the image determination unit 210 generates a composite image by using image data having late shooting time information preferentially. However, a frame can be generated by using image data having earlier shooting time information. When a predetermined ratio or more of the image 7 can be configured, image data having earlier shooting time information may be used.

また時間が経過すると、ロボット10の撮影している環境に変化が生じるため、過去の画像データを用いた合成画像をユーザBに提供することが好ましくないことも考えられる。そのため画像決定部210は、所定時間以上前の画像データについては、合成画像に含めないように、画像抽出処理を行ってもよい。   Further, as time elapses, the environment in which the robot 10 is shooting changes, so it may be undesirable to provide the user B with a composite image using past image data. Therefore, the image determination unit 210 may perform image extraction processing so that image data older than a predetermined time is not included in the composite image.

以上は、ユーザBが、ユーザAの視聴データをリアルタイムで利用する例を示した。以下は、その応用技術について説明する。応用技術では、処理装置200が、ユーザAの視聴データのリアルタイム再生を目的とするのではなく、二次利用を目的として視聴データを記録する。   The above shows an example in which the user B uses the viewing data of the user A in real time. The applied technology will be described below. In the applied technology, the processing device 200 records the viewing data for the secondary use, not for the purpose of real-time reproduction of the viewing data of the user A.

視聴データの二次利用のために、ロボット10において画像処理部80は、フレーム画像データのそれぞれに、撮影時間情報とベクトル情報を付加し、また音声処理部82は、音声データに、録音開始点からの経過時間を示す録音時間情報を付加する。なおカメラ14による撮影(録画)およびマイク16による録音は同じタイミングで開始されるため、撮影開始点および録音開始点は同じタイミングを示す。撮影時間情報および録音時間情報は、ロボット10におけるクロック生成部で生成された時刻情報であってよい。画像データおよび音声データに付加情報を付加する形式は何であってもよく、処理装置200が、再生用の視聴データを生成する際に参照できる形式であればよい。   For secondary use of viewing data, in the robot 10, the image processing unit 80 adds shooting time information and vector information to each of the frame image data, and the audio processing unit 82 adds the recording start point to the audio data. Recording time information indicating the elapsed time from is added. Note that since shooting (recording) by the camera 14 and recording by the microphone 16 are started at the same timing, the shooting start point and the recording start point indicate the same timing. The shooting time information and the recording time information may be time information generated by a clock generation unit in the robot 10. Any format may be used for adding the additional information to the image data and the audio data as long as the processing device 200 can refer to the viewing data for reproduction.

この応用技術では、ユーザAがロボット10の使用を終了した後、別のユーザB(ユーザAであってもよい)がHMD100aを装着して、処理装置200に記録されたユーザAの視聴データをもとに生成される画像データおよび音声データを、HMD100aに提供する。このとき実施例で説明したように、処理装置200は、ユーザAの視聴データをもとに全天球パノラマ画像を構成し、全天球パノラマ画像からユーザBの視線方向にもとづいた画像を再構成して、ユーザBのHMD100aに提供できるようにする。この利用環境では、ロボット10は使用しない。   In this applied technology, after the user A finishes using the robot 10, another user B (which may be the user A) wears the HMD 100 a and the viewing data of the user A recorded in the processing device 200 is stored. Originally generated image data and audio data are provided to the HMD 100a. At this time, as described in the embodiment, the processing device 200 constructs an omnidirectional panoramic image based on the viewing data of the user A, and regenerates an image based on the viewing direction of the user B from the omnidirectional panoramic image. It is configured so that it can be provided to the HMD 100a of the user B. In this usage environment, the robot 10 is not used.

図15を参照して、画像記録部220は、ロボット10から送信された画像データを記録しており、音声記録部222は、ロボット10から送信された音声データを記録している。この応用技術においては、画像記録部220および音声記録部222は、ロボット10からユーザAに対して送信された視聴データの全てが記録済みの状態にある。なお画像データは、撮影時間情報と、撮影時のベクトル情報とを付加されており、音声データは、録音時間情報を付加されている。   Referring to FIG. 15, the image recording unit 220 records image data transmitted from the robot 10, and the audio recording unit 222 records audio data transmitted from the robot 10. In this applied technology, the image recording unit 220 and the audio recording unit 222 are in a state where all the viewing data transmitted from the robot 10 to the user A has been recorded. The image data is added with shooting time information and vector information at the time of shooting, and the audio data is added with recording time information.

ユーザBは、HMD100aを通じて、処理装置200に、ユーザAの視聴データの再生指示を送信する。処理装置200は、再生指示を受け付けると、視聴データの再生処理を開始する。なお記録部218が1時間分の視聴データを記録している場合、ユーザBは、1時間の範囲内で、任意の時間から再生を開始できるようにしてもよい。この場合、受信部202は、ユーザBから時間指定を受け付け、画像決定部210および音声決定部212に供給する。   User B transmits an instruction to reproduce viewing data of user A to processing apparatus 200 through HMD 100a. When receiving the playback instruction, the processing device 200 starts playback processing of viewing data. Note that when the recording unit 218 records viewing data for one hour, the user B may be allowed to start playback from any time within the range of one hour. In this case, the receiving unit 202 receives time designation from the user B and supplies it to the image determining unit 210 and the sound determining unit 212.

音声決定部212は、再生開始点からの経過時間を示す再生時間情報に対応する録音時間情報をもつ音声データを、音声記録部222から読み出し、視聴データ提供部214に提供する。再生開始点は、視聴データの再生開始点を意味し、したがって撮影開始点および録音開始点と同じタイミングを示す。音声決定部212は再生時間情報に録音時間情報が一致する音声データを音声記録部222から読み出し、視聴データ提供部214に提供する。   The audio determination unit 212 reads audio data having recording time information corresponding to the reproduction time information indicating the elapsed time from the reproduction start point from the audio recording unit 222 and provides the audio data to the viewing data providing unit 214. The playback start point means a playback start point of viewing data, and therefore indicates the same timing as the shooting start point and the recording start point. The audio determination unit 212 reads out audio data whose recording time information matches the reproduction time information from the audio recording unit 222 and provides it to the viewing data providing unit 214.

処理装置200による再生処理中、受信部202は、ユーザBが装着したHMD100aから送信されるセンサ情報を受信し、センサ情報取得部204は、受信したセンサ情報を取得する。このセンサ情報は、姿勢センサ124がHMD100aの姿勢を検出した姿勢情報である。動き検出部206は、ユーザBの頭部に装着されたHMD100aの姿勢を検出する。視線方向決定部208は、動き検出部206により検出されたHMD100aの姿勢に応じて、仮想カメラの視線方向を定める。画像決定部210は、画像記録部220に記録された複数の画像データを用いて、決定された視線方向に向けた仮想カメラにより撮影される画像を合成する。視聴データ提供部214は、画像決定部210で合成された画像データと、音声決定部212で読み出された音声データとを合わせた視聴データを、送信部216からHMD100aに提供する。   During the reproduction process by the processing device 200, the reception unit 202 receives sensor information transmitted from the HMD 100a worn by the user B, and the sensor information acquisition unit 204 acquires the received sensor information. This sensor information is posture information obtained by the posture sensor 124 detecting the posture of the HMD 100a. The motion detection unit 206 detects the posture of the HMD 100a mounted on the user B's head. The line-of-sight direction determination unit 208 determines the line-of-sight direction of the virtual camera according to the posture of the HMD 100a detected by the motion detection unit 206. The image determination unit 210 uses the plurality of image data recorded in the image recording unit 220 to synthesize an image photographed by the virtual camera oriented in the determined line-of-sight direction. The viewing data providing unit 214 provides viewing data, which is a combination of the image data combined by the image determining unit 210 and the audio data read by the audio determining unit 212, from the transmitting unit 216 to the HMD 100a.

画像決定部210は、ユーザBによる視聴データの再生時間以前にユーザAが見た画像をスティッチ(縫い合わせ)して、ユーザBが位置する中心点9から撮影されるフレーム画像7を動的に生成する。   The image determination unit 210 stitches the images viewed by the user A before the reproduction time of the viewing data by the user B, and dynamically generates a frame image 7 photographed from the center point 9 where the user B is located. To do.

ユーザBによる視聴データの再生時間以前にユーザAが見た画像について説明する。画像記録部220に、撮影開始点から1時間分の画像データが記録されている場合、ユーザBによる再生開始点からの再生時間は、1時間以内のどこかのタイミングで特定される。たとえば再生時間が再生開始から15分のタイミングである場合、15分以内の撮影時間情報が付加された画像、つまり撮影開始点から15分が経過するまでに撮影された画像が、再生時間以前にユーザAが見た画像となる。つまり再生開始から15分の時点を再生しているのであれば、画像決定部210は、撮影開始から15分以内の撮影時間情報が付加された画像データを用いてフレーム画像7を生成し、再生開始から45分の時点を再生しているのであれば、画像決定部210は、撮影開始から45分以内の撮影時間情報が付加された画像データを用いてフレーム画像7を生成する。   An image viewed by the user A before the viewing data playback time by the user B will be described. When image data for one hour from the shooting start point is recorded in the image recording unit 220, the playback time from the playback start point by the user B is specified at some timing within one hour. For example, if the playback time is 15 minutes from the start of playback, an image to which shooting time information within 15 minutes has been added, that is, an image shot until 15 minutes have passed since the start of shooting is displayed before the playback time. The image viewed by the user A is displayed. That is, if the playback is performed at the time point of 15 minutes from the start of playback, the image determination unit 210 generates the frame image 7 using the image data to which shooting time information within 15 minutes from the start of shooting is added, and plays back. If the time point of 45 minutes from the start is being played back, the image determination unit 210 generates the frame image 7 using image data to which shooting time information within 45 minutes from the start of shooting is added.

図18を参照して、画像決定部210は、再生時間情報以前の撮影時間情報を付加された画像データを抽出するようにし、再生時間情報よりも後の撮影時間情報を付加された画像データを抽出しないようにする。たとえば、フレーム画像7を再生する時間情報が時間t3より後であって、時間t4より前であれば、画像決定部210は、画像データI1〜I3を抽出し、画像データI4、I5は抽出しない。このように、再生時間情報以前の撮影時間情報を付加された画像データを用いて合成画像を生成することで、画像決定部210は、再生時間よりも後に撮影された画像をユーザBに見せないようにする。   Referring to FIG. 18, the image determination unit 210 extracts image data to which shooting time information before the playback time information is added, and extracts image data to which shooting time information after the playback time information is added. Do not extract. For example, if the time information for reproducing the frame image 7 is after the time t3 and before the time t4, the image determination unit 210 extracts the image data I1 to I3 and does not extract the image data I4 and I5. . As described above, by generating a composite image using image data to which shooting time information before playback time information is added, the image determination unit 210 does not show the user B an image shot after the playback time. Like that.

視聴データ提供部214は、再生時間に対応する録音時間情報をもつ音声データをHMD100aに送信しているため、ユーザBは、再生時間に同期した音声を聞いている。そのため再生時間以前の状況については概ね承知しており、提供される画像データが再生時間以前の画像データから合成されたものであれば、どのような状況が表示されているかを把握できる。しかしながら提供される画像データが、再生時間より後の画像データから合成されていれば、ユーザBは承知していない画像を見せられることになり、ユーザBを混乱させることが予想される。そこで画像決定部210は、再生時間よりも後に撮影された画像をユーザBに見せないようにする。   Since the viewing data providing unit 214 transmits audio data having recording time information corresponding to the reproduction time to the HMD 100a, the user B is listening to audio synchronized with the reproduction time. Therefore, the situation before the reproduction time is generally known, and if the provided image data is synthesized from the image data before the reproduction time, it is possible to grasp what kind of situation is displayed. However, if the provided image data is synthesized from image data after the reproduction time, the user B will be shown an image that he / she does not know, and it is expected that the user B will be confused. Therefore, the image determination unit 210 prevents the user B from seeing an image taken after the reproduction time.

なお画像決定部210は、複数の画像データのうち重複する部分については、再生時間情報に近い撮影時間情報をもつ画像データを用いて、合成画像を生成するようにする。たとえば撮影範囲内に含まれる画像で、画像データI1と画像データI2に重複する部分が存在した場合には、より後に撮影された画像データI2を重複部分に埋め込む。これにより、再生時間情報に近い画像データを用いて合成画像を生成できるようになり、ユーザBには、再生時間の直近の画像データから合成した画像を提供できるようになる。   Note that the image determination unit 210 generates a composite image by using image data having shooting time information close to reproduction time information for overlapping portions of the plurality of image data. For example, in the case where an image included in the imaging range includes an overlapping portion between the image data I1 and the image data I2, the image data I2 captured later is embedded in the overlapping portion. As a result, a composite image can be generated using image data close to the reproduction time information, and an image synthesized from image data with the latest reproduction time can be provided to the user B.

以上、本発明を実施例をもとに説明した。実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. It is to be understood by those skilled in the art that the embodiments are exemplifications, and that various modifications can be made to combinations of the respective components and processing processes, and such modifications are within the scope of the present invention.

実施例では、画像決定部210が、イメージスティッチング処理を実施し、ユーザBの視線方向から定まる撮影範囲のフレーム画像7を生成することを説明した。変形例では、イメージスティッチング処理を実施することなく、画像決定部210が、仮想カメラ8の視線方向と、画像記録部220に記録された画像データに付加されたベクトル情報とにもとづいて、ユーザBに提供する画像データを決定する。   In the embodiment, it has been described that the image determination unit 210 performs the image stitching process and generates the frame image 7 in the shooting range determined from the user B's line-of-sight direction. In the modification, the image determination unit 210 performs the user based on the line-of-sight direction of the virtual camera 8 and the vector information added to the image data recorded in the image recording unit 220 without performing the image stitching process. The image data to be provided to B is determined.

この変形例で画像決定部210は、仮想カメラ8の視線方向に対応するベクトル情報を付加された画像データを、ユーザBに提供する画像データとして決定する。仮想カメラ8の視線方向に対応するベクトル情報とは、仮想カメラ8の視線方向と一致するベクトル情報、および仮想カメラ8の視線方向と実質的に一致するとみなせるベクトル情報を含む。具体的には、仮想カメラ8の視線方向とベクトル情報とが所定の角度以内(たとえば10度)にある場合に、画像決定部210は、仮想カメラ8の視線方向とベクトル情報とが実質的に一致することを判定してもよい。   In this modification, the image determination unit 210 determines the image data to which the vector information corresponding to the viewing direction of the virtual camera 8 is added as the image data to be provided to the user B. The vector information corresponding to the line-of-sight direction of the virtual camera 8 includes vector information that matches the line-of-sight direction of the virtual camera 8 and vector information that can be considered to substantially match the line-of-sight direction of the virtual camera 8. Specifically, when the visual line direction of the virtual camera 8 and the vector information are within a predetermined angle (for example, 10 degrees), the image determination unit 210 substantially determines that the visual line direction of the virtual camera 8 and the vector information are substantially the same. It may be determined that they match.

ユーザAの視聴データを同期再生する場合、画像決定部210は、仮想カメラ8の視線方向に対応するベクトル情報を付加された画像データのうち、最も遅い撮影時間情報をもつ画像データを、ユーザBに提供する画像データとして決定する。これによりユーザBに対して、現在時刻に近い画像を提供できるようになる。   When synchronously reproducing the viewing data of the user A, the image determination unit 210 converts the image data having the latest shooting time information from among the image data to which the vector information corresponding to the line-of-sight direction of the virtual camera 8 is added. Determined as image data to be provided. As a result, an image close to the current time can be provided to the user B.

仮想カメラ8の視線方向に対応するベクトル情報を付加された画像データが画像記録部220に記録されていない場合、画像決定部210は、高さ方向(z軸方向)の成分を除いた(x、y)成分が実質的に一致するとみなせるベクトル情報を付加された画像データを、ユーザBに提供する画像データとして決定してもよい。一致するとみなせるベクトル情報とは、(x、y)成分が所定角度以内(たとえば7度)の範囲にあるベクトル情報である。(x、y)成分のみの近似をみることで、画像決定部210は、仮想カメラ8の視線方向に対応するベクトル情報を付加された画像データを見つけやすくし、これによりユーザBに画像データを提供できない事態を回避できるようになる。   When the image data to which the vector information corresponding to the line-of-sight direction of the virtual camera 8 is not recorded in the image recording unit 220, the image determination unit 210 removes the component in the height direction (z-axis direction) (x , Y) Image data to which vector information that can be regarded as substantially matching components may be determined as image data to be provided to the user B. The vector information that can be regarded as matching is vector information in which the (x, y) component is within a predetermined angle (for example, 7 degrees). By looking at the approximation of only the (x, y) component, the image determination unit 210 makes it easy to find the image data to which the vector information corresponding to the line-of-sight direction of the virtual camera 8 is added. It will be possible to avoid situations that cannot be provided.

ユーザAの視聴データを二次利用する場合、画像決定部210は、ユーザBによる視聴データの再生時間以前にユーザAが見た画像から、ユーザBに提供する画像データを決定する。つまり画像決定部210は、再生時間情報以前の撮影時間情報を付加された画像データの中から、仮想カメラ8の視線方向に対応するベクトル情報を付加された画像データを決定する。このとき、該当する画像データが複数存在すれば、画像決定部210は、再生時間情報に近い撮影時間情報をもつ画像データを選択することが好ましい。   When the user A's viewing data is secondarily used, the image determination unit 210 determines image data to be provided to the user B from images viewed by the user A before the playback time of the viewing data by the user B. That is, the image determination unit 210 determines image data to which vector information corresponding to the line-of-sight direction of the virtual camera 8 is added from among image data to which shooting time information before reproduction time information is added. At this time, when there are a plurality of corresponding image data, the image determination unit 210 preferably selects image data having shooting time information close to reproduction time information.

なおユーザAが横方向に首を回したときの画像データが画像記録部220に記録されているケースを検討する。ユーザBがユーザAから少し遅れて、ユーザAと逆方向に首を回すと、HMD100aに、ユーザAが見た画像が逆再生されることが生じうる。この場合、画像データの時系列が逆転することになり、ユーザBに違和感を生じさせる可能性がある。そのためユーザBが連続的に視線方向を変化させる際に、ユーザAの画像データを逆再生させることになる場合には、画像決定部210は、画像データを固定して、提供する画像データを変化させないようにしてもよい。   A case where image data when the user A turns his / her neck in the horizontal direction is recorded in the image recording unit 220 will be considered. When the user B is slightly delayed from the user A and turns his head in the opposite direction to the user A, an image viewed by the user A may be reversely reproduced on the HMD 100a. In this case, the time series of the image data is reversed, which may cause the user B to feel uncomfortable. Therefore, when the user B continuously changes the line-of-sight direction, when the image data of the user A is reversely reproduced, the image determination unit 210 fixes the image data and changes the provided image data. It may not be allowed to.

情報処理システム1の有用性を高めるために、ロボット10は、触覚センサや振動センサなど、外部からの入力を受け付ける入力センサをさらに備えてもよい。図10に示す機能ブロックにおいて、入力センサは、出力系統24に設けられ、入力センサのセンサ情報は、送信部90からHMD100に送信される。HMD100は、センサ情報を出力する出力手段を備え、センサ情報を振動などに変換してユーザAに伝達してもよい。   In order to enhance the usefulness of the information processing system 1, the robot 10 may further include an input sensor that accepts an external input, such as a tactile sensor or a vibration sensor. In the functional block shown in FIG. 10, the input sensor is provided in the output system 24, and sensor information of the input sensor is transmitted from the transmission unit 90 to the HMD 100. The HMD 100 may include an output unit that outputs sensor information, and may convert the sensor information into vibration or the like and transmit it to the user A.

また情報処理システム1では、ロボット10が、ユーザAの首の動きに筐体20を連動させることを説明したが、さらにユーザAの表情などの状態を伝達する手段を有してもよい。たとえばHMD100は、装着したユーザAの目や眉の動きを検出するセンサや、声の調子を解析する手段などを備える。目や眉の動きは、ユーザの表情を表現するものであり、また声の調子は、ユーザの心理状態を表現する。目や眉の動きおよび/または声の調子に関する情報は、HMD100からロボット10に送信され、ロボット10は、筐体20に設けた表情ユニットを駆動して、ユーザAの表情、心理状態などを再現してもよい。表情ユニットは、筐体20の前面においてカメラ14の上部に形成した駆動部(たとえば眉の形状を模したもの)であってよく、HMD100から送信された情報をもとに、駆動部が駆動される。また表情ユニットは、ユーザAの表情や心理状態を色で表現するディスプレイであってよく、表示色を変化させることで、ユーザAの表情や心理状態を表現してもよい。   In the information processing system 1, it has been described that the robot 10 interlocks the housing 20 with the movement of the neck of the user A. However, the robot 10 may further include means for transmitting a state such as the facial expression of the user A. For example, the HMD 100 includes a sensor that detects the movement of the user A's eyes and eyebrows, a means for analyzing the tone of voice, and the like. The movement of the eyes and eyebrows expresses the facial expression of the user, and the tone of the voice expresses the psychological state of the user. Information about the movement of the eyes and eyebrows and / or the tone of the voice is transmitted from the HMD 100 to the robot 10, and the robot 10 drives the facial expression unit provided in the housing 20 to reproduce the facial expression, psychological state, etc. of the user A. May be. The expression unit may be a drive unit (for example, imitating the shape of an eyebrow) formed on the top of the camera 14 on the front surface of the housing 20, and the drive unit is driven based on information transmitted from the HMD 100. The The facial expression unit may be a display that expresses the facial expression and psychological state of the user A with colors, and may express the facial expression and psychological state of the user A by changing the display color.

1・・・情報処理システム、10・・・ロボット、12・・・アクチュエータ装置、14a・・・右カメラ、14b・・・左カメラ、16a・・・右マイク、16b・・・左マイク、20・・・筐体、22・・・入力系統、24・・・出力系統、30・・・台座、32・・・第1円弧状アーム、32a・・・第1貫通長孔、34・・・第2円弧状アーム、34a・・・第2貫通長孔、36・・・ハウジング、38・・・カバー、40・・・脚部、42・・・挿通部材、42a・・・第1規制部、42b・・・第2規制部、42c・・・軸部、50・・・駆動機構、52・・・第1モータ、54・・・第2モータ、56・・・第3モータ、60・・・受信部、62・・・センサ情報取得部、64・・・動き検出部、66・・・視線方向決定部、68・・・アクチュエータ制御部、70・・・音声データ取得部、72・・・音声処理部、80・・・画像処理部、82・・・音声処理部、82a・・・位相差増幅装置、84a・・・第1増幅器、84b・・・第2増幅器、86a・・・第1加算器、86b・・・第2加算器、88a・・・第3増幅器、88b・・・第4増幅器、90・・・送信部、92・・・画像記録装置、100・・・HMD、102・・・表示パネル、104・・・イヤホン、106・・・マイク、108・・・装着バンド、110・・・出力機構部、112・・・装着機構部、114・・・筐体、120・・・制御部、122・・・記憶部、124・・・姿勢センサ、126・・・通信制御部、200・・・処理装置、202・・・受信部、204・・・センサ情報取得部、206・・・動き検出部、208・・・視線方向決定部、210・・・画像決定部、212・・・音声決定部、214・・・視聴データ提供部、216・・・送信部、218・・・記録部、220・・・画像記録部、222・・・音声記録部。 DESCRIPTION OF SYMBOLS 1 ... Information processing system, 10 ... Robot, 12 ... Actuator apparatus, 14a ... Right camera, 14b ... Left camera, 16a ... Right microphone, 16b ... Left microphone, 20 ... Case, 22 ... Input system, 24 ... Output system, 30 ... Pedestal, 32 ... First arc arm, 32a ... First through slot, 34 ... Second arcuate arm, 34a, second through hole, 36, housing, 38, cover, 40, leg, 42, insertion member, 42a, first regulating portion , 42b... Second restricting portion, 42c... Shaft portion, 50... Driving mechanism, 52... First motor, 54. ..Reception unit, 62... Sensor information acquisition unit, 64... Motion detection unit, 66. DESCRIPTION OF SYMBOLS 8 ... Actuator control part, 70 ... Sound data acquisition part, 72 ... Sound processing part, 80 ... Image processing part, 82 ... Sound processing part, 82a ... Phase difference amplifier, 84a ... first amplifier, 84b ... second amplifier, 86a ... first adder, 86b ... second adder, 88a ... third amplifier, 88b ... fourth amplifier, DESCRIPTION OF SYMBOLS 90 ... Transmission part, 92 ... Image recording apparatus, 100 ... HMD, 102 ... Display panel, 104 ... Earphone, 106 ... Microphone, 108 ... Wearing band, 110 ... Output mechanism section 112... Mounting mechanism section 114... Casing 120... Control section 122... Storage section 124. ... Processing device, 202 ... Receiving unit, 204 ... Sensor information Acquisition unit, 206 ... motion detection unit, 208 ... gaze direction determination unit, 210 ... image determination unit, 212 ... audio determination unit, 214 ... viewing data provision unit, 216 ... transmission 218 recording unit 220 image recording unit 222 audio recording unit

Claims (6)

顔の動きに連動して視線方向を動かすカメラにより撮影された画像データであって、視線方向を示すベクトル情報を付加された画像データを記録する記録部と、
ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出した姿勢情報を取得する取得部と、
姿勢情報から、仮想カメラの視線方向を決定する視線方向決定部と、
仮想カメラの視線方向と、前記記録部に記録された画像データに付加されたベクトル情報とにもとづいて、ユーザに提供する画像データを決定する画像決定部と、
前記画像決定部が決定した画像データをヘッドマウントディスプレイに提供する提供部と、
を備えることを特徴とする処理装置。
A recording unit that records image data captured by a camera that moves the line-of-sight direction in conjunction with the movement of the face, with image data added with vector information indicating the line-of-sight direction;
An acquisition unit for acquiring posture information obtained by detecting a posture of a head mounted display mounted on the user's head;
A line-of-sight direction determining unit that determines the line-of-sight direction of the virtual camera from the posture information;
An image determination unit that determines image data to be provided to a user based on a line-of-sight direction of the virtual camera and vector information added to the image data recorded in the recording unit;
A providing unit that provides the image data determined by the image determining unit to a head mounted display;
A processing apparatus comprising:
前記画像決定部は、仮想カメラの視線方向に対応するベクトル情報を付加された画像データを、提供する画像データとして決定する、
ことを特徴とする請求項1に記載の処理装置。
The image determination unit determines image data to which vector information corresponding to the line-of-sight direction of the virtual camera is added as provided image data.
The processing apparatus according to claim 1.
前記画像決定部は、前記記録部に記録された複数の画像データを用いて、仮想カメラにより撮影される画像を合成して画像データを生成する、
ことを特徴とする請求項1に記載の処理装置。
The image determination unit generates image data by combining images captured by a virtual camera using a plurality of image data recorded in the recording unit.
The processing apparatus according to claim 1.
画像データには、撮影開始点からの経過時間を示す撮影時間情報が付加されており、
前記画像決定部は、複数の画像データのうち重複する部分については、遅い撮影時間情報をもつ画像データを用いて、合成画像を生成する、
ことを特徴とする請求項3に記載の処理装置。
Shooting time information indicating the elapsed time from the shooting start point is added to the image data,
The image determination unit generates a composite image using image data having slow shooting time information for overlapping portions of a plurality of image data.
The processing apparatus according to claim 3.
顔の動きに連動して視線方向を動かすカメラにより撮影された画像データであって、視線方向を示すベクトル情報を付加された画像データを記録した記録部から、画像データを読み出して、ユーザに提供する画像を決定する方法であって、
ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出した姿勢情報を取得するステップと、
姿勢情報から、仮想カメラの視線方向を決定するステップと、
仮想カメラの視線方向と、記録部に記録された画像データに付加されたベクトル情報とにもとづいて、ユーザに提供する画像データを決定するステップと、
画像データをヘッドマウントディスプレイに提供するステップと、
を備えることを特徴とする画像決定方法。
Read image data from a recording unit that records image data captured by a camera that moves the line-of-sight direction in conjunction with the movement of the face, and adds vector information indicating the line-of-sight direction, and provides it to the user A method for determining an image to be performed,
Obtaining posture information that detects the posture of the head mounted display mounted on the user's head;
Determining the viewing direction of the virtual camera from the posture information;
Determining image data to be provided to the user based on the line-of-sight direction of the virtual camera and vector information added to the image data recorded in the recording unit;
Providing image data to a head mounted display;
An image determination method comprising:
コンピュータに、
顔の動きに連動して視線方向を動かすカメラにより撮影された画像データであって、視線方向を示すベクトル情報を付加された画像データを記録した記録部から、画像データを読み出して、ユーザに提供する画像を決定する機能を実現させるためのプログラムであって、
ユーザの頭部に装着されたヘッドマウントディスプレイの姿勢を検出した姿勢情報を取得する機能と、
姿勢情報から、仮想カメラの視線方向を決定する機能と、
仮想カメラの視線方向と、記録部に記録された画像データに付加されたベクトル情報とにもとづいて、ユーザに提供する画像データを決定する機能と、
画像データをヘッドマウントディスプレイに提供する機能と、
を実現させるためのプログラム。
On the computer,
Read image data from a recording unit that records image data captured by a camera that moves the line-of-sight direction in conjunction with the movement of the face, and adds vector information indicating the line-of-sight direction, and provides it to the user A program for realizing a function for determining an image to be executed,
A function of acquiring posture information obtained by detecting the posture of a head mounted display mounted on the user's head;
A function to determine the viewing direction of the virtual camera from the posture information;
A function of determining image data to be provided to the user based on the viewing direction of the virtual camera and the vector information added to the image data recorded in the recording unit;
A function to provide image data to a head-mounted display;
A program to realize
JP2016092622A 2016-04-20 2016-05-02 Processing apparatus and image determination method Active JP6580516B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016092622A JP6580516B2 (en) 2016-05-02 2016-05-02 Processing apparatus and image determination method
PCT/JP2017/006941 WO2017183292A1 (en) 2016-04-20 2017-02-23 Processing device and image determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016092622A JP6580516B2 (en) 2016-05-02 2016-05-02 Processing apparatus and image determination method

Publications (3)

Publication Number Publication Date
JP2017201742A true JP2017201742A (en) 2017-11-09
JP2017201742A5 JP2017201742A5 (en) 2018-06-28
JP6580516B2 JP6580516B2 (en) 2019-09-25

Family

ID=60264882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016092622A Active JP6580516B2 (en) 2016-04-20 2016-05-02 Processing apparatus and image determination method

Country Status (1)

Country Link
JP (1) JP6580516B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020109926A (en) * 2019-01-07 2020-07-16 株式会社オリィ研究所 Robot control device, robot control method, robot control program, and robot control system
CN112073864A (en) * 2020-09-07 2020-12-11 声威士通讯(深圳)有限公司 Acoustic noise reduction device
JP2021027390A (en) * 2019-07-31 2021-02-22 株式会社リコー Display terminal, remote control system, display control method, and program
WO2021230364A1 (en) * 2020-05-14 2021-11-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 Remote control system, remote operation device therefor, video processing device, and program
WO2024075707A1 (en) * 2022-10-07 2024-04-11 京セラ株式会社 System, electronic device, method for controlling system, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143505A (en) * 2001-11-06 2003-05-16 Sony Corp Device and method for processing display image control, system and method for transmitting and receiving moving picture information, and computer program
JP2005006081A (en) * 2003-06-12 2005-01-06 Denso Corp Image server, image collection device, and image display terminal
JP2014017776A (en) * 2012-07-11 2014-01-30 Sony Computer Entertainment Inc Image generation device and image generation method
JP2015231106A (en) * 2014-06-04 2015-12-21 三菱電機株式会社 Device and system for head-mounted display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143505A (en) * 2001-11-06 2003-05-16 Sony Corp Device and method for processing display image control, system and method for transmitting and receiving moving picture information, and computer program
JP2005006081A (en) * 2003-06-12 2005-01-06 Denso Corp Image server, image collection device, and image display terminal
JP2014017776A (en) * 2012-07-11 2014-01-30 Sony Computer Entertainment Inc Image generation device and image generation method
JP2015231106A (en) * 2014-06-04 2015-12-21 三菱電機株式会社 Device and system for head-mounted display

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020109926A (en) * 2019-01-07 2020-07-16 株式会社オリィ研究所 Robot control device, robot control method, robot control program, and robot control system
JP2021027390A (en) * 2019-07-31 2021-02-22 株式会社リコー Display terminal, remote control system, display control method, and program
JP7346983B2 (en) 2019-07-31 2023-09-20 株式会社リコー Display terminal, remote control system, display control method and program
WO2021230364A1 (en) * 2020-05-14 2021-11-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 Remote control system, remote operation device therefor, video processing device, and program
JP2021180425A (en) * 2020-05-14 2021-11-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 Remote control system, remote work device thereof, video processing device and program
CN112073864A (en) * 2020-09-07 2020-12-11 声威士通讯(深圳)有限公司 Acoustic noise reduction device
CN112073864B (en) * 2020-09-07 2022-06-24 声威士通讯(深圳)有限公司 Acoustic noise reduction device
WO2024075707A1 (en) * 2022-10-07 2024-04-11 京セラ株式会社 System, electronic device, method for controlling system, and program

Also Published As

Publication number Publication date
JP6580516B2 (en) 2019-09-25

Similar Documents

Publication Publication Date Title
WO2017183319A1 (en) Robot and housing
KR102197544B1 (en) Mixed reality system with spatialized audio
JP6565903B2 (en) Information reproducing apparatus and information reproducing method
JP5891131B2 (en) Image generating apparatus and image generating method
ES2980463T3 (en) Audio apparatus and audio processing method
JP6580516B2 (en) Processing apparatus and image determination method
CN112335264B (en) Apparatus and method for presenting audio signals for playback to a user
CN113396337A (en) Audio enhancement using environmental data
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
WO2017183294A1 (en) Actuator device
JP2017518663A (en) 3D viewing
US11758347B1 (en) Dynamic speech directivity reproduction
JP6538003B2 (en) Actuator device
JP6615716B2 (en) Robot and enclosure
WO2017183292A1 (en) Processing device and image determination method
US20200137488A1 (en) Virtual microphone
JP2023546839A (en) Audiovisual rendering device and method of operation thereof
WO2017156622A1 (en) Head-mounted audiovisual capture device
CN117826982A (en) Real-time sound effect interaction system based on user pose calculation
JP6518620B2 (en) Phase difference amplifier
WO2023248832A1 (en) Remote viewing system and on-site imaging system
CN118435628A (en) Naked eye stereoscopic display device for presenting 3D view and 3D stereo
WO2018198777A1 (en) Virtual reality image provision device and virtual reality image provision program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190828

R150 Certificate of patent or registration of utility model

Ref document number: 6580516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150