JP2020167660A - Image data transmission method, content processing device, head-mounted display, relay device, and content processing system - Google Patents

Image data transmission method, content processing device, head-mounted display, relay device, and content processing system Download PDF

Info

Publication number
JP2020167660A
JP2020167660A JP2019185341A JP2019185341A JP2020167660A JP 2020167660 A JP2020167660 A JP 2020167660A JP 2019185341 A JP2019185341 A JP 2019185341A JP 2019185341 A JP2019185341 A JP 2019185341A JP 2020167660 A JP2020167660 A JP 2020167660A
Authority
JP
Japan
Prior art keywords
image
data
display
value
combined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019185341A
Other languages
Japanese (ja)
Other versions
JP7365185B2 (en
Inventor
活志 大塚
Katsuyuki Otsuka
活志 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to US16/825,317 priority Critical patent/US11659153B2/en
Publication of JP2020167660A publication Critical patent/JP2020167660A/en
Application granted granted Critical
Publication of JP7365185B2 publication Critical patent/JP7365185B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To preferably display a composite image including a photographic image as a moving image on a head-mounted display.SOLUTION: A communication unit 258 of a content processing device 200 acquires an analysis result of a photographic image from a head-mounted display 100. A position and posture prediction unit 252 of a composite data generation unit 250 predicts the position and posture of a subject based on the analysis result. An image drawing unit 254 draws an object that should be synthesized based on the prediction. A composite information integration unit 256 integrates an image and an α value of the object on the same image plane. The composite data is transmitted to the head-mounted display 100 and is synthesized with the photographic image.SELECTED DRAWING: Figure 10

Description

この発明は、画像表示に利用される画像データ伝送方法、コンテンツ処理装置、ヘッドマウントディスプレイ、中継装置、およびコンテンツ処理システムに関する。 The present invention relates to an image data transmission method, a content processing device, a head-mounted display, a relay device, and a content processing system used for image display.

動画を撮影し、それをリアルタイムで処理して何らかの情報を得たり、表示に用いたりする技術は様々な分野で利用されている。例えば遮蔽型のヘッドマウントディスプレイの前面に実空間を撮影するカメラを設け、その撮影画像をそのまま表示させれば、ユーザは周囲の状況を確認しながら動作することができる。また撮影画像に仮想オブジェクトを合成して表示させれば、拡張現実や複合現実を実現できる。 Technologies for shooting moving images and processing them in real time to obtain some information or use them for display are used in various fields. For example, if a camera that captures a real space is provided in front of a shielded head-mounted display and the captured image is displayed as it is, the user can operate while checking the surrounding conditions. Augmented reality and mixed reality can be realized by synthesizing virtual objects with captured images and displaying them.

仮想オブジェクトなど別途生成された画像を撮影画像と合成し、リアルタイムに表示する技術では、高品質な画像表現を追求するほど、撮影から表示へ至るまでに伝送すべきデータ量や、画像解析など各種処理の負荷が増大する。その結果、消費電力、必要なメモリ容量、CPU時間などのリソースの消費量が増加するとともに、ユーザの動きと表示上の動きに時間的なずれが生じ、ユーザに違和感を与えるほか、場合によっては映像酔いなど体調不良の原因にもなり得る。 With technology that synthesizes separately generated images such as virtual objects with captured images and displays them in real time, the more high-quality image expression is pursued, the more data that must be transmitted from shooting to display, image analysis, etc. The processing load increases. As a result, the consumption of resources such as power consumption, required memory capacity, and CPU time increases, and the movement of the user and the movement on the display are time-shifted, which makes the user feel uncomfortable and in some cases. It can also cause poor physical condition such as image sickness.

また、外部の装置で画像を生成してヘッドマウントディスプレイに送信する態様によれば、ヘッドマウントディスプレイ自体の負荷を増大させずに高品質な画像を表示できる一方、サイズの大きいデータの伝送のためには有線通信が必要となり、ユーザの可動域が制限される。 Further, according to the embodiment in which an image is generated by an external device and transmitted to the head-mounted display, a high-quality image can be displayed without increasing the load on the head-mounted display itself, but for transmission of large-sized data. Requires wired communication, which limits the user's range of motion.

本発明はこうした課題に鑑みてなされたものであり、その目的は、撮影画像を含む合成画像を動画表示する技術において、撮影から表示までの遅延時間やリソース消費量を抑えつつ高品質な画像を表示できる技術を提供することにある。本発明の別の目的は、ヘッドマウントディスプレイと外部の装置との様々な通信方式に対応できる画像表示技術を適用することにある。 The present invention has been made in view of these problems, and an object of the present invention is to produce a high-quality image while suppressing a delay time from shooting to display and resource consumption in a technique for displaying a composite image including a shot image as a moving image. The purpose is to provide technology that can be displayed. Another object of the present invention is to apply an image display technique capable of supporting various communication methods between a head-mounted display and an external device.

上記課題を解決するために、本発明のある態様は画像データ伝送方法に関する。この画像データ伝送方法は、画像生成装置が、表示画像に合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値を生成するステップと、合成すべき画像とα値のデータを1つの画像平面に表してなる合成用データを生成するステップと、合成用データを、表示画像を生成する装置に送信するステップと、を含むことを特徴とする。 In order to solve the above problems, an aspect of the present invention relates to an image data transmission method. In this image data transmission method, the image generator generates an image to be combined with the display image, an α value indicating the transparency of the pixels of the image to be combined, and data of the image to be combined and the α value. It is characterized by including a step of generating composite data represented on one image plane and a step of transmitting the composite data to an apparatus for generating a display image.

本発明の別の態様はコンテンツ処理装置に関する。このコンテンツ処理装置は、表示画像に合成すべき画像を生成する画像描画部と、合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値のデータを1つの画像平面に表してなる合成用データを生成する合成情報統合部と、合成用データを出力する通信部と、を備えたことを特徴とする。 Another aspect of the present invention relates to a content processing device. This content processing device represents an image drawing unit that generates an image to be combined with a display image, an image to be combined, and α value data representing the transparency of the pixels of the image to be combined in one image plane. It is characterized by including a synthetic information integration unit that generates synthetic data and a communication unit that outputs synthetic data.

本発明のさらに別の態様はヘッドマウントディスプレイに関する。このヘッドマウントディスプレイは、実空間を撮影するカメラと、表示画像に合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値のデータを1つの画像平面に表してなる合成用データを、外部の装置から受信し、前記α値に基づき、前記カメラによる撮影画像に前記合成すべき画像を合成して表示画像を生成する画像処理用集積回路と、表示画像を出力する表示パネルと、を備えたことを特徴とする Yet another aspect of the present invention relates to a head-mounted display. This head mount display is a composite data in which a camera that captures a real space, an image to be combined with a display image, and α value data representing the transparency of the pixels of the image to be combined are represented on one image plane. Is received from an external device, and based on the α value, an integrated circuit for image processing that synthesizes the image to be combined with the image taken by the camera to generate a display image, and a display panel that outputs the display image. Characterized by having

本発明のさらに別の態様は中継装置に関する。この中継装置は、表示画像に合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値のデータとを1つの画像平面に表してなる合成用データを、合成すべき画像とα値のデータに分離するデータ分離部と、合成すべき画像とα値のデータを異なる方式で圧縮符号化する圧縮符号化部と、合成用データを、画像を生成する装置から取得し、圧縮符号化されたデータを、表示画像を生成する装置に送信する通信部と、を備えたことを特徴とする。 Yet another aspect of the present invention relates to a relay device. This relay device combines the image to be combined with the image to be combined and the data for composition in which the α value data representing the transparency of the pixels of the image to be combined is represented on one image plane. The data separation unit that separates the value data, the compression coding unit that compresses and encodes the image to be combined and the α value data by different methods, and the composition data are acquired from the device that generates the image and the compression code is obtained. It is characterized by including a communication unit that transmits the converted data to a device that generates a display image.

本発明のさらに別の態様はコンテンツ処理システムに関する。このコンテンツ処理システムは、表示装置と、当該表示装置に表示させる画像を生成するコンテンツ処理装置と、を含み、コンテンツ処理装置は、表示画像に合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値のデータを1つの画像平面に表してなる合成用データを生成する合成用データ生成部と、合成用データを出力する通信部と、を備え、表示装置は、実空間を撮影するカメラと、合成用データのα値に基づき、カメラによる撮影画像に合成すべき画像を合成して表示画像を生成する画像処理用集積回路と、表示画像を出力する表示パネルと、を備えたことを特徴とする。 Yet another aspect of the present invention relates to a content processing system. This content processing system includes a display device and a content processing device that generates an image to be displayed on the display device, and the content processing device includes an image to be combined with a display image and pixels of the image to be combined. The display device includes a compositing data generation unit that generates compositing data that represents α value data representing transparency on one image plane, and a communication unit that outputs compositing data, and the display device captures a real space. It is equipped with an integrated circuit for image processing that synthesizes an image to be combined with an image taken by the camera based on the α value of the data for composition to generate a display image, and a display panel that outputs the display image. It is characterized by that.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components and the conversion of the expression of the present invention between methods, devices, systems, computer programs, data structures, recording media and the like are also effective as aspects of the present invention.

本発明によれば、撮影画像を含む合成画像を動画表示する技術において、撮影から表示までの遅延時間やリソース消費量を抑えつつ高品質な画像を表示できる。また、ヘッドマウントディスプレイと外部の装置との様々な通信方式に対応できる。 According to the present invention, in a technique for displaying a composite image including a captured image as a moving image, a high-quality image can be displayed while suppressing a delay time from shooting to display and resource consumption. In addition, it can support various communication methods between the head-mounted display and an external device.

本実施の形態のヘッドマウントディスプレイの外観例を示す図である。It is a figure which shows the appearance example of the head-mounted display of this embodiment. 本実施の形態のコンテンツ処理システムの構成例を示す図である。It is a figure which shows the configuration example of the content processing system of this embodiment. 本実施の形態のコンテンツ処理システムにおけるデータの経路を模式的に示す図である。It is a figure which shows typically the path of the data in the content processing system of this embodiment. 本実施の形態の画像処理用集積回路において、撮影画像から表示画像を生成する処理を説明するための図である。It is a figure for demonstrating the process of generating the display image from the photographed image in the integrated circuit for image processing of this embodiment. 本実施の形態の画像処理用集積回路において、コンテンツ処理装置から送信された仮想オブジェクトを撮影画像に合成して表示画像を生成する処理を説明するための図である。It is a figure for demonstrating the process of generating the display image by synthesizing the virtual object transmitted from the content processing apparatus with the photographed image in the integrated circuit for image processing of this embodiment. 本実施の形態において画像処理用集積回路が画像を合成するために、コンテンツ処理装置が送信するデータの内容を説明するための図である。It is a figure for demonstrating the content of the data transmitted by the content processing apparatus in order for the integrated circuit for image processing to synthesize an image in this embodiment. 本実施の形態においてコンテンツ処理装置からヘッドマウントディスプレイへ、合成用のデータを伝送するためのシステム構成のバリエーションを示す図である。It is a figure which shows the variation of the system configuration for transmitting the data for synthesis from the content processing apparatus to the head-mounted display in this embodiment. 本実施の形態の画像処理用集積回路の回路構成を示す図である。It is a figure which shows the circuit structure of the integrated circuit for image processing of this embodiment. 本実施の形態のコンテンツ処理装置の内部回路構成を示す図である。It is a figure which shows the internal circuit structure of the content processing apparatus of this embodiment. 本実施の形態におけるコンテンツ処理装置の機能ブロックの構成を示す図である。It is a figure which shows the structure of the functional block of the content processing apparatus in this embodiment. 本実施の形態における中継装置の機能ブロックの構成を示す図である。It is a figure which shows the structure of the functional block of the relay device in this embodiment. 本実施の形態におけるヘッドマウントディスプレイが内蔵する画像処理装置の機能ブロックの構成を示す図である。It is a figure which shows the structure of the functional block of the image processing apparatus built in the head-mounted display in this embodiment. 本実施の形態のコンテンツ処理装置がグラフィック画像とα画像を統合してなる画像の構成を例示す図である。It is a figure which shows an example of the structure of the image which the content processing apparatus of this embodiment integrates a graphic image and an α image. 本実施の形態のコンテンツ処理装置がグラフィクス画像に統合する、α画像の画素値のデータ構造を例示する図である。It is a figure which illustrates the data structure of the pixel value of an α image which the content processing apparatus of this embodiment integrates into a graphics image. 本実施の形態において、グラフィクス画像が表されない領域にα画像のデータを埋め込んで送信する場合の処理の手順を示す図である。In this embodiment, it is a figure which shows the process procedure at the time of embedding α image data in the area where a graphics image is not represented, and transmitting. 本実施の形態において、α画像とグラフィクス画像をそれぞれ縦方向に縮小し上下に接続して送信する場合の処理の手順を示す図である。In this embodiment, it is a figure which shows the process procedure at the time of reducing the α image and the graphics image in the vertical direction, connecting them up and down, and transmitting them. 本実施の形態において、グラフィクス画像とα画像をそれぞれ横方向に縮小し左右に接続して送信する場合の処理の手順を示す図である。In this embodiment, it is a figure which shows the process procedure at the time of reducing a graphics image and an α image in the lateral direction, connecting them to the left and right, and transmitting them.

図1はヘッドマウントディスプレイ100の外観例を示す。この例においてヘッドマウントディスプレイ100は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。出力機構部102は、ヘッドマウントディスプレイ100をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。 FIG. 1 shows an example of the appearance of the head-mounted display 100. In this example, the head-mounted display 100 is composed of an output mechanism unit 102 and a mounting mechanism unit 104. The mounting mechanism unit 104 includes a mounting band 106 that goes around the head and realizes fixing of the device when the user wears it. The output mechanism 102 includes a housing 108 having a shape that covers the left and right eyes when the head-mounted display 100 is worn by the user, and includes a display panel inside so as to face the eyes when worn.

筐体108内部にはさらに、ヘッドマウントディスプレイ100の装着時に表示パネルとユーザの目との間に位置し、画像を拡大して見せる接眼レンズを備える。ヘッドマウントディスプレイ100はさらに、装着時にユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。またヘッドマウントディスプレイ100はモーションセンサを内蔵し、ヘッドマウントディスプレイ100を装着したユーザの頭部の並進運動や回転運動、ひいては各時刻の位置や姿勢を検出してもよい。 Further, the inside of the housing 108 is provided with an eyepiece located between the display panel and the user's eyes when the head-mounted display 100 is attached to magnify the image. The head-mounted display 100 may further include a speaker or earphone at a position corresponding to the user's ear when worn. Further, the head-mounted display 100 has a built-in motion sensor, and may detect the translational motion and the rotational motion of the head of the user wearing the head-mounted display 100, and eventually the position and posture at each time.

ヘッドマウントディスプレイ100はさらに、筐体108の前面にステレオカメラ110、中央に広視野角の単眼カメラ111、左上、右上、左下、右下の四隅に広視野角の4つのカメラ112を備え、ユーザの顔の向きに対応する方向の実空間を動画撮影する。本実施の形態では、ステレオカメラ110が撮影した画像を即時表示させることにより、ユーザが向いた方向の実空間の様子をそのまま見せるモードを提供する。以後、このようなモードを「シースルーモード」と呼ぶ。コンテンツの画像を表示していない期間、ヘッドマウントディスプレイ100は基本的にシースルーモードへ移行する。 The head-mounted display 100 further includes a stereo camera 110 on the front surface of the housing 108, a monocular camera 111 with a wide viewing angle in the center, and four cameras 112 with a wide viewing angle at the four corners of the upper left, upper right, lower left, and lower right. Take a video of the real space in the direction corresponding to the direction of the face. The present embodiment provides a mode in which an image taken by the stereo camera 110 is immediately displayed to show the state of the real space in the direction in which the user is facing. Hereinafter, such a mode is referred to as a "see-through mode". The head-mounted display 100 basically shifts to the see-through mode during the period when the image of the content is not displayed.

ヘッドマウントディスプレイ100が自動でシースルーモードへ移行することにより、ユーザはコンテンツの開始前、終了後、中断時などに、ヘッドマウントディスプレイ100を外すことなく周囲の状況を確認できる。シースルーモードへの移行タイミングはこのほか、ユーザが明示的に移行操作を行ったときなどでもよい。これによりコンテンツの鑑賞中であっても、任意のタイミングで一時的に実空間の画像へ表示を切り替えることができ、コントローラを見つけて手に取るなど必要な作業を行える。 By automatically shifting to the see-through mode of the head-mounted display 100, the user can check the surrounding situation without removing the head-mounted display 100 before the content starts, after the content ends, or when the content is interrupted. In addition to this, the transition timing to the see-through mode may be when the user explicitly performs the transition operation. As a result, even while viewing the content, the display can be temporarily switched to the image in the real space at any timing, and necessary work such as finding the controller and picking it up can be performed.

ステレオカメラ110、単眼カメラ111、4つのカメラ112による撮影画像の少なくともいずれかは、コンテンツの画像としても利用できる。例えば写っている実空間と対応するような位置、姿勢、動きで、仮想オブジェクトを撮影画像に合成して表示することにより、拡張現実(AR:Augmented Reality)や複合現実(MR:Mixed Reality)を実現できる。このように撮影画像を表示に含めるか否かによらず、撮影画像の解析結果を用いて、描画するオブジェクトの位置、姿勢、動きを決定づけることができる。 At least one of the images captured by the stereo camera 110, the monocular camera 111, and the four cameras 112 can also be used as an image of the content. For example, augmented reality (AR: Augmented Reality) and mixed reality (MR) can be created by synthesizing virtual objects with captured images and displaying them in positions, postures, and movements that correspond to the actual space in the image. realizable. In this way, regardless of whether or not the captured image is included in the display, the position, posture, and movement of the object to be drawn can be determined by using the analysis result of the captured image.

例えば、撮影画像にステレオマッチングを施すことにより対応点を抽出し、三角測量の原理で被写体の距離を取得してもよい。あるいはSLAM(Simultaneous Localization and Mapping)により周囲の空間に対するヘッドマウントディスプレイ100、ひいてはユーザの頭部の位置や姿勢を取得してもよい。また物体認識や物体深度測定なども行える。これらの処理により、ユーザの視点の位置や視線の向きに対応する視野で仮想世界を描画し表示させることができる。 For example, the corresponding points may be extracted by performing stereo matching on the captured image, and the distance of the subject may be acquired by the principle of triangulation. Alternatively, the head-mounted display 100 with respect to the surrounding space, and thus the position and posture of the user's head may be acquired by SLAM (Simultaneous Localization and Mapping). It can also perform object recognition and object depth measurement. By these processes, the virtual world can be drawn and displayed in the field of view corresponding to the position of the user's viewpoint and the direction of the line of sight.

なお本実施の形態のヘッドマウントディスプレイ100は、ユーザの顔の位置や向きに対応する視野で実空間を撮影するカメラを備えれば、実際の形状は図示するものに限らない。また、シースルーモードにおいて左目の視野、右目の視野の画像を擬似的に生成すれば、ステレオカメラ110の代わりに単眼カメラを用いることもできる。 The head-mounted display 100 of the present embodiment is not limited to the one shown in the figure as long as it is provided with a camera that captures a real space with a field of view corresponding to the position and orientation of the user's face. Further, if the images of the field of view of the left eye and the field of view of the right eye are simulated in the see-through mode, a monocular camera can be used instead of the stereo camera 110.

図2は、本実施の形態におけるコンテンツ処理システムの構成例を示す。ヘッドマウントディスプレイ100は、無線通信またはUSB Type−Cなどの周辺機器を接続するインターフェース300によりコンテンツ処理装置200に接続される。コンテンツ処理装置200には平板型ディスプレイ302が接続される。コンテンツ処理装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションをコンテンツ処理装置200に提供してもよい。 FIG. 2 shows a configuration example of the content processing system according to the present embodiment. The head-mounted display 100 is connected to the content processing device 200 by an interface 300 that connects peripheral devices such as wireless communication or USB Type-C. A flat plate display 302 is connected to the content processing device 200. The content processing device 200 may be further connected to the server via a network. In that case, the server may provide the content processing device 200 with an online application such as a game in which a plurality of users can participate via a network.

コンテンツ処理装置200は基本的に、コンテンツのプログラムを処理し、表示画像を生成してヘッドマウントディスプレイ100や平板型ディスプレイ302に送信する。ある態様においてコンテンツ処理装置200は、ヘッドマウントディスプレイ100を装着したユーザの頭部の位置や姿勢に基づき視点の位置や視線の方向を特定し、それに対応する視野の表示画像を所定のレートで生成する。 The content processing device 200 basically processes a content program, generates a display image, and transmits the display image to the head-mounted display 100 or the flat-plate display 302. In a certain aspect, the content processing device 200 specifies the position of the viewpoint and the direction of the line of sight based on the position and posture of the head of the user wearing the head-mounted display 100, and generates a display image of the corresponding visual field at a predetermined rate. To do.

ヘッドマウントディスプレイ100は当該表示画像のデータを受信し、コンテンツの画像として表示する。この限りにおいて画像を表示する目的は特に限定されない。例えばコンテンツ処理装置200は、電子ゲームを進捗させつつゲームの舞台である仮想世界を表示画像として生成してもよいし、仮想世界か実世界かに関わらず観賞や情報提供のために静止画像または動画像を表示させてもよい。 The head-mounted display 100 receives the data of the display image and displays it as an image of the content. To this extent, the purpose of displaying the image is not particularly limited. For example, the content processing device 200 may generate a virtual world, which is the stage of the game, as a display image while advancing the electronic game, or may use a still image or a still image for viewing or providing information regardless of whether the virtual world or the real world is used. A moving image may be displayed.

なおコンテンツ処理装置200とヘッドマウントディスプレイ100の距離やインターフェース300の通信方式は限定されない。例えばコンテンツ処理装置200は、個人が所有するゲーム装置などのほか、クラウドゲームなど各種配信サービスを提供する企業などのサーバや、任意の端末にデータを送信する家庭内サーバなどでもよい。したがってコンテンツ処理装置200とヘッドマウントディスプレイ100の間の通信は上述した例のほか、インターネットなどの公衆ネットワークやLAN(Local Area Network)、携帯電話キャリアネットワーク、街中にあるWi−Fiスポット、家庭にあるWi−Fiアクセスポイントなど、任意のネットワークやアクセスポイントを経由して実現してもよい。 The distance between the content processing device 200 and the head-mounted display 100 and the communication method of the interface 300 are not limited. For example, the content processing device 200 may be a game device owned by an individual, a server of a company or the like that provides various distribution services such as a cloud game, or a home server that transmits data to an arbitrary terminal. Therefore, communication between the content processing device 200 and the head mount display 100 is in addition to the above-mentioned examples, in public networks such as the Internet, LAN (Local Area Network), mobile phone carrier networks, Wi-Fi spots in the city, and homes. It may be realized via an arbitrary network or access point such as a Wi-Fi access point.

図3は、本実施の形態のコンテンツ処理システムにおけるデータの経路を模式的に示している。ヘッドマウントディスプレイ100は上述のとおりステレオカメラ110と表示パネル122を備える。ただし上述のとおりカメラはステレオカメラ110に限らず、単眼カメラ111や4つのカメラ112のいずれかまたは組み合わせであってもよい。以後の説明も同様である。表示パネル122は、液晶ディスプレイや有機ELディスプレイなどの一般的な表示機構を有するパネルであり、ヘッドマウントディスプレイ100を装着したユーザの目の前に画像を表示する。またヘッドマウントディスプレイ100は内部に、画像処理用集積回路120を備える。 FIG. 3 schematically shows a data path in the content processing system of the present embodiment. The head-mounted display 100 includes a stereo camera 110 and a display panel 122 as described above. However, as described above, the camera is not limited to the stereo camera 110, and may be any or a combination of the monocular camera 111 and the four cameras 112. The same applies to the following description. The display panel 122 is a panel having a general display mechanism such as a liquid crystal display or an organic EL display, and displays an image in front of a user wearing the head-mounted display 100. Further, the head-mounted display 100 includes an integrated circuit 120 for image processing inside.

画像処理用集積回路120は例えば、CPUを含む様々な機能モジュールを搭載したシステムオンチップである。なおヘッドマウントディスプレイ100はこのほか、上述のとおりジャイロセンサ、加速度センサ、角加速度センサなどのモーションセンサや、DRAM(Dynamic Random Access Memory)などのメインメモリ、ユーザに音声を聞かせるオーディオ回路、周辺機器を接続するための周辺機器インターフェース回路などが備えられてよいが、ここでは図示を省略している。 The image processing integrated circuit 120 is, for example, a system-on-chip equipped with various functional modules including a CPU. In addition to this, the head mount display 100 includes motion sensors such as a gyro sensor, an acceleration sensor, and an angular acceleration sensor, a main memory such as a DRAM (Dynamic Random Access Memory), an audio circuit that allows the user to hear voice, and peripheral devices. Peripheral device interface circuits and the like for connecting the devices may be provided, but the illustrations are omitted here.

拡張現実や複合現実を遮蔽型のヘッドマウントディスプレイで実現する場合、一般にはステレオカメラ110などによる撮影画像を、コンテンツを処理する主体に取り込み、そこで仮想オブジェクトと合成して表示画像を生成する。図示するシステムにおいてコンテンツを処理する主体はコンテンツ処理装置200のため、矢印Bに示すように、ステレオカメラ110で撮影された画像は、画像処理用集積回路120を経て一旦、コンテンツ処理装置200に送信される。 When augmented reality or mixed reality is realized by a shield-type head-mounted display, generally, an image taken by a stereo camera 110 or the like is taken into a subject that processes the content, and then combined with a virtual object to generate a display image. Since the main body that processes the content in the illustrated system is the content processing device 200, as shown by the arrow B, the image taken by the stereo camera 110 is once transmitted to the content processing device 200 via the image processing integrated circuit 120. Will be done.

そして仮想オブジェクトが合成されるなどしてヘッドマウントディスプレイ100に返され、表示パネル122に表示される。一方、本実施の形態では矢印Aに示すように、撮影画像を対象としたデータの経路を設ける。例えばシースルーモードにおいては、ステレオカメラ110で撮影された画像を、画像処理用集積回路120で適宜処理し、そのまま表示パネル122に表示させる。このとき画像処理用集積回路120は、撮影画像を表示に適した形式に補正する処理のみ実施する。 Then, the virtual object is synthesized and returned to the head-mounted display 100, and is displayed on the display panel 122. On the other hand, in the present embodiment, as shown by arrow A, a data path for the captured image is provided. For example, in the see-through mode, the image taken by the stereo camera 110 is appropriately processed by the image processing integrated circuit 120 and displayed as it is on the display panel 122. At this time, the image processing integrated circuit 120 only performs the process of correcting the captured image into a format suitable for display.

あるいはさらに、画像処理用集積回路120において、コンテンツ処理装置200が生成した画像と撮影画像を合成したうえ、表示パネル122に表示させる。このようにすると、ヘッドマウントディスプレイ100からコンテンツ処理装置200へは、撮影画像のデータの代わりに、撮影画像から取得した、実空間に係る情報のみを送信すればよくなる。またコンテンツ処理装置200からヘッドマウントディスプレイ100へは、合成すべき画像のデータのみを送信すればよくなる。 Alternatively, in the image processing integrated circuit 120, the image generated by the content processing device 200 and the captured image are combined and displayed on the display panel 122. In this way, it is sufficient to transmit only the information related to the real space acquired from the captured image to the content processing device 200 from the head-mounted display 100 instead of the data of the captured image. Further, only the image data to be combined needs to be transmitted from the content processing device 200 to the head-mounted display 100.

矢印Aの経路によれば、矢印Bと比較しデータの伝送経路が格段に短縮する。また上述のようにヘッドマウントディスプレイ100とコンテンツ処理装置200の間で伝送すべきデータのサイズを小さくできる。結果として、画像の撮影から表示までの時間を短縮できるとともに、伝送に要する消費電力を軽減させることができる。 According to the path of arrow A, the data transmission path is significantly shortened as compared with arrow B. Further, as described above, the size of data to be transmitted between the head-mounted display 100 and the content processing device 200 can be reduced. As a result, the time from image capture to display can be shortened, and the power consumption required for transmission can be reduced.

図4は、画像処理用集積回路120において、撮影画像から表示画像を生成する処理を説明するための図である。実空間において、物が置かれたテーブルがユーザの前にあるとする。ステレオカメラ110はそれを撮影することにより、左視点の撮影画像16a、右視点の撮影画像16bを取得する。ステレオカメラ110の両視点の間隔により、撮影画像16a、16bには、同じ被写体の像に視差が生じている。 FIG. 4 is a diagram for explaining a process of generating a display image from a captured image in the image processing integrated circuit 120. In real space, suppose a table on which objects are placed is in front of the user. By photographing the stereo camera 110, the photographed image 16a of the left viewpoint and the photographed image 16b of the right viewpoint are acquired. Due to the distance between both viewpoints of the stereo camera 110, parallax occurs in the images of the same subject in the captured images 16a and 16b.

また、カメラのレンズにより、被写体の像には歪曲収差が発生する。一般には、そのようなレンズ歪みを補正し、歪みのない左視点の画像18a、右視点の画像18bを生成する(S10)。ここで元の画像16a、16bにおける位置座標(x,y)の画素が、補正後の画像18a、18bにおける位置座標(x+Δx,y+Δy)へ補正されたとすると、その変位ベクトル(Δx,Δy)は次の一般式で表せる。 In addition, the lens of the camera causes distortion in the image of the subject. Generally, such lens distortion is corrected to generate a distortion-free left-viewpoint image 18a and a right-viewpoint image 18b (S10). Here, assuming that the pixels of the position coordinates (x, y) in the original images 16a and 16b are corrected to the position coordinates (x + Δx, y + Δy) in the corrected images 18a and 18b, the displacement vector (Δx, Δy) is It can be expressed by the following general formula.

ここでrは、画像平面におけるレンズの光軸から対象画素までの距離、(Cx,Cy)はレンズの光軸の位置である。またk、k、k、・・・はレンズ歪み係数でありレンズの設計に依存する。次数の上限は特に限定されない。なお本実施の形態においてレンズ歪みの補正に用いる式を式1に限定する趣旨ではない。平板型ディスプレイに表示させたり画像解析をしたりする場合、このように補正された一般的な画像が用いられる。一方、ヘッドマウントディスプレイ100において、接眼レンズを介して見た時に歪みのない画像18a、18bが視認されるためには、接眼レンズによる歪みと逆の歪みを与えておく必要がある。 Here, r is the distance from the optical axis of the lens to the target pixel in the image plane, and (Cx, Cy) is the position of the optical axis of the lens. Further, k 1 , k 2 , k 3 , ... Are lens distortion coefficients and depend on the lens design. The upper limit of the order is not particularly limited. It should be noted that the equation used for correcting the lens distortion in the present embodiment is not intended to be limited to Equation 1. When displaying on a flat plate display or performing image analysis, a general image corrected in this way is used. On the other hand, in the head-mounted display 100, in order for the images 18a and 18b without distortion to be visually recognized when viewed through the eyepiece, it is necessary to apply distortion opposite to the distortion caused by the eyepiece.

例えば画像の四辺が糸巻き状に凹んで見えるレンズの場合、画像を樽型に湾曲させておく。したがって歪みのない画像18a、18bを接眼レンズに対応するように歪ませ、表示パネル122のサイズに合わせて左右に接続することにより、最終的な表示画像22が生成される(S12)。表示画像22の左右の領域における被写体の像と、補正前の歪みのない画像18a、18bにおける被写体の像の関係は、カメラのレンズ歪みを有する画像と歪みを補正した画像の関係と同等である。 For example, in the case of a lens in which the four sides of the image appear to be recessed like a pincushion, the image is curved in a barrel shape. Therefore, the undistorted images 18a and 18b are distorted so as to correspond to the eyepieces, and are connected to the left and right according to the size of the display panel 122 to generate the final display image 22 (S12). The relationship between the image of the subject in the left and right regions of the display image 22 and the image of the subject in the images 18a and 18b without distortion before correction is equivalent to the relationship between the image having lens distortion of the camera and the image corrected for distortion. ..

したがって式1の変位ベクトル(Δx,Δy)の逆ベクトルにより、表示画像22における歪みのある像を生成できる。ただし当然、レンズに係る変数は接眼レンズの値とする。本実施の形態の画像処理用集積回路120は、このような2つのレンズを踏まえた歪みの除去と付加を、一度の計算で完了させる(S14)。詳細には、元の撮影画像16a、16b上の画素が、補正によって表示画像22のどの位置に変位するかを示す変位ベクトルを画像平面に表した変位ベクトルマップを作成しておく。 Therefore, a distorted image in the display image 22 can be generated by the reciprocal vector of the displacement vector (Δx, Δy) of the equation 1. However, as a matter of course, the variable related to the lens is the value of the eyepiece. The image processing integrated circuit 120 of the present embodiment completes the removal and addition of distortion based on such two lenses in a single calculation (S14). Specifically, a displacement vector map is created in which the displacement vector indicating the position of the pixels on the original captured images 16a and 16b is displaced on the display image 22 by the correction is represented on the image plane.

カメラのレンズによる歪みを除去する際の変位ベクトルを(Δx,Δy)、接眼レンズのために歪みを付加する際の変位ベクトルを(−Δx’,−Δy’)とすると、変位ベクトルマップが各位置で保持する変位ベクトルは(Δx−Δx’,Δy−Δy’)となる。なお変位ベクトルは、画素の変位の方向と変位量を定義するのみであるため、事前にそれらのパラメータを決定できるものであれば、レンズ歪みに起因する補正に限らず様々な補正や組み合わせを、同様の構成で容易に実現できる。 If the displacement vector for removing the distortion caused by the camera lens is (Δx, Δy) and the displacement vector for adding the distortion for the eyepiece is (-Δx', −Δy'), the displacement vector maps will be displayed respectively. The displacement vector held at the position is (Δx−Δx', Δy−Δy'). Note that the displacement vector only defines the direction of pixel displacement and the amount of displacement, so if those parameters can be determined in advance, various corrections and combinations are possible, not limited to corrections caused by lens distortion. It can be easily realized with the same configuration.

表示画像22を生成する際は変位ベクトルマップを参照して、撮影画像16a、16bの各位置の画素を変位ベクトル分だけ移動させる。なお撮影画像16a、16bをそれぞれ補正して左目用、右目用の表示画像を生成し、後から接続して表示画像22を生成してもよい。撮影画像16a、16bと表示画像22は、歪みの分の変位はあるものの像が表れる位置や形状に大きな変化はないため、画像平面の上の行から順に撮影画像の画素値が取得されるのと並行して、その画素値を取得し補正を施すことができる。そして上の段から順に、補正処理と並行して後段の処理に供することにより、低遅延での表示を実現できる。 When the display image 22 is generated, the pixels at the positions of the captured images 16a and 16b are moved by the displacement vector with reference to the displacement vector map. The captured images 16a and 16b may be corrected to generate display images for the left eye and the right eye, respectively, and may be connected later to generate the display image 22. Although the captured images 16a and 16b and the displayed image 22 are displaced by the amount of distortion, there is no significant change in the position or shape in which the image appears. Therefore, the pixel values of the captured images are acquired in order from the line above the image plane. In parallel with, the pixel value can be acquired and corrected. Then, in order from the upper stage, the display with low delay can be realized by performing the processing in the subsequent stage in parallel with the correction processing.

図5は、画像処理用集積回路120において、コンテンツ処理装置200から送信された仮想オブジェクトを撮影画像に合成して表示画像を生成する処理を説明するための図である。同図右上の画像26は、図4で説明したように撮影画像を補正した画像である。ただしこの態様ではそれをそのまま表示せず、コンテンツ処理装置200から送信された、仮想オブジェクトの画像24と合成して最終的な表示画像28とする。この例では猫のオブジェクトを合成する。 FIG. 5 is a diagram for explaining a process of generating a display image by synthesizing a virtual object transmitted from the content processing device 200 with a captured image in the image processing integrated circuit 120. The image 26 in the upper right of the figure is an image obtained by correcting the captured image as described in FIG. However, in this embodiment, it is not displayed as it is, and it is combined with the virtual object image 24 transmitted from the content processing device 200 to obtain the final display image 28. In this example, a cat object is synthesized.

図示するようにコンテンツ処理装置200は、撮影画像と融合する適切な位置に猫のオブジェクトを描画した画像24を生成する。この際、左目用、右目用に視差のある画像を生成したうえ、図4のS12に示したのと同様に、ヘッドマウントディスプレイ100の接眼レンズを踏まえた歪みを与える。コンテンツ処理装置200は、歪みを与えた左右の画像を接続してなる画像24をヘッドマウントディスプレイ100に送信する。 As shown in the figure, the content processing device 200 generates an image 24 in which a cat object is drawn at an appropriate position to be fused with the captured image. At this time, images with parallax are generated for the left eye and the right eye, and distortion is applied based on the eyepiece of the head-mounted display 100 as shown in S12 of FIG. The content processing device 200 transmits an image 24 formed by connecting the distorted left and right images to the head-mounted display 100.

ヘッドマウントディスプレイ100の画像処理用集積回路120は、撮影画像を補正してなる画像26に、コンテンツ処理装置200から送信された画像24内の猫のオブジェクトをはめ込むことにより合成し、表示画像28を生成する。画像24において適切な位置にオブジェクトを描画することにより、例えば実物体であるテーブルの上に猫のオブジェクトが立っているような状態の画像が表示される。表示画像28を、接眼レンズを介して見ることにより、ユーザには画像29のような像が立体的に視認される。 The image processing integrated circuit 120 of the head-mounted display 100 synthesizes the captured image 26 by fitting the cat object in the image 24 transmitted from the content processing device 200 into the image 26, and displays the display image 28. Generate. By drawing the object at an appropriate position in the image 24, for example, an image in which a cat object is standing on a table which is a real object is displayed. By viewing the display image 28 through the eyepiece, the user can see the image like the image 29 in three dimensions.

なお仮想オブジェクトの画像24など合成すべき画像のデータの生成元や送信元はコンテンツ処理装置200に限らない。例えばネットワークを介してコンテンツ処理装置200またはヘッドマウントディスプレイ100に接続したサーバを生成元や送信元としてもよいし、ヘッドマウントディスプレイ100に内蔵された、画像処理用集積回路120とは異なるモジュールを生成元や送信元としてもよい。コンテンツ処理装置200を含め、それらの装置を「画像生成装置」と捉えることもできる。また合成処理を実施し表示装置を生成する装置をヘッドマウントディスプレイ100と別に設けてもよい。 The generation source and transmission source of image data to be combined such as the image 24 of the virtual object are not limited to the content processing device 200. For example, a server connected to the content processing device 200 or the head-mounted display 100 via a network may be used as a generator or a source, or a module different from the image processing integrated circuit 120 built in the head-mounted display 100 is generated. It may be the source or source. These devices, including the content processing device 200, can also be regarded as an "image generation device". Further, a device that performs synthesis processing and generates a display device may be provided separately from the head-mounted display 100.

図6は、画像処理用集積回路120が画像を合成するために、コンテンツ処理装置200が送信するデータの内容を説明するための図である。(a)は、合成すべき仮想オブジェクトを表示形式で表した画像(以下、「グラフィクス画像」と呼ぶ)50と、グラフィクス画像50の透明度を表すα値を画像平面に表したα画像52からなるデータである。ここでα値は、0のときを透明、1のときを不透明、その中間値を数値に応じた濃さの半透明とする一般的なパラメータである。 FIG. 6 is a diagram for explaining the content of data transmitted by the content processing device 200 in order for the image processing integrated circuit 120 to synthesize images. (A) is composed of an image (hereinafter referred to as "graphics image") 50 representing a virtual object to be synthesized in a display format, and an α image 52 representing an α value representing the transparency of the graphics image 50 on an image plane. It is data. Here, the α value is a general parameter in which 0 is transparent, 1 is opaque, and the intermediate value is semi-transparent with a density corresponding to the numerical value.

図示する例で猫のオブジェクトのみを不透明に合成する場合は、猫のオブジェクトの領域のα値を1、その他の領域のα値を0としたα画像を生成する。画像処理用集積回路120は、撮影画像を補正してなる画像と、コンテンツ処理装置200から送信されたグラフィクス画像50を次の演算により合成し、表示画像を生成する。
out=(1−α)F+αF
When only the cat object is opaquely combined in the illustrated example, an α image is generated in which the α value of the area of the cat object is 1 and the α value of the other areas is 0. The image processing integrated circuit 120 synthesizes an image obtained by correcting a captured image and a graphics image 50 transmitted from the content processing device 200 by the following calculation to generate a display image.
F out = (1-α) F i + α F o

ここでF、Fはそれぞれ、補正された撮影画像およびグラフィクス画像50における同じ位置の画素値、αはα画像における同じ位置のα値、Foutは表示画像における同じ位置の画素値である。なお実際には、赤、緑、青の3チャンネルの画像ごとに上記演算を実施する。 Here F i, F o, respectively, corrected pixel values at the same position in the captured image and the graphics image 50, alpha is alpha values of the same position in the alpha image, the F out is the pixel value at the same position in the display image .. Actually, the above calculation is performed for each of the three channel images of red, green, and blue.

(b)は、グラフィクス画像において、合成すべき仮想オブジェクト以外の領域を、緑など所定色の塗り潰しとした画像54からなるデータである。この場合、画像処理用集積回路120は、画像54のうち画素値が当該所定色以外の領域のみを合成対象とし、撮影画像の画素と置換する。結果として図示する例では、猫のオブジェクトの領域のみが撮影画像の画素と置換され、その他の領域は撮影画像が残った表示画像が生成される。このような合成手法はクロマキー合成として知られている。 (B) is data consisting of an image 54 in which a region other than the virtual object to be combined is filled with a predetermined color such as green in the graphics image. In this case, the image processing integrated circuit 120 targets only the region of the image 54 whose pixel value is other than the predetermined color as the synthesis target, and replaces the pixels of the captured image. As a result, in the illustrated example, only the area of the cat object is replaced with the pixels of the captured image, and the other areas generate a display image in which the captured image remains. Such a synthesis method is known as chroma key synthesis.

コンテンツ処理装置200は、ヘッドマウントディスプレイ100から撮影画像における被写体の位置や姿勢に係る情報を取得し、当該被写体との位置関係を踏まえて仮想オブジェクトを描画することによりグラフィクス画像を生成する。それと同時に、α画像52を生成したり、仮想オブジェクト以外の領域を所定色で塗りつぶしたりすることで、合成処理に必要な情報(以下、「合成情報」と呼ぶ)を生成する。これらをヘッドマウントディスプレイ100に送信して合成させることにより、全体として伝送すべきデータ量を削減できる。 The content processing device 200 acquires information related to the position and posture of the subject in the captured image from the head-mounted display 100, and draws a virtual object based on the positional relationship with the subject to generate a graphics image. At the same time, the α image 52 is generated, and the area other than the virtual object is filled with a predetermined color to generate the information necessary for the compositing process (hereinafter, referred to as “composite information”). By transmitting these to the head-mounted display 100 and synthesizing them, the amount of data to be transmitted can be reduced as a whole.

図7は、コンテンツ処理装置200からヘッドマウントディスプレイ100へ、合成用のデータを伝送するためのシステム構成のバリエーションを示している。(a)は、コンテンツ処理装置200とヘッドマウントディスプレイ100を、DisplayPortなどの標準規格により有線接続するケースを示している。(b)は、コンテンツ処理装置200とヘッドマウントディスプレイ100の間に中継装置310を設け、コンテンツ処理装置200と中継装置310を有線接続し、中継装置310とヘッドマウントディスプレイ100をWi-Fi(登録商標)などにより無線接続するケースを示している。 FIG. 7 shows a variation of the system configuration for transmitting data for synthesis from the content processing device 200 to the head-mounted display 100. (A) shows a case where the content processing device 200 and the head-mounted display 100 are connected by wire according to a standard such as DisplayPort. In (b), a relay device 310 is provided between the content processing device 200 and the head-mounted display 100, the content processing device 200 and the relay device 310 are connected by wire, and the relay device 310 and the head-mounted display 100 are Wi-Fi (registered). A case of wireless connection is shown by means of a trademark) or the like.

(a)の構成の場合、ヘッドマウントディスプレイ100にケーブルが接続されるため、コンテンツ処理装置200が設置型であればユーザの動きが阻害され得る一方、比較的高いビットレートを確保できる。(b)の構成の場合、無線通信においてフレームレートに対応するデータを伝送するには、データの圧縮率を有線の場合より高める必要があるが、ユーザの可動範囲を広げられる。本実施の形態では、これらのシステム構成に対応できるようにすることで、通信環境や求められる処理性能に応じた最適化を行えるようにする。 In the case of the configuration (a), since the cable is connected to the head-mounted display 100, if the content processing device 200 is a stationary type, the movement of the user can be hindered, but a relatively high bit rate can be secured. In the case of the configuration (b), in order to transmit data corresponding to the frame rate in wireless communication, it is necessary to increase the data compression rate as compared with the case of wired communication, but the movable range of the user can be expanded. In the present embodiment, by making it possible to support these system configurations, it is possible to perform optimization according to the communication environment and the required processing performance.

図8は、本実施の形態の画像処理用集積回路120の回路構成を示している。ただし本実施の形態に係る構成のみ図示し、その他は省略している。画像処理用集積回路120は、入出力インターフェース30、CPU32、信号処理回路42、画像補正回路34、画像解析回路46、復号回路48、合成回路36、およびディスプレイコントローラ44を備える。 FIG. 8 shows the circuit configuration of the image processing integrated circuit 120 of the present embodiment. However, only the configuration according to this embodiment is shown, and the others are omitted. The image processing integrated circuit 120 includes an input / output interface 30, a CPU 32, a signal processing circuit 42, an image correction circuit 34, an image analysis circuit 46, a decoding circuit 48, a synthesis circuit 36, and a display controller 44.

入出力インターフェース30は有線通信によりコンテンツ処理装置200と、無線通信により中継装置310と通信を確立し、そのいずれかとデータの送受信を実現する。本実施の形態において入出力インターフェースは、画像の解析結果やモーションセンサの計測値などをコンテンツ処理装置200に送信する。この際も中継装置310を中継してよい。また入出力インターフェース30は、コンテンツ処理装置200がそれに応じて生成したグラフィクス画像と合成情報のデータを、コンテンツ処理装置200あるいは中継装置310から受信する。 The input / output interface 30 establishes communication with the content processing device 200 by wired communication and the relay device 310 by wireless communication, and realizes transmission / reception of data with either of them. In the present embodiment, the input / output interface transmits an image analysis result, a motion sensor measurement value, and the like to the content processing device 200. At this time as well, the relay device 310 may be relayed. Further, the input / output interface 30 receives the graphics image and composite information data generated by the content processing device 200 from the content processing device 200 or the relay device 310.

CPU32は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサであり、他の回路を制御する。信号処理回路42は、ステレオカメラ110の左右のイメージセンサから撮影画像のデータを所定のフレームレートで取得し、それぞれにデモザイク処理などの必要な処理を施す。信号処理回路42は、画素値が決定した画素列順に、画像補正回路34、画像解析回路46にデータを供給する。 The CPU 32 is a main processor that processes and outputs signals such as image signals and sensor signals, commands and data, and controls other circuits. The signal processing circuit 42 acquires captured image data from the left and right image sensors of the stereo camera 110 at a predetermined frame rate, and performs necessary processing such as demosaic processing on each of them. The signal processing circuit 42 supplies data to the image correction circuit 34 and the image analysis circuit 46 in the order of the pixel sequences in which the pixel values are determined.

画像補正回路34は上述のとおり、撮影画像における各画素を、変位ベクトル分だけ変位させることにより補正する。変位ベクトルマップにおいて変位ベクトルを設定する対象は、撮影画像平面の全ての画素でもよいし、所定間隔の離散的な画素のみでもよい。後者の場合、画像補正回路34はまず、変位ベクトルが設定されている画素について変位先を求め、それらの画素との位置関係に基づき、残りの画素の変位先を補間により求める。 As described above, the image correction circuit 34 corrects each pixel in the captured image by displacing it by the displacement vector. The target for setting the displacement vector in the displacement vector map may be all pixels in the captured image plane, or may be only discrete pixels at predetermined intervals. In the latter case, the image correction circuit 34 first obtains the displacement destinations of the pixels for which the displacement vector is set, and obtains the displacement destinations of the remaining pixels by interpolation based on the positional relationship with those pixels.

色収差を補正する場合、赤、緑、青の原色ごとに変位ベクトルが異なるため、変位ベクトルマップを3つ準備する。また画像補正回路34は表示画像のうち、このような画素の変位によって値が決定しない画素については、周囲の画素値を適宜補間して画素値を決定する。画像補正回路34は、そのようにして決定した画素値をバッファメモリに格納していく。そしてシースルーモードにおいては、画像平面の上の行から順に、画素値の決定とともにディスプレイコントローラ44へデータを出力していく。画像合成時は、同様にして合成回路36にデータを出力していく。 When correcting chromatic aberration, the displacement vectors are different for each of the primary colors of red, green, and blue, so three displacement vector maps are prepared. Further, the image correction circuit 34 determines the pixel value by appropriately interpolating the surrounding pixel values for the pixel whose value is not determined by the displacement of the pixel in the display image. The image correction circuit 34 stores the pixel values determined in this way in the buffer memory. Then, in the see-through mode, data is output to the display controller 44 together with the determination of the pixel value in order from the line on the image plane. At the time of image composition, data is output to the composition circuit 36 in the same manner.

画像解析回路46は、撮影画像を解析することにより所定の情報を取得する。例えば左右の撮影画像を用いてステレオマッチングにより被写体の距離を求め、それを画像平面に画素値として表したデプスマップを生成する。SLAMによりヘッドマウントディスプレイの位置や姿勢を取得してもよい。このほか、画像解析の内容として様々に考えられることは当業者には理解されるところである。画像解析回路46は取得した情報を、入出力インターフェース30を介して順次、コンテンツ処理装置200に送信する。 The image analysis circuit 46 acquires predetermined information by analyzing the captured image. For example, the distance between the subjects is obtained by stereo matching using the left and right captured images, and a depth map is generated in which the distance is expressed as a pixel value on the image plane. The position and orientation of the head-mounted display may be acquired by SLAM. In addition, it is understood by those skilled in the art that various things can be considered as the content of image analysis. The image analysis circuit 46 sequentially transmits the acquired information to the content processing device 200 via the input / output interface 30.

復号回路48は、入出力インターフェース30が受信した合成用のデータを復号伸張する。上述のとおり、他の装置との通信が有線か無線かによって通信帯域が変化するため、本実施の形態ではそれに応じて合成用のデータの構造や圧縮方式を切り替える。したがって復号回路48は、受信したデータに適した方式を適宜選択して復号伸張を施す。復号回路48は復号伸張したデータを順次、合成回路36に供給する。 The decoding circuit 48 decodes and decompresses the data for synthesis received by the input / output interface 30. As described above, since the communication band changes depending on whether the communication with the other device is wired or wireless, in the present embodiment, the structure and compression method of the data for synthesis are switched accordingly. Therefore, the decoding circuit 48 appropriately selects a method suitable for the received data and performs decoding and decompression. The decoding circuit 48 sequentially supplies the decoded and decompressed data to the synthesis circuit 36.

合成回路36は図5に示したように、画像補正回路34から供給された撮影画像と、復号回路48から供給されたグラフィクス画像を合成し表示画像とする。合成には上述のとおり、アルファブレンドまたはクロマキー合成のいずれを採用してもよい。コンテンツ処理装置200から、グラフィクス画像とα画像を統合した画像のデータが送信された場合、合成回路36はそれらを分離してグラフィクス画像とα画像を復元したうえでアルファブレンドを実施する。 As shown in FIG. 5, the synthesis circuit 36 combines the captured image supplied from the image correction circuit 34 and the graphics image supplied from the decoding circuit 48 into a display image. As described above, either alpha blending or chroma key synthesis may be adopted for the synthesis. When data of an image in which a graphics image and an α image are integrated is transmitted from the content processing device 200, the synthesis circuit 36 separates them, restores the graphics image and the α image, and then performs alpha blending.

中継装置310から、所定方向に縮小されたグラフィクス画像とα画像のデータがそれぞれ送信された場合、合成回路36はそれらの画像を当該所定方向に拡大して復元したうえでアルファブレンドを実施する。なお画像補正回路34は必要に応じて、合成後の表示画像に対し色収差補正を実施する。そして合成回路36または画像補正回路34は、画像平面の上の行から順に、画素値の決定とともにディスプレイコントローラ44へデータを出力していく。 When the data of the graphics image and the α image reduced in the predetermined direction are transmitted from the relay device 310, the synthesis circuit 36 enlarges and restores the images in the predetermined direction and then performs alpha blending. The image correction circuit 34 corrects chromatic aberration on the displayed image after synthesis, if necessary. Then, the synthesis circuit 36 or the image correction circuit 34 outputs data to the display controller 44 together with the determination of the pixel values in order from the line on the image plane.

図9は、コンテンツ処理装置200の内部回路構成を示している。コンテンツ処理装置200は、CPU(Central Processing Unit)222、GPU(Graphics Processing Unit)224、メインメモリ226を含む。これらの各部は、バス230を介して相互に接続されている。バス230にはさらに入出力インターフェース228が接続されている。 FIG. 9 shows the internal circuit configuration of the content processing device 200. The content processing device 200 includes a CPU (Central Processing Unit) 222, a GPU (Graphics Processing Unit) 224, and a main memory 226. Each of these parts is connected to each other via a bus 230. An input / output interface 228 is further connected to the bus 230.

入出力インターフェース228には、USBやPCIeなどの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部232、ハードディスクドライブや不揮発性メモリなどの記憶部234、ヘッドマウントディスプレイ100へのデータを出力する出力部236、ヘッドマウントディスプレイ100からのデータを入力する入力部238、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部240が接続される。 The input / output interface 228 stores data to a peripheral device interface such as USB or PCIe, a communication unit 232 composed of a wired or wireless LAN network interface, a storage unit 234 such as a hard disk drive or non-volatile memory, and a head mount display 100. An output unit 236 for output, an input unit 238 for inputting data from the head mount display 100, and a recording medium drive unit 240 for driving a removable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory are connected.

CPU222は、記憶部234に記憶されているオペレーティングシステムを実行することによりコンテンツ処理装置200の全体を制御する。CPU222はまた、リムーバブル記録媒体から読み出されてメインメモリ226にロードされた、あるいは通信部232を介してダウンロードされた各種プログラムを実行する。GPU224は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU222からの描画命令に従って描画処理を行い、出力部236に出力する。メインメモリ226はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。 The CPU 222 controls the entire content processing device 200 by executing the operating system stored in the storage unit 234. The CPU 222 also executes various programs read from the removable recording medium, loaded into the main memory 226, or downloaded via the communication unit 232. The GPU 224 has a geometry engine function and a rendering processor function, performs drawing processing according to a drawing instruction from the CPU 222, and outputs the drawing process to the output unit 236. The main memory 226 is composed of a RAM (Random Access Memory) and stores programs and data required for processing.

図10は、本実施の形態におけるコンテンツ処理装置200の機能ブロックの構成を示している。同図および後述の図11、12に示す機能ブロックは、ハードウェア的にはCPU、GPU、各種メモリなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 FIG. 10 shows the configuration of the functional block of the content processing device 200 according to the present embodiment. The functional blocks shown in the figure and FIGS. 11 and 12 described later can be realized by a configuration of a CPU, GPU, various memories, etc. in terms of hardware, and a data input function loaded into the memory from a recording medium or the like in terms of software. , Data retention function, image processing function, communication function and other functions are realized by the program. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various ways by hardware only, software only, or a combination thereof, and is not limited to any of them.

コンテンツ処理装置200は、ヘッドマウントディスプレイ100または中継装置310とデータの送受信を行う通信部258、合成用のデータを生成する合成用データ生成部250、および、生成されたデータを圧縮符号化する圧縮符号化部260を備える。通信部258は有線でヘッドマウントディスプレイ100または中継装置310と通信を確立し、ヘッドマウントディスプレイ100が行った撮影画像の解析結果を受信する。通信部258はまた、合成用データ生成部250が生成した合成用データをヘッドマウントディスプレイ100または中継装置310に送信する。 The content processing device 200 includes a communication unit 258 that transmits / receives data to / from the head-mounted display 100 or the relay device 310, a synthesis data generation unit 250 that generates data for synthesis, and a compression that compresses and encodes the generated data. A coding unit 260 is provided. The communication unit 258 establishes communication with the head-mounted display 100 or the relay device 310 by wire, and receives the analysis result of the captured image performed by the head-mounted display 100. The communication unit 258 also transmits the synthesis data generated by the synthesis data generation unit 250 to the head-mounted display 100 or the relay device 310.

合成用データ生成部250は、位置姿勢予測部252、画像描画部254、および合成情報統合部256を含む。位置姿勢予測部252は、ヘッドマウントディスプレイ100が行った撮影画像の解析結果に基づき、所定時間後の被写体の位置や姿勢を予測する。本実施の形態では、撮影画像はヘッドマウントディスプレイ100側で処理するため、低遅延での表示が可能である。一方、撮影画像の解析結果を装置間で送信し、コンテンツ処理装置200でそれに対応したグラフィクス画像を生成するには一定の時間を要する。 The composition data generation unit 250 includes a position / orientation prediction unit 252, an image drawing unit 254, and a composition information integration unit 256. The position / orientation prediction unit 252 predicts the position and orientation of the subject after a predetermined time based on the analysis result of the captured image performed by the head-mounted display 100. In the present embodiment, since the captured image is processed on the head-mounted display 100 side, it can be displayed with low delay. On the other hand, it takes a certain amount of time for the content processing device 200 to generate the corresponding graphics image by transmitting the analysis result of the captured image between the devices.

そのため当該グラフィクス画像をヘッドマウントディスプレイ100で合成する際、合成先の撮影画像のフレームは、解析の元となったフレームより後のフレームとなる。そこで画像解析に用いたフレームと、合成先のフレームとの時間差をあらかじめ計算しておき、位置姿勢予測部252は、当該時間差分だけ後の、被写体の位置や姿勢を予測する。予測結果に基づき生成されたグラフィクス画像をヘッドマウントディスプレイ100において撮影画像と合成することにより、グラフィクスと撮影画像にずれの少ない表示画像を生成できる。 Therefore, when the graphics image is combined on the head-mounted display 100, the frame of the captured image of the composition destination is a frame after the frame that is the source of the analysis. Therefore, the time difference between the frame used for the image analysis and the frame of the synthesis destination is calculated in advance, and the position / orientation prediction unit 252 predicts the position and orientation of the subject after the time difference. By synthesizing the graphics image generated based on the prediction result with the captured image on the head-mounted display 100, it is possible to generate a display image with little deviation between the graphics and the captured image.

なお被写体の位置や姿勢は、ステレオカメラ110の撮像面に対する相対的なものでよい。したがって予測に用いる情報は、撮影画像の解析結果に限らず、ヘッドマウントディスプレイ100が内蔵するモーションセンサの計測値などでもよいし、それらを適宜組み合わせてもよい。また被写体の位置や姿勢の予測には、一般的な技術のいずれを採用してもよい。 The position and orientation of the subject may be relative to the imaging surface of the stereo camera 110. Therefore, the information used for the prediction is not limited to the analysis result of the captured image, but may be the measured value of the motion sensor built in the head-mounted display 100, or may be combined as appropriate. Further, any of the general techniques may be adopted for predicting the position and posture of the subject.

画像描画部254は、予測された被写体の位置や姿勢の情報に基づき、それに対応するようにグラフィクス画像を生成する。上述のとおり画像表示の目的は特に限定されないため、画像描画部254は例えば並行して電子ゲームを進捗させ、その状況と、予測された被写体の位置や姿勢に基づき仮想オブジェクトを描画する。ただし画像描画部254が実施する処理は、コンピュータグラフィクスの描画に限定されない。例えばあらかじめ取得しておいた静止画や動画を再生したり切り取ったりして合成すべき画像としてもよい。画像描画部254はグラフィクス画像の生成と同時に合成情報も生成する。 The image drawing unit 254 generates a graphics image corresponding to the predicted position and posture information of the subject. As described above, since the purpose of image display is not particularly limited, the image drawing unit 254 advances, for example, an electronic game in parallel, and draws a virtual object based on the situation and the predicted position and posture of the subject. However, the processing performed by the image drawing unit 254 is not limited to drawing computer graphics. For example, a still image or a moving image acquired in advance may be played back or cut out to form an image to be combined. The image drawing unit 254 also generates composite information at the same time as generating the graphics image.

合成情報統合部256は、グラフィクス画像と合成情報を統合することにより合成用データとする。合成情報がα画像の場合、合成情報統合部256は、グラフィクス画像とα画像を1つの画像平面で表すことにより統合する。クロマキー合成の場合は、描画したオブジェクト以外の領域を所定色で塗りつぶすことが、合成情報統合部256における統合処理となる。 The composite information integration unit 256 integrates the graphics image and the composite information into composite data. When the composite information is an α image, the composite information integration unit 256 integrates the graphics image and the α image by representing them in one image plane. In the case of chroma key composition, filling an area other than the drawn object with a predetermined color is an integration process in the composition information integration unit 256.

いずれにしろ合成情報統合部256は、グラフィクス画像に合成情報を含めて画像のデータとして扱えるようにする。圧縮符号化部260は、グラフィクス画像と合成情報が統合されてなる合成用の画像データを所定の方式で圧縮符号化する。コンテンツ処理装置200からヘッドマウントディスプレイ100あるいは中継装置310への送信を有線通信で実現することにより、比較的圧縮率の低い可逆圧縮でも送信が可能である。可逆圧縮の例として、ハフマン符号化やランレングス符号化を用いることができる。また圧縮符号化部260は有線通信であっても、合成用の画像データを不可逆圧縮してもよい。 In any case, the composite information integration unit 256 includes the composite information in the graphics image so that it can be handled as image data. The compression coding unit 260 compresses and encodes the image data for composition in which the graphics image and the composition information are integrated by a predetermined method. By realizing transmission from the content processing device 200 to the head-mounted display 100 or the relay device 310 by wired communication, transmission is possible even with lossless compression having a relatively low compression rate. Huffman coding and run-length coding can be used as examples of lossless compression. Further, the compression coding unit 260 may use lossy compression of image data for compositing even in wired communication.

図11は、本実施の形態における中継装置310の機能ブロックの構成を示している。中継装置310は、コンテンツ処理装置200及びヘッドマウントディスプレイ100と通信を確立しデータの送受信を行う通信部312、コンテンツ処理装置200から送信された合成用のデータを必要に応じて分離するデータ分離部314、合成用のデータを適切に圧縮し直す圧縮符号化部316を備える。 FIG. 11 shows the configuration of the functional block of the relay device 310 according to the present embodiment. The relay device 310 is a communication unit 312 that establishes communication with the content processing device 200 and the head-mounted display 100 to transmit and receive data, and a data separation unit that separates data for synthesis transmitted from the content processing device 200 as necessary. 314, a compression coding unit 316 that appropriately recompresses the data for synthesis is provided.

通信部312は有線でコンテンツ処理装置200と通信を確立し、合成用のデータを受信する。このデータは上述のとおり、グラフィクス画像と合成情報を統合したものである。通信部312はまた、ヘッドマウントディスプレイ100と無線で通信を確立し、適切に圧縮し直された合成用のデータをヘッドマウントディスプレイ100に送信する。 The communication unit 312 establishes communication with the content processing device 200 by wire and receives data for synthesis. As described above, this data is a combination of graphics images and composite information. The communication unit 312 also establishes wireless communication with the head-mounted display 100 and transmits appropriately recompressed data for synthesis to the head-mounted display 100.

データ分離部314はまず、コンテンツ処理装置200から送信された合成用のデータを復号伸張する。コンテンツ処理装置200から可逆圧縮されたデータを送信するようにすることで、元のグラフィクス画像と合成情報を統合した画像が復元される。そして合成情報がα画像の場合、データ分離部314は、当該統合された画像を、グラフィクス画像とα画像に分離する。 First, the data separation unit 314 decodes and decompresses the data for synthesis transmitted from the content processing device 200. By transmitting the losslessly compressed data from the content processing device 200, an image in which the original graphics image and the composite information are integrated is restored. When the composite information is an α image, the data separation unit 314 separates the integrated image into a graphics image and an α image.

一方、クロマキー合成用の画像が送信された場合、データ分離部314は分離処理を省略できる。あるいはデータ分離部314は、クロマキー合成用の画像において、オブジェクトが描画されている領域の画素値を1、所定色で塗りつぶされているその他の領域の画素値を0とするα画像を生成することで分離処理を実施してもよい。この場合、以後の処理はα画像が送信された場合と同様となる。 On the other hand, when the image for chroma key composition is transmitted, the data separation unit 314 can omit the separation process. Alternatively, the data separation unit 314 generates an α image in which the pixel value of the area where the object is drawn is 1 and the pixel value of the other area filled with a predetermined color is 0 in the image for chroma key composition. The separation process may be carried out at. In this case, the subsequent processing is the same as when the α image is transmitted.

圧縮符号化部316は第1圧縮部318と第2圧縮部320を含む。データ分離部314が分離したデータのうち、第1圧縮部318はグラフィクス画像を圧縮符号化し、第2圧縮部320はα画像を圧縮符号化する。このα画像は、クロマキー合成用の画像から生成したものでもよい。第1圧縮部318と第2圧縮部320では、圧縮符号化の方式を異ならせる。好適には第1圧縮部318は、第2圧縮部320より圧縮率の高い非可逆圧縮を実施し、第2圧縮部320は可逆圧縮を実施する。 The compression coding unit 316 includes a first compression unit 318 and a second compression unit 320. Of the data separated by the data separation unit 314, the first compression unit 318 compresses and encodes the graphics image, and the second compression unit 320 compresses and encodes the α image. This α image may be generated from an image for chroma key composition. The first compression unit 318 and the second compression unit 320 have different compression coding methods. Preferably, the first compression unit 318 performs lossy compression having a higher compression rate than the second compression unit 320, and the second compression unit 320 performs lossless compression.

中継装置310は、ヘッドマウントディスプレイ100を通信ケーブルから解放する役割を担う。そのため送信データをできるだけ圧縮する必要があるが、α画像をグラフィクス画像と同様に非可逆圧縮してしまうと、最も重要な輪郭部分などに誤差が含まれ、合成結果に悪影響を及ぼすことが考えられる。そこで、一旦統合して有線にて送出されたグラフィクス画像とα画像を分離し、それぞれに適切な符号化処理を施すことにより、全体としてデータサイズを軽減させる。これにより無線通信によっても遅延の少ないデータ伝送を実現する。 The relay device 310 plays a role of releasing the head-mounted display 100 from the communication cable. Therefore, it is necessary to compress the transmitted data as much as possible, but if the α image is irreversibly compressed in the same way as the graphics image, errors may be included in the most important contours, which may adversely affect the composite result. .. Therefore, the data size is reduced as a whole by once integrating and separating the graphics image and the α image transmitted by wire and performing appropriate coding processing on each. As a result, data transmission with less delay is realized even by wireless communication.

なおコンテンツ処理装置200からクロマキー合成用の画像が送信され、データ分離部314において対応するα画像を生成しなかった場合、画像全体を第1圧縮部318により高い圧縮率で圧縮符号化してよい。ただしこの場合、ヘッドマウントディスプレイ100において復号された画像には誤差が含まれ得る。その結果、所定色で塗りつぶした領域の画素値が微小量、変化し、合成時に撮影画像の画素が当該画素値に置換されてしまうことが考えられる。 When an image for chroma key composition is transmitted from the content processing device 200 and the data separation unit 314 does not generate the corresponding α image, the entire image may be compressed and encoded by the first compression unit 318 at a high compression rate. However, in this case, the image decoded by the head-mounted display 100 may contain an error. As a result, it is conceivable that the pixel value of the region filled with the predetermined color changes by a minute amount, and the pixel of the captured image is replaced with the pixel value at the time of compositing.

そこでヘッドマウントディスプレイ100の合成回路36は、合成しない領域(画素値を置換しない領域)であることを判定する基準として画素値に幅をもたせる。例えば塗りつぶし色の画素値が赤、緑、青の順で(Cr,Cg,Cb)であるとすると、(Cr±Δr,Cg±Δg,Cb±Δb)の範囲の画素値であれば撮影画像に合成しない。ここで画素値のマージン(Δr,Δg,Δb)は、実験などにより最適値を設定する。これによりクロマキー合成用の画像を比較的高い圧縮率で圧縮符号化しても、合成処理の精度の悪化を抑えることができる。 Therefore, the synthesis circuit 36 of the head-mounted display 100 gives a width to the pixel values as a reference for determining that the area is not to be combined (the region that does not replace the pixel values). For example, if the pixel value of the fill color is (Cr, Cg, Cb) in the order of red, green, and blue, the captured image has a pixel value in the range of (Cr ± Δr, Cg ± Δg, Cb ± Δb). Do not synthesize to. Here, the optimum value of the pixel value margin (Δr, Δg, Δb) is set by an experiment or the like. As a result, even if the image for chroma key composition is compressed and encoded at a relatively high compression rate, deterioration of the accuracy of the composition process can be suppressed.

図12は、ヘッドマウントディスプレイが内蔵する画像処理装置128の機能ブロックの構成を示している。この機能ブロックは上述のとおり、ハードウェア的には図8で示した画像処理用集積回路120などの構成で実現でき、ソフトウェア的には、記録媒体などからメインメモリなどにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。 FIG. 12 shows the configuration of the functional block of the image processing device 128 built in the head-mounted display. As described above, this functional block can be realized by the configuration of the integrated circuit 120 for image processing shown in FIG. 8 in terms of hardware, and the data input function loaded from a recording medium or the like into the main memory or the like in terms of software. , Data retention function, image processing function, communication function and other functions are realized by the program.

この例で画像処理装置128は、信号処理部150、画像解析部152、第1補正部156、信号処理部158、合成部160、第2補正部162、画像表示制御部164を備える。信号処理部150は図8の信号処理回路42で実現され、ステレオカメラ110のイメージセンサから撮影画像のデータを取得し、必要な処理を施す。画像解析部152は図8のCPU32、画像解析回路46、入出力インターフェース30で実現され、撮影画像を解析し所定の情報を取得してコンテンツ処理装置200に送信する。 In this example, the image processing device 128 includes a signal processing unit 150, an image analysis unit 152, a first correction unit 156, a signal processing unit 158, a synthesis unit 160, a second correction unit 162, and an image display control unit 164. The signal processing unit 150 is realized by the signal processing circuit 42 of FIG. 8, acquires data of a captured image from the image sensor of the stereo camera 110, and performs necessary processing. The image analysis unit 152 is realized by the CPU 32, the image analysis circuit 46, and the input / output interface 30 of FIG. 8, analyzes the captured image, acquires predetermined information, and transmits it to the content processing device 200.

例えば左右の撮影画像を用いてステレオマッチングにより被写体の距離を求め、それを画像平面に画素値として表したデプスマップを生成する。SLAMによりヘッドマウントディスプレイの位置や姿勢を取得してもよい。このほか、画像解析の内容として様々に考えられることは当業者には理解されるところである。ただし場合によっては、信号処理部150が処理した撮影画像のデータそのものをコンテンツ処理装置200に送信してもよい。 For example, the distance between the subjects is obtained by stereo matching using the left and right captured images, and a depth map is generated in which the distance is expressed as a pixel value on the image plane. The position and orientation of the head-mounted display may be acquired by SLAM. In addition, it is understood by those skilled in the art that various things can be considered as the content of image analysis. However, depending on the case, the captured image data itself processed by the signal processing unit 150 may be transmitted to the content processing device 200.

この場合、信号処理部150は図8の入出力インターフェース30を含む。また画像解析部152による解析結果やヘッドマウントディスプレイ100が内蔵する図示しないモーションセンサの計測値は、画像変形処理に用いてもよい。すなわちヘッドマウントディスプレイ100内部での処理やコンテンツ処理装置200とのデータ転送に要した時間におけるユーザの視線の動きをそれらのパラメータに基づき特定し、変位ベクトルマップに動的に反映させてもよい。 In this case, the signal processing unit 150 includes the input / output interface 30 of FIG. Further, the analysis result by the image analysis unit 152 and the measurement value of the motion sensor (not shown) built in the head-mounted display 100 may be used for the image deformation processing. That is, the movement of the user's line of sight during the time required for processing inside the head-mounted display 100 and data transfer with the content processing device 200 may be specified based on these parameters and dynamically reflected in the displacement vector map.

信号処理部150はさらに、撮影画像を所定の手法で高精細化する超解像処理を実施してもよい。例えば撮影画像を画像平面の水平および垂直方向に、1画素より小さい幅でずらした画像と、ずらす前の画像とを合成することにより鮮明化する。このほか超解像には様々な手法が提案されており、そのいずれを採用してもよい。 The signal processing unit 150 may further perform super-resolution processing for increasing the definition of the captured image by a predetermined method. For example, the captured image is sharpened by synthesizing an image shifted in the horizontal and vertical directions of the image plane by a width smaller than one pixel and an image before shifting. In addition, various methods have been proposed for super-resolution, and any of them may be adopted.

第1補正部156は、図8のCPU32、画像補正回路34で実現され、図4のS14のように撮影画像を補正して、接眼レンズのための歪みを有する表示画像を生成する。ただしコンテンツ処理装置200から送信された画像を合成する場合、第1補正部156では色収差補正を行わない。すなわち、全ての原色について同じ歪みを与える。表示パネルを見る人間の目の特性を考慮し、緑色に対し生成しておいた変位ベクトルマップを用いて、赤、緑、青の全ての画像を補正する。加えてイメージセンサが取得するRAW画像がベイヤ配列の場合、最も画素密度の高い緑色を用いることができる。 The first correction unit 156 is realized by the CPU 32 and the image correction circuit 34 of FIG. 8 and corrects the captured image as shown in S14 of FIG. 4 to generate a display image having distortion for the eyepiece. However, when synthesizing the images transmitted from the content processing device 200, the first correction unit 156 does not perform chromatic aberration correction. That is, the same distortion is given to all primary colors. Considering the characteristics of the human eye looking at the display panel, all the red, green, and blue images are corrected using the displacement vector map generated for green. In addition, when the RAW image acquired by the image sensor is a Bayer array, green having the highest pixel density can be used.

撮影画像を別の画像と合成せずに表示するシースルーモードの場合は、上述のように第1補正部156において、一度に色収差補正まで実施した表示画像を生成してよい。すなわち赤、緑、青のそれぞれに対し準備した変位ベクトルマップを用いて、各色の撮影画像を補正する。信号処理部158は図8のCPU32、入出力インターフェース30、復号回路48で実現され、コンテンツ処理装置200または中継装置310から送信されたデータを復号伸張する。 In the case of the see-through mode in which the captured image is displayed without being combined with another image, the first correction unit 156 may generate a display image in which the chromatic aberration is corrected at once as described above. That is, the captured images of each color are corrected by using the displacement vector maps prepared for each of red, green, and blue. The signal processing unit 158 is realized by the CPU 32, the input / output interface 30, and the decoding circuit 48 of FIG. 8, and decodes and decompresses the data transmitted from the content processing device 200 or the relay device 310.

合成部160は図8のCPU32と合成回路36により実現され、第1補正部156により補正された撮影画像に、コンテンツ処理装置200などから送信されたグラフィクス画像を合成する。合成部160は必要に応じて、グラフィクス画像とα画像を分離したり、縮小されているグラフィクス画像とα画像を所定方向に拡大して復元したりする。 The compositing unit 160 is realized by the CPU 32 and the compositing circuit 36 of FIG. 8, and synthesizes a graphics image transmitted from the content processing device 200 or the like with the photographed image corrected by the first correction unit 156. The compositing unit 160 separates the graphics image and the α image, and enlarges and restores the reduced graphics image and the α image in a predetermined direction, if necessary.

第2補正部162は図8のCPU32、画像補正回路34で実現され、合成部160から入力された画像を補正する。ただし第2補正部162は、表示画像に対しなすべき補正のうち未実施の補正、具体的には色収差の補正のみを実施する。従来技術において、コンテンツ処理装置200で合成までなされた表示画像をヘッドマウントディスプレイ100に送信して表示する場合、歪みのない合成画像を生成したうえで、接眼レンズのための補正とともに色収差補正を行うのが一般的である。一方、本実施の形態では、撮影画像とそれに合成すべき画像のデータ経路が異なるため、補正処理を2段階に分離する。 The second correction unit 162 is realized by the CPU 32 and the image correction circuit 34 of FIG. 8 and corrects the image input from the synthesis unit 160. However, the second correction unit 162 performs only the correction that has not been performed, specifically the correction of chromatic aberration, among the corrections to be made for the displayed image. In the prior art, when a display image that has been composited by the content processing device 200 is transmitted to the head-mounted display 100 for display, a composite image without distortion is generated, and then correction for an eyepiece and chromatic aberration correction are performed. Is common. On the other hand, in the present embodiment, since the data paths of the captured image and the image to be combined with the captured image are different, the correction process is separated into two stages.

すなわちコンテンツ処理装置200から送信される画像と撮影画像に対し、接眼レンズに対応する共通の歪みを与えておき、合成後に色別に補正する。第2補正部162では、合成後の画像のうち赤、青の画像に対し、さらに必要な補正を施して画像を完成させる。人の視感度が最も高い波長帯である緑を基準として最初に補正を行ったうえで拡大縮小、超解像、合成などを行い、その後に赤と青の収差を補正することにより、色にじみや輪郭の異常が視認されにくくなる。ただし補正に用いる色の順序を限定する趣旨ではない。色収差の補正を合成後に残しておくことにより、合成の境界線を明確に定義できる。 That is, the image transmitted from the content processing device 200 and the captured image are given a common distortion corresponding to the eyepiece, and are corrected for each color after composition. The second correction unit 162 further performs necessary corrections on the red and blue images of the combined image to complete the image. Color bleeding is performed by first correcting green, which is the wavelength band with the highest human visibility, and then scaling, super-resolution, and compositing, and then correcting red and blue aberrations. And contour abnormalities are less visible. However, the purpose is not to limit the order of colors used for correction. By leaving the correction of chromatic aberration after synthesis, the boundary line of synthesis can be clearly defined.

すなわち色収差を補正した後に合成すると、クロマキー用の画像やα画像で設定した境界線が原色によっては誤差を含み、合成後の輪郭に色にじみを生じさせる。色ずれのない状態で合成したあとに、色収差補正により画素を微小量ずらすことにより、輪郭ににじみのない表示画像を生成できる。画像の拡大縮小、超解像、合成などの処理では一般的に、バイリニアやトライリニアなどのフィルター処理が用いられる。色収差を補正した後にこれらのフィルター処理を実施すると、色収差補正の結果がミクロなレベルで破壊され、表示時に色にじみや異常な輪郭が発生する。第2補正部162の処理を表示の直前とすることで、そのような問題を回避できる。画像表示制御部164は図5のディスプレイコントローラ44で実現され、そのようにして生成された表示画像を順次、表示パネル122に出力する。 That is, when the image is combined after the chromatic aberration is corrected, the boundary line set in the chroma key image or the α image contains an error depending on the primary color, and the contour after the composition causes color bleeding. A display image without bleeding on the contour can be generated by shifting the pixels by a small amount by chromatic aberration correction after synthesizing without color shift. Filter processing such as bilinear or trilinear is generally used in processing such as image scaling, super-resolution, and composition. If these filtering processes are performed after the chromatic aberration is corrected, the result of the chromatic aberration correction is destroyed at a micro level, and color bleeding and abnormal contours occur at the time of display. By setting the processing of the second correction unit 162 immediately before the display, such a problem can be avoided. The image display control unit 164 is realized by the display controller 44 of FIG. 5, and the display images thus generated are sequentially output to the display panel 122.

なおコンテンツ処理装置200の圧縮符号化部260、中継装置310のデータ分離部314および圧縮符号化部316、および画像処理装置128の信号処理部158は、画像平面を分割してなる単位領域ごとに圧縮符号化、復号伸張、動き補償を行ってよい。ここで単位領域は、例えば画素の1行分、2行分など、所定行数ごとに横方向に分割してなる領域、あるいは、16×16画素、64×64画素など、縦横双方向に分割してなる矩形領域などとする。 The compression coding unit 260 of the content processing device 200, the data separation unit 314 and the compression coding unit 316 of the relay device 310, and the signal processing unit 158 of the image processing device 128 are used for each unit region formed by dividing the image plane. Compression coding, decoding / decompression, and motion compensation may be performed. Here, the unit area is divided in the horizontal direction for each predetermined number of lines, for example, one line or two lines of pixels, or divided in both vertical and horizontal directions such as 16 × 16 pixels and 64 × 64 pixels. It is a rectangular area formed by.

このとき上記機能ブロックはそれぞれ、単位領域分の処理対象のデータが取得される都度、圧縮符号化処理および復号伸張処理を開始し、処理後のデータを当該単位領域ごとに出力する。表示画像の全画素数より少ない、単位領域の画素のデータの単位で、圧縮符号化および復号伸張を含む一連の処理に関わる機能ブロックが入出力制御を行うことで、一連のデータを低遅延で処理し転送できる。 At this time, each of the above functional blocks starts the compression coding process and the decoding / decompression process each time the data to be processed for the unit area is acquired, and outputs the processed data for each unit area. A series of data with low delay by performing input / output control by a functional block related to a series of processing including compression coding and decoding / decompression in units of pixel data in a unit area that is less than the total number of pixels of the display image. Can be processed and transferred.

図13は、コンテンツ処理装置200がグラフィック画像とα画像を統合してなる画像の構成を例示している。(a)の構成は、1フレーム分の画像平面において、グラフィクス画像が表される範囲56以外の領域58に、α画像のデータを埋め込んでいる。すなわち上述のとおり、ヘッドマウントディスプレイ100に表示させる画像は、接眼レンズのための歪みを与えているため、グラフィクス画像の範囲56は矩形にならない。 FIG. 13 illustrates an image configuration in which the content processing device 200 integrates a graphic image and an α image. In the configuration of (a), the α image data is embedded in the area 58 other than the range 56 in which the graphics image is represented in the image plane for one frame. That is, as described above, since the image displayed on the head-mounted display 100 is distorted due to the eyepiece, the range 56 of the graphics image is not rectangular.

一方、伝送するデータは、横方向と縦方向の幅が規定された矩形の平面を前提としているため、グラフィクス画像の範囲56との間に使用されない領域58が生じる。そこでコンテンツ処理装置200の合成情報統合部256は、当該領域58にα値を埋め込む。例えば右側に拡大して示すように、α画像のラスタ順の画素列を、領域58を埋め尽くすように左から右、上から下へ配置していく。 On the other hand, since the data to be transmitted is premised on a rectangular plane in which the widths in the horizontal direction and the vertical direction are defined, an unused area 58 is generated between the data and the range 56 of the graphics image. Therefore, the synthetic information integration unit 256 of the content processing device 200 embeds an α value in the area 58. For example, as shown enlarged to the right, the pixel strings in the raster order of the α image are arranged from left to right and from top to bottom so as to fill the area 58.

(b)の構成は、α画像とグラフィクス画像をそれぞれ縦方向に縮小して上下に接続することにより1つの画像平面としている。(c)の構成は、グラフィクス画像とα画像をそれぞれ横方向に縮小して左右に接続することにより1つの画像平面としている。(b)と(c)の構成において、グラフィクス画像とα画像の縮小率は同じでも異なっていてもよい。いずれにしろこれらの構成によれば、α値のチャンネルをサポートしていない規格によっても容易にα画像の伝送が可能になる。なお(b)と(c)の構成においてグラフィクス画像は図示するような歪みを与えた画像でなくてもよい。すなわち当該画像は、平板型ディスプレイに表示させることを前提として生成された歪みのない画像でもよい。 In the configuration of (b), the α image and the graphics image are reduced in the vertical direction and connected vertically to form one image plane. In the configuration of (c), the graphics image and the α image are reduced in the horizontal direction and connected to the left and right to form one image plane. In the configurations of (b) and (c), the reduction ratios of the graphics image and the α image may be the same or different. In any case, according to these configurations, the α image can be easily transmitted even by a standard that does not support the α value channel. In the configuration of (b) and (c), the graphics image does not have to be a distorted image as shown in the figure. That is, the image may be a distortion-free image generated on the assumption that it is displayed on a flat plate display.

なおこれらの構成において、α画像の解像度を、グラフィクス画像の解像度より低くしてもよい。例えば(a)の構成では、接眼レンズの歪み具合によっては領域58の面積が十分でない場合がある。そこでα画像を縦横双方向に1/2、あるいは1/4などに縮小することにより、グラフィクス画像とともに1フレーム分の画像平面に収められるようにする。あるいはα画像については、描画したオブジェクトを含む所定領域のデータのみを送信対象としてもよい。 In these configurations, the resolution of the α image may be lower than the resolution of the graphics image. For example, in the configuration (a), the area of the region 58 may not be sufficient depending on the degree of distortion of the eyepiece. Therefore, the α image is reduced to 1/2 or 1/4 in both vertical and horizontal directions so that it can be accommodated in one frame of the image plane together with the graphics image. Alternatively, for the α image, only the data in the predetermined area including the drawn object may be the transmission target.

すなわち合成時にα値が重要となるのは、合成するオブジェクトの領域とその輪郭近傍であり、オブジェクトからかけ離れた領域は撮影画像のままとすることが明らかである。そこで(a)に図示するように、オブジェクトを含む所定範囲の領域60のα画像のみを切り取って埋め込みの対象とする。ここで所定範囲の領域とは、例えば、仮想オブジェクトの外接矩形または、それに所定幅のマージン領域を加えた領域などである。この場合、領域60の位置やサイズに係る情報も同時に埋め込む。複数の仮想オブジェクトを描画する場合は当然、切り取るα画像の領域も複数となる。 That is, it is clear that the α value is important at the time of compositing in the region of the object to be composited and the vicinity of the contour thereof, and the region far from the object remains as the captured image. Therefore, as shown in (a), only the α image of the region 60 in the predetermined range including the object is cut out and used as the embedding target. Here, the area of a predetermined range is, for example, an circumscribing rectangle of a virtual object or an area to which a margin area having a predetermined width is added. In this case, information on the position and size of the area 60 is also embedded at the same time. When drawing a plurality of virtual objects, naturally, the area of the α image to be cut is also a plurality.

図14は、コンテンツ処理装置200がグラフィクス画像に統合する、α画像の画素値のデータ構造を例示している。ここでは、グラフィクス画像の各画素値を24ビット(赤(R)、緑(G)、青(B)の輝度をそれぞれ8ビット)で表す場合を想定している。図において「A」と表記された矩形が、1つのα値を表すビット幅である。(a)のデータ構造は、α値を1ビットとすることで、8×3=24画素分のα値を、画像上の1画素のデータとしている。同様に(b)、(c)、(d)のデータ構造はそれぞれ、α値を2ビット、4ビット、8ビットとすることで、12画素分、6画素分、3画素分のα値を、画像上の1画素のデータとしている。 FIG. 14 illustrates a data structure of pixel values of an α image that the content processing apparatus 200 integrates into a graphics image. Here, it is assumed that each pixel value of the graphics image is represented by 24 bits (the brightness of red (R), green (G), and blue (B) is 8 bits each). The rectangle indicated by "A" in the figure is the bit width representing one α value. In the data structure of (a), the α value is set to 1 bit, and the α value for 8 × 3 = 24 pixels is set to the data of 1 pixel on the image. Similarly, in the data structures of (b), (c), and (d), the α values are set to 2 bits, 4 bits, and 8 bits, respectively, so that the α values for 12 pixels, 6 pixels, and 3 pixels can be obtained. , It is the data of one pixel on the image.

一方、(e)、(f)、(g)のデータ構造は、各色に1画素分のα値を対応づけている。すなわちα値を表すビット数は1ビット、2ビット、4ビットと異なるが、どの構造においても、1×3=3画素分のα値を、画像上の1画素のデータとしている。半透明の合成をしない場合、α値は0か1のため、(a)または(e)のデータ構造で十分となる。そのほか、透明度に求める階調、解像度、送信対象の領域面積などを考慮し、適切なデータ構造を選択する。 On the other hand, in the data structures (e), (f), and (g), each color is associated with an α value for one pixel. That is, the number of bits representing the α value is different from 1 bit, 2 bits, and 4 bits, but in any structure, the α value for 1 × 3 = 3 pixels is used as the data of 1 pixel on the image. When translucent composition is not performed, the α value is 0 or 1, so the data structure of (a) or (e) is sufficient. In addition, an appropriate data structure is selected in consideration of the gradation, resolution, area of the transmission target, etc. required for transparency.

また実際の表示画像は、赤、緑、青の各チャンネルの画像に対し、オブジェクトの像に微小量の位置ずれを与えておく色収差補正を行うことで、視覚上でそれらが一致して見えるようにする必要がある。コンテンツ処理装置200において生成する画像についても、そのような色収差補正を実施する場合は、像の位置ずれに伴いα画像も各色に対し生成しておく必要がある。この場合、α画像そのものが赤、緑、青のチャンネルを持つことになる。したがって図示するデータ構造において赤、緑、青の各チャンネルには、赤のα値、緑のα値、青のα値をそれぞれ格納する。 In addition, the actual display image can be visually matched by performing chromatic aberration correction that gives a slight amount of misalignment to the image of the object for the images of the red, green, and blue channels. Need to be. When performing such chromatic aberration correction on the image generated by the content processing device 200, it is necessary to generate an α image for each color as the image is displaced. In this case, the α image itself will have red, green, and blue channels. Therefore, in the illustrated data structure, the red α value, the green α value, and the blue α value are stored in each of the red, green, and blue channels, respectively.

結果として画像上の1画素に格納できるα値のデータサイズは、上述した、全色に共通のα値を設定するケースの1/3となる。ただしコンテンツ処理装置200で色収差補正をせず、ヘッドマウントディスプレイ100において合成した後に色収差補正を実施することも考えられる。この場合は全色に共通のα値を設定できるため、1画素により多くの情報を格納できる。 As a result, the data size of the α value that can be stored in one pixel on the image is 1/3 of the case where the α value common to all colors is set as described above. However, it is also conceivable that the content processing device 200 does not correct the chromatic aberration, but the head-mounted display 100 synthesizes the content and then corrects the chromatic aberration. In this case, since the α value common to all colors can be set, more information can be stored in one pixel.

図15は、図13の(a)に示したように、グラフィクス画像が表されない領域にα画像のデータを埋め込んで送信する場合の処理の手順を示している。送信データをこのような構成とした場合、α画像の取り出しが比較的複雑となるため、図7の(a)に示すように、コンテンツ処理装置200から有線で直接、ヘッドマウントディスプレイ100に送信することが望ましい。これによりデータを可逆圧縮でき、高精度な合成を実現できる。 FIG. 15 shows a processing procedure in the case of embedding α image data in an area where a graphics image is not displayed and transmitting the data, as shown in FIG. 13A. When the transmission data has such a configuration, the extraction of the α image becomes relatively complicated. Therefore, as shown in FIG. 7A, the transmission data is directly transmitted from the content processing device 200 to the head-mounted display 100 by wire. Is desirable. As a result, the data can be losslessly compressed and highly accurate synthesis can be realized.

ヘッドマウントディスプレイ100の合成部160は、そのようにα画像が埋め込まれた画像70のデータを取得すると、それをグラフィックス画像と分離する。具体的には画像平面の上の行から順に、画素列を左から右へ走査しながらα値を表す範囲の画素値を取り出す。ここでα値を表す領域においては、図14に示すように1画素に複数のα値が格納されている。したがって合成部160は、それらを分解して1画素とし、α画像74の平面にラスタ順に並べていく。 When the compositing unit 160 of the head-mounted display 100 acquires the data of the image 70 in which the α image is embedded in this way, it separates the data from the graphics image. Specifically, the pixel values in the range representing the α value are extracted while scanning the pixel sequence from left to right in order from the row above the image plane. Here, in the region representing the α value, as shown in FIG. 14, a plurality of α values are stored in one pixel. Therefore, the compositing unit 160 decomposes them into one pixel and arranges them on the plane of the α image 74 in raster order.

例えば図示するy行目において、左端の画素からx0までの画素値を読み出し、次にx1からx2までと、x3から右端までの画素値を読み出す。このように画像平面においてα値を表す画素の範囲は、接眼レンズの設計などに基づき行ごとに導出し、コンテンツ処理装置200と共有しておく。α値を埋め込む画素の範囲を画像平面に表したマップを作成しておき、コンテンツ処理装置200とヘッドマウントディスプレイ100で共有してもよい。これにより、グラフィクス画像72とα画像74が分離されるため、合成部160は図5に示すように、α値を用いてグラフィクス画像を撮影画像と合成することにより表示画像を生成する。なおグラフィクス画像72と撮影画像に色収差補正がされていない場合、合成部160は合成後の画像に色収差補正を実施する。以後説明する態様でも同様である。 For example, in the y-th row shown in the figure, the pixel values from the leftmost pixel to x0 are read, then the pixel values from x1 to x2 and from x3 to the right end are read out. In this way, the range of pixels representing the α value in the image plane is derived line by line based on the design of the eyepiece lens and shared with the content processing device 200. A map showing the range of pixels in which the α value is embedded on an image plane may be created and shared between the content processing device 200 and the head-mounted display 100. As a result, the graphics image 72 and the α image 74 are separated. Therefore, as shown in FIG. 5, the compositing unit 160 generates a display image by combining the graphics image with the captured image using the α value. When the graphics image 72 and the captured image are not corrected for chromatic aberration, the compositing unit 160 performs chromatic aberration correction on the combined image. The same applies to the aspects described below.

図16は、図13の(b)に示したように、α画像とグラフィクス画像をそれぞれ縦方向に縮小し上下に接続して送信する場合の処理の手順を示している。この場合、図7の(a)に示すように、コンテンツ処理装置200から有線で直接、ヘッドマウントディスプレイ100に送信してもよいし、(b)に示すように、一旦、中継装置310に送信し、中継装置310からヘッドマウントディスプレイ100へ無線で送信してもよい。図16では後者のケースを示している。 As shown in FIG. 13B, FIG. 16 shows a processing procedure in the case where the α image and the graphics image are reduced in the vertical direction and connected vertically to be transmitted. In this case, as shown in FIG. 7A, the content processing device 200 may directly transmit to the head-mounted display 100 by wire, or as shown in FIG. 7B, once transmit to the relay device 310. Then, it may be transmitted wirelessly from the relay device 310 to the head-mounted display 100. FIG. 16 shows the latter case.

中継装置310のデータ分離部314は、コンテンツ処理装置200から画像76のデータを取得すると、それをα画像80とグラフィクス画像78に切り離す。そのためデータ分離部314には、α画像とグラフィックス画像の縦方向の縮小率によって定まる両者の境界線の位置をあらかじめ設定しておく。切り離されたα画像80とグラフィクス画像78は縦方向に縮小された状態のまま、圧縮符号化部316において圧縮符号化される。上述のとおりグラフィクス画像78は高圧縮率、α画像80は低圧縮率の符号化方式を選択する。 When the data separation unit 314 of the relay device 310 acquires the data of the image 76 from the content processing device 200, it separates the data into the α image 80 and the graphics image 78. Therefore, in the data separation unit 314, the position of the boundary line between the α image and the graphics image, which is determined by the reduction ratio in the vertical direction, is set in advance. The separated α image 80 and the graphics image 78 are compressed and coded by the compression coding unit 316 while being reduced in the vertical direction. As described above, the graphics image 78 selects a high compression rate, and the α image 80 selects a low compression rate coding method.

そして通信部312は、圧縮符号化された2種類のデータを無線によりヘッドマウントディスプレイ100に送信する。ただし実際には、中継装置310は画像76の上の行から順に取得していき、取得と並行して上の行から順に圧縮符号化しヘッドマウントディスプレイ100に送信する。したがって図示する例では、まずα画像80のデータが送信され、その後にグラフィクス画像78のデータが送信されることになる。 Then, the communication unit 312 wirelessly transmits the two types of compression-encoded data to the head-mounted display 100. However, in reality, the relay device 310 acquires in order from the upper line of the image 76, compresses and encodes it in order from the upper line in parallel with the acquisition, and transmits it to the head-mounted display 100. Therefore, in the illustrated example, the data of the α image 80 is first transmitted, and then the data of the graphics image 78 is transmitted.

ヘッドマウントディスプレイ100の信号処理部158は当該2種類のデータを、それぞれに対応する方式で復号伸張する。合成部160は復号伸張後のα画像80とグラフィクス画像78を取得し、それを縦方向に拡大することにより、元のサイズのα画像84とグラフィクス画像82とする。なお送信されたデータにおいて、1画素に複数のα値が格納されている場合、合成部160はそれを適宜分解してα画像84を生成する。そして合成部160は図5に示すように、α画像84を用いてグラフィクス画像82を撮影画像と合成することにより表示画像を生成する。 The signal processing unit 158 of the head-mounted display 100 decodes and decompresses the two types of data by a method corresponding to each. The compositing unit 160 acquires the α image 80 and the graphics image 78 after decoding and decompression, and enlarges them in the vertical direction to obtain the α image 84 and the graphics image 82 of the original size. When a plurality of α values are stored in one pixel in the transmitted data, the compositing unit 160 appropriately decomposes the α values to generate the α image 84. Then, as shown in FIG. 5, the compositing unit 160 generates a display image by compositing the graphics image 82 with the captured image using the α image 84.

図17は、図13の(c)に示したように、グラフィクス画像とα画像をそれぞれ横方向に縮小し左右に接続して送信する場合の処理の手順を示している。この場合も、図7の(a)に示すように、コンテンツ処理装置200から有線で直接、ヘッドマウントディスプレイ100に送信してもよいし、(b)に示すように一旦、中継装置310に送信し、中継装置310からヘッドマウントディスプレイ100へ無線で送信してもよい。図17では後者のケースを示している。 FIG. 17 shows a processing procedure in the case where the graphics image and the α image are reduced in the horizontal direction and connected to the left and right, respectively, as shown in FIG. 13 (c). In this case as well, as shown in FIG. 7A, the content processing device 200 may directly transmit to the head-mounted display 100 by wire, or as shown in FIG. 7B, once transmit to the relay device 310. Then, it may be transmitted wirelessly from the relay device 310 to the head-mounted display 100. FIG. 17 shows the latter case.

中継装置310のデータ分離部314は、コンテンツ処理装置200から画像86のデータを取得すると、それをグラフィクス画像88とα画像90に切り離す。そのためデータ分離部314には、グラフィックス画像とα画像の横方向の縮小率によって定まる両者の境界線の位置をあらかじめ設定しておく。切り離されたグラフィクス画像88とα画像90は横方向に縮小された状態のまま、圧縮符号化部316において圧縮符号化される。上述のとおりグラフィクス画像88は高圧縮率で、α画像90は低圧縮率の符号化方式を選択する。 When the data separation unit 314 of the relay device 310 acquires the data of the image 86 from the content processing device 200, it separates the data into the graphics image 88 and the α image 90. Therefore, in the data separation unit 314, the position of the boundary line between the graphics image and the α image, which is determined by the horizontal reduction ratio, is set in advance. The separated graphics image 88 and α image 90 are compressed and coded by the compression coding unit 316 while being reduced in the horizontal direction. As described above, the graphics image 88 has a high compression ratio, and the α image 90 has a low compression ratio.

そして通信部312は、圧縮符号化された2種類のデータを無線によりヘッドマウントディスプレイ100に送信する。ただし実際には、中継装置310は画像86の上の行から順に取得していき、取得と並行して上の行から順に圧縮符号化しヘッドマウントディスプレイに送信する。したがって図示する例では、1行分のグラフィクス画像のデータと1行分のα画像のデータが交互に送信されることになる。 Then, the communication unit 312 wirelessly transmits the two types of compression-encoded data to the head-mounted display 100. However, in reality, the relay device 310 acquires in order from the upper line of the image 86, compresses and encodes it in order from the upper line in parallel with the acquisition, and transmits it to the head-mounted display. Therefore, in the illustrated example, one line of graphics image data and one line of α image data are transmitted alternately.

ヘッドマウントディスプレイ100の信号処理部158は当該2種類のデータを、それぞれに対応する方式で復号伸張する。合成部160は復号伸張後のグラフィクス画像88とα画像90を取得し、それを横方向に拡大することにより、元のサイズのグラフィクス画像92とα画像94とする。なお送信されたデータにおいて1画素に複数のα値が格納されている場合、合成部160はそれを適宜分解してα画像94を生成する。そして合成部160は図5に示すように、α画像94を用いてグラフィクス画像92を撮影画像と合成することにより表示画像を生成する。 The signal processing unit 158 of the head-mounted display 100 decodes and decompresses the two types of data by a method corresponding to each. The compositing unit 160 acquires the graphics image 88 and the α image 90 after decoding and decompression, and enlarges them in the lateral direction to obtain the graphics image 92 and the α image 94 of the original size. When a plurality of α values are stored in one pixel in the transmitted data, the compositing unit 160 appropriately decomposes them to generate an α image 94. Then, as shown in FIG. 5, the compositing unit 160 generates a display image by compositing the graphics image 92 with the captured image using the α image 94.

ヘッドマウントディスプレイ100において立体視を適切に実現するには、表示画像に精度よく両眼視差が与えられていることが重要となる。図16に示したように、縦方向に縮小した画像を接続して送信する場合、横方向の解像度は維持されるため、立体視においては有利である。一方、図16の態様では上述のとおり、全領域のα画像が伝送されてからグラフィクス画像の伝送が開始されることになる。したがってヘッドマウントディスプレイ100においても合成部160は、全領域のα画像を取得してから、その後に取得するグラフィクス画像の合成を開始せざるを得ず、α画像を取得する期間の遅延が生じる。 In order to properly realize stereoscopic vision in the head-mounted display 100, it is important that the displayed image is accurately given binocular parallax. As shown in FIG. 16, when a vertically reduced image is connected and transmitted, the resolution in the horizontal direction is maintained, which is advantageous in stereoscopic viewing. On the other hand, in the aspect of FIG. 16, as described above, the transmission of the graphics image is started after the α image of the entire region is transmitted. Therefore, also in the head-mounted display 100, the compositing unit 160 has no choice but to start compositing the graphics images to be acquired after acquiring the α image of the entire region, which causes a delay in the period for acquiring the α image.

データサイズが小さいα画像を先に送信することにより、グラフィクス画像を先に送信するより遅延時間を短縮できるが、いずれにしろ双方のデータが揃うまでの待機時間が発生する。これを踏まえグラフィクス画像とα画像を縦方向に縮小する場合、コンテンツ処理装置200は、グラフィクス画像とα画像を1行または複数行ずつ交互に接続して送信してもよい。このようにすると、双方のデータが揃うまでの待機時間をより短縮できる。 By transmitting the α image having a small data size first, the delay time can be shortened as compared with the case where the graphics image is transmitted first, but in any case, there is a waiting time until both data are collected. Based on this, when the graphics image and the α image are reduced in the vertical direction, the content processing device 200 may transmit the graphics image and the α image by alternately connecting one line or a plurality of lines. By doing so, the waiting time until both data are collected can be further shortened.

図17に示したように、横方向に縮小した画像を接続して送信する場合は、横方向の解像度が低下することにより両眼視差に誤差が含まれ、立体視に影響を与える可能性がある。一方で、上述のとおり、1行にグラフィクス画像とα画像のデータが含まれるため、1行ごとの合成を効率的に進捗させることができ、遅延時間を最短にできる。このように図16と図17に示した構成の特性を踏まえ、求められる立体視の精度や許容される遅延時間などのバランスに応じて、適切な構成を選択する。 As shown in FIG. 17, when a horizontally reduced image is connected and transmitted, an error may be included in the binocular parallax due to a decrease in the horizontal resolution, which may affect stereoscopic vision. is there. On the other hand, as described above, since the graphics image and α image data are included in one line, the composition of each line can be efficiently advanced and the delay time can be minimized. As described above, based on the characteristics of the configurations shown in FIGS. 16 and 17, an appropriate configuration is selected according to a balance such as required stereoscopic accuracy and allowable delay time.

以上述べた本実施の形態によれば、カメラを備えたヘッドマウントディスプレイにコンテンツの画像を表示させる技術において、コンテンツ処理装置から送信された画像を表示させる経路と別に、撮影画像をヘッドマウントディスプレイ内で処理して表示させる経路を設ける。拡張現実や複合現実を実現する場合は、ヘッドマウントディスプレイから撮影画像の解析結果のみをコンテンツ処理装置に送信し、コンテンツ処理装置がそれに応じて描画したグラフィクス画像を、ヘッドマウントディスプレイで撮影画像と合成する。 According to the present embodiment described above, in the technique of displaying the image of the content on the head-mounted display provided with the camera, the captured image is stored in the head-mounted display separately from the path for displaying the image transmitted from the content processing device. Provide a route to process and display with. When realizing augmented reality or mixed reality, only the analysis result of the captured image is sent from the head-mounted display to the content processing device, and the graphics image drawn by the content processing device is combined with the captured image on the head-mounted display. To do.

これにより、コンテンツ処理装置において高精細な画像を描画できる一方、ヘッドマウントディスプレイとの間で伝送すべきデータのサイズを軽減でき、各処理やデータ伝送に要する時間や消費電力を軽減できる。また合成に必要なα画像をグラフィクス画像とともに送信する場合、それらを統合して1つの画像データとすることにより、α画像のデータ伝送をサポートしていない通信規格であっても送信が可能となる。この際、送信対象の画像平面のうち、グラフィクス画像に与えている歪みにより生じる間隙領域にα画像を埋め込み、有線通信により送信することにより、グラフィクス画像を劣化させずに合成することができる。 As a result, while the content processing device can draw a high-definition image, the size of data to be transmitted to and from the head-mounted display can be reduced, and the time and power consumption required for each processing and data transmission can be reduced. In addition, when the α image required for compositing is transmitted together with the graphics image, by integrating them into one image data, it is possible to transmit even a communication standard that does not support data transmission of the α image. .. At this time, by embedding the α image in the gap region generated by the distortion given to the graphics image in the image plane to be transmitted and transmitting the image by wire communication, the graphics image can be synthesized without deterioration.

あるいはグラフィクス画像とα画像を縦方向または横方向に縮小して接続し1つの画像データとして送信する。この場合、一旦、中継装置において両者を分離し、グラフィクス画像を高圧縮率で圧縮符号化するとともに、α画像は可逆圧縮してヘッドマウントディスプレイに送信する。これにより合成時の精度への影響を抑えつつ、伝送すべきデータサイズを軽減させることができる。結果としてヘッドマウントディスプレイへのデータ伝送を無線で実現でき、ユーザの可動範囲を広げることができる。 Alternatively, the graphics image and the α image are reduced in the vertical direction or the horizontal direction and connected to be transmitted as one image data. In this case, the two are once separated in the relay device, the graphics image is compressed and encoded at a high compression rate, and the α image is losslessly compressed and transmitted to the head-mounted display. As a result, the size of data to be transmitted can be reduced while suppressing the influence on the accuracy at the time of synthesis. As a result, data transmission to the head-mounted display can be realized wirelessly, and the movable range of the user can be expanded.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. Embodiments are examples, and it is understood by those skilled in the art that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present invention. ..

30 入出力インターフェース、 32 CPU、 34 画像補正回路、 36 合成回路、 42 信号処理回路、 44 ディスプレイコントローラ、 46 画像解析回路、 48 復号回路、 100 ヘッドマウントディスプレイ、 110 ステレオカメラ、 120 画像処理用集積回路、 122 表示パネル、 128 画像処理装置、 150 信号処理部、 152 画像解析部、 156 第1補正部、 158 信号処理部、 160 合成部、 162 第2補正部、 164 画像表示制御部、 200 コンテンツ処理装置、 222 CPU、 224 GPU、 226 メインメモリ、 232 通信部、 234 記憶部、 250 合成用データ生成部、 252 位置姿勢予測部、 254 画像描画部、 256 合成情報統合部、 258 通信部、 260 圧縮符号化部、 310 中継装置、 312 通信部、 314 データ分離部、 316 圧縮符号化部、 318 第1圧縮部、 320 第2圧縮部。 30 Input / output interface, 32 CPU, 34 Image correction circuit, 36 Synthesis circuit, 42 Signal processing circuit, 44 Display controller, 46 Image analysis circuit, 48 Decoding circuit, 100 Head mount display, 110 Stereo camera, 120 Integrated circuit for image processing , 122 Display panel, 128 Image processing device, 150 Signal processing unit, 152 Image analysis unit, 156 First correction unit, 158 Signal processing unit, 160 Synthesis unit, 162 Second correction unit, 164 Image display control unit, 200 Content processing Device, 222 CPU, 224 GPU, 226 main memory, 232 communication unit, 234 storage unit, 250 data generation unit for synthesis, 252 position / orientation prediction unit, 254 image drawing unit, 256 composition information integration unit, 258 communication unit, 260 compression Encoding unit, 310 relay device, 312 communication unit, 314 data separation unit, 316 compression coding unit, 318 first compression unit, 320 second compression unit.

Claims (27)

画像生成装置が、
表示画像に合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値を生成するステップと、
前記合成すべき画像と前記α値のデータを1つの画像平面に表してなる合成用データを生成するステップと、
前記合成用データを、前記表示画像を生成する装置に送信するステップと、
を含むことを特徴とする画像データ伝送方法。
The image generator
An image to be combined with the display image, a step of generating an α value representing the transparency of the pixels of the image to be combined, and
A step of generating composite data in which the image to be composited and the α value data are represented on one image plane, and
The step of transmitting the composite data to the device that generates the display image, and
An image data transmission method comprising.
前記合成用データを生成するステップは、接眼レンズを介して鑑賞される表示画像に与えるべき歪みを前記合成すべき画像に付加し、前記画像平面において、前記歪みにより前記合成すべき画像が表されない領域に、前記α値を埋め込むことを特徴とする請求項1に記載の画像データ伝送方法。 The step of generating the compositing data adds a distortion to be given to the display image viewed through the eyepiece to the compositing image, and the distortion does not represent the compositing image in the image plane. The image data transmission method according to claim 1, wherein the α value is embedded in the region. 前記合成用データを生成するステップは、前記合成すべき画像と前記α値を表す画像とを所定方向に縮小して接続することにより、前記1つの画像平面に表すことを特徴とする請求項1に記載の画像データ伝送方法。 Claim 1 is characterized in that the step of generating the composite data is represented on the one image plane by connecting the image to be composited and the image representing the α value in a predetermined direction. The image data transmission method described in. 前記合成用データを生成するステップは、前記合成すべき画像と前記α値を表す画像とを、画像平面の縦方向に縮小したうえ、所定数の行ごとに交互に接続することにより、前記1つの画像平面に表すことを特徴とする請求項1に記載の画像データ伝送方法。 In the step of generating the compositing data, the image to be composited and the image representing the α value are reduced in the vertical direction of the image plane, and are alternately connected every predetermined number of rows. The image data transmission method according to claim 1, wherein the image data is represented on one image plane. 前記合成すべき画像は平板型ディスプレイに表示させることを前提として生成された歪みのない画像であることを特徴とする請求項3または4に記載の画像データ伝送方法。 The image data transmission method according to claim 3 or 4, wherein the image to be combined is a distortion-free image generated on the premise that the image is displayed on a flat plate display. 前記合成用データを生成するステップは、前記合成用データにおいて、1つの画素に複数の画素のα値を対応づけることを特徴とする請求項1から5のいずれかに記載の画像データ伝送方法。 The image data transmission method according to any one of claims 1 to 5, wherein the step of generating the synthesis data is a step of associating one pixel with α values of a plurality of pixels in the synthesis data. 前記合成用データを生成するステップは、前記1つの画素が有する複数の原色に割り当てられた記憶領域ごとに、1つまたは複数の画素のα値を格納することを特徴とする請求項6に記載の画像データ伝送方法。 The sixth aspect of claim 6, wherein the step of generating the composite data stores the α value of one or a plurality of pixels for each storage area allocated to the plurality of primary colors of the one pixel. Image data transmission method. 前記合成用データを生成するステップは、前記1つの画素が有する複数の原色に割り当てられた記憶領域ごとに、各原色に対し設定する1つまたは複数の画素のα値を格納することを特徴とする請求項6に記載の画像データ伝送方法。 The step of generating the composite data is characterized in that the α value of one or a plurality of pixels set for each primary color is stored for each storage area assigned to the plurality of primary colors of the one pixel. The image data transmission method according to claim 6. 前記合成用データを生成するステップは、前記1つの画素が有する複数の原色に割り当てられた記憶領域ごとに、全原色に共通に設定する1つまたは複数の画素のα値を格納することを特徴とする請求項6に記載の画像データ伝送方法。 The step of generating the composite data is characterized in that the α value of one or a plurality of pixels, which is commonly set for all the primary colors, is stored for each storage area allocated to the plurality of primary colors of the one pixel. The image data transmission method according to claim 6. 中継装置が、
前記合成用データを取得し、前記合成すべき画像と前記α値のデータを分離するステップと、
前記合成すべき画像と前記α値のデータを異なる方式で圧縮符号化するステップと、
圧縮符号化されたデータを、前記表示画像を生成する装置に送信するステップと、
をさらに含むことを特徴とする請求項1から9のいずれかに記載の画像データ伝送方法。
The relay device
A step of acquiring the composite data and separating the image to be composited from the α value data,
The step of compressing and coding the image to be combined and the α value data by different methods,
A step of transmitting the compressed coded data to the device for generating the display image, and
The image data transmission method according to any one of claims 1 to 9, further comprising.
前記圧縮符号化するステップは、前記合成すべき画像を非可逆圧縮し、前記α値のデータを可逆圧縮することを特徴とする請求項10に記載の画像データ伝送方法。 The image data transmission method according to claim 10, wherein the compression coding step irreversibly compresses the image to be synthesized and losslessly compresses the α value data. 前記表示画像を生成する装置が、被写体の位置および姿勢の情報を取得するステップをさらに含み、
前記合成用データを生成するステップは、
前記表示画像を生成する装置から送信された前記位置および姿勢の情報に基づき、所定時間後の被写体の位置および姿勢を予測したうえ、その結果に対応するように前記合成すべき画像を生成することを特徴とする請求項1から11のいずれかに記載の画像データ伝送方法。
The device for generating the display image further includes a step of acquiring information on the position and posture of the subject.
The step of generating the synthesis data is
Based on the position and posture information transmitted from the device that generates the display image, the position and posture of the subject after a predetermined time are predicted, and then the image to be combined is generated so as to correspond to the result. The image data transmission method according to any one of claims 1 to 11.
前記合成用データを生成するステップは、前記表示画像を生成する装置と共有された、前記α値を表す範囲に係る情報に基づき、前記画像平面にα値を表すことを特徴とする請求項1から12のいずれかに記載の画像データ伝送方法。 Claim 1 is characterized in that the step of generating the composite data represents an α value on the image plane based on the information related to the range representing the α value shared with the apparatus for generating the display image. The image data transmission method according to any one of 12 to 12. 前記合成用データを生成するステップは、前記α値を表す範囲を前記画像平面に表したマップに基づき、前記画像平面にα値を表すことを特徴とする請求項13に記載の画像データ伝送方法。 The image data transmission method according to claim 13, wherein the step of generating the synthesis data is based on a map in which the range representing the α value is represented on the image plane, and the α value is represented on the image plane. .. 前記合成用データを生成するステップは、前記合成すべき画像より小さい解像度で生成されたα値を前記画像平面に表すことを特徴とする請求項1から14のいずれかに記載の画像データ伝送方法。 The image data transmission method according to any one of claims 1 to 14, wherein the step of generating the composite data represents an α value generated at a resolution smaller than the image to be composited on the image plane. .. 前記合成用データを生成するステップは、前記表示画像のうち前記合成によって表される像を含む所定範囲の領域のα値を前記画像平面に表すことを特徴とする請求項1から14のいずれかに記載の画像データ伝送方法。 Any of claims 1 to 14, wherein the step of generating the compositing data represents an α value of a region of a predetermined range including an image represented by the compositing in the display image on the image plane. The image data transmission method described in. 前記合成用データを生成するステップは、前記1つの画像平面に前記α値のデータを表す代わりに、前記合成によって表すべき像以外の領域に所定の画素値を与えた合成用データを生成し、
前記送信するステップは、前記合成用データを非可逆圧縮して送信し、
前記表示画像を生成する装置が、
前記合成用データを伸張するステップと、
当該合成用データのうち前記所定の画素値から所定範囲の値を有する画素の領域以外の領域を前記表示画像に表すステップと、
を含むことを特徴とする請求項1から16のいずれかに記載の画像データ伝送方法。
In the step of generating the composite data, instead of displaying the α value data on the one image plane, the composite data in which a predetermined pixel value is given to a region other than the image to be represented by the composite is generated.
In the transmission step, the synthesis data is irreversibly compressed and transmitted.
The device that generates the display image
The step of expanding the synthetic data and
A step of displaying a region other than a pixel region having a value in a predetermined range from the predetermined pixel value in the display image in the composite data,
The image data transmission method according to any one of claims 1 to 16, wherein the image data transmission method comprises.
表示画像に合成すべき画像を生成する画像描画部と、
前記合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値のデータとを1つの画像平面に表してなる合成用データを生成する合成情報統合部と、
前記合成用データを出力する通信部と、
を備えたことを特徴とするコンテンツ処理装置。
An image drawing unit that generates an image to be combined with the display image,
A composite information integration unit that generates composite data in which the image to be composited and the α value data representing the transparency of the pixels of the image to be composited are represented on one image plane.
The communication unit that outputs the synthesis data and
A content processing device characterized by being equipped with.
前記画像描画部は、接眼レンズを介して鑑賞される表示画像に与えるべき歪みを前記合成すべき画像に付加することを特徴とする請求項18に記載のコンテンツ処理装置。 The content processing device according to claim 18, wherein the image drawing unit adds distortion to be given to the display image viewed through the eyepiece to the image to be synthesized. 実空間を撮影するカメラと、
表示画像に合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値のデータとを1つの画像平面に表してなる合成用データを、外部の装置から受信し、前記α値に基づき、前記カメラによる撮影画像に前記合成すべき画像を合成して表示画像を生成する画像処理用集積回路と、
前記表示画像を出力する表示パネルと、
を備えたことを特徴とするヘッドマウントディスプレイ。
A camera that shoots real space,
The composition data, which represents the image to be combined with the display image and the α value data representing the transparency of the pixels of the image to be combined on one image plane, is received from an external device and converted to the α value. Based on this, an integrated circuit for image processing that synthesizes the image to be combined with the image taken by the camera to generate a display image, and
A display panel that outputs the display image and
A head-mounted display featuring a head-mounted display.
前記画像処理用集積回路は、接眼レンズを介して鑑賞される表示画像に与えるべき歪みを前記撮影画像に付加し、前記外部の装置から送信された、前記歪みが付加されている前記合成すべき画像を合成することを特徴とする請求項20に記載のヘッドマウントディスプレイ。 The integrated circuit for image processing adds distortion to be given to the display image viewed through the eyepiece to the captured image, and is transmitted from the external device and should be synthesized with the distortion added. The head-mounted display according to claim 20, wherein the images are combined. 前記画像処理用集積回路は、前記撮影画像を解析して被写体の位置および姿勢の情報を取得し、前記外部の装置に送信することを特徴とする請求項20または21に記載のヘッドマウントディスプレイ。 The head-mounted display according to claim 20 or 21, wherein the integrated circuit for image processing analyzes the captured image to acquire information on the position and posture of the subject and transmits the information to the external device. 表示画像に合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値のデータとを1つの画像平面に表してなる合成用データを、合成すべき画像と前記α値のデータに分離するデータ分離部と、
前記合成すべき画像と前記α値のデータを異なる方式で圧縮符号化する圧縮符号化部と、
前記合成用データを、画像を生成する装置から取得し、前記圧縮符号化されたデータを、前記表示画像を生成する装置に送信する通信部と、
を備えたことを特徴とする中継装置。
The composition data in which the image to be combined with the display image and the α value data representing the transparency of the pixels of the image to be combined are represented on one image plane is converted into the image to be combined and the α value data. The data separator to be separated and
A compression coding unit that compresses and encodes the image to be synthesized and the α value data by different methods.
A communication unit that acquires the composite data from an image generating device and transmits the compressed coded data to the display image generating device.
A relay device characterized by being equipped with.
表示装置と、当該表示装置に表示させる画像を生成するコンテンツ処理装置と、を含み、
前記コンテンツ処理装置は、
表示画像に合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値のデータとを1つの画像平面に表してなる合成用データを生成する合成用データ生成部と、
前記合成用データを出力する通信部と、
を備え、
前記表示装置は、
実空間を撮影するカメラと、
前記合成用データのα値に基づき、前記カメラによる撮影画像に前記合成すべき画像を合成して表示画像を生成する画像処理用集積回路と、
前記表示画像を出力する表示パネルと、
を備えたことを特徴とするコンテンツ処理システム。
Includes a display device and a content processing device that generates an image to be displayed on the display device.
The content processing device is
A compositing data generation unit that generates compositing data in which an image to be composited with a display image and α value data representing the transparency of pixels of the image to be composited are represented on one image plane.
The communication unit that outputs the synthesis data and
With
The display device is
A camera that shoots real space,
An integrated circuit for image processing that generates a display image by synthesizing the image to be combined with the image taken by the camera based on the α value of the composition data.
A display panel that outputs the display image and
A content processing system characterized by being equipped with.
表示画像に合成すべき画像を生成する機能と、
前記合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値のデータとを1つの画像平面に表してなる合成用データを生成する機能と、
前記合成用データを出力する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
A function to generate an image to be combined with the display image,
A function of generating composite data in which the image to be composited and α value data representing the transparency of the pixels of the image to be composited are represented on one image plane.
The function to output the synthesis data and
A computer program characterized by realizing a computer.
表示画像に合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値のデータとを1つの画像平面に表してなる合成用データを取得する機能と、
前記合成すべき画像と前記α値のデータを分離する機能と、
前記合成すべき画像と前記α値のデータを異なる方式で圧縮符号化する機能と、
圧縮符号化されたデータを、前記表示画像を生成する装置に送信する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
A function to acquire composite data in which an image to be composited with a display image and α value data representing the transparency of the pixels of the image to be composited are represented on one image plane.
The function of separating the image to be combined and the α value data, and
The function of compressing and coding the image to be combined and the α value data by different methods,
A function of transmitting compressed coded data to a device that generates the display image, and
A computer program characterized by realizing a computer.
表示画像に合成すべき画像と、当該合成すべき画像の画素の透明度を表すα値のデータとを1つの画像平面に表してなる合成用データを取得する機能と、
前記合成すべき画像と前記α値のデータを復元する機能と、
前記α値に基づき、撮影画像に前記合成すべき画像を合成して表示パネルに出力する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
A function to acquire composite data in which an image to be composited with a display image and α value data representing the transparency of the pixels of the image to be composited are represented on one image plane.
The function to restore the image to be combined and the α value data,
Based on the α value, the function to synthesize the image to be combined with the captured image and output it to the display panel,
A computer program characterized by realizing a computer.
JP2019185341A 2019-03-29 2019-10-08 Image data transmission method, content processing device, head mounted display, relay device, and content processing system Active JP7365185B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/825,317 US11659153B2 (en) 2019-03-29 2020-03-20 Image data transmission method, content processing apparatus, head-mounted display, relay apparatus and content processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019068189 2019-03-29
JP2019068189 2019-03-29

Publications (2)

Publication Number Publication Date
JP2020167660A true JP2020167660A (en) 2020-10-08
JP7365185B2 JP7365185B2 (en) 2023-10-19

Family

ID=72714644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019185341A Active JP7365185B2 (en) 2019-03-29 2019-10-08 Image data transmission method, content processing device, head mounted display, relay device, and content processing system

Country Status (1)

Country Link
JP (1) JP7365185B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112383788A (en) * 2020-11-11 2021-02-19 成都威爱新经济技术研究院有限公司 Live broadcast real-time image extraction system and method based on intelligent AI technology

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7119813B1 (en) 2000-06-02 2006-10-10 Nintendo Co., Ltd. Variable bit field encoding
JP2005107780A (en) 2003-09-30 2005-04-21 Sony Corp Image blending method and blended image data generation device
JP4847192B2 (en) 2006-04-14 2011-12-28 キヤノン株式会社 Image processing system, image processing apparatus, imaging apparatus, and control method thereof
JP5074777B2 (en) 2006-05-22 2012-11-14 キヤノン株式会社 Display device with imaging function, image processing device, image processing method, and image display system
JP4989417B2 (en) 2007-10-26 2012-08-01 キヤノン株式会社 Image display system, image display apparatus, control method therefor, and computer program
CN103210653B (en) 2010-11-15 2016-08-31 Lg电子株式会社 Method and the device of use the method for converted frames form
KR101679122B1 (en) 2013-10-02 2016-11-23 내셔날 쳉쿵 유니버시티 Method, device and system for packing and unpacking color frame and original depth frame
KR102417177B1 (en) 2016-02-18 2022-07-05 애플 인크. Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
JP6632443B2 (en) 2016-03-23 2020-01-22 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus, information processing system, and information processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112383788A (en) * 2020-11-11 2021-02-19 成都威爱新经济技术研究院有限公司 Live broadcast real-time image extraction system and method based on intelligent AI technology
CN112383788B (en) * 2020-11-11 2023-05-26 成都威爱新经济技术研究院有限公司 Live broadcast real-time image extraction system and method based on intelligent AI technology

Also Published As

Publication number Publication date
JP7365185B2 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
US7689031B2 (en) Video filtering for stereo images
US9159135B2 (en) Systems, methods, and computer program products for low-latency warping of a depth map
JP5388534B2 (en) Image processing apparatus and method, head-mounted display, program, and recording medium
KR102453512B1 (en) Method for processing projection-based frames
JPWO2007116549A1 (en) Image processing device
KR20200052846A (en) Data processing systems
JP2007219082A (en) Composite reality feeling display system
US20230236425A1 (en) Image processing method, image processing apparatus, and head-mounted display
US9723290B2 (en) Method for generating, transmitting and receiving stereoscopic images and relating devices
JP7365185B2 (en) Image data transmission method, content processing device, head mounted display, relay device, and content processing system
US11659153B2 (en) Image data transmission method, content processing apparatus, head-mounted display, relay apparatus and content processing system
US20210304494A1 (en) Image processing apparatus, 3d data generation apparatus, control program, and recording medium
JP7365184B2 (en) Image processing device, head-mounted display, and image display method
US11614627B2 (en) Image processing apparatus, head-mounted display, and image displaying method
US11106042B2 (en) Image processing apparatus, head-mounted display, and image displaying method
JP7429515B2 (en) Image processing device, head-mounted display, and image display method
WO2022054118A1 (en) Image display system, head-mounted display, and image display method
WO2019026183A1 (en) Image generation device and image generation method
WO2022158221A1 (en) Image display system, display device, and image display method
WO2019166013A1 (en) Cube-based projection method that applies different mapping functions to different square projection faces, different axes, and/or different locations of axis
JP7365183B2 (en) Image generation device, head mounted display, content processing system, and image display method
JP7437941B2 (en) Stereoscopic image generation device and its program
JPH06105340A (en) Three-dimension picture input device adopting plural view points
JP2023105524A (en) Display control device, head-mounted display, and display control method
CN115129288A (en) System and method for rendering three-dimensional image content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231006

R150 Certificate of patent or registration of utility model

Ref document number: 7365185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150