JP2020167659A - Image processing apparatus, head-mounted display, and image display method - Google Patents

Image processing apparatus, head-mounted display, and image display method Download PDF

Info

Publication number
JP2020167659A
JP2020167659A JP2019185340A JP2019185340A JP2020167659A JP 2020167659 A JP2020167659 A JP 2020167659A JP 2019185340 A JP2019185340 A JP 2019185340A JP 2019185340 A JP2019185340 A JP 2019185340A JP 2020167659 A JP2020167659 A JP 2020167659A
Authority
JP
Japan
Prior art keywords
image
correction
display
unit
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019185340A
Other languages
Japanese (ja)
Other versions
JP7365184B2 (en
Inventor
活志 大塚
Katsuyuki Otsuka
活志 大塚
貴志 島津
Takashi Shimazu
貴志 島津
良徳 大橋
Yoshinori Ohashi
良徳 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to US16/825,057 priority Critical patent/US11106042B2/en
Publication of JP2020167659A publication Critical patent/JP2020167659A/en
Application granted granted Critical
Publication of JP7365184B2 publication Critical patent/JP7365184B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To appropriately achieve both appreciation of an augmented reality content and checking of the surrounding state using a closed-type head-mounted display.SOLUTION: In an image processing apparatus 128 of a head-mounted display, a signal processing unit 150 acquires a photographic image from a stereo camera 110. A first correction unit 156 executes part of correction required for the photographic image. A composition unit 160 composites an image from a content processing apparatus 200 with the photographic image. A second correction unit 162 executes the remaining correction required for the photographic image and outputs the corrected image to a display panel 122.SELECTED DRAWING: Figure 10

Description

この発明は、装着したユーザの眼前に画像を表示するヘッドマウントディスプレイ、表示画像を処理する画像処理装置、およびそこでなされる画像表示方法に関する。 The present invention relates to a head-mounted display that displays an image in front of the user's eyes, an image processing device that processes the displayed image, and an image display method performed therein.

対象空間を自由な視点から鑑賞できる画像表示システムが普及している。例えばヘッドマウントディスプレイにパノラマ映像を表示し、ヘッドマウントディスプレイを装着したユーザの視線方向に応じた画像が表示されるようにしたシステムが開発されている。ヘッドマウントディスプレイを利用することで、映像への没入感を高めたり、ゲームなどのアプリケーションの操作性を向上させたりすることができる。また、ヘッドマウントディスプレイを装着したユーザが物理的に移動することで、映像として表示された空間内を仮想的に歩き回ることのできるウォークスルーシステムも開発されている。 Image display systems that allow users to view the target space from a free viewpoint are widespread. For example, a system has been developed in which a panoramic image is displayed on a head-mounted display and an image corresponding to the line-of-sight direction of a user wearing the head-mounted display is displayed. By using a head-mounted display, it is possible to enhance the immersive feeling in the image and improve the operability of applications such as games. In addition, a walk-through system has also been developed that allows a user wearing a head-mounted display to virtually walk around in the space displayed as an image by physically moving.

ヘッドマウントディスプレイには、ユーザの視界を覆うようにして外界からの光を遮蔽する遮蔽型と、外界からの光を取り込み周囲の様子も見えるようにした光学透過型がある。ヘッドマウントディスプレイで、実空間と仮想オブジェクト(仮想空間)を融合させる拡張現実(AR:Augmented Reality)や複合現実(MR:Mixed Reality)を実現する場合、光学透過型の方が、重ね合わせ表示の容易さ、表示までの遅延時間、描画に必要なシステム負荷(消費電力)の低さなどの点で優れている。一方、遮蔽型のヘッドマウントディスプレイは、外部視野を完全に遮断できるため、没入感のある仮想現実を実現できる。 There are two types of head-mounted displays: a shield type that covers the user's field of view to block light from the outside world, and an optical transmission type that takes in light from the outside world and makes it possible to see the surroundings. When realizing augmented reality (AR: Augmented Reality) or mixed reality (MR: Mixed Reality) that fuses real space and virtual objects (virtual space) with a head-mounted display, the optical transmission type is the superimposed display. It is excellent in terms of ease of display, delay time to display, and low system load (power consumption) required for drawing. On the other hand, the shielded head-mounted display can completely block the external field of view, so that an immersive virtual reality can be realized.

遮蔽型のヘッドマウントディスプレイでは基本的に、表示パネルの発光のみが視覚刺激となる。したがって、例えばヘッドマウントディスプレイを装着してからコンテンツの画像を表示させるまでの間や、表示が終了した後など画像が表示されない期間があると、鑑賞者は当然何も見えない状態となる。その結果、そのような期間において、周囲にある物につまずいたりぶつかったりする危険がある。また、仮想世界の画像が表示された状態で、近くに置いたコントローラを手に取りたいなど周囲の状況を見たければ、その都度ヘッドマウントディスプレイを外す必要がある。 In a shielded head-mounted display, basically, only the light emitted from the display panel is a visual stimulus. Therefore, for example, if there is a period from when the head-mounted display is attached until the image of the content is displayed, or after the display is finished, the viewer naturally cannot see anything. As a result, there is a risk of tripping or bumping into surrounding objects during such periods. Also, if you want to see the surrounding situation such as picking up a controller placed nearby while the image of the virtual world is displayed, you need to remove the head-mounted display each time.

遮蔽型のヘッドマウントディスプレイで拡張現実や複合現実を実現する場合は、ヘッドマウントディスプレイの前面にカメラを設け、その撮影画像に仮想オブジェクトなど別途生成した画像を合成することが考えられる。しかしながら各種処理が増えることにより電力消費が増加し、カメラと仮想オブジェクトなどのコンテンツを生成する装置を、一体的に設けられない場合がある。これらの結果、撮影から表示までに遅延が生じやすく、ユーザに違和感を与えやすい。 When realizing augmented reality or mixed reality with a shielded head-mounted display, it is conceivable to provide a camera in front of the head-mounted display and combine the captured image with a separately generated image such as a virtual object. However, as various processes increase, power consumption increases, and there are cases where a camera and a device for generating contents such as virtual objects cannot be integrally provided. As a result, a delay is likely to occur from shooting to display, which tends to give the user a sense of discomfort.

本発明はこうした課題に鑑みてなされたものであり、その目的は、遮蔽型のヘッドマウントディスプレイを装着した状態で周囲の状況を違和感なく視認できることと、仮想オブジェクトなどが合成されたコンテンツの鑑賞を、適切に両立させることのできる技術を提供することにある。 The present invention has been made in view of these problems, and an object of the present invention is to be able to visually recognize the surrounding situation without discomfort while wearing a shielded head-mounted display, and to appreciate contents in which virtual objects and the like are synthesized. The purpose is to provide technology that can be compatible with each other appropriately.

上記課題を解決するために、本発明のある態様は画像処理装置に関する。この画像処理装置は、撮影画像のデータを取得する信号処理部と、撮影画像を表示に適した画像に補正する補正部と、一体的に設けられていない装置から送信された合成用画像を、撮影画像に合成する合成部と、合成された画像を表示パネルに表示させる画像表示制御部と、を備え、補正部は、前記表示に適した画像に補正する処理のうち、合成部による合成前の撮影画像に対し一部の補正を実施し、合成後の画像に対し残りの補正を実施することを特徴とする。 In order to solve the above problems, an aspect of the present invention relates to an image processing apparatus. This image processing device has a signal processing unit that acquires data of a captured image, a correction unit that corrects the captured image into an image suitable for display, and a composite image transmitted from a device that is not integrally provided. It includes a compositing unit that synthesizes the captured image and an image display control unit that displays the composited image on the display panel, and the correction unit is a process that corrects the image to be suitable for the display before the compositing unit. It is characterized in that a part of the correction is performed on the captured image of the above, and the remaining correction is performed on the combined image.

本発明の別の態様はヘッドマウントディスプレイに関する。このヘッドマウントディスプレイは、上記画像処理装置と、その信号処理部に撮影画像を供給する撮像装置と、表示パネルと、を備えることを特徴とする。 Another aspect of the invention relates to a head-mounted display. The head-mounted display is characterized by including the above-mentioned image processing device, an imaging device for supplying a captured image to the signal processing unit thereof, and a display panel.

本発明のさらに別の態様は画像表示方法に関する。この画像表示方法は画像処理装置が、撮影画像のデータを取得するステップと、撮影画像を表示に適した画像に補正する処理のうち一部の補正を実施するステップと、一体的に設けられていない装置から送信された合成用画像を、一部の補正がなされた撮影画像に合成するステップと、合成後の画像に対し、表示に適した画像に補正する処理のうち残りの補正を実施し表示画像とするステップと、表示画像を表示パネルに表示させるステップと、を含むことを特徴とする。 Yet another aspect of the present invention relates to an image display method. This image display method is integrally provided with a step in which the image processing device acquires data of the captured image and a step of performing some corrections in the process of correcting the captured image to an image suitable for display. Performs the remaining corrections in the step of synthesizing the composite image transmitted from the non-existing device into the captured image with some corrections and the process of correcting the composited image to an image suitable for display. It is characterized by including a step of displaying a display image and a step of displaying the display image on a display panel.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components and the conversion of the expression of the present invention between methods, devices, systems, computer programs, data structures, recording media and the like are also effective as aspects of the present invention.

本発明によれば、遮蔽型のヘッドマウントディスプレイにおいて、周囲の状況を違和感ない視認と、仮想オブジェクトなどが合成されたコンテンツの鑑賞を、低遅延、低消費電力で、両立させることができる。 According to the present invention, in a shielded head-mounted display, it is possible to achieve both visual recognition of the surrounding situation without discomfort and viewing of content in which a virtual object or the like is synthesized, with low delay and low power consumption.

本実施の形態のヘッドマウントディスプレイの外観例を示す図である。It is a figure which shows the appearance example of the head-mounted display of this embodiment. 本実施の形態のコンテンツ処理システムの構成例を示す図である。It is a figure which shows the configuration example of the content processing system of this embodiment. 本実施の形態のコンテンツ処理システムにおけるデータの経路を模式的に示す図である。It is a figure which shows typically the path of the data in the content processing system of this embodiment. 本実施の形態の画像処理用集積回路において、撮影画像から表示画像を生成する処理を説明するための図である。It is a figure for demonstrating the process of generating the display image from the photographed image in the integrated circuit for image processing of this embodiment. 本実施の形態の画像処理用集積回路の回路構成を示す図である。It is a figure which shows the circuit structure of the integrated circuit for image processing of this embodiment. 本実施の形態のシースルーモードにおける表示処理の手順を説明するための図である。It is a figure for demonstrating the procedure of display processing in the see-through mode of this embodiment. 歪みのない画像を加工して表示するまでの時間における、本実施の形態の有意性を説明するための図である。It is a figure for demonstrating the significance of this Embodiment in the time until the image without distortion is processed and displayed. 本実施の形態の補正回路が撮影画像を補正する処理手順の例を説明するための図である。It is a figure for demonstrating an example of the processing procedure which the correction circuit of this embodiment corrects a photographed image. 本実施の形態において、補正処理に必要なバッファメモリの容量について説明するための図である。It is a figure for demonstrating the capacity of the buffer memory required for the correction process in this embodiment. シースルーモード以外の表示態様に本実施の形態の画像処理用集積回路を用いた場合の、コンテンツ処理システムの機能ブロックの構成を示す図である。It is a figure which shows the structure of the functional block of the content processing system when the integrated circuit for image processing of this embodiment is used in the display mode other than the see-through mode. 本実施の形態において、色収差補正として変位ベクトルに含める要素の例を説明するための図である。In this embodiment, it is a figure for demonstrating the example of the element included in the displacement vector as chromatic aberration correction. 本実施の形態の変位ベクトルマップ用メモリに格納するデータを模式的に示す図である。It is a figure which shows typically the data stored in the displacement vector map memory of this embodiment. 本実施の形態のヘッドマウントディスプレイが撮影画像などを表示させる際の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure when the head-mounted display of this embodiment displays a photographed image and the like.

図1はヘッドマウントディスプレイ100の外観例を示す。この例においてヘッドマウントディスプレイ100は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。出力機構部102は、ヘッドマウントディスプレイ100をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。 FIG. 1 shows an example of the appearance of the head-mounted display 100. In this example, the head-mounted display 100 is composed of an output mechanism unit 102 and a mounting mechanism unit 104. The mounting mechanism unit 104 includes a mounting band 106 that goes around the head and realizes fixing of the device when the user wears it. The output mechanism 102 includes a housing 108 having a shape that covers the left and right eyes when the head-mounted display 100 is worn by the user, and includes a display panel inside so as to face the eyes when worn.

筐体108内部にはさらに、ヘッドマウントディスプレイ100の装着時に表示パネルとユーザの目との間に位置し、画像を拡大して見せる接眼レンズを備える。またヘッドマウントディスプレイ100はさらに、装着時にユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。またヘッドマウントディスプレイ100はモーションセンサを内蔵し、ヘッドマウントディスプレイ100を装着したユーザの頭部の並進運動や回転運動、ひいては各時刻の位置や姿勢を検出してもよい。 Further, the inside of the housing 108 is provided with an eyepiece located between the display panel and the user's eyes when the head-mounted display 100 is attached to magnify the image. Further, the head-mounted display 100 may further include a speaker or earphone at a position corresponding to the user's ear when worn. Further, the head-mounted display 100 has a built-in motion sensor, and may detect the translational motion and the rotational motion of the head of the user wearing the head-mounted display 100, and eventually the position and posture at each time.

ヘッドマウントディスプレイ100はさらに、筐体108の前面にステレオカメラ110、中央に広視野角の単眼カメラ111、左上、右上、左下、右下の四隅に広視野角の4つのカメラ112を備え、ユーザの顔の向きに対応する方向の実空間を動画撮影する。本実施の形態では、ステレオカメラ110が撮影した画像を即時表示させることにより、ユーザが向いた方向の実空間の様子をそのまま見せるモードを提供する。以後、このようなモードを「シースルーモード」と呼ぶ。コンテンツの画像を表示していない期間、ヘッドマウントディスプレイ100は基本的にシースルーモードへ移行する。 The head-mounted display 100 further includes a stereo camera 110 on the front surface of the housing 108, a monocular camera 111 with a wide viewing angle in the center, and four cameras 112 with a wide viewing angle at the four corners of the upper left, upper right, lower left, and lower right. Take a video of the real space in the direction corresponding to the direction of the face. The present embodiment provides a mode in which an image taken by the stereo camera 110 is immediately displayed to show the state of the real space in the direction in which the user is facing. Hereinafter, such a mode is referred to as a "see-through mode". The head-mounted display 100 basically shifts to the see-through mode during the period when the image of the content is not displayed.

ヘッドマウントディスプレイ100が自動でシースルーモードへ移行することにより、ユーザはコンテンツの開始前、終了後、中断時などに、ヘッドマウントディスプレイ100を外すことなく周囲の状況を確認できる。シースルーモードへの移行タイミングはこのほか、ユーザが明示的に移行操作を行ったときなどでもよい。これによりコンテンツの鑑賞中であっても、任意のタイミングで一時的に実空間の画像へ表示を切り替えることができ、コントローラを見つけて手に取るなど必要な作業を行える。 By automatically shifting to the see-through mode of the head-mounted display 100, the user can check the surrounding situation without removing the head-mounted display 100 before the content starts, after the content ends, or when the content is interrupted. In addition to this, the transition timing to the see-through mode may be when the user explicitly performs the transition operation. As a result, even while viewing the content, the display can be temporarily switched to the image in the real space at any timing, and necessary work such as finding the controller and picking it up can be performed.

ステレオカメラ110、単眼カメラ111、4つのカメラ112による撮影画像の少なくともいずれかは、コンテンツの画像としても利用できる。例えば写っている実空間と対応するような位置、姿勢、動きで、仮想オブジェクトを撮影画像に合成して表示することにより、拡張現実(AR:Augmented Reality)や複合現実(MR:Mixed Reality)を実現できる。このように撮影画像を表示に含めるか否かによらず、撮影画像の解析結果を用いて、描画するオブジェクトの位置、姿勢、動きを決定づけることができる。 At least one of the images captured by the stereo camera 110, the monocular camera 111, and the four cameras 112 can also be used as an image of the content. For example, augmented reality (AR: Augmented Reality) and mixed reality (MR) can be created by synthesizing virtual objects with captured images and displaying them in positions, postures, and movements that correspond to the actual space in the image. realizable. In this way, regardless of whether or not the captured image is included in the display, the position, posture, and movement of the object to be drawn can be determined by using the analysis result of the captured image.

例えば、撮影画像にステレオマッチングを施すことにより対応点を抽出し、三角測量の原理で被写体の距離を取得してもよい。あるいはSLAM(Simultaneous Localization and Mapping)により周囲の空間に対するヘッドマウントディスプレイ100、ひいてはユーザの頭部の位置や姿勢を取得してもよい。また物体認識や物体深度測定なども行える。これらの処理により、ユーザの視点の位置や視線の向きに対応する視野で仮想世界を描画し表示させることができる。 For example, the corresponding points may be extracted by performing stereo matching on the captured image, and the distance of the subject may be acquired by the principle of triangulation. Alternatively, the head-mounted display 100 with respect to the surrounding space, and thus the position and posture of the user's head may be acquired by SLAM (Simultaneous Localization and Mapping). It can also perform object recognition and object depth measurement. By these processes, the virtual world can be drawn and displayed in the field of view corresponding to the position of the user's viewpoint and the direction of the line of sight.

なお本実施の形態のヘッドマウントディスプレイ100は、ユーザの視界を遮蔽する遮蔽型のヘッドマウントディスプレイであり、かつユーザの顔の位置や向きに対応する視野で実空間を撮影するカメラを備えれば、実際の形状は図示するものに限らない。また、シースルーモードにおいて左目の視野、右目の視野の画像を擬似的に生成すれば、ステレオカメラ110の代わりに単眼カメラや4つのカメラ112を用いることもできる。 The head-mounted display 100 of the present embodiment is a shield-type head-mounted display that blocks the user's view, and is provided with a camera that captures a real space with a field of view corresponding to the position and orientation of the user's face. , The actual shape is not limited to the one shown in the figure. Further, if the images of the field of view of the left eye and the field of view of the right eye are simulated in the see-through mode, a monocular camera or four cameras 112 can be used instead of the stereo camera 110.

図2は、本実施の形態におけるコンテンツ処理システムの構成例を示す。ヘッドマウントディスプレイ100は、無線通信またはUSB Type−Cなどの周辺機器を接続するインターフェース300によりコンテンツ処理装置200に接続される。コンテンツ処理装置200には平板型ディスプレイ302が接続される。コンテンツ処理装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションをコンテンツ処理装置200に提供してもよい。 FIG. 2 shows a configuration example of the content processing system according to the present embodiment. The head-mounted display 100 is connected to the content processing device 200 by an interface 300 that connects peripheral devices such as wireless communication or USB Type-C. A flat plate display 302 is connected to the content processing device 200. The content processing device 200 may be further connected to the server via a network. In that case, the server may provide the content processing device 200 with an online application such as a game in which a plurality of users can participate via a network.

コンテンツ処理装置200は基本的に、コンテンツのプログラムを処理し、表示画像を生成してヘッドマウントディスプレイ100や平板型ディスプレイ302に送信する。ある態様においてコンテンツ処理装置200は、ヘッドマウントディスプレイ100を装着したユーザの頭部の位置や姿勢に基づき視点の位置や視線の方向を特定し、それに対応する視野の表示画像を所定のレートで生成する。 The content processing device 200 basically processes a content program, generates a display image, and transmits the display image to the head-mounted display 100 or the flat-plate display 302. In a certain aspect, the content processing device 200 specifies the position of the viewpoint and the direction of the line of sight based on the position and posture of the head of the user wearing the head-mounted display 100, and generates a display image of the corresponding visual field at a predetermined rate. To do.

ヘッドマウントディスプレイ100は当該表示画像のデータを受信し、コンテンツの画像として表示する。この限りにおいて画像を表示する目的は特に限定されない。例えばコンテンツ処理装置200は、電子ゲームを進捗させつつゲームの舞台である仮想世界を表示画像として生成してもよいし、仮想世界か実世界かに関わらず観賞や情報提供のために静止画像または動画像を表示させてもよい。 The head-mounted display 100 receives the data of the display image and displays it as an image of the content. To this extent, the purpose of displaying the image is not particularly limited. For example, the content processing device 200 may generate a virtual world, which is the stage of the game, as a display image while advancing the electronic game, or may use a still image or a still image for viewing or providing information regardless of whether the virtual world or the real world is used. A moving image may be displayed.

なおコンテンツ処理装置200とヘッドマウントディスプレイ100の距離やインターフェース300の通信方式は限定されない。例えばコンテンツ処理装置200は、個人が所有するゲーム装置などのほか、クラウドゲームなど各種配信サービスを提供する企業などのサーバや、任意の端末にデータを送信する家庭内サーバなどでもよい。したがってコンテンツ処理装置200とヘッドマウントディスプレイ100の間の通信は上述した例のほか、インターネットなどの公衆ネットワークやLAN(Local Area Network)、携帯電話キャリアネットワーク、街中にあるWi−Fiスポット、家庭にあるWi−Fiアクセスポイントなど、任意のネットワークやアクセスポイントを経由して実現してもよい。 The distance between the content processing device 200 and the head-mounted display 100 and the communication method of the interface 300 are not limited. For example, the content processing device 200 may be a game device owned by an individual, a server of a company or the like that provides various distribution services such as a cloud game, or a home server that transmits data to an arbitrary terminal. Therefore, communication between the content processing device 200 and the head mount display 100 is in addition to the above-mentioned examples, in public networks such as the Internet, LAN (Local Area Network), mobile phone carrier networks, Wi-Fi spots in the city, and homes. It may be realized via an arbitrary network or access point such as a Wi-Fi access point.

図3は、本実施の形態のコンテンツ処理システムにおけるデータの経路を模式的に示している。ヘッドマウントディスプレイ100は上述のとおりステレオカメラ110と表示パネル122を備える。ただし上述のとおりカメラはステレオカメラ110に限らず、単眼カメラ111や4つのカメラ112のいずれかまたは組み合わせであってもよい。以後の説明も同様である。表示パネル122は、液晶ディスプレイや有機ELディスプレイなどの一般的な表示機構を有するパネルであり、ヘッドマウントディスプレイ100を装着したユーザの目の前に画像を表示する。また内部には画像処理用集積回路120を備える。 FIG. 3 schematically shows a data path in the content processing system of the present embodiment. The head-mounted display 100 includes a stereo camera 110 and a display panel 122 as described above. However, as described above, the camera is not limited to the stereo camera 110, and may be any or a combination of the monocular camera 111 and the four cameras 112. The same applies to the following description. The display panel 122 is a panel having a general display mechanism such as a liquid crystal display or an organic EL display, and displays an image in front of a user wearing the head-mounted display 100. Further, an integrated circuit 120 for image processing is provided inside.

画像処理用集積回路120は例えば、CPUを含む様々な機能モジュールを搭載したシステムオンチップである。なおヘッドマウントディスプレイ100はこのほか、上述のとおりジャイロセンサ、加速度センサ、角加速度センサなどのモーションセンサや、DRAM(Dynamic Random Access Memory)などのメインメモリ、ユーザに音声を聞かせるオーディオ回路、周辺機器を接続するための周辺機器インターフェース回路などが備えられてよいが、ここでは図示を省略している。 The image processing integrated circuit 120 is, for example, a system-on-chip equipped with various functional modules including a CPU. In addition to this, the head mount display 100 includes motion sensors such as a gyro sensor, an acceleration sensor, and an angular acceleration sensor, a main memory such as a DRAM (Dynamic Random Access Memory), an audio circuit that allows the user to hear voice, and peripheral devices. Peripheral device interface circuits and the like for connecting the devices may be provided, but the illustrations are omitted here.

拡張現実や複合現実を遮蔽型のヘッドマウントディスプレイで実現する場合、一般にはステレオカメラ110などによる撮影画像を、コンテンツを処理する主体に取り込み、そこで仮想オブジェクトと合成して表示画像を生成する。図示するシステムにおいてコンテンツを処理する主体はコンテンツ処理装置200のため、矢印Bに示すように、ステレオカメラ110で撮影された画像は、画像処理用集積回路120を経て一旦、コンテンツ処理装置200に送信される。 When augmented reality or mixed reality is realized by a shield-type head-mounted display, generally, an image taken by a stereo camera 110 or the like is taken into a subject that processes the content, and then combined with a virtual object to generate a display image. Since the main body that processes the content in the illustrated system is the content processing device 200, as shown by the arrow B, the image taken by the stereo camera 110 is once transmitted to the content processing device 200 via the image processing integrated circuit 120. Will be done.

そして仮想オブジェクトが合成されるなどしてヘッドマウントディスプレイ100に返され、表示パネル122に表示される。一方、本実施の形態ではシースルーモードとして、コンテンツの処理とは異なるデータの経路を設ける。すなわち矢印Aに示すように、ステレオカメラ110で撮影された画像を、画像処理用集積回路120で適宜処理し、そのまま表示パネル122に表示させる。このとき画像処理用集積回路120は、撮影画像を表示に適した形式に補正する処理のみ実施する。 Then, the virtual object is synthesized and returned to the head-mounted display 100, and is displayed on the display panel 122. On the other hand, in the present embodiment, as a see-through mode, a data path different from the content processing is provided. That is, as shown by the arrow A, the image taken by the stereo camera 110 is appropriately processed by the image processing integrated circuit 120 and displayed as it is on the display panel 122. At this time, the image processing integrated circuit 120 only performs the process of correcting the captured image into a format suitable for display.

矢印Aの経路によれば、矢印Bと比較しデータの伝送経路が格段に短縮するため、画像の撮影から表示までの時間を短縮できるとともに、伝送に要する消費電力を軽減させることができる。さらに本実施の形態では、画像処理用集積回路120での補正処理を、ステレオカメラ110における1フレーム分の撮影を待たずに撮影と並行して実施し、表示パネル122に順次出力する。 According to the path of the arrow A, since the data transmission path is remarkably shortened as compared with the arrow B, the time from image capture to display can be shortened, and the power consumption required for transmission can be reduced. Further, in the present embodiment, the correction processing in the image processing integrated circuit 120 is performed in parallel with the shooting without waiting for the shooting of one frame in the stereo camera 110, and is sequentially output to the display panel 122.

これらの構成により、ユーザの顔の向きに対応する撮影画像を即座に表示でき、ディスプレイを介さずに周囲を見ているのと同様の状態を作り出すことができる。なお矢印Aの経路はシースルーモードに限らず、コンテンツ処理装置200が生成した画像と撮影画像を合成する際にも利用できる。すなわちコンテンツ処理装置200からは合成すべき画像のデータのみを送信し、ヘッドマウントディスプレイ100の画像処理用集積回路120において撮影画像と合成したうえ表示パネル122に出力する。 With these configurations, it is possible to instantly display a captured image corresponding to the orientation of the user's face, and to create a state similar to looking at the surroundings without going through the display. The path of the arrow A is not limited to the see-through mode, and can be used when synthesizing the captured image with the image generated by the content processing device 200. That is, only the image data to be combined is transmitted from the content processing device 200, combined with the captured image in the image processing integrated circuit 120 of the head-mounted display 100, and then output to the display panel 122.

このようにすると、ヘッドマウントディスプレイ100からコンテンツ処理装置200へは、撮影画像のデータの代わりに、撮影画像から取得した、実空間に係る情報のみを送信すればよくなる。結果として、撮影画像のデータ自体を送信してコンテンツ処理装置200で合成する場合と比較し、データ伝送に要する時間や消費電力を軽減できる。 In this way, it is sufficient to transmit only the information related to the real space acquired from the captured image to the content processing device 200 from the head-mounted display 100 instead of the data of the captured image. As a result, the time and power consumption required for data transmission can be reduced as compared with the case where the captured image data itself is transmitted and synthesized by the content processing device 200.

図4は、画像処理用集積回路120において、撮影画像から表示画像を生成する処理を説明するための図である。実空間において、物が置かれたテーブルがユーザの前にあるとする。ステレオカメラ110はそれを撮影することにより、左視点の撮影画像16a、右視点の撮影画像16bを取得する。ステレオカメラ110の視差により、撮影画像16a、16bには、同じ被写体の像の位置に水平方向のずれが生じている。 FIG. 4 is a diagram for explaining a process of generating a display image from a captured image in the image processing integrated circuit 120. In real space, suppose a table on which objects are placed is in front of the user. By photographing the stereo camera 110, the photographed image 16a of the left viewpoint and the photographed image 16b of the right viewpoint are acquired. Due to the parallax of the stereo camera 110, the captured images 16a and 16b are displaced in the horizontal direction at the positions of the images of the same subject.

また、カメラのレンズにより、被写体の像には歪曲収差が発生する。一般には、そのようなレンズ歪みを補正し、歪みのない左視点の画像18a、右視点の画像18bを生成する(S10)。ここで元の画像16a、16bにおける位置座標(x,y)の画素が、補正後の画像18a、18bにおける位置座標(x+Δx,y+Δy)へ補正されたとすると、その変位ベクトル(Δx,Δy)は次の一般式で表せる。 In addition, the lens of the camera causes distortion in the image of the subject. Generally, such lens distortion is corrected to generate a distortion-free left-viewpoint image 18a and a right-viewpoint image 18b (S10). Here, assuming that the pixels of the position coordinates (x, y) in the original images 16a and 16b are corrected to the position coordinates (x + Δx, y + Δy) in the corrected images 18a and 18b, the displacement vector (Δx, Δy) is It can be expressed by the following general formula.

ここでrは、画像平面におけるレンズの光軸から対象画素までの距離、(Cx,Cy)はレンズの光軸の位置である。またk、k、k、・・・はレンズ歪み係数でありレンズの設計に依存する。次数の上限は特に限定されない。なお本実施の形態において補正に用いる式を式1に限定する趣旨ではない。平板型ディスプレイに表示させたり画像解析をしたりする場合、このように補正された一般的な画像が用いられる。一方、ヘッドマウントディスプレイ100において、接眼レンズを介して見た時に歪みのない画像18a、18bが視認されるためには、接眼レンズによる歪みと逆の歪みを与えておく必要がある。 Here, r is the distance from the optical axis of the lens to the target pixel in the image plane, and (Cx, Cy) is the position of the optical axis of the lens. Further, k 1 , k 2 , k 3 , ... Are lens distortion coefficients and depend on the lens design. The upper limit of the order is not particularly limited. It should be noted that the expression used for the correction in the present embodiment is not intended to be limited to the expression 1. When displaying on a flat plate display or performing image analysis, a general image corrected in this way is used. On the other hand, in the head-mounted display 100, in order for the images 18a and 18b without distortion to be visually recognized when viewed through the eyepiece, it is necessary to apply distortion opposite to the distortion caused by the eyepiece.

例えば画像の四辺が糸巻き状に凹んで見えるレンズの場合、画像を樽型に湾曲させておく。したがって歪みのない画像18a、18bを接眼レンズに対応するように歪ませ、表示パネル122のサイズに合わせて左右に接続することにより、最終的な表示画像22が生成される(S12)。表示画像22の左右の領域における被写体の像と、補正前の歪みのない画像18a、18bにおける被写体の像の関係は、カメラのレンズ歪みを有する画像と歪みを補正した画像の関係と同等である。 For example, in the case of a lens in which the four sides of the image appear to be recessed like a pincushion, the image is curved in a barrel shape. Therefore, the undistorted images 18a and 18b are distorted so as to correspond to the eyepieces, and are connected to the left and right according to the size of the display panel 122 to generate the final display image 22 (S12). The relationship between the image of the subject in the left and right regions of the display image 22 and the image of the subject in the images 18a and 18b without distortion before correction is equivalent to the relationship between the image having lens distortion of the camera and the image corrected for distortion. ..

したがって式1の変位ベクトル(Δx,Δy)の逆ベクトルにより、表示画像22における歪みのある像を生成できる。ただし当然、レンズに係る変数は接眼レンズの値とする。本実施の形態の画像処理用集積回路120は、このような2つのレンズを踏まえた歪みの除去と付加を、一度の計算で完了させる(S14)。詳細には、元の撮影画像16a、16b上の画素が、補正によって表示画像22のどの位置に変位するかを示す変位ベクトルを画像平面に表した変位ベクトルマップを作成しておく。 Therefore, a distorted image in the display image 22 can be generated by the reciprocal vector of the displacement vector (Δx, Δy) of the equation 1. However, as a matter of course, the variable related to the lens is the value of the eyepiece. The image processing integrated circuit 120 of the present embodiment completes the removal and addition of distortion based on such two lenses in a single calculation (S14). Specifically, a displacement vector map is created in which the displacement vector indicating the position of the pixels on the original captured images 16a and 16b is displaced on the display image 22 by the correction is represented on the image plane.

カメラのレンズによる歪みを除去する際の変位ベクトルを(Δx,Δy)、接眼レンズのために歪みを付加する際の変位ベクトルを(−Δx’,−Δy’)とすると、変位ベクトルマップが各位置で保持する変位ベクトルは(Δx−Δx’,Δy−Δy’)となる。なお変位ベクトルは、画素の変位の方向と変位量を定義するのみであるため、事前にそれらのパラメータを決定できるものであれば、レンズ歪みに起因する補正に限らず様々な補正や組み合わせを、同様の構成で容易に実現できる。 If the displacement vector for removing the distortion caused by the camera lens is (Δx, Δy) and the displacement vector for adding the distortion for the eyepiece is (-Δx', −Δy'), the displacement vector maps will be displayed respectively. The displacement vector held at the position is (Δx−Δx', Δy−Δy'). Note that the displacement vector only defines the direction of pixel displacement and the amount of displacement, so if those parameters can be determined in advance, various corrections and combinations are possible, not limited to corrections caused by lens distortion. It can be easily realized with the same configuration.

例えば撮影画像16a、16bを拡縮し表示パネル122のサイズに合わせる補正や、表示パネル122における発光素子の色の配列を踏まえた色収差の補正についても、変位ベクトルの要素に含めてよい。この場合も、画像平面の位置に対してそれぞれの補正における変位ベクトルを求め、それらを合計することにより最終的な変位ベクトルマップを生成できる。これにより、1度の処理で複数の補正を施すことができる。表示画像22を生成する際は変位ベクトルマップを参照して、撮影画像16a、16bの各位置の画素を変位ベクトル分だけ移動させる。 For example, correction of scaling the captured images 16a and 16b to match the size of the display panel 122 and correction of chromatic aberration based on the color arrangement of the light emitting elements on the display panel 122 may be included in the elements of the displacement vector. In this case as well, the final displacement vector map can be generated by obtaining the displacement vectors in each correction for the position of the image plane and summing them. As a result, a plurality of corrections can be applied in one process. When the display image 22 is generated, the pixels at the positions of the captured images 16a and 16b are moved by the displacement vector with reference to the displacement vector map.

撮影画像16a、16bと表示画像22は、歪みの分の変位はあるものの像が表れる位置や形状に大きな変化はないため、画像平面の上の行から順に撮影画像の画素値が取得されるのと並行して、その画素値を取得し補正を施すことができる。そして上の段から順に、補正処理と並行して表示パネル122へ出力することにより、低遅延での表示を実現できる。 Although the captured images 16a and 16b and the displayed image 22 are displaced by the amount of distortion, there is no significant change in the position or shape in which the image appears. Therefore, the pixel values of the captured images are acquired in order from the line above the image plane. In parallel with, the pixel value can be acquired and corrected. Then, by outputting to the display panel 122 in parallel with the correction process in order from the upper row, it is possible to realize a display with low delay.

ただし上述の変位ベクトルマップに代えて、歪みを与えた画像と撮影画像における、対応する画素の位置関係を導出するための変換式を設定してもよい。また表示画像の画素値を決定する要因は、歪みの有無による画素の変位のみに限定されない。例えば、次のパラメータを適宜組み合わせて画素値を決定する。
1.図示しないモーションセンサの出力値やSLAMの計算結果に基づくユーザの姿勢や向いている方向
2.ユーザ固有の左右の瞳孔間距離(目と目の間の距離)
3.ヘッドマウントディスプレイ100の装着機構部104(装着バンド106)を、ユーザの頭や目の関係に基づき調整した結果として定まるパラメータ
However, instead of the displacement vector map described above, a conversion formula for deriving the positional relationship of the corresponding pixels in the distorted image and the captured image may be set. Further, the factor that determines the pixel value of the display image is not limited to the displacement of the pixel depending on the presence or absence of distortion. For example, the pixel value is determined by appropriately combining the following parameters.
1. 1. The user's posture and direction based on the output value of the motion sensor (not shown) and the calculation result of SLAM. User-specific distance between the left and right pupils (distance between eyes)
3. 3. A parameter determined as a result of adjusting the mounting mechanism portion 104 (mounting band 106) of the head-mounted display 100 based on the relationship between the user's head and eyes.

上記2の瞳孔間距離は次のように取得する。すなわちヘッドマウントディスプレイ100が視線追跡用ステレオカメラを内蔵している場合、ヘッドマウントディスプレイ100を装着したユーザの瞳孔を当該視線追跡用ステレオカメラにより撮影する。または、ヘッドマウントディスプレイ100の前面に設けたステレオカメラ110などをユーザが自分の顔に向けることにより、目が開いた顔を撮影する。または、コンテンツ処理システム外の図示しないカメラをユーザにむけて、目が開いた顔を撮影する。そのようにして撮影した画像を、コンテンツ処理システムで動く、瞳孔の画像認識ソフトウェアが処理し、瞳孔間距離を自動測定・記録する。 The interpupillary distance of 2 above is obtained as follows. That is, when the head-mounted display 100 has a built-in stereo camera for tracking the line of sight, the pupil of the user wearing the head-mounted display 100 is photographed by the stereo camera for tracking the line of sight. Alternatively, the user points the stereo camera 110 or the like provided on the front surface of the head-mounted display 100 toward his / her face to take a picture of the face with open eyes. Alternatively, a camera (not shown) outside the content processing system is aimed at the user to take a picture of a face with open eyes. The image captured in this way is processed by the pupillary image recognition software that runs on the content processing system, and the interpupillary distance is automatically measured and recorded.

視線追跡用ステレオカメラやステレオカメラ110のカメラ間距離を用いた場合、三角測量する。もしくは、撮影した画像を、コンテンツ処理システムが平板型ディスプレイ302に表示し、ユーザが左右瞳孔の位置を指定することで、コンテンツ処理装置200が、指定に基づき、左右の瞳孔間距離を計算して記録する。ユーザが自分の瞳孔間距離を直接登録することがあってもよい。このようにして取得した瞳孔間距離は、図4の表示画像22における左目用画像と右目用画像の距離に反映させる。 When the distance between the cameras of the stereo camera for tracking the line of sight or the stereo camera 110 is used, triangulation is performed. Alternatively, the captured image is displayed on the flat plate display 302 by the content processing system, and the user specifies the positions of the left and right pupils, so that the content processing device 200 calculates the distance between the left and right pupils based on the designation. Record. The user may directly register his interpupillary distance. The interpupillary distance acquired in this way is reflected in the distance between the left eye image and the right eye image in the display image 22 of FIG.

上記3については、ヘッドマウントディスプレイ100が内蔵する図示しないロータリーエンコーダやロータリーボリュームなどの計測器が、装着機構部104や装着バンド106のメカニカルな調整結果を取得する。コンテンツ処理システムは、当該調整結果に基づき接眼レンズから目までの距離や角度を計算する。このようにして取得したパラメータは、図3の表示画像22における画像の拡大率や像の位置に反映させる。 Regarding the above 3, a measuring instrument such as a rotary encoder or a rotary volume (not shown) built in the head-mounted display 100 acquires the mechanical adjustment result of the mounting mechanism unit 104 and the mounting band 106. The content processing system calculates the distance and angle from the eyepiece to the eye based on the adjustment result. The parameters acquired in this way are reflected in the enlargement ratio of the image and the position of the image in the display image 22 of FIG.

上記1〜3は、ヘッドマウントディスプレイ100を装着するユーザ固有のパラメータ、あるいはユーザの位置や姿勢といった任意に変化するパラメータであり、事前にマップに反映させることが難しい。したがって、変位ベクトルマップを参照してなされる変換と、上記1〜3の少なくともいずれかのパラメータに基づく変換を組み合わせて最終的な画素値を決定してよい。あるいはそれらのパラメータに応じて、変位ベクトルマップを動的に生成してもよい。 The above 1 to 3 are parameters specific to the user who wears the head-mounted display 100, or parameters which change arbitrarily such as the position and posture of the user, and it is difficult to reflect them in the map in advance. Therefore, the final pixel value may be determined by combining the transformation performed with reference to the displacement vector map and the transformation based on at least one of the above 1 to 3 parameters. Alternatively, the displacement vector map may be dynamically generated according to those parameters.

図5は、本実施の形態の画像処理用集積回路120の回路構成を示している。ただし本実施の形態に係る構成のみ図示し、その他は省略している。画像処理用集積回路120は、入出力インターフェース30、CPU32、イメージ信号処理回路42、画像演算回路34、画像解析回路54、画像合成回路56、およびディスプレイコントローラ44を備える。 FIG. 5 shows the circuit configuration of the image processing integrated circuit 120 of the present embodiment. However, only the configuration according to this embodiment is shown, and the others are omitted. The image processing integrated circuit 120 includes an input / output interface 30, a CPU 32, an image signal processing circuit 42, an image calculation circuit 34, an image analysis circuit 54, an image composition circuit 56, and a display controller 44.

入出力インターフェース30は有線または無線通信によりコンテンツ処理装置200と通信を確立し、データの送受信を実現する。CPU32は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサであり、他の回路を制御する。イメージ信号処理回路42は、ステレオカメラ110の左右のイメージセンサから撮影画像のデータを取得し、それぞれにデモザイク処理などの必要な処理を施す。ただしレンズ歪み補正は実施せず、画素値が決定した画素列順に後述するバッファメモリ38にそのデータを格納する。イメージ信号処理回路42はISP(Image Signal Processor)と同義である。 The input / output interface 30 establishes communication with the content processing device 200 by wired or wireless communication, and realizes data transmission / reception. The CPU 32 is a main processor that processes and outputs signals such as image signals and sensor signals, commands and data, and controls other circuits. The image signal processing circuit 42 acquires captured image data from the left and right image sensors of the stereo camera 110, and performs necessary processing such as demosaic processing on each of them. However, the lens distortion correction is not performed, and the data is stored in the buffer memory 38 described later in the order of the pixel strings in which the pixel values are determined. The image signal processing circuit 42 is synonymous with an ISP (Image Signal Processor).

画像演算回路34は、コンテンツ処理装置200にて生成した画像を高精細化する超解像処理、画像変形処理、その他、図示しない画像を編集する処理をCPUと連携して行う。画像変形処理では、図4に示した補正処理、拡大縮小、コンテンツ処理装置200やステレオカメラ110から画像処理用集積回路120へ画像を転送するのに要した時間においてユーザの視線が動いた量および方向に基づいて、変位ベクトルマップを動的に生成する。そしてそれを用いて、画像をユーザの視線に合わせて補正変形させる。 The image calculation circuit 34 performs super-resolution processing for improving the definition of the image generated by the content processing device 200, image deformation processing, and other processing for editing an image (not shown) in cooperation with the CPU. In the image transformation processing, the amount of movement of the user's line of sight during the correction processing, enlargement / reduction, and the time required to transfer the image from the content processing device 200 or the stereo camera 110 to the image processing integrated circuit 120 shown in FIG. Dynamically generate a displacement vector map based on the orientation. Then, using it, the image is corrected and deformed according to the line of sight of the user.

詳細には画像演算回路34は、補正回路36、バッファメモリ38、変位ベクトルマップ用メモリ40、および超解像回路52を含む。補正回路36の第1補正部46は、撮影画像を補正して、接眼レンズのための歪みを有する表示画像を生成する。第2補正部48は、コンテンツ処理装置200から送信された画像と撮影画像を合成してなる画像を補正して表示画像を生成する。第3補正部50は、コンテンツ処理装置200から送信された画像が、あらかじめ接眼レンズのための歪みを有しない場合に、その画像を補正して、接眼レンズのための歪みを有する表示画像を生成する。 Specifically, the image calculation circuit 34 includes a correction circuit 36, a buffer memory 38, a displacement vector map memory 40, and a super-resolution circuit 52. The first correction unit 46 of the correction circuit 36 corrects the captured image to generate a distorted display image for the eyepiece. The second correction unit 48 corrects an image formed by synthesizing an image transmitted from the content processing device 200 and a captured image to generate a display image. When the image transmitted from the content processing device 200 does not have distortion for the eyepiece in advance, the third correction unit 50 corrects the image and generates a display image having distortion for the eyepiece. To do.

バッファメモリ38は、第1補正部46、第2補正部48、第3補正部50における補正前の画像のデータを一時的に格納する。変位ベクトルマップ用メモリ40は変位ベクトルマップを格納する。なおバッファメモリ38と変位ベクトルマップ用メモリ40はメインメモリと一体的に構成してもよい。超解像回路52は、撮影画像およびコンテンツ処理装置200から送信された画像に対し、所定の手法で高精細化する超解像処理を実施する。 The buffer memory 38 temporarily stores the image data before correction in the first correction unit 46, the second correction unit 48, and the third correction unit 50. The displacement vector map memory 40 stores the displacement vector map. The buffer memory 38 and the displacement vector map memory 40 may be integrally configured with the main memory. The super-resolution circuit 52 performs super-resolution processing for improving the definition of the captured image and the image transmitted from the content processing device 200 by a predetermined method.

補正回路36は上述のとおり、撮影画像における各画素を、変位ベクトル分だけ変位させることにより画像を補正する。変位ベクトルマップにおいて変位ベクトルを設定する対象は、撮影画像平面の全ての画素でもよいし、所定間隔の離散的な画素のみでもよい。 As described above, the correction circuit 36 corrects the image by displacing each pixel in the captured image by the displacement vector. The target for setting the displacement vector in the displacement vector map may be all pixels in the captured image plane, or may be only discrete pixels at predetermined intervals.

後者の場合、補正回路36はまず、変位ベクトルが設定されている画素について変位先を求め、それらの画素との位置関係に基づき、残りの画素の変位先を補間により求める。色収差を補正する場合、赤、緑、青の原色ごとに変位ベクトルが異なるため、変位ベクトルマップを3つ準備する。また補正回路36は表示画像のうち、このような画素の変位によって値が決定しない画素については、周囲の画素値を適宜補間して画素値を決定する。 In the latter case, the correction circuit 36 first obtains the displacement destinations of the pixels for which the displacement vector is set, and obtains the displacement destinations of the remaining pixels by interpolation based on the positional relationship with those pixels. When correcting chromatic aberration, the displacement vectors are different for each of the primary colors of red, green, and blue, so three displacement vector maps are prepared. Further, the correction circuit 36 determines the pixel value by appropriately interpolating the surrounding pixel values for the pixel whose value is not determined by the displacement of the pixel in the display image.

なお補正回路36は、別途バッファメモリ38に格納されているUI(User Interface)プレーン画像(あるいはOSD(On Screen Display)プレーン画像とも呼ぶ)を参照し、撮影画像に合成(スーパーインポーズ)してもよい。合成は、変位ベクトルマップによる補正後のUIプレーン画像と、変位ベクトルマップによる補正後の撮影画像の間で行う。UIプレーン画像は、変位ベクトルマップによる補正後の画像をバッファメモリ38にあらかじめ格納しておいてもよいし、UIプレーン画像用の変位ベクトルマップと歪みのないUIプレーン画像をあらかじめ格納しておき、それらを参照したUIプレーン画像の補正を、撮影画像の補正と並列に実施してもよい。 The correction circuit 36 refers to a UI (User Interface) plain image (also referred to as an OSD (On Screen Display) plain image) separately stored in the buffer memory 38, and synthesizes (superimposes) the captured image. May be good. The composition is performed between the UI plane image corrected by the displacement vector map and the captured image corrected by the displacement vector map. As the UI plane image, the image corrected by the displacement vector map may be stored in advance in the buffer memory 38, or the displacement vector map for the UI plane image and the distortion-free UI plane image may be stored in advance. The correction of the UI plane image referring to them may be performed in parallel with the correction of the captured image.

補正回路36は、そのようにして決定した画素値を上の行から順に出力していく。補正回路36がディスプレイコントローラ44にデータを出力する際は、実際には、図示しないハンドシェークコントローラなどを利用し、両者の通信を適切に制御する。すなわち補正回路は、図示しないハンドシェークコントローラを内蔵してもよい。ハンドシェークコントローラは、バッファメモリ38に対して、イメージ信号処理回路42がデータを書き込んでいる位置、バッファメモリ38に格納されている画素量が、撮影画像のうち、表示画像の1行分の画素値を決定するのに必要な量を満たしていること、および、補正回路36がデータを読み出している位置、を常に監視し、データ欠乏、すなわちバッファアンダーランや、データ溢れ、すなわちバッファオーバーランが起きることを防止する。 The correction circuit 36 outputs the pixel values thus determined in order from the upper line. When the correction circuit 36 outputs data to the display controller 44, a handshake controller (not shown) or the like is actually used to appropriately control communication between the two. That is, the correction circuit may include a handshake controller (not shown). In the handshake controller, the position where the image signal processing circuit 42 writes data to the buffer memory 38 and the amount of pixels stored in the buffer memory 38 are the pixel values of one line of the displayed image in the captured image. It constantly monitors that the amount required to determine is met and where the correction circuit 36 is reading data, resulting in data depletion, or buffer underrun, or data overflow, or buffer overrun. To prevent that.

もし、バッファアンダーランやバッファオーバーランが起きてしまった場合は、CPU32に通知する。CPU32は、ユーザへの異常発生の通達や、転送の再開処理を行う。ディスプレイコントローラ44は、送出されたデータを順次電気信号に変換して、適切なタイミングで表示パネル122の画素を駆動させることにより画像を表示させる。 If a buffer underrun or a buffer overrun has occurred, the CPU 32 is notified. The CPU 32 notifies the user of the occurrence of an abnormality and restarts the transfer. The display controller 44 sequentially converts the transmitted data into an electric signal, and drives the pixels of the display panel 122 at an appropriate timing to display an image.

画像解析回路54はCPU32と連携し、撮影画像を解析して所定の情報を取得する。解析結果は入出力インターフェース30を介してコンテンツ処理装置200に送信する。画像合成回路56はCPU32と連携し、第1補正部46により補正された撮影画像に、コンテンツ処理装置200から送信された画像を合成する。合成後の画像はバッファメモリ38に格納され、第2補正部48により補正される。 The image analysis circuit 54 cooperates with the CPU 32 to analyze the captured image and acquire predetermined information. The analysis result is transmitted to the content processing device 200 via the input / output interface 30. The image synthesizing circuit 56 cooperates with the CPU 32 to synthesize an image transmitted from the content processing device 200 with the captured image corrected by the first correction unit 46. The combined image is stored in the buffer memory 38 and corrected by the second correction unit 48.

図6は、本実施の形態のシースルーモードにおける表示処理の手順を説明するための図である。まずイメージ信号処理回路42は、イメージセンサから入力された撮影画像90を上の行から順に処理しバッファメモリ38に格納する。すると補正回路36は、図4で説明したようにして歪みを与えた表示画像92を生成する。ここで補正回路36は、1フレーム分の撮影画像90が全てバッファメモリ38に格納されるのを待たず表示画像92の生成を開始する。 FIG. 6 is a diagram for explaining a procedure of display processing in the see-through mode of the present embodiment. First, the image signal processing circuit 42 processes the captured image 90 input from the image sensor in order from the top line and stores it in the buffer memory 38. Then, the correction circuit 36 generates a distorted display image 92 as described with reference to FIG. Here, the correction circuit 36 starts generating the display image 92 without waiting for all the captured images 90 for one frame to be stored in the buffer memory 38.

撮影画像90のうち、表示画像92の1行分の画素値を決定するのに必要な行数の画素のデータがバッファメモリ38に格納された時点で当該行の描画を開始すれば、表示までのレイテンシをより抑えることができる。例えばあるタイミングで、表示画像92のうちある行94の画素値が決定したら、それに基づく電気信号で表示パネル122の対応する行を駆動させる。以後、画像の下方へ向かい同様の処理を繰り返すことにより、表示画像92全体が表示されることになる。以上はシースルーモードの場合であったが、補正回路36が行う各段階の補正において同様の処理とすることによりそれぞれの遅延時間を抑えることができる。 If the drawing of the line is started when the data of the number of pixels required to determine the pixel value for one line of the display image 92 of the captured image 90 is stored in the buffer memory 38, the line is displayed. Latency can be further suppressed. For example, when the pixel value of a certain row 94 of the display image 92 is determined at a certain timing, the corresponding row of the display panel 122 is driven by an electric signal based on the pixel value. After that, the entire display image 92 is displayed by repeating the same process toward the lower side of the image. The above is the case of the see-through mode, but the delay time of each can be suppressed by performing the same processing in the correction of each stage performed by the correction circuit 36.

図7は、歪みのない画像を加工して表示するまでの時間における、本実施の形態の有意性を説明するための図である。図の横方向は時間経過を表し、補正回路36などによる表示画像の描画時間を実線矢印、表示パネル122への出力時間を破線矢印で示している。また「描画」や「出力」に併記する括弧内の記載は、フレーム番号mの1フレーム分の処理を(m)、フレーム番号mのうちn行目の処理を(m/n)としている。(a)は、1フレーム分の撮影画像が入力されてから表示パネルに出力する態様を比較として示している。 FIG. 7 is a diagram for explaining the significance of the present embodiment in the time until the distortion-free image is processed and displayed. The horizontal direction of the figure represents the passage of time, and the drawing time of the display image by the correction circuit 36 or the like is indicated by a solid line arrow, and the output time to the display panel 122 is indicated by a broken line arrow. Further, in the description in parentheses described together with "drawing" and "output", the processing for one frame of the frame number m is (m), and the processing of the nth line of the frame number m is (m / n). (A) shows a mode in which a captured image for one frame is input and then output to the display panel as a comparison.

具体的には時刻t0から時刻t1にかけて、1フレーム目が描画されるとともにそのデータがメインメモリなどに格納される。時刻t1において、2フレーム目の描画が開始されるとともに、1フレーム目がメインメモリから順次読み出され表示パネル122へ出力される。それらの処理は時刻t2で完了し、続いて3フレーム目が描画されるとともに、2フレーム目が出力される。以後、同じ周期で各フレームが描画、出力される。この場合、1フレーム分の表示画像の描画開始から出力完了までに要する時間は、2フレーム分の出力周期と等しくなる。 Specifically, from time t0 to time t1, the first frame is drawn and the data is stored in the main memory or the like. At time t1, drawing of the second frame is started, and the first frame is sequentially read from the main memory and output to the display panel 122. These processes are completed at time t2, and subsequently the third frame is drawn and the second frame is output. After that, each frame is drawn and output in the same cycle. In this case, the time required from the start of drawing the display image for one frame to the completion of output is equal to the output cycle for two frames.

(b)に示す本実施の形態によれば、1フレーム目の1行目のデータの描画が完了した時点で表示パネル122へ出力する。その間、2行目のデータが描画されるため、1行目のデータに続き、2行目のデータを表示パネル122へ出力できる。これを繰り返していくと、最後(n行目)のデータの描画が完了する時刻t1には、1つ前(n−1行目)のデータの出力までが終わっていることになる。以後のフレームも同様に、描画処理と並行に表示パネル122への出力を進捗させる。 According to the present embodiment shown in (b), the data is output to the display panel 122 when the drawing of the data in the first line of the first frame is completed. During that time, since the data on the second line is drawn, the data on the second line can be output to the display panel 122 following the data on the first line. By repeating this, at the time t1 when the drawing of the last (nth line) data is completed, the output of the data immediately before (n-1th line) is completed. Similarly, in the subsequent frames, the output to the display panel 122 is advanced in parallel with the drawing process.

結果として、1フレーム分の表示画像の描画開始から出力完了までに要する時間は、1フレーム分の出力周期に、1行分のデータの出力時間を加えた値となる。すなわち(a)の態様と比較すると、1フレーム分の出力周期に近いΔtだけ所要時間が短縮される。これにより画像を極めて低遅延で表示できる。 As a result, the time required from the start of drawing the display image for one frame to the completion of output is a value obtained by adding the output time of one line of data to the output cycle for one frame. That is, as compared with the aspect (a), the required time is shortened by Δt, which is close to the output cycle for one frame. As a result, the image can be displayed with extremely low delay.

図8は、補正回路36が撮影画像を補正する処理手順の例を説明するための図である。(a)は撮影画像、(b)は表示画像の平面を示している。撮影画像平面におけるS00、S01、S02・・・は変位ベクトルマップにおいて変位ベクトルを設定する位置を表す。例えば撮影画像平面の水平方向、垂直方向に離散的に(例えば、8画素あるいは16画素ごとなど等間隔に)変位ベクトルを設定する。表示画像平面におけるD00、D01、D02、・・・はそれぞれ、S00、S01、S02、・・・の変位先の位置を表す。図では一例として、S00からD00への変位ベクトル(Δx,Δy)を白抜き矢印で示している。 FIG. 8 is a diagram for explaining an example of a processing procedure in which the correction circuit 36 corrects a captured image. (A) shows a photographed image, and (b) shows a plane of a display image. S00, S01, S02 ... In the captured image plane represent the positions where the displacement vector is set in the displacement vector map. For example, the displacement vectors are set discretely (for example, every 8 pixels or 16 pixels at equal intervals) in the horizontal direction and the vertical direction of the captured image plane. D00, D01, D02, ... In the display image plane represent the positions of the displacement destinations of S00, S01, S02, ..., Respectively. In the figure, as an example, the displacement vector (Δx, Δy) from S00 to D00 is indicated by a white arrow.

補正回路36は、変位ベクトルを設定する画素を頂点とする最小の三角形の単位で、撮影画像を表示画像にマッピングする。例えば撮影画像のS00、S01、S10を頂点とする三角形を、表示画像のD00、D01、D10を頂点とする三角形にマッピングする。ここで三角形の内部の画素は、D00、D01、D10との距離に応じて線形に、あるいはバイリニア、トライリニアなどにより補間した位置に変位させる。そして補正回路36は、バッファメモリ38に格納された、補正前の撮影画像の対応する画素の値を読み出すことにより、表示画像の画素値を決定する。この際、撮影画像上の読み出し先の位置から所定範囲内にある複数の画素の値を、バイリニア、トライリニアなどにより補間することで表示画像の画素値を導出する。 The correction circuit 36 maps the captured image to the display image in the smallest triangular unit having the pixel for which the displacement vector is set as the apex. For example, a triangle having vertices S00, S01, and S10 of the captured image is mapped to a triangle having vertices D00, D01, and D10 of the displayed image. Here, the pixels inside the triangle are displaced linearly according to the distances from D00, D01, and D10, or to the positions interpolated by bilinear, trilinear, or the like. Then, the correction circuit 36 determines the pixel value of the display image by reading the value of the corresponding pixel of the captured image before correction stored in the buffer memory 38. At this time, the pixel values of the display image are derived by interpolating the values of a plurality of pixels within a predetermined range from the position of the read destination on the captured image by bilinear, trilinear, or the like.

これにより補正回路36は、撮影画像の三角形の変位先である三角形の単位で、表示画像をラスタ順に描画していくことができる。解像度を調整する場合も同様に、最小の三角形ごとに画素をマッピングしていけばよい。色収差を補正する場合は、原色ごとに異なる変位ベクトルマップを用いることにより、変位先の三角形の位置や形状が微小量変化する。図9は、本実施の形態において、補正処理に必要なバッファメモリの容量について説明するための図である。同図は最も補正が必要なケースとして、補正後の画像が円形の場合を示している。 As a result, the correction circuit 36 can draw the display images in raster order in units of triangles that are displacement destinations of the triangles in the captured image. Similarly, when adjusting the resolution, the pixels may be mapped for each of the smallest triangles. When correcting chromatic aberration, the position and shape of the displacement destination triangle change by a small amount by using a displacement vector map that is different for each primary color. FIG. 9 is a diagram for explaining the capacity of the buffer memory required for the correction process in the present embodiment. The figure shows the case where the corrected image is circular as the case where the correction is most necessary.

補正前の画像の垂直方向のサイズをh、補正後の画像の半径をr(=h/2)とする。補正によって変位する距離が最も大きいのは、補正前の画像における四隅の画素である。例えば左上の位置S00の画素は、補正によりレンズの径方向に変位し、補正後の画像の円周上の位置D00に表れる。このためS00の画素のデータは、位置D00の画素を描画するまで保持しておく必要がある。S00からD00までの垂直方向の距離w=r−r/21/2は、補正前の画像のサイズhのおよそ15%である。 Let h be the vertical size of the image before correction and r (= h / 2) be the radius of the image after correction. The largest distance displaced by the correction is the pixels at the four corners of the image before correction. For example, the pixel at the upper left position S00 is displaced in the radial direction of the lens by the correction and appears at the position D00 on the circumference of the corrected image. Therefore, it is necessary to retain the data of the pixel at S00 until the pixel at position D00 is drawn. The vertical distance w = r-r / 2 1/2 from S00 to D00 is approximately 15% of the size h of the image before correction.

例えば垂直方向が2160画素の撮影画像の場合、バッファメモリ38にはその15%の、324行分のデータを格納する領域が必要となる。またS00が撮影されてからD00が出力されるまでに要する時間は距離wに比例する。例えばフレームレートを120fpsとすると、撮影から出力までの遅延時間は1.25msecとなる。ただしこれらの値はあくまで最大値であり、一般的にはこれより小さい容量、遅延時間ですむ。また図3の矢印Bの経路と比較すると処理遅延時間を大幅に削減できる。なおバッファメモリ38にはこのほか、補正処理のための領域や、解像度を上げる場合の画素の追加分の領域なども必要となる。 For example, in the case of a captured image having 2160 pixels in the vertical direction, the buffer memory 38 needs an area for storing data for 324 lines, which is 15% of the captured image. The time required from the shooting of S00 to the output of D00 is proportional to the distance w. For example, if the frame rate is 120 fps, the delay time from shooting to output is 1.25 msec. However, these values are only maximum values, and generally smaller capacity and delay time are required. Further, the processing delay time can be significantly reduced as compared with the route shown by the arrow B in FIG. In addition, the buffer memory 38 also requires an area for correction processing and an area for adding pixels when increasing the resolution.

いずれにしろ、本実施の形態では撮影画像の1フレーム分のデータを取得する前に、順次補正処理を施し表示パネル122に出力するため、極めて小さい遅延時間での表示が可能となる。また必要なメモリ容量を1フレーム分のデータサイズより格段に小さくできるため、SRAM(Static Random Access Memory)など小容量のバッファメモリを補正回路36から近い位置に搭載することが可能となり、データ伝送のための時間や消費電力を抑えることができる。 In any case, in the present embodiment, the data for one frame of the captured image is sequentially corrected and output to the display panel 122 before being acquired, so that the display can be performed with an extremely small delay time. In addition, since the required memory capacity can be significantly smaller than the data size for one frame, a small-capacity buffer memory such as SRAM (Static Random Access Memory) can be installed at a position close to the correction circuit 36, which enables data transmission. It is possible to reduce the time and power consumption for this.

次に、コンテンツ処理装置200から送信された画像と撮影画像を合成する際、撮影画像の処理および合成を、画像処理用集積回路120内で実現する手法について説明する。図10は、ヘッドマウントディスプレイが内蔵する画像処理装置128の機能ブロックの構成を、コンテンツ処理装置200とともに示している。図示する機能ブロックは、ハードウェア的には、図5に示した画像処理用集積回路120などの構成で実現でき、ソフトウェア的には、記録媒体などからメインメモリなどにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。 Next, when synthesizing the captured image and the image transmitted from the content processing device 200, a method of realizing the processing and synthesizing of the captured image in the integrated circuit 120 for image processing will be described. FIG. 10 shows the configuration of the functional block of the image processing device 128 built in the head-mounted display together with the content processing device 200. The functional block shown in the figure can be realized by the configuration of the integrated circuit 120 for image processing shown in FIG. 5 in terms of hardware, and the data input function loaded from a recording medium or the like into the main memory or the like in terms of software. It is realized by a program that exerts various functions such as data retention function, image processing function, and communication function.

したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。なおシステム全体の構成としては図3で示したのと同様でよい。この例で画像処理装置128は、信号処理部150、画像解析部152、超解像処理部154、158、第1補正部156、第3補正部159、合成部160、第2補正部162、画像表示制御部164を備える。 Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various ways by hardware only, software only, or a combination thereof, and is not limited to any of them. The configuration of the entire system may be the same as that shown in FIG. In this example, the image processing device 128 includes a signal processing unit 150, an image analysis unit 152, a super-resolution processing unit 154, 158, a first correction unit 156, a third correction unit 159, a synthesis unit 160, and a second correction unit 162. An image display control unit 164 is provided.

信号処理部150は図5のイメージ信号処理回路42で実現され、ステレオカメラ110のイメージセンサから撮影画像のデータを取得し、必要な処理を施す。画像解析部152は図5のCPU32、画像解析回路54、入出力インターフェース30で実現され、撮影画像を解析し所定の情報を取得してコンテンツ処理装置200に送信する。例えば左右の撮影画像を用いてステレオマッチングにより被写体の距離を求め、それを画像平面に画素値として表したデプスマップを生成する。SLAMによりヘッドマウントディスプレイの位置や姿勢を取得してもよい。 The signal processing unit 150 is realized by the image signal processing circuit 42 of FIG. 5, acquires captured image data from the image sensor of the stereo camera 110, and performs necessary processing. The image analysis unit 152 is realized by the CPU 32, the image analysis circuit 54, and the input / output interface 30 of FIG. 5, analyzes the captured image, acquires predetermined information, and transmits it to the content processing device 200. For example, the distance between the subjects is obtained by stereo matching using the left and right captured images, and a depth map is generated in which the distance is expressed as a pixel value on the image plane. The position and orientation of the head-mounted display may be acquired by SLAM.

このほか、画像解析の内容として様々に考えられることは当業者には理解されるところである。ただし場合によっては、信号処理部150が処理した撮影画像のデータそのものをコンテンツ処理装置200に送信してもよい。この場合、信号処理部150は図5の入出力インターフェース30を含む。また画像解析部152による解析結果やヘッドマウントディスプレイ100が内蔵する図示しないモーションセンサの計測値は、上述した画像変形処理にも用いられる。すなわちヘッドマウントディスプレイ100内部での処理やコンテンツ処理装置200とのデータ転送に要した時間におけるユーザの視線の動きをそれらのパラメータに基づき特定し、変位ベクトルマップに動的に反映させる。 In addition, it is understood by those skilled in the art that various things can be considered as the content of image analysis. However, depending on the case, the captured image data itself processed by the signal processing unit 150 may be transmitted to the content processing device 200. In this case, the signal processing unit 150 includes the input / output interface 30 of FIG. Further, the analysis result by the image analysis unit 152 and the measurement value of the motion sensor (not shown) built in the head-mounted display 100 are also used for the above-mentioned image deformation processing. That is, the movement of the user's line of sight during the time required for processing inside the head-mounted display 100 and data transfer with the content processing device 200 is specified based on these parameters and dynamically reflected in the displacement vector map.

超解像処理部154は、図5のCPU32、超解像回路52により実現され、撮影画像を所定の手法で高精細化する超解像処理を実施する。例えば撮影画像を画像平面の水平および垂直方向に、1画素より小さい幅でずらした画像と、ずらす前の画像とを合成することにより鮮明化する。このほか超解像には様々な手法が提案されており、そのいずれを採用してもよい。 The super-resolution processing unit 154 is realized by the CPU 32 and the super-resolution circuit 52 of FIG. 5, and performs super-resolution processing for improving the definition of the captured image by a predetermined method. For example, the captured image is sharpened by synthesizing an image shifted in the horizontal and vertical directions of the image plane by a width smaller than one pixel and an image before shifting. In addition, various methods have been proposed for super-resolution, and any of them may be adopted.

超解像処理部158は、コンテンツ処理装置200から送信された画像に対し、超解像処理部154と同様の超解像処理を施す。ここでコンテンツ処理装置200から送信された画像とは、撮影画像に合成すべき画像のほか、合成せずに表示する画像であってもよい。コンテンツ処理装置200は、ヘッドマウントディスプレイ100から送信されたデプスマップ等を用いて画像を描画する。これにより、ステレオカメラ110の撮像面と被写体の位置や姿勢の関係、ひいてはユーザの顔と被写体の位置や向きの関係に応じた画像を描画できる。 The super-resolution processing unit 158 performs the same super-resolution processing as the super-resolution processing unit 154 on the image transmitted from the content processing device 200. Here, the image transmitted from the content processing device 200 may be an image to be combined with the captured image or an image to be displayed without being combined. The content processing device 200 draws an image using a depth map or the like transmitted from the head-mounted display 100. As a result, it is possible to draw an image according to the relationship between the image pickup surface of the stereo camera 110 and the position and posture of the subject, and eventually the relationship between the user's face and the position and orientation of the subject.

撮影画像に合成すべき画像を描画する場合、例えば仮想オブジェクトを適切な位置および姿勢で描画し、その他の領域を所定の色で塗りつぶした画像を生成する。これにより、一般的なクロマキー技術により撮影画像の適切な位置に仮想オブジェクトを重畳表示できる。あるいは透明度を示すα値を利用し、仮想オブジェクト以外の領域はα=0としたα画像を同時に生成してもよい。この場合、撮影画像とのアルファブレンド処理により適切な位置に仮想オブジェクトを重畳表示できる。 When drawing an image to be combined with a captured image, for example, a virtual object is drawn at an appropriate position and orientation, and an image in which other areas are filled with a predetermined color is generated. As a result, the virtual object can be superimposed and displayed at an appropriate position of the captured image by a general chroma key technique. Alternatively, an α value indicating transparency may be used to simultaneously generate an α image with α = 0 in a region other than the virtual object. In this case, the virtual object can be superimposed and displayed at an appropriate position by the alpha blending process with the captured image.

第1補正部156は、図5のCPU32、第1補正部46で実現され、図4のS14のように撮影画像を補正して、接眼レンズのための歪みを有する表示画像を生成する。ただしコンテンツ処理装置200から送信された画像を合成する場合、第1補正部156では色収差補正を行わない。すなわち、全ての原色について同じ歪みを与える。表示パネルを見る人間の目の特性を考慮し、緑色に対し生成しておいた変位ベクトルマップを用いて、赤、緑、青の全ての画像を補正する。加えてイメージセンサが取得するRAW画像がベイヤ配列の場合、最も画素密度の高い緑色を用いることができる。 The first correction unit 156 is realized by the CPU 32 and the first correction unit 46 of FIG. 5, and corrects the captured image as shown in S14 of FIG. 4 to generate a display image having distortion for the eyepiece. However, when synthesizing the images transmitted from the content processing device 200, the first correction unit 156 does not perform chromatic aberration correction. That is, the same distortion is given to all primary colors. Considering the characteristics of the human eye looking at the display panel, all the red, green, and blue images are corrected using the displacement vector map generated for green. In addition, when the RAW image acquired by the image sensor is a Bayer array, green having the highest pixel density can be used.

撮影画像を別の画像と合成せずに表示するシースルーモードの場合は、上述のように第1補正部156において、一度に色収差補正まで実施した表示画像を生成してよい。すなわち赤、緑、青のそれぞれに対し準備した変位ベクトルマップを用いて、各色の撮影画像を補正する。第3補正部159は図5のCPU32、第3補正部50で実現され、コンテンツ処理装置200から送信された画像が、あらかじめ接眼レンズのための歪みを有しない場合は、その画像に対し、第1補正部156と同様の補正処理を施す。なお超解像処理部158が超解像処理を実施した画像に対し第3補正部159が補正してもよいし、第3補正部159が補正した画像に対し超解像処理部158が超解像処理を実施してもよい。 In the case of the see-through mode in which the captured image is displayed without being combined with another image, the first correction unit 156 may generate a display image in which the chromatic aberration is corrected at once as described above. That is, the captured images of each color are corrected by using the displacement vector maps prepared for each of red, green, and blue. The third correction unit 159 is realized by the CPU 32 and the third correction unit 50 of FIG. 5, and if the image transmitted from the content processing device 200 does not have distortion for the eyepiece in advance, the third correction unit 159 is the third correction unit 159. 1 The same correction process as that of the correction unit 156 is performed. The third correction unit 159 may correct the image subjected to the super-resolution processing by the super-resolution processing unit 158, or the super-resolution processing unit 158 may superimpose the image corrected by the third correction unit 159. Resolution processing may be carried out.

合成部160は図5のCPU32と画像合成回路56により実現され、第1補正部156により補正された撮影画像に、コンテンツ処理装置200から送信され超解像処理が施された画像を合成する。上述のとおりクロマキー合成を前提とした画像の場合、所定の色に塗りつぶされた周囲の領域の画素を、撮影画像の画素と入れ替える。α画像が同時に送信された場合、各画素のα値を用いて一般的なアルファブレンド処理により合成する。 The synthesizing unit 160 is realized by the CPU 32 and the image synthesizing circuit 56 of FIG. 5, and synthesizes an image transmitted from the content processing device 200 and subjected to super-resolution processing to the captured image corrected by the first correction unit 156. As described above, in the case of an image premised on chroma key composition, the pixels of the surrounding area filled with a predetermined color are replaced with the pixels of the captured image. When α images are transmitted at the same time, they are combined by a general alpha blend process using the α value of each pixel.

コンテンツ処理装置200から、合成せずに表示させる画像が送信された場合、合成部160は送信された画像のデータをそのまま第2補正部162に供給してよい。ここで「合成せずに表示させる画像」とは、撮影画像と合成しない画像や、コンテンツ処理装置200において撮影画像と合成済みの画像である。第2補正部162は図5のCPU32、第2補正部48で実現され、合成部160から入力された画像を補正する。ただし第2補正部162は、表示画像に対しなすべき補正のうち未実施の補正、具体的には色収差の補正のみを実施する。 When an image to be displayed without compositing is transmitted from the content processing device 200, the compositing unit 160 may supply the transmitted image data to the second correction unit 162 as it is. Here, the "image to be displayed without compositing" is an image that is not combined with the captured image or an image that has been combined with the captured image in the content processing device 200. The second correction unit 162 is realized by the CPU 32 and the second correction unit 48 of FIG. 5, and corrects the image input from the composition unit 160. However, the second correction unit 162 performs only the correction that has not been performed, specifically the correction of chromatic aberration, among the corrections to be made for the displayed image.

従来技術において、コンテンツ処理装置200で合成までなされた表示画像をヘッドマウントディスプレイ100に送信して表示する場合、歪みのない合成画像を生成したうえで、接眼レンズのための補正とともに色収差補正を行うのが一般的である。一方、本実施の形態では、撮影画像とそれに合成すべき画像のデータ経路が異なるため、補正処理を2段階に分離する。 In the prior art, when a display image that has been composited by the content processing device 200 is transmitted to the head-mounted display 100 for display, a composite image without distortion is generated, and then correction for an eyepiece and chromatic aberration correction are performed. Is common. On the other hand, in the present embodiment, since the data paths of the captured image and the image to be combined with the captured image are different, the correction process is separated into two stages.

すなわちコンテンツ処理装置200から送信される画像と撮影画像に対し、接眼レンズに対応する共通の歪みを与えておき、合成後に色別に補正する。撮影画像に対して第1補正部156が、緑色の変位ベクトルマップを用いて全原色の画像を補正する場合、第3補正部159はコンテンツ処理装置200から送信された画像に対し、同じ緑色に対する補正を実施する。 That is, the image transmitted from the content processing device 200 and the captured image are given a common distortion corresponding to the eyepiece, and are corrected for each color after composition. When the first correction unit 156 corrects the image of all primary colors using the green displacement vector map for the captured image, the third correction unit 159 applies the same green color to the image transmitted from the content processing device 200. Make corrections.

そして第2補正部162では、合成後の画像のうち赤、青の画像に対し、さらに必要な補正を施して画像を完成させる。人の視感度が最も高い波長帯である緑を基準として最初に補正を行ったうえで拡大縮小、超解像、合成などを行い、その後に赤と青の収差を補正することにより、色にじみや輪郭の異常が視認されにくくなる。ただし補正に用いる色の順序を限定する趣旨ではない。 Then, the second correction unit 162 further performs necessary corrections on the red and blue images of the combined image to complete the image. Color bleeding is performed by first correcting green, which is the wavelength band with the highest human visibility, and then scaling, super-resolution, and compositing, and then correcting red and blue aberrations. And contour abnormalities are less visible. However, the purpose is not to limit the order of colors used for correction.

なおコンテンツ処理装置200から、合成せずに表示させる画像が送信される場合、コンテンツ処理装置200において表示に必要な補正が全て施されていれば、第2補正部162は補正処理を施さなくてよい。ただし未実施の補正があれば、第2補正部162が最終的な補正を実施してもよい。またシースルーモードの場合、上述のとおり第1補正部156において必要な補正を施すことにより、合成部160の合成処理および第2補正部162の補正処理を省略する。 When the content processing device 200 transmits an image to be displayed without compositing, the second correction unit 162 does not perform the correction processing if all the corrections necessary for the display are applied in the content processing device 200. Good. However, if there is an unimplemented correction, the second correction unit 162 may carry out the final correction. Further, in the case of the see-through mode, the synthesis process of the synthesis unit 160 and the correction process of the second correction unit 162 are omitted by performing the necessary correction in the first correction unit 156 as described above.

CPU32は、シースルーモードか、撮影画像と合成する画像か、撮影画像と合成させない画像か、によって、各処理回路がなすべき処理を切り替える。これにより、シースルーモードか否かによらず撮影画像のデータ経路を、ヘッドマウントディスプレイ100内で完結させることができる。また色収差の補正を合成後に残しておくことにより、合成の境界線を明確に定義できる。 The CPU 32 switches the processing to be performed by each processing circuit depending on whether it is a see-through mode, an image to be combined with the captured image, or an image not to be combined with the captured image. As a result, the data path of the captured image can be completed in the head-mounted display 100 regardless of whether or not it is in the see-through mode. Further, by leaving the correction of chromatic aberration after synthesis, the boundary line of synthesis can be clearly defined.

すなわち色収差を補正した後に合成すると、クロマキー用の画像やα画像で設定した境界線が原色によっては誤差を含み、合成後の輪郭に色にじみを生じさせる。色ずれのない状態で合成したあとに、色収差補正により画素を微小量ずらすことにより、輪郭ににじみのない表示画像を生成できる。画像の拡大縮小、超解像、合成などの処理では一般的に、バイリニアやトライリニアなどのフィルター処理が用いられる。色収差を補正した後にこれらのフィルター処理を実施すると、色収差補正の結果がミクロなレベルで破壊され、表示時に色にじみや異常な輪郭が発生する。第2補正部162の処理を表示の直前とすることで、そのような問題を回避できる。画像表示制御部164は図5のディスプレイコントローラ44で実現され、そのようにして生成された表示画像を順次、表示パネル122に出力する。 That is, when the image is combined after the chromatic aberration is corrected, the boundary line set in the chroma key image or the α image contains an error depending on the primary color, and the contour after the composition causes color bleeding. A display image without bleeding on the contour can be generated by shifting the pixels by a small amount by chromatic aberration correction after synthesizing without color shift. Filter processing such as bilinear or trilinear is generally used in processing such as image scaling, super-resolution, and composition. If these filtering processes are performed after the chromatic aberration is corrected, the result of the chromatic aberration correction is destroyed at a micro level, and color bleeding and abnormal contours occur at the time of display. By setting the processing of the second correction unit 162 immediately before the display, such a problem can be avoided. The image display control unit 164 is realized by the display controller 44 of FIG. 5, and the display images thus generated are sequentially output to the display panel 122.

超解像処理部154、158、第1補正部156、第3補正部159、合成部160、第2補正部162、画像表示制御部164の処理は全て、画像フレームの全領域のデータを取得するのを待たずに実施できる。したがってシースルーモードについて上述したのと同様、画像平面の上の行から順に、画素値が決定したら即時に後段の処理に送ることにより、低い遅延時間での表示が可能となる。 All the processing of the super-resolution processing unit 154, 158, the first correction unit 156, the third correction unit 159, the composition unit 160, the second correction unit 162, and the image display control unit 164 acquires the data of the entire area of the image frame. It can be done without waiting for it to be done. Therefore, as described above for the see-through mode, it is possible to display with a low delay time by sending the pixel values to the subsequent processing immediately after the pixel values are determined in order from the line on the image plane.

図11は、色収差補正として変位ベクトルに含める要素の例を説明するための図である。図示するように表示パネル122は、赤(R)、緑(G)、青(B)の発光素子の組み合わせにより画素を形成する。図では1つの画素70を拡大して示している。ただし発光素子の配列は表示パネルによって様々である。表示画像のデータが表す画素値は、画素70の領域全体に対し与えられる赤、緑、青の輝度値であるが、厳密には当該画素領域の中心72における像の色を表す。 FIG. 11 is a diagram for explaining an example of an element included in the displacement vector as chromatic aberration correction. As shown in the figure, the display panel 122 forms pixels by a combination of red (R), green (G), and blue (B) light emitting elements. In the figure, one pixel 70 is enlarged and shown. However, the arrangement of the light emitting elements varies depending on the display panel. The pixel value represented by the data of the display image is a brightness value of red, green, and blue given to the entire region of the pixel 70, but strictly speaking, it represents the color of the image at the center 72 of the pixel region.

しかし図示する配列の場合、赤の輝度は本来、画素領域の中心72より微小量、左にずれた位置74での像の色によって定まる。したがって、表示画像のうち赤の成分の画像を微小量右にずらすことにより、赤の輝度に左側の画素の値も反映させる。同様に、青の輝度は本来、画素領域の中心72より微小量、右にずれた位置76での像の色によって定まる。したがって、表示画像のうち青の成分の画像を微小量左にずらすことにより、青の輝度に右側の画素の値も反映させる。 However, in the case of the illustrated arrangement, the brightness of red is originally determined by the color of the image at the position 74 shifted to the left by a minute amount from the center 72 of the pixel region. Therefore, by shifting the image of the red component in the display image to the right by a small amount, the value of the pixel on the left side is also reflected in the brightness of red. Similarly, the brightness of blue is originally determined by the color of the image at the position 76 shifted to the right by a small amount from the center 72 of the pixel region. Therefore, by shifting the image of the blue component of the displayed image to the left by a small amount, the value of the pixel on the right side is also reflected in the brightness of blue.

これにより、画像平面上の位置と、そこに表れる色の情報をサブピクセル単位で正確に表すことができる。上述のように画素を構成する発光素子の色の配列は表示パネルによって様々であるため、当該配列を踏まえて変位ベクトルを算出する。色収差の補正としてはこのほか、式1を用いたレンズ歪みのための補正において、接眼レンズの歪み係数を色ごとに異ならせたときの変位の差分を含める。すなわち光の波長による屈折率の差に依存して、レンズに対する軸上色収差や倍率色収差が発生し像に色ずれを発生させる。変位ベクトルにはこの色ずれを補正するための成分を含める。 As a result, the position on the image plane and the color information appearing there can be accurately represented in sub-pixel units. Since the color arrangement of the light emitting elements constituting the pixels varies depending on the display panel as described above, the displacement vector is calculated based on the arrangement. In addition to the correction of chromatic aberration, in the correction for lens distortion using Equation 1, the difference in displacement when the distortion coefficient of the eyepiece is different for each color is included. That is, depending on the difference in the refractive index depending on the wavelength of light, axial chromatic aberration and chromatic aberration of magnification with respect to the lens occur, causing color shift in the image. The displacement vector includes a component for correcting this color shift.

なおヘッドマウントディスプレイ100が備える接眼レンズは一般的な凸レンズ以外にフレネルレンズでもよい。フレネルレンズは薄型化が可能な反面、解像度の低下や同心円状に視野周辺部にいくほど画像歪みが発生しやすく、輝度が非線形に変わり得る。この非線形な同心円状の輝度変化は、赤、緑、青のそれぞれに別の特性を持ち得る(例えば”ディストーション”、エドモンド・オプティクス技術資料、[online]、インターネットURL:https://www.edmundoptics.jp/resources/application-notes/imaging/distortion/参照)。そこで変位ベクトルには、これを色ごとに補正する成分を含めてもよい。 The eyepiece included in the head-mounted display 100 may be a Fresnel lens in addition to a general convex lens. While the Fresnel lens can be made thinner, image distortion is more likely to occur as the resolution decreases and concentrically toward the periphery of the field of view, and the brightness can change non-linearly. This non-linear concentric luminance change can have different characteristics for red, green, and blue (eg, "distortion", Edmond Optics Technical Documentation, [online], Internet URL: https://www.edmundoptics. See .jp / resources / application-notes / imaging / distortion /). Therefore, the displacement vector may include a component that corrects this for each color.

また表示パネル122として液晶パネルを採用した場合、高解像度化が可能な反面、反応速度が遅い。有機ELパネルを採用した場合は反応速度が速い反面、高解像度化が難しく、また黒色領域とその周辺で色にじみが発生するBlack Smearingと呼ばれる現象が生じ得る。補正回路36は上述したレンズ歪みに加え、このような接眼レンズや表示パネルによる様々な悪影響を解消するように補正を行ってもよい。この場合、補正回路36は接眼レンズの特性とともに表示パネル122の特性を内部で保持する。例えば液晶パネルの場合、補正回路36はフレーム間に黒い画像を挿入することにより液晶をリセットし、反応速度を向上させる。また有機ELパネルの場合、補正回路36は輝度値や、ガンマ補正におけるガンマ値にオフセットをかけBlack Smearingによる色にじみを目立ちにくくする。 When a liquid crystal panel is used as the display panel 122, the resolution can be increased, but the reaction speed is slow. When an organic EL panel is used, the reaction speed is high, but it is difficult to increase the resolution, and a phenomenon called Black Smearing, in which color bleeding occurs in and around the black region, may occur. In addition to the lens distortion described above, the correction circuit 36 may perform correction so as to eliminate such various adverse effects of the eyepiece and the display panel. In this case, the correction circuit 36 internally retains the characteristics of the display panel 122 as well as the characteristics of the eyepiece. For example, in the case of a liquid crystal panel, the correction circuit 36 resets the liquid crystal by inserting a black image between the frames to improve the reaction speed. Further, in the case of the organic EL panel, the correction circuit 36 offsets the luminance value and the gamma value in the gamma correction to make the color bleeding due to Black Smearing less noticeable.

図12は、変位ベクトルマップ用メモリ40に格納するデータを模式的に示している。(a)に示す変位ベクトルマップ用メモリ40aは、赤、緑、青に対する変位ベクトルマップ80を格納する。この変位ベクトルマップ80は、撮影画像から表示画像(あるいはその左右の領域の画像)への画素の変位を表す。第1補正部156は、シースルーモードにおいてそれらの変位ベクトルマップ80を参照し、撮影画像の赤、緑、青の成分の画像をそれぞれ補正して表示画像を生成する。 FIG. 12 schematically shows the data stored in the displacement vector map memory 40. The displacement vector map memory 40a shown in (a) stores the displacement vector map 80 for red, green, and blue. The displacement vector map 80 represents the displacement of pixels from a captured image to a display image (or images in the regions to the left and right of the captured image). The first correction unit 156 refers to the displacement vector maps 80 in the see-through mode, corrects the images of the red, green, and blue components of the captured image, respectively, and generates a display image.

さらに変位ベクトルマップ用メモリ40aには、赤の変位ベクトルから緑の変位ベクトルを減算した赤用の差分ベクトル、青の変位ベクトルから緑の変位ベクトルを減算した青用の差分ベクトルを、画像平面に表した差分ベクトルマップ82を格納しておく。コンテンツ処理装置200からの画像を合成する場合、第1補正部156、第3補正部159は、変位ベクトルマップ80のうち緑の変位ベクトルマップを参照して、撮影画像の赤、緑、青の成分の画像を補正する。 Further, in the displacement vector map memory 40a, a difference vector for red obtained by subtracting the green displacement vector from the red displacement vector and a difference vector for blue obtained by subtracting the green displacement vector from the blue displacement vector are placed on the image plane. The represented difference vector map 82 is stored. When synthesizing the images from the content processing device 200, the first correction unit 156 and the third correction unit 159 refer to the green displacement vector map of the displacement vector map 80 to display the red, green, and blue images of the captured image. Correct the image of the component.

そして第2補正部162は、合成後の画像の赤および青の成分の画像を、赤用および青用の差分ベクトルマップを参照してそれぞれ補正することにより、最終的な表示画像を生成する。ただし色収差補正は赤、緑、青の画像が適切な分だけ相対的にずれていればよいため、第1補正部156が補正する際に参照する変位ベクトルマップの色は限定されない。そして差分ベクトルマップは、当該色以外の2色に対し生成すればよい。 Then, the second correction unit 162 generates a final display image by correcting the images of the red and blue components of the combined image with reference to the difference vector maps for red and blue, respectively. However, since the chromatic aberration correction requires that the red, green, and blue images are relatively displaced by an appropriate amount, the color of the displacement vector map referred to when the first correction unit 156 corrects is not limited. Then, the difference vector map may be generated for two colors other than the relevant color.

(b)に示す変位ベクトルマップ用メモリ40bは、変位ベクトルマップとしては緑の変位ベクトルマップ84のみを格納する点が(a)と異なる。この場合、シースルーモードにおいて第1補正部156は、まず、これから処理する画素の補正に必要な、緑用の変位ベクトルマップ84の一部と、それに対応する赤用および青用の差分ベクトルマップ86の一部も参照し、赤、緑、青がそろった変位ベクトルマップ80の一部相当を動的に生成する。そして第1補正部156は、動的に生成した変位ベクトル値に基づいて画像の補正を行う。 The displacement vector map memory 40b shown in (b) is different from (a) in that only the green displacement vector map 84 is stored as the displacement vector map. In this case, in the see-through mode, the first correction unit 156 first determines a part of the displacement vector map 84 for green and the corresponding difference vector maps 86 for red and blue, which are necessary for correcting the pixels to be processed. A part of the displacement vector map 80 in which red, green, and blue are aligned is dynamically generated with reference to a part of. Then, the first correction unit 156 corrects the image based on the dynamically generated displacement vector value.

もしくは、シースルーモードにおいて第1補正部156は、まず、変位ベクトルマップ84を参照して、撮影画像の赤、緑、青の成分の画像を補正する。そして第1補正部156は、補正後の画像のうち赤および青の成分の画像を、赤用および青用の差分ベクトルマップ86を参照してそれぞれ補正することにより、最終的な表示画像を生成する。ただしこの場合も各マップの色は限定されない。(b)は(a)の構成よりデータ量を削減でき、メモリ容量を節約できる。 Alternatively, in the see-through mode, the first correction unit 156 first corrects the image of the red, green, and blue components of the captured image with reference to the displacement vector map 84. Then, the first correction unit 156 generates a final display image by correcting the images of the red and blue components of the corrected image with reference to the difference vector map 86 for red and blue, respectively. To do. However, even in this case, the color of each map is not limited. In (b), the amount of data can be reduced as compared with the configuration of (a), and the memory capacity can be saved.

次に、以上の構成によって実現できるヘッドマウントディスプレイの動作について説明する。図13は、ヘッドマウントディスプレイが撮影画像などを表示させる際の処理手順を示すフローチャートである。なお図では一連の手順を直列的に示しているが、実際には上述のとおり前段での1フレーム分の処理の終了を待たずに次の処理を開始する。結果として各処理は異なる画素列に対し並列に実施される。 Next, the operation of the head-mounted display that can be realized by the above configuration will be described. FIG. 13 is a flowchart showing a processing procedure when the head-mounted display displays a captured image or the like. Although the series of procedures are shown in series in the figure, the next process is actually started without waiting for the end of the process for one frame in the previous stage as described above. As a result, each process is performed in parallel for different pixel sequences.

まずヘッドマウントディスプレイ100は、表示画像の元となる画像を取得する(S20)。ここで元の画像とは、ステレオカメラ110による撮影画像および、コンテンツ処理装置200から送信された画像の少なくともいずれかを含む。前者は、RAW画像をデモザイク処理した画像であり、カメラのレンズ歪みを補正する前の状態とする。後者は、ヘッドマウントディスプレイ100の接眼レンズのための歪みを与えた画像でも、歪みが与えられていない画像でもよい。 First, the head-mounted display 100 acquires an image that is the source of the displayed image (S20). Here, the original image includes at least one of an image captured by the stereo camera 110 and an image transmitted from the content processing device 200. The former is an image obtained by demosaicing a RAW image, and is in a state before correcting the lens distortion of the camera. The latter may be a distorted image for the eyepiece of the head-mounted display 100 or an undistorted image.

次に超解像処理部154、158は適宜、元の画像に超解像処理を施す(S22)。ただし超解像処理の必要がなければ処理を省略してもよい。シースルーモードの場合(S24のY)、第1補正部156は赤、緑、青に対し作成しておいた変位ベクトルマップを用い、撮影画像の赤、緑、青の成分の画像をそれぞれ補正する(S26)。そして第1補正部156は、画素値の決定とともに画像平面の上の行から順に、表示パネル122へデータを出力していく(S36)。 Next, the super-resolution processing units 154 and 158 appropriately perform super-resolution processing on the original image (S22). However, if super-resolution processing is not necessary, the processing may be omitted. In the case of the see-through mode (Y in S24), the first correction unit 156 uses the displacement vector maps created for red, green, and blue to correct the images of the red, green, and blue components of the captured image, respectively. (S26). Then, the first correction unit 156 outputs data to the display panel 122 in order from the line on the image plane together with the determination of the pixel value (S36).

これにより撮影画像が即座に、適切な形式で表示される。一方、シースルーモード以外であり(S24のN)、コンテンツ処理装置200から送信された画像と撮影画像を合成する場合(S28のY)、第1補正部156は撮影画像の赤、緑、青の成分の画像を、緑に対し作成しておいた変位ベクトルマップを用いて補正する(S30)。また第3補正部159も必要に応じて、コンテンツ処理装置200から送信された画像に対し同様の補正を行う。そして合成部160は、コンテンツ処理装置200から送信された画像と撮影画像を合成する(S32)。 As a result, the captured image is immediately displayed in an appropriate format. On the other hand, when the mode is other than the see-through mode (N in S24) and the image transmitted from the content processing device 200 and the captured image are combined (Y in S28), the first correction unit 156 determines the red, green, and blue of the captured image. The image of the component is corrected using the displacement vector map created for green (S30). Further, the third correction unit 159 also performs the same correction on the image transmitted from the content processing device 200, if necessary. Then, the compositing unit 160 synthesizes the captured image and the image transmitted from the content processing device 200 (S32).

続いて第2補正部162は、赤用および青用の差分ベクトルマップを用いて、合成画像のうち赤および青の成分の画像をそれぞれ補正する(S34)。コンテンツ処理装置200から送信された画像に撮影画像を合成しない場合は、送信された画像に必要な補正が施してあればS30〜S34の処理を省略できる(S28のN)。ただし全色成分に共通の歪みが与えられている場合は、S34において差分ベクトルマップを用いて赤成分の画像と青成分の画像を補正する。そして第2補正部162は、画素値の決定とともに画像平面の上の行から順に、表示パネル122へデータを出力していく(S36)。 Subsequently, the second correction unit 162 corrects the images of the red and blue components of the composite image, respectively, using the difference vector maps for red and blue (S34). When the captured image is not combined with the image transmitted from the content processing device 200, the processing of S30 to S34 can be omitted if the transmitted image is corrected as necessary (N in S28). However, when a common distortion is given to all the color components, the image of the red component and the image of the blue component are corrected by using the difference vector map in S34. Then, the second correction unit 162 outputs data to the display panel 122 in order from the line on the image plane together with the determination of the pixel value (S36).

なおこれまでの説明は、画像処理装置128内部での処理に着目していたが、クラウドサーバなどのコンテンツ処理装置200において圧縮符号化されストリーミング転送された画像のデータを、画像処理装置128が復号伸張する際にも、同様に処理を進捗させてよい。すなわちコンテンツ処理装置200および画像処理装置128は、フレーム平面を分割してなる単位領域ごとに圧縮符号化、復号伸張、動き補償を行ってよい。 Although the description so far has focused on the processing inside the image processing device 128, the image processing device 128 decodes the data of the image compressed and encoded by the content processing device 200 such as a cloud server and stream-transferred. When decompressing, the process may be advanced in the same manner. That is, the content processing device 200 and the image processing device 128 may perform compression coding, decoding / decompression, and motion compensation for each unit region formed by dividing the frame plane.

ここで単位領域は、例えば画素の1行分、2行分など、所定行数ごとに横方向に分割してなる領域、あるいは、16×16画素、64×64画素など、縦横双方向に分割してなる矩形領域などとする。コンテンツ処理装置200および画像処理装置128はそれぞれ、単位領域分の処理対象のデータが取得される都度、圧縮符号化処理および復号伸張処理を開始し、処理後のデータを当該単位領域ごとに出力する。これにより、コンテンツ処理装置200からのデータ送信時間を含め、表示までの遅延時間をより短縮させることができる。 Here, the unit area is divided in the horizontal direction for each predetermined number of lines, for example, one line or two lines of pixels, or divided in both vertical and horizontal directions such as 16 × 16 pixels and 64 × 64 pixels. It is a rectangular area formed by. Each of the content processing device 200 and the image processing device 128 starts compression coding processing and decoding / decompression processing each time data to be processed for a unit area is acquired, and outputs the processed data for each unit area. .. As a result, the delay time until display can be further shortened, including the data transmission time from the content processing device 200.

以上述べた本実施の形態によれば、カメラを備えたヘッドマウントディスプレイにおいて、コンテンツ処理装置から送信された画像を表示させる経路と別に、撮影画像をヘッドマウントディスプレイ内で処理して表示させる経路を設ける。これによりコンテンツの画像を表示していない期間などに、容易に低遅延の撮影画像を表示できる。結果として、ヘッドマウントディスプレイを装着したままでも、装着していないときと同様に周囲の状況を確認することができ、利便性、安全性を高めることができる。 According to the present embodiment described above, in the head-mounted display provided with the camera, a path for processing and displaying the captured image in the head-mounted display is provided separately from the path for displaying the image transmitted from the content processing device. Provide. As a result, it is possible to easily display the captured image with low delay during the period when the image of the content is not displayed. As a result, even when the head-mounted display is attached, the surrounding situation can be confirmed as in the case where the head-mounted display is not attached, and convenience and safety can be improved.

また本実施の形態では、カメラのレンズによる歪みの除去、接眼レンズのための歪みの付加、解像度の調整、色収差補正など、必要な補正要素による画素の変位を画像平面に表した変位ベクトルマップにより補正を一度に行う。当該補正は画素ごとに独立した処理が可能なため、撮影から表示までを画素列単位などで並行して行える。結果として、カメラから表示パネルへの経路短縮に加え、補正処理に要する時間自体を短縮できる。また1フレーム分のデータを溜めてから出力する場合と比較し、メモリ容量とともに、データ伝送のための消費電力も節約できる。 Further, in the present embodiment, a displacement vector map representing pixel displacement due to necessary correction elements such as removal of distortion by a camera lens, addition of distortion for an eyepiece, adjustment of resolution, and correction of chromatic aberration is used. Make corrections all at once. Since the correction can be performed independently for each pixel, the process from shooting to display can be performed in parallel for each pixel column. As a result, in addition to shortening the route from the camera to the display panel, the time required for the correction process itself can be shortened. Further, as compared with the case where one frame of data is stored and then output, not only the memory capacity but also the power consumption for data transmission can be saved.

コンテンツ処理装置から送信された画像を表示対象に含める場合も、撮影画像に対する処理はヘッドマウントディスプレイ内で完結させる。この際、撮影画像に対する補正処理を2段階に切り替える。具体的には、コンテンツ処理装置から送信された画像を合成する前に、全原色成分に対して共通の補正を実施し、合成後に色収差を補正する。表示の直前に色収差の補正を実施することにより、拡大縮小、超解像、合成などで用いるフィルター処理によって色収差後の画像がミクロレベルで破壊され、色にじみや異常な輪郭が表示に出現するのを防ぐことができる。 Even when the image transmitted from the content processing device is included in the display target, the processing for the captured image is completed in the head-mounted display. At this time, the correction process for the captured image is switched to two stages. Specifically, before synthesizing the image transmitted from the content processing apparatus, a common correction is performed for all the primary color components, and the chromatic aberration is corrected after synthesizing. By correcting the chromatic aberration immediately before the display, the image after the chromatic aberration is destroyed at the micro level by the filter processing used for scaling, super-resolution, composition, etc., and color bleeding and abnormal contours appear on the display. Can be prevented.

これにより、撮影画像のデータをコンテンツ処理装置に送信せずとも、高品質な合成画像を表示できる。結果として表示結果に影響を与えることなく、上述と同様の効果を得ることができる。さらに撮影画像にコンテンツ処理装置からの画像を合成するモードと合成しないモードを、最小限の変更で容易に切り替えられる。 As a result, a high-quality composite image can be displayed without transmitting the captured image data to the content processing device. As a result, the same effect as described above can be obtained without affecting the display result. Furthermore, the mode in which the image from the content processing device is combined with the captured image and the mode in which the image is not combined can be easily switched with a minimum change.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. Embodiments are examples, and it is understood by those skilled in the art that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present invention. ..

30 入出力インターフェース、 32 CPU、 34 画像演算回路、 36 補正回路、 38 バッファメモリ、 40 変位ベクトルマップ用メモリ、 42 イメージ信号処理回路、 44 ディスプレイコントローラ、 46 第1補正部、 48 第2補正部、 50 第3補正部、 52 超解像回路、 54 画像解析回路、 56 画像合成回路、 100 ヘッドマウントディスプレイ、 110 ステレオカメラ、 120 画像処理用集積回路、 122 表示パネル、 128 画像処理装置、 150 信号処理部、 152 画像解析部、 154 超解像処理部、 156 第1補正部、 158 超解像処理部、 159 第3補正部、 160 合成部、 162 第2補正部、 164 画像表示制御部、 200 コンテンツ処理装置。 30 I / O interface, 32 CPU, 34 Image calculation circuit, 36 Correction circuit, 38 Buffer memory, 40 Displacement vector map memory, 42 Image signal processing circuit, 44 Display controller, 46 First correction section, 48 Second correction section, 50 Third correction unit, 52 Super-resolution circuit, 54 Image analysis circuit, 56 Image synthesis circuit, 100 Head mount display, 110 Stereo camera, 120 Integrated circuit for image processing, 122 Display panel, 128 Image processing device, 150 Signal processing Unit, 152 Image analysis unit, 154 Super-resolution processing unit, 156 1st correction unit, 158 Super-resolution processing unit, 159 3rd correction unit, 160 Synthesis unit, 162 2nd correction unit, 164 Image display control unit, 200 Content processing device.

Claims (15)

撮影画像のデータを取得する信号処理部と、
前記撮影画像を表示に適した画像に補正する補正部と、
一体的に設けられていない装置から送信された合成用画像を、前記撮影画像に合成する合成部と、
合成された画像を表示パネルに表示させる画像表示制御部と、
を備え、
前記補正部は、前記表示に適した画像に補正する処理のうち、前記合成部による合成前の撮影画像に対し一部の補正を実施し、合成後の画像に対し残りの補正を実施することを特徴とする画像処理装置。
A signal processing unit that acquires captured image data,
A correction unit that corrects the captured image to an image suitable for display,
A compositing unit that synthesizes a compositing image transmitted from a device that is not integrally provided with the captured image, and a compositing unit.
An image display control unit that displays the combined image on the display panel,
With
Among the processes for correcting an image suitable for the display, the correction unit performs a part of the correction for the image taken before composition by the composition unit, and performs the remaining correction for the image after composition. An image processing device characterized by.
前記補正部は前記一部の補正として、前記撮影画像の原色成分に共通に、接眼レンズを介して鑑賞される表示画像に与えるべき歪みを付加する補正を実施し、
前記残りの補正として、前記原色成分の色収差を補正することを特徴とする請求項1に記載の画像処理装置。
As a partial correction, the correction unit performs a correction that adds distortion to be given to the display image viewed through the eyepiece, which is common to the primary color components of the captured image.
The image processing apparatus according to claim 1, wherein as the remaining correction, the chromatic aberration of the primary color component is corrected.
前記一部の補正を実施するために必要な前記撮影画像からの画素の変位量および変位方向を表す変位ベクトルを画像平面に表した変位ベクトルマップと、前記残りの補正を実施するために必要な前記合成後の画像からの画素の変位量および変位方向を表す差分ベクトルを画像平面に表した差分ベクトルマップと、を格納する変位ベクトルマップ記憶部をさらに備え、
前記補正部は、合成前の補正において前記変位ベクトルマップを参照し、合成後の補正において前記差分ベクトルマップを参照することを特徴とする請求項1または2に記載の画像処理装置。
A displacement vector map showing the displacement vector representing the displacement amount and the displacement direction of the pixels from the captured image required to perform the partial correction on the image plane, and the remaining correction required to perform the correction. A displacement vector map storage unit for storing a difference vector map representing the displacement amount and the displacement direction of the pixels from the composited image on the image plane is further provided.
The image processing apparatus according to claim 1 or 2, wherein the correction unit refers to the displacement vector map in the correction before synthesis and refers to the difference vector map in the correction after synthesis.
前記補正部は、前記撮影画像の原色のうち緑の成分に対する前記変位ベクトルマップを参照して前記一部の補正を実施し、赤および青の成分に対する前記差分ベクトルマップを参照して前記残りの補正を実施することを特徴とする請求項3に記載の画像処理装置。 The correction unit performs the partial correction with reference to the displacement vector map for the green component of the primary colors of the captured image, and refers to the difference vector map for the red and blue components to perform the remaining correction. The image processing apparatus according to claim 3, wherein the correction is performed. 前記一体的に設けられていない装置から送信された合成用画像を合成する必要がないとき、
前記補正部は、前記表示に適した画像に補正する処理を一度に実施するように切り替えることを特徴とする請求項1から4のいずれかに記載の画像処理装置。
When it is not necessary to combine images for compositing transmitted from the device that is not integrally provided,
The image processing apparatus according to any one of claims 1 to 4, wherein the correction unit switches to perform processing for correcting an image suitable for the display at one time.
前記一部の補正は、撮像装置のレンズによる歪みを解消する補正を含むことを特徴とする請求項1から5のいずれかに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the partial correction includes a correction for eliminating distortion caused by a lens of the image pickup device. 補正前の前記撮影画像および合成前の前記合成用画像に超解像処理を施す超解像処理部をさらに備えたことを特徴とする請求項1から6のいずれかに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, further comprising a super-resolution processing unit that performs super-resolution processing on the captured image before correction and the composite image before composition. 前記補正部および前記合成部は、処理を施した画素のデータを、画素値の決定とともに順次出力することを特徴とする請求項1から7のいずれかに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 7, wherein the correction unit and the synthesis unit sequentially output data of the processed pixels together with determination of a pixel value. 前記補正部が補正により生成した画素のデータを、生成された順に格納するバッファメモリをさらに備え、
前記画像表示制御部は、前記撮影画像の全画素数より少ない所定数の画素のデータが前記バッファメモリに格納される都度、当該データが送出されるように制御することを特徴とする請求項1から8のいずれかに記載の画像処理装置。
A buffer memory for storing pixel data generated by the correction by the correction unit in the order of generation is further provided.
The image display control unit is characterized in that every time data of a predetermined number of pixels smaller than the total number of pixels of the captured image is stored in the buffer memory, the data is controlled to be transmitted. 8. The image processing apparatus according to any one of 8.
前記補正部は、補正後の画像の1行分の画素値を決定するのに必要な行数の画素のデータが取得された時点で、当該行のデータの生成を開始することを特徴とする請求項9に記載の画像処理装置。 The correction unit is characterized in that when the data of the number of pixels required for determining the pixel value for one row of the corrected image is acquired, the generation of the data of the row is started. The image processing apparatus according to claim 9. 前記補正部はさらに、ユーザの姿勢と向き、ユーザの瞳孔間距離、および前記表示パネルとユーザの目の距離、の少なくともいずれかに基づき前記撮影画像を補正することを特徴とする請求項1から10のいずれかに記載の画像処理装置。 From claim 1, the correction unit further corrects the captured image based on at least one of the posture and orientation of the user, the interpupillary distance of the user, and the distance between the display panel and the eyes of the user. 10. The image processing apparatus according to any one of 10. 請求項1から8のいずれかに記載の画像処理装置と、
前記信号処理部に撮影画像を供給する撮像装置と、
前記表示パネルと、
を備えたことを特徴とするヘッドマウントディスプレイ。
The image processing apparatus according to any one of claims 1 to 8.
An imaging device that supplies captured images to the signal processing unit,
With the display panel
A head-mounted display featuring a head-mounted display.
前記撮影画像を解析しその結果を前記一体的に設けられていない装置に送信する画像解析部をさらに備え、
前記合成用画像は、当該結果に基づき生成されることを特徴とする請求項12に記載のヘッドマウントディスプレイ。
An image analysis unit that analyzes the captured image and transmits the result to the device that is not integrally provided is further provided.
The head-mounted display according to claim 12, wherein the composite image is generated based on the result.
撮影画像のデータを取得するステップと、
前記撮影画像を表示に適した画像に補正する処理のうち一部の補正を実施するステップと、
一体的に設けられていない装置から送信された合成用画像を、前記一部の補正がなされた撮影画像に合成するステップと、
合成後の画像に対し、前記表示に適した画像に補正する処理のうち残りの補正を実施し表示画像とするステップと、
前記表示画像を表示パネルに表示させるステップと、
を含むことを特徴とする、画像処理装置による画像表示方法。
The steps to acquire the data of the captured image and
A step of performing some corrections in the process of correcting the captured image to an image suitable for display, and
A step of synthesizing a composite image transmitted from a device that is not integrally provided with a captured image that has been partially corrected, and
A step of correcting the composited image to an image suitable for the display and performing the remaining correction to obtain a display image.
The step of displaying the display image on the display panel and
An image display method by an image processing apparatus, which comprises.
撮影画像のデータを取得する機能と、
前記撮影画像を表示に適した画像に補正する機能と、
一体的に設けられていない装置から送信された合成用画像を、前記撮影画像に合成する機能と、
合成された画像を表示パネルに表示させる機能と、
をコンピュータに実現させ、
前記補正する機能は、前記表示に適した画像に補正する処理のうち、前記合成する機能による合成前の撮影画像に対し一部の補正を実施し、合成後の画像に対し残りの補正を実施することを特徴とするコンピュータプログラム。
The function to acquire the data of the captured image and
A function to correct the captured image to an image suitable for display, and
A function for synthesizing a composite image transmitted from a device that is not integrally provided with the captured image, and
A function to display the combined image on the display panel,
To the computer,
The correction function performs a part of the correction for the image suitable for the display, the image taken before the composition by the composition function, and the remaining correction for the image after the composition. A computer program characterized by doing.
JP2019185340A 2019-03-29 2019-10-08 Image processing device, head-mounted display, and image display method Active JP7365184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/825,057 US11106042B2 (en) 2019-03-29 2020-03-20 Image processing apparatus, head-mounted display, and image displaying method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019068188 2019-03-29
JP2019068188 2019-03-29

Publications (2)

Publication Number Publication Date
JP2020167659A true JP2020167659A (en) 2020-10-08
JP7365184B2 JP7365184B2 (en) 2023-10-19

Family

ID=72714661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019185340A Active JP7365184B2 (en) 2019-03-29 2019-10-08 Image processing device, head-mounted display, and image display method

Country Status (1)

Country Link
JP (1) JP7365184B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004321A1 (en) * 2022-06-28 2024-01-04 キヤノン株式会社 Image processing device, head-mounted display device, control method for image processing device, control method for head-mounted display device, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5074777B2 (en) 2006-05-22 2012-11-14 キヤノン株式会社 Display device with imaging function, image processing device, image processing method, and image display system
JP5094430B2 (en) 2008-01-10 2012-12-12 キヤノン株式会社 Image processing method, image processing apparatus, and system
JP2010092360A (en) 2008-10-09 2010-04-22 Canon Inc Image processing system, image processing device, aberration correcting method, and program
JP6044317B2 (en) 2012-11-21 2016-12-14 セイコーエプソン株式会社 Image capturing apparatus and image capturing apparatus control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004321A1 (en) * 2022-06-28 2024-01-04 キヤノン株式会社 Image processing device, head-mounted display device, control method for image processing device, control method for head-mounted display device, and program

Also Published As

Publication number Publication date
JP7365184B2 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
US10572982B2 (en) Method and system of image distortion correction for images captured by using a wide-angle lens
US10356375B2 (en) Display device, image processing device and image processing method, and computer program
JP5388534B2 (en) Image processing apparatus and method, head-mounted display, program, and recording medium
JP7150134B2 (en) Head-mounted display and image display method
US20230236425A1 (en) Image processing method, image processing apparatus, and head-mounted display
US11892637B2 (en) Image generation apparatus, head-mounted display, content processing system, and image display method
JP7358448B2 (en) Image generation device, head mounted display, and image generation method
US20210063732A1 (en) Image processing apparatus, method for controlling the same, non-transitory computer-readable storage medium, and system
JP7365184B2 (en) Image processing device, head-mounted display, and image display method
JP7142762B2 (en) Display device and image display method
US11614627B2 (en) Image processing apparatus, head-mounted display, and image displaying method
JP7429515B2 (en) Image processing device, head-mounted display, and image display method
US11106042B2 (en) Image processing apparatus, head-mounted display, and image displaying method
WO2022054118A1 (en) Image display system, head-mounted display, and image display method
JP7365185B2 (en) Image data transmission method, content processing device, head mounted display, relay device, and content processing system
JP7365183B2 (en) Image generation device, head mounted display, content processing system, and image display method
WO2023140033A1 (en) Display control device, head-mounted display, and display control method
US11960086B2 (en) Image generation device, head-mounted display, and image generation method
WO2022158221A1 (en) Image display system, display device, and image display method
WO2018084051A1 (en) Information processing device, head-mounted display, information processing system, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231006

R150 Certificate of patent or registration of utility model

Ref document number: 7365184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150