JP2017188757A - Information processing apparatus, image display apparatus, image display system, and information processing method - Google Patents

Information processing apparatus, image display apparatus, image display system, and information processing method Download PDF

Info

Publication number
JP2017188757A
JP2017188757A JP2016075487A JP2016075487A JP2017188757A JP 2017188757 A JP2017188757 A JP 2017188757A JP 2016075487 A JP2016075487 A JP 2016075487A JP 2016075487 A JP2016075487 A JP 2016075487A JP 2017188757 A JP2017188757 A JP 2017188757A
Authority
JP
Japan
Prior art keywords
display
image
optical system
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016075487A
Other languages
Japanese (ja)
Other versions
JP6711670B2 (en
JP2017188757A5 (en
Inventor
光 内舘
Hikaru Uchidate
光 内舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016075487A priority Critical patent/JP6711670B2/en
Publication of JP2017188757A publication Critical patent/JP2017188757A/en
Publication of JP2017188757A5 publication Critical patent/JP2017188757A5/ja
Application granted granted Critical
Publication of JP6711670B2 publication Critical patent/JP6711670B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus, an image display apparatus, an image display system, and an information processing method for suppressing the total amount of data required for transmission of image data as a whole system in the image display system.SOLUTION: The image display system acquires information on an imaging unit 10 and a display unit 13, corrects distortion of the imaging unit 10 and distortion of the display unit 13 on the basis of the information, and cuts out a part of the angle of view for the corrected image to display the cut-out image on the display unit 13.SELECTED DRAWING: Figure 1

Description

本発明は、画像表示装置に備えられた撮像部により撮像された画像データを処理するための技術に関する。   The present invention relates to a technique for processing image data captured by an imaging unit provided in an image display device.

近年、現実空間と仮想空間をリアルタイムでシームレスに融合させる技術として、複合現実感(MR:Mixed Reality)技術や拡張現実感(AR:Augmented Reality)技術が知られている。これらの技術の1つとして、ビデオシースルーHMD(Head Mounted Display)を利用したものがある。この画像表示システムでは、まず、HMD装着者の瞳位置から観察される被写体と略一致する被写体をビデオカメラなどで撮像する。そして、その撮像画像にCG(Computer Graphics)を重畳表示した画像を、HMD装着者がHMD内部パネルを通して観察できるようになっている。   In recent years, mixed reality (MR) technology and augmented reality (AR) technology are known as technologies that seamlessly merge real space and virtual space in real time. As one of these technologies, there is one using video see-through HMD (Head Mounted Display). In this image display system, first, a video camera or the like is imaged with a subject that substantially matches the subject observed from the pupil position of the HMD wearer. An HMD wearer can observe an image obtained by superimposing and displaying CG (Computer Graphics) on the captured image through the HMD internal panel.

このとき、HMD装着者が観察する映像は、撮像光学系で発生する歪み特性および表示光学系で発生する歪み特性を含んでいる。特許文献1には、HMD装着者に複合現実感を提供するため、撮像系の歪み補正と表示系との歪み補正とを外部装置を含めたシステム全体において行う撮像機能付き表示装置が提案されている。   At this time, the image observed by the HMD wearer includes distortion characteristics generated in the imaging optical system and distortion characteristics generated in the display optical system. Patent Document 1 proposes a display device with an imaging function that performs distortion correction of an imaging system and distortion correction of a display system in the entire system including an external device in order to provide mixed reality to an HMD wearer. Yes.

特開2008−5460号公報JP 2008-5460 A

撮像光学系による撮像映像の画角(領域)の一部を表示光学系の画角に合わせて表示するシステムの場合、撮像映像の一部を切り出し処理する必要がある。従来のシステムにおいては、撮像系歪み補正処理、表示系歪み補正処理それぞれについて、映像入出力で倍率変動が発生するため、両歪み補正の後に画角を調整する画像切り出し処理を行う必要がある。しかしながら、画像切り出し処理を最後に行うために余剰な画素データを伝送する必要があった。そこで、本発明は、システム全体として伝送すべき映像データのデータ総量を抑えることを目的とする。   In the case of a system that displays a part of the angle of view (region) of a captured image by the imaging optical system in accordance with the angle of view of the display optical system, it is necessary to cut out a part of the captured image. In the conventional system, magnification fluctuation occurs in the video input / output for each of the imaging system distortion correction process and the display system distortion correction process. Therefore, it is necessary to perform an image cutout process for adjusting the angle of view after both distortion corrections. However, it is necessary to transmit surplus pixel data in order to perform the image cutout process last. Therefore, an object of the present invention is to reduce the total amount of video data to be transmitted as a whole system.

上記課題を解決するために、本発明は、画像を撮像する撮像部と、使用者に表示すべき表示画像を表示する表示部と、を備える画像表示装置に接続された情報処理装置であって、前記撮像部の撮像光学系に係る情報と前記表示部の表示光学系に係る情報との少なくとも一方に基づいて、前記撮像光学系と前記表示光学系との少なくとも一方による前記撮像された画像の歪みを補正する補正手段と、前記補正された画像の一部を切り出す切り出し手段と、を有することを特徴とする。   In order to solve the above-described problems, the present invention is an information processing apparatus connected to an image display device that includes an imaging unit that captures an image and a display unit that displays a display image to be displayed to a user. Based on at least one of the information related to the imaging optical system of the imaging unit and the information related to the display optical system of the display unit, the captured image of the captured image by at least one of the imaging optical system and the display optical system The image processing apparatus includes a correction unit that corrects distortion, and a cutout unit that cuts out a part of the corrected image.

以上の構成によれば、本発明は、システム全体として伝送すべき映像データのデータ総量を抑えることができる。   According to the above configuration, the present invention can suppress the total amount of video data to be transmitted as a whole system.

第1の実施形態に係る画像表示システムを示すブロック図。1 is a block diagram showing an image display system according to a first embodiment. 第1の実施形態において撮像歪みと表示歪みを示す概念図。The conceptual diagram which shows the imaging distortion and the display distortion in 1st Embodiment. 第1の実施形態における撮像歪みと撮像歪みに係る情報の一例を示す図。The figure which shows an example of the information which concerns on the imaging distortion and imaging distortion in 1st Embodiment. 第1の実施形態に係る映像切り出し部の機能構成を示すブロック図。The block diagram which shows the function structure of the image | video clipping part which concerns on 1st Embodiment. 第1の実施形態に係る画角変化演算部による処理の流れを示すフローチャート。5 is a flowchart showing a flow of processing by an angle-of-view change calculation unit according to the first embodiment. 第1の実施形態において映像データの解像度と画角の変化を示す図。The figure which shows the change of the resolution and angle of view of video data in 1st Embodiment. 第1の実施形態の変形例に係る画像表示システムを示すブロック図。The block diagram which shows the image display system which concerns on the modification of 1st Embodiment.

[第1の実施形態]
以下、本発明の第1の実施形態について、図面を参照しながら説明する。図1は、本実施形態における画像表示システムの構成を示すブロック図である。図1に示すように、本実施形態の画像表示システムは大きく分けて4つの機能部より構成されており、撮像映像を生成する撮像部10と、撮像映像および表示映像に対して画像処理を行う画像処理部11とを有する。さらに、撮像映像の内容に応じて重畳するCGデータを演算し、表示映像(表示画像)を作成する画像合成部12と、表示映像を表示し使用者に映像を視認させる表示部13とを有している。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an image display system in the present embodiment. As shown in FIG. 1, the image display system of the present embodiment is roughly composed of four functional units, and performs image processing on an imaging unit 10 that generates a captured video, and the captured video and the display video. And an image processing unit 11. Furthermore, there is provided an image composition unit 12 that calculates CG data to be superimposed according to the content of the captured image and creates a display image (display image), and a display unit 13 that displays the display image and allows the user to visually recognize the image. doing.

撮像部10および表示部13は本システムにおける画像表示装置に相当するヘッドマウントディスプレイ(以下、HMD)に備えられている。一方、画像処理部11および画像合成部12は本システムにおける情報処理装置に相当するPCに備えられている。HMDおよび情報処理装置(PC)は互いに有線方式または無線方式により接続され、それぞれCPU、ROM、RAM等のハードウェア構成を備える。そして、CPUがROMやHD等に格納されたプログラムを実行することにより、例えば、後述する各機能構成やフローチャートの処理が実現される。RAMは、CPUがプログラムを展開して実行するワークエリアとして機能する記憶領域を有する。ROMは、CPUが実行するプログラム等を格納する記憶領域を有する。   The imaging unit 10 and the display unit 13 are provided in a head mounted display (hereinafter referred to as HMD) corresponding to an image display device in the present system. On the other hand, the image processing unit 11 and the image composition unit 12 are provided in a PC corresponding to an information processing apparatus in this system. The HMD and the information processing apparatus (PC) are connected to each other by a wired method or a wireless method, and each has a hardware configuration such as a CPU, a ROM, and a RAM. Then, when the CPU executes a program stored in a ROM, an HD, or the like, for example, each functional configuration and flowchart processing described later are realized. The RAM has a storage area that functions as a work area where the CPU develops and executes the program. The ROM has a storage area for storing programs executed by the CPU.

撮像部10と表示部13を含むHMDにおいては、HMDを頭部に装着した使用者が外界の映像にCGを重畳した映像を見ることができ、現実空間と仮想空間がリアルタイムに融合した複合現実感を体験することができる。撮像部10は、撮像光学系である撮像レンズ100と撮像素子であるイメージセンサ101とを含み、撮像レンズ100を介して結像された現実空間における被写体像をイメージセンサ101による光電変換によって撮像映像を取得する。イメージセンサ101は、例えば、CMOSイメージセンサやCCDイメージセンサなどの半導体センサから構成される。図2は撮像歪みと表示歪みを概念的に示しており、撮像部10より作成される撮像映像には、撮像レンズ100の光学特性によって、例えば、図2(a)のように被写体に対し幾何学的な歪みや色収差などが発生する。   In the HMD including the imaging unit 10 and the display unit 13, a user wearing the HMD on the head can see an image in which CG is superimposed on an image of the outside world, and the mixed reality in which real space and virtual space are fused in real time. You can experience the feeling. The imaging unit 10 includes an imaging lens 100 that is an imaging optical system and an image sensor 101 that is an imaging element. A subject image in a real space imaged through the imaging lens 100 is captured by photoelectric conversion by the image sensor 101. To get. The image sensor 101 is composed of a semiconductor sensor such as a CMOS image sensor or a CCD image sensor, for example. FIG. 2 conceptually shows imaging distortion and display distortion, and the captured image created by the imaging unit 10 has a geometric shape with respect to the subject, for example, as shown in FIG. This causes geometric distortion and chromatic aberration.

表示部13は、パネル130と表示レンズ131とを含み、画像合成部12により生成された表示映像をパネル130に表示し、表示レンズ131を介して光束を観察対象へと結像させる。パネル130は、例えば、液晶表示パネルや有機ELパネル等の表示素子から構成される。観察対象が表示部13により観察する映像には、表示レンズ131の光学特性によって、例えば、図2(b)のように表示映像に対し幾何学的な歪みや色収差などが発生する。   The display unit 13 includes a panel 130 and a display lens 131, displays the display image generated by the image composition unit 12 on the panel 130, and forms an image of the light flux on the observation target via the display lens 131. The panel 130 is comprised from display elements, such as a liquid crystal display panel and an organic electroluminescent panel, for example. In the image observed by the display unit 13, for example, geometric distortion and chromatic aberration are generated with respect to the display image as shown in FIG. 2B due to the optical characteristics of the display lens 131.

続いて、情報処理装置側に設けられている画像処理部11および画像合成部12の機能について説明する。画像処理部11は、撮像部10より入力される撮像映像に対して映像切り出し処理を行う映像切り出し部110と、撮像光学特性を保持する撮像光学特性保持部112とを有する。さらに、撮像光学特性に基づき歪み補正を行う撮像歪み補正部111と、表示光学特性を保持する表示光学特性保持部114と、画像合成部12より入力される表示映像に対して表示光学特性に基づき歪み補正を行う表示歪み補正部113とを有する。各機能部の詳細については、後述する。   Next, functions of the image processing unit 11 and the image composition unit 12 provided on the information processing apparatus side will be described. The image processing unit 11 includes a video cutout unit 110 that performs video cutout processing on the captured video input from the imaging unit 10 and an imaging optical characteristic holding unit 112 that holds imaging optical characteristics. Further, an imaging distortion correction unit 111 that performs distortion correction based on imaging optical characteristics, a display optical characteristic holding unit 114 that holds display optical characteristics, and a display image input from the image synthesis unit 12 based on display optical characteristics. And a display distortion correction unit 113 that performs distortion correction. Details of each functional unit will be described later.

画像合成部12は、画像処理部11より入力される撮像映像に対し、CGを重畳し表示映像として再度画像処理部11へと出力する機能を有する。また、画像合成部は、不図示のCG重畳位置推定手段によって推定されたHMD使用者の位置姿勢に関する情報に基づいて、撮像映像に対してCGおよび重畳する位置の計算を行う。そして、計算した画像位置にCGデータを合成し、表示映像として出力する。CG重畳位置推定手段による位置姿勢の推定手法としては、例えば、加速度センサや角速度センサおよび地磁気センサならびにGPSなどを用いる技術が存在する。また、撮像部10とは別の撮像センサを搭載し、その撮像映像内にあるマーカーを利用して位置姿勢を推定したり、また空間的な特徴点があればその特徴点から位置姿勢を推定することもできる。   The image composition unit 12 has a function of superimposing a CG on the captured video input from the image processing unit 11 and outputting it again to the image processing unit 11 as a display video. Further, the image composition unit calculates CG and a position to be superimposed on the captured video based on information on the position and orientation of the HMD user estimated by a CG superimposed position estimation unit (not shown). Then, CG data is synthesized with the calculated image position and output as a display image. As a position and orientation estimation method by the CG superimposed position estimation means, for example, there is a technique using an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, GPS, and the like. In addition, an image sensor different from the image capturing unit 10 is mounted, and the position and orientation are estimated using markers in the captured image, and if there are spatial feature points, the position and orientation are estimated from the feature points. You can also

また、画像合成部12は不図示の解像度変換部を有しており、表示画角に合わせて撮像解像度を変更し、撮像画角との整合を合わせるための解像度変換処理を行う場合がある。本実施形態では、解像度変換処理は画像合成部12により行われる構成としているが、本発明はこのような構成に限定されない。例えば、解像度変換処理を行わない構成としてもよいし、画像合成部12の後に解像度変換処理を行うようにしてもよい。   Further, the image composition unit 12 includes a resolution conversion unit (not shown), and there are cases where the image conversion resolution is changed in accordance with the display angle of view, and resolution conversion processing is performed for matching with the image pickup angle of view. In the present embodiment, the resolution conversion process is performed by the image composition unit 12, but the present invention is not limited to such a structure. For example, the resolution conversion process may not be performed, or the resolution conversion process may be performed after the image composition unit 12.

このように、撮像部10により撮像された撮像映像が画像処理部11を介して画像合成部12へと入力され、撮像映像内の情報や他のセンサ情報等に基づいて、撮像映像にCGを重畳した表示映像が作成される。作成された表示映像は、再度、画像処理部11を介して表示部13へと入力され、使用者に現実世界と仮想世界がリアルタイムに融合した複合現実感を提供することができる。このとき、撮像映像に応じてCG重畳位置を推定する演算処理を行うため、システムを動作させる装置(例えばPC)の能力と撮像映像の解像度によっては所定のパフォーマンスが達成できない可能性がある。   In this way, the captured video imaged by the imaging unit 10 is input to the image composition unit 12 via the image processing unit 11, and CG is added to the captured video based on information in the captured video, other sensor information, and the like. A superimposed display image is created. The created display image is input again to the display unit 13 via the image processing unit 11, and can provide the user with a mixed reality in which the real world and the virtual world are fused in real time. At this time, since a calculation process for estimating the CG superposition position is performed in accordance with the captured image, a predetermined performance may not be achieved depending on the capability of the device that operates the system (for example, a PC) and the resolution of the captured image.

<画像処理部11の詳細>
ここで、本実施形態の画像表示システムにおいて、画像処理部11が有する撮像歪み補正部111および撮像光学特性保持部112の処理の詳細について説明する。撮像歪み補正部111は、撮像光学特性保持部112に保持された撮像光学特性の情報に基づいて、歪み補正処理を行う。撮像歪み補正部111と撮像光学特性保持部112は、例えば、同一基板に撮像歪み補正機能を搭載したLSIと撮像光学特性を保持するFLASH ROMを実装しFLASH ROMより撮像光学特性の情報を読み込むことで実現される。また、アプリケーションとして撮像歪み補正機能を実現する構成等としてもよく、撮像歪み補正を行える構成であれば特定の構成に限定されるものではない。
<Details of Image Processing Unit 11>
Here, in the image display system of the present embodiment, details of processing of the imaging distortion correction unit 111 and the imaging optical characteristic holding unit 112 included in the image processing unit 11 will be described. The imaging distortion correction unit 111 performs distortion correction processing based on information on the imaging optical characteristics held in the imaging optical characteristic holding unit 112. The imaging distortion correction unit 111 and the imaging optical characteristic holding unit 112, for example, mount an LSI having an imaging distortion correction function on the same substrate and a FLASH ROM that holds the imaging optical characteristics, and read information on the imaging optical characteristics from the FLASH ROM. It is realized with. The application may have a configuration that realizes an imaging distortion correction function, and is not limited to a specific configuration as long as the configuration can correct imaging distortion.

図3には、本実施形態において撮像光学特性保持部112に保持されている撮像光学特性および表示光学特性保持部114に保持されている表示光学特性の情報の一例を示しており、図3(a)が撮像光学特性の情報の一例である。同図に示すように、画像情報300として、撮像部10における撮像レンズ100およびイメージセンサ101の情報が保持されており、具体的には、解像度や画角、光軸中心の情報などが該当する。また、撮像歪みテーブル301には、撮像部10によって発生する歪みの局所情報が保持されており、任意の画像位置Pにおける撮像歪み補正量を示す参照位置Rや解像度に対する倍率変化情報などを示す倍率Mなどが含まれる。また、色収差が発生する場合には、色ごとの歪み情報も合わせて保持することで色収差補正を行うことも可能となる。   FIG. 3 shows an example of information about the imaging optical characteristics held in the imaging optical characteristic holding unit 112 and the display optical characteristics held in the display optical characteristic holding unit 114 in the present embodiment. a) is an example of imaging optical characteristic information. As shown in the figure, information of the imaging lens 100 and the image sensor 101 in the imaging unit 10 is held as the image information 300, and specifically, information on resolution, angle of view, optical axis center, and the like are applicable. . In addition, the imaging distortion table 301 holds local information on distortion generated by the imaging unit 10, and a magnification that indicates a reference position R indicating an imaging distortion correction amount at an arbitrary image position P, magnification change information with respect to the resolution, and the like. M and the like are included. In addition, when chromatic aberration occurs, it is possible to correct chromatic aberration by holding distortion information for each color together.

撮像歪み補正部111は、図3(a)に示す歪み補正テーブルを撮像光学特性保持部112から読み込むことで、入力される撮像映像に対して歪み補正処理を実行する。歪み補正処理は、例えば、任意の注目画像位置おいて、注目画素位置に対応する歪み補正量を参照位置Rより算出し、算出された画素位置における撮像映像を出力として生成することで実現することができる。前述の歪み補正量の算出方法としては、バイリニア補間やスプライン補間など様々な手法が提案されており、本発明は特定の算出方法に限定されるものではない。   The imaging distortion correction unit 111 reads the distortion correction table illustrated in FIG. 3A from the imaging optical characteristic holding unit 112, and executes distortion correction processing on the input captured video. The distortion correction processing is realized by, for example, calculating a distortion correction amount corresponding to the target pixel position from the reference position R at an arbitrary target image position, and generating a captured image at the calculated pixel position as an output. Can do. Various methods such as bilinear interpolation and spline interpolation have been proposed as the above-described distortion correction amount calculation method, and the present invention is not limited to a specific calculation method.

このように、撮像歪み補正部111は図3(a)のような歪み補正テーブルを読み込み、入力される撮像映像に対して歪み補正処理を実行するため、入力される撮像映像は、出力される撮像歪み補正後の撮像映像に対して、倍率が変化した状態となる。入出力前後で倍率が変動するということは入出力で解像度に変化がない場合、撮像画角が変化することと同義となる。すなわち、図3(a)の撮像光学特性を例に説明すると、水平最大変化倍率は−3.4%であるため、水平方向の画角は入力された撮像映像においては、49.39°×0.966=47.71°となる。本実施形態では、説明の簡素化のために歪みの最大変化倍率と画角の変化率を等価とみなして説明したが、計算の方法は焦点距離やイメージセンサの画素ピッチ、取り付け公差などを使ってもよい。   As described above, the imaging distortion correction unit 111 reads the distortion correction table as illustrated in FIG. 3A and executes the distortion correction processing on the input captured video, so that the input captured video is output. The magnification is changed with respect to the captured image after the imaging distortion correction. The fact that the magnification fluctuates before and after the input / output is synonymous with the change of the imaging angle of view when there is no change in resolution at the input / output. That is, taking the imaging optical characteristic of FIG. 3A as an example, the horizontal maximum change magnification is -3.4%, so the horizontal angle of view is 49.39 ° × 0.966 = 47.71 °. In the present embodiment, for simplicity of explanation, the maximum distortion change magnification and the change rate of the angle of view are regarded as equivalent, but the calculation method uses the focal length, the pixel pitch of the image sensor, the mounting tolerance, and the like. May be.

次に、本実施形態の画像表示システムにおいて、画像処理部11が有する表示歪み補正部113および表示光学特性保持部114の処理の詳細について説明する。表示歪み補正部113は、表示光学特性保持部114に保持される歪み補正に係る情報を読み込み、表示部13に表示する映像情報の歪み補正を行うものであり、その基本的な動作は撮像歪み補正部111と同様である。図3(b)には、表示光学特性保持部114に保持されている表示光学特性の情報の一例を示している。   Next, details of processing of the display distortion correction unit 113 and the display optical characteristic holding unit 114 included in the image processing unit 11 in the image display system of the present embodiment will be described. The display distortion correction unit 113 reads information related to distortion correction held in the display optical characteristic holding unit 114, and performs distortion correction of video information displayed on the display unit 13, and its basic operation is imaging distortion. This is the same as the correction unit 111. FIG. 3B shows an example of display optical characteristic information held in the display optical characteristic holding unit 114.

このように、撮像歪み補正部111および表示歪み補正部113において、各々の光学特性に応じて倍率変化、すなわち画角変化が生じる。そのため、表示部13に入力する表示映像は表示部13に入力する直前で切り出し処理を行い、解像度および画角を調整することが望ましい。しかしながら、切り出し処理を表示歪み補正部111の後に実行する従来構成のシステムにおいては、画像合成部12へと入力される撮像映像の解像度が高く、システムとしてオーバーヘッドを含んだ状態で処理がなされる。そのため、パフォーマンスが最適とはなっていなかった。そこで、本実施形態の構成では、以下に説明するように、画角演算処理部によりシステムに最適な切り出し解像度を算出し、撮像映像に対して切り出し処理を実行するようにする。   As described above, in the imaging distortion correction unit 111 and the display distortion correction unit 113, a change in magnification, that is, a change in angle of view occurs according to each optical characteristic. For this reason, it is desirable that the display image input to the display unit 13 is cut out immediately before being input to the display unit 13 to adjust the resolution and the angle of view. However, in a system having a conventional configuration in which the clipping process is performed after the display distortion correction unit 111, the resolution of the captured video input to the image composition unit 12 is high, and the process is performed in a state including overhead. As a result, performance was not optimal. Therefore, in the configuration of the present embodiment, as will be described below, the cut-out resolution optimal for the system is calculated by the angle-of-view calculation processing unit, and cut-out processing is executed on the captured video.

<映像切り出し部110の詳細>
次に、本実施形態に係る映像切り出し部110の処理の詳細について説明する。図4は、映像切り出し部110の機能構成を示す概略ブロック図である。映像切り出し部110は、画角変化演算部1100と切り出し実行部1101とにより構成されている。画角変化演算部1100は、撮像光学特性保持部112および表示光学特性保持部114から読み込んだ撮像光学特性情報および表示光学特性情報に基づいて、両歪み補正における入力映像の画角変化を計算し、システムに最適な切り出し解像度を算出する。また、切り出し実行部1101は、画角変化演算部1100で計算した切り出し解像度を元に、入力される撮像映像に対して切り出し処理を実行する。
<Details of Video Clipping Unit 110>
Next, details of the processing of the video cutout unit 110 according to the present embodiment will be described. FIG. 4 is a schematic block diagram illustrating a functional configuration of the video cutout unit 110. The video cutout unit 110 includes an angle of view change calculation unit 1100 and a cutout execution unit 1101. The angle-of-view change calculation unit 1100 calculates the angle-of-view change of the input video in both distortion corrections based on the imaging optical characteristic information and the display optical characteristic information read from the imaging optical characteristic holding unit 112 and the display optical characteristic holding unit 114. Calculate the optimal clipping resolution for the system. In addition, the cutout execution unit 1101 executes cutout processing on the input captured video based on the cutout resolution calculated by the view angle change calculation unit 1100.

図5は、画角変化演算部1100による処理の流れを示すフローチャートである。なお、ここでは、図3(a),(b)で示した撮像光学特性、表示光学特性の情報の例を用いて説明を行う。図5のフローチャートにおいて、ステップS501で、画角変化演算部1100は、表示解像度DR(1920x1080)および表示画角DA(40x22.5°)を表示光学特性保持部114より読み込む。さらに、ステップS502において、画角変化演算部1100は、表示歪み補正テーブルDTを表示光学特性保持部114より読み込む。   FIG. 5 is a flowchart showing the flow of processing by the view angle change calculation unit 1100. Here, the description will be made using an example of information on imaging optical characteristics and display optical characteristics shown in FIGS. In the flowchart of FIG. 5, in step S <b> 501, the field angle change calculation unit 1100 reads the display resolution DR (1920 × 1080) and the display field angle DA (40 × 22.5 °) from the display optical characteristic holding unit 114. Further, in step S502, the view angle change calculation unit 1100 reads the display distortion correction table DT from the display optical characteristic holding unit 114.

画角変化演算部1100は、これらの情報により、表示歪み補正部113の入力解像度PRと入力画角PAを算出することができる。例えば、簡易化のためにDR=PRとして説明をすると、前述したように歪みによる倍率の変動分が画角の変動分となる。すなわち、図3(b)の表示歪み補正テーブルによると、テーブルの最大変化倍率は、水平=0.1%、垂直=5.3%であるため、画角は、水平方向がDA=0.999×PA、垂直方向がDA=0.947×PAとして求めることができる。ステップS503では、このようにして、表示画角DA(40x22.5°)および表示歪み補正テーブルDTより、表示歪み補正前解像度PR(1920x1080)と、表示歪み補正前画角PA(40x23.7°)が決定される。   The view angle change calculation unit 1100 can calculate the input resolution PR and the input view angle PA of the display distortion correction unit 113 based on these pieces of information. For example, when it is assumed that DR = PR for simplification, as described above, a change in magnification due to distortion becomes a change in view angle. That is, according to the display distortion correction table of FIG. 3B, the maximum change magnification of the table is horizontal = 0.1% and vertical = 5.3%, so that the angle of view is DA = 0. It can be obtained as 999 × PA and the vertical direction is DA = 0.947 × PA. In step S503, in this way, from the display angle of view DA (40 × 22.5 °) and the display distortion correction table DT, the resolution PR before display distortion correction (1920 × 1080) and the angle of view PA before display distortion correction (40 × 23.7 °). ) Is determined.

次に、ステップS504において、画角変化演算部1100は撮像解像度CR(1920x1080)および撮像画角CA(49.4x29.4)を撮像光学特性保持部112より読み込む。さらに、ステップS505において、画角変化演算部1100は撮像歪み補正テーブルCTを撮像光学特性保持部112より読み込む。ステップS506において、画角変化演算部1100は、これらの情報に基づいて、まず撮像歪み補正部111への入力画角QAを算出する。その算出の方法としては、ステップS503と同様に、撮像歪み補正テーブルを参照し、撮像歪みによる倍率変化情報を元に算出する。ステップS506では、このようにして、撮像歪み補正前画角QA(41.16×24.5°)が決定する。   Next, in step S504, the angle-of-view change calculation unit 1100 reads the imaging resolution CR (1920 × 1080) and the imaging angle of view CA (49.4 × 29.4) from the imaging optical characteristic holding unit 112. In step S505, the angle-of-view change calculation unit 1100 reads the imaging distortion correction table CT from the imaging optical characteristic holding unit 112. In step S506, the view angle change calculation unit 1100 first calculates the input view angle QA to the imaging distortion correction unit 111 based on these pieces of information. As the calculation method, as in step S503, the imaging distortion correction table is referred to, and the calculation is performed based on the magnification change information due to the imaging distortion. In step S506, the pre-imaging angle of view QA (41.16 × 24.5 °) is determined in this way.

切り出す画角QAが決定すると、ステップS507において、画角変化演算部1100は、最終的な切り出し解像度QRを演算する。切り出し画角QA(41.16×24.5°)が決定しているため、撮像解像度CR(1920x1080)および撮像画角CA(49.4x29.4°)より、切り出し解像度QRが決定される。すなわち、水平方向QRx=1920×41.16/49.4=1600、垂直方向RQy=1080×24.5/29.4=900となるため、QR(1600x900)として決定される。最後に、ステップS508において、画角変化演算部1100は切り出し解像度QR(1600x900)を切り出し実行部1101へと送信する。   When the view angle QA to be cut out is determined, in step S507, the view angle change calculation unit 1100 calculates a final cut-out resolution QR. Since the cut-out view angle QA (41.16 × 24.5 °) is determined, the cut-out resolution QR is determined from the image pickup resolution CR (1920 × 1080) and the image pickup view angle CA (49.4 × 29.4 °). That is, since the horizontal direction QRx = 1920 × 41.16 / 49.4 = 1600 and the vertical direction RQy = 1080 × 24.5 / 29.4 = 900, it is determined as QR (1600 × 900). Finally, in step S508, the angle-of-view change calculation unit 1100 transmits the cutout resolution QR (1600 × 900) to the cutout execution unit 1101.

切り出し実行部1101は、画角変化演算部1100より入力される切り出し解像度の情報を元に撮像映像の一部を切り出す。切り出し位置は、例えば、撮像の光軸中心位置を切り出し前後で揃えた位置等として、切り出される。   The cutout execution unit 1101 cuts out a part of the captured video based on the cutout resolution information input from the view angle change calculation unit 1100. The cutout position is cut out, for example, as a position where the center position of the optical axis for imaging is aligned before and after the cutout.

図6は、本実施形態の画像処理システムの一連の処理において、映像データの解像度と画角を示す図である。同図には、比較対象として、上述した従来構成のシステムにおける解像度と画角も併せて記載している。図6において、「A.イメージセンサからの出力」は、図1のイメージセンサ101から映像切り出し部110へと転送される撮像映像の解像度と画角を示している。「B.撮像歪み補正前切り出し処理からの出力」は、映像切り出し部110から撮像歪み補正部111へと転送される撮像映像の解像度と画角を示している。   FIG. 6 is a diagram showing the resolution and the angle of view of video data in a series of processes of the image processing system of the present embodiment. In the figure, as a comparison target, the resolution and the angle of view in the system of the conventional configuration described above are also shown. In FIG. 6, “A. Output from image sensor” indicates the resolution and angle of view of the captured image transferred from the image sensor 101 in FIG. 1 to the image cutout unit 110. “B. Output from imaging distortion pre-correction cut-out process” indicates the resolution and angle of view of the captured video transferred from the video cut-out unit 110 to the imaging distortion correction unit 111.

また、「C.撮像歪み補正部からの出力」は、撮像歪み補正部111から画像合成部12へと転送される撮像映像の解像度と画角を示している。「D.画像合成部からの出力」は、画像合成部12から表示歪み補正部113へと転送される表示映像の解像度と画角を示している。ここで、CからDの間で解像度が増加しているのは、前述した画像合成部12における解像度変換処理によるものである。この処理では、撮像の画角を維持したまま表示の解像度に合わせた映像を生成している。   Further, “C. Output from the imaging distortion correction unit” indicates the resolution and angle of view of the captured video transferred from the imaging distortion correction unit 111 to the image composition unit 12. “D. Output from the image composition unit” indicates the resolution and angle of view of the display image transferred from the image composition unit 12 to the display distortion correction unit 113. Here, the increase in resolution between C and D is due to the resolution conversion processing in the image composition unit 12 described above. In this process, an image that matches the display resolution is generated while maintaining the angle of view of imaging.

また、「E.表示歪み補正部からの出力」は、表示歪み補正部113から出力される表示映像の解像度と画角を示している。「F.表示歪み補正後の切り出し処理からの出力」は、従来構成の画像表示システムにおいて、表示歪み補正部とパネルとの間に配置された切り出し処理部から出力される表示映像の解像度と画角を示している。最後に、「G.表示パネルへの入力」は、パネル130へ入力される表示映像の解像度と画角を示している。なお、従来構成のシステムにおいてはBの出力がなく、本実施形態のシステムにおいてはFの出力がないため、それぞれの解像度と画角については記載していない。   “E. Output from display distortion correction unit” indicates the resolution and angle of view of the display video output from display distortion correction unit 113. “F. Output from cutout processing after display distortion correction” refers to the resolution and image of the display video output from the cutout processing unit arranged between the display distortion correction unit and the panel in the image display system having the conventional configuration. Shows corners. Finally, “G. Input to display panel” indicates the resolution and angle of view of the display video input to panel 130. In the system of the conventional configuration, there is no output of B, and in the system of the present embodiment, there is no output of F, so the respective resolution and angle of view are not described.

ここで、図6の「G.表示パネルへの入力」に注目すると、従来構成と本実施形態とで解像度および画角について差異はない。一方、「C.撮像歪み補正部からの出力」では、従来構成における解像度が1920x1080であるのに対し、本実施形態の解像度は1600x900となっており、本実施形態の方が、約30%解像度が低いことがわかる。このように、表示する映像の解像度および画角に影響することなく、表示部への入力より前段の処理において転送、処理される映像データのデータ量を抑え、画像合成部12への入力解像度を最適にすることができる。これにより、本実施形態では、システム全体のパフォーマンスを最適にすることが可能となる。   Here, paying attention to “G. Input to display panel” in FIG. 6, there is no difference in resolution and angle of view between the conventional configuration and the present embodiment. On the other hand, in “C. Output from the imaging distortion correction unit”, the resolution in the conventional configuration is 1920 × 1080, whereas the resolution in the present embodiment is 1600 × 900, and the resolution of this embodiment is about 30%. Is low. In this way, without affecting the resolution and angle of view of the video to be displayed, the amount of video data to be transferred and processed in the processing prior to the input to the display unit is suppressed, and the input resolution to the image composition unit 12 is reduced. Can be optimized. Thereby, in this embodiment, it becomes possible to optimize the performance of the whole system.

なお、本実施形態では、上述したように、撮像光学系と表示光学系の情報を取得し、その情報から撮像光学系による歪みと表示光学系の歪みの両方を補正するようにしているが、いずれか一方のみの歪みに着目し、その一方のみを補正する形態でもよい。   In the present embodiment, as described above, information of the imaging optical system and the display optical system is acquired, and both distortion caused by the imaging optical system and distortion of the display optical system are corrected from the information. It is also possible to pay attention to only one of the distortions and correct only one of them.

以上、本実施形態によれば、撮像光学特性と表示光学特性に応じて切り出し解像度を算出し、撮像歪み補正前に切り出し処理を行うことで、画像合成部への入力解像度を抑制することができる。このため、転送、処理される映像データのデータ量が抑制され、システムを動作させる装置への負荷が軽減し、画像表示システム全体のパフォーマンスを最適にすることが可能となる。   As described above, according to the present embodiment, it is possible to suppress the input resolution to the image composition unit by calculating the clipping resolution according to the imaging optical characteristics and the display optical characteristics and performing the clipping process before the imaging distortion correction. . Therefore, the amount of video data to be transferred and processed is suppressed, the load on the device that operates the system is reduced, and the performance of the entire image display system can be optimized.

[第1の実施形態の変形例]
ここで、上述した第1の実施形態の変形例について説明する。図7は、本変形例に係る画像表示システムを示すブロック図である。本変形例が、上述した第1の実施形態と相違する点は、画像処理部11の内部構成である。具体的には、本変形例では、撮像歪み補正処理と表示歪み補正処理を共通歪み補正部702により共通で処理するとともに、共通歪みテーブル演算部701を備えている。また、映像切り出し部700は、共通歪みテーブル演算部701からの入力により切り出し解像度を決定する構成としている。
[Modification of First Embodiment]
Here, a modified example of the above-described first embodiment will be described. FIG. 7 is a block diagram showing an image display system according to this modification. This modification is different from the first embodiment described above in the internal configuration of the image processing unit 11. Specifically, in the present modification, the imaging distortion correction process and the display distortion correction process are processed in common by the common distortion correction unit 702 and a common distortion table calculation unit 701 is provided. The video cutout unit 700 is configured to determine the cutout resolution based on the input from the common distortion table calculation unit 701.

共通歪みテーブル演算部701は、撮像光学特性保持部112と表示光学特性保持部114から読み込んだテーブル情報を元に新たにテーブルを生成する。そして、映像切り出し部700は、新たに生成したテーブルを用い、上述の第1の実施形態と同様にして切り出し解像度を決定する。これにより、撮像光学特性と表示光学特性を含めて切り出し領域を決定することができる。このように、本変形例では、共通の歪み補正処理を行う場合においてもシステム全体のパフォーマンスを最適にすることが可能となる。   The common distortion table calculation unit 701 newly generates a table based on the table information read from the imaging optical characteristic holding unit 112 and the display optical characteristic holding unit 114. Then, the video cutout unit 700 uses the newly generated table to determine the cutout resolution in the same manner as in the first embodiment described above. Thereby, it is possible to determine the cutout region including the imaging optical characteristic and the display optical characteristic. As described above, in this modification, it is possible to optimize the performance of the entire system even when a common distortion correction process is performed.

[その他の実施形態]
上述の説明では、HMD側が撮像部10と表示部13とを備え、情報処理装置(PC)側が画像処理部11と画像合成部12とを備える構成を示した。しかしながら、本発明は、このような形態に限定されるものではなく、例えば、上記4つの機能部の全てをHMD側が有し、HMD側だけで全ての処理が実行されるように構成してもよい。
[Other Embodiments]
In the above description, the configuration in which the HMD side includes the imaging unit 10 and the display unit 13 and the information processing apparatus (PC) side includes the image processing unit 11 and the image composition unit 12 is illustrated. However, the present invention is not limited to such a form. For example, the HMD side has all of the above four functional units, and all processes are executed only on the HMD side. Good.

また、上述の説明では、撮像光学特性保持部112と表示光学特性保持部114とがそれぞれ別々に構成された例について説明したが、撮像光学特性情報と表示光学特性情報とを単一の保持部で保持するような構成であってもよい。また、このような情報は、上述の実施形態に係る画像表示システムの外部に保持され、それを取得して利用するような形態であってもよい。   In the above description, the example in which the imaging optical characteristic holding unit 112 and the display optical characteristic holding unit 114 are configured separately has been described. However, the imaging optical characteristic information and the display optical characteristic information are stored in a single holding unit. It may be configured to be held by. Further, such information may be held outside the image display system according to the above-described embodiment, and may be acquired and used.

また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読出し実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。   In addition, the present invention supplies software (program) for realizing the functions of the above-described embodiments to a system or apparatus via a network or various storage media, and the computer of the system or apparatus (or CPU, MPU, etc.) programs Is read and executed. Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. The present invention is not limited to the above embodiments, and various modifications (including organic combinations of the embodiments) are possible based on the spirit of the present invention, and these are excluded from the scope of the present invention. is not. That is, the present invention includes all the combinations of the above-described embodiments and modifications thereof.

10 撮像部
11 画像処理部
12 画像合成部
13 表示部
DESCRIPTION OF SYMBOLS 10 Imaging part 11 Image processing part 12 Image composition part 13 Display part

Claims (10)

画像を撮像する撮像部と、使用者に表示すべき表示画像を表示する表示部と、を備える画像表示装置に接続された情報処理装置であって、
前記撮像部の撮像光学系に係る情報と前記表示部の表示光学系に係る情報との少なくとも一方に基づいて、前記撮像光学系と前記表示光学系との少なくとも一方による前記撮像された画像の歪みを補正する補正手段と、
前記補正された画像の一部を切り出す切り出し手段と、
を有することを特徴とする情報処理装置。
An information processing apparatus connected to an image display device comprising: an imaging unit that captures an image; and a display unit that displays a display image to be displayed to a user,
Distortion of the captured image by at least one of the imaging optical system and the display optical system based on at least one of information related to the imaging optical system of the imaging unit and information related to the display optical system of the display unit Correction means for correcting
Clipping means for cutting out a part of the corrected image;
An information processing apparatus comprising:
前記補正手段は、前記撮像光学系に係る情報に基づいて前記撮像光学系による画像の歪を補正する撮像歪み補正手段と、前記表示光学系に係る情報に基づいて前記表示光学系による画像の歪を補正する表示歪み補正手段と、から成ることを特徴とする請求項1に記載の情報処理装置。   The correction means includes an imaging distortion correction means for correcting image distortion caused by the imaging optical system based on information relating to the imaging optical system, and an image distortion caused by the display optical system based on information relating to the display optical system. The information processing apparatus according to claim 1, further comprising display distortion correction means for correcting 前記撮像光学系に係る情報と前記表示光学系に係る情報とに基づいて、前記撮像光学系に係る情報と前記表示光学系に共通した情報を演算する演算手段を更に有し、
前記補正手段は、前記演算手段により演算された情報に基づいて画像の歪みを補正することを特徴とする請求項1に記載の情報処理装置。
Based on the information related to the imaging optical system and the information related to the display optical system, it further includes a calculation means for calculating information related to the imaging optical system and information common to the display optical system,
The information processing apparatus according to claim 1, wherein the correction unit corrects image distortion based on information calculated by the calculation unit.
前記撮像光学系に係る情報と前記表示光学系に係る情報とは、前記撮像光学系と前記表示光学系における解像度、画角、および注目画素位置における補正量であることを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。   2. The information related to the imaging optical system and the information related to the display optical system are a resolution, a field angle, and a correction amount at a target pixel position in the imaging optical system and the display optical system. 4. The information processing apparatus according to any one of items 1 to 3. 前記撮像された画像の画角は、前記表示部に表示する表示画像の画角よりも大きいことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein an angle of view of the captured image is larger than an angle of view of a display image displayed on the display unit. 前記撮像部の撮像光学系に係る情報と前記表示部の表示光学系に係る情報とを保持する保持手段を更に有することを特徴する請求項1から5のいずれか1項に記載の情報処理装置。   6. The information processing apparatus according to claim 1, further comprising a holding unit configured to hold information related to an imaging optical system of the imaging unit and information related to a display optical system of the display unit. . 前記画像表示装置は、使用者の頭部に装着されて使用されることを特徴する請求項1から6のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the image display apparatus is used by being mounted on a user's head. 画像を撮像する撮像部と、
前記撮像部の撮像光学系に係る情報と表示部の表示光学系に係る情報との少なくとも一方に基づいて、前記撮像光学系と前記表示光学系との少なくとも一方による前記撮像された画像の歪みを補正する補正手段と、
前記補正された画像の一部を切り出す切り出し手段と、
前記切り出された画像に基づいて、使用者に表示すべき表示画像を表示する表示部と、
を有することを特徴とする画像表示装置。
An imaging unit that captures an image;
Based on at least one of the information related to the imaging optical system of the imaging unit and the information related to the display optical system of the display unit, distortion of the captured image by at least one of the imaging optical system and the display optical system is reduced. Correction means for correcting;
Clipping means for cutting out a part of the corrected image;
A display unit for displaying a display image to be displayed to the user based on the clipped image;
An image display device comprising:
画像を撮像する撮像部と、
前記撮像部の撮像光学系に係る情報と表示部の表示光学系に係る情報との少なくとも一方に基づいて、前記撮像光学系と前記表示光学系との少なくとも一方による前記撮像された画像の歪みを補正する補正手段と、
前記補正された画像の一部を切り出す切り出し手段と、
前記切り出された画像に基づいて、使用者に表示すべき表示画像を表示する表示部と、
を有することを特徴とする画像表示システム。
An imaging unit that captures an image;
Based on at least one of the information related to the imaging optical system of the imaging unit and the information related to the display optical system of the display unit, distortion of the captured image by at least one of the imaging optical system and the display optical system is reduced. Correction means for correcting;
Clipping means for cutting out a part of the corrected image;
A display unit for displaying a display image to be displayed to the user based on the clipped image;
An image display system comprising:
画像を撮像する撮像部と、使用者に表示すべき表示画像を表示する表示部と、を備える画像表示装置に接続された情報処理装置における情報処理方法であって、
前記撮像部の撮像光学系に係る情報と前記表示部の表示光学系に係る情報との少なくとも一方に基づいて、前記撮像光学系と前記表示光学系との少なくとも一方による前記撮像された画像の歪みを補正するステップと、
前記補正された画像の一部を切り出すステップと、
を有することを特徴とする情報処理方法。
An information processing method in an information processing apparatus connected to an image display apparatus comprising: an imaging unit that captures an image; and a display unit that displays a display image to be displayed to a user,
Distortion of the captured image by at least one of the imaging optical system and the display optical system based on at least one of information related to the imaging optical system of the imaging unit and information related to the display optical system of the display unit A step of correcting
Cutting out a portion of the corrected image;
An information processing method characterized by comprising:
JP2016075487A 2016-04-04 2016-04-04 Information processing device, image display device, image display system, and information processing method Expired - Fee Related JP6711670B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016075487A JP6711670B2 (en) 2016-04-04 2016-04-04 Information processing device, image display device, image display system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016075487A JP6711670B2 (en) 2016-04-04 2016-04-04 Information processing device, image display device, image display system, and information processing method

Publications (3)

Publication Number Publication Date
JP2017188757A true JP2017188757A (en) 2017-10-12
JP2017188757A5 JP2017188757A5 (en) 2019-05-09
JP6711670B2 JP6711670B2 (en) 2020-06-17

Family

ID=60046620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016075487A Expired - Fee Related JP6711670B2 (en) 2016-04-04 2016-04-04 Information processing device, image display device, image display system, and information processing method

Country Status (1)

Country Link
JP (1) JP6711670B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020167658A (en) * 2019-03-29 2020-10-08 株式会社ソニー・インタラクティブエンタテインメント Image creation device, head-mounted display, content processing system, and image display method
JP2020167657A (en) * 2019-03-29 2020-10-08 株式会社ソニー・インタラクティブエンタテインメント Image processing apparatus, head-mounted display, and image display method
US11892637B2 (en) 2019-03-29 2024-02-06 Sony Interactive Entertainment Inc. Image generation apparatus, head-mounted display, content processing system, and image display method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007065899A (en) * 2005-08-30 2007-03-15 Canon Inc Display device, display control device and control method
JP2008005460A (en) * 2006-05-22 2008-01-10 Canon Inc Display apparatus with image-capturing function, image processing apparatus, image processing method, and image display system
JP2009156992A (en) * 2007-12-25 2009-07-16 Canon Inc Controller, display, control method therefor, augmented reality system, and computer program
JP2011203446A (en) * 2010-03-25 2011-10-13 Fujifilm Corp Head-mounted display device
JP2013033321A (en) * 2011-08-01 2013-02-14 Dainippon Printing Co Ltd Animation presentation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007065899A (en) * 2005-08-30 2007-03-15 Canon Inc Display device, display control device and control method
JP2008005460A (en) * 2006-05-22 2008-01-10 Canon Inc Display apparatus with image-capturing function, image processing apparatus, image processing method, and image display system
JP2009156992A (en) * 2007-12-25 2009-07-16 Canon Inc Controller, display, control method therefor, augmented reality system, and computer program
JP2011203446A (en) * 2010-03-25 2011-10-13 Fujifilm Corp Head-mounted display device
JP2013033321A (en) * 2011-08-01 2013-02-14 Dainippon Printing Co Ltd Animation presentation device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020167658A (en) * 2019-03-29 2020-10-08 株式会社ソニー・インタラクティブエンタテインメント Image creation device, head-mounted display, content processing system, and image display method
JP2020167657A (en) * 2019-03-29 2020-10-08 株式会社ソニー・インタラクティブエンタテインメント Image processing apparatus, head-mounted display, and image display method
JP7365183B2 (en) 2019-03-29 2023-10-19 株式会社ソニー・インタラクティブエンタテインメント Image generation device, head mounted display, content processing system, and image display method
US11892637B2 (en) 2019-03-29 2024-02-06 Sony Interactive Entertainment Inc. Image generation apparatus, head-mounted display, content processing system, and image display method
JP7429515B2 (en) 2019-03-29 2024-02-08 株式会社ソニー・インタラクティブエンタテインメント Image processing device, head-mounted display, and image display method

Also Published As

Publication number Publication date
JP6711670B2 (en) 2020-06-17

Similar Documents

Publication Publication Date Title
JP5388534B2 (en) Image processing apparatus and method, head-mounted display, program, and recording medium
US9313411B2 (en) Camera, distortion correction device and distortion correction method
JP6478511B2 (en) Image processing method, image processing apparatus, compound eye imaging apparatus, image processing program, and storage medium
US20130208081A1 (en) Method for combining images
JP6711670B2 (en) Information processing device, image display device, image display system, and information processing method
US9143756B2 (en) Camera module, photographing method, and electronic apparatus
JP6904684B2 (en) Image processing equipment, image processing methods, and programs
JP6971590B2 (en) Image processing equipment, image processing methods and programs
JP6862210B2 (en) Image processing equipment, image processing system, image processing method and program
JP7081265B2 (en) Image processing equipment
US10371953B2 (en) Image display system and information processing apparatus and control methods thereof
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP5535099B2 (en) Camera module and image recording method
JP2017212720A (en) Image processing apparatus, image processing method, and program
JP6932526B2 (en) Image display device, image display method and program
US10616504B2 (en) Information processing device, image display device, image display system, and information processing method
US20240370978A1 (en) Image processing apparatus that combines captured image and cg image, image processing method, and storage medium
KR101775967B1 (en) Apparatus and method for converting image
WO2018084051A1 (en) Information processing device, head-mounted display, information processing system, and information processing method
JP6622537B2 (en) Image processing apparatus, image processing system, and image processing method
JP2024084218A (en) Image processing apparatus, and image processing method
JP2006041795A (en) Image display apparatus
JP2019029952A (en) Image processing system, image processing method, and program
JP2023124471A (en) Imaging apparatus, information processing device, control method, program, and storage medium
JP6564939B2 (en) Wide viewing angle image processing apparatus and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200528

R151 Written notification of patent or utility model registration

Ref document number: 6711670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees