JP2018073366A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2018073366A
JP2018073366A JP2016216634A JP2016216634A JP2018073366A JP 2018073366 A JP2018073366 A JP 2018073366A JP 2016216634 A JP2016216634 A JP 2016216634A JP 2016216634 A JP2016216634 A JP 2016216634A JP 2018073366 A JP2018073366 A JP 2018073366A
Authority
JP
Japan
Prior art keywords
image
image processing
unit
processing apparatus
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016216634A
Other languages
English (en)
Other versions
JP6904684B2 (ja
Inventor
明人 竹谷
Akihito Taketani
明人 竹谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016216634A priority Critical patent/JP6904684B2/ja
Priority to US15/801,098 priority patent/US10373293B2/en
Publication of JP2018073366A publication Critical patent/JP2018073366A/ja
Application granted granted Critical
Publication of JP6904684B2 publication Critical patent/JP6904684B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/30Clipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 MRシステムにおける分離生成された各映像に対して、使用用途に応じた適切な画像処理を行えるようにすること。【解決手段】 本発明は、撮像部により撮像された画像から解像度の異なる第1の画像と第2の画像とを生成し、第1の画像と第2の画像とに対して異なる画像処理を実行する。そして、処理された第1の画像に基づいて撮像部の位置姿勢を算出して、仮想画像を生成する。生成した仮想画像を画像処理した第2の画像と合成して合成画像を生成し、この画像を表示画像とする。【選択図】 図2

Description

本発明は、撮像装置により撮像された画像データを処理する技術に関する。
近年、現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、ビデオシースルーHMD(Head Mounted Display)を利用するものが知られている。この技術では、HMD装着者(ユーザ)によって観察される現実空間をカメラ(撮像部)で撮像する。また、撮像部の位置と方向とに基づいて、CG(Computer Graphics)によりレンダリング(描画)された仮想画像を生成する。そして、撮像画像と仮想画像とを合成した合成画像を液晶や有機EL等の表示デバイスに表示して、その合成画像をユーザが観察できるようにする。
このMRシステムにおいて、高画質化を図るために撮像装置の撮像素子が高画素化されると、処理伝送されるデータの総量が増加しシステムが肥大化する。そのため、画像の使用用途に応じて解像度を変換もしくは画像の一部を切り出して映像を分離生成することが考えられる。その際、分離生成された映像はシステム後段での使用用途が異なることから、それぞれ適切な画像処理を適用することが望まれる。
特許文献1には、車載式のステレオカメラ測距装置において、同一の撮像素子から取得する映像をモニタ用の映像とステレオ画像処理回路用の映像に分離し、ステレオ画像処理回路用の映像に対してのみ、輝度に関する非線形な処理を行うことが記載されている。
特開2009−121870号公報
しかしながら、特許文献1の技術では、MRシステムにおける分離生成された各映像に対して、使用用途に応じた適切な画像処理を行うことは提案されていなかった。
上記課題を解決するために、本発明は、撮像部により撮像された画像に基づいて、所定解像度の第1の画像と、前記所定解像度より高い解像度の第2の画像と、を生成する第1の生成手段と、前記生成された第1の画像に対して第1の画像処理を行う第1の処理手段と、前記生成された第2の画像に対して前記第1の画像処理とは異なる第2の画像処理を行う第2の処理手段と、前記処理された第1の画像に基づいて前記撮像部の位置と方向を導出する導出手段と、前記導出された位置と方向に基づいて仮想画像を生成する第2の生成手段と、前記処理された第2の画像と前記生成された仮想画像とに基づいて合成画像を生成する合成手段と、を有することを特徴とする。
以上の構成によれば、本発明は、MRシステムにおける分離生成された各映像に対して、使用用途に応じた適切な画像処理を行うことができる。
第1の実施形態に係る画像表示システムを示すブロック図。 第1の実施形態に係る画像表示システムにおける画像処理を示す概念図。 第1の実施形態に係る映像の伝送手順の処理を示すフローフローチャート。 第2の実施形態に係る画像表示システムを示すブロック図。 第2の実施形態に係る映像の伝送手順の処理を示すフローフローチャート。
[第1の実施形態]
以下、本発明の第1の実施形態について、図面を参照しながら説明する。図1は、本実施形態における画像表示システムの構成を示す概略ブロック図である。図1に示すように、本実施形態に係る画像表示システムは、大きく分けて4つの部分より構成されており、撮像映像を生成する撮像部10と、撮像映像を分離生成し撮像映像および表示映像に対して画像処理を行う処理伝送部11とを有する。さらに、位置合わせ演算、仮想現実CGを生成する各種演算ならびに表示映像に合成する処理を実行する演算合成部12と、表示映像を表示し体験者に映像を視認させる表示部13とを有している。
撮像部10および表示部13は、本システムにおける画像表示装置に相当するヘッドマウントディスプレイ(以下、HMD)に備えられている。一方、処理伝送部11および演算合成部12は本システムにおける画像処理装置に相当するPCに備えられている。HMDおよび画像処理装置(PC)は互いに有線方式または無線方式により接続され、それぞれCPU、ROM、RAM等のハードウェア構成を備える。そして、CPUがROMやHD等に格納されたプログラムを実行することにより、例えば、後述する各機能構成やフローチャートの処理が実現される。RAMは、CPUがプログラムを展開して実行するワークエリアとして機能する記憶領域を有する。ROMは、CPUが実行するプログラム等を格納する記憶領域を有する。
また、本システムにおける画像表示装置は、現実空間を撮影した映像にコンピュータグラフィックス(CG)を重畳して表示させるもので、いわゆるビデオシースルーHMDである。このビデオシースルーHMDにおいては、ユーザの視線に略一致するよう、特定の位置姿勢から見た仮想現実物体をCGとして描画することが重要であり、この位置姿勢を合わせるために加速度や角速度などのセンサならびにGPSなどを用いる技術が存在する。その一方で、本実施形態においてはHMDに撮像センサを搭載しているため、撮像映像内にマーカーや空間的な特徴点があれば、演算合成部12によって位置姿勢ならびにCGの重畳が高精度で実現できる。この位置合わせ演算用の撮像映像は高解像であることよりも広画角であることが要求される。一方、ビデオシースルーの背景画像としてHMDの表示部13に表示するための撮像映像は表示画角に合わせて出来る限り高解像であることが望ましい。
このように、システム後段における用途の違いにより、同一の撮像映像といえども要求の異なる映像が複数種類混在する。本実施形態では、この特徴を利用して処理伝送部11において映像を分離し、システム後段の性能を向上させる構成について説明する。なお、演算合成部12においてステレオカメラを用いた位置合わせ演算は演算合成処理の一例であり、顔検出処理や物体認識処理など解像度が異なる映像を要求する処理を用いた別の構成も考えられる。
以下に、本実施形態の画像表示システムの各機能部の詳細について説明する。撮像部10は、撮像光学系である撮像レンズ100と撮像素子であるイメージセンサ101を含み、撮像レンズ100を介して結像された被写体像をイメージセンサ101による光電変換によって撮像映像を取得する。前述のとおり位置合わせ演算のために撮像レンズ100は、広画角であることが望ましい。イメージセンサ101は、例えばCMOSイメージセンサやCCDイメージセンサなどの半導体センサから構成され、撮像素子ごとに分光感度が異なることから、画像処理によって色や明るさを調整する必要がある。
表示部13は、表示プリズム130とディスプレイ131を含み、演算合成部12にて合成された表示映像をディスプレイ131に表示し、表示プリズム130を介して光束を観察対象者に結像させる。HMDの構成によって表示プリズム130はレンズでも構わないし、もしくは不要である。ディスプレイ131は、例えば液晶表示パネルや有機ELパネル等の表示素子から構成される。撮像素子と同様にディスプレイごとに発色が異なることから、画像処理によって色や明るさを調整する必要がある。
処理伝送部11は、同一の撮像映像から解像度変換ならびに切り出し処理によって複数の映像を生成する画像分離部110を有する。また、解像度変換された撮像画像を処理する画像処理A部111と、切り出された撮像画像を処理する画像処理B部112と、合成画像を処理する画像処理C部113とを有している。画像処理A部111、画像処理B部112、画像処理C部113が実行する画像処理はそれぞれ異なるものである。本実施形態では、画像分離部110において撮像映像を2つに分離しているが、システム後段の要求によっては3つ以上の複数に分離するようにしてもよい。
演算合成部12は、演算部120と、仮想現実CG生成部121と、表示画像合成部122とで構成される。位置合わせ演算部120は、撮像映像からマーカーや特徴点を検出し、HMD(撮像部)の位置および姿勢を演算により導出する。仮想現実CG生成部121は、前記位置合わせ演算部によって導出された位置姿勢から撮影される映像に重畳すべき仮想現実物体をCGとして描画して仮想画像を生成する。表示画像合成部122は、表示部13の要求に基づき画像分離部110にて切り出された背景用画像と前記仮想現実CGを合成して合成画像を生成する。これらの演算および合成処理は膨大な演算が必要となることが多く、高画素化に伴いより多くのシステムリソースを消費するため、ハイエンドPCやワークステーションなどが使用されることが多い。
次に、図2を用いて、本実施形態に係る画像表示システムにおける画像処理の流れについて説明する。図2において、撮像画像200はイメージセンサ101により撮像された画像であり、広画角かつ高解像な画像を表している。画像分離部110は、この画像を、解像度を変換し広画角かつ低解像な画像201と、一部を切り出した狭画角かつ高解像な画像202とに分離生成する。この際、解像度を変換する方法は画素混合や単純間引きなど様々な手法が存在し、本実施形態では特定の手法に限定されるものではない。また、切り出される画角は元となる画角の一部に包含される。このように、ここでは、所定解像度により所定範囲を示す画像(画像201)と、所定解像度よりも高い解像度により所定範囲の一部を示す画像(画像202)とが生成される。
なお、ここでは、撮像画像200の一部を切り出すことにより画像202を生成して、画像201と画像202とで表示範囲(画角)を異ならせている。しかし、画像分離部110の処理の段階では、画像202の画角は撮像画像200のままとし、表示画像203を生成する前までの所定のタイミングで、切り出すようにしてもよい。また、画像201と画像202のデータ量の合計は、撮像画像200のデータよりも小さくなるように、画像201と画像202とを生成することにより、後段の処理負荷を軽減できるようにすることが好ましい。
画像処理A21は、画像処理A部111によって広画角かつ低解像な画像201に適用される処理であり、色補間211、ゲイン調整222、ノイズ除去213、色補正214、ガンマ補正215、輪郭強調216の各処理がこの順に実行される。この処理順はシステムに応じて変更してもよいし、他の処理を追加しても構わない。ここで、色補間211は画像分離部110において行われる解像度変換の影響を受けるため、その前に実行することも考えられる。ゲイン調整212は後段の演算を安定させるために固定であることが望ましい。ノイズ除去213は後段で1フレーム内の演算が重視される際に、時間方向へのノイズ除去よりも空間方向へのノイズ除去が望ましい。色補正214および215ガンマ補正はマーカーや特徴点の導出のための演算を素早く安定させるために、マーカーの特徴や自然特徴が強調された画像処理とすることが望ましい。輪郭強調216もエッジを検出しやすくするため強めに処理をかけることが望ましいが、先に述べた解像度変換の方法によってエッジ形状が変化するため、その変化を考慮した処理とすることが望まれる。
画像処理B22は、画像処理B部112によって狭画角かつ高解像な画像202に適用される処理であり、色補間211、ゲイン調整222、ノイズ除去213、色補正214、ガンマ補正215、輪郭強調216の各処理がこの順に実行される。この処理順はシステムに応じて変更してもよいし、他の処理を追加しても構わない。ここで、色補間211は画像分離部110において解像度変換する前に実行することも考えられる。ゲイン調整212は人間の眼で見やすいよう調整されることが望ましい。ノイズ除去213は人間の眼の特性に合わせて、空間方向へのノイズ除去よりも時間方向へのノイズ除去が望ましい。色補正214および215ガンマ補正は、自然な原画像を忠実に再現するよう、再現性の高い画像処理とすることが望ましい。輪郭強調216も、エッジを強調しすぎず人間の眼で見て違和感の無い処理とすることが望ましい。
位置合わせ演算204は、位置合わせ演算部120により実行される処理で、画像処理Aが施された画像からマーカーや特徴点が検出され、HMD(撮像部)の位置および姿勢が導出される。CG生成205は、仮想現実CG生成部121により実行される処理であり、位置合わせ演算204の演算結果(撮像部の位置姿勢)に応じたCG生成の処理が行われる。表示合成206は、表示画像合成部122により実行される処理であり、生成されたCG映像と、画像処理B22が適用された切り出し画像202とが合成される。
画像処理C23は、画像処理C部113によって表示合成206の処理により合成された映像に適用される処理であり、ゲイン調整231、色補正232、ガンマ補正233、輪郭強調234の各処理がこの順に実行される。この処理順は、システムに応じて変更してもよいし、他の処理を追加しても構わない。HMDのディスプレイ131には、合成画像に画像処理C23を適用した表示画像203が表示されるため、画像処理Cにある一連の画像処理は、ディスプレイ131の部品特性に応じた調整を行うことが望ましい。
このように、画像処理A21を調整することで位置合わせ演算204の性能が向上し、画像処理B22を調整することで表示合成206において合成される映像が人間の眼に見やすいものとなる。また、画像処理C23を調整することでディスプレイ131に正しい映像が表示される。すなわち、撮像された映像から複数の画像を分離、生成した上で、異なる画像処理方法および画像処理量を異なる用途のために適用することで、各部の性能が向上する。さらには、システム全体のリソースを鑑みて不要な画像処理を削除することで回路規模の縮小が図れる。
続いて、本実施形態における映像の伝送手順について説明する。図3は、本実施形態における映像の伝送手順を示したフローチャートである。
ステップS300では、HMDのCPUが、撮像部10で撮像された映像を処理伝送部11内の画像分離部110に送出する。ここでは、前述のとおり広画角かつ高解像な映像が伝送されている。以降、ステップS301〜S304とステップS305〜S306とが並列処理される。
ステップS301では、画像分離部110が、位置合わせ演算部120で行われる演算で要求される解像度に基づき、撮像映像の解像度変換を行う。ステップS302では、画像処理A部111は、解像度変換された映像のゲイン調整や色補正およびノイズ除去などの位置合わせ演算部120で行われる演算で要求される画像に基づいた画像処理Aの各処理を行う。ステップS303では、位置合わせ演算部120は、撮像映像内のマーカーや空間的な特徴点を検出してHMD(撮像部)の位置及び姿勢を演算から推定する。ステップS304では、仮想現実CG生成部121が、ステップS303において推定された位置姿勢情報を元に、推定された位置および姿勢から見た仮想現実物体をCGとして描画生成する。
一方、ステップS305では、ステップS301との並列処理が開始され、画像分離部110が、イメージセンサ101で撮像された撮像映像から表示画像合成部122もしくはディスプレイ131の仕様に基づいて要求される解像度の画像に切り出しを行う。ステップS306では、画像処理B部112が、切り出された画像に対して人間の眼で見た際に好ましいように、自然原画像に忠実な画像とする各種画像処理Bの各処理を行う。
続いて、ステップS307では、表示画像合成部122が、画像分離部110により切り出された背景に使用する撮像映像と、仮想現実CG生成部121により生成された仮想現実CGとを合成する。ステップS308では、画像処理C部113が、生成された合成映像に対してゲイン調整や色補正などを、ディスプレイ131の特性に応じた各種画像処理Cとして行う。ステップS309では、表示画像合成部122で合成され、画像処理C部113で画像処理を行われた表示用映像を表示部13内のディスプレイ131に表示する。
以上、本実施形態によれば、ユーザは自身の視線に略一致したビデオシースルー背景映像と、自身の位置姿勢から見た仮想現実物体CGを重畳した仮想現実空間とをHMDを通して体験することが可能となる。また、画像処理A部111,画像処理B部112,画像処理C部113それぞれにおいて、異なる要求に対し異なる画像処理を行えることから、位置合わせ精度が向上し人間の眼に見やすい映像となり、システム全体の性能が向上する。
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。第1の実施形態により、分離生成された撮像映像データそれぞれに適した画像処理を実行することが可能となったが、このような画像処理装置においては、画像処理の状況がシステム構成に応じて、または刻一刻と時間変化する状況が考えられる。システム構成に応じて変化する例として、演算合成部12で行われる演算が白黒のマーカーを検出するソフトウェアからフルカラーの特徴点を検出するソフトウェアに変更された場合や、撮像部10と表示部13を含むHMDが交換された場合などが考えられる。HMDが交換されることによってイメージセンサ101の分光感度が変化すること、また、ディスプレイ131の特性が変化することから、合わせて画像処理も変更することが望ましい。さらに、刻一刻と時間変化する例として、屋内から屋外など被写体の変化に伴い輝度や色が大きく変わるような状況や、マーカーおよび特徴点の映り込む大きさが変わる状況において、一意の画像処理では変化に追従できず性能を発揮できない状況となる。そこで、本実施形態では、画像表示システムのシステム構成の変化や外部の環境の時間変化等にも対応できるようにすることを目的とする。なお、第1の実施形態において既に説明をした構成については同一の符号を付し、その説明は省略する。
図4は、本実施形態に係る画像表示システムの構成を示すブロック図である。第1の実施形態と異なる点は、処理伝送部11内に画処理制御部400が追加されていることである。画処理制御部400は、画像表示システムの各機能部と接続しており、必要な画像処理の状況を監視する。また、位置合わせ演算部120や表示画像合成部122からの要求に基づいて、画像処理A部111、画像処理B部112、画像処理C部113に対して画像処理方法及び画像処理量を変更する指示を出す。画像処理量とは、各種画像処理にいて使用されるパラメータや処理における閾値等のことである。
フルカラーから白黒になる場合やシステムの構成が変更された場合などは、関連する画像処理そのものを削除することで遅延などその他の性能を向上させることが可能になる。逆に、処理性能が十分に高い処理伝送部11が用意される場合は、各ブロックの要求に従い更に高度な画像処理を追加することで性能を向上させることが可能になる。
図5は、本実施形態における映像の伝送手順を示したフローチャートである。このフローチャートで示す本実施形態の処理が、第1の実施形態と異なる点は、ステップS500〜S503が追加されていることである。ここでは、
ステップS500では、画処理制御部400が、画像処理A部111、画像処理B部112、画像処理C部113に対して出す指示方法が自動設定モードかそうでないかを判断する。ここで、自動設定モードとはシステムが自動で各部の状況に応じて動的に画像処理設定を変更するモードである。自動設定モードの場合はステップS501へ処理が移り、自動設定モードで無い場合はS503へ処理が移る。
ステップS501では、画処理制御部400が、自動設定モードの場合に、システム各部と接続された画像処理制御部400がシステム各部からのフィードバックに基づいて演算を行い、各画像処理部に対する設定値(画像処理量)を取得する。そして、ステップS502では、画像処理制御部400から各画像処理部に対して、ステップS501で演算された設定値に基づいた指示を出す。
一方、ステップS503では、画処理制御部400が、自動設定モードで無い場合に、ユーザからの画処理設定値を取得する。この場合、システムに設定された初期値を用いることも可能であり、システム変更に応じてユーザから事前に入力された設定値を用いることも可能である。画処理制御部400はいずれかの設定値を取得することで、ステップS502において各画像処理部に対して指示を出す。
ステップS502以降の処理は、第1の実施形態で説明した構成と同様のため説明を省略する。本実施形態によれば、映像データの画処理設定を能動的に変化させることが可能となり、システム全体の性能が向上するように映像データの画像処理設定を変更することが可能となる。
[その他の実施形態]
上述の説明では、HMD側が撮像部10と表示部13とを備え、情報処理装置(PC)側が処理伝送部11と演算合成部12とを備える構成を示した。しかしながら、本発明は、このような形態に限定されるものではなく、例えば、上記4つの機能部の全てをHMD側が有し、HMD側だけで全ての処理が実行されるように構成してもよい。
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(CPUやMPU等)がプログラムを読出し実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
10 撮像部
11 処理伝送部
12 演算合成部
13 表示部

Claims (12)

  1. 撮像部により撮像された画像に基づいて、所定解像度の第1の画像と、前記所定解像度より高い解像度の第2の画像と、を生成する第1の生成手段と、
    前記生成された第1の画像に対して第1の画像処理を行う第1の処理手段と、
    前記生成された第2の画像に対して前記第1の画像処理とは異なる第2の画像処理を行う第2の処理手段と、
    前記処理された第1の画像に基づいて前記撮像部の位置と方向を導出する導出手段と、
    前記導出された位置と方向に基づいて仮想画像を生成する第2の生成手段と、
    前記処理された第2の画像と前記生成された仮想画像とに基づいて合成画像を生成する合成手段と、
    を有することを特徴とする画像処理装置。
  2. 前記第1の画像は所定範囲を示す画像であり、前記第2の画像は前記所定範囲の一部の範囲を示す画像であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の生成手段は、前記第1の画像と第2の画像との合計のデータ量が前記撮像部により撮像された画像のデータ量よりも小さくなるように、前記第1の画像と第2の画像とを生成することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第1の生成手段は、前記撮像部により撮像された画像を解像度変換することにより前記第1の画像を生成することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記第1の生成手段は、前記撮像部により撮像された画像を解像度変換するとともに前記撮像された画像の一部を切り出すことにより前記第2の画像を生成することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記第1の画像処理および前記第2の画像処理はノイズ除去を含み、前記第1の画像処理におけるノイズ除去は空間方向へのノイズ除去が強調され、前記第2の画像処理におけるノイズ除去は時間方向へのノイズ除去が強調されていることを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7. 前記第1の画像処理および前記第2の画像処理は色補正およびガンマ補正を含み、前記第1の画像処理における色補正およびガンマ補正は前記撮像された画像に含まれるマーカーの特徴または自然特徴が強調され、前記第1の画像処理における色補正およびガンマ補正は前記撮像された画像の再現性が高いことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記画像処理装置を含むシステムの構成の変更または外部の環境の変化に基づいて、前記第1の画像処理および前記第2の画像処理を変更する制御部を更に有することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記画像処理装置は、前記撮像部と表示部とを有する画像表示装置と接続されていることを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記画像処理装置は、ヘッドマウントディスプレイであることを特徴とする請求項9に記載の画像処理装置。
  11. 撮像部により撮像された画像に基づいて、所定解像度の第1の画像と、前記所定解像度より高い解像度の第2の画像と、を生成するステップと、
    前記生成された第1の画像に対して第1の画像処理を行うステップと、
    前記生成された第2の画像に対して前記第1の画像処理とは異なる第2の画像処理を行うステップと、
    前記処理された第1の画像に基づいて前記撮像部の位置と方向を導出するステップと、
    前記導出された位置と方向に基づいて仮想画像を生成するステップと、
    前記処理された第2の画像と前記生成された仮想画像とに基づいて合成画像を生成するステップと、
    を有することを特徴とする画像処理方法。
  12. コンピュータを請求項1から10のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2016216634A 2016-11-04 2016-11-04 画像処理装置、画像処理方法、およびプログラム Active JP6904684B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016216634A JP6904684B2 (ja) 2016-11-04 2016-11-04 画像処理装置、画像処理方法、およびプログラム
US15/801,098 US10373293B2 (en) 2016-11-04 2017-11-01 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016216634A JP6904684B2 (ja) 2016-11-04 2016-11-04 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2018073366A true JP2018073366A (ja) 2018-05-10
JP6904684B2 JP6904684B2 (ja) 2021-07-21

Family

ID=62064744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016216634A Active JP6904684B2 (ja) 2016-11-04 2016-11-04 画像処理装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US10373293B2 (ja)
JP (1) JP6904684B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10410324B2 (en) 2017-10-31 2019-09-10 International Business Machines Corporation Displaying computer graphics according to arrangement and orientation attributes
US11331538B2 (en) * 2018-08-07 2022-05-17 Interactive Strength, Inc. Interactive exercise machine data architecture
US11373391B2 (en) * 2020-03-16 2022-06-28 Novatek Microelectronics Corp. Image processing device, image processing system and image processing method
WO2023034633A2 (en) * 2021-09-03 2023-03-09 Meta Platforms Technologies, Llc Wrist-wearable device for delayed processing of images captured by the wrist-wearable device, and methods of use thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002150282A (ja) * 2000-11-10 2002-05-24 Sony Corp 画像処理装置及びその方法、並びにプログラム記録媒体
JP2007286851A (ja) * 2006-04-14 2007-11-01 Canon Inc 画像処理システム、画像処理装置、撮像装置、及びそれらの制御方法
JP2010092436A (ja) * 2008-10-10 2010-04-22 Canon Inc 画像処理装置、画像処理方法
WO2014077046A1 (ja) * 2012-11-13 2014-05-22 ソニー株式会社 画像表示装置及び画像表示方法、移動体装置、画像表示システム、並びにコンピューター・プログラム
JP2014199527A (ja) * 2013-03-29 2014-10-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2014215755A (ja) * 2013-04-24 2014-11-17 キヤノン株式会社 画像処理システム、画像処理装置及び画像処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5076755B2 (ja) * 2007-09-07 2012-11-21 ソニー株式会社 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP5172283B2 (ja) 2007-11-13 2013-03-27 パナソニック株式会社 ステレオ画像処理装置、ステレオ画像処理方法およびプログラム
US8724928B2 (en) * 2009-08-31 2014-05-13 Intellectual Ventures Fund 83 Llc Using captured high and low resolution images
JP5984493B2 (ja) * 2011-06-24 2016-09-06 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置およびプログラム
JP6431245B1 (ja) * 2015-11-05 2018-11-28 グーグル エルエルシー エッジ認識双方向画像処理
US10762429B2 (en) * 2016-05-18 2020-09-01 Microsoft Technology Licensing, Llc Emotional/cognitive state presentation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002150282A (ja) * 2000-11-10 2002-05-24 Sony Corp 画像処理装置及びその方法、並びにプログラム記録媒体
JP2007286851A (ja) * 2006-04-14 2007-11-01 Canon Inc 画像処理システム、画像処理装置、撮像装置、及びそれらの制御方法
JP2010092436A (ja) * 2008-10-10 2010-04-22 Canon Inc 画像処理装置、画像処理方法
WO2014077046A1 (ja) * 2012-11-13 2014-05-22 ソニー株式会社 画像表示装置及び画像表示方法、移動体装置、画像表示システム、並びにコンピューター・プログラム
JP2014199527A (ja) * 2013-03-29 2014-10-23 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2014215755A (ja) * 2013-04-24 2014-11-17 キヤノン株式会社 画像処理システム、画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP6904684B2 (ja) 2021-07-21
US20180130181A1 (en) 2018-05-10
US10373293B2 (en) 2019-08-06

Similar Documents

Publication Publication Date Title
JP5388534B2 (ja) 画像処理装置およびその方法、頭部装着型ディスプレイ、プログラム、記録媒体
US8941750B2 (en) Image processing device for generating reconstruction image, image generating method, and storage medium
JP5769751B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2012114639A1 (ja) オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP4847203B2 (ja) 情報処理方法、情報処理装置
JP6904684B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US10726814B2 (en) Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium
US20130278636A1 (en) Object display device, object display method, and object display program
WO2013105381A1 (ja) 画像処理方法、画像処理装置および画像処理プログラム
WO2018189880A1 (ja) 情報処理装置、情報処理システム、および画像処理方法
JP6521352B2 (ja) 情報提示システム及び端末
JP2006295506A (ja) 画像表示装置、およびその制御方法
US11756177B2 (en) Temporal filtering weight computation
JP2007096437A (ja) 画像生成者の意図の判定
US10371953B2 (en) Image display system and information processing apparatus and control methods thereof
JP6137910B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6711670B2 (ja) 情報処理装置、画像表示装置、画像表示システム、および情報処理方法
JP2018088604A (ja) 画像表示装置、画像表示方法、システム
JP4889036B2 (ja) 画像処理装置、画像処理方法
JP5649842B2 (ja) 情報提供装置、情報提供方法、及びプログラム
US10616504B2 (en) Information processing device, image display device, image display system, and information processing method
JP5889383B2 (ja) 画像処理装置および画像処理方法
WO2017110645A1 (ja) 作業支援装置、作業支援方法、作業支援プログラム、及び記録媒体
EP3182367A1 (en) Apparatus and method for generating and visualizing a 3d model of an object
JP2014049895A (ja) 画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210624

R151 Written notification of patent or utility model registration

Ref document number: 6904684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151