JPWO2015163169A1 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JPWO2015163169A1
JPWO2015163169A1 JP2016514863A JP2016514863A JPWO2015163169A1 JP WO2015163169 A1 JPWO2015163169 A1 JP WO2015163169A1 JP 2016514863 A JP2016514863 A JP 2016514863A JP 2016514863 A JP2016514863 A JP 2016514863A JP WO2015163169 A1 JPWO2015163169 A1 JP WO2015163169A1
Authority
JP
Japan
Prior art keywords
information
image
subject
texture
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016514863A
Other languages
English (en)
Inventor
孝文 森藤
孝文 森藤
朋紀 堤
朋紀 堤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015163169A1 publication Critical patent/JPWO2015163169A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2024Style variation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

本開示は、実物がそこにあるような質感をより再現することができるようにする画像処理装置および方法に関する。動作環境情報解析部は、画像の表示中に行われる、画像に対するユーザの動作環境情報を取得し、解析する。動作環境情報解析部は、解析した動作環境情報を、動作環境パラメータとして、特性制御部に供給する。特性制御部は、視環境パラメータや動作環境パラメータに応じて、画像合成部に質感制御を行わせ、質感制御を最適化する。本開示は、例えば、画像処理装置に適用することができる。

Description

本開示は、画像処理装置および方法に関し、特に、実物がそこにあるような質感をより再現することができるようにした画像処理装置および方法に関する。
映像のリアリティを高めることを目的に、コントラストや繊細感などを調整する技術が開発されてきた。
なお、特許文献1においては、画像中の物体の色補正や所望の色再現を実現して高画質化を図るといった技術が提案されている。
国際公開第2010/087162号
しかしながら、コントラストや繊細感などの基礎画質を高めるだけでは、性能に限界があった。そこで、例えば、被写体を実際に見たかのような状況を映像で再現するなどのように、実物がそこにあるような質感を再現することが求められている。
本開示は、このような状況に鑑みてなされたものであり、実物がそこにあるような質感をより再現することができるものである。
本開示の一側面の画像処理装置は、画像の表示中に行われるユーザの動作に関するユーザ動作情報を取得するユーザ動作情報取得部と、前記ユーザ動作情報取得部により取得されたユーザ動作情報に応じて、前記画像における被写体の質感を制御する質感制御部とを備える。
前記ユーザ動作情報は、表示される画像に対して入力されるユーザの操作情報である。
前記ユーザ動作情報は、表示される画像に対するユーザの視線情報である。
前記ユーザ動作情報は、前記画像が表示されるディスプレイをユーザが動かした傾き情報である。
前記ユーザ動作情報は、表示される画像を視聴するユーザの視聴に関する視聴情報である。
前記質感制御部は、前記画像における被写体の反射特性の強弱を調整することができる。
前記質感制御部は、前記画像における被写体の視点位置を変化させることができる。
前記質感制御部は、前記画像における被写体の形状を変化させることができる。
前記質感制御部による制御の内容に応じて、表示される画像を視聴する視聴環境を調整するための情報である付加情報を生成する付加情報生成部をさらに備えることができる。
前記付加情報は、視聴環境光を調整するための情報である。
画像の被写体に関する物理特性パラメータを取得する物理特性パラメータ取得部をさらに備え、前記質感制御部は、前記物理特性パラメータ取得部により取得された物理特性パラメータに応じて、前記画像における被写体の質感を制御することができる。
前記物理特性パラメータは、前記被写体の反射特性を示す反射特性情報である。
前記物理特性パラメータは、前記被写体の材質を示す情報である。
前記物理特性パラメータは、前記被写体の形状を示す情報である。
前記物理特性パラメータは、前記被写体の照明に関する情報である。
本開示の一側面の画像処理方法は、画像処理装置が、画像の表示中に行われるユーザの動作に関するユーザ動作情報が取得し、取得されたユーザ動作情報に応じて、前記画像における被写体の質感を制御する。
本開示の一側面においては、画像の表示中に行われるユーザの動作に関するユーザ動作情報が取得される。そして、取得されたに応じて、前記画像における被写体の質感が制御される。
本開示の一側面によれば、画像を処理することができる。特に、実物がそこにあるような質感をより再現することができる。なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。
本技術のコンセプトを説明する図である。 本技術の質感制御方法について説明する図である。 画像処理装置の主な構成例を示すブロック図である。 画像処理装置の他の構成例を示すブロック図である。 事前知識データベースの情報の例を示す図である。 本技術の実施例1を説明する図である。 本技術の実施例2を説明する図である。 本技術の実施例3を説明する図である。 本技術の実施例4を説明する図である。 本技術の実施例5を説明する図である。 本技術の実施例6を説明する図である。 本技術の実施例7を説明する図である。 実施例をまとめた表を示す図である。 図3の画像処理装置の画像処理を説明するフローチャートである。 計測・推定・統合処理について説明するフローチャートである。 視環境情報に基づく処理について説明するフローチャートである。 材質に基づく反射特性調整処理について説明するフローチャートである。 視線情報に基づく処理について説明するフローチャートである。 操作情報に基づく処理について説明するフローチャートである。 図4の画像処理装置の画像処理を説明するフローチャートである。 テクスチャ復元処理を説明するフローチャートである。 フィードバック処理を説明するフローチャートである。 パーソナルコンピュータの主な構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.本技術の概要
2.構成例
3.実施例
4.処理例
5.コンピュータの構成例
<1.本技術の概要>
[本技術のコンセプト]
図1を参照して、本技術のコンセプトについて説明する。本技術は、画像における物体の質感を向上させるようにするものである。
実世界において、人間が目に感じるもの、すなわち、光がどういう形で目に入ってくるかという物理的情報(Material imformation)が根本的に必要な情報である。これらの物理的情報は、例えば、太陽光(照明: lighting)、物体の形状(geometry)、物体の反射成分(reflectance)などであり、これらの物理的情報があれば、理論的には、光を再現することができる。
これらの物理的情報は、カメラのセンサに入るので、画像(2DImage)から抽出される情報(画像統計量、拡散/鏡面反射成分、撮影時の照明情報)を基に、被写体の特性情報(被写体の領域情報や認識情報)として推定し、取得することができる。
なお、画像から情報を抽出する処理は、光の特性を考慮した処理であり、それを被写体の特性情報として推定する処理は、オブジェクト(被写体)ベースの処理である。
したがって、本技術においては、画像から抽出される情報を、被写体の特性情報として利用して、画像における被写体(の表面)の質感を制御する。また、その制御の際、実世界から計測されて取得される物理的情報を利用することも可能である。
さらに、画像における被写体の質感は、これらの物理的情報だけでなく、実際には、見ている環境の情報(視環境の照明情報)と人間がどう感じているかという情報(知覚:hyperacuity)にも関連してくる。したがって、本技術においては、これらの物理的情報を利用するだけでなく、見ている環境の情報(視環境の照明情報)と人間がどう感じているかという情報を利用した形で、画像における被写体の質感を制御し、再度画像を作り直す。
このように、本技術においては、画像における被写体の質感が制御される。ここで、本明細書において、質感とは、材料のもつ性質(物理的要因)に対して生じる人間の心理的感覚(心理的要因)のことである。
すなわち、本明細書において、質感は、物理的要因である被写体の物理特性を表すパラメータと、心理的要因である被写体の認知感度を表すパラメータとを有するものであると定義される。
したがって、本明細書における質感制御とは、上述した物理的要因および心理的要因のパラメータを制御するということを意味する。なお、以下、質感制御の際に、物理的要因のパラメータである物理特性パラメータが制御されるとしか記載しないが、実際には、その際には、心理的要因のパラメータである被写体の認知感度を表すパラメータも制御されている。
さらに、本技術においては、質感制御の際、画像の表示中に行われるユーザの操作情報や視線情報、視聴情報などが取得解析され、その質感制御に用いられる。これにより、画像において、被写体の質感がよりリアルに再現される。例えば、被写体の触感など見た目以外の感覚を与えることができる。
また、本技術においては、さらに、質感制御に用いられた情報が、ユーザの視環境や操作環境にフィードバックされて、結果、質感がより制御される。これにより、さらに、リアルな映像表現が可能となる。
なお、画像の表示中に行われるユーザの操作情報や視線情報、視聴情報は、画像の表示中に行われるユーザの動作に関する動作情報であるので、以下、まとめて、ユーザ動作情報とも称する。
[本技術の質感制御方法]
次に、図2を参照して、本技術の質感制御方法について説明する。
まず、実世界の被写体が撮影されて、被写体の画像が計測・推測ブロック1に入力される。計測・推測ブロック1において、被写体の物理特性を示す物理特性パラメータは、被写体の撮影時に実世界から計測されて取得される。あるいは、計測・推測ブロック1において、被写体の物理特性を示す物理特性パラメータは、入力された被写体の画像から推測されて、取得される。例えば、物理特性パラメータとして、上述した照明、被写体の構造や反射特性が取得される。
取得された被写体の物理特性パラメータは、実世界モデリングブロック2において、モデリングされる。モデリングされた被写体の物理特性パラメータは、質感制御ブロック3に入力される。
質感制御ブロック3においては、画像における被写体の質感が、モデリングされた被写体の物理特性パラメータや画像から得られる特徴量(テクスチャ)に応じて制御される。質感制御の一例としては、例えば、反射しやすいように、物理特性パラメータを変える。これにより、被写体の光学的特性が最適化される。また、例えば、テクスチャの足りない部分があれば、それを適切に復元する。すなわち、質感制御ブロック3においては、質感制御として、見た目の光沢感や透明感が上がるように、これらの物理特性パラメータが変更(制御)される。
また、質感制御ブロック3においては、画像の表示中に行われるユーザの動作に関するユーザ動作情報(例えば、操作情報や視線情報、視聴情報)が取得解析され、その質感制御に用いられる。さらに、質感制御に用いられた情報が、視環境や動作環境にフィードバックが反映されて、結果、質感制御ブロック3においては、質感がより制御される。
レンダリング・レタッチブロック4においては、質感が制御された結果(変更されたパラメータ)に応じて、画像を再構成するために、画像が再合成(レンダリング)され、画質が微調整された結果の画像が出力される。
以上の処理により、本技術によれば、入力画像が実際の見た目と違うような場合に、例えば、画像における、照明光の最適化や光沢感の向上、透明感の再現がなされる。すなわち、被写体を実際に見たときの状況を映像で再現することができる。
また、本技術によれば、ユーザ動作情報(ユーザのインタラクション)に応じて、画質や表示方法が変化されるので、被写体の触感など見た目以外の感覚も提供することができる。
さらに本技術によれば、質感制御の情報(内容)が付加情報として視環境やユーザが動作を行う際の動作環境にフィードバックが行われる。これにより、よりリアルな映像表現が可能となる。
<2.構成例>
[画像処理装置の構成例]
図3は、本開示を適用した画像処理装置の一実施の形態の構成を表すブロック図である。
図3に示される画像処理装置11は、上述したように、実世界の被写体が撮影されて入力された画像における被写体に関する物理特性パラメータが取得され、ユーザ(視聴者)の動作情報が取得される。そして、物理特性パラメータや動作情報に応じて、画像における被写体の質感が制御され、被写体の質感が制御された画像を出力する。
画像処理装置11は、撮影環境情報取得部21、撮影環境情報解析部22、被写体特性解析部23、特性情報統合部24、視環境情報解析部25、特性制御部26、画像合成部27、および動作環境情報解析部28を含むように構成されている。
撮影環境情報取得部21、撮影環境情報解析部22、および被写体特性解析部23は、図2の計測・推測ブロック1に対応している。特性情報統合部24は、図2の実世界モデリングブロック2に対応している。特性制御部26は、図2の質感制御ブロック3に対応している。画像合成部27は、レンダリング・レタッチブロック4に対応している。
撮影環境情報取得部21は、被写体の画像を撮影し、被写体の画像を入力し、入力した入力画像を、被写体特性解析部23および画像合成部27に供給する。また、撮影環境情報取得部21は、被写体の画像の撮影時に、環境や被写体の撮影時情報を取得し、取得した撮影時情報を、撮影環境情報解析部22に供給する。
撮影環境情報解析部22は、撮影環境情報取得部21からの撮影時に取得された撮影時情報を解析し、解析した撮影時情報を、特性情報統合部24に供給する。
被写体特性解析部23は、撮影環境情報取得部21からの入力画像から、被写体の特性を推定して解析し、解析した画像推定情報を、特性情報統合部24に供給する。被写体特性解析部23においては、撮影時情報として撮影時に取得できなかった細かい(例えば、サンプリングレートの高い)部分の情報を、画像から推定することで取得することができる。
特性情報統合部24は、撮影環境情報解析部22からの撮影時情報と、被写体特性解析部23からの画像推定情報とを統合し、被写体に関する物理特性パラメータとして、特性制御部26に供給する。
視環境情報解析部25は、画像を視聴する際の環境である視環境の情報を取得し、解析する。視環境情報解析部25は、解析した視環境情報を、視環境パラメータとして、特性制御部26に供給する。
特性制御部26は、制御パラメータとして、特性情報統合部24からの被写体に関する物理特性パラメータと、視環境情報解析部25からの視環境パラメータと、動作環境情報解析部28からの動作環境パラメータとを用いる。具体的には、例えば、特性制御部26は、特性情報統合部24からの物理特性パラメータに基づいて、画質を変えたり、反射特性を調整したり、形状を変えたりなど、質感を制御するための処理内容を決定する。特性制御部26は、決定した処理内容の情報を、画像合成部27に供給し、画像合成部27に質感制御を行わせる。さらに、特性制御部26は、視環境パラメータや動作環境パラメータに応じて、画像合成部27に質感制御を行わせ、質感制御を最適化する。
画像合成部27は、特性制御部26の制御のもと、撮影環境情報取得部21からの入力画像を再合成(レンダリング)して、調整して、再合成結果を出力画像として出力する。
動作環境情報解析部28は、画像の表示中に行われる、画像に対するユーザの動作環境情報を取得し、解析する。
なお、動作環境情報としては、視聴者の視線情報、タッチパネルやマウスなどの操作部を用いた操作情報、およびディスプレイに付与されるセンサ情報、およびユーザの視聴時間情報があげられる。視聴者の視線情報の例としては、注視領域の位置や大きさの情報、瞬き回数の情報などがある。操作情報の例としては、タッチ位置、ポインタ位置、フリックの大きさ、ジェスチャ認識による腕の動かし方などの情報がある。センサ情報としては、ディスプレイの傾きや動かしたときの速度などの情報がある。
動作環境情報解析部28は、解析した動作環境情報を、動作環境パラメータとして、特性制御部26に供給する。
なお、制御パラメータは、撮影環境情報解析部22からの撮影時情報と被写体特性解析部23からの画像推定情報とが統合された被写体に関する物理特性パラメータ、および視環境情報解析部25からの視環境パラメータとで構成されている。
被写体に関する物理特性パラメータは、被写体の奥行き・形状情報、撮影時の照明情報、被写体の材質情報、および被写体の反射特性情報を含むように構成されている。なお、撮影時の照明情報も、被写体の色などに影響し、被写体に関わる、あるいは被写体の背景に関わる情報であるといえるので、被写体に関する物理特性パラメータに含まれる。
視環境パラメータは、視環境光情報を含むように構成されている。
[画像処理装置の他の構成例]
図4は、本開示を適用した画像処理装置の他の実施の形態の構成を表している。図4の例においては、被写体の特性として、被写体の材質情報も取得され、取得された材質情報を質感制御に用いる画像処理装置の構成が示されている。また、図4の例においては、質感制御として、テクスチャ復元も行われる。この例においては、異なる素材は、固有の反射特性を持つことを利用する。
図4に示される画像処理装置51は、撮影環境情報取得部21、撮影環境情報解析部22、被写体特性解析部23、特性情報統合部24、視環境情報解析部25、特性制御部26、画像合成部27、および操作環境情報解析部28を備える点が、図3の画像処理装置11と共通している。
画像処理装置51は、事前知識データベース61と付加情報生成部62とが追加された点とが、図3の画像処理装置11と異なっている。
すなわち、撮影環境情報解析部22は、解析した撮影時情報(被写体の材質情報含む)を、特性情報統合部24に供給する。被写体特性解析部23は、解析した被写体の特性(画像推定情報)を、特性情報統合部24に供給する。
特性情報統合部24は、撮影環境情報解析部22からの撮影時情報と、被写体特性解析部23からの画像推定情報とを信頼度に基づいて統合し、被写体に関する物理特性パラメータとして、特性制御部26に供給する。また、特性情報統合部24は、特性制御部26の制御のもと、被写体の材質(肌、金属、布など)に対応したテクスチャ画像を事前知識データベース61から読み出し、読み出したテクスチャ画像を、特性制御部26に供給する。
特性制御部26は、特性情報統合部24からの物理特性パラメータに基づいて、質感を制御するための処理内容を決定する。具体的には、特性制御部26は、物理特性パラメータとして、例えば、被写体の材質の反射特性に基づいて、鏡面反射成分や、全体のバランスを考慮して拡散反射成分も調整するという、質感制御の処理内容を決定する。そして、特性制御部26は、決定した質感制御を、画像合成部27に行わせる。
特性制御部26は、視環境情報解析部25からの視環境パラメータに応じて、画像合成部27に質感制御を行わせ、質感制御を最適化する。具体的には、特性制御部26は、視環境パラメータとして、例えば、視聴時の照明光(視環境光)に応じて、コントラストを調整するという、質感制御の処理内容を決定し、決定した質感制御を、画像合成部27に行わせる。
また、特性制御部26は、特性情報統合部24に材質に応じたテクスチャ画像を読み出させ、それを用いて、入力画像の材質の種類に応じたテクスチャ復元処理を行うという、質感制御の処理内容を決定し、決定した質感制御を、画像合成部27に行わせる。
事前知識データベース61は、被写体の材質、宝石や金属部分、水、革などの材質情報、大きさ、硬さ、テクスチャ画像などを保持している。例えば、事前知識データベース61は、被写体の材質が画像から認識され、それをキーとして参照される。
なお、図4の例において、特性制御部26から画像合成部27への質感制御の情報は、付加情報生成部62にも供給される。
付加情報生成部62は、特性制御部26からの質感制御の情報や、事前知識データベース61からのテクスチャ画像等に基づいて、質感制御の情報を、視環境や動作環境にフィードバックするため、視環境や動作環境を制御するための付加情報を生成する。付加情報生成部62は、視環境を構成する照明器具や、動作環境を構成する、視線情報を検出する検出部、操作部やGUI、センサなどに生成した付加情報を提供(フィードバック)する。
図5は、事前知識データベース61に保持される情報の例を示す図である。
例えば、図中左上の画像には、化粧瓶とパール(宝石)が写っている。化粧瓶の蓋は、材質が金属であり、硬い、軽いという情報で事前知識データベース61に保持されている。宝石は、材質が宝石であり、硬い、広いという情報で事前知識データベース61に保持されている。例えば、図中右の画像には、懐中時計と皮の手袋が写っている。懐中時計は、材質が金属であり、硬い、軽いという情報で、手袋は、材質が皮であり、柔らかい、軽いという情報で事前知識データベース61に保持されている。例えば、左下の画像には、仏像が写っている。仏像は、材質が金属であり、硬い、重いという情報で事前知識データベース61に保持されている。
<3.実施例>
まず、図6を参照して、実施例1として、タッチパネルにおけるフリックの方向に応じて視点生成位置を変更する例について説明する。
例えば、ユーザは、矢印Aに示されるように、タッチパネルに表示される仏像の位置をフリックする。このとき、動作環境情報解析部28は、タッチパネルにおけるフリックをユーザ動作情報として取得し、取得したフリックの情報を、動作環境パラメータとして特性制御部26に供給する。
一方、被写体特性解析部23において、入力画像から被写体の材質が金属であることが特性解析され、それが特性情報統合部24に供給される。特性情報統合部24においては、金属(仏像)がキーとして事前知識データベース61が検索されて、重いという情報がヒットし、被写体の材質が金属(仏像)で重いという情報が特性制御部26に供給される。
特性制御部26において、以上の特性解析の結果、図6に示される仏像のように、材質が金属など重い被写体の場合、視点位置の変化量を小さくすることで、重さを表現するという質感制御が行われる。また、特性制御部26は、生成する視点位置と、その視点位置に応じて鏡面反射成分の制御量(例えば、強調度)を変更する。これにより、仏像は、視点位置を変えながら、回転するがその回転速度によって、仏像の重量感と材質感がよりリアルに再現される。
なお、そのとき、フリックした速さの変化量などに応じて、重いものや硬いものほど、画像を変化させる速度を遅くすることも可能である。
次に、図7を参照して、実施例2として、視線検出による注目領域やタッチポジションによる指定領域のみに対して鏡面反射成分を強調する例について説明する。
例えば、ユーザは、視聴中のディスプレイにおいて、画像中左下の野菜(パプリカ)をタッチすることで、領域Pが指定される。このとき、動作環境情報解析部28は、この領域Pをユーザ動作情報として取得し、取得した領域Pの情報を、動作環境パラメータとして特性制御部26に供給する。
特性制御部26は、この領域Pのみ、鏡面反射成分を強調させるように質感を制御する。これにより、この指定領域のみ、鏡面反射が強調される。これにより、野菜の質感がよりリアルに再現される。
なお、図7の例においては、指定領域の例について説明したが、視線の向きを検出することで、その視線検出による注目領域のみ、鏡面反射成分を強調させるように質感を制御することも可能である。
次に、図8を参照して、実施例3として、視線検出による注目領域やタッチポジションによる指定領域のみに対して形状を変化させる例について説明する。
例えば、ユーザは、画像中左下の野菜(パプリカ)をタッチすることで、領域Qが指定される。このとき、動作環境情報解析部28は、この領域Qをユーザ動作情報として取得し、取得した領域Qの情報を、動作環境パラメータとして特性制御部26に供給する。
特性制御部26は、この領域Qのみ、形状を変化させる(簡易的に凹ませたような加工を施す)ように質感を制御する。これにより、疑似的に触感が再現される。
すなわち、被写体特性解析部23において、入力画像から被写体の材質が、例えば、金属であることが特性解析され、それが特性情報統合部24に供給される。特性情報統合部24においては、金属がキーとして事前知識データベース61が検索されて、硬いという情報がヒットし、被写体の材質が金属で硬いという情報が特性制御部26に供給される。
そして、特性制御部26は、上述した特性解析の結果、材質が金属など硬い被写体の場合、形状の変化量を小さくすることで、硬さを表現するように、質感を制御する。なお、絵以上は元に戻っても、戻らなくてもよい。例えば、砂浜の形状を変化させた後、その形状は戻らなくてもよいし、液体の場合、変化させた後、戻るようにしてもよい。
また、例えば、ディスプレイの傾きの変化量などに応じて、重いものや硬いものほど、画像を変化させる速度を遅くすることも可能である。
なお、図8の例においても、指定領域の例について説明したが、視線の向きを検出することで、その視線検出による注目領域のみ、鏡面反射成分を強調させるように質感を制御することも可能である。
次に、図9を参照して、実施例4として、ユーザが表示デバイスを動かした傾きに応じて、鏡面反射成分の強調度を変更する例について説明する。
例えば、ユーザは、表示デバイスであるタブレットや多機能携帯電話機などを動かす。このとき、動作環境情報解析部28は、表示デバイスに付与されるセンサなどから、その表示デバイスの傾き情報を取得し、取得した傾き情報を、動作環境パラメータとして特性制御部26に供給する。
特性制御部26は、例えば、領域Rに示されるように、傾きに応じて、鏡面反射成分の強調度を変更させるように、質感を制御する。これにより、静止画像であっても動画像のように、キラキラしているようにみせることができるなど、質感や触感をよりリアルに再現することができる。
なお、傾きに応じて、例えば、プリンなどの形状を変化させるようにしてもよい。また、この例は、ヘッドトラッキング付きヘッドマウントディスプレイにも適用することが可能である。
次に、図10を参照して、実施例5として、ユーザがまぶしいと感じたら、まぶしくないように鏡面反射成分を抑制する例について説明する。
例えば、ユーザが画像を視聴しているとき、動作環境情報解析部28は、視線検出部などにより検出されたユーザ(視聴者)の瞬きを取得し、取得した瞬きの回数などを動作環境パラメータとして特性制御部26に供給する。
特性制御部26は、瞬き回数の変化量に応じてまぶしいと感じているかどうかを判定し、その判定結果を用い、まぶしいと感じていると判定した場合、まぶしくないように、鏡面反射成分を抑制するように質感を制御する。例えば、図10においては、図中左側の鏡面反射成分が大きすぎたため、図中右側に示されるように、鏡面反射成分:0.X倍の画像として、質感が制御されている。
なお、まぶしさの判定には、瞬き回数以外にも、黒目の大きさの変化量なども検出し、それを利用することも可能である。
また、図10の例においては、図4に示される画像処理装置51の場合には、鏡面反射成分を抑制するという質感制御の内容が、付加情報生成部62に供給される。付加情報生成部62は、質感制御の内容から、付加情報を生成して、視環境を調整する照明などにフィードバックし、視環境を構成する照明などにおいて、環境光を調整し、まぶしさを軽減するようにすることも可能である。
次に、図11を参照して、実施例6として、ユーザの視聴時間を監視し、長時間視聴時に徐々に鏡面反射成分の強調を抑える例について説明する。
例えば、特性制御部26は、視線検出部などからの情報に基づき、ユーザの視聴時間を監視し、所定の時間αを超えたか判定し、時間αを超えた場合、鏡面反射成分の強調ゲインを徐々に下げていく。同時に、特性制御部26は、所定の時間β(β>α)を超えたか判定し、時間βを超えた場合、鏡面反射成分の減衰を停止させる。
以上のようにすることで、人間の視覚特性として、時間とともに明るさに順応していくため、効果を損なうことなく、消費電力節約や眩しさを低減することが可能である。
なお、図11の例においても、図4に示される画像処理装置51の場合には、鏡面反射成分を抑制するという質感制御の内容が、付加情報生成部62に供給される。付加情報生成部62は、質感制御の内容から、付加情報を生成して、視環境を調整する照明などにフィードバックし、視環境を構成する照明などにおいて、環境光を調整し、まぶしさを軽減するようにすることも可能である。
最後に、図12を参照して、実施例7として、上述した他の実施例に加えて、より効果を出すために、環境光を調整する例について説明する。なお、これは、図4の画像処理装置51により実行される。
図12の例においては、画像中の光源の方向や色に応じて、視環境を構成する環境光を調整する。例えば、画像から、画像中の光源の方向や色を抽出し、抽出された情報を分析して、画像中の光源の方向や色に応じて、ディスプレイ周辺に複数の制御可能な照明を配置し、付加情報を生成することで、それぞれの光の色や強さを制御することが可能である。
なお、このとき、画像は(修正されてもよいが)、修正されないので、特性制御部26により、付加情報生成部62に制御の内容が供給される。付加情報生成部62においては、制御の内容に基づいて、付加情報を生成し、視環境にいる複数の制御可能な照明に送信され、画像中の光源の方向や色が調整され、結果的に、画像の再現性がアップする。
図13は、上述した実施例1乃至7をまとめた表である。
上から順に説明する。図6を参照して上述した実施例1については、ユーザ動作情報として、タッチパネルなどにフリックがなされ、そのフリックに応じて視点位置や鏡面反射についての画像制御がなされる。これにより、特に、重量感や材質感が向上する。
図7を参照して上述した実施例2については、ユーザ動作情報として、タッチパネルなどに位置の指定がなされ、または、視線の向きが検出されて、その位置や視線の向きに応じて鏡面反射についての画像制御がなされる。これにより、特に、質感が向上する。
図8を参照して上述した実施例3については、ユーザ動作情報として、タッチパネルなどに位置の指定がなされ、または、視線の向きが検出されて、その位置や視線の向きに応じて形状変化についての画像制御がなされる。これにより、特に、触感が向上する。
図9を参照して上述した実施例4については、ユーザ動作情報として、画像を表示中のディスプレイの傾きが検出されて、その傾きに応じて鏡面反射成分および形状変化の少なくとも1についての画像制御がなされる。これにより、特に、質感または触感が向上する。
図10を参照して上述した実施例5については、ユーザ動作情報として、視線検出部などでユーザの瞬きが検出されて、その瞬きの回数に応じて、鏡面反射成分についての画像制御がなされる。また、フィードバックとして、視環境などの調整が行われる。これにより、自然感が向上する。また、低電力化にもつながる。
図11を参照して上述した実施例6については、ユーザ動作情報として、視線検出部などでディスプレイを見ているユーザの視聴時間が検出されて、その視聴時間に応じて、鏡面反射成分についての画像制御がなされる。また、フィードバックとして、視環境などの調整が行われる。これにより、自然感が向上する。
図12を参照して上述した実施例7については、画像中の光源推定により光源の色や位置が検出されて、その色や位置に応じて、視環境などの調整が行われる。これにより、質感が向上する。
<4.処理例>
[画像処理の例]
次に、図14のフローチャートを参照して、図3の画像処理装置11の画像処理について説明する。
ステップS11において、撮影環境情報取得部21は、被写体の画像の撮影し、被写体の画像を入力する。撮影環境情報取得部21は、入力した入力画像を、被写体特性解析部23および画像合成部27に供給する。
ステップS12において、撮影環境情報取得部21、撮影環境情報解析部22、および被写体特性解析部23は、計測・推定・統合処理を行う。この計測・推定・統合処理の詳細は、図15を参照して後述される。ステップS12の処理により、計測された物理特性パラメータと、推定された物理特性パラメータ(被写体の反射特性、撮影環境光、被写体形状、および被写体の材質など)とが、特性制御部26に供給される。
ステップS13において、視環境情報解析部25および特性制御部26は、画像を視聴する際の環境である視環境情報に基づく処理を行う。この視環境情報に基づく処理の詳細は、図16を参照して後述される。ステップS13の処理により、視環境情報に基づく質感制御の処理内容が決定される。
ステップS14において、特性制御部26は、被写体の材質に基づく反射特性調整処理を行う。この反射特性調整処理は、図17を参照して後述される。なお、このとき、特性情報統合部24により統合された物理特性パラメータ(材質および反射特性)が参照される。ステップS14の処理により、反射特性に基づく質感制御の処理内容が決定される。
ステップS15において、動作環境情報解析部28および特性制御部26は、ユーザ動作情報に含まれる視線情報に基づく処理を行う。この視線情報に基づく処理は、図18を参照して後述される。ステップS15の処理により、視線情報に基づく質感制御の処理内容が決定される。
ステップS16において、動作環境情報解析部28および特性制御部26は、ユーザ動作情報に含まれる操作情報に基づく処理を行う。この操作情報に基づく処理は、図18を参照して後述される。ステップS16の処理により、操作情報に基づく質感制御の処理内容が決定される。
ステップS17において、画像合成部27は、決定された質感制御の処理内容に基づいて、入力画像を再合成する。すなわち、図14の例の場合、視環境光のコントラスト調整、画像の材質に基づく反射特性の調整、視線情報に基づく調整、操作情報に基づく調整により、被写体の画像の質感が制御される。
以上のように、撮影時または画像から得られる物理特性パラメータがすべて用いられる。そして、さらに、この物理特性パラメータが精度よく取得されていれば、それらを変更することで、入力画像の再現力が乏しかったとしても、画像における、照明光の最適化や光沢感の向上、透明感の再現がなされる。すなわち、CG(コンピュータグラフィックス)のように、被写体を実際に見たときの状況を映像で再現することができる。
以上により、本技術においては、被写体に関する物理特性パラメータ(形状、反射特性、照明など)を計測、測定し、それらの特性を制御することで、映像品質を向上させることができる。
さらに、ユーザ動作情報(ユーザ操作や視線情報など)に応じて、実物がそこにあるような質感をより再現することができる。例えば、触感など、見た目以外の感覚も提供することができる。
次に、図15のフローチャートを参照して、図14のステップS12の計測・推定・統合処理について説明する。
ステップS31において、撮影環境情報取得部21は、撮影環境光を計測し、計測した撮影環境光を、撮影環境情報解析部22に供給する。撮影環境情報解析部22は、撮影環境情報取得部21からの撮影環境光を解析し、解析した結果、撮影環境光の情報を、特性情報統合部24に供給する。
ステップS32において、撮影環境情報取得部21は、被写体の反射特性を計測し、計測した被写体の反射特性と材質を、撮影環境情報解析部22に供給する。撮影環境情報解析部22は、撮影環境情報取得部21からの被写体の反射特性と材質を解析し、解析した被写体の反射特性と材質を、特性情報統合部24に供給する。
ステップS33において、撮影環境情報取得部21は、被写体形状を計測し、計測した被写体形状を、撮影環境情報解析部22に供給する。撮影環境情報解析部22は、撮影環境情報取得部21からの被写体形状を解析し、解析した被写体形状を、特性情報統合部24に供給する。
ステップS34において、被写体特性解析部23は、供給された入力画像から撮影環境光を推定して解析し、解析した結果、撮影環境光の情報を取得する。被写体特性解析部23は、撮影環境光の情報を、特性情報統合部24に供給する。
ステップS35において、特性情報統合部24は、計測された撮影環境光の情報と推定された撮影環境光の情報とを統合する。特性情報統合部24は、統合された撮影環境光の情報を、物理特性パラメータとして、特性制御部26に供給する。
ステップS36において、特性制御部26は、画像合成部27に、撮影環境光の情報から得られる照明色により画像のホワイトバランスを調整させる。
ステップS37において、被写体特性解析部23は、被写体の反射特性・材質を推定して、解析し、解析した反射特性・材質の情報を、特性情報統合部24に供給する。
ステップS38において、特性情報統合部24は、計測された被写体の反射特性の情報と推定された被写体の反射特性の情報とを統合する。特性情報統合部24は、統合された被写体の反射特性の情報を、物理特性パラメータとして、特性制御部26に供給する。
ステップS39において、特性情報統合部24は、計測された被写体の材質の情報と推定された被写体の材質の情報とを統合する。特性情報統合部24は、統合された被写体の材質の情報を、物理特性パラメータとして、特性制御部26に供給する。
ステップS40において、被写体特性解析部23は、被写体の形状を推定して、解析し、解析した被写体の形状の情報を、特性情報統合部24に供給する。
ステップS41において、特性情報統合部311は、計測された被写体の形状の情報と推定された被写体の形状の情報とを、統合する。特性情報統合部311は、統合された被写体の形状の情報を、物理特性パラメータとして、特性制御部312に供給する。
以上のようにして、撮影時に被写体の特性である照明光や被写体の反射特性、形状に加えて、さらに、被写体の材質などが計測され、また、それらが入力画像から推定され、それらの情報が信頼性に基づいて統合される。このようにして統合された物理特性パラメータが質感制御に用いられるので、画像における、照明光の最適化や光沢感の向上、透明感の再現がさらに向上される。
次に、図16のフローチャートを参照して、図14のステップS13の視環境情報に基づく処理について説明する。
ステップS61において、視環境情報解析部25は、画像を視聴する際の環境である視環境の情報として、例えば、視環境光の情報を取得し、解析する。視環境情報解析部25は、解析した視環境光の情報を、視環境パラメータとして、特性制御部26に供給する。
特性制御部26には、被写体特性解析部23から撮影時の画像の絶対輝度情報も推定され、特性制御部26に供給されている。ステップS62において、特性制御部26は、撮影時の対象画素の絶対輝度が所定の輝度値より高いか否かを判定する。ステップS62において、撮影時の対象画素の絶対輝度が高いと判定された場合、処理は、ステップS63に進む。
ステップS63において、特性制御部26は、視環境情報解析部25からの視環境パラメータを参照し、視環境光が所定の値より明るいか否かを判定する。ステップS63において、視環境光が明るいと判定された場合、処理は、ステップS64に進む。この場合、暗く見える可能性があるので、ステップS64において、特性制御部111は、画像合成部27を制御し、質感制御として、コントラスト調整値を高めに設定させる。
ステップS63において、視環境光が暗いと判定された場合、ステップS64はスキップされ、処理は、ステップS67に進む。
ステップS62において、撮影時の対象画素の絶対輝度が低いと判定された場合、処理は、ステップS65に進む。ステップS65において、特性制御部26は、視環境情報解析部25からの視環境パラメータを参照し、視環境光が所定の値より明るいか否かを判定する。
ステップS65において、視環境光が暗いと判定された場合、処理は、ステップS66に進む。ステップS66において、特性制御部26は、画像合成部27を制御し、質感制御として、コントラスト調整値を低めに設定させる。
ステップS65において、視環境光が明るいと判定された場合、ステップS66はスキップされ、処理は、ステップS67に進む。
ステップS67において、特性制御部26は、全画素について反射特性の調整が終了したか否かを判定する。
ステップS67において、全画素について処理が終了したと判定された場合、視環境情報に基づく処理は終了する。ステップS67において、全画素についてまだ処理が終了していないと判定された場合、ステップS62に戻り、それ以降の処理が繰り返される。
以上のように、視環境によるコントラスト調整および画像の反射特性の調整が行われて、被写体の画像の質感が制御される。これにより、画像における、照明光の最適化や光沢感の向上、透明感の再現がなされる。
次に、図17のフローチャートを参照して、図14のステップS14における材質に基づく反射特性調整処理について説明する。
ステップS81において、特性制御部26は、特性情報統合部24からの被写体の反射特性の情報に基づいて、鏡面反射成分が大きいか否かを判定する。ステップS81において、鏡面反射成分が大きいと判定された場合、処理は、ステップS82に進む。
ステップS82において、特性制御部26は、質感制御として、鏡面反射成分を強調させるように決定する。ステップS81において、鏡面反射成分が小さいと判定された場合、処理は、ステップS83に進む。
特性制御部26は、ステップS83において、拡散反射成分が大きいか否かを判定する。ステップS83において、拡散反射成分が大きいと判定された場合、処理は、ステップS84に進む。ステップS84において、特性制御部26は、質感制御として、拡散反射成分を低減させるように決定する。
ステップS83において、拡散反射成分が小さいと判定された場合、処理は、ステップS85に進む。
ステップS85において、特性制御部26は、特性情報統合部24により統合された被写体の材質の情報に基づいて、鏡面反射が強い材質であるか否かを判定する。ステップS85において、鏡面反射が強い材質であると判定された場合、処理は、ステップS86に進む。ステップS86において、特性制御部26は、質感制御として、鏡面反射成分を強調させるように決定する。
ステップS85において、鏡面反射が強い材質ではないと判定された場合、処理は、ステップS87に進む。ステップS87において、特性制御部26は、質感制御として、鏡面反射成分を低減させるように決定する。
ステップS88において、特性制御部26は、全画素について反射特性の調整が終了したか否かを判定する。
ステップS88において、全画素について反射特性の調整が終了したと判定された場合、反射特性調整処理は終了する。ステップS88において、全画素についてまだ反射特性の調整が終了していないと判定された場合、ステップS81に戻り、それ以降の処理が繰り返される。
以上のように、被写体の材質に応じて、画像の反射特性の調整が行われて、被写体の画像の質感が制御される。これにより、画像における、照明光の最適化や光沢感の向上、透明感の再現がなされる。
次に、図18のフローチャートを参照して、図14のステップS15の視線情報に基づく処理について説明する。
ステップS101において、動作環境情報解析部28は、動作環境の情報として、例えば、注目被写体情報、または視線情報を取得し、解析する。動作環境情報解析部28は、解析した動作環境の情報を、動作環境パラメータとして、特性制御部26に供給する。
ステップS102において、特性制御部26は、対象画素が、注目被写体領域であるかまたは視線対象領域であるか否かを判定する。ステップS102において、注目被写体領域であるかまたは視線対象領域であると判定された場合、処理は、ステップS103に進む。
ステップS103において、特性制御部26は、画像合成部27を制御し、質感制御として、例えば、これまでの処理(すなわち、視環境情報、材質に基づく処理など)の画質調整値を弱めに再設定させる。
ステップS102において、対象画素が、注目被写体領域でも視線対象領域でもないと判定された場合、ステップS103はスキップされ、処理は、ステップS104に進む。
ステップS104において、特性制御部26は、全画素について処理が終了したか否かを判定する。
ステップS104において、全画素について処理が終了したと判定された場合、視線情報に基づく処理は終了する。ステップS104において、全画素についてまだ処理が終了していないと判定された場合、ステップS102に戻り、それ以降の処理が繰り返される。
以上のように、視環境によるコントラスト調整および画像の反射特性の調整が行われて、被写体の画像の質感が制御される。これにより、画像における、照明光の最適化や光沢感の向上、透明感の再現がなされる。
次に、図19のフローチャートを参照して、図14のステップS16の操作情報に基づく処理について説明する。
ステップS121において、動作環境情報解析部28は、動作環境の情報として、例えば、ユーザの操作情報(フリックなど)を取得し、解析する。動作環境情報解析部28は、解析した動作環境の情報を、動作環境パラメータとして、特性制御部26に供給する。
ステップS122において、特性制御部26は、対象画素が、ユーザの触れた領域であるか否かを判定する。ステップS122において、ユーザの触れた領域であると判定された場合、処理は、ステップS123に進む。
ステップS123において、特性制御部26は、画像合成部27を制御し、質感制御として、これまでの処理(すなわち、視環境情報、反射特性、視線情報に基づく処理)の画質調整値を強めに再設定させる。
ステップS122において、対象画素が、ユーザの触れた領域でないと判定された場合、ステップS123はスキップされ、処理は、ステップS124に進む。
ステップS124において、特性制御部26は、全画素について処理が終了したか否かを判定する。
ステップS124において、全画素について処理が終了したと判定された場合、視線情報に基づく処理は終了する。ステップS124において、全画素についてまだ処理が終了していないと判定された場合、ステップS122に戻り、それ以降の処理が繰り返される。
以上のように、動作環境のうち、ユーザの操作情報に応じて、画像の反射特性の調整が行われる。これにより、画像における、照明光の最適化や光沢感の向上、透明感の再現がより一層行われる。すなわち、実物がそこにあるような質感をより再現することができる。
また、以上のように、ユーザの操作、表示デバイスとのインタラクションに応じて、上述したような制御を行うことにより、被写体の触感など見た目以外の高次の感覚などを提供することができる。
感覚が強調されるので、小画面で表示時であってもよりリアルな感覚を表現できる。
なお、この処理は、操作情報の代わりに、視線情報として、ユーザの視線領域であるかを判定することでも実行可能である。すなわち、視線検出による注目領域やタッチポジションによる指定領域のみに対して処理を行うことができるので、部分的に鏡面反射成分を強調したりすることができる。逆に、眩しい映像だと感じたら、眩しくないように鏡面反射成分を抑制することができる。
さらに、長時間視聴時に徐々に鏡面反射成分を抑制して、低消費電力化を実現することができる。
[画像処理の他の例]
次に、図20のフローチャートを参照して、図4の画像処理装置51の画像処理について説明する。なお、図20においては、フィードバック処理がなされる例が示されている。
ステップS151において、撮影環境情報取得部21は、被写体の画像の撮影し、被写体の画像を入力する。撮影環境情報取得部21は、入力した入力画像を、被写体特性解析部23および画像合成部27に供給する。
ステップS152において、撮影環境情報取得部21、撮影環境情報解析部22、および被写体特性解析部23は、計測・推定・統合処理を行う。この計測・推定・統合処理は、図15を参照して上述した処理と基本的に同様であり、その説明は繰り返しになるので省略される。ステップS152の処理により、計測された物理特性パラメータと、推定された物理特性パラメータ(被写体の反射特性、撮影環境光、被写体形状、および被写体の材質など)とが、特性制御部26に供給される。
ステップS153において、視環境情報解析部25および特性制御部26は、画像を視聴する際の環境である視環境情報に基づく処理を行う。この視環境情報に基づく処理は、図16を参照して上述した処理と基本的に同様の処理であり、繰り返しになるのでその説明は省略される。ステップS153の処理により、視環境情報に基づく質感制御の処理内容が決定される。
ステップS154において、特性制御部26は、被写体の材質に基づく反射特性調整処理を行う。この反射特性調整処理は、図17を参照して上述した処理と基本的に同様の処理であり、繰り返しになるのでその説明は省略される。なお、このとき、特性情報統合部24により統合された物理特性パラメータ(材質および反射特性)が参照される。ステップS154の処理により、反射特性に基づく質感制御の処理内容が決定される。
ステップS155において、特性制御部26は、特性情報統合部24に材質に応じたテクスチャ画像を読み出させ、それを用いて、入力画像の材質の種類に応じたテクスチャ復元処理を行う。このテクスチャ復元処理は、図21を参照して後述される。ステップS155の処理により、テクスチャ復元による質感制御の処理内容が決定される。なお、この処理は、事前知識データベース61を参照して行われる処理の1つであり、ここでは、例えば、図6や図8を参照して上述した事前知識データベース61を参照して行われる処理を行うことできる。
ステップS156において、動作環境情報解析部28および特性制御部26は、ユーザ動作情報に含まれる操作情報に基づく処理を行う。この操作情報に基づく処理は、図18を参照して上述した処理と基本的に同様の処理であり、繰り返しになるのでその説明は省略される。ステップS156の処理により、操作情報に基づく質感制御の処理内容が決定される。
ステップS157において、画像合成部27は、決定された質感制御の処理内容に基づいて、入力画像を再合成する。すなわち、図20の例の場合、計測または測定された視環境光のコントラスト調整、画像の材質に基づく反射特性の調整、材質に応じたテクスチャ復元、操作情報に基づく処理により、被写体の画像の質感が制御される。このとき、質感制御の処理内容は、特性制御部26から付加情報生成部62に供給される。
ステップS158において、付加情報生成部62は、視環境または操作環境へのフィードバック処理を行う。このフィードバック処理については、図22を参照して後述される。ステップS158の処理により、被写体の画像の質感制御の内容に基づいて、視環境や操作環境へのフィードバックがなされる。これにより、画質の再現力のアップを図ることができたり、あるいは、低電力化を図ることができる。
次に、図21のフローチャートを参照して、図20のステップS155におけるテクスチャ復元処理を説明する。
特性制御部26は、ステップS171において、特性情報統合部24を制御し、事前知識データベース61から、被写体の材質に対応するテクスチャ画像(パッチデータ)を取得させる。
ステップS172において、特性制御部26は、フィルタバンクを用いて、入力画像とテクスチャ画像をそれぞれサブバンド分割させるように画像合成部27を制御する。
ステップS173において、特性制御部26は、サブバンド毎に、入力画像の周波数成分のヒストグラムと、テクスチャ画像の周波数成分のヒストグラムとが一致する調整を行うように画像合成部27を制御する。すなわち、特性制御部26は、画像合成部27を制御し、サブバンド毎に、入力画像とテクスチャ画像とで、ヒストグラムイコライゼーションを行わせる。
以上のように、テクスチャを復元するという、質感制御を行うことにより、被写体の質感が向上されるので、よりリアリティのある画像とすることができる。
次に、図22のフローチャートを参照して、図20のステップS158のフィードバック処理について説明する。
ステップS191において、付加情報生成部62は、特性制御部26からの質感制御の処理内容にもとづいて、視環境や動作環境にフィードバックするための付加情報を生成する。
ステップS192において、付加情報生成部62は、視環境を構成する照明器具や、動作環境を構成する、視線情報を検出する検出部、操作部やGUI、センサなどに生成した付加情報を提供(フィードバック)する。
以上のように、ユーザの操作、表示デバイスとのインタラクションに応じて、上述したような制御を行うことにより、被写体の触感など見た目以外の高次の感覚などを提供することができる。また、視環境や動作環境にフィードバックすることで、これ以前の効果を強調することができる。
ユーザに視聴情報に応じて、好みを反映することができる。
視環境(環境光や表示デバイス)に対して、照明光を画像に最適化できる。
さらに、例えば、図6や図8を参照して上述したように、操作環境(ユーザからのインタラクション)に対して、フォースフィードバックを行うこともできるので、被写体の重量感、凹凸感を表現できる。
以上のように、撮影時または画像から得られる物理特性パラメータがすべて用いられる。そして、さらに、この物理特性パラメータが精度よく取得されていれば、それらを変更することで、入力画像の再現力が乏しかったとしても、画像における、照明光の最適化や光沢感の向上、透明感の再現がなされる。すなわち、CG(コンピュータグラフィックス)のように、被写体を実際に見たときの状況を映像で再現することができる。
以上により、本技術においては、実物がそこになるような質感をよりリアルに再現することができる。特に、動作環境(ユーザからのインタラクション)に応じて、画質や表示方法が変化されるので、被写体の触感など見た目以外の感覚も与えることができる。
また、ユーザの視聴情報に応じて、好みを反映することができる。
<5.コンピュータの構成例>
[パーソナルコンピュータ]
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な汎用のパーソナルコンピュータなどが含まれる。
図23は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータのハードウエアの構成例を示すブロック図である。
パーソナルコンピュータ500において、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロホンなどよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインタフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
以上のように構成されるパーソナルコンピュータ500では、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行する。これにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、リムーバブルメディア511に記録して提供することができる。リムーバブルメディア511は、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディア等である。また、あるいは、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータにおいて、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要な段階で処理が行われるプログラムであっても良い。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1) 画像の表示中に行われるユーザの動作に関するユーザ動作情報を取得するユーザ動作情報取得部と、
前記ユーザ動作情報取得部により取得されたユーザ動作情報に応じて、前記画像における被写体の質感を制御する質感制御部と
を備える画像処理装置。
(2) 前記ユーザ動作情報は、表示される画像に対して入力されるユーザの操作情報である
前記(1)に記載の画像処理装置。
(3) 前記ユーザ動作情報は、表示される画像に対するユーザの視線情報である
前記(1)または(2)に記載の画像処理装置。
(4) 前記ユーザ動作情報は、前記画像が表示されるディスプレイをユーザが動かした傾き情報である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5) 前記ユーザ動作情報は、表示される画像を視聴するユーザの視聴に関する視聴情報である
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6) 前記質感制御部は、前記画像における被写体の反射特性の強弱を調整する
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7) 前記質感制御部は、前記画像における被写体の視点位置を変化させる
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8) 前記質感制御部は、前記画像における被写体の形状を変化させる
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9) 前記質感制御部による制御の内容に応じて、表示される画像を視聴する視聴環境を調整するための情報である付加情報を生成する付加情報生成部を
さらに備える前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10) 前記付加情報は、視聴環境光を調整するための情報である
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11) 画像の被写体に関する物理特性パラメータを取得する物理特性パラメータ取得部
をさらに備え、
前記質感制御部は、前記物理特性パラメータ取得部により取得された物理特性パラメータに応じて、前記画像における被写体の質感を制御する
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(12) 前記物理特性パラメータは、前記被写体の反射特性を示す反射特性情報である
前記(1)乃至(11)のいずれかに記載の画像処理装置。
(13) 前記物理特性パラメータは、前記被写体の材質を示す情報である
前記(1)乃至(12)のいずれかに記載の画像処理装置。
(14) 前記物理特性パラメータは、前記被写体の形状を示す情報である
前記(1)乃至(13)のいずれかに記載の画像処理装置。
(15) 前記物理特性パラメータは、前記被写体の照明に関する情報である
前記(1)乃至(14)のいずれかに記載の画像処理装置。
(16) 画像処理装置が、
画像の表示中に行われるユーザの動作に関するユーザ動作情報を取得し、
取得されたユーザ動作情報に応じて、前記画像における被写体の質感を制御する
画像処理方法。
1 計測・推測ブロック, 2 実世界モデリングブロック, 3 質感制御ブロック, 4 レンダリング・レタッチブロック, 11 画像処理装置,21 撮影環境情報取得部, 22 撮影環境情報解析部, 23 被写体特性解析部, 24 特性情報統合部, 25 視環境情報解析部, 26 特性制御部, 27 画像合成部, 28 動作環境情報解釈部 51 画像処理装置, 61 事前知識データベース, 62 付加情報生成部

Claims (16)

  1. 画像の表示中に行われるユーザの動作に関するユーザ動作情報を取得するユーザ動作情報取得部と、
    前記ユーザ動作情報取得部により取得されたユーザ動作情報に応じて、前記画像における被写体の質感を制御する質感制御部と
    を備える画像処理装置。
  2. 前記ユーザ動作情報は、表示される画像に対して入力されるユーザの操作情報である
    請求項1に記載の画像処理装置。
  3. 前記ユーザ動作情報は、表示される画像に対するユーザの視線情報である
    請求項1に記載の画像処理装置。
  4. 前記ユーザ動作情報は、前記画像が表示されるディスプレイをユーザが動かした傾き情報である
    請求項1に記載の画像処理装置。
  5. 前記ユーザ動作情報は、表示される画像を視聴するユーザの視聴に関する視聴情報である
    請求項1に記載の画像処理装置。
  6. 前記質感制御部は、前記画像における被写体の反射特性の強弱を調整する
    請求項1に記載の画像処理装置。
  7. 前記質感制御部は、前記画像における被写体の視点位置を変化させる
    請求項1に記載の画像処理装置。
  8. 前記質感制御部は、前記画像における被写体の形状を変化させる
    請求項1に記載の画像処理装置。
  9. 前記質感制御部による制御の内容に応じて、表示される画像を視聴する視聴環境を調整するための情報である付加情報を生成する付加情報生成部を
    さらに備える請求項1に記載の画像処理装置。
  10. 前記付加情報は、視聴環境光を調整するための情報である
    請求項9に記載の画像処理装置。
  11. 画像の被写体に関する物理特性パラメータを取得する物理特性パラメータ取得部
    をさらに備え、
    前記質感制御部は、前記物理特性パラメータ取得部により取得された物理特性パラメータに応じて、前記画像における被写体の質感を制御する
    請求項1に記載の画像処理装置。
  12. 前記物理特性パラメータは、前記被写体の反射特性を示す反射特性情報である
    請求項11に記載の画像処理装置。
  13. 前記物理特性パラメータは、前記被写体の材質を示す情報である
    請求項11に記載の画像処理装置。
  14. 前記物理特性パラメータは、前記被写体の形状を示す情報である
    請求項11に記載の画像処理装置。
  15. 前記物理特性パラメータは、前記被写体の照明に関する情報である
    請求項11に記載の画像処理装置。
  16. 画像処理装置が、
    画像の表示中に行われるユーザの動作に関するユーザ動作情報を取得し、
    取得されたユーザ動作情報に応じて、前記画像における被写体の質感を制御する
    画像処理方法。
JP2016514863A 2014-04-23 2015-04-13 画像処理装置および方法 Pending JPWO2015163169A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014088805 2014-04-23
JP2014088805 2014-04-23
PCT/JP2015/061309 WO2015163169A1 (ja) 2014-04-23 2015-04-13 画像処理装置および方法

Publications (1)

Publication Number Publication Date
JPWO2015163169A1 true JPWO2015163169A1 (ja) 2017-04-13

Family

ID=54332336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016514863A Pending JPWO2015163169A1 (ja) 2014-04-23 2015-04-13 画像処理装置および方法

Country Status (3)

Country Link
US (1) US10373344B2 (ja)
JP (1) JPWO2015163169A1 (ja)
WO (1) WO2015163169A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016181804A1 (ja) * 2015-05-08 2018-03-08 ソニー株式会社 画像処理装置および方法
US10935376B2 (en) * 2018-03-30 2021-03-02 Koninklijke Philips N.V. System and method for 3D scanning
US10956755B2 (en) * 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
JP7252916B2 (ja) * 2020-02-26 2023-04-05 Kddi株式会社 触感提示方法、システムおよびプログラム
JPWO2023105784A1 (ja) * 2021-12-10 2023-06-15

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256510A (ja) * 2000-03-13 2001-09-21 Sony Corp 3次元オブジェクト提示装置及び提示方法、並びに、プログラム記憶媒体
JP2005092549A (ja) * 2003-09-18 2005-04-07 Canon Inc 三次元画像処理方法および装置
JP2006004197A (ja) * 2004-06-17 2006-01-05 Sekisui House Ltd 明暗順応機能を有する住宅プレゼンテーションシステム
US20070217682A1 (en) * 2006-03-15 2007-09-20 Matsushita Electric Industrial Co., Ltd. Method and apparatus for image conversion
JP2010205120A (ja) * 2009-03-05 2010-09-16 Square Enix Co Ltd 3次元形状図形作成装置、3次元形状図形作成方法、及び3次元形状図形作成プログラム
WO2012001949A1 (ja) * 2010-06-30 2012-01-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP2012113600A (ja) * 2010-11-26 2012-06-14 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2014041520A (ja) * 2012-08-23 2014-03-06 Sony Corp 入力デバイス、入力システム、電子機器、及び感覚提示方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7475158B2 (en) * 2004-05-28 2009-01-06 International Business Machines Corporation Method for enabling a wireless sensor network by mote communication
US20090021513A1 (en) * 2007-07-18 2009-01-22 Pixblitz Studios Inc. Method of Customizing 3D Computer-Generated Scenes
WO2010087162A1 (ja) 2009-01-27 2010-08-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置および記録媒体
JP5588196B2 (ja) * 2010-02-25 2014-09-10 キヤノン株式会社 認識装置及びその制御方法、コンピュータプログラム
JP5762015B2 (ja) * 2011-01-27 2015-08-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
KR101367861B1 (ko) * 2012-03-30 2014-02-27 디아이씨 가부시끼가이샤 액정 표시 소자 및 그 제조 방법
US10200627B2 (en) * 2014-04-09 2019-02-05 Imagination Technologies Limited Virtual camera for 3-D modeling applications

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256510A (ja) * 2000-03-13 2001-09-21 Sony Corp 3次元オブジェクト提示装置及び提示方法、並びに、プログラム記憶媒体
JP2005092549A (ja) * 2003-09-18 2005-04-07 Canon Inc 三次元画像処理方法および装置
JP2006004197A (ja) * 2004-06-17 2006-01-05 Sekisui House Ltd 明暗順応機能を有する住宅プレゼンテーションシステム
US20070217682A1 (en) * 2006-03-15 2007-09-20 Matsushita Electric Industrial Co., Ltd. Method and apparatus for image conversion
JP2010205120A (ja) * 2009-03-05 2010-09-16 Square Enix Co Ltd 3次元形状図形作成装置、3次元形状図形作成方法、及び3次元形状図形作成プログラム
WO2012001949A1 (ja) * 2010-06-30 2012-01-05 日本電気株式会社 カラー画像処理方法、カラー画像処理装置およびカラー画像処理プログラム
JP2012113600A (ja) * 2010-11-26 2012-06-14 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2014041520A (ja) * 2012-08-23 2014-03-06 Sony Corp 入力デバイス、入力システム、電子機器、及び感覚提示方法

Also Published As

Publication number Publication date
US10373344B2 (en) 2019-08-06
WO2015163169A1 (ja) 2015-10-29
US20170039732A1 (en) 2017-02-09

Similar Documents

Publication Publication Date Title
US10853686B2 (en) Generation of salient contours using live video
US11619989B2 (en) Gaze and saccade based graphical manipulation
JP6023212B2 (ja) シースルーディスプレイによる影の表示
WO2015163169A1 (ja) 画像処理装置および方法
CN107960150B (zh) 图像处理装置和方法
US20110273466A1 (en) View-dependent rendering system with intuitive mixed reality
US20110273369A1 (en) Adjustment of imaging property in view-dependent rendering
US20180190019A1 (en) Augmented reality user interface visibility
US9594488B2 (en) Interactive display of high dynamic range images
US10297055B2 (en) Image processing apparatus and method for modifying a display texture of an image
CN109644235B (zh) 用于提供混合现实图像的方法、设备和计算机可读介质
WO2014076744A1 (ja) 画像処理装置および画像処理方法
US11379952B1 (en) Foveated image capture for power efficient video see-through
EP4272183A1 (en) Detection and obfuscation of display screens in augmented reality content
US11836847B2 (en) Systems and methods for creating and displaying interactive 3D representations of real objects
US9715705B2 (en) Sunglass testing station
JP2015075794A (ja) 画像処理装置及びプログラム
Tariq et al. Perceptually adaptive real-time tone mapping
JP2015211306A (ja) 画像処理装置および方法
US20240071042A1 (en) Removing Artifacts in Images Caused by Light Emitted by Electronic Screens
Hasic et al. Saliency in motion: selective rendering of dynamic virtual environments
WO2023224969A1 (en) Changing display rendering modes based on multiple regions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190919