JP6024110B2 - 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム - Google Patents

画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム Download PDF

Info

Publication number
JP6024110B2
JP6024110B2 JP2012014488A JP2012014488A JP6024110B2 JP 6024110 B2 JP6024110 B2 JP 6024110B2 JP 2012014488 A JP2012014488 A JP 2012014488A JP 2012014488 A JP2012014488 A JP 2012014488A JP 6024110 B2 JP6024110 B2 JP 6024110B2
Authority
JP
Japan
Prior art keywords
image
depth information
unit
depth
stereoscopic effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012014488A
Other languages
English (en)
Other versions
JP2013157671A (ja
Inventor
紳太郎 岡田
紳太郎 岡田
隆浩 永野
隆浩 永野
健一郎 細川
健一郎 細川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012014488A priority Critical patent/JP6024110B2/ja
Priority to US13/744,508 priority patent/US9317957B2/en
Priority to CN201310018642.XA priority patent/CN103226810B/zh
Publication of JP2013157671A publication Critical patent/JP2013157671A/ja
Application granted granted Critical
Publication of JP6024110B2 publication Critical patent/JP6024110B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本開示は、画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システムに関する。
写真、ムービー及びテレビジョン映像などの様々な画像コンテンツの主観的な画質を向上させることを目的として、2次元の画像の立体感を擬似的に強調するいくつかの手法が提案されている。例えば、下記特許文献1は、画像信号の2次微分を用いて画像を遠景領域と近景領域とに分割し、これら領域について異なるレベルで輪郭強調を行う技術を提案している。また、下記特許文献2は、ステレオ法を用いて画像を遠景(背景)領域と近景領域とに分割し、近景領域内の物体に影を付加する技術を提案している。
特開平10−126708号公報 特開2010−206362号公報
しかしながら、これら既存の手法はいずれも、画像に何が映っているかを考慮していない。ユーザによる立体感の感じ方は、例えば、画像に屋外の風景及び建物の内部のいずれが映っているか、又は被写体が人物なのか街並みなのかなど、画像に映る内容に関連する要因に依存して変化し得る。
従って、画像コンテンツの立体感を強調して主観的な画質を効果的に向上させるためには、画像に何が映っているかを判別した上で、その判別結果に応じて強調処理を制御することが望ましい。
本開示によれば、画像内の各画素の奥行きを表す奥行き情報を取得する奥行き情報取得部と、前記画像に映る内容を判別する判別部と、前記判別部による判別結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成する修正部と、前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行する強調部と、を備える画像処理装置が提供される。
また、本開示によれば、画像内の各画素の奥行きを表す奥行き情報を取得することと、前記画像に映る内容を判別することと、前記判別の結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成することと、前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行することと、を含む画像処理方法が提供される。
また、本開示によれば、画像処理装置を制御するコンピュータを、画像内の各画素の奥行きを表す奥行き情報を取得する奥行き情報取得部と、前記画像に映る内容を判別する判別部と、前記判別部による判別結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成する修正部と、前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行する強調部と、として機能させるためのプログラムが提供される。
また、本開示によれば、画像内の各画素の奥行きを表す奥行き情報を取得する奥行き情報取得部と、前記画像に映る内容を判別する判別部と、前記判別部による判別結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成する修正部と、画素値と前記修正奥行き情報により表される奥行きとに基づいて各画素を複数のクラスの1つに分類し、事前の学習処理においてクラスごとに決定されるフィルタ係数で各画素と周辺画素とを含むフィルタタップをフィルタリングすることにより、前記画像の立体感を強調する強調部と、を備える画像処理装置が提供される。
また、本開示によれば、処理対象画像を取得する画像取得部と、画像内の各画素の奥行きを表す奥行き情報を取得し、前記画像に映る内容を判別し、前記画像に映る内容の判別結果に基づいて前記奥行き情報を修正して修正奥行き情報を生成し、前記修正奥行き情報を用いて前記画像の立体感を強調するための立体感強調処理を実行する画像処理装置へ、前記処理対象画像を送信して前記画像処理装置により立体感の強調された前記処理対象画像を受信する通信部と、を備える端末装置が提供される。
また、本開示によれば、画像処理装置及び端末装置を含む画像処理システムであって、前記画像処理装置は、前記端末装置から受信される画像内の各画素の奥行きを表す奥行き情報を取得する奥行き情報取得部と、前記画像に映る内容を判別する判別部と、前記判別部による判別結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成する修正部と、前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行する強調部と、を備え、前記端末装置は、処理対象画像を取得する画像取得部と、取得された処理対象画像を前記画像処理装置へ送信し、前記画像処理装置により立体感の強調された前記処理対象画像を受信する通信部と、を備える、画像処理システムが提供される。
また、本開示によれば、実行可能なプログラムを記憶するメモリと、プロセッサと、を備える画像処理装置であって、前記プログラムは、前記プロセッサにより実行された場合に、前記プロセッサを、画像内の各画素の奥行きを表す奥行き情報を取得し、前記画像に映る内容を判別し、前記判別の結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成し、前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行する、ように動作させる、画像処理装置が提供される。
本開示に係る技術によれば、画像に映っている内容に応じて主観的な画質を効果的に向上することができる。
第1の実施形態に係る画像処理装置の構成の一例を示すブロック図である。 シーンの種類ごとに定義される補助奥行き情報の一例について説明するための第1の説明図である。 シーンの種類ごとに定義される補助奥行き情報の一例について説明するための第2の説明図である。 補助奥行き領域を用いた奥行き情報の修正について説明するための説明図である。 領域の判別結果に応じた奥行き情報の修正について説明するための説明図である。 一実施形態に係る強調部の詳細な構成の一例を示すブロック図である。 一実施形態に係る画像処理の流れの一例を示すフローチャートである。 図7に示した立体感強調処理の詳細な流れの一例を示すフローチャートである。 第2の実施形態に係る画像処理装置の構成の一例を示すブロック図である。 一例としての立体感強調処理のためのフィルタ係数の学習について説明するための説明図である。 テレビジョン装置の概略的な構成の一例を示すブロック図である。 携帯電話機の概略的な構成の一例を示すブロック図である。 記録再生装置の概略的な構成の一例を示すブロック図である。 撮像装置の概略的な構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下の順序で説明を行う。
1.第1の実施形態
1−1.画像取得部
1−2.奥行き情報取得部
1−3.判別部
1−4.補助奥行きDB
1−5.修正部
1−6.強調部
1−7.処理の流れ
2.第2の実施形態
3.フィルタ係数の学習
4.応用例
5.まとめ
<1.第1の実施形態>
まず、図1〜図8を用いて、本開示に係る技術の第1の実施形態について説明する。第1の実施形態に係る画像処理装置100は、入力画像を取得し、取得した入力画像について立体感強調処理を実行して、出力画像を生成する。入力画像は、静止画であってもよく、又は動画を構成する個々のフレームであってもよい。出力画像は、ディスプレイに表示されてもよく、又は記憶媒体に記憶されてもよい。画像処理装置100は、テレビジョン装置、PC(Personal Computer)、スマートフォン、コンテンツレコーダ、コンテンツプレーヤ、デジタルスチルカメラ若しくはデジタルビデオカメラなどのいかなる種類の装置であってもよく、又はこれら装置に搭載される画像処理モジュールであってもよい。
図1は、第1の実施形態に係る画像処理装置100の構成の一例を示すブロック図である。図1を参照すると、画像処理装置100は、画像取得部110、奥行き情報取得部120、判別部130、補助奥行きDB(データベース)140、修正部150及び強調部160を備える。
[1−1.画像取得部]
画像取得部110は、入力画像を取得する。画像取得部110は、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を有するカメラモジュールにより撮像される画像を入力画像として取得してもよい。また、画像取得部110は、記憶媒体により記憶されている画像又は外部のデータソースから受信される画像を入力画像として取得してもよい。画像取得部110は、取得した入力画像を奥行き情報取得部120、判別部130及び強調部160へ出力する。
[1−2.奥行き情報取得部]
奥行き情報取得部120は、入力画像内の各画素の奥行きを表す奥行き情報を取得する。奥行き情報は、いわゆるデプスマップの形式で表現され得る。奥行き情報取得部120は、公知の奥行き解析技術を入力画像に適用することにより、奥行き情報を生成してもよい。例えば、奥行き情報取得部120は、入力画像の画像信号を2次元的に周波数変換(例えば、離散フーリエ変換又は離散コサイン変換など)することにより、高域から低域にかけての周波数成分の変換係数を計算する。そして、奥行き情報取得部120は、高周波成分がより多く検出される画素についてより小さい奥行きを示すような奥行き情報を生成し得る。また、奥行き情報取得部120は、入力画像の奥行き情報が他の装置から提供される場合には、提供される当該奥行き情報を取得してもよい。奥行き情報取得部120は、このように取得される奥行き情報を、修正部150へ出力する。また、奥行き情報取得部120は、入力画像について周波数解析を実行した場合には、周波数解析結果を判別部130へ出力してもよい。
[1−3.判別部]
判別部130は、入力画像に映る内容を判別する。本実施形態において、判別部130は、シーン判別部132、顔判別部134、オブジェクト判別部136及びエッジ判別部138という4つの判別モジュールを含む。実際には、これら判別モジュールのうちのいくつかは省略されてもよい。
シーン判別部132は、入力画像に映るシーンの種類を判別する。本実施形態において、シーンの種類は、「風景(Landscape)」、「街並み(City)」、「屋内(Indoor)」及び「ポートレート(Portrait)」という4つの種類を含む。シーン判別部132は、例えば、高周波成分がより少なく、青色又は緑色の強い入力画像のシーンを、「風景」であると判別し得る。また、シーン判別部132は、被写体のエッジの消失点(vanishing point)の分布が特徴的である入力画像のシーンを、「街並み」であると判別し得る。また、シーン判別部132は、高周波成分がより多く、直線的なエッジが多数存在する入力画像のシーンを、「屋内」であると判別し得る。また、シーン判別部132は、特定の被写体(例えば人物)にフォーカスが合っている入力画像のシーンを、「ポートレート」であると判別し得る。シーン判別部132は、このように判別される入力画像のシーンの種類を識別するシーン識別子を、修正部150へ出力する。なお、シーン判別部132におけるシーンの分類、及びシーンの種類を判別する手法は、上述した例に限定されない。
顔判別部134は、公知の顔領域検出技術を用いて、入力画像に映る人物の顔領域を判別する。顔判別部134は、例えば、肌色領域の検出結果に基づいて、入力画像内のどの領域に人物の顔が映っているかを判別してもよい。また、顔判別部134は、既知の顔画像と入力画像の部分画像とを比較することにより、入力画像内のどの領域に人物の顔が映っているかを判別してもよい。顔判別部134は、入力画像内で顔領域が検出されると、検出された顔領域の位置を示す顔領域情報を修正部150へ出力する。
オブジェクト判別部136は、入力画像に映る注目物体の領域を判別する。本明細書において、注目物体とは、画像を表示する際により精細な表現が望まれる物体をいう。注目物体は、例えば、動物体であってもよい。その場合には、オブジェクト判別部136は、背景画像又は過去のフレームの画像と入力画像との間の差分に基づいて、動物体を判別し得る。また、注目物体は、予め特徴量データの与えられる物体であってもよい。その場合には、オブジェクト判別部136は、入力画像から抽出される特徴量と注目物体の特徴量とを比較することにより、入力画像内のどの領域に注目物体が映っているかを判別し得る。オブジェクト判別部136は、入力画像内で注目物体が検出されると、検出された注目物体の位置を示す注目物体情報を修正部150へ出力する。
エッジ判別部138は、入力画像に映る主要なエッジを含むエッジ領域とそれ以外のテクスチャ領域とを判別する。エッジ領域は、いわゆる構造線を含む領域であり、例えばある物体と他の物体(又は背景)との間の境界を含む。エッジ判別部138は、例えば、公知のエッジ検出法を用いて入力画像に映るエッジを検出し、検出したエッジの長さ又はエッジの両側のテクスチャの相違などに基づいて、構造線に相当するエッジとその他のエッジとを区別し得る。そして、エッジ判別部138は、例えば、エッジ領域の位置を示すエッジ領域情報(又はテクスチャ領域の位置を示すテクスチャ領域情報)を修正部150へ出力する。
[1−4.補助奥行きDB]
補助奥行きDB140は、シーンの種類ごとに予め定義される補助奥行き情報を記憶媒体を用いて記憶するデータベースである。補助奥行き情報は、奥行き情報取得部120により取得される基本的な奥行き情報を修正するために使用されるものであり、奥行き情報と同様にデプスマップの形式で表現され得る。図2及び図3は、シーンの種類ごとに定義される補助奥行き情報の一例について説明するための説明図である。
図2の上段には、シーンの種類が「風景」である画像の例として画像Im01、シーンの種類が「街並み」である画像の例として画像Im02がそれぞれ示されている。各画像の横軸がX軸、縦軸がY軸、奥行き軸がZ軸であるものとする。図2の下段には、「風景」について定義される補助奥行き情報SD01及び「街並み」について定義される補助奥行き情報SD02がそれぞれ示されている。補助奥行き情報SD01は、より上に位置する画素ほどより大きい奥行きを示す。補助奥行き情報SD02は、より上に位置する画素ほどより大きい奥行きを示すと共に、X軸の端部よりも中央部においてより大きい奥行きを示す。
図3の上段には、シーンの種類が「屋内」である画像の例として画像Im03、シーンの種類が「ポートレート」である画像の例として画像Im04がそれぞれ示されている。図3の下段には、「屋内」について定義される補助奥行き情報SD03及び「ポートレート」について定義される補助奥行き情報SD04がそれぞれ示されている。補助奥行き情報SD03は、X軸及びY軸の双方について、端部よりも中央部においてより大きい奥行きを示す。補助奥行き情報SD04は、画素位置によらず均一な奥行きを示す。
[1−5.修正部]
修正部150は、判別部130による判別結果に基づいて、奥行き情報取得部120から入力される奥行き情報(以下、基本奥行き情報という)を修正して、修正奥行き情報を生成する。
例えば、修正部150は、シーン判別部132により判別された入力画像のシーン識別子が入力されると、当該シーン識別子により識別されるシーンの種類と関連付けられている補助奥行き情報を補助奥行きDB140から取得する。そして、修正部150は、取得した補助奥行き情報を基本奥行き情報と合成することにより、修正奥行き情報を生成する。
図4は、補助奥行き情報を用いた奥行き情報の修正について説明するための説明図である。図4の左上には、一例としての入力画像Im11が示されている。入力画像Im11に映るシーンの種類は、「風景」である。図4の中央上には、入力画像Im11について取得される基本奥行き情報BD11が示されている。基本奥行き情報BD11において、領域R11の奥行きは、領域R12及びR13の奥行きよりも小さい。領域R12の奥行きは、領域R13の奥行きよりも小さい。図4の中央下には、「風景」と関連付けられる、図2に例示した補助奥行き情報SD01が示されている。修正部150は、例えば、画素ごとに、基本奥行き情報BD11の奥行きと補助奥行き情報SD01の奥行きとを合成することにより、修正奥行き情報MD11の画素ごとの奥行きの値を計算する。ここでの合成は、単純な平均であってもよく、又は所定の重みを用いた重み付け加算であってもよい。図4の右には、基本奥行き情報BD11及び補助奥行き情報SD01から生成される修正奥行き情報MD11が示されている。
また、例えば、修正部150は、顔領域の位置を示す顔領域情報が入力されると、基本奥行き情報(又は補助奥行き情報を用いて修正された奥行き情報)の奥行きのうち、顔領域に含まれる画素の奥行きを修正する。修正部150は、顔領域に含まれる画素の奥行きから所定のオフセット値を減算することにより、顔領域がより手前に近付くように奥行きを修正してもよい。その代わりに、修正部150は、例えば顔の肌が粗く見えることを避けることが望まれるような場合には、顔領域に含まれる画素の奥行きに所定のオフセット値を加算することにより、顔領域がより遠ざかるように奥行きを修正してもよい。
また、例えば、修正部150は、注目物体の位置を示す注目物体情報が入力されると、基本奥行き情報(又は他の情報を用いて修正された奥行き情報)の奥行きのうち、注目物体の位置の画素の奥行きを修正する。典型的には、修正部150は、注目物体の位置の画素の奥行きから、所定のオフセット値を減算する。注目物体の種類に応じて異なるオフセット値が用いられてもよい。
図5は、領域の判別結果に応じた奥行き情報の修正について説明するための説明図である。図5の上には、一例としての入力画像Im21が示されている。入力画像Im21には、人物、及び動物体である自動車が映っている。図5の下には、このような入力画像Im21について修正部150へ入力される判別結果SD21が示されている。判別結果SD21において、領域R21は顔領域である。修正部150は、領域R21に含まれる画素の奥行き情報の奥行きから、オフセット値dを減算する。また、領域R22は、動物体が検出された領域である。修正部150は、領域R22に含まれる画素の奥行き情報の奥行きから、オフセット値dを減算する。オフセット値d及びdは、等しい値であっても異なる値であってもよい。
また、例えば、修正部150は、エッジ領域情報又はテクスチャ領域情報が入力されると、基本奥行き情報(又は他の情報を用いて修正された奥行き情報)の奥行きのうち、エッジ領域又はテクスチャ領域に含まれる画素の奥行きを修正する。例えば、修正部150は、エッジ領域に含まれる画素の奥行きから所定のオフセット値を減算してもよい。その代わりに又はそれに加えて、修正部150は、テクスチャ領域に含まれる画素の奥行きに所定のオフセット値を加算してもよい。
修正部150は、このように修正された修正奥行き情報を強調部160へ出力する。
[1−6.強調部]
強調部160は、修正部150から入力される修正奥行き情報を用いて、入力画像の立体感を強調するための立体感強調処理を実行する。本実施形態において実行される立体感強調処理は、空気遠近法(atmospheric perspective又はaerial perspective)に関連する視覚特性を利用して立体感を強調する処理である。例えば、近景を高いコントラストで、遠景を低いコントラストで描くことで、人間の視覚特性に従って遠近感(立体感)が感知されることが知られている。コントラストの他にも、シャープネス、輝度、彩度及び解像度などのパラメータが、空気遠近法に従って遠近感を表現するために調整され得る。
強調部160は、例えば、修正奥行き情報においてより奥行きの小さい画素について、上述したパラメータのうち少なくとも1つの値がより大きく増加するように、入力画像の立体感を強調してもよい。その代わりに又はそれに加えて、強調部160は、修正奥行き情報においてより奥行きの大きい画素について、上述したパラメータのうち少なくとも1つの値がより大きく減少するように、入力画像の立体感を強調してもよい。パラメータ値の調整は、可変のフィルタ強度を有するフィルタを用いて行われてもよい。また、各画素の色成分を増減することにより、輝度又は彩度などのパラメータ値が調整されてもよい。本実施形態において、強調部160は、特開2011−217010号公報及び特開2011−217140号公報において説明されているクラス分類適応処理と呼ばれる手法を応用して、上述したパラメータの値を適応的に調整する。
図6は、本実施形態に係る強調部160の詳細な構成の一例を示すブロック図である。図6を参照すると、強調部160は、クラスタップ抽出部161、クラス分類部162、予測タップ抽出部163、係数テーブル164及び予測演算部165を有する。
クラスタップ抽出部161は、各画素のクラス分類のために使用されるクラスタップを入力画像から抽出する。クラスタップとは、画素値のパターンに応じて注目画素を複数のクラスのいずれかに分類する際に参照される、当該注目画素及び周辺画素の集合を指す。クラスタップは、例えば、注目画素を中心とする、縦横5個ずつのいわゆる十字型に配置された計9個の画素であってよい。なお、クラスタップは、かかる例に限定されず、注目画素及び周辺画素の任意の集合であってよい。クラスタップ抽出部161は、入力画像内の各画素を注目画素としてスキャンしながら、各注目画素について抽出されるクラスタップをクラス分類部162へ順次出力する。
クラス分類部162は、クラスタップ抽出部161から入力されるクラスタップの画素値のパターンと、修正奥行き情報により示される奥行きとに基づいて、各注目画素を複数のクラスのいずれかに分類する。クラス分類部162は、例えば、ADRC(Adaptive Dynamic Range Coding)法を用いて、各注目画素のクラスを決定してもよい。また、クラス分類部162は、クラスタップの画素値と注目画素の奥行きとにより構成されるベクトルをベクトル量子化することにより、各注目画素のクラスを決定してもよい。クラス分類部162は、このように各注目画素について決定されるクラスを示すクラスコードを、予測タップ抽出部163及び予測演算部165へ出力する。
予測タップ抽出部163は、各注目画素について、予測演算部165においてフィルタリングされるフィルタタップである予測タップを、入力画像から抽出する。予測タップは、例えば、注目画素を中心として対角線上に5個の画素を有する、菱形に配置された計13個の画素であってよい。なお、予測タップは、かかる例に限定されず、注目画素及び周辺画素の任意の集合であってよい。予測タップ抽出部163は、各注目画素について抽出される予測タップを予測演算部165へ出力する。
係数テーブル164は、予め決定されるクラスごとのフィルタ係数のセットを記憶しているテーブルである。フィルタ係数は、後に説明する事前の学習処理において、クラスタップ及び奥行きを用いて分類されるクラスごとに、教師画像と生徒画像とを用いて学習され得る。
予測演算部165は、クラス分類部162から入力されるクラスコードにより示されるクラスに対応するフィルタ係数を係数テーブル164から取得する。そして、予測演算部165は、取得したフィルタ係数を用いて、予測タップ抽出部163から入力される予測タップをフィルタリングすることにより、各注目画素の予測画素値を生成する。
入力画像のスキャンに従って予測演算部165から順次出力される予測画素値は、画像処理装置100からの出力画像を構成する。予測演算部165により使用されるフィルタ係数は、生徒画像を、空気遠近法に関連する視覚特性を利用して当該生徒画像の立体感を強調することにより生成される教師画像に近付けるように、事前に学習されている。従って、当該フィルタ係数でフィルタリングされた出力画像から主観的に感知される立体感は、入力画像から感知される立体感よりも強調されたものとなる。クラス分類適応処理のための学習処理について、後にさらに説明する。
なお、強調部160は、コントラスト、シャープネス、輝度、彩度及び解像度などのパラメータを修正奥行き情報により示される奥行きに従って調整して立体感を強調すると共に、ノイズ除去及びボケ除去などの画質改善を行ってもよい。
[1−7.処理の流れ]
(1)全体的な処理
図7は、本実施形態に係る画像処理装置100により実行される画像処理の流れの一例を示すフローチャートである。
図7を参照すると、まず、画像取得部110は、入力画像を取得する(ステップS110)。そして、画像取得部110は、取得した入力画像を奥行き情報取得部120、判別部130及び強調部160へ出力する。
次に、奥行き情報取得部120は、入力画像内の各画素の奥行きを表す奥行き情報を取得する(ステップS120)。そして、奥行き情報取得部120は、取得した奥行き情報を修正部150へ出力する。
また、判別部130は、入力画像に映るシーンの種類、顔領域、注目物体の領域及びエッジ領域などを判別する(ステップS130)。そして、判別部130は、判別結果を示す情報(例えばシーン識別子など)を修正部150へ出力する。
次に、修正部150は、奥行き情報取得部120から入力される奥行き情報を、判別部130から入力される判別結果に基づいて修正して、修正奥行き情報を生成する(ステップS140)。そして、修正部150は、修正奥行き情報を強調部160へ出力する。
次に、強調部160は、修正部150から入力される修正奥行き情報を用いて、入力画像の立体感を強調するための立体感強調処理を実行する(ステップS150)。強調部160から出力される、立体感の強調された出力画像は、ディスプレイに表示されてもよく、又は記憶媒体に記憶されてもよい。
(2)立体感強調処理
図8は、図7のステップS150における立体感強調処理の詳細な流れの一例を示すフローチャートである。図8に示した立体感強調処理は、入力画像の各画素を注目画素として繰り返し実行される。
図8を参照すると、まず、クラスタップ抽出部161は、注目画素及び当該注目画素の周辺画素から、クラスタップを抽出する(ステップS151)。そして、クラスタップ抽出部161は、抽出したクラスタップをクラス分類部162へ出力する。
次に、クラス分類部162は、クラスタップ抽出部161から入力されるクラスタップ及び修正奥行き情報により示される奥行きに基づいて、注目画素のクラスを決定する(ステップS152)。そして、クラス分類部162は、決定したクラスを示すクラスコードを予測タップ抽出部163及び予測演算部165へ出力する。
次に、予測タップ抽出部163は、注目画素及び当該注目画素の周辺画素から、予測タップを抽出する(ステップS153)。予測タップの配置は、注目画素のクラスに依存して変化してもよい。予測タップ抽出部163は、抽出した予測タップを予測演算部165へ出力する。
次に、予測演算部165は、注目画素のクラスに対応するフィルタ係数を、係数テーブル164から取得する(ステップS154)。そして、予測演算部165は、取得したフィルタ係数を用いて、予測タップ抽出部163から入力される予測タップをフィルタリングすることにより、注目画素の予測画素値を生成する(ステップS155)。
その後、入力画像内に未処理の画素が残っている場合には、次の画素を注目画素として、上述した処理が繰り返される(ステップS156)。一方、未処理の画素が残っていない場合には、図8の立体感強調処理は終了する。
<2.第2の実施形態>
第2の実施形態では、第1の実施形態において説明したものと同様の手法に従って、立体視画像を再生する装置において、画像の立体感が強調される。
図9は、第2の実施形態に係る画像処理装置200の構成の一例を示すブロック図である。図9を参照すると、画像処理装置200は、画像取得部210、奥行き情報取得部220、判別部230、補助奥行きDB140、修正部250及び強調部260を備える。
画像取得部210は、左眼画像と右眼画像とを含むマルチビューのストリームを取得し、取得したストリームから左眼画像及び右眼画像を分離する。画像取得部210は、左眼画像及び右眼画像を、奥行き情報取得部220、判別部230及び強調部260へ出力する。
奥行き情報取得部220は、立体視画像の各画素の奥行きを表す奥行き情報を取得する。奥行き情報取得部220は、第1の実施形態に係る奥行き情報取得部120と同様に、周波数解析などの手法に従って奥行き情報を生成してもよく、又は他の装置から奥行き情報を取得してもよい。その代わりに、奥行き情報取得部220は、左眼画像と右眼画像との間の視差を計算し、当該視差に基づいて奥行き情報を生成してもよい。奥行き情報取得部220は、奥行き情報を修正部250へ出力する。
判別部230は、左眼画像及び右眼画像の少なくとも一方を用いて、立体視画像に映る内容を判別する。判別部230は、第1の実施形態に係る判別部130と同様に、立体視画像に映るシーンの種類、人物の顔領域、注目物体の領域、及びエッジ領域又はテクスチャ領域を判別してよい。判別部230は、判別結果を修正部250へ出力する。
修正部250は、第1の実施形態に係る修正部150と同様に、判別部230による判別結果に基づいて、奥行き情報取得部220から入力される基本奥行き情報を修正して、修正奥行き情報を生成する。そして、修正部250は、生成した修正奥行き情報を強調部260へ出力する。
強調部260は、修正部250から入力される修正奥行き情報を用いて、立体視画像を構成する右眼画像及び左眼画像の一方又は双方の立体感を強調するための立体感強調処理を実行する。本実施形態において実行される立体感強調処理は、第1の実施形態において実行される立体感強調処理と同様の、空気遠近法に関連する視覚特性を利用する処理であってよい。即ち、右眼画像及び左眼画像の一方又は双方のコントラスト、シャープネス、輝度、彩度及び解像度などのパラメータが、修正奥行き情報により示される奥行きに応じて調整され得る。
強調部260から出力される右眼画像及び左眼画像はディスプレイにより表示され、それにより立体視画像が再生される。
一般的に、両眼視差に基づいて知覚される立体視画像の視差を過剰に強調すると、ユーザの眼精疲労などの体調不良が引き起こされることが知られている。しかし、本実施形態に係る手法によれば、両眼視差を変化させることなく、右眼画像及び左眼画像の各々について空気遠近法に関連する視覚特性を利用して立体感が強調される。従って、ユーザの体調不良のリスクを増加させることなく、立体感の高まった立体視画像を提供することができる。
<3.フィルタ係数の学習>
本節では、クラス分類適応処理を応用した立体感強調処理において利用されるフィルタ係数を学習するための学習処理について説明する。
図10は、立体感強調処理のためのフィルタ係数の学習について説明するための説明図である。
図10を参照すると、一例としての画像処理装置100及び学習装置300が示されている。学習装置300は、生徒画像と当該生徒画像に対応する教師画像との複数のセットを用いて、いわゆる教師あり学習処理を実行する。ここで利用される教師画像は、空気遠近法に従って、対応する生徒画像のコントラスト、シャープネス、輝度、彩度及び解像度などのパラメータの値を画素ごとの奥行きに応じて調整することにより生成される画像である。これらパラメータ値の調整と共に、ノイズ除去及びボケ除去が行われてもよい。学習装置300には、各生徒画像についての奥行き情報もまた入力される。学習装置300は、生徒画像の画素値と奥行きとに基づいて各画素のクラスを決定し、生徒画像の画素値を対応する教師画像の画素値に近付けるための最適なフィルタ係数のセットを、クラスごとに学習する。図10の例では、クラスC1及びC2を含む複数のクラスの各々について、フィルタ係数のセットが決定されている。
画像処理装置100は、学習装置300により決定されるクラスごとのフィルタ係数のセットを利用して、入力画像から、立体感のより強調された出力画像を予測する。即ち、画像処理装置100は予測装置であるとも言える。画像処理装置100は、上述したように、学習装置300により実行される事前の学習処理を通じて決定されるフィルタ係数のセットを、図6に例示した係数テーブル164内に記憶する。そして、画像処理装置100は、入力画像に映る内容の判別結果に基づいて修正される奥行き情報を用いて各画素のクラスを決定し、決定したクラスに対応するフィルタ係数で各画素の予測タップをフィルタリングする。
このようなクラス分類適応処理によれば、各画素について、最適なフィルタ係数を用いた1回のフィルタリングで、空気遠近法に関連する様々なパラメータ値を同時に調整することができる。従って、パラメータごとに用意される複数のフィルタ(例えば、コントラスト調整フィルタ、シャープネス調整フィルタ及びノイズ除去フィルタなど)を逐次的に適用する手法と比較して、立体感強調処理により生じる遅延を短くすることができる。また、複数のフィルタ間でフィルタリングの効果が互いに打ち消されることもない。
<4.応用例>
本開示に係る技術は、画像を放送し若しくは配信する送信機、画像を受信する受信機、光ディスク若しくは磁気ディスクなどの媒体に画像を記録する記録装置、又は、受信され若しくは記録された画像を再生する再生装置などの様々な電子機器に応用され得る。以下、4つの応用例について説明する。
[4−1.第1の応用例]
図11は、本開示に係る技術を適用したテレビジョン装置の概略的な構成の一例を示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース909、制御部910、ユーザインタフェース911、及びバス912を備える。
チューナ902は、アンテナ901を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ902は、復調により得られた符号化ビットストリームをデマルチプレクサ903へ出力する。即ち、チューナ902は、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
デマルチプレクサ903は、符号化ビットストリームから視聴対象の番組の映像ストリーム及び音声ストリームを分離し、分離した各ストリームをデコーダ904へ出力する。また、デマルチプレクサ903は、符号化ビットストリームからEPG(Electronic Program Guide)などの補助的なデータを抽出し、抽出したデータを制御部910に供給する。なお、デマルチプレクサ903は、符号化ビットストリームがスクランブルされている場合には、デスクランブルを行ってもよい。
デコーダ904は、デマルチプレクサ903から入力される映像ストリーム及び音声ストリームを復号する。そして、デコーダ904は、復号処理により生成される映像データを映像信号処理部905へ出力する。また、デコーダ904は、復号処理により生成される音声データを音声信号処理部907へ出力する。
映像信号処理部905は、デコーダ904から入力される映像データを再生し、表示部906に映像を表示させる。また、映像信号処理部905は、ネットワークを介して供給されるアプリケーション画面を表示部906に表示させてもよい。また、映像信号処理部905は、映像データについて、設定に応じて、例えばノイズ除去などの追加的な処理を行ってもよい。さらに、映像信号処理部905は、例えばメニュー、ボタン又はカーソルなどのGUI(Graphical User Interface)の画像を生成し、生成した画像を出力画像に重畳してもよい。
表示部906は、映像信号処理部905から供給される駆動信号により駆動され、表示デバイス(例えば、液晶ディスプレイ、プラズマディスプレイ又はOLEDなど)の映像面上に映像又は画像を表示する。
音声信号処理部907は、デコーダ904から入力される音声データについてD/A変換及び増幅などの再生処理を行い、スピーカ908から音声を出力させる。また、音声信号処理部907は、音声データについてノイズ除去などの追加的な処理を行ってもよい。
外部インタフェース909は、テレビジョン装置900と外部機器又はネットワークとを接続するためのインタフェースである。例えば、外部インタフェース909を介して受信される映像ストリーム又は音声ストリームが、デコーダ904により復号されてもよい。即ち、外部インタフェース909もまた、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
制御部910は、CPU(Central Processing Unit)などのプロセッサ、並びにRAM(Random Access Memory)及びROM(Read Only Memory)などのメモリを有する。メモリは、CPUにより実行されるプログラム、プログラムデータ、EPGデータ、及びネットワークを介して取得されるデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、テレビジョン装置900の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース911から入力される操作信号に応じて、テレビジョン装置900の動作を制御する。
ユーザインタフェース911は、制御部910と接続される。ユーザインタフェース911は、例えば、ユーザがテレビジョン装置900を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース911は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部910へ出力する。
バス912は、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、音声信号処理部907、外部インタフェース909及び制御部910を相互に接続する。
このように構成されたテレビジョン装置900において、映像信号処理部905は、画像処理装置100又は200の機能を有する。従って、テレビジョン装置900での画像の表示に際して、立体感を強調して主観的な画質を向上することができる。
[4−2.第2の応用例]
図12は、本開示に係る技術を適用した携帯電話機の概略的な構成の一例を示している。携帯電話機920は、アンテナ921、通信部922、音声コーデック923、スピーカ924、マイクロホン925、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931、操作部932、及びバス933を備える。
アンテナ921は、通信部922に接続される。スピーカ924及びマイクロホン925は、音声コーデック923に接続される。操作部932は、制御部931に接続される。バス933は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、及び制御部931を相互に接続する。
携帯電話機920は、音声通話モード、データ通信モード、撮影モード及びテレビ電話モードを含む様々な動作モードで、音声信号の送受信、電子メール又は画像データの送受信、画像の撮像、及びデータの記録などの動作を行う。
音声通話モードにおいて、マイクロホン925により生成されるアナログ音声信号は、音声コーデック923に供給される。音声コーデック923は、アナログ音声信号を音声データへ変換し、変換された音声データをA/D変換し圧縮する。そして、音声コーデック923は、圧縮後の音声データを通信部922へ出力する。通信部922は、音声データを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して音声データを生成し、生成した音声データを音声コーデック923へ出力する。音声コーデック923は、音声データを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
また、データ通信モードにおいて、例えば、制御部931は、操作部932を介するユーザによる操作に応じて、電子メールを構成する文字データを生成する。また、制御部931は、文字を表示部930に表示させる。また、制御部931は、操作部932を介するユーザからの送信指示に応じて電子メールデータを生成し、生成した電子メールデータを通信部922へ出力する。通信部922は、電子メールデータを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して電子メールデータを復元し、復元した電子メールデータを制御部931へ出力する。制御部931は、表示部930に電子メールの内容を表示させると共に、電子メールデータを記録再生部929の記憶媒体に記憶させる。
記録再生部929は、読み書き可能な任意の記憶媒体を有する。例えば、記憶媒体は、RAM又はフラッシュメモリなどの内蔵型の記憶媒体であってもよく、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、又はメモリカードなどの外部装着型の記憶媒体であってもよい。
また、撮影モードにおいて、例えば、カメラ部926は、被写体を撮像して画像データを生成し、生成した画像データを画像処理部927へ出力する。画像処理部927は、カメラ部926から入力される画像データを符号化し、符号化ストリームを記録再生部929の記憶媒体に記憶させる。
また、テレビ電話モードにおいて、例えば、多重分離部928は、画像処理部927により符号化された映像ストリームと、音声コーデック923から入力される音声ストリームとを多重化し、多重化したストリームを通信部922へ出力する。通信部922は、ストリームを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。これら送信信号及び受信信号には、符号化ビットストリームが含まれ得る。そして、通信部922は、受信信号を復調及び復号してストリームを復元し、復元したストリームを多重分離部928へ出力する。多重分離部928は、入力されるストリームから映像ストリーム及び音声ストリームを分離し、映像ストリームを画像処理部927、音声ストリームを音声コーデック923へ出力する。画像処理部927は、映像ストリームを復号し、映像データを生成する。映像データは、表示部930に供給され、表示部930により一連の画像が表示される。音声コーデック923は、音声ストリームを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
このように構成された携帯電話機920において、画像処理部927は、画像処理装置100又は200の機能を有する。従って、携帯電話機920での画像の記録又は再生に際して、立体感を強調して主観的な画質を向上することができる。
[4−3.第3の応用例]
図13は、本開示に係る技術を適用した記録再生装置の概略的な構成の一例を示している。記録再生装置940は、例えば、受信した放送番組の音声データ及び映像データを符号化して記録媒体に記録する。また、記録再生装置940は、例えば、他の装置から取得される音声データ及び映像データを符号化して記録媒体に記録してもよい。また、記録再生装置940は、例えば、ユーザの指示に応じて、記録媒体に記録されているデータをモニタ及びスピーカ上で再生する。このとき、記録再生装置940は、音声データ及び映像データを復号する。
記録再生装置940は、チューナ941、外部インタフェース942、エンコーダ943、HDD(Hard Disk Drive)944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)948、制御部949、及びユーザインタフェース950を備える。
チューナ941は、アンテナ(図示せず)を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ941は、復調により得られた符号化ビットストリームをセレクタ946へ出力する。即ち、チューナ941は、記録再生装置940における伝送手段としての役割を有する。
外部インタフェース942は、記録再生装置940と外部機器又はネットワークとを接続するためのインタフェースである。外部インタフェース942は、例えば、IEEE1394インタフェース、ネットワークインタフェース、USBインタフェース、又はフラッシュメモリインタフェースなどであってよい。例えば、外部インタフェース942を介して受信される映像データ及び音声データは、エンコーダ943へ入力される。即ち、外部インタフェース942は、記録再生装置940における伝送手段としての役割を有する。
エンコーダ943は、外部インタフェース942から入力される映像データ及び音声データが符号化されていない場合に、映像データ及び音声データを符号化する。そして、エンコーダ943は、符号化ビットストリームをセレクタ946へ出力する。
HDD944は、映像及び音声などのコンテンツデータが圧縮された符号化ビットストリーム、各種プログラム及びその他のデータを内部のハードディスクに記録する。また、HDD944は、映像及び音声の再生時に、これらデータをハードディスクから読み出す。
ディスクドライブ945は、装着されている記録媒体へのデータの記録及び読み出しを行う。ディスクドライブ945に装着される記録媒体は、例えばDVDディスク(DVD−Video、DVD−RAM、DVD−R、DVD−RW、DVD+R、DVD+RW等)又はBlu−ray(登録商標)ディスクなどであってよい。
セレクタ946は、映像及び音声の記録時には、チューナ941又はエンコーダ943から入力される符号化ビットストリームを選択し、選択した符号化ビットストリームをHDD944又はディスクドライブ945へ出力する。また、セレクタ946は、映像及び音声の再生時には、HDD944又はディスクドライブ945から入力される符号化ビットストリームをデコーダ947へ出力する。
デコーダ947は、符号化ビットストリームを復号し、映像データ及び音声データを生成する。そして、デコーダ947は、生成した映像データをOSD948へ出力する。また、デコーダ904は、生成した音声データを外部のスピーカへ出力する。
OSD948は、デコーダ947から入力される映像データを再生し、映像を表示する。また、OSD948は、表示する映像に、例えばメニュー、ボタン又はカーソルなどのGUIの画像を重畳してもよい。
制御部949は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、記録再生装置940の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース950から入力される操作信号に応じて、記録再生装置940の動作を制御する。
ユーザインタフェース950は、制御部949と接続される。ユーザインタフェース950は、例えば、ユーザが記録再生装置940を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース950は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部949へ出力する。
このように構成された記録再生装置940において、エンコーダ943及びデコーダ947は、画像処理装置100又は200の機能を有する。従って、記録再生装置940での画像の記録又は再生に際して、立体感を強調して主観的な画質を向上することができる。
[4−4.第4の応用例]
図14は、本開示に係る技術を適用した撮像装置の概略的な構成の一例を示している。撮像装置960は、被写体を撮像して画像を生成し、画像データを符号化して記録媒体に記録する。
撮像装置960は、光学ブロック961、撮像部962、信号処理部963、画像処理部964、表示部965、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970、ユーザインタフェース971、及びバス972を備える。
光学ブロック961は、撮像部962に接続される。撮像部962は、信号処理部963に接続される。表示部965は、画像処理部964に接続される。ユーザインタフェース971は、制御部970に接続される。バス972は、画像処理部964、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、及び制御部970を相互に接続する。
光学ブロック961は、フォーカスレンズ及び絞り機構などを有する。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCD又はCMOSなどのイメージセンサを有し、撮像面に結像した光学像を光電変換によって電気信号としての画像信号に変換する。そして、撮像部962は、画像信号を信号処理部963へ出力する。
信号処理部963は、撮像部962から入力される画像信号に対してニー補正、ガンマ補正、色補正などの種々のカメラ信号処理を行う。信号処理部963は、カメラ信号処理後の画像データを画像処理部964へ出力する。
画像処理部964は、信号処理部963から入力される画像データを符号化し、符号化データを生成する。そして、画像処理部964は、生成した符号化データを外部インタフェース966又はメディアドライブ968へ出力する。また、画像処理部964は、外部インタフェース966又はメディアドライブ968から入力される符号化データを復号し、画像データを生成する。そして、画像処理部964は、生成した画像データを表示部965へ出力する。また、画像処理部964は、信号処理部963から入力される画像データを表示部965へ出力して画像を表示させてもよい。また、画像処理部964は、OSD969から取得される表示用データを、表示部965へ出力する画像に重畳してもよい。
OSD969は、例えばメニュー、ボタン又はカーソルなどのGUIの画像を生成して、生成した画像を画像処理部964へ出力する。
外部インタフェース966は、例えばUSB入出力端子として構成される。外部インタフェース966は、例えば、画像の印刷時に、撮像装置960とプリンタとを接続する。また、外部インタフェース966には、必要に応じてドライブが接続される。ドライブには、例えば、磁気ディスク又は光ディスクなどのリムーバブルメディアが装着され、リムーバブルメディアから読み出されるプログラムが、撮像装置960にインストールされ得る。さらに、外部インタフェース966は、LAN又はインターネットなどのネットワークに接続されるネットワークインタフェースとして構成されてもよい。即ち、外部インタフェース966は、撮像装置960における伝送手段としての役割を有する。
メディアドライブ968に装着される記録媒体は、例えば、磁気ディスク、光磁気ディスク、光ディスク、又は半導体メモリなどの、読み書き可能な任意のリムーバブルメディアであってよい。また、メディアドライブ968に記録媒体が固定的に装着され、例えば、内蔵型ハードディスクドライブ又はSSD(Solid State Drive)のような非可搬性の記憶部が構成されてもよい。
制御部970は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、撮像装置960の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース971から入力される操作信号に応じて、撮像装置960の動作を制御する。
ユーザインタフェース971は、制御部970と接続される。ユーザインタフェース971は、例えば、ユーザが撮像装置960を操作するためのボタン及びスイッチなどを有する。ユーザインタフェース971は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部970へ出力する。
このように構成された撮像装置960において、画像処理部964は、画像処理装置100又は200の機能を有する。従って、撮像装置960での画像の記録又は再生に際して、立体感を強調して主観的な画質を向上することができる。
<5.まとめ>
ここまで、図1〜図14を用いて、本開示に係る技術の2つの実施形態及びその応用例について詳細に説明した。上述した実施形態によれば、入力画像内の各画素の奥行きを表す奥行き情報が入力画像に映る内容の判別結果に基づいて修正され、修正された奥行き情報を用いて、入力画像の立体感を強調するための立体感強調処理が実行される。従って、画像に映る内容に依存し得る立体感の感じ方を考慮して、画像コンテンツの立体感を強調することができる。例えば、特許文献2により提案されているステレオ法を用いる技術によれば、カメラと被写体との間の距離を示す奥行き情報を得ることができる。しかし、そのような奥行き情報は、奥行きをある程度再現するものであっても、奥行きを強調するものではない。一方、上述した実施形態によれば、画像内容に基づいて、奥行きが強調される。即ち、例えば風景画像については風景の広がりが強調され、又は建物の内部の画像については建物の中にいるという没入感が強調される。結果として、ユーザにより経験される画像コンテンツの主観的な画質を効果的に向上することができる。
また、上述した実施形態によれば、入力画像に映るシーンの種類が判別され、判別されたシーンの種類に応じて奥行き情報が修正される。従って、シーンの種類ごとに得られている立体感の感じ方についての知見を活用して奥行き情報を修正し、立体感を適切に強調することができる。
また、上述した実施形態によれば、入力画像に映る顔領域、注目物体の領域又はエッジ領域若しくはテクスチャ領域が判別され、これら領域の奥行きが修正される。従って、これら領域ごとに立体感を選択的に強調し又は緩和することができる。
また、上述した実施形態によれば、空気遠近法に関連する視覚特性を利用して、画像の立体感が強調される。従って、両眼視差を強調する手法のようにユーザに過度の身体的負担を強いることなく、立体感を主観的に高めることができる。
なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAMに読み込まれ、CPUなどのプロセッサにより実行される。
また、画像処理装置100又は200の機能は、クラウドコンピューティング環境内に実装されてもよい。その場合には、画像を記録し又は再生する端末装置は、画像処理装置100又は200と同等の機能を有する装置へ、画像取得部により取得される処理対象画像を通信部を介して送信し、当該装置により立体感の強調された処理対象画像を受信する。そのような端末装置と画像処理装置100又は200とにより画像処理システムが構成されてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
画像内の各画素の奥行きを表す奥行き情報を取得する奥行き情報取得部と、
前記画像に映る内容を判別する判別部と、
前記判別部による判別結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成する修正部と、
前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行する強調部と、
を備える画像処理装置。
(2)
前記判別部は、前記画像に映るシーンの種類を判別し、
前記修正部は、前記判別部により判別される前記シーンの種類に応じて、前記奥行き情報を修正する、
前記(1)に記載の画像処理装置。
(3)
前記修正部は、シーンの種類ごとに予め定義される補助奥行き情報を前記奥行き情報と合成することにより、前記奥行き情報を修正する、前記(2)に記載の画像処理装置。
(4)
前記判別部は、前記画像に映る人物の顔領域を判別し、
前記修正部は、前記判別部により判別される前記顔領域の奥行きを修正する、
前記(1)〜(3)のいずれか1項に記載の画像処理装置。
(5)
前記判別部は、前記画像に映る注目物体の領域を判別し、
前記修正部は、前記判別部により判別される前記注目物体の領域の奥行きを修正する、
前記(1)〜(4)のいずれか1項に記載の画像処理装置。
(6)
前記判別部は、前記画像に映るエッジとテクスチャとを判別し、
前記修正部は、前記判別部により判別される前記エッジの領域又は前記テクスチャの領域の奥行きを修正する、
前記(1)〜(5)のいずれか1項に記載の画像処理装置。
(7)
前記強調部は、空気遠近法に関連する視覚特性を利用して、前記画像の立体感を強調する、前記(1)〜(6)のいずれか1項に記載の画像処理装置。
(8)
前記強調部は、前記修正奥行き情報においてより奥行きの小さい画素についてコントラスト、シャープネス、輝度、彩度及び解像度のうち少なくとも1つのパラメータがより大きく増加するように、前記画像の立体感を強調する、前記(7)に記載の画像処理装置。
(9)
前記強調部は、前記修正奥行き情報においてより奥行きの大きい画素についてコントラスト、シャープネス、輝度、彩度及び解像度のうち少なくとも1つのパラメータがより大きく減少するように、前記画像の立体感を強調する、前記(7)又は前記(8)に記載の画像処理装置。
(10)
前記強調部は、事前の学習処理において奥行きに応じて決定されるフィルタ係数を用いて前記画像をフィルタリングすることにより、前記画像の立体感を強調する、前記(7)〜(9)のいずれか1項に記載の画像処理装置。
(11)
前記強調部は、画素値と前記修正奥行き情報により表される奥行きとに基づいて各画素を複数のクラスの1つに分類し、前記学習処理においてクラスごとに決定される前記フィルタ係数で各画素と周辺画素とを含むフィルタタップをフィルタリングする、前記(10)に記載の画像処理装置。
(12)
前記フィルタ係数は、生徒画像と当該生徒画像に対応する教師画像であって空気遠近法を利用して立体感の強調された当該教師画像との複数のセットを用いた前記学習処理において、クラスごとに決定される、前記(11)に記載の画像処理装置。
(13)
前記画像は、立体視画像を構成する右眼画像及び左眼画像の一方又は双方であり、
前記画像処理装置は、前記強調部により立体感の強調された前記画像を含む右眼画像及び左眼画像を表示装置に表示させて立体視画像を再生する、
前記(1)〜(12)のいずれか1項に記載の画像処理装置。
(14)
画像内の各画素の奥行きを表す奥行き情報を取得することと、
前記画像に映る内容を判別することと、
前記判別の結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成することと、
前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行することと、
を含む画像処理方法。
(15)
画像処理装置を制御するコンピュータを、
画像内の各画素の奥行きを表す奥行き情報を取得する奥行き情報取得部と、
前記画像に映る内容を判別する判別部と、
前記判別部による判別結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成する修正部と、
前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行する強調部と、
として機能させるためのプログラム。
(16)
画像内の各画素の奥行きを表す奥行き情報を取得する奥行き情報取得部と、
前記画像に映る内容を判別する判別部と、
前記判別部による判別結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成する修正部と、
画素値と前記修正奥行き情報により表される奥行きとに基づいて各画素を複数のクラスの1つに分類し、事前の学習処理においてクラスごとに決定されるフィルタ係数で各画素と周辺画素とを含むフィルタタップをフィルタリングすることにより、前記画像の立体感を強調する強調部と、
を備える画像処理装置。
(17)
処理対象画像を取得する画像取得部と、
画像内の各画素の奥行きを表す奥行き情報を取得し、前記画像に映る内容を判別し、前記画像に映る内容の判別結果に基づいて前記奥行き情報を修正して修正奥行き情報を生成し、前記修正奥行き情報を用いて前記画像の立体感を強調するための立体感強調処理を実行する画像処理装置へ、前記処理対象画像を送信して前記画像処理装置により立体感の強調された前記処理対象画像を受信する通信部と、
を備える端末装置。
(18)
画像処理装置及び端末装置を含む画像処理システムであって、
前記画像処理装置は、
前記端末装置から受信される画像内の各画素の奥行きを表す奥行き情報を取得する奥行き情報取得部と、
前記画像に映る内容を判別する判別部と、
前記判別部による判別結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成する修正部と、
前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行する強調部と、
を備え、
前記端末装置は、
処理対象画像を取得する画像取得部と、
取得された処理対象画像を前記画像処理装置へ送信し、前記画像処理装置により立体感の強調された前記処理対象画像を受信する通信部と、
を備える、
画像処理システム。
(19)
実行可能なプログラムを記憶するメモリと、プロセッサと、を備える画像処理装置であって、
前記プログラムは、前記プロセッサにより実行された場合に、前記プロセッサを、
画像内の各画素の奥行きを表す奥行き情報を取得し、
前記画像に映る内容を判別し、
前記判別の結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成し、
前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行する、
ように動作させる、画像処理装置。
100,200 画像処理装置
110,210 画像取得部
120,220 奥行き情報取得部
130,230 判別部
150,250 修正部
160,260 強調部
300 学習装置

Claims (17)

  1. 画像内の各画素の奥行きを表す奥行き情報を取得する奥行き情報取得部と、
    前記画像に映る内容を判別する判別部と、
    前記判別部による判別結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成する修正部と、
    前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行する強調部と、
    を備え、
    前記強調部は、予め奥行きに応じて決定されるフィルタ係数を用いて前記画像をフィルタリングすることにより、前記画像の立体感を強調
    前記フィルタ係数は、空気遠近法に関連する視覚特性を利用して前記画像の立体感を強調する係数であり、事前の学習処理において奥行きに応じて決定される、
    画像処理装置。
  2. 前記判別部は、前記画像に映るシーンの種類を判別し、
    前記修正部は、前記判別部により判別される前記シーンの種類に応じて、前記奥行き情報を修正する、
    請求項1に記載の画像処理装置。
  3. 前記修正部は、シーンの種類ごとに予め定義される補助奥行き情報を前記奥行き情報と合成することにより、前記奥行き情報を修正する、請求項2に記載の画像処理装置。
  4. 前記判別部は、前記画像に映る人物の顔領域を判別し、
    前記修正部は、前記判別部により判別される前記顔領域の奥行きを修正する、
    請求項1に記載の画像処理装置。
  5. 前記判別部は、前記画像に映る注目物体の領域を判別し、
    前記修正部は、前記判別部により判別される前記注目物体の領域の奥行きを修正する、
    請求項1に記載の画像処理装置。
  6. 前記判別部は、前記画像に映るエッジとテクスチャとを判別し、
    前記修正部は、前記判別部により判別される前記エッジの領域又は前記テクスチャの領域の奥行きを修正する、
    請求項1に記載の画像処理装置。
  7. 前記強調部は、前記修正奥行き情報においてより奥行きの小さい画素についてコントラスト、シャープネス、輝度、彩度及び解像度のうち少なくとも1つのパラメータがより大きく増加するような前記フィルタ係数を用いる、請求項に記載の画像処理装置。
  8. 前記強調部は、前記修正奥行き情報においてより奥行きの大きい画素についてコントラスト、シャープネス、輝度、彩度及び解像度のうち少なくとも1つのパラメータがより大きく減少するような前記フィルタ係数を用いる、請求項に記載の画像処理装置。
  9. 前記強調部は、画素値と前記修正奥行き情報により表される奥行きとに基づいて各画素を複数のクラスの1つに分類し、前記学習処理においてクラスごとに決定される前記フィルタ係数で各画素と周辺画素とを含むフィルタタップをフィルタリングする、請求項に記載の画像処理装置。
  10. 前記フィルタ係数は、生徒画像と当該生徒画像に対応する教師画像であって空気遠近法を利用して立体感の強調された当該教師画像との複数のセットを用いた前記学習処理において、クラスごとに決定される、請求項に記載の画像処理装置。
  11. 前記画像は、立体視画像を構成する右眼画像及び左眼画像の一方又は双方であり、
    前記画像処理装置は、前記強調部により立体感の強調された前記画像を含む右眼画像及び左眼画像を表示装置に表示させて立体視画像を再生する、
    請求項1に記載の画像処理装置。
  12. 画像内の各画素の奥行きを表す奥行き情報を取得することと、
    前記画像に映る内容を判別することと、
    前記判別の結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成することと、
    前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行することと、
    を含み、
    前記立体感強調処理において、予め奥行きに応じて決定されるフィルタ係数を用いて前記画像をフィルタリングすることにより、前記画像の立体感が強調され
    前記フィルタ係数は、空気遠近法に関連する視覚特性を利用して前記画像の立体感を強調する係数であり、事前の学習処理において奥行きに応じて決定される、
    画像処理方法。
  13. 画像処理装置を制御するコンピュータを、
    画像内の各画素の奥行きを表す奥行き情報を取得する奥行き情報取得部と、
    前記画像に映る内容を判別する判別部と、
    前記判別部による判別結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成する修正部と、
    前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行する強調部と、
    として機能させ、
    前記強調部は、予め奥行きに応じて決定されるフィルタ係数を用いて前記画像をフィルタリングすることにより、前記画像の立体感を強調
    前記フィルタ係数は、空気遠近法に関連する視覚特性を利用して前記画像の立体感を強調する係数であり、事前の学習処理において奥行きに応じて決定される、
    プログラム。
  14. 画像内の各画素の奥行きを表す奥行き情報を取得する奥行き情報取得部と、
    前記画像に映る内容を判別する判別部と、
    前記判別部による判別結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成する修正部と、
    画素値と前記修正奥行き情報により表される奥行きとに基づいて各画素を複数のクラスの1つに分類し、事前の学習処理においてクラスごとに決定されるフィルタ係数で各画素と周辺画素とを含むフィルタタップをフィルタリングすることにより、前記画像の立体感を強調する強調部と、
    を備える画像処理装置。
  15. 処理対象画像を取得する画像取得部と、
    画像内の各画素の奥行きを表す奥行き情報を取得し、前記画像に映る内容を判別し、前記画像に映る内容の判別結果に基づいて前記奥行き情報を修正して修正奥行き情報を生成し、前記修正奥行き情報を用いて前記画像の立体感を強調するための立体感強調処理であって、予め奥行きに応じて決定されるフィルタ係数を用いて前記画像をフィルタリングすることを含む当該立体感強調処理を実行する画像処理装置へ、前記処理対象画像を送信して前記画像処理装置により立体感の強調された前記処理対象画像を受信する通信部と、
    を備え、
    前記フィルタ係数は、空気遠近法に関連する視覚特性を利用して前記画像の立体感を強調する係数であり、事前の学習処理において奥行きに応じて決定される、
    端末装置。
  16. 画像処理装置及び端末装置を含む画像処理システムであって、
    前記画像処理装置は、
    前記端末装置から受信される画像内の各画素の奥行きを表す奥行き情報を取得する奥行き情報取得部と、
    前記画像に映る内容を判別する判別部と、
    前記判別部による判別結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成する修正部と、
    前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行する強調部と、
    を備え、
    前記強調部は、予め奥行きに応じて決定されるフィルタ係数を用いて前記画像をフィルタリングすることにより、前記画像の立体感を強調し、
    前記端末装置は、
    処理対象画像を取得する画像取得部と、
    取得された処理対象画像を前記画像処理装置へ送信し、前記画像処理装置により立体感の強調された前記処理対象画像を受信する通信部と、
    を備え、
    前記フィルタ係数は、空気遠近法に関連する視覚特性を利用して前記画像の立体感を強調する係数であり、事前の学習処理において奥行きに応じて決定される、
    画像処理システム。
  17. 実行可能なプログラムを記憶するメモリと、プロセッサと、を備える画像処理装置であって、
    前記プログラムは、前記プロセッサにより実行された場合に、前記プロセッサを、
    画像内の各画素の奥行きを表す奥行き情報を取得し、
    前記画像に映る内容を判別し、
    前記判別の結果に基づいて前記奥行き情報を修正して、修正奥行き情報を生成し、
    前記修正奥行き情報を用いて、前記画像の立体感を強調するための立体感強調処理を実行する、
    ように動作させ、
    前記立体感強調処理において、予め奥行きに応じて決定されるフィルタ係数を用いて前記画像をフィルタリングすることにより、前記画像の立体感が強調され
    前記フィルタ係数は、空気遠近法に関連する視覚特性を利用して前記画像の立体感を強調する係数であり、事前の学習処理において奥行きに応じて決定される、
    画像処理装置。
JP2012014488A 2012-01-26 2012-01-26 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム Expired - Fee Related JP6024110B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012014488A JP6024110B2 (ja) 2012-01-26 2012-01-26 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム
US13/744,508 US9317957B2 (en) 2012-01-26 2013-01-18 Enhancement of stereoscopic effect of an image through use of modified depth information
CN201310018642.XA CN103226810B (zh) 2012-01-26 2013-01-18 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012014488A JP6024110B2 (ja) 2012-01-26 2012-01-26 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム

Publications (2)

Publication Number Publication Date
JP2013157671A JP2013157671A (ja) 2013-08-15
JP6024110B2 true JP6024110B2 (ja) 2016-11-09

Family

ID=48837245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012014488A Expired - Fee Related JP6024110B2 (ja) 2012-01-26 2012-01-26 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム

Country Status (3)

Country Link
US (1) US9317957B2 (ja)
JP (1) JP6024110B2 (ja)
CN (1) CN103226810B (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249038A (ja) * 2011-05-27 2012-12-13 Hitachi Consumer Electronics Co Ltd 画像信号処理装置、画像信号処理方法
JP5740045B2 (ja) * 2012-03-30 2015-06-24 富士フイルム株式会社 画像処理装置及び方法並びに撮像装置
JP5687803B2 (ja) * 2012-05-09 2015-03-25 富士フイルム株式会社 画像処理装置及び方法並びに撮像装置
US8837833B1 (en) * 2013-06-30 2014-09-16 Google Inc. Payment card OCR with relaxed alignment
US9152858B2 (en) 2013-06-30 2015-10-06 Google Inc. Extracting card data from multiple cards
CN103902875B (zh) * 2014-03-04 2017-06-20 百度在线网络技术(北京)有限公司 验证码图片的生成方法和装置及验证方法和装置
CN106062781A (zh) * 2014-04-30 2016-10-26 英派尔科技开发有限公司 图像分辨率修改
US9978126B2 (en) 2014-04-30 2018-05-22 Empire Technology Development Llc Image resolution modification
US10136124B2 (en) * 2015-04-27 2018-11-20 Microsoft Technology Licensing, Llc Stereoscopic display of objects
KR102185130B1 (ko) * 2015-05-21 2020-12-01 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그 제어 방법
US9948912B2 (en) * 2015-11-04 2018-04-17 Mediatek Inc. Method for performing depth information management in an electronic device, and associated apparatus and associated computer program product
KR102271285B1 (ko) * 2016-11-09 2021-07-01 삼성전자주식회사 영상처리장치 및 영상처리방법
CN110352596B (zh) * 2017-03-24 2023-04-25 株式会社半导体能源研究所 半导体装置、显示系统及电子设备
CN110326284B (zh) * 2017-03-27 2021-11-30 株式会社尼康 摄像装置及摄像元件
CN109785843B (zh) * 2017-11-14 2024-03-26 上海寒武纪信息科技有限公司 图像处理装置和方法
CN107680064A (zh) * 2017-10-31 2018-02-09 长沙准光里电子科技有限公司 计算机可读存储介质
JP7191514B2 (ja) * 2018-01-09 2022-12-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN108776959B (zh) * 2018-07-10 2021-08-06 Oppo(重庆)智能科技有限公司 图像处理方法、装置及终端设备
CN109816602A (zh) * 2018-12-29 2019-05-28 维沃移动通信有限公司 一种图像的处理方法和终端
CN110378945B (zh) * 2019-07-11 2021-06-18 Oppo广东移动通信有限公司 深度图处理方法、装置和电子设备
JP7453948B2 (ja) 2021-09-27 2024-03-21 Tvs Regza株式会社 放送受信装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2951291B2 (ja) * 1997-06-17 1999-09-20 三洋電機株式会社 2次元映像を3次元映像に変換する装置および方法
JPH10126708A (ja) 1996-10-23 1998-05-15 Hitachi Ltd 画像信号の遠近感強調回路
JPH10191397A (ja) * 1996-12-27 1998-07-21 Sanyo Electric Co Ltd 意図適応型の2次元映像を3次元映像に変換する装置
JPH11127456A (ja) * 1997-10-23 1999-05-11 Sony Corp 映像表示装置および方法
JP3540626B2 (ja) * 1998-09-17 2004-07-07 三洋電機株式会社 2次元映像を3次元映像に変換する装置および方法
JP2001157229A (ja) * 1999-11-25 2001-06-08 Olympus Optical Co Ltd 映像表示装置
JP4590134B2 (ja) * 2001-07-18 2010-12-01 オリンパス株式会社 3次元カメラ
JP2004200784A (ja) * 2002-12-16 2004-07-15 Nippon Telegr & Teleph Corp <Ntt> 3次元映像端末装置、プログラムおよび記録媒体
JP4214976B2 (ja) * 2003-09-24 2009-01-28 日本ビクター株式会社 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
US7262767B2 (en) * 2004-09-21 2007-08-28 Victor Company Of Japan, Limited Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
JP4419139B2 (ja) * 2004-12-27 2010-02-24 日本ビクター株式会社 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム
JP4214528B2 (ja) * 2004-12-27 2009-01-28 日本ビクター株式会社 擬似立体画像生成装置及び擬似立体画像生成プログラム並びに擬似立体画像表示システム
JP2007264722A (ja) * 2006-03-27 2007-10-11 Victor Co Of Japan Ltd 画像処理装置
JP5147287B2 (ja) * 2006-05-23 2013-02-20 パナソニック株式会社 画像処理装置、画像処理方法、プログラム、記録媒体および集積回路
EP2160037A3 (en) * 2006-06-23 2010-11-17 Imax Corporation Methods and systems for converting 2D motion pictures for stereoscopic 3D exhibition
JP4952657B2 (ja) * 2007-07-19 2012-06-13 株式会社Jvcケンウッド 擬似立体画像生成装置、画像符号化装置、画像符号化方法、画像伝送方法、画像復号化装置及び画像復号化方法
JP2009053748A (ja) * 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ
JP2010154422A (ja) * 2008-12-26 2010-07-08 Casio Computer Co Ltd 画像処理装置
KR101526866B1 (ko) * 2009-01-21 2015-06-10 삼성전자주식회사 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치
JP4963124B2 (ja) * 2009-03-02 2012-06-27 シャープ株式会社 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム
JP4903240B2 (ja) * 2009-03-31 2012-03-28 シャープ株式会社 映像処理装置、映像処理方法及びコンピュータプログラム
JP5397190B2 (ja) * 2009-11-27 2014-01-22 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP5227993B2 (ja) * 2010-03-31 2013-07-03 株式会社東芝 視差画像生成装置、及びその方法
JP5304714B2 (ja) * 2010-04-09 2013-10-02 株式会社Jvcケンウッド 擬似立体画像生成装置及びカメラ
KR20120000485A (ko) * 2010-06-25 2012-01-02 삼성전자주식회사 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
JP5087684B2 (ja) * 2011-02-07 2012-12-05 株式会社東芝 画像処理装置、画像処理方法および画像表示装置

Also Published As

Publication number Publication date
JP2013157671A (ja) 2013-08-15
CN103226810A (zh) 2013-07-31
US20130195347A1 (en) 2013-08-01
US9317957B2 (en) 2016-04-19
CN103226810B (zh) 2017-11-07

Similar Documents

Publication Publication Date Title
JP6024110B2 (ja) 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム
JP5492087B2 (ja) コンテンツベースの画像調整
JP6027034B2 (ja) 立体映像エラー改善方法及び装置
EP3676795B1 (en) Local tone mapping
KR102523505B1 (ko) 역 톤 매핑을 위한 방법 및 장치
JP5260769B2 (ja) 画像処理装置、画像表示装置、画像処理方法、及び、画像表示方法
KR102190233B1 (ko) 영상 처리 장치 및 이의 영상 처리 방법
JP2013527646A5 (ja)
US11508046B2 (en) Object aware local tone mapping
JP2010041336A (ja) 画像処理装置、および画像処理方法
US20130272601A1 (en) Image Processing Apparatus, Image Processing Method, and Program
KR101201620B1 (ko) 휴대단말기의 영상 개선장치 및 방법
JP2010004261A (ja) 画像処理装置、及び画像処理方法
JP2014006614A (ja) 画像処理装置、画像処理方法、並びにプログラム
JP6131256B6 (ja) 映像処理装置及びその映像処理方法
JP6131256B2 (ja) 映像処理装置及びその映像処理方法
JP5075923B2 (ja) 画像処理装置、および画像処理方法
JP2023538649A (ja) データ処理の方法及びシステム
JP2014220626A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
CN117174042A (zh) 图像显示装置以及图像显示方法
JP2014150302A (ja) 動画像符号化装置及び方法
JP2011125058A (ja) 撮像装置
KR20060117130A (ko) 사용자 단말에서 선호색 제어를 위한 색상 판단 고속알고리즘 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160926

R151 Written notification of patent or utility model registration

Ref document number: 6024110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees