JP7065360B2 - 画像処理方法、画像処理装置およびプログラム - Google Patents

画像処理方法、画像処理装置およびプログラム Download PDF

Info

Publication number
JP7065360B2
JP7065360B2 JP2021522623A JP2021522623A JP7065360B2 JP 7065360 B2 JP7065360 B2 JP 7065360B2 JP 2021522623 A JP2021522623 A JP 2021522623A JP 2021522623 A JP2021522623 A JP 2021522623A JP 7065360 B2 JP7065360 B2 JP 7065360B2
Authority
JP
Japan
Prior art keywords
image
color
weight
value
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021522623A
Other languages
English (en)
Other versions
JPWO2020240913A1 (ja
Inventor
和宏 船本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020240913A1 publication Critical patent/JPWO2020240913A1/ja
Application granted granted Critical
Publication of JP7065360B2 publication Critical patent/JP7065360B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • G06T5/90
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Description

本開示は、画像処理方法、画像処理装置およびプログラムに関する。
特許文献1には、圧縮記録された画像データから所定のブロック毎に空間周波数情報と色度情報とを取得して、上記画像データにおける注目画素を識別する画像認識方法が開示されている。
特開2004-38480号公報
しかしながら、特許文献1の画像認識方法では、特定の映像シーンにおいて注目画素を識別することは可能であるが、別の映像シーンでは、注目画素以外の領域を誤検出してしまうおそれがある。つまり、従来技術では、人間の姿などの、所定の処理に用いられる被写体の領域を、あらゆる映像シーンで効果的に特定することが難しいという課題がある。
本開示は、画像における被写体の領域である対象領域を効果的に特定することができる画像処理方法などを提供する。
本開示における画像処理方法は、画像を取得する取得ステップと、取得された前記画像を構成する複数の第1画素がそれぞれ有する複数の第1画素値に基づく高周波成分に基づいて高周波画像を生成する第1生成ステップと、取得された前記画像の前記複数の第1画素値に基づく色情報に基づいて1種類以上の色のそれぞれに対応する1以上の色画像を生成する第2生成ステップと、前記高周波画像および前記1以上の色画像を重み付け加算することで合成画像を生成する合成ステップと、生成された前記合成画像を出力する出力ステップと、を含む。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示における画像処理方法は、画像における被写体の領域である対象領域を効果的に特定することができる。
図1は、本実施の形態に係る表示装置の外観の一例を示す斜視図である。 図2は、本実施の形態に係る表示装置のハードウェア構成の一例を示すブロック図である。 図3は、本実施の形態に係る画像処理装置の機能構成の一例を示すブロック図である。 図4は、本実施の形態に係る画像処理装置により実行される画像処理方法の一例を示すフローチャートである。 図5は、色画像の生成処理の具体例を示すフローチャートである。 図6は、色相ヒストグラムの一例を示す図である。 図7は、ビンの選択処理について説明するための色相ヒストグラムの一例を示す図である。 図8は、背景の除去処理のうちの低周波背景を除去する処理を説明するための図である。 図9は、背景の除去処理のうちの高周波背景を除去する処理を説明するための図である。 図10は、合成画像の生成処理の具体例を示すフローチャートである。 図11は、第1シーンと他のシーンとの間の範囲の合成に適用される第1出力重みについて説明するための図である。 図12は、第2シーンと第3シーンとの間の範囲の合成に適用される第2出力重みについて説明するための図である。 図13は、第2シーンと第3シーンとの間の範囲の合成に適用される第3出力重みについて説明するための図である。 図14は、第4シーンと他のシーンとの間の範囲の合成に適用される第4出力重みについて説明するための図である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
上述したような課題を解決するために、本開示の一態様に係る画像処理方法は、画像を取得する取得ステップと、取得された前記画像を構成する複数の第1画素がそれぞれ有する複数の第1画素値に基づく高周波成分に基づいて高周波画像を生成する第1生成ステップと、取得された前記画像の前記複数の第1画素値に基づく色情報に基づいて1種類以上の色のそれぞれに対応する1以上の色画像を生成する第2生成ステップと、前記高周波画像および前記1以上の色画像を重み付け加算することで合成画像を生成する合成ステップと、生成された前記合成画像を出力する出力ステップと、を含む。
これによれば、高周波画像および1以上の色画像を合成することで得られた合成画像を、対象領域を示す画像として出力することができる。このため、合成画像を用いることで近景にある被写体の領域である対象領域を効果的に特定することができ、遠景にある被写体の領域および背景領域を対象領域から排除することができる。よって、画像における対象領域を効果的に特定することができる。
また、前記合成ステップでは、前記画像に含まれる高周波成分が第1閾値より大きい場合、前記合成画像の生成における前記高周波画像に対する重みを前記1以上の色画像に対する重みより小さくしてもよい。
例えば、画像に含まれる高周波成分が第1閾値より大きい場合に、取得された画像のシーンを、被写体が近景にあり、かつ、背景に高周波成分が多いシーンであると推定することができる。このため、この場合に、合成画像の生成における高周波画像に対する重みを1以上の色画像に対する重みより小さくすることで、背景が対象領域として特定されることを抑制しつつ、近景の被写体が排除されることを抑制することができる。
また、前記合成ステップでは、前記画像に含まれる高周波成分が第2閾値より小さい場合、前記合成画像の生成における前記高周波画像に対する重みを前記1以上の色画像に対する重みより大きくしてもよい。
例えば、画像に含まれる高周波成分が第2閾値より小さい場合に、取得された画像のシーンを、被写体が近景にあり、かつ、背景に低周波成分が多いシーンであると推定することができる。このため、この場合に、合成画像の生成における高周波画像に対する重みを1以上の色画像に対する重みより大きくすることで、背景が対象領域として特定されることを抑制しつつ、近景の被写体が排除されることを抑制することができる。
また、前記合成ステップでは、前記高周波画像と前記1以上の色画像とが重複する第1領域の大きさが第3閾値より大きい場合、前記合成画像の生成における前記高周波画像に対する重みおよび前記1以上の色画像に対する重みを共に所定の基準値より小さくしてもよい。
例えば、高周波画像と1以上の色画像とが重複する第1重複領域の大きさが第3閾値より大きい場合に、取得された画像のシーンを、対象領域が少ないシーンであると推定することができる。このため、この場合に、合成画像の生成における高周波画像に対する重みおよび1以上の色画像に対する重みを共に所定の基準値より小さくすることで、近景における被写体の領域を対象領域として残しつつ、背景が対象領域として特定されることを抑制することができる。
また、前記合成ステップでは、取得された前記画像のうちの特定の色であると判定される画素により構成される第2領域の大きさが第4閾値より小さい場合、前記合成画像の生成における前記高周波画像に対する重みおよび前記1以上の色画像に対する重みを共に0にしてもよい。
例えば、画像のうち特定の色であると判定される画素により構成される第2領域の大きさが第4閾値より小さい場合に、取得された画像のシーンを、被写体が近景にないシーンであると推定することができる。このため、この場合に、合成画像の生成における高周波画像に対する重みおよび1以上の色画像に対する重みを共に0にすることで、画像中に対象領域がないことを示す合成画像を出力することができる。
また、さらに、出力された前記合成画像を構成する複数の第2画素がそれぞれ有する複数の第2画素値に基づいて、前記画像に対して所定の画像処理を行う画像処理ステップを含んでもよい。
画像において効果的に特定された対象領域に対して所定の画像処理を行うことができるため、所定の画像処理を精度よく行うことができる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
(実施の形態)
以下、図1~図10を用いて、実施の形態を説明する。
[構成および動作]
図1は、本実施の形態に係る表示装置の外観の一例を示す斜視図である。
図1に示されるように、表示装置100は、表示パネルを含む表示デバイスを筐体内に格納した、一般的なフラットパネルディスプレイの外観を有している。表示装置100は、例えば、液晶ディスプレイ、有機ELディスプレイなどである。
図2は、本実施の形態に係る表示装置のハードウェア構成の一例を示すブロック図である。
図2に示されるように、表示装置100は、チューナ101と、デコーダ102と、制御回路103と、メモリ104と、表示デバイス105とを備える。制御回路103およびメモリ104は、画像処理装置110を構成している。このように、表示装置100は、画像処理装置110を内蔵する装置である。
チューナ101は、図示しないアンテナにより受信した放送波を構成するアナログ信号をデジタル信号である符号化データへ変換し、変換することで得られた符号化データをデコーダ102に出力する。
デコーダ102は、チューナ101から取得した符号化データを復号し、復号することで得られた画像データを制御回路103に出力する。画像データは、動画像または静止画像を含む画像を示すデータである。
制御回路103は、デコーダ102により出力された画像データにより示される画像に対して、所定の画像処理を行う。制御回路103は、画像が動画像である場合には、動画像に含まれる複数のピクチャのそれぞれに対して所定の画像処理を行う。制御回路103は、画像が静止画像である場合には、静止画像に対して所定の画像処理を行う。制御回路103は、画像処理を行うことで得られた画像(「画像処理後の画像」ともいう。)を示す画像データ(「画像処理後の画像データ」ともいう。)を、表示デバイス105に出力する。これにより、表示デバイス105は、画像処理後の画像を表示させることができる。
なお、デコーダ102と制御回路103とは、同一の回路で実現されていてもよい。また、制御回路103は、所定の制御プログラムを実行するCPUなどの汎用のプロセッサにより実現されていてもよいし、専用回路により実現されていてもよい。つまり、表示装置100の機能は、ソフトウェアにより実現されていてもよいし、ハードウェアにより実現されていてもよい。
メモリ104は、制御プログラムおよび制御プログラムを実行するために利用する各種データを記憶していてもよい。メモリ104は、例えば、不揮発性メモリである。
表示デバイス105は、制御回路103により出力された画像処理後の画像データで示される画像処理後の画像を表示する。表示デバイス105は、表示パネルであり、例えば、液晶パネル、有機ELパネルなどにより構成される。
次に、画像処理装置の機能構成について説明する。
図3は、本実施の形態に係る画像処理装置の機能構成の一例を示すブロック図である。図4は、本実施の形態に係る画像処理装置により実行される画像処理方法の一例を示すフローチャートである。
ここでは、画像処理装置110の各機能ブロックについて図3を用いて説明するとともに、各機能ブロックで行われる処理の流れについて図4を用いて説明する。
画像処理装置110は、取得部111と、第1生成部112と、第2生成部113と、合成部114と、記憶部115と、出力部116とを備える。画像処理装置110は、さらに、補正部117を備えていてもよい。
取得部111は、画像データを取得する(S1)。取得部111は、例えば、表示装置100のデコーダ102から画像データを取得することで画像を取得する。ステップS1は、取得ステップの一例である。
第1生成部112は、取得された画像を構成する複数の第1画素がそれぞれ有する複数の第1画素値に基づく高周波成分に基づいて高周波画像を生成する(S2)。高周波画像は、取得された画像と同じ配列の画素を有する。つまり、高周波画像の縦の画素数×横の画素数は、取得された画像の縦の画素数×横の画素数と同じである。高周波画像の各画素は、画素値が大きいほど高周波の成分を有する画素であることを示す。具体的には、第1生成部112は、画像を構成する複数の第1画素のそれぞれについて、当該第1画素を基準(例えば中心)とする7×7の画素のそれぞれが有する複数の輝度値(Y信号値)を用いるハイパスフィルタを適用して、当該第1画素に対応する画素値を算出することにより、高周波画像を生成する。
なお、一の画素に対応する高周波画像の画素値を算出するために、ハイパスフィルタの対象となる複数の画素は、一の画素を中心とする7×7の画素としたが、これに限らずに、一の画素を基準とするa×bの画素としてもよい。aおよびbは、一方が1以上の整数であり、他方が2以上の整数である。第1生成部112により生成された高周波画像は、合成部114に出力される。ステップS2は、第1生成ステップの一例である。
第2生成部113は、取得された画像の複数の第1画素値に基づく色情報に基づいて1種類以上の色のそれぞれに対応する1以上の色画像を生成する(S3)。色画像は、取得された画像と同じ配列の画素を有する。つまり、色画像の縦の画素数×横の画素数は、取得された画像の縦の画素数×横の画素数と同じである。色画像の各画素は、画素値が大きいほど、対応する色として判定される色範囲内の色を有する画素に近い画素であることを示す。色画像の生成処理では、第2生成部113は、色相ヒストグラムを用いて、画像中における、特定の色としての第1色と、特定の色以外に頻出する第2色および第3色とを特定し、特定された第1色、第2色および第3色のそれぞれについて、当該色を示す画素値を有する画素を抽出することで色画像を生成する。ステップS3は、第2生成ステップの一例である。
なお、第2生成部113は、上記に限らずに、色相ヒストグラムを用いて、画像中において頻出する第1色、第2色および第3色を特定してもよい。このように、第1色は、予め定められた色とせずに、画像中に頻出する順に基づいて動的に異なる色に決定されてもよい。
なお、特定の色とは、本実施の形態では、ヒトの肌の色である。ヒトの肌の色は、例えば、世界中に存在する全てのヒトの肌の色である。つまり、特定の色として判定される色範囲は、黒色系、白色系、黄色系などの肌の色を全て含む和集合で規定される色相範囲である。
なお、特定の色として判定される色範囲、第2色として判定される色範囲および第3色として判定される色範囲は、それぞれ、色相範囲で規定されることに限らずに、例えば、色相(Hue)、彩度(Saturation)、および輝度(Luminance)の3つの指標を用いて示されるHLS色空間で定義される範囲で規定されてもよい。この場合の色範囲は、上記のHLS色空間で定義されることに限らずに、HSV色空間などの色相および彩度の2つの指標を少なくとも用いて示される他の色空間で定義されてもよい。なお、特定の色とは、本実施の形態ではヒトを被写体として特定するためにヒトの肌の色としたが、ヒトの肌の色に限らずに、被写体がヒト以外のものである場合ではヒト以外の物体が固有に有している色であってもよい。
色画像の生成処理の具体例について図5~図7を用いて説明する。図5は、色画像の生成処理の具体例を示すフローチャートである。図6は、色相ヒストグラムの一例を示す図である。図7は、ビンの選択処理について説明するための色相ヒストグラムの一例を示す図である。
図5に示されるように、第2生成部113は、取得された画像についての色相ヒストグラムを生成する(S11)。第2生成部113は、画像を構成する複数の第1画素それぞれが有する第1画素値から当該画素の色相を算出し、所定の色相の範囲毎の画素をカウントすることで色相ヒストグラムを生成する。
色相ヒストグラムは、例えば、図6に示されるように、画素数を度数とし、色相の範囲をビンとするグラフである。色相ヒストグラムは、各色相の範囲における画素の分布を示すグラフである。
本実施の形態では、色相ヒストグラムは、色相の全範囲が32分割された32個の色相の範囲にそれぞれ1対1で対応する32個のビン(Bin)を有する。例えば、色相のヒストグラムにおいて、Bin[0]~Bin[3]の色相範囲が、特定の色と判定される特定の色相範囲として定められている。なお、特定の色相範囲がBin[0]~Bin[3]の色相範囲であることは、一例であり、上記の範囲に限るものではない。なお、色相ヒストグラムは、図6に示されるような所定の色相の範囲毎に1つのビンを有している構成に限定されるものではなく、色相の1つの値毎に1つのビンを有している構成であってもよい。
次に、第2生成部113は、生成された色相ヒストグラムを構成する複数(本実施の形態では32個)のビンから、特定の色であると判定される1以上の特定のビンを除いた残りの複数のビンのうち、度数が高い順に所定の数のビンを選択する(S12)。
ここで、ステップS12におけるビンの選択処理について図7を用いて具体的に説明する。図7の色相ヒストグラムでは、特定の色相範囲であるBin[0]~[3]が除かれている。特定の色相範囲は、なお、特定の色がヒトの肌の色とは異なる色である場合、異なる色に対応する特定の色相範囲が除かれることとなる。ビンの選択処理は、第1色としての特定の色以外の第2色および第3色を、色相ヒストグラムにおいて頻出している色を頻度が高い順に選択する処理である。
第2生成部113は、まず、特定の色以外に最も頻出している第2色を選択する。第2生成部113は、第2色の選択において、例えば、特定の色相範囲が除かれた色相ヒストグラムのうち、まず、最も度数が高いビン(Bin[A])を選択する。そして、第2生成部113は、選択されたビン(Bin[A])を基準として所定の数のビンの幅であるビン幅(本実施の形態では3つ分)のビンを第2色のビンとして選択する。なお、ビン幅を規定する所定の数のビンの「所定の数」は、1以上の数である。第2生成部113は、図7の例では、最も度数が高いビンとその両隣の2つのビンとを併せた3つのビンを第2色のビンとして選択する。
次に、第2生成部113は、第2色とは異なる第3色を選択する場合、第2色のビンとして選択された3つのビンを除く複数のビンのうちで最も度数が高いビン(Bin[B])を選択する。そして、第2生成部113は、第3色の選択において、選択されたビン(Bin[B])を基準として所定のスキップ幅のビンを第3色のビンとして選択する。第2生成部113は、図7の例では、最も度数が高いビンとその両隣の2つのビンとを併せた3つのビンを第3色のビンとして選択する。この場合、第3色の選択において選択された3つのビンのうちの1つのビンは、既に第2色の選択において選択された3つのビンのうちの1つと重複している。
このようにして、第2生成部113は、特定の色以外に、色相ヒストグラムにおいて頻出している色を頻度が高い順に選択する。本実施の形態では、特定の色以外に第2色および第3色の2色が選択される場合を例にして説明する。なお、次の第2色および第3色とは異なる第4色をさらに選択する場合には、第2色および第3色のビンとして選択された5つのビンを除く複数のビンのうちで最も度数が高いビンを選択することとなる。以下同様の処理が繰り返される。
そして、第2生成部113は、特定の色相範囲(つまり第1色相範囲)で示される色を第1色とし、第2色の選択において選択された3つのビンの色相範囲(つまり第2色相範囲)で示される色を第2色とし、第3色の選択において選択された3つのビンの色相範囲(つまり第3色相範囲)で示される色を第3色として決定する(S13)。
次に、第2生成部113は、各色を決定したときに、決定された色の範囲に含まれる画素値を例えば最大値に設定し、かつ、当該色の範囲の外側の所定の幅の範囲を挟んでさらに外側の範囲に含まれる画素値を例えば最小値に設定し、かつ、当該色の範囲の外側の所定の幅の範囲を決定された色の範囲から離れるほど最大値から最小値に向かって小さくなる値に設定するための、色相範囲と画素値との関係を示す関係情報を色毎に生成する(S14)。なお、第2生成部113は、関係情報の生成において、画素値の最大値の代わりに画素値P1に設定し、画素値の最小値の代わりに画素値P1よりも小さい画素値P2に設定してもよい。また、画素値P1および画素値P2は、色毎に異なる値が設定されてもよい。
その後、第2生成部113は、取得された画像から、第1色、第2色および第3色の各色について生成された関係情報を用いて、画像に各色の関係情報を適用することで、各色の色画像を生成する(S15)。具体的には、第2生成部113は、画像を構成する複数の画素のそれぞれについて、当該画素が有する画素値を、当該画素値に基づく色(色相)に当該色の関係情報で対応付けられている画素値に変換することで、色画像を生成する。
図3および図4を用いた説明に戻る。
合成部114は、第1生成部112により生成された高周波画像と、第2生成部113により生成された第1色画像、第2色画像および第3色画像とのそれぞれの画像について、背景を除去する(S4)。背景の除去処理の具体例について、図8および図9を用いて説明する。図8は、背景の除去処理のうちの低周波背景を除去する処理を説明するための図である。図9は、背景の除去処理のうちの高周波背景を除去する処理を説明するための図である。
図8は、高周波画像を複数のブロックに分割した場合、複数のブロックのそれぞれについて、当該ブロックを構成する複数の第1画素がそれぞれ有する複数の第1画素値のうちの最大値と、当該最大値に応じて当該ブロックに割り当てられるオブジェクト重みとの関係を示す図である。図8は、横軸が各ブロックにおける空間周波数の最大値を示し、縦軸が空間周波数の最大値に応じて割り当てられるオブジェクト重みを示す。
図8に示されるように、合成部114は、高周波画像の各ブロックについて、各ブロックの最大値と、図8に示される関係で対応関係にあるオブジェクト重みを特定し、特定されたオブジェクト重みを当該ブロックに割り当てる。合成部114は、高周波画像に図8の関係を適用することで、各ブロックについて、空間周波数の最大値が閾値Thmax1未満であるブロックにはオブジェクト重みO1を割り当て、空間周波数の最大値が閾値Thmax2以上であるブロックにはオブジェクト重み1023を割り当てる。合成部114は、各ブロックについて、空間周波数の最大値が閾値Thmax1以上閾値Thmax2未満であるブロックには、当該最大値が大きいほどオブジェクト重み1023に近づき、かつ、当該最大値が小さいほどオブジェクト重みO1に近づくようなオブジェクト重みを特定し、特定されたオブジェクト重みを当該ブロックに割り当てる。例えば、空間周波数の最大値が閾値Thmax1以上閾値Thmax2未満の範囲では、空間周波数の最大値の変化に対してオブジェクト重みは、線形に変化する。これにより、低周波背景を抑制するための、各画素がオブジェクト重みを有する第1重み画像が得られる。
なお、オブジェクト重みO1は、例えば、1023より小さい値である。
また、空間周波数の最大値が閾値Thmax2以上であるブロックに割り当てられるオブジェクト重みは、1023に限らずに、255などのような他の値であってもよい。
図9は、高周波画像を複数のブロックに分割した場合、複数のブロックのそれぞれについて、当該ブロックを構成する複数の第1画素がそれぞれ有する複数の第1画素値の平均値と、当該平均値に応じて当該ブロックに割り当てられるオブジェクト重みとの関係を示す図である。図9は、横軸が各ブロックにおける空間周波数の平均値を示し、縦軸が空間周波数の平均値に応じて割り当てられるオブジェクト重みを示す。
図9に示されるように、合成部114は、高周波画像の各ブロックについて、各ブロックの最大値と、図9に示される関係で対応関係にあるオブジェクト重みを特定し、特定されたオブジェクト重みを当該ブロックに割り当てる。合成部114は、高周波画像に図9の関係を適用することで、各ブロックについて、空間周波数の平均値が閾値Thave1未満であるブロックにはオブジェクト重みO2を割り当て、空間周波数の平均値が閾値Thave2以上であるブロックにはオブジェクト重みO3を割り当てる。合成部114は、各ブロックについて、空間周波数の平均値が閾値Thave1以上閾値Thave2未満であるブロックには、当該平均値が大きいほどオブジェクト重みO3に近づき、かつ、当該平均値が小さいほどオブジェクト重みO2に近づくようなオブジェクト重みを特定し、特定されたオブジェクト重みを当該ブロックに割り当てる。例えば、空間周波数の平均値が閾値Thave1以上閾値Thave2未満の範囲では、空間周波数の平均値の変化に対してオブジェクト重みは、線形に変化する。これにより、高周波背景を抑制するための、各画素がオブジェクト重みを有する第2重み画像が得られる。
合成部114は、第1重み画像および第2重み画像を、高周波画像と、第1色画像と、第2色画像と、第3色画像とのそれぞれに適用することで、高周波画像と、第1色画像と、第2色画像と、第3色画像とのそれぞれから低周波背景および高周波背景を除去する。合成部114は、第1重み画像を構成する複数の画素がそれぞれ有する複数の画素値を、高周波画像と、第1色画像と、第2色画像と、第3色画像とのそれぞれの画像を構成する複数の画素がそれぞれ有する複数の画素値に乗算することで、第1重み画像を高周波画像と、第1色画像と、第2色画像と、第3色画像とのそれぞれに適用する。同様に、合成部114は、第2重み画像を構成する複数の画素がそれぞれ有する複数の画素値を、高周波画像と、第1色画像と、第2色画像と、第3色画像とのそれぞれの画像を構成する複数の画素がそれぞれ有する複数の画素値に乗算することで、第2重み画像を高周波画像と、第1色画像と、第2色画像と、第3色画像とのそれぞれに適用する。
なお、合成部114は、背景が除去された後の高周波画像、第1色画像、第2色画像および第3色画像に対して、コントラストを強調する処理を行ってもよい。また、合成部114は、背景の除去処理を行わなくてもよい。
次に、合成部114は、背景が除去された後の高周波画像、第1色画像、第2色画像および第3色画像を重み付け加算することで合成画像を生成する。以下では、合成部114は、背景が除去された後の高周波画像、第1色画像、第2色画像および第3色画像について、処理を実行するものとする。なお、背景の除去が行われない場合には、合成部114は、背景の除去が行われていない、高周波画像、第1色画像、第2色画像および第3色画像について、処理を実行することになる。
合成部114は、高周波画像、第1色画像、第2色画像および第3色画像を用いて、画像のシーンが第1シーン、第2シーン、第3シーンおよび第4シーンのいずれのシーンであるかを判定し、判定されたシーンに応じた重みで重み付け加算することで合成画像を生成する。合成画像の生成処理の具体例について、図10を用いて説明する。図10は、合成画像の生成処理の具体例を示すフローチャートである。
図10に示されるように、合成部114は、取得された画像のうち特定の色であると判定される画素により構成される領域RSaの大きさが閾値Thより小さいか否かを判定する(S21)。領域RSaの大きさは、第1色画像を構成する全ての画素値の総計に関する値である。領域RSaの大きさは、例えば、第1色画像を構成する複数のブロックについてそれぞれ算出された複数の平均値の合計値であってもよい。複数の平均値のそれぞれは、対応するブロックを構成する複数の画素がそれぞれ有する複数の画素値の平均値である。ここで、領域RSaの大きさを算出するために用いられる第1色画像は、背景が除去された後の第1色画像である。なお、領域RSaは、第2領域の一例であり、閾値Thは、第4閾値の一例である。
合成部114は、領域RSaの大きさが閾値Thより小さい場合(S21でYes)、画像が第1シーンであると判定し、第1の重みで高周波画像、第1色画像、第2色画像および第3色画像を重み付け加算する(S22)。具体的には、合成部114は、第1の重みとして、高周波画像に適用する重みを重みW11に決定し、第1色画像、第2色画像および第3色画像に適用する重みをそれぞれ重みW12a、W12b、W12cに決定する。
これにより、合成部114は、高周波画像の複数の画素値のそれぞれに重みW11を乗算して得られた値と、第1色画像の複数の画素値のそれぞれに重みW12aを乗算して得られた値と、第2色画像の複数の画素値のそれぞれに重みW12bを乗算して得られた値と、第3色画像の複数の画素値のそれぞれに重みW12cを乗算して得られた値とを、対応する画素ごとに加算することで、合成画像を生成する。なお、合成部114は、高周波画像、第1色画像、第2色画像および第3色画像の重み付け加算において、画素毎に重み付け加算するとしたが、画素毎に限らずに、複数の画素の集合からなるブロック毎に重み付け加算してもよい。合成部114は、重み付け加算において、所定の領域毎に重み付け加算すればよい。例えば、合成部114は、重みW11、重みW12a、重みW12bおよび重みW12cをそれぞれ0に決定する。
合成部114は、領域RSaの大きさが閾値Th以上である場合(S21でNo)、取得された画像に含まれる高周波成分FHが閾値Thより大きいか否かを判定する(S23)。画像の高周波成分FHは、高周波画像を構成する全ての画素値の総計に関する値である。画像の高周波成分FHは、例えば、高周波画像を構成する複数のブロックのそれぞれについて算出された複数の平均値の合計値であってもよい。複数の平均値のそれぞれは、対応するブロックを構成する複数の画素がそれぞれ有する複数の画素値の平均値である。閾値Thは、第1閾値の一例である。
合成部114は、高周波成分FHが閾値Thより大きい場合(S23でYes)、高周波画像と、各色画像とが重複する領域RSbの大きさが閾値Thより大きいか否かを判定する(S24)。なお、ステップS24、S25の処理は、色画像ごとに独立して行われる。以下では、色画像が第1色画像である場合について説明する。他の第2色画像および第3色画像についても同様の処理が独立して行われる。
ここで、領域RSbの大きさは、各色画像において異なり、高周波成分を有する画素のうち第1色であると判定される画素の割合、および、第1色と判定される画素のうち高周波成分を有すると判定される画素の割合に関する値である。領域RSbの大きさは、例えば、第1合計値および第2合計値により表される。第1合計値は、高周波画像を構成する複数のブロックについてそれぞれ算出された複数の平均値を複数の第1平均値とし、第1色画像を構成する複数のブロックについてそれぞれ算出された複数の平均値を複数の第2平均値とした場合、対応するブロック毎について第1平均値に第2平均値を乗じて得られた複数の値の合計値を、複数の第1平均値の合計値で除すことで得られる値である。なお、平均値は、各ブロックにおける複数の画素が有する複数の画素値の平均値である。第2合計値は、対応するブロック毎について第1平均値に第2平均値を乗じて得られた複数の値の合計値を、複数の第2平均値の合計値で除すことで得られる値である。
つまり、合成部114は、第1合計値および第2合計値を用いて、ステップS24の判定を行ってもよい。例えば、合成部114は、第1合計値が閾値Thc1より大きく、かつ、第2合計値が閾値Thc2より大きい場合に、領域RSbの大きさが閾値Thより大きいと判定してもよい。
合成部114は、領域RSbの大きさが閾値Thより大きい場合(S24でYes)、画像が第2シーンであると判定し、第2の重みで高周波画像および第1色画像を重み付け加算する(S25)。具体的には、合成部114は、第2の重みとして、高周波画像に適用する重みを重みW21に決定し、第1色画像に適用する重みを重みW22aに決定する。合成部114は、第2色画像および第3色画像のそれぞれに対しても第1色画像と同様の処理を行うことにより、第2色画像に適用する重みを重みW22bに決定し、第3色画像に適用する重みを重みW22cに決定する。
これにより、合成部114は、高周波画像の複数の画素値のそれぞれに重みW21を乗算して得られた値と、第1色画像の複数の画素値のそれぞれに重みW22aを乗算して得られた値と、第2色画像の複数の画素値のそれぞれに重みW22bを乗算して得られた値と、第3色画像の複数の画素値のそれぞれに重みW22cを乗算して得られた値とを、対応する画素ごとに加算することで、合成画像を生成する。なお、合成部114は、高周波画像、第1色画像、第2色画像および第3色画像の重み付け加算において、画素毎に重み付け加算するとしたが、画素毎に限らずに、複数の画素の集合からなるブロック毎に重み付け加算してもよい。合成部114は、重み付け加算において、所定の領域毎に重み付け加算すればよい。例えば、合成部114は、重みW21、重みW22a、重みW22bおよび重みW22cをそれぞれ所定の基準値より小さい値に決定する。閾値Thは、第3閾値の一例である。なお、第3閾値としての閾値Thは、ステップS24、S25の処理対象となる色画像毎に異なる値が設定されていてもよい。
なお、合成部114は、ステップS24を色画像毎に行うため、ステップS24でYesと判定される色画像と、ステップS24でNoと判定された色画像とが混在する場合がある。このように、ステップS24の判定結果が色画像毎に異なる場合、ステップS24でNoと判定された色画像に適用する重みを後述する第3の重みに決定する。なお、高周波画像に適用される第2の重みW21と、第3の重みW31とは等しいため、ステップS23においてYesと判定された場合、第2の重みが適用されても、第3の重みが適用されても、高周波画像に適用される重みは変わらない。
合成部114は、全ての色画像について、領域RSbの大きさが閾値Th以下である場合(S24でNo)、画像が第3シーンであると判定し、第3の重みで高周波画像、第1色画像、第2色画像および第3色画像を重み付け加算する(S26)。具体的には、合成部114は、第3の重みとして、高周波画像に適用する重みを重みW31に決定し、第1色画像、第2色画像および第3色画像に適用する重みをそれぞれ重みW32a、W32b、W32cに決定する。
これにより、合成部114は、高周波画像の複数の画素値のそれぞれに重みW31を乗算して得られた値と、第1色画像の複数の画素値のそれぞれに重みW32aを乗算して得られた値と、第2色画像の複数の画素値のそれぞれに重みW32bを乗算して得られた値と、第3色画像の複数の画素値のそれぞれに重みW32cを乗算して得られた値とを、対応する画素ごとに加算することで、合成画像を生成する。なお、合成部114は、高周波画像、第1色画像、第2色画像および第3色画像の重み付け加算において、画素毎に重み付け加算するとしたが、画素毎に限らずに、複数の画素の集合からなるブロック毎に重み付け加算してもよい。合成部114は、重み付け加算において、所定の領域毎に重み付け加算すればよい。例えば、合成部114は、重みW31を重みW32a、W32b、W32cのそれぞれより小さい値に決定する。なお、重みW22a、W22b、W22cは、それぞれ、重みW32a、W32b、W32cより小さい値である。
合成部114は、高周波成分FHが閾値Th以下である場合(S23でNo)、高周波成分FHが閾値Thより小さいか否かを判定する(S27)。閾値Thは、第2閾値の一例である。なお、閾値Thは、閾値Thより小さい値である。
合成部114は、高周波成分FHが閾値Thより小さい場合(S27でYes)、画像が第4シーンであると判定し、第4の重みで高周波画像、第1色画像、第2色画像および第3色画像を重み付け加算する(S28)。具体的には、合成部114は、第4の重みとして、高周波画像に適用する重みを重みW41に決定し、第1色画像、第2色画像および第3色画像に適用する重みをそれぞれ重みW42a、W42b、W42cに決定する。
これにより、合成部114は、高周波画像の複数の画素値のそれぞれに重みW41を乗算して得られた値と、第1色画像の複数の画素値のそれぞれに重みW42aを乗算して得られた値と、第2色画像の複数の画素値のそれぞれに重みW42bを乗算して得られた値と、第3色画像の複数の画素値のそれぞれに重みW42cを乗算して得られた値とを、対応する画素ごとに加算することで、合成画像を生成する。例えば、合成部114は、重みW41を重みW42より大きい値に決定する。なお、重みW41は、重みW21、W31よりも大きい値である。重みW42a、W42b、W42cは、それぞれ、重みW22a、W22b、W22cと等しい値である。つまり、重みW42a、W42b、W42cは、それぞれ、重みW32a、W32b、W32cより小さい値である。なお。重みW42a、W42b、W42cと重みW22a、W22b、W22cとは互いに等しい値であることに限らずに異なる値であってもよい。
合成部114は、高周波成分FHが閾値Th以上の場合(S27でNo)、画像が第5シーンであると判定し、第5の重みで高周波画像、第1色画像、第2色画像および第3色画像を重み付け加算する(S29)。具体的には、合成部114は、第5の重みとして、高周波画像に適用する重みを重みW51に決定し、第1色画像、第2色画像および第3色画像に適用する重みをそれぞれ重みW52a、W52b、W52cに決定する。これにより、合成部114は、高周波画像の複数の画素値のそれぞれに重みW51を乗算して得られた値と、第1色画像の複数の画素値のそれぞれに重みW52aを乗算して得られた値と、第2色画像の複数の画素値のそれぞれに重みW52bを乗算して得られた値と、第3色画像の複数の画素値のそれぞれに重みW52cを乗算して得られた値とを、対応する画素ごとに加算することで、合成画像を生成する。なお、合成部114は、高周波画像、第1色画像、第2色画像および第3色画像の重み付け加算において、画素毎に重み付け加算するとしたが、画素毎に限らずに、複数の画素の集合からなるブロック毎に重み付け加算してもよい。合成部114は、重み付け加算において、所定の領域毎に重み付け加算すればよい。
出力部116は、合成部114によるステップS22、S25、S26、S28、S29のいずれかの処理で得られた合成画像を出力する(S6)。なお、出力部116は、出力する前に、合成画像において0より大きい画素値を有する画素で示される領域である対象領域の複数の画素値を均一の値にする処理を行ってもよいし、あるいは閾値より大きい画素値を有する画素で示される第3領域の複数の画素値を第3画素値とし、かつ、閾値未満の画素値を有する画素で示される第4領域の複数の画素値を第4画素値とする処理を行ってもよいし、複数の画素値に係数を乗じることでゲインを調整する処理を行ってもよいし、複数の画素値のダイナミックレンジを最大化する処理を行ってもよい。
そして、補正部117は、合成画像を構成する複数の第2画素がそれぞれ有する複数の第2画素値に基づいて、取得部111により取得された画像に対して所定の画像処理を行うことで、取得された画像を補正する(S7)。補正部117は、合成画像を構成する複数の第2画素がそれぞれ有する複数の第2画素値を用いて特定された対象領域に対して、所定の画像処理として例えばガンマ補正を行う。補正部117は、例えば、対象領域を特定するための閾値よりも大きな第2画素値を有する1以上の第2画素の集合による領域を対象領域として特定する。
なお、取得部111と、第1生成部112と、第2生成部113と、合成部114と、出力部116と、補正部117とは、制御回路103により実現される。
なお、第1の重み、第2の重み、第3の重みおよび第4の重みは、記憶部115に記憶されている。また、各処理における各閾値は、記憶部115に記憶されている。記憶部115は、例えば、メモリ104により実現される。
[効果等]
以上のように、本実施の形態における画像処理方法は、画像を取得する取得ステップ(S1)と、取得された画像を構成する複数の第1画素がそれぞれ有する複数の第1画素値に基づく高周波成分に基づいて高周波画像を生成する第1生成ステップ(S2)と、取得された画像の複数の第1画素値に基づく色情報に基づいて1種類以上の色のそれぞれに対応する第1~第3色画像を生成する第2生成ステップ(S3)と、高周波画像および第1~第3色画像を重み付け加算することで合成画像を生成する合成ステップ(S5)と、生成された合成画像を出力する出力ステップ(S6)と、を含む。
これによれば、高周波画像および第1~第3色画像を合成することで得られた合成画像を、対象領域を示す画像として出力することができる。このため、合成画像を用いることで近景にある被写体の領域である対象領域を効果的に特定することができ、遠景にある被写体の領域および背景領域を対象領域から排除することができる。よって、画像における対象領域を効果的に特定することができる。
また、本実施の形態において、合成ステップでは、取得された画像のうちの特定の色であると判定される画素により構成される領域RSaの大きさが閾値Thより小さい場合、合成画像の生成における高周波画像に対する重みおよび第1~第3色画像に対する重みを共に0にする。例えば、画像のうち特定の色であると判定される画素により構成される領域RSaの大きさが閾値Thより小さい場合に、取得された画像のシーンを、被写体が近景にない第1シーンであると推定することができる。このため、この場合に、合成画像の生成における高周波画像に対する重みおよび1以上の色画像に対する重みを共に0にすることで、画像中に対象領域がないことを示す合成画像を出力することができる。
また、本実施の形態において、合成ステップでは、画像に含まれる高周波成分FHが閾値Thより大きく、かつ、全ての色画像について、高周波画像と第1~第3色画像とが重複する領域RSbの大きさが閾値Th以下である場合、合成画像の生成における高周波画像に対する重みを第1~第3色画像に対する重みより小さくする。例えば、画像に含まれる高周波成分が閾値Thより大きく、かつ、全ての色画像について、領域RSbの大きさが閾値Th以下である場合に、取得された画像のシーンを、被写体が近景にあり、かつ、背景に高周波成分が多い第3シーンであると推定することができる。このため、この場合に、合成画像の生成における高周波画像に対する重みを1以上の色画像に対する重みより小さくすることで、背景が対象領域として特定されることを抑制しつつ、近景の被写体が排除されることを抑制することができる。
また、本実施の形態において、合成ステップでは、画像に含まれる高周波成分FHが閾値Thより大きく、かつ、高周波画像と第1~第3色画像とが重複する領域RSbの大きさが閾値Thより大きい場合、合成画像の生成における高周波画像に対する重みおよび各色画像に対する重みを共に所定の基準値より小さくする。例えば、画像に含まれる高周波成分FHが閾値Thより大きく、かつ、高周波画像と各色画像とが重複する領域Rsbの大きさが閾値Thより大きい場合に、取得された画像のシーンを、対象領域が少ない第2シーンであると推定することができる。このため、この場合に、合成画像の生成における高周波画像に対する重みおよび第1~第3色画像に対する重みを共に所定の基準値より小さくすることで、近景における被写体の領域を対象領域として残しつつ、背景が対象領域として特定されることを抑制することができる。
また、本実施の形態において、合成ステップでは、画像に含まれる高周波成分FHが閾値Thより小さい場合、合成画像の生成における高周波画像に対する重みを第1~第3色画像に対する重みより大きくする。例えば、画像に含まれる高周波成分FHがTh閾値より小さい場合に、取得された画像のシーンを、被写体が近景にあり、かつ、背景に低周波成分が多いシーンであると推定することができる。このため、この場合に、合成画像の生成における高周波画像に対する重みを第1~第3色画像に対する重みより大きくすることで、背景が対象領域として特定されることを抑制しつつ、近景の被写体が排除されることを抑制することができる。
[変形例]
(1)
上記実施の形態では、第2生成部113は、第1~第3色画像を生成するとしたが、これに限らずに、第1色画像を生成し、第2および第3色画像を生成しなくてもよい。この場合、実施の形態における各色画像に対する処理は、第1色画像のみに行われることとなる。また、第2生成部113は、4つ以上の色画像、つまり、第1~第n色画像(nは4以上の整数)を生成してもよい。
(2)
上記実施の形態では、合成部114は、画像のシーンが第1シーン、第2シーン、第3シーンおよび第4シーンのそれぞれに対応する第1の重み、第2の重み、第3の重みおよび第4の重みのいずれかに切り替えて、画像を合成するとしたがこれに限らない。例えば、合成部114は、第1シーンと他のシーンとの間で、重みが変化するように重みを設定してもよい。
図11は、第1シーンと他のシーンとの間の範囲の合成に適用される第1出力重みについて説明するための図である。図11は、横軸が第1色画像を構成する複数のブロックについてそれぞれ算出された複数の平均値の合計値を示し、縦軸が当該合計値に応じて割り当てられる係数α1を示す。
図11における関係を用いることで、第1シーンと他のシーンとの間の範囲の合成に適用される第1出力重みは、以下に示す式1で算出される。なお、他のシーンとは、例えば、第2シーン、第3シーンおよび第4シーンのいずれかである。第1出力重みとしては、第1シーンと第2シーンとの間で算出される値と、第1シーンと第3シーンとの間で算出される値と、第1シーンと第4シーンとの間で算出される値との3種類の値が算出されうる。
第1出力重み=α1*他のシーンの重み+(1-α1)*第1の重み
・・・(式1)
ここで、他のシーンの重みとは、他のシーンが第2シーンであれば第2の重みであり、他のシーンが第3シーンであれば第3の重みであり、他のシーンが第4シーンであれば第4の重みである。
これによれば、第1色画像を構成する複数のブロックについてそれぞれ算出された複数の平均値の合計値が閾値Thより小さい場合、第1シーンであると判定されて係数α1は0となり、第1の重みで合成が行われる。一方で、合計値が閾値Thより大きい場合、他のシーンであると判定されて係数α1は1となり、他のシーンの重みで合成が行われる。閾値Thは、閾値Thより大きい値である。そして、合計値が閾値Th以上閾値Th以下の場合、合計値が大きいほど係数α1は1に近づくため、第1の重みよりも他のシーンの重みに近い値で合成が行われる。このように、第1シーンと他のシーンとの境界の範囲においては、第1の重みと他のシーンの重みとの間の値が合成の重みとして採用されてもよい。
また、同様に、例えば、合成部114は、第2シーンと第3シーンとの間で、重みが変化するように重みを設定してもよい。
図12および図13は、第2シーンと第3シーンとの間の範囲の合成に適用される出力重みについて説明するための図である。図12は、横軸が第1合計値を示し、縦軸が第1合計値に応じて割り当てられる係数α2を示す。図13は、横軸が第2合計値を示し、縦軸が第2合計値に応じて割り当てられる係数α3を示す。
図12における関係を用いることで、第2シーンと第3シーンとの間の範囲の合成に適用される第3出力重みを算出するための第2出力重みは、以下に示す式2で算出される。
第2出力重み=α2*第2の重み+(1-α2)*第3の重み
・・・(式2)
また、図13における関係を用いることで、第2シーンと第3シーンとの間の範囲の合成に適用される第3出力重みは、以下に示す式3で算出される。
第3出力重み=α3*第2出力重み+(1-α3)*第3の重み
・・・(式3)
このため、第1合計値が閾値Thc1より大きく、かつ、第2合計値が閾値Thc2より大きい場合、係数α2および係数α3は共に1となり、第2の重みで合成が行われる。一方で、第1合計値が閾値Thc3より小さく、かつ、第2合計値が閾値Thc4より小さい場合、係数α2および係数α3は共に0となり、第3の重みで合成が行われる。閾値Thc1は、閾値Thc3より大きい値であり、閾値Thc2は、閾値Thc4より大きい値である。そして、第1合計値および第2合計値が上記以外の場合には、第1合計値が大きくなるほど、または、第2合計値が大きくなるほど、第3の重みよりも第2の重みに近い値で合成が行われる。このように、第2シーンと第3シーンとの境界の範囲においては、第2の重みと第3の重みとの間の値が合成の重みとして採用されてもよい。
なお、閾値Thc1~Thc4のそれぞれは、ステップS24、S25の処理対象となる色画像毎に異なる値が設定されていてもよい。
また、同様に、例えば、合成部114は、第4シーンと他のシーンとの間で、重みが変化するように重みを設定してもよい。
図14は、第4シーンと他のシーンとの間の範囲の合成に適用される第4出力重みについて説明するための図である。図14は、横軸が高周波画像を構成する複数のブロックのそれぞれについて算出された複数の平均値の合計値を示し、縦軸が当該合計値に応じて割り当てられる係数α4を示す。
図14における関係を用いることで、第4シーンと他のシーンとの間の範囲の合成に適用される第4出力重みは、以下に示す式4で算出される。なお、他のシーンとは、例えば、第1シーン、第2シーンおよび第3シーンのいずれかである。第4出力重みとしては、第1シーンと第2シーンとの間で算出される値と、第1シーンと第3シーンとの間で算出される値と、第1シーンと第4シーンとの間で算出される値との3種類の値が算出されうる。
第4出力重み=α4*他のシーンの重み+(1-α4)*第4の重み
・・・(式4)
ここで、他のシーンの重みとは、他のシーンが第1シーンであれば第1の重みであり、他のシーンが第2シーンであれば第2の重みであり、他のシーンが第3シーンであれば第3の重みである。
つまり、高周波画像を構成する複数のブロックのそれぞれについて算出された複数の平均値の合計値が閾値Thより大きい場合、他のシーンであると判定されて係数α4は1となり、他のシーンの重みで合成が行われる。一方で、合計値が閾値Thより小さい場合、第4シーンであると判定されて係数α4は0となり、第4の重みで合成が行われる。閾値Thは、閾値Thより大きい値である。そして、合計値が閾値Th以上閾値Th以下の場合、合計値が大きいほど係数α4は1に近づくため、第4の重みよりも他のシーンの重みに近い値で合成が行われる。このように、第4シーンと他のシーンとの境界の範囲においては、第4の重みと他のシーンの重みとの間の値が合成の重みとして採用されてもよい。
なお、第4出力重みは、実施の形態における第5重みとして算出されてもよい。
(3)
上記実施の形態では、ステップS24の処理は、ステップS23がYesと判定された後に行われるとしているが、これに限らずに、ステップS21の前に行われてもよいし、ステップS21の後であってステップS23の前に行われてもよい。いずれの場合であっても、ステップS25は、ステップS23でYesと判定され、かつ、ステップS24でYesと判定された場合に行われる。また、ステップS26の処理は、ステップS24でNoと判定され、かつ、ステップS23でYesと判定された場合に行われればよい。
(4)
上記実施の形態では、画像処理装置110は、表示装置100に内蔵される装置であるとしたが、これに限らずに、撮像装置に内蔵される装置であってもよい。この場合の画像処理装置は、例えば、撮像装置が備えるイメージセンサから画像データを取得し、上記実施の形態で説明した画像処理方法を行い、複数の第2画素を出力する。撮像装置では、出力された複数の第2画素を用いて被写体を特定し、特定した被写体の領域について、フォーカスを調整する処理または露出を調整する処理に利用してもよい。
(5)
上記実施の形態では、表示装置100では、チューナ101を備える構成であり、取得部111は、チューナ101により実現されるとしたが、これに限らない。取得部111は、光ディスク、SDカード、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記録媒体に記録されている画像データを読み出すことで画像データを取得してもよい。この場合、取得部111は、光ディスクを読み出す光ピックアップなどの電気機器により実現されてもよい。また、取得部111は、インターネットなどのネットワークを介して外部サーバから画像データを取得してもよい。この場合、取得部111は、外部サーバとの間で通信を行うための通信IFにより実現されてもよい。また、取得部111は、HDMI(登録商標)(High-Definition Multimedia Interface)端子、USB(Universal Serial Bus)端子、RCA端子などの外部IFを介して接続された外部機器から画像データを取得してもよい。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の画像復号化装置などを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、画像を取得する取得ステップと、取得された前記画像を構成する複数の第1画素がそれぞれ有する複数の第1画素値に基づく高周波成分に基づいて高周波画像を生成する第1生成ステップと、取得された前記画像の前記複数の第1画素値に基づく色情報に基づいて1種類以上の色のそれぞれに対応する1以上の色画像を生成する第2生成ステップと、前記高周波画像および前記1以上の色画像を重み付け加算することで合成画像を生成する合成ステップと、生成された前記合成画像を出力する出力ステップと、を含む画像処理方法を実行させる。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、画像における被写体の領域である対象領域を効果的に特定することができる画像処理方法等に適用可能である。具体的には、テレビなどの表示装置、カメラなどの撮像装置等に、本開示は適用可能である。
100 表示装置
101 チューナ
102 デコーダ
103 制御回路
104 メモリ
105 表示デバイス
110 画像処理装置
111 取得部
112 第1生成部
113 第2生成部
114 合成部
115 記憶部
116 出力部
117 補正部

Claims (8)

  1. 画像を取得する取得ステップと、
    取得された前記画像を構成する複数の第1画素がそれぞれ有する複数の第1画素値に基づく高周波成分に基づいて高周波画像を生成する第1生成ステップと、
    取得された前記画像の前記複数の第1画素値に基づく色情報に基づいて1種類以上の色のそれぞれに対応する1以上の色画像を生成する第2生成ステップと、
    前記高周波画像および前記1以上の色画像を重み付け加算することで合成画像を生成する合成ステップと、
    生成された前記合成画像を出力する出力ステップと、を含む
    画像処理方法。
  2. 前記合成ステップでは、前記画像に含まれる高周波成分が第1閾値より大きい場合、前記合成画像の生成における前記高周波画像に対する重みを前記1以上の色画像に対する重みより小さくする
    請求項1に記載の画像処理方法。
  3. 前記合成ステップでは、前記画像に含まれる高周波成分が第2閾値より小さい場合、前記合成画像の生成における前記高周波画像に対する重みを前記1以上の色画像に対する重みより大きくする
    請求項1または2に記載の画像処理方法。
  4. 前記合成ステップでは、前記高周波画像と前記1以上の色画像とが重複する第1領域の大きさが第3閾値より大きい場合、前記合成画像の生成における前記高周波画像に対する重みおよび前記1以上の色画像に対する重みを共に所定の基準値より小さくする
    請求項1から3のいずれか1項に記載の画像処理方法。
  5. 前記合成ステップでは、取得された前記画像のうちの特定の色であると判定される画素により構成される第2領域の大きさが第4閾値より小さい場合、前記合成画像の生成における前記高周波画像に対する重みおよび前記1以上の色画像に対する重みを共に0にする
    請求項1から4のいずれか1項に記載の画像処理方法。
  6. さらに、
    出力された前記合成画像を構成する複数の第2画素がそれぞれ有する複数の第2画素値に基づいて、前記画像に対して所定の画像処理を行う画像処理ステップを含む
    請求項1から5のいずれか1項に記載の画像処理方法。
  7. 画像を取得する取得部と、
    取得された前記画像を構成する複数の第1画素がそれぞれ有する複数の第1画素値に基づく高周波成分に基づいて高周波画像を生成する第1生成部と、
    取得された前記画像の前記複数の第1画素値に基づく色情報に基づいて1種類以上の色のそれぞれに対応する1以上の色画像を生成する第2生成部と、
    前記高周波画像および前記1以上の色画像を重み付け加算することで合成画像を合成する合成部と、
    合成された前記合成画像を出力する出力部と、を備える
    画像処理装置。
  8. 画像を取得する取得ステップと、
    取得された前記画像を構成する複数の第1画素がそれぞれ有する複数の第1画素値に基づく高周波成分に基づいて高周波画像を生成する第1生成ステップと、
    取得された前記画像の前記複数の第1画素値に基づく色情報に基づいて1種類以上の色のそれぞれに対応する1以上の色画像を生成する第2生成ステップと、
    前記高周波画像および前記1以上の色画像を重み付け加算することで合成画像を生成する合成ステップと、
    生成された前記合成画像を出力する出力ステップと、を含む
    画像処理方法をコンピュータに実行させるためのプログラム。
JP2021522623A 2019-05-30 2020-01-16 画像処理方法、画像処理装置およびプログラム Active JP7065360B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019101648 2019-05-30
JP2019101648 2019-05-30
PCT/JP2020/001359 WO2020240913A1 (ja) 2019-05-30 2020-01-16 画像処理方法、画像処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2020240913A1 JPWO2020240913A1 (ja) 2021-10-14
JP7065360B2 true JP7065360B2 (ja) 2022-05-12

Family

ID=73553332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021522623A Active JP7065360B2 (ja) 2019-05-30 2020-01-16 画像処理方法、画像処理装置およびプログラム

Country Status (4)

Country Link
US (1) US20220130053A1 (ja)
EP (1) EP3979199A4 (ja)
JP (1) JP7065360B2 (ja)
WO (1) WO2020240913A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3979195B1 (en) * 2019-05-30 2024-04-24 Panasonic Intellectual Property Management Co., Ltd. Image processing method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038480A (ja) 2002-07-02 2004-02-05 Canon Inc 画像認識方法、画像認識装置、コンピュータプログラム及びコンピュータ読み取り可能な記録媒体
WO2009153983A1 (ja) 2008-06-18 2009-12-23 パナソニック株式会社 画像処理装置、撮像装置、方法、およびプログラム
JP6215128B2 (ja) 2014-04-24 2017-10-18 京セラ株式会社 携帯電子機器、制御方法及び制御プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5799111A (en) * 1991-06-14 1998-08-25 D.V.P. Technologies, Ltd. Apparatus and methods for smoothing images
JP3378601B2 (ja) * 1993-01-14 2003-02-17 三洋電機株式会社 画像処理装置
WO2000018128A1 (en) * 1998-09-24 2000-03-30 The Trustees Of Columbia University In The City Of New York System and method for semantic video object segmentation
JP3793036B2 (ja) * 2001-04-16 2006-07-05 キヤノン株式会社 画像処理装置及び方法、並びに、コンピュータプログラム及び記憶媒体
JP4623388B2 (ja) * 2008-09-08 2011-02-02 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5645051B2 (ja) * 2010-02-12 2014-12-24 国立大学法人東京工業大学 画像処理装置
JP5840069B2 (ja) * 2012-05-08 2016-01-06 富士フイルム株式会社 光音響画像生成装置、システム、及び方法
US9478004B2 (en) * 2013-04-11 2016-10-25 John Balestrieri Method and system for analog/digital image simplification and stylization
US9898812B1 (en) * 2015-12-09 2018-02-20 Amazon Technologies, Inc. Composite image quality assurance
JP6757407B2 (ja) * 2016-06-15 2020-09-16 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
CN109583364A (zh) * 2018-11-27 2019-04-05 上海鹰瞳医疗科技有限公司 图像识别方法及设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038480A (ja) 2002-07-02 2004-02-05 Canon Inc 画像認識方法、画像認識装置、コンピュータプログラム及びコンピュータ読み取り可能な記録媒体
WO2009153983A1 (ja) 2008-06-18 2009-12-23 パナソニック株式会社 画像処理装置、撮像装置、方法、およびプログラム
JP6215128B2 (ja) 2014-04-24 2017-10-18 京セラ株式会社 携帯電子機器、制御方法及び制御プログラム

Also Published As

Publication number Publication date
WO2020240913A1 (ja) 2020-12-03
US20220130053A1 (en) 2022-04-28
EP3979199A4 (en) 2022-08-03
EP3979199A1 (en) 2022-04-06
JPWO2020240913A1 (ja) 2021-10-14

Similar Documents

Publication Publication Date Title
TWI734978B (zh) 用於執行高動態範圍視訊的色調映射的方法及裝置
US10891722B2 (en) Display method and display device
US8363123B2 (en) Image pickup apparatus, color noise reduction method, and color noise reduction program
US9275444B2 (en) Image processing apparatus, image processing method, and program to prevent degradation of image quality
JP4949463B2 (ja) アップスケーリング
US11770624B2 (en) Efficient and flexible color processor
JP7065360B2 (ja) 画像処理方法、画像処理装置およびプログラム
CN113068011B (zh) 图像传感器、图像处理方法及系统
US8068691B2 (en) Sparkle processing
JPWO2017203941A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US8471931B2 (en) Video recording system
JP4958926B2 (ja) 信号処理装置及び方法
KR101900632B1 (ko) 화상 변환 방법, 운전자 보조 시스템 및 자동차
US20210158487A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
JP7022949B2 (ja) 画像処理方法、画像処理装置およびプログラム
JP5179433B2 (ja) ノイズリダクション装置、ノイズリダクション方法、および動画再生装置
US11501416B2 (en) Image processing method and image processing circuit capable of smoothing false contouring without using low-pass filtering
US20210304374A1 (en) Tone mapping method
JP2009253632A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2015103969A (ja) 画像符号化装置及び画像符号化方法
WO2006082542A1 (en) Clipping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220328

R151 Written notification of patent or utility model registration

Ref document number: 7065360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151