JP2015039052A - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法及び画像処理プログラム Download PDFInfo
- Publication number
- JP2015039052A JP2015039052A JP2009299241A JP2009299241A JP2015039052A JP 2015039052 A JP2015039052 A JP 2015039052A JP 2009299241 A JP2009299241 A JP 2009299241A JP 2009299241 A JP2009299241 A JP 2009299241A JP 2015039052 A JP2015039052 A JP 2015039052A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- face image
- enlargement
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440263—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440263—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
- H04N21/440272—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA for performing aspect ratio conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】ディスプレイに表示されている人物の顔画像を拡大することによって、例えば小型ディスプレイを用いて番組を視聴する場合であっても、有用な情報を顔画像から得ることを可能にする画像処理装置、画像処理方法及び画像処理プログラムを提供する。
【解決手段】顔画像を含む画像を入力する入力部14と、画像から顔画像を抽出する顔画像抽出部16と、画像のサイズ及び顔画像のサイズに応じて該顔画像を拡大する画像生成部18とを備える。顔画像の拡大は、例えば、画像の画素数及び顔画像の画素数に基づいて算出した拡大率にしたがって該顔画像を拡大することにより行われる。
【選択図】図1
【解決手段】顔画像を含む画像を入力する入力部14と、画像から顔画像を抽出する顔画像抽出部16と、画像のサイズ及び顔画像のサイズに応じて該顔画像を拡大する画像生成部18とを備える。顔画像の拡大は、例えば、画像の画素数及び顔画像の画素数に基づいて算出した拡大率にしたがって該顔画像を拡大することにより行われる。
【選択図】図1
Description
本発明は、画像に含まれる顔画像を拡大することが可能な画像処理装置、画像処理方法及び画像処理プログラムに関する。
絵画又は彫刻などの美術の分野においてモチーフの特徴を誇張・強調した変形を加える表現手法の一つとしてデフォルメ(以下、「変形処理」と呼ぶ。)がある。変形処理は、マンガ、アニメーション又はゲーム等の娯楽分野でもよく用いられており、登場キャラクタの顔を拡大して描き、その他の身体部を小さく描くことにより、キャラクタを2〜3頭身で表現することにより行われる。拡大された顔からは、個人特定に関する情報、感情情報、読唇による情報等の様々な有用な情報を得ることができる。
特許文献1には、実際の人物の顔画像を変形処理して略2等身のキャラクタ画像を生成することで、顔の表情を分かりやすくするゲーム装置が記載されている。
小型ディスプレイを有した携帯電話又は携帯デジタル音楽プレーヤー等の携帯端末を用いて、テレビ番組、ニュース番組又は英語番組等の映像コンテンツを視聴するユーザが増加している。しかし、家庭内に置かれる大型ディスプレイ向けに作成された映像コンテンツを携帯端末の小型ディスプレイで表示させた場合又は高画素数で表現された映像コンテンツを低画素数にダウンサンプリングすることにより画像を縮小して表示させた場合、顔画像の総画素数が小さくなる。そのため、大型ディスプレイと比較して、ディスプレイに表示されている顔画像から得られる各種の情報、すなわち、個人を特定するための情報、感情情報、読唇による情報の量が大幅に減少する。
特許文献1記載の装置では、ゲーム装置のようにあらかじめ用意された2頭身に変形処理されたアニメ画像に対して実際の人物の顔画像を貼り付けるものであって、テレビ番組、映画等にて映し出される実際の人物画像に対して変形処理を施すものではない。また、携帯端末のディスプレイの画面サイズ、表示画像サイズ又は画素数に応じて、顔画像が適切な大きさに拡大されていない。
本発明はかかる事情に鑑みてなされたものであり、その目的は、ディスプレイに表示されている人物の顔画像を拡大することによって、例えば小型ディスプレイを用いて番組を視聴する場合であっても、上述した有用な情報を顔画像から得ることを可能にする画像処理装置、画像処理方法及び画像処理プログラムを提供することにある。
本発明の画像処理装置は、画像処理を行う画像処理装置において、画像を取得する画像取得手段と、該画像取得手段が取得した画像に含まれる顔画像を抽出する抽出手段と、前記画像取得手段が取得した画像及び前記抽出手段が抽出した顔画像のそれぞれのサイズに応じて該顔画像を拡大する拡大手段と、該拡大手段が拡大した顔画像及び前記画像取得手段が取得した画像を合成する手段とを備えることを特徴とする。
本発明にあっては、画像から顔画像を抽出し、抽出した顔画像に対して拡大処理を行うため、拡大顔画像から個人特定に関する情報、感情情報、読唇による情報等の様々な有用な情報を得ることができる。より詳細には、本発明にあっては、画像のサイズ及び画像から抽出した顔画像のサイズに基づいて顔画像を拡大するため、顔画像を含む画像のサイズに応じた適切なサイズで顔画像を拡大できる。
本発明の画像処理装置は、画像処理を行う画像処理装置において、画像を取得する画像取得手段と、該画像取得手段が取得した画像に含まれる顔画像を抽出する抽出手段と、前記画像取得手段が取得した画像を縮小する手段と、画像の縮小に係わる情報を取得する取得手段と、前記画像取得手段が取得した画像及び前記抽出手段が抽出した顔画像のそれぞれのサイズ、並びに前記取得手段が取得した情報に応じて、該顔画像を拡大する拡大手段と、該拡大手段が拡大した顔画像及び前記画像取得手段が取得した画像を合成する手段とを備えることを特徴とする。
本発明にあっては、画像の縮小に係わる情報にしたがって画像を縮小し、縮小後の画像に含まれる顔画像を拡大するため、画像を縮小した場合であっても顔画像から有用な情報を得ることができる。
本発明の画像処理装置は、画像処理を行う画像処理装置において、画像を取得する画像取得手段と、該画像取得手段が取得した画像に含まれる顔画像を抽出する抽出手段と、外部の物体との距離を測定する距離測定手段と、前記画像取得手段が取得した画像及び前記抽出手段が抽出した顔画像のそれぞれのサイズ、並びに前記距離測定手段によって測定された距離に応じて、該顔画像を拡大する拡大手段と、該拡大手段が拡大した顔画像及び前記画像取得手段が取得した画像を合成する手段とを備えることを特徴とする。
本発明にあっては、画像表示装置と視聴者等の外部の物体との距離に応じて顔画像を拡大するため、視聴距離が長くなることにより表示画面が小さく見えても、顔画像から有用な情報を得ることができる。
本発明の画像処理装置において、前記拡大手段は、前記画像の画素数及び前記顔画像の画素数に基づいて拡大率を算出する拡大率算出部と、該拡大率算出部によって算出された拡大率にしたがって前記顔画像を拡大する拡大部とを備えることを特徴とする。
本発明にあっては、画像の画素数及び顔画像の画素数に基づいて算出した拡大率にしたがって顔画像を拡大するため、顔画像から有用な情報を得ることができる。
本発明の画像処理装置において、前記拡大率算出部は、前記画像及び前記顔画像の画素数の比率に応じて拡大率を算出することを特徴とする。
本発明にあっては、画像の画素数及び顔画像の画素数の比率にしたがって拡大率を算出し、当該拡大率にしたがって顔画像を拡大するため、顔画像から有用な情報を得ることができる。
本発明の画像処理装置は、前記拡大率算出部によって算出された拡大率にしたがって拡大した顔画像が特定のサイズを超える場合、該拡大率を小さくする手段を更に備え、前記拡大部は、前記拡大率算出部によって小さくされた拡大率で前記顔画像を拡大することを特徴とする。
本発明にあっては、画像の画素数及び顔画像の画素数の比率にしたがって算出した拡大率によって拡大した顔画像のサイズが特定のサイズよりも大きくなる場合には、当該拡大率を小さくし、小さくした拡大率によって顔画像を拡大する。よって、顔画像が表示画面内に収まるように顔画像を拡大できる。
本発明の画像処理装置は、画像処理を行う画像処理装置において、画像を取得する画像取得手段と、該画像取得手段が取得した画像を縮小する画像縮小手段と、前記画像取得手段が取得した画像から顔画像を抽出する抽出手段と、該抽出手段が抽出した顔画像を、前記画像縮小手段による画像の縮小率よりも小さい縮小率で縮小する顔画像縮小手段と、前記画像縮小手段により縮小された画像及び前記顔画像縮小手段により縮小された顔画像を合成する手段とを備えることを特徴とする。
本発明にあっては、画像を縮小すると共に当該画像から顔画像を抽出し、抽出した顔画像を縮小し、当該縮小した顔画像及び当該縮小した画像を合成するため、縮小した顔画像を利用した場合であっても表示画面に表示される顔画像を拡大できる。
本発明の画像処理方法は、画像処理を行う画像処理方法において、画像を取得する画像取得ステップと、該画像取得ステップにて取得した画像に含まれる顔画像を抽出する抽出ステップと、前記画像取得ステップにて取得した画像及び前記抽出ステップにて抽出した顔画像のそれぞれのサイズに応じて該顔画像を拡大する拡大ステップと、該拡大ステップにて拡大した顔画像及び前記画像取得ステップにて取得した画像を合成するステップとを含むことを特徴とする。
本発明にあっては、画像から抽出した顔画像に対して拡大処理を行うため、顔画像から個人特定に関する情報、感情情報、読唇による情報等の様々な有用な情報を得ることができる。より詳細には、本発明にあっては、画像のサイズ及び画像から抽出した顔画像のサイズにしたがって顔画像を拡大するため、顔画像を含む画像のサイズに基づいた適切なサイズで顔画像を拡大できる。
本発明の画像処理方法は、画像処理を行う画像処理方法において、画像を取得する画像取得ステップと、該画像取得ステップにて取得した画像に含まれる顔画像を抽出する抽出ステップと、前記画像取得ステップにて取得した画像を縮小する画像縮小ステップと、画像の縮小に係わる情報を取得する取得ステップと、前記画像取得ステップにて取得した画像及び前記抽出ステップにて抽出した顔画像のそれぞれのサイズ、並びに前記取得ステップにて取得した情報に応じて、該顔画像を拡大する拡大ステップと、該拡大ステップにて拡大した顔画像及び前記画像取得ステップにて取得した画像を合成するステップとを含むことを特徴とする。
本発明にあっては、画像の縮小に係わる情報に応じて画像を縮小し、縮小後の画像に含まれる顔画像を拡大するため、画像を縮小した場合であっても顔画像から有用な情報を得ることができる。
本発明の画像処理方法は、画像処理を行う画像処理方法において、画像を取得する画像取得ステップと、該画像取得ステップにて取得した画像に含まれる顔画像を抽出する抽出ステップと、外部の物体との距離を測定する距離測定ステップと、前記画像取得ステップにて取得した画像及び前記抽出ステップにて抽出した顔画像のそれぞれのサイズ、並びに前記距離測定ステップにて測定された距離に応じて、該顔画像を拡大する拡大ステップと、該拡大ステップにて拡大した顔画像及び前記画像取得ステップにて取得した画像を合成するステップとを含むことを特徴とする。
本発明にあっては、画像表示装置と視聴者等の外部の物体との距離にしたがって顔画像を拡大するため、視聴条件が悪くても、顔画像から有用な情報を得ることができる。
本発明の画像処理プログラムは、コンピュータに画像処理を行わせる画像処理プログラムにおいて、コンピュータを、顔画像を含む画像から該顔画像を抽出する抽出手段と、該画像及び該抽出手段が抽出した顔画像のそれぞれのサイズに応じて該顔画像を拡大する拡大手段と、該拡大手段が拡大した顔画像及び前記画像を合成する手段として機能させることを特徴とする。
本発明にあっては、画像から抽出した顔画像に対して拡大処理を行うため、顔画像から有用な情報を得ることができる。より詳細には、本発明にあっては、画像のサイズ及び画像から抽出した顔画像のサイズに基づいて顔画像を拡大するため、顔画像を含む画像のサイズにしたがって適切なサイズで顔画像を拡大できる。
本発明の画像処理プログラムは、コンピュータに画像処理を行わせる画像処理プログラムにおいて、コンピュータを、顔画像を含む画像から該顔画像を抽出する抽出手段と、画像を縮小する縮小手段と、画像及び前記抽出手段が抽出した顔画像のそれぞれのサイズ、並びに前記画像の縮小に係わる情報に応じて、該顔画像を拡大する拡大手段と、該拡大手段が拡大した顔画像及び前記画像を合成する手段として機能させることを特徴とする。
本発明にあっては、画像の縮小に係わる情報に応じて画像を縮小し、縮小後の画像に含まれる顔画像を拡大するため、画像を縮小しても顔画像から有用な情報を得ることができる。
本発明の画像処理プログラムにおいて、コンピュータに画像処理を行わせる画像処理プログラムにおいて、コンピュータを、顔画像を含む画像から該顔画像を抽出する抽出手段と、画像及び前記抽出手段が抽出した顔画像のそれぞれのサイズ、並びに外部の物体との距離に応じて、該顔画像を拡大する拡大手段と、該拡大手段が拡大した顔画像及び前記画像を合成する手段として機能させることを特徴とする。
本発明にあっては、画像表示装置と視聴者等の外部の物体との距離に基づいて顔画像を拡大するため、視聴距離が長くて視聴条件が悪い場合であっても、顔画像から有用な情報を得ることができる。
本発明に係る画像処理装置、画像処理方法及び画像処理プログラムによれば、画像に含まれる顔画像に対して拡大処理を施すため、画像を表示する表示画面が小さい場合であっても視聴者は顔画像から有用な情報を得ることができる。
以下、本発明に係る実施の形態を、図面を参照して詳細に説明する。
実施の形態1
実施の形態1に係る画像処理装置は、画像データの画素数及び画像データに含まれる顔画像の画素数に応じて顔画像に対して変形処理を施す構成をとる。
実施の形態1
実施の形態1に係る画像処理装置は、画像データの画素数及び画像データに含まれる顔画像の画素数に応じて顔画像に対して変形処理を施す構成をとる。
図1は、実施の形態1に係る画像処理装置1の構成例を示すブロック図である。
画像処理装置1は、制御部10、不揮発性メモリ11、揮発性メモリ12、操作部13、入力部14、データ抽出部15、顔画像抽出部16、拡大率算出部17、画像生成部18及び出力部19を備えており、各構成部はバス31を介して接続されている。さらに、画像処理装置1は、出力部19を介して画像表示装置2に接続されている。
画像処理装置1は、制御部10、不揮発性メモリ11、揮発性メモリ12、操作部13、入力部14、データ抽出部15、顔画像抽出部16、拡大率算出部17、画像生成部18及び出力部19を備えており、各構成部はバス31を介して接続されている。さらに、画像処理装置1は、出力部19を介して画像表示装置2に接続されている。
制御部10は、例えばCPU(Central Processing Unit)又はMPU(Micro Processor Unit)等で構成されており、バス31を介して各構成部の動作を制御する。
操作部13は、例えばマウス、キーボード、タッチパネル、ボタン及びスイッチ等のデータ入力用の機器である。操作部13は、赤外線又は電波等を利用して遠隔操作で画像処理装置1に制御信号を送信するリモートコントローラであってもよい。
入力部14は、例えばデジタル放送チューナ、HD(Hard Disk)ドライブ、DVD(Digital Versatile Disc)ドライブ、パーソナルコンピュータ、デジタルカメラ等の画像機器から画像データを取得する。画像データは、例えばMPEG(Moving Picture Experts Group)−2方式で圧縮符号化されたTS(Transport Stream)に含まれる圧縮画像データである。入力部14は、画像機器から取得した圧縮画像データをデータ抽出部15に出力する。TSとは、多重信号形式の1つで、デジタル放送の多重化信号として採用されている。TSは、TSパケットが連続した信号列であり、TSパケットにはヘッダ情報が付いている。
操作部13は、例えばマウス、キーボード、タッチパネル、ボタン及びスイッチ等のデータ入力用の機器である。操作部13は、赤外線又は電波等を利用して遠隔操作で画像処理装置1に制御信号を送信するリモートコントローラであってもよい。
入力部14は、例えばデジタル放送チューナ、HD(Hard Disk)ドライブ、DVD(Digital Versatile Disc)ドライブ、パーソナルコンピュータ、デジタルカメラ等の画像機器から画像データを取得する。画像データは、例えばMPEG(Moving Picture Experts Group)−2方式で圧縮符号化されたTS(Transport Stream)に含まれる圧縮画像データである。入力部14は、画像機器から取得した圧縮画像データをデータ抽出部15に出力する。TSとは、多重信号形式の1つで、デジタル放送の多重化信号として採用されている。TSは、TSパケットが連続した信号列であり、TSパケットにはヘッダ情報が付いている。
データ抽出部15は、入力部14から取得した圧縮画像データを復号すると共に、ヘッダ情報を解析し、画像全体(以下、「表示画像」と呼ぶ。)の総画素数、縦画素数及び横画素数を求め、制御部10に出力する。また、データ抽出部15は、復号した画像データを顔画像抽出部16及び画像生成部18、又は出力部19に出力する。
顔画像抽出部16は、データ抽出部15から画像データを取得し、当該画像データに対応する画像の中から顔画像を抽出し、抽出した顔画像の総画素数を求める。顔画像の抽出処理は、公知の顔認識技術又はオブジェクト抽出技術を利用することができる。顔画像抽出部16は、抽出した顔画像の総画素数、抽出した顔画像の基準点座標及び顔画像が矩形に収まるように切り出す際の縦画素数及び横画素数を制御部10に出力する。また、顔画像抽出部16は、顔画像に対応する顔画像データを画像生成部18に出力する。尚、基準点座標とは、顔画像を拡大するうえで基準とする座標であり、その詳細については後述する。
制御部10は、以下の通り、顔画像に対して拡大処理を施すか否かを判定する。
制御部10は、データ抽出部15から表示画像の総画素数を取得する。また、制御部10は、顔画像抽出部16から顔画像の総画素数を取得する。さらに、制御部10は、不揮発性メモリ11から閾値(THp)を読み出す。制御部10は、不揮発性メモリ11から読み出した閾値を参照して顔画像に対して拡大処理を施すか否かを判定する。
具体的には、制御部10は、表示画像の総画素数及び顔画像の総画素数の比率(表示画像の総画素数/顔画像の総画素数)を閾値と比較し、表示画像の総画素数及び顔画像の総画素数の比率が閾値以上である場合には、顔画像に対して拡大処理を施すと判定する。これに対して、表示画像の総画素数及び顔画像の総画素数の比率が閾値未満である場合には、制御部10は、顔画像に対して拡大処理を施さないと判定する。尚、上記の構成では、閾値は、不揮発性メモリ11から読み出された値であるが、画像表示装置2が表示するメニュー画面内にGUI(Graphical User Interface)のスライドバーを表示させ、ユーザがそのスライドバーを操作することにより設定した値でもよい。この構成によれば、ユーザは操作部13を用いて容易に閾値を変更することができる。
制御部10は、データ抽出部15から表示画像の総画素数を取得する。また、制御部10は、顔画像抽出部16から顔画像の総画素数を取得する。さらに、制御部10は、不揮発性メモリ11から閾値(THp)を読み出す。制御部10は、不揮発性メモリ11から読み出した閾値を参照して顔画像に対して拡大処理を施すか否かを判定する。
具体的には、制御部10は、表示画像の総画素数及び顔画像の総画素数の比率(表示画像の総画素数/顔画像の総画素数)を閾値と比較し、表示画像の総画素数及び顔画像の総画素数の比率が閾値以上である場合には、顔画像に対して拡大処理を施すと判定する。これに対して、表示画像の総画素数及び顔画像の総画素数の比率が閾値未満である場合には、制御部10は、顔画像に対して拡大処理を施さないと判定する。尚、上記の構成では、閾値は、不揮発性メモリ11から読み出された値であるが、画像表示装置2が表示するメニュー画面内にGUI(Graphical User Interface)のスライドバーを表示させ、ユーザがそのスライドバーを操作することにより設定した値でもよい。この構成によれば、ユーザは操作部13を用いて容易に閾値を変更することができる。
制御部10は、顔画像に拡大処理を施すと判定した場合、表示画像の総画素数、縦画素数及び横画素数、顔画像の総画素数、縦画素数及び横画素数、並びに、顔画像の基準点座標を拡大率算出部17に出力する。また、制御部10が顔画像に拡大処理を施すと判定した場合、データ抽出部15は、顔画像データを画像生成部18に出力する。これに対して、制御部10が顔画像に拡大処理を施さないと判定した場合、データ抽出部15は、直接、画像データを出力部19に出力する。さらに、制御部10は、顔画像の拡大処理を施すか否かの判定結果を出力部19に出力する。
拡大率算出部17は、制御部10から取得した顔画像の総画素数及び表示画像の総画素数に基づいて、顔画像の拡大率(AR_Face)を算出する。顔画像の拡大率(AR_Face)は式(1)によって算出される。
AR_Face=α×(T_pix/P_pix) (1)
ただし、
α:任意の定数
T_pix:表示画像の総画素数
P_pix:顔画像の総画素数
である。
αの初期設定値は、例えば0.01であるが、その値に限らないことはいうまでもない。αの初期設定値は予め不揮発性メモリ11に記憶されており、拡大率算出部17は、拡大率の算出時にαを不揮発性メモリ11から読み込む。ただし、例えば、画像表示装置2が表示するメニュー画面内にGUIのスライドバーを表示させ、ユーザがそのスライドバーを操作することによりαを適宜変更できる構成とする。そして、スライドバーを操作することによって変更されたαは不揮発性メモリ11に記憶される。
AR_Face=α×(T_pix/P_pix) (1)
ただし、
α:任意の定数
T_pix:表示画像の総画素数
P_pix:顔画像の総画素数
である。
αの初期設定値は、例えば0.01であるが、その値に限らないことはいうまでもない。αの初期設定値は予め不揮発性メモリ11に記憶されており、拡大率算出部17は、拡大率の算出時にαを不揮発性メモリ11から読み込む。ただし、例えば、画像表示装置2が表示するメニュー画面内にGUIのスライドバーを表示させ、ユーザがそのスライドバーを操作することによりαを適宜変更できる構成とする。そして、スライドバーを操作することによって変更されたαは不揮発性メモリ11に記憶される。
次いで、拡大率算出部17は、上記式(1)によって算出した顔画像の拡大率(AR_Face)を補正する必要があるか否かを判定する。例えば、上記式(1)によって算出した顔画像の拡大率(AR_Face)が大きすぎると、拡大後の顔画像が表示画面内に収まらない場合がおきる。その場合、拡大率算出部17は、上記式(1)によって算出した顔画像の拡大率(AR_Face)を補正し、拡大後の顔画像が表示画面内に収まるようにする。具体的には、拡大率算出部17は、例えば以下の式(2)及び(3)によって顔の拡大率を下げる。
AR_Face>(Y_all−Y_base)/Y_faceのとき、
補正後のAR_Face=(Y_all−Y_base)/Y_face (2)
AR_Face>(X_all−X_base)/X_face のとき、
補正後のAR_Face=(X_all−X_base)/X_face (3)
ただし、
Y_all:表示画像の縦画素数
Y_face:顔画像の縦画素数
X_all:表示画像の横画素数
X_face:顔画像の横画素数
(X_base,Y_base):基準点座標
(0、0):原点座標
AR_Face>(Y_all−Y_base)/Y_faceのとき、
補正後のAR_Face=(Y_all−Y_base)/Y_face (2)
AR_Face>(X_all−X_base)/X_face のとき、
補正後のAR_Face=(X_all−X_base)/X_face (3)
ただし、
Y_all:表示画像の縦画素数
Y_face:顔画像の縦画素数
X_all:表示画像の横画素数
X_face:顔画像の横画素数
(X_base,Y_base):基準点座標
(0、0):原点座標
ここで、上記の式中に用いられる各種パラメータ、すなわち、画素数、基準点座標の内容に関して図面を参照して説明する。
図2は、顔画像を拡大処理する前の表示画像の一例を示す説明図である。
図2においては、表示画像22の中心部には人物の顔が描かれている。顔の下は胴体部である。また、人物の背景としては、画面の左上には雲が、人物に向かって右側には山が、画面の右上には太陽がそれぞれ描かれている。
図2においては、表示画像22の中心部には人物の顔が描かれている。顔の下は胴体部である。また、人物の背景としては、画面の左上には雲が、人物に向かって右側には山が、画面の右上には太陽がそれぞれ描かれている。
図3は、表示画像22に描かれている人物の顔画像を拡大するために適用されるパラメータの一例を示す説明図である。
図3において、表示画像22には、図2に示した人物・背景が描かれている。また、説明の便宜のために、人物、背景及び表示画像22にはそれらの大きさを示す上記各種パラメータを明記している。さらに、顔画像と背景画像とを区別するために、顔画像上に斜線を便宜的に引いている。図3においては、基準点座標(X_base,Y_base)は、顔のあごの直下に配置されている。
尚、基準点座標は、顔の重心位置(例えば、鼻の位置)その他の位置であってもよい。ただし、基準点座標の位置を決定するにあたっては、顔画像を拡大することによって顔と他の身体部とに重なりが生じ又は顔と身体部との位置関係がくずれることにより画像を見る者に違和感を生じさせることがない位置にするのが好ましい。
図3において、表示画像22には、図2に示した人物・背景が描かれている。また、説明の便宜のために、人物、背景及び表示画像22にはそれらの大きさを示す上記各種パラメータを明記している。さらに、顔画像と背景画像とを区別するために、顔画像上に斜線を便宜的に引いている。図3においては、基準点座標(X_base,Y_base)は、顔のあごの直下に配置されている。
尚、基準点座標は、顔の重心位置(例えば、鼻の位置)その他の位置であってもよい。ただし、基準点座標の位置を決定するにあたっては、顔画像を拡大することによって顔と他の身体部とに重なりが生じ又は顔と身体部との位置関係がくずれることにより画像を見る者に違和感を生じさせることがない位置にするのが好ましい。
原点座標(0、0)は、基準点座標の位置の基準となる座標であり、本図では、表示画像22の左下に位置する。基準点座標は顔を拡大するにあたっての基準点の位置であり、実施の形態1では、基準点を起点として表示画像22の上方向に向かって顔画像を拡大する。このように顔画像を拡大すれば、顔画像と顔以外の身体部(例えば、胴体部)とが重なることはない。
拡大率算出部17は、上記式(2)又は(3)によって拡大率を補正しなかった場合には、上記式(1)によって算出した拡大率(AR_Face)をそのまま画像生成部18に出力する一方、上記式(2)又は(3)によって拡大率(AR_Face)を補正した場合には、補正後の拡大率(AR_Face)を画像生成部18に出力する。
画像生成部18は、拡大率算出部17から取得した拡大率(AR_Face)にしたがって顔画像を拡大処理し、拡大顔画像を生成する。具体的には、画像生成部18は、基準点を起点として鼻の方向に顔画像を拡大する。表示画像22の場合、描かれている人物は立っているため、画像生成部18は、表示画像22の上方向に向かって顔画像を拡大する。例えば人物が床に横たわっている等のために顔の向きが横になっている場合も同様に、画像生成部18は、基準点を起点として鼻の方向に顔画像を拡大する。鼻の位置の検出処理は、公知の顔認識技術を利用することができる。
画像生成部18は、生成した拡大顔画像及びデータ抽出部15から取得した表示画像を合成して合成画像データを生成し、出力部19に出力する。
図4は、表示画像22に描かれている画像であって拡大顔画像23及び表示画像を合成することにより得られた合成画像の一例を示す説明図である。
図4からわかるように、画像生成部18は、図2に示した顔画像のみを拡大処理した画像を生成する。
出力部19は、顔画像の拡大処理を施すか否かの判定結果を制御部10から取得する。出力部19は、顔画像の拡大処理が行われた場合には、画像生成部18から取得した合成画像データを画像表示装置2に出力し、顔画像の拡大処理が行われなかった場合には、データ抽出部15から取得した画像データを画像表示装置2に出力する。
画像表示装置2は、例えば液晶パネル、有機EL(Electro-Luminescence)ディスプレイ、プラズマディスプレイ等の表示画面を備え、出力部19から取得した画像データに基づいて画像を表示画面に表示する。
図4からわかるように、画像生成部18は、図2に示した顔画像のみを拡大処理した画像を生成する。
出力部19は、顔画像の拡大処理を施すか否かの判定結果を制御部10から取得する。出力部19は、顔画像の拡大処理が行われた場合には、画像生成部18から取得した合成画像データを画像表示装置2に出力し、顔画像の拡大処理が行われなかった場合には、データ抽出部15から取得した画像データを画像表示装置2に出力する。
画像表示装置2は、例えば液晶パネル、有機EL(Electro-Luminescence)ディスプレイ、プラズマディスプレイ等の表示画面を備え、出力部19から取得した画像データに基づいて画像を表示画面に表示する。
次に、実施の形態1に係る画像処理装置1における画像処理の流れを説明する。
図5は、実施の形態1に係る画像処理装置1における画像処理の流れを示すフローチャートである。
図5は、実施の形態1に係る画像処理装置1における画像処理の流れを示すフローチャートである。
入力部14は、外部から圧縮画像データを取得する(S51)。
データ抽出部15は、入力部14から取得した圧縮画像データを復号すると共に、ヘッダ情報を解析し、表示画像の総画素数(T_pix)を抽出し、制御部10に出力する(S52)。また、データ抽出部15は、画像データを顔画像抽出部16に出力する。
顔画像抽出部16は、データ抽出部15から取得した画像データに対応する画像から顔画像を抽出し、顔画像の総画素数(P_pix)を求め、制御部10に出力する(S53)。
データ抽出部15は、入力部14から取得した圧縮画像データを復号すると共に、ヘッダ情報を解析し、表示画像の総画素数(T_pix)を抽出し、制御部10に出力する(S52)。また、データ抽出部15は、画像データを顔画像抽出部16に出力する。
顔画像抽出部16は、データ抽出部15から取得した画像データに対応する画像から顔画像を抽出し、顔画像の総画素数(P_pix)を求め、制御部10に出力する(S53)。
制御部10は、不揮発性メモリ11から閾値(THp)を読み込み、表示画像の総画素数(T_pix)及び顔画像の総画素数(P_pix)の比率(T_pix/P_pix)を閾値と比較して、顔画像に対して拡大処理を施すか否かを判定する(S54)。具体的には、表示画像の総画素数(T_pix)及び顔画像の総画素数(P_pix)の比率(T_pix/P_pix)が閾値以上である場合には(S54:YES)、制御部10は顔画像に対して拡大処理を施すと判定する。それを受けて、拡大率算出部17は、顔画像の拡大率(AR_Face)を算出する(S55)。次いで、拡大率算出部17は、算出した顔画像の拡大率(AR_Face)の補正が必要か否かを判定し(S56)、補正の必要がある場合には(S56:YES)、拡大率を補正し(S57)、補正の必要がない場合には(S56:NO)、S58の処理に進む。
画像生成部18は、拡大率算出部17から取得した拡大率(AR_Face)にしたがって顔画像を拡大処理して拡大画像を生成し(S58)、拡大顔画像及び表示画像を合成して(S59)、合成画像データを生成し、出力部19に出力し(S60)、処理を終了する。
表示画像の総画素数(T_pix)及び顔画像の総画素数(P_pix)の比率(T_pix/P_pix)が閾値未満である場合には(S54:NO)、制御部10は、顔画像に対して拡大処理を施さないと判定する。出力部19は、顔画像に対して拡大処理を施さなかった場合には、データ抽出部15から取得した画像データを画像表示装置2に出力し、処理を終了する。
表示画像の総画素数(T_pix)及び顔画像の総画素数(P_pix)の比率(T_pix/P_pix)が閾値未満である場合には(S54:NO)、制御部10は、顔画像に対して拡大処理を施さないと判定する。出力部19は、顔画像に対して拡大処理を施さなかった場合には、データ抽出部15から取得した画像データを画像表示装置2に出力し、処理を終了する。
以上説明した通り、実施の形態1では、表示画像22の総画素数、顔画像の総画素数及び顔画像の基準点座標に基づいて、顔画像の拡大率を算出する。さらに、実施の形態1では、その拡大率で顔画像を拡大すると顔画像が表示画面内に収まらなくなる場合にはその拡大率を補正する。すなわち、拡大後の顔画像が表示画面内に収まるように拡大率を下げる。
実施の形態1によれば、ディスプレイに表示されている人物の顔画像に対して拡大処理を行うことができるため、たとえ携帯機器のディスプレイのようにサイズが小型なディスプレイに映し出されている顔画像であっても、その顔画像を拡大することによって、拡大顔画像から各種の有用な情報、すなわち、個人特定に関する情報、感情情報、読唇による情報等を得ることができる。
実施の形態1によれば、ディスプレイに表示されている人物の顔画像に対して拡大処理を行うことができるため、たとえ携帯機器のディスプレイのようにサイズが小型なディスプレイに映し出されている顔画像であっても、その顔画像を拡大することによって、拡大顔画像から各種の有用な情報、すなわち、個人特定に関する情報、感情情報、読唇による情報等を得ることができる。
実施の形態2
図6は、実施の形態2における画像表示装置の表示画面及び表示画像の関係例を示す説明図である。図6においては、例えば、ダブルチューナ搭載型テレビにおける表示画像22及び表示画面24を示す。ここで、テレビのディスプレイ全体の画面を表示画面24と呼び、表示画面24の大きさを画面サイズと呼ぶ。一方、表示画面24内の一部において映像として表示されている画像を表示画像と呼び、表示画像の大きさを表示画像サイズと呼ぶ。
図6に示す例では、画像表示装置2の表示画面24の中に同じ表示画像サイズの表示画像22が2つ並べて表示されている。図6からわかるように、2つの表示画像22の合計サイズは、画像表示装置2の画面サイズの半分である。つまり、1つの表示画像22の縦画素数及び横画素数は、各々、表示画面24の縦画素数及び横画素数の半分である。
図6は、実施の形態2における画像表示装置の表示画面及び表示画像の関係例を示す説明図である。図6においては、例えば、ダブルチューナ搭載型テレビにおける表示画像22及び表示画面24を示す。ここで、テレビのディスプレイ全体の画面を表示画面24と呼び、表示画面24の大きさを画面サイズと呼ぶ。一方、表示画面24内の一部において映像として表示されている画像を表示画像と呼び、表示画像の大きさを表示画像サイズと呼ぶ。
図6に示す例では、画像表示装置2の表示画面24の中に同じ表示画像サイズの表示画像22が2つ並べて表示されている。図6からわかるように、2つの表示画像22の合計サイズは、画像表示装置2の画面サイズの半分である。つまり、1つの表示画像22の縦画素数及び横画素数は、各々、表示画面24の縦画素数及び横画素数の半分である。
実施の形態2に係る画像処理装置は、表示画面24内に表示される表示画像22の表示画像サイズに応じて拡大率を補正する構成をとる。実施の形態2は、実施の形態1と組み合わせて実施することができる。
図7は、実施の形態2に係る画像処理装置の構成例を示すブロック図である。
実施の形態2の画像処理装置70は、制御部10、不揮発性メモリ11、揮発性メモリ12、操作部13、入力部14、データ抽出部15、顔画像抽出部216、拡大率算出部217、画像生成部18、出力部19及び表示画像サイズ検出部20を備えており、各構成部はバス31を介して接続されている。
実施の形態2の画像処理装置70は、制御部10、不揮発性メモリ11、揮発性メモリ12、操作部13、入力部14、データ抽出部15、顔画像抽出部216、拡大率算出部217、画像生成部18、出力部19及び表示画像サイズ検出部20を備えており、各構成部はバス31を介して接続されている。
入力部14は、例えばデジタル放送チューナ、HDドライブ、DVDドライブ、パーソナルコンピュータ、デジタルカメラ等の画像機器から画像データを取得する。画像データは、例えばMPEG−2方式で圧縮符号化されているTSに含まれる圧縮画像データである。入力部14は、画像機器から取得した圧縮画像データをデータ抽出部15に出力する。
データ抽出部15は、入力部14から取得した圧縮画像データを復号すると共に、TSからBML(Broadcast Markup Language)ファイルを取得し、当該BMLファイルを表示画像サイズ検出部20に出力する。BMLとは、XML(Extensible Markup Language)ベースのデータ放送向けのページ記述言語のことであり、BMLファイルとは、BMLで記述されたファイルである。BMLファイルには、画像表示装置2の表示画面24に表示される表示画像22の表示画像サイズ、すなわち表示画像の総画素数、縦画素数及び横画素数が記述されている。ここで、表示画像サイズとは、画像の縮小に係わる情報である。
顔画像抽出部216は、データ抽出部15から画像データを取得し、当該画像データに対応する画像の中から顔画像を抽出し、抽出した顔画像の総画素数を求める。顔画像の抽出処理は、公知の顔認識技術又はオブジェクト抽出技術を利用することができる。顔画像抽出部216は、抽出した顔画像の総画素数、抽出された顔画像の基準点座標及び顔画像が矩形に収まるように切り出す際の縦画素数及び横画素数を制御部10に出力する。
データ抽出部15は、入力部14から取得した圧縮画像データを復号すると共に、TSからBML(Broadcast Markup Language)ファイルを取得し、当該BMLファイルを表示画像サイズ検出部20に出力する。BMLとは、XML(Extensible Markup Language)ベースのデータ放送向けのページ記述言語のことであり、BMLファイルとは、BMLで記述されたファイルである。BMLファイルには、画像表示装置2の表示画面24に表示される表示画像22の表示画像サイズ、すなわち表示画像の総画素数、縦画素数及び横画素数が記述されている。ここで、表示画像サイズとは、画像の縮小に係わる情報である。
顔画像抽出部216は、データ抽出部15から画像データを取得し、当該画像データに対応する画像の中から顔画像を抽出し、抽出した顔画像の総画素数を求める。顔画像の抽出処理は、公知の顔認識技術又はオブジェクト抽出技術を利用することができる。顔画像抽出部216は、抽出した顔画像の総画素数、抽出された顔画像の基準点座標及び顔画像が矩形に収まるように切り出す際の縦画素数及び横画素数を制御部10に出力する。
制御部10は、以下の通り、顔画像に対して拡大処理を施すか否かを判定する。
制御部10は、データ抽出部15から表示画像の総画素数を取得する。また、制御部10は、顔画像抽出部216から顔画像の総画素数を取得する。さらに、制御部10は、不揮発性メモリ11から閾値(THp)を読み出す。制御部10は、不揮発性メモリ11から読み出した閾値を参照して顔画像に対して拡大処理を施すか否かを判定する。
具体的には、制御部10は、表示画像の総画素数及び顔画像の総画素数の比率(表示画像の総画素数/顔画像の総画素数)を閾値と比較し、表示画像の総画素数及び顔画像の総画素数の比率が閾値以上である場合には、顔画像に対して拡大処理を施すと判定する。これに対して、表示画像の総画素数及び顔画像の総画素数の比率が閾値(THp)未満である場合には、制御部10は、顔画像に対して拡大処理を施さないと判定する。
制御部10は、データ抽出部15から表示画像の総画素数を取得する。また、制御部10は、顔画像抽出部216から顔画像の総画素数を取得する。さらに、制御部10は、不揮発性メモリ11から閾値(THp)を読み出す。制御部10は、不揮発性メモリ11から読み出した閾値を参照して顔画像に対して拡大処理を施すか否かを判定する。
具体的には、制御部10は、表示画像の総画素数及び顔画像の総画素数の比率(表示画像の総画素数/顔画像の総画素数)を閾値と比較し、表示画像の総画素数及び顔画像の総画素数の比率が閾値以上である場合には、顔画像に対して拡大処理を施すと判定する。これに対して、表示画像の総画素数及び顔画像の総画素数の比率が閾値(THp)未満である場合には、制御部10は、顔画像に対して拡大処理を施さないと判定する。
制御部10は、顔画像に拡大処理を施すと判定した場合、表示画像の総画素数、縦画素数及び横画素数、顔画像の総画素数、縦画素数及び横画素数、並びに、顔画像の基準点座標を拡大率算出部217に出力する。また、制御部10が顔画像に拡大処理を施すと判定した場合、データ抽出部15は、顔画像データを画像生成部18に出力する。これに対して、制御部10が顔画像に拡大処理を施さないと判定した場合、データ抽出部15は、直接、画像データを出力部19に出力する。さらに、制御部10は、顔画像の拡大処理を施すか否かの判定結果を出力部19に出力する。
拡大率算出部217は、制御部10から取得した顔画像の総画素数及び表示画像サイズ検出部20から取得した表示画像の総画素数に基づいて、顔画像の拡大率(AR_Face)を算出する。顔画像の拡大率(AR_Face)は式(4)によって算出される。
AR_Face=α×(T_pix/P_pix) (4)
ただし、
α:任意の定数である。
T_pix:表示画像の総画素数(BMLファイルに記述された画素数)
P_pix:顔画像の総画素数
である。
AR_Face=α×(T_pix/P_pix) (4)
ただし、
α:任意の定数である。
T_pix:表示画像の総画素数(BMLファイルに記述された画素数)
P_pix:顔画像の総画素数
である。
表示画像サイズ検出部20は、不揮発性メモリ11から画像表示装置2の表示画面の画面サイズ、すなわち、表示画面の縦画素数及び横画素数を読み込む。画像表示装置2の画面サイズは、予め不揮発性メモリ11に記憶されている。ここで、画像表示装置2の画面サイズは、例えば操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更できるものとする。こうして変更された画面サイズは、不揮発性メモリ11に記憶される。
次いで、表示画像サイズ検出部20は、BMLファイルから表示画像サイズ、すなわち、表示画像の縦画素数及び横画素数を読み込む。表示画像サイズ検出部20は、画像表示装置2の画面サイズ及び表示画像サイズに基づいて、サイズ補正比率(S_ratio)を算出する。サイズ補正比率(S_ratio)は、式(5)によって算出される。
次いで、表示画像サイズ検出部20は、BMLファイルから表示画像サイズ、すなわち、表示画像の縦画素数及び横画素数を読み込む。表示画像サイズ検出部20は、画像表示装置2の画面サイズ及び表示画像サイズに基づいて、サイズ補正比率(S_ratio)を算出する。サイズ補正比率(S_ratio)は、式(5)によって算出される。
S_ratio={(Px_max2 +Py_max2 )/(Px2 +Py2 )}0.5 (5)
ただし、
Px:表示画像の横画素数
Py:表示画像の縦画素数
Px_max:画像表示装置2の表示画面の横画素数
Py_max:画像表示装置2の表示画面の縦画素数
ただし、
Px:表示画像の横画素数
Py:表示画像の縦画素数
Px_max:画像表示装置2の表示画面の横画素数
Py_max:画像表示装置2の表示画面の縦画素数
例えば、表示画像サイズが960×540(画素)、画像表示装置2の画面サイズが1920×1080(画素)である場合、サイズ補正比率(S_ratio)=2となる。表示画像サイズ検出部20は、算出したサイズ補正比率(S_ratio)を拡大率算出部217に出力する。
拡大率算出部217は、表示画像サイズ検出部20からサイズ補正比率(S_ratio)を取得し、前述した拡大率(AR_Face)を補正する。例えば、拡大率算出部217は、上記式(4)によって算出した拡大率にサイズ補正比率(S_ratio)を乗算する。すなわち、上記式(4)によって算出された拡大率は、式(6)のように変更される。
AR_Face=S_ratio×α×(T_pix/P_pix) (6)
αの初期設定値は、例えば0.01であるが、その値に限らないことはいうまでもない。ここで、BMLファイルに記述されている表示画像サイズ(T_pix)が960×540(画素)である場合、表示画像22の総画素数は518400となる。また、顔画像の総画素数(P_pix)は、表示画像サイズ(T_pix)が960×540(画素)である場合の顔画像の画素数となる。
AR_Face=S_ratio×α×(T_pix/P_pix) (6)
αの初期設定値は、例えば0.01であるが、その値に限らないことはいうまでもない。ここで、BMLファイルに記述されている表示画像サイズ(T_pix)が960×540(画素)である場合、表示画像22の総画素数は518400となる。また、顔画像の総画素数(P_pix)は、表示画像サイズ(T_pix)が960×540(画素)である場合の顔画像の画素数となる。
実施の形態2では、上記式(4)によって算出された拡大率(AR_Face)を補正するためにサイズ補正比率(S_ratio)を利用しているが、サイズ補正比率(S_ratio)をそのまま拡大率と利用してもよい。すなわち、
AR_face=S_ratio (7)
としてもよい。
また、実施の形態1と同様に、上記式(6)又は上記式(7)にて算出された拡大率(AR_face)をさらに上記式(2)及び上記式(3)を用いて補正してもよい。
AR_face=S_ratio (7)
としてもよい。
また、実施の形態1と同様に、上記式(6)又は上記式(7)にて算出された拡大率(AR_face)をさらに上記式(2)及び上記式(3)を用いて補正してもよい。
拡大率算出部217は、上記式(6)又は上記式(7)にて算出された拡大率を画像生成部18に出力する。
画像生成部18は、拡大率算出部217から取得した拡大率(AR_Face)にしたがって顔画像を拡大処理し、拡大顔画像を生成する。次いで、画像生成部18は、拡大顔画像及びデータ抽出部15から取得した表示画像22を合成して合成画像データを生成し、出力部19に出力する。拡大処理の方法は、実施の形態1と同様である。
出力部19は、顔画像の拡大処理を施すか否かの判定結果を制御部10から取得する。出力部19は、顔画像の拡大処理が行われた場合には、画像生成部18から取得した合成画像データを画像表示装置2に出力し、顔画像の拡大処理が行われなかった場合には、データ抽出部15から取得した画像データを画像表示装置2に出力する。
画像表示装置2は、例えば液晶パネル、有機ELディスプレイ、プラズマディスプレイ等の表示画面を備え、出力部19から取得した画像データに基づいて画像を表示画面に表示する。
画像生成部18は、拡大率算出部217から取得した拡大率(AR_Face)にしたがって顔画像を拡大処理し、拡大顔画像を生成する。次いで、画像生成部18は、拡大顔画像及びデータ抽出部15から取得した表示画像22を合成して合成画像データを生成し、出力部19に出力する。拡大処理の方法は、実施の形態1と同様である。
出力部19は、顔画像の拡大処理を施すか否かの判定結果を制御部10から取得する。出力部19は、顔画像の拡大処理が行われた場合には、画像生成部18から取得した合成画像データを画像表示装置2に出力し、顔画像の拡大処理が行われなかった場合には、データ抽出部15から取得した画像データを画像表示装置2に出力する。
画像表示装置2は、例えば液晶パネル、有機ELディスプレイ、プラズマディスプレイ等の表示画面を備え、出力部19から取得した画像データに基づいて画像を表示画面に表示する。
次に、実施の形態2に係る画像処理装置70における画像処理の流れを説明する。
図8は、実施の形態2に係る画像処理装置70の画像処理の流れを示すフローチャートである。
図8は、実施の形態2に係る画像処理装置70の画像処理の流れを示すフローチャートである。
入力部14は、外部から圧縮画像データを取得する(S81)。
データ抽出部15は、入力部14から取得した圧縮画像データを復号すると共に、BMLファイルに記述されている表示画像22の総画素数(T_pix)を抽出し、制御部10及び表示画像サイズ検出部20に出力する(S82)。また、データ抽出部15は、画像データを顔画像抽出部216に出力する。顔画像抽出部216は、データ抽出部15から取得した画像データに対応する画像から顔画像を抽出し、顔画像の総画素数(P_pix)を求め、制御部10に出力する(S83)。
データ抽出部15は、入力部14から取得した圧縮画像データを復号すると共に、BMLファイルに記述されている表示画像22の総画素数(T_pix)を抽出し、制御部10及び表示画像サイズ検出部20に出力する(S82)。また、データ抽出部15は、画像データを顔画像抽出部216に出力する。顔画像抽出部216は、データ抽出部15から取得した画像データに対応する画像から顔画像を抽出し、顔画像の総画素数(P_pix)を求め、制御部10に出力する(S83)。
制御部10は、不揮発性メモリ11から閾値(THp)を読み込み、表示画像の総画素数(T_pix)及び顔画像の総画素数(P_pix)の比率(T_pix/P_pix)を閾値と比較して、顔画像に対して拡大処理を施すか否かを判定する(S84)。具体的には、表示画像の総画素数(T_pix)及び顔画像の総画素数(P_pix)の比率(T_pix/P_pix)が閾値以上である場合には(S84:YES)、制御部10は顔画像に対して拡大処理を施すと判定する。それを受けて、拡大率算出部217は、顔画像の拡大率(AR_Face)を算出する(S85)。次いで、表示画像サイズ検出部20は、サイズ補正比率(S_ratio)を算出する(S87)。
具体的には、表示画像サイズ検出部20は、不揮発性メモリ11から画像表示装置2の表示画面24の画面サイズを読み込み、さらに、BMLファイルから表示画像サイズを読み込む。表示画像サイズ検出部20は、画像表示装置2の表示画面24の画面サイズ及び表示画像サイズを用いて、式(5)にしたがってサイズ補正比率(S_ratio)を算出する。
具体的には、表示画像サイズ検出部20は、不揮発性メモリ11から画像表示装置2の表示画面24の画面サイズを読み込み、さらに、BMLファイルから表示画像サイズを読み込む。表示画像サイズ検出部20は、画像表示装置2の表示画面24の画面サイズ及び表示画像サイズを用いて、式(5)にしたがってサイズ補正比率(S_ratio)を算出する。
拡大率算出部217は、S87にて算出されたサイズ補正比率をS85にて算出された顔画像の拡大率に乗算することによって、S85にて算出された拡大率を補正し(S88)、顔画像を拡大する(S89)。
画像生成部18は、拡大率算出部217から取得した補正後の拡大率(AR_Face)にしたがって顔画像を拡大処理し、拡大顔画像を生成し、拡大顔画像及び表示画像を合成して(S90)、合成画像データを生成し、出力部19に出力し(S91)、処理を終了する。
画像生成部18は、拡大率算出部217から取得した補正後の拡大率(AR_Face)にしたがって顔画像を拡大処理し、拡大顔画像を生成し、拡大顔画像及び表示画像を合成して(S90)、合成画像データを生成し、出力部19に出力し(S91)、処理を終了する。
表示画像22の総画素数(T_pix)及び顔画像の総画素数(P_pix)の比率(T_pix/P_pix)が閾値(THp)未満である場合には(S84:NO)、制御部10は、顔画像に対して拡大処理を施さないと判定する。出力部19は、顔画像に対して拡大処理を施さなかった場合には、データ抽出部15から取得した画像データを画像表示装置2に出力し、処理を終了する。
実施の形態2に係る画像処理装置70によれば、画像表示装置2の表示画面24における表示画像22の表示画像サイズが小さい場合であっても、画像表示装置2の画面サイズ及び表示画像サイズに応じて拡大率を補正することにより、顔画像が拡大された画像を生成することができる。
実施の形態2では、表示画像サイズ検出部20は、画像表示装置2の画面サイズを不揮発性メモリ11から読み込んだ。しかし、表示画像サイズ検出部20は、画像表示装置2の画面サイズを、例えばHDMI規格のDDC(Display Data Channel)信号を介して、画像表示装置2に記憶されているEDID(Extended Display Identification Data)から取得してもよい。EDIDは、例えば画像表示装置2に固有の周波数、画面サイズ、製造メーカ名及び型式等である。
実施の形態2では、サイズ補正比率算出処理の過程で、表示画像サイズ検出部20は、表示画像サイズをBMLファイルから読み込んだ。しかし、表示画像サイズ検出部20は、表示画像サイズを記述したBML、XML、HTML(Hyper Text Markup Language)等のファイルを予め不揮発性メモリ11に記憶したテンプレートファイルに基づいて生成してもよい。そして、生成するBMLファイル等に記述する表示画像サイズをサイズ補正比率算出処理で使用してもよい。このBMLファイル等は、表示画像サイズ検出部20から出力部19を介して画像表示装置2に出力される。ここで、BMLファイル等に記述する表示画像サイズは、操作部13に画面及びキーボードを設け、この設けた画面及びキーボードからテンプレートファイルを編集することにより書き換え可能とする。
なお、表示画像サイズの書き換え手段は画面及びキーボードに限られず、どのような手段を用いてもよい。あるいは、画像表示装置2の画面に表示される画像をカメラ等のセンサでモニタリングすることにより、表示画像サイズを検出する態様であってもよい。更に、画像データをPC等のコンピュータに出力する場合、コンピュータのOSからウィンドウ、アプリケーション画面等の表示画像サイズを取得する態様であってもよい。
なお、表示画像サイズの書き換え手段は画面及びキーボードに限られず、どのような手段を用いてもよい。あるいは、画像表示装置2の画面に表示される画像をカメラ等のセンサでモニタリングすることにより、表示画像サイズを検出する態様であってもよい。更に、画像データをPC等のコンピュータに出力する場合、コンピュータのOSからウィンドウ、アプリケーション画面等の表示画像サイズを取得する態様であってもよい。
実施の形態3
実施の形態3に係る画像処理装置は、視聴者と表示画面との距離に基づいて拡大率を補正する構成をとる。以下、視聴者と画像表示装置の表示画面との間の距離を「視聴距離」と呼ぶ。
実施の形態3に係る画像処理装置は、視聴者と表示画面との距離に基づいて拡大率を補正する構成をとる。以下、視聴者と画像表示装置の表示画面との間の距離を「視聴距離」と呼ぶ。
実施の形態2では、表示画像サイズ及び画面サイズに応じて顔画像の拡大率を補正した。一方、画像表示装置2の画面サイズ及び表示画像サイズが一定であっても、視聴距離に応じて、視聴者からみえる表示画像サイズが変化する。例えば、1920×1080(横画素数×縦画素数)の映像を表示画面24から2mの地点で視聴した場合と、960×540(横画素数×縦画素数)の映像を同一の表示画面24から1mの地点で視聴した場合、表示画像サイズは同じに見える。このことから、実施の形態3では、視聴距離に応じて顔画像の拡大率を補正する。なお、実施の形態3は、実施の形態1及び実施の形態2の形態と組み合わせて実施することができる。
図9は、実施の形態3に係る画像処理装置の構成例を示すブロック図である。
実施の形態3の画像処理装置90は、制御部10、不揮発性メモリ11、揮発性メモリ12、操作部13、入力部14、データ抽出部15、顔画像抽出部316、拡大率算出部317、画像生成部18、出力部19及び視聴距離測定部21を備えており、各構成部はバス31を介して接続されている。
実施の形態3の画像処理装置90は、制御部10、不揮発性メモリ11、揮発性メモリ12、操作部13、入力部14、データ抽出部15、顔画像抽出部316、拡大率算出部317、画像生成部18、出力部19及び視聴距離測定部21を備えており、各構成部はバス31を介して接続されている。
入力部14は、例えばデジタル放送チューナ、HDドライブ、DVDドライブ、パーソナルコンピュータ、デジタルカメラ等の画像機器から画像データを取得する。画像データは、例えばMPEG−2方式で圧縮符号化されたTSに含まれる圧縮画像データである。入力部14は、画像機器から取得した圧縮画像データをデータ抽出部15に出力する。
データ抽出部15は、入力部14から取得した圧縮画像データを復号すると共に、ヘッダ情報を解析し、画像全体(以下、「表示画像」と呼ぶ。)の総画素数、縦画素数及び横画素数を求め、制御部10に出力する。また、データ抽出部15は、復号した画像データを顔画像抽出部316及び画像生成部18、又は出力部19に出力する。
データ抽出部15は、入力部14から取得した圧縮画像データを復号すると共に、ヘッダ情報を解析し、画像全体(以下、「表示画像」と呼ぶ。)の総画素数、縦画素数及び横画素数を求め、制御部10に出力する。また、データ抽出部15は、復号した画像データを顔画像抽出部316及び画像生成部18、又は出力部19に出力する。
顔画像抽出部316は、データ抽出部15から画像データを取得し、当該画像データに対応する画像の中から顔画像を抽出し、抽出した顔画像の総画素数を求める。顔画像の抽出処理は、公知の顔認識技術又はオブジェクト抽出技術を利用することができる。顔画像抽出部316は、抽出した顔画像の総画素数、抽出された顔画像の基準点座標及び顔画像が矩形に収まるように切り出す際の縦画素数及び横画素数を制御部10に出力する。また、顔画像抽出部316は、顔画像に対応する顔画像データを画像生成部18に出力する。
制御部10は、以下の通り、顔画像に対して拡大処理を施すか否かを判定する。
制御部10は、データ抽出部15から表示画像の総画素数を取得する。また、制御部10は、顔画像抽出部316から顔画像の総画素数を取得する。さらに、制御部10は、不揮発性メモリ11から閾値(THp)を読み出す。制御部10は、不揮発性メモリ11から読み出した閾値を参照して顔画像に対して拡大処理を施すか否かを判定する。
具体的には、制御部10は、表示画像の総画素数及び顔画像の総画素数の比率(表示画像の総画素数/顔画像の総画素数)を閾値と比較し、表示画像の総画素数及び顔画像の総画素数の比率が閾値以上である場合には、顔画像に対して拡大処理を施すと判定する。これに対して、表示画像の総画素数及び顔画像の総画素数の比率が閾値未満である場合には、制御部10は、顔画像に対して拡大処理を施さないと判定する。
制御部10は、データ抽出部15から表示画像の総画素数を取得する。また、制御部10は、顔画像抽出部316から顔画像の総画素数を取得する。さらに、制御部10は、不揮発性メモリ11から閾値(THp)を読み出す。制御部10は、不揮発性メモリ11から読み出した閾値を参照して顔画像に対して拡大処理を施すか否かを判定する。
具体的には、制御部10は、表示画像の総画素数及び顔画像の総画素数の比率(表示画像の総画素数/顔画像の総画素数)を閾値と比較し、表示画像の総画素数及び顔画像の総画素数の比率が閾値以上である場合には、顔画像に対して拡大処理を施すと判定する。これに対して、表示画像の総画素数及び顔画像の総画素数の比率が閾値未満である場合には、制御部10は、顔画像に対して拡大処理を施さないと判定する。
制御部10は、顔画像に拡大処理を施すと判定した場合、表示画像の総画素数、縦画素数及び横画素数、顔画像の総画素数、縦画素数及び横画素数、並びに、顔画像の基準点座標を拡大率算出部317に出力する。また、制御部10が顔画像に拡大処理を施すと判定した場合、データ抽出部15は、顔画像データを画像生成部18に出力する。これに対して、制御部10が顔画像に拡大処理を施さないと判定した場合、データ抽出部15は、直接、画像データを出力部19に出力する。さらに、制御部10は、顔画像の拡大処理を施すか否かの判定結果を出力部19に出力する。
拡大率算出部317は、制御部10から取得した顔画像の総画素数及び表示画像サイズ検出部20から取得した表示画像の総画素数に基づいて顔画像の拡大率(AR_Face)を算出する。顔画像の拡大率(AR_Face)は式(8)によって算出される。
AR_Face=α×(T_pix/P_pix) (8)
ただし、
α:任意の定数である。
T_pix:表示画像の画素数
P_pix:顔画像の画素数
AR_Face=α×(T_pix/P_pix) (8)
ただし、
α:任意の定数である。
T_pix:表示画像の画素数
P_pix:顔画像の画素数
視聴距離測定部21は、視聴距離(D_curr)を測定し、測定した視聴距離に基づいて、上記式(8)で算出された拡大率に対する補正比率を拡大率算出部317へ出力する。視聴距離の測定方法としては、例えば、画像表示装置2に超音波を送信する送信機と超音波を受信する受信機とを設置し、視聴者に超音波が当たり、反射して戻ってくるまでの時間に基づいて視聴距離を測定する方法、三角測量の原理から視聴距離を測定する方法、又は赤外線を利用して視聴距離を測定する方法等があるが、他の測定方法であってもよい。
視聴距離測定部21は、基準視聴距離(D_base)及び上記の方法で測定した視聴距離(D_curr)の距離比率(D_ratio)を式(9)によって算出する。
D_ratio=D_curr/D_base (9)
視聴距離測定部21は、基準視聴距離(D_base)及び上記の方法で測定した視聴距離(D_curr)の距離比率(D_ratio)を式(9)によって算出する。
D_ratio=D_curr/D_base (9)
ここで、基準視聴距離(D_base)は、初期設定値として、画面両端を見込む視角が30度になることから決められたハイビジョン放送の標準観視距離である3Hに設定する。Hは、画像表示装置2の表示画面24の縦寸法である。6:9のハイビジョン放送の場合、標準的な視聴距離は画面の縦寸法の3倍(3H)といわれている。なお、基準視聴距離(D_base)の初期設定値は、例示に過ぎず、3Hに限るものではない。基準視聴距離(D_base)は、予め不揮発性メモリ11に記憶されている。ただし、基準視聴距離(D_base)は、例えば操作部13にGUIで示されるスライドバーを設け、スライドバーで設定された値に適宜変更できるものとする。こうして変更された基準視聴距離(D_base)は、不揮発性メモリ11に記憶される。
視聴距離測定部21は、算出した距離比率(D_ratio)を拡大率算出部317に出力する。
拡大率算出部317は、視聴距離測定部21から距離比率(D_ratio)を取得し、実施の形態1から実施の形態3のいずれかで算出された拡大率(AR_face)を補正する。例えば、拡大率算出部317は、上記式(8)によって算出した拡大率に距離比率(D_ratio)を乗算する。すなわち、上記式(8)によって算出された拡大率は、式(10)のように変更される。
拡大率算出部317は、視聴距離測定部21から距離比率(D_ratio)を取得し、実施の形態1から実施の形態3のいずれかで算出された拡大率(AR_face)を補正する。例えば、拡大率算出部317は、上記式(8)によって算出した拡大率に距離比率(D_ratio)を乗算する。すなわち、上記式(8)によって算出された拡大率は、式(10)のように変更される。
AR_face=D_ratio×α×(T_pix/P_pix) (10)
また、実施の形態2における上記式(6)及び上記式(7)は、式(11)及び式(12)のように変更される。
AR_face=S_ratio×D_ratio×α×(T_pix/P_pix) (11)
AR_face=S_ratio×D_ratio (12)
拡大率算出部317は、上記式(10)から上記式(12)のいずれかの式によって補正された拡大率(AR_face)を画像生成部18に出力する。
また、実施の形態2における上記式(6)及び上記式(7)は、式(11)及び式(12)のように変更される。
AR_face=S_ratio×D_ratio×α×(T_pix/P_pix) (11)
AR_face=S_ratio×D_ratio (12)
拡大率算出部317は、上記式(10)から上記式(12)のいずれかの式によって補正された拡大率(AR_face)を画像生成部18に出力する。
次に、実施の形態3に係る画像処理装置90における画像処理の流れを説明する。
図10は、実施の形態3に係る画像処理装置90の画像処理の流れを示すフローチャートである。
図10は、実施の形態3に係る画像処理装置90の画像処理の流れを示すフローチャートである。
入力部14は、外部から圧縮画像データを取得する(S101)。
データ抽出部15は、入力部14から取得した圧縮画像データを復号すると共に、ヘッダ情報を解析し、表示画像22の総画素数(T_pix)を抽出し、制御部10に出力する(S102)。また、データ抽出部15は、画像データを顔画像抽出部316に出力する。
顔画像抽出部316は、データ抽出部15から取得した画像データに対応する画像から顔画像を抽出し、顔画像の総画素数(P_pix)を求め、制御部10に出力する(S103)。
データ抽出部15は、入力部14から取得した圧縮画像データを復号すると共に、ヘッダ情報を解析し、表示画像22の総画素数(T_pix)を抽出し、制御部10に出力する(S102)。また、データ抽出部15は、画像データを顔画像抽出部316に出力する。
顔画像抽出部316は、データ抽出部15から取得した画像データに対応する画像から顔画像を抽出し、顔画像の総画素数(P_pix)を求め、制御部10に出力する(S103)。
制御部10は、不揮発性メモリ11から閾値(THp)を読み込み、表示画像の総画素数(T_pix)及び顔画像の総画素数(P_pix)の比率(T_pix/P_pix)を閾値と比較して、顔画像に対して拡大処理を施すか否かを判定する(S104)。具体的には、表示画像の総画素数(T_pix)及び顔画像の総画素数(P_pix)の比率(T_pix/P_pix)が閾値以上である場合には(S104:YES)、制御部10は顔画像に対して拡大処理を施すと判定する。それを受けて、拡大率算出部317は、顔画像の拡大率(AR_Face)を算出する(S105)。次いで、拡大率算出部317は、距離比率(D_ratio)を算出する(S107)。
拡大率算出部317は、S107に算出された距離比率をS105にて算出された顔画像の拡大率に乗算することによって、S105にて算出された拡大率を補正し(S108)、顔画像を拡大する(S109)。
拡大率算出部317は、S107に算出された距離比率をS105にて算出された顔画像の拡大率に乗算することによって、S105にて算出された拡大率を補正し(S108)、顔画像を拡大する(S109)。
画像生成部18は、拡大率算出部317から取得した補正後の拡大率(AR_Face)にしたがって顔画像を拡大処理し、拡大顔画像を生成し、拡大顔画像及び表示画像を合成して(S110)、合成画像データを生成し、出力部19に出力し(S111)、処理を終了する。
表示画像22の総画素数(T_pix)及び顔画像の総画素数(P_pix)の比率(T_pix/P_pix)が閾値(THp)未満である場合には(S104:NO)、制御部10は、顔画像に対して拡大処理を施さないと判定する。出力部19は、顔画像に対して拡大処理を施さなかった場合には、データ抽出部15から取得した画像データを画像表示装置2に出力し、処理を終了する。
画像表示装置2は、例えば液晶パネル、有機ELディスプレイ、プラズマディスプレイ等の表示画面24を備え、出力部19から取得した画像データに基づいて画像を表示画面24に表示する。
画像表示装置2は、例えば液晶パネル、有機ELディスプレイ、プラズマディスプレイ等の表示画面24を備え、出力部19から取得した画像データに基づいて画像を表示画面24に表示する。
実施の形態3では、視聴距離測定部21は、基準視聴距離(D_base)を不揮発性メモリ11から読み込んだ。しかし、視聴距離測定部21は、基準視聴距離(D_base)を表示画面24の縦画素数Iから、式(13)により算出してもよい。
D_base=3240×H/I (13)
表示画面24の縦画素数Iは、例えばHDMI規格のDDC信号を介して、画像表示装置2に記憶されているEDIDから取得できる。
D_base=3240×H/I (13)
表示画面24の縦画素数Iは、例えばHDMI規格のDDC信号を介して、画像表示装置2に記憶されているEDIDから取得できる。
実施の形態3は以上の如き構成にしてあり、その他の構成及び作用は実施の形態1と同様であるので、対応する部分には同一の参照番号を付してその詳細な説明を省略する。
実施の形態3に係る画像処理装置90によれば、視聴距離が長いために表示画像サイズが小さく見える場合であっても、視聴距離に応じて拡大率を補正することにより、顔画像が拡大された画像を生成できる。
実施の形態3に係る画像処理装置90によれば、視聴距離が長いために表示画像サイズが小さく見える場合であっても、視聴距離に応じて拡大率を補正することにより、顔画像が拡大された画像を生成できる。
実施の形態2及び実施の形態3の構成を組み合わせた画像処理装置によれば、表示画像サイズ及び視聴距離に応じて拡大率を補正することにより、視聴条件が悪い場合であっても顔画像に対して拡大処理を自動的に施すため、拡大顔画像から個人を特定するための情報、感情情報、読唇による情報等の有用な情報を得ることができる。
実施の形態1〜3で示した3つの形態を組み合わせた形態を採用することも可能である。これにより、より多様な拡大処理が施された画像を提供することができる。
実施の形態1〜3においては、画像処理装置を単体として実施する場合について説明した。しかし、実施の形態1〜3に係る画像処理装置は、画像表示装置2に組み込まれた形態としても実施可能である。かかる場合の画像表示装置2は、例えばテレビ、携帯電話機、ゲーム機、マルチメディアプレーヤー、パーソナルコンピュータ、PDA(Personal Digital Assistant)、プロジェクタ及びカーナビゲーションシステム等の画面を備えた機器である。
実施の形態1〜3においては、閾値(THp)、α、画面サイズ及び基準視聴距離(D_base)を、操作部13に設けたGUIによるスライドバーにより、適宜、変更でき又は設定できるようにした。しかし、上記設定値を変更又は設定する手段は、GUIによるスライドバーに限定されないことはいうまでもない。
実施の形態1〜3においては、画像処理装置を単体として実施する場合について説明した。しかし、実施の形態1〜3に係る画像処理装置は、画像表示装置2に組み込まれた形態としても実施可能である。かかる場合の画像表示装置2は、例えばテレビ、携帯電話機、ゲーム機、マルチメディアプレーヤー、パーソナルコンピュータ、PDA(Personal Digital Assistant)、プロジェクタ及びカーナビゲーションシステム等の画面を備えた機器である。
実施の形態1〜3においては、閾値(THp)、α、画面サイズ及び基準視聴距離(D_base)を、操作部13に設けたGUIによるスライドバーにより、適宜、変更でき又は設定できるようにした。しかし、上記設定値を変更又は設定する手段は、GUIによるスライドバーに限定されないことはいうまでもない。
さて、ユーザは、画像表示装置を用いて映像を鑑賞するにあたり、予め、顔画像に対する拡大処理を有効にするか否か、拡大処理を有効にした場合にいかなる基準にしたがって顔画像を拡大するか等の設定を行う必要がある。その設定を行うためのメニュー画面の一例を以下に説明する。このメニュー画面は、例えば、画像表示装置2のディスプレイに表示され、その設定は、例えばユーザがリモートコントローラを操作して行う。
図11〜図15は、画像表示装置のディスプレイに表示されるメニュー画面の表示の流れを示す説明図である。顔画像に対する拡大処理を有効にするか否か、いかなる基準にしたがって顔画像を拡大するか等は、このメニュー画面への設定によって行われる。
図11は、拡大処理の対象を表示する画面例を示す説明図である。この段階では、メニュー画面は表示されない。この後、ユーザがリモートコントローラのメニューボタン及びその他の切り替えボタンを順次押下することにより、それに応じてメニュー画面が切り替わっていく。
図11は、拡大処理の対象を表示する画面例を示す説明図である。この段階では、メニュー画面は表示されない。この後、ユーザがリモートコントローラのメニューボタン及びその他の切り替えボタンを順次押下することにより、それに応じてメニュー画面が切り替わっていく。
図12は、図11に示す表示画面24の上部に第1のメニュー画面が表示されている状態の画面例を示す説明図である。第1のメニュー画面には、「本体設定」、「機能設定」、「省エネ設定」、「その他」の項目が含まれている。ここでは、顔画像の拡大処理機能に関わる設定を行うことができる「機能設定」の項目が選択されたものとする。
図13は、図12に示す第1のメニュー画面において「機能設定」が選択されると新たに表示される第2のメニュー画面の画面例を示す説明図である。第2のメニュー画面には、「振動効果モード」、「手ぶれ補正モード」、「顔デフォルメモード」、「その他設定」の項目が含まれる。ここで、ユーザは顔画像の拡大処理を有効にするためには「顔デフォルメモード」を選択する。
図14は、図13に示す第2のメニュー画面において「顔デフォルメモード」が選択されると新たに表示される第3のメニュー画面の画面例を示す説明図である。第3のメニュー画面には、顔デフォルメモードの「ON/OFF」項目、ON選択時にユーザに「詳細設定」を促す項目が表示される。
図15は、図14にて示す第3のメニュー画面で詳細設定が選択されると新たに表示される第4のメニュー画面の画面例を示す説明図である。第4のメニュー画面には、「拡大率パラメータ」、「画面サイズパラメータ」、「視聴距離パラメータ」が含まれる。このうち「拡大率パラメータ」、「画面サイズパラメータ」及び「視聴距離パラメータ」の大きさは0〜100までの値であり、それらの値はスライドバーで調整できる。拡大率パラメータは式(1)におけるαに該当し、画面サイズパラメータは画像表示装置2の画面サイズに該当し、視聴距離パラメータは基準視聴距離に該当する。
実施の形態4
図16は、実施の形態4に係わる顔画像拡大処理を説明する説明図である。
実施の形態4では、上述の実施形態とは異なり、画像から抽出した顔画像を縮小して縮小顔画像を生成する一方、当該画像を縮小した画像に当該縮小画像を合成することにより結果的に顔画像を拡大する。以下は、例えば、小型の携帯電話の制御部が実行する処理を示す。例えば、制御部は、入力画像400を50パーセント縮小(縮小率0.5)した画像401を得る一方、入力画像400から顔画像403を抽出する。ここで、画像401は、携帯電話の表示画面に表示される画像に対応する。制御部は、顔画像403を90パーセント縮小(縮小率0.9)して縮小顔画像405を得る。制御部は、画像401及び縮小顔画像405を合成して出力画像402を得る。
これを一般的に述べると、入力画像400から画像401への縮小率をfとすると、入力画像400から抽出した顔画像の縮小率は、拡大率(AR_face)×fとすればよい。例えば、fが0.5の場合、拡大率(AR_face)を1.2とすれば、顔画像403の縮小率は0.6になり、顔画像は結果的に拡大する。
図16は、実施の形態4に係わる顔画像拡大処理を説明する説明図である。
実施の形態4では、上述の実施形態とは異なり、画像から抽出した顔画像を縮小して縮小顔画像を生成する一方、当該画像を縮小した画像に当該縮小画像を合成することにより結果的に顔画像を拡大する。以下は、例えば、小型の携帯電話の制御部が実行する処理を示す。例えば、制御部は、入力画像400を50パーセント縮小(縮小率0.5)した画像401を得る一方、入力画像400から顔画像403を抽出する。ここで、画像401は、携帯電話の表示画面に表示される画像に対応する。制御部は、顔画像403を90パーセント縮小(縮小率0.9)して縮小顔画像405を得る。制御部は、画像401及び縮小顔画像405を合成して出力画像402を得る。
これを一般的に述べると、入力画像400から画像401への縮小率をfとすると、入力画像400から抽出した顔画像の縮小率は、拡大率(AR_face)×fとすればよい。例えば、fが0.5の場合、拡大率(AR_face)を1.2とすれば、顔画像403の縮小率は0.6になり、顔画像は結果的に拡大する。
図17は、実施の形態4に係わる画像処理の流れを示すフローチャートである。
制御部は、画像を取得する(S501)。制御部は、表示画像サイズ/画素数を取得する(S502)。制御部は、画像から顔画像を抽出する(S503)。制御部は、画像縮小率を算出する(S504)。制御部は、上記の式(1)により顔画像の相対的拡大率(仮の拡大率)を算出する(S505)。制御部は、相対的拡大率の補正の必要があるか否かを判定し(S506)、必要がある場合には(S506:YES)、S507の処理に進み、必要がない場合には(S506:NO)、S508の処理に進む。制御部は、上記の式(2)及び(3)にしたがって相対的な拡大率を補正する(S507)。制御部は、相対的拡大率に画像縮小率を乗算して顔画像の縮小率を算出する(S508)。制御部は、画像縮小率により画像を縮小する(S509)。制御部は、顔画像縮小率により顔画像を縮小する(S510)。制御部は、縮小画像と縮小顔画像を合成する(S511)。制御部は、合成画像を出力する(S512)。
制御部は、画像を取得する(S501)。制御部は、表示画像サイズ/画素数を取得する(S502)。制御部は、画像から顔画像を抽出する(S503)。制御部は、画像縮小率を算出する(S504)。制御部は、上記の式(1)により顔画像の相対的拡大率(仮の拡大率)を算出する(S505)。制御部は、相対的拡大率の補正の必要があるか否かを判定し(S506)、必要がある場合には(S506:YES)、S507の処理に進み、必要がない場合には(S506:NO)、S508の処理に進む。制御部は、上記の式(2)及び(3)にしたがって相対的な拡大率を補正する(S507)。制御部は、相対的拡大率に画像縮小率を乗算して顔画像の縮小率を算出する(S508)。制御部は、画像縮小率により画像を縮小する(S509)。制御部は、顔画像縮小率により顔画像を縮小する(S510)。制御部は、縮小画像と縮小顔画像を合成する(S511)。制御部は、合成画像を出力する(S512)。
実施の形態5
図18は、実施の形態5に係る画像処理装置においてプログラムの実行に関わる構成例を示すブロック図である。
実施の形態5において、例えば画像処理装置1は、不揮発性メモリ101、内部記憶装置103及び記録媒体読込部104を備える。CPU100は、記録媒体読込部104に挿入されたCD−ROM又はDVD−ROM等の記録媒体230から、実施の形態1〜4に係わるプログラム231を読み込んで不揮発性メモリ101又は内部記憶装置103に記憶するようにしてある。CPU100は、不揮発性メモリ101又は内部記憶装置103に記憶したプログラム231を揮発性メモリ102に読み出して実行する構成となっている。画像処理装置70、90も同様な構成をとる。
図18は、実施の形態5に係る画像処理装置においてプログラムの実行に関わる構成例を示すブロック図である。
実施の形態5において、例えば画像処理装置1は、不揮発性メモリ101、内部記憶装置103及び記録媒体読込部104を備える。CPU100は、記録媒体読込部104に挿入されたCD−ROM又はDVD−ROM等の記録媒体230から、実施の形態1〜4に係わるプログラム231を読み込んで不揮発性メモリ101又は内部記憶装置103に記憶するようにしてある。CPU100は、不揮発性メモリ101又は内部記憶装置103に記憶したプログラム231を揮発性メモリ102に読み出して実行する構成となっている。画像処理装置70、90も同様な構成をとる。
本発明に係るプログラム231は、記録媒体230から読み出して不揮発性メモリ101又は内部記憶装置103に記憶される場合に限るものではなく、メモリカード等の外部メモリに記憶させても良い。この場合、CPU100に接続される外部メモリ(図示せず)からプログラム231を読み出して不揮発性メモリ101又は内部記憶装置103に記憶させる。さらにCPU100に接続された通信部(図示せず)と外部のコンピュータとの間で通信を確立し、プログラム231を不揮発性メモリ101又は内部記憶装置103へダウンロードしても良い。
(変形例1)
上述の実施の形態では、画面上に顔画像が1つ表示されている場合の例を示したが、複数の人物が画面に同時に表示されている場合には、例えば以下に述べるような拡大処理を実行する。
(1)人物の数にかかわらず全ての人物の顔画像に対して拡大処理を行う。
(2)複数の人物の顔画像に対してそれぞれ優先度を設定し、優先度に応じて顔画像に対する拡大率を変える。すなわち、優先度がより高い顔画像に対してはより大きな拡大率を設定する。例えば、優先度が一番高い人物の顔画像の拡大率は2倍にし、次に優先度が高い人物の顔画像の拡大率は1.5倍にするように制御してもよい。
上述の実施の形態では、画面上に顔画像が1つ表示されている場合の例を示したが、複数の人物が画面に同時に表示されている場合には、例えば以下に述べるような拡大処理を実行する。
(1)人物の数にかかわらず全ての人物の顔画像に対して拡大処理を行う。
(2)複数の人物の顔画像に対してそれぞれ優先度を設定し、優先度に応じて顔画像に対する拡大率を変える。すなわち、優先度がより高い顔画像に対してはより大きな拡大率を設定する。例えば、優先度が一番高い人物の顔画像の拡大率は2倍にし、次に優先度が高い人物の顔画像の拡大率は1.5倍にするように制御してもよい。
上記(1)の方法に関しては、単純な処理ではあるが、顔同士が近い場合、顔画像を拡大した場合に顔画像が重なることがあり、見る者に違和感を与えるおそれがある。これに対して、上記(2)の方法によれば、優先度の高い少人数の顔画像に対してのみ拡大処理を施すため、(1)の方法で問題となり得る拡大顔画像の重なりはある程度回避できる。特に、最も優先度の高い顔画像を1つだけ拡大した場合、重なりの問題は解消する。
また、優先度を利用するのではなく、例えば、画面の中央に映っている人物の顔画像を一律に拡大するように制御をしてもよい。画面の中央に映っている人物は、一般的にしゃべっている可能性が高いからである。
また、拡大する顔画像の個数(2個以上)又は優先度の閾値を上記の実施の形態にあるようなGUIなどで設定できる仕組みにしてもよい。
ただ、たとえ拡大する顔画像の個数をある程度に制限したとしても「拡大顔画像」と「未拡大顔画像」が重なることはあり得る。それに対しては、顔画像の重なり判定処理を更に実行し、重なっている顔画像の拡大率をそれぞれ調整して顔画像が重ならないようにする制御を行ってもよい。顔画像の重なり判定処理は、上記(1)、(2)のどちらに対しても有効である。また、顔画像の重なりを許容する場合には、優先度の低い顔画像の上に優先度の高い画像を重ねて表示してもよい。
また、優先度を利用するのではなく、例えば、画面の中央に映っている人物の顔画像を一律に拡大するように制御をしてもよい。画面の中央に映っている人物は、一般的にしゃべっている可能性が高いからである。
また、拡大する顔画像の個数(2個以上)又は優先度の閾値を上記の実施の形態にあるようなGUIなどで設定できる仕組みにしてもよい。
ただ、たとえ拡大する顔画像の個数をある程度に制限したとしても「拡大顔画像」と「未拡大顔画像」が重なることはあり得る。それに対しては、顔画像の重なり判定処理を更に実行し、重なっている顔画像の拡大率をそれぞれ調整して顔画像が重ならないようにする制御を行ってもよい。顔画像の重なり判定処理は、上記(1)、(2)のどちらに対しても有効である。また、顔画像の重なりを許容する場合には、優先度の低い顔画像の上に優先度の高い画像を重ねて表示してもよい。
優先度の設定をするにあたっては、例えば、顔認識により得られる情報(個人認識、感情理解、読唇など)の内の読唇に着目して行う。すなわち、顔画像の口領域に着目して、その口領域が動いている人物の顔画像に対しては優先的に顔画像を拡大する。口領域が動いている場合、その人物はしゃべっている可能性が高いからである。
また、優先度の他の設定方法としては、音の位置情報(音データによる話者の位置情報)を利用し、優先度を設定する方法がある。これは、音が聞こえてくる方向に映っている人物に着目し、その人物の顔画像を優先的に拡大する方法であり、上記の方法と同様に、しゃべっている人物を検出し、その人物の顔画像を拡大する方法である。
例えば、ステレオで音が出力される場合、左右チャネルの音圧差(音の大きさの差)をもとに音が提示される位置が変わって聞こえる。左右の大きさが等しい場合、音は真ん中から聞こえる。右チャネルの音が大きい場合、右にずれて聞こえる。この位置情報と顔画像の位置データを基に優先度を設定する。音の提示位置に関しては、上記では2chステレオにおける音圧パンニングと呼ばれる手法を例に説明したが、チャネル数又は音源位置提示手法に関しては、この限りではない。また、この場合、データ抽出部にて、音データを抽出する工程を加える必要がある。
また、優先度の他の設定方法としては、音の位置情報(音データによる話者の位置情報)を利用し、優先度を設定する方法がある。これは、音が聞こえてくる方向に映っている人物に着目し、その人物の顔画像を優先的に拡大する方法であり、上記の方法と同様に、しゃべっている人物を検出し、その人物の顔画像を拡大する方法である。
例えば、ステレオで音が出力される場合、左右チャネルの音圧差(音の大きさの差)をもとに音が提示される位置が変わって聞こえる。左右の大きさが等しい場合、音は真ん中から聞こえる。右チャネルの音が大きい場合、右にずれて聞こえる。この位置情報と顔画像の位置データを基に優先度を設定する。音の提示位置に関しては、上記では2chステレオにおける音圧パンニングと呼ばれる手法を例に説明したが、チャネル数又は音源位置提示手法に関しては、この限りではない。また、この場合、データ抽出部にて、音データを抽出する工程を加える必要がある。
(変形例2)
上記変形例1とも関連するが、しゃべっているか否かに関係なくユーザの好みに応じて特定の人物の顔画像のみを拡大する機能をもたせてもよい。例えば、ユーザがお気に入りのタレントが番組に出演している場合に、そのタレントのみの顔画像を拡大してもよい。例えば、インターネットに接続されている顔画像データベースにアクセスして、そのタレントの顔の特徴量を携帯端末に取り込み、その特徴量を用いて顔認識を行うことによりそのタレントの顔画像を抽出する。
上記変形例1とも関連するが、しゃべっているか否かに関係なくユーザの好みに応じて特定の人物の顔画像のみを拡大する機能をもたせてもよい。例えば、ユーザがお気に入りのタレントが番組に出演している場合に、そのタレントのみの顔画像を拡大してもよい。例えば、インターネットに接続されている顔画像データベースにアクセスして、そのタレントの顔の特徴量を携帯端末に取り込み、その特徴量を用いて顔認識を行うことによりそのタレントの顔画像を抽出する。
(変形例3)
パーソナルコンピュータを用いて映像コンテンツを視聴する際に、パーソナルコンピュータのディスプレイ全面に映像を表示させるのではなく、ディスプレイ内に小サイズの表示画面枠を複数個設け、その中の1つの表示画面枠に映像を表示させて鑑賞しつつ、他の表示画面枠を用いて別の作業を行う場合がある。上記の実施の形態によれば、そのような場合においても、小サイズの表示画面内に映り出されている人物の顔画像を拡大することができる。
パーソナルコンピュータを用いて映像コンテンツを視聴する際に、パーソナルコンピュータのディスプレイ全面に映像を表示させるのではなく、ディスプレイ内に小サイズの表示画面枠を複数個設け、その中の1つの表示画面枠に映像を表示させて鑑賞しつつ、他の表示画面枠を用いて別の作業を行う場合がある。上記の実施の形態によれば、そのような場合においても、小サイズの表示画面内に映り出されている人物の顔画像を拡大することができる。
上述した実施の形態1〜5及び変形例1〜3においては、いずれも顔画像認識技術を用いて顔画像を特定し、当該顔画像を拡大するものであるが、その他の画像認識技術を用いることにより、顔以外の部位を特定し、当該特定した部位に対して拡大又は縮小等の変更を加えることにより当該部位を変形させることが可能であることは言うまでもない。
上述した実施の形態1〜5及び変形例1〜3は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その精神又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
1 画像処理装置
2 画像表示装置
10 制御部
11 不揮発性メモリ
12 揮発性メモリ
13 操作部
14 入力部
15 データ抽出部
16 顔画像抽出部
17 拡大率算出部
18 画像生成部
19 出力部
20 画像表示サイズ検出部
21 視聴距離測定部
31 バス
2 画像表示装置
10 制御部
11 不揮発性メモリ
12 揮発性メモリ
13 操作部
14 入力部
15 データ抽出部
16 顔画像抽出部
17 拡大率算出部
18 画像生成部
19 出力部
20 画像表示サイズ検出部
21 視聴距離測定部
31 バス
本発明の画像処理装置は、画像処理を行う画像処理装置において、画像を取得する画像取得手段と、該画像取得手段により取得された画像に含まれる顔画像を抽出する抽出手段と、該抽出手段により抽出された顔画像内の任意の点を特定する特定手段と、前記画像取得手段により取得された画像の画素数と前記抽出手段により抽出された顔画像の画素数との比率に基づいて、前記特定手段により特定された点を起点に顔画像を所定方向に拡大する拡大手段と、抽出された顔画像を含む領域で、該拡大手段により拡大された顔画像及び前記画像取得手段が取得した画像を合成する手段とを備えることを特徴とする。
本発明の画像処理装置は、画像処理を行う画像処理装置において、画像を取得する画像取得手段と、該画像取得手段により取得された画像に含まれる顔画像を抽出する抽出手段と、該抽出手段により抽出された顔画像内の任意の点を特定する特定手段と、前記画像取得手段により取得された画像を縮小する手段と、画像の縮小に係わる情報を取得する取得手段と、前記画像取得手段により取得された画像の画素数と前記抽出手段により抽出された顔画像の画素数との比率、及び前記取得手段により取得された情報に応じて、前記特定手段により特定された点を起点に顔画像を所定方向に拡大する拡大手段と、抽出された顔画像を含む領域で、該拡大手段が拡大した顔画像及び前記画像取得手段が取得した画像を合成する手段とを備えることを特徴とする。
本発明の画像処理装置は、画像処理を行う画像処理装置において、画像を取得する画像取得手段と、該画像取得手段により取得された画像に含まれる顔画像を抽出する抽出手段と、該抽出手段により抽出された顔画像内の任意の点を特定する特定手段と、外部の物体との距離を測定する距離測定手段と、前記画像取得手段により取得された画像の画素数と前記抽出手段により抽出された顔画像の画素数との比率、及び前記距離測定手段によって測定された距離に応じて、前記特定手段により特定された点を起点に顔画像を所定方向に拡大する拡大手段と、抽出された顔画像を含む領域で、該拡大手段が拡大した顔画像及び前記画像取得手段が取得した画像を合成する手段とを備えることを特徴とする。
本発明の画像処理方法は、画像処理を行う画像処理方法において、画像を取得する画像取得ステップと、該画像取得ステップにて取得した画像に含まれる顔画像を抽出する抽出ステップと、該抽出ステップにて抽出された顔画像内の任意の点を特定する特定ステップと、前記画像取得ステップにて取得した画像の画素数と前記抽出ステップにて抽出した顔画像の画素数との比率に基づいて、前記特定ステップにより特定された点を起点に顔画像を所定方向に拡大する拡大ステップと、抽出された顔画像を含む領域で、該拡大ステップにて拡大した顔画像及び前記画像取得ステップにて取得した画像を合成するステップとを含むことを特徴とする。
本発明の画像処理方法は、画像処理を行う画像処理方法において、画像を取得する画像取得ステップと、該画像取得ステップにて取得した画像に含まれる顔画像を抽出する抽出ステップと、該抽出ステップにより抽出された顔画像内の任意の点を特定する特定ステップと、前記画像取得ステップにて取得した画像を縮小する画像縮小ステップと、画像の縮小に係わる情報を取得する取得ステップと、前記画像取得ステップにて取得した画像の画素数と前記抽出ステップにて抽出した顔画像の画素数の比率、及び前記取得ステップにて取得した情報に応じて、前記特定手段により特定された点を起点に顔画像を所定方向に拡大する拡大ステップと、抽出された顔画像を含む領域で、該拡大ステップにて拡大した顔画像及び前記画像取得ステップにて取得した画像を合成するステップとを含むことを特徴とする。
本発明の画像処理方法は、画像処理を行う画像処理方法において、画像を取得する画像取得ステップと、該画像取得ステップにて取得した画像に含まれる顔画像を抽出する抽出ステップと、該抽出ステップにて抽出された顔画像内の任意の点を特定する特定ステップと、外部の物体との距離を測定する距離測定ステップと、前記画像取得ステップにて取得した画像の画素数と前記抽出ステップにて抽出した顔画像の画素数との比率、及び前記距離測定ステップにて測定された距離に応じて、前記特定ステップにて特定された点を起点に顔画像を所定方向に拡大する拡大ステップと、抽出された顔画像を含む領域で、該拡大ステップにて拡大した顔画像及び前記画像取得ステップにて取得した画像を合成するステップとを含むことを特徴とする。
本発明の画像処理プログラムは、コンピュータに画像処理を行わせる画像処理プログラムにおいて、コンピュータを、顔画像を含む画像から該顔画像を抽出する抽出手段と、該抽出手段により抽出された顔画像内の任意の点を特定する特定手段と、該画像の画素数及び該抽出手段が抽出した顔画像の画素数との比率に基づいて、前記特定手段により特定された点を起点に該顔画像を所定方向に拡大する拡大手段と、抽出された顔画像を含む領域で、該拡大手段により拡大された顔画像及び前記画像を合成する手段として機能させることを特徴とする。
本発明の画像処理プログラムは、コンピュータに画像処理を行わせる画像処理プログラムにおいて、コンピュータを、顔画像を含む画像から該顔画像を抽出する抽出手段と、該抽出手段により抽出された顔画像内の任意の点を特定する特定手段と、画像を縮小する縮小手段と、画像の画素数と前記抽出手段により抽出された顔画像の画素数、及び前記画像の縮小に係わる情報に応じて、前記特定手段により特定された点を起点に顔画像を所定方向に拡大する拡大手段と、抽出された顔画像を含む領域で、該拡大手段により拡大された顔画像及び前記画像を合成する手段として機能させることを特徴とする。
本発明の画像処理プログラムは、コンピュータに画像処理を行わせる画像処理プログラムにおいて、コンピュータを、顔画像を含む画像から該顔画像を抽出する抽出手段と、該抽出手段により抽出された顔画像内の任意の点を特定する特定手段と、画像の画素数と前記抽出手段が抽出した顔画像の画素数との比率、及び外部の物体との距離に応じて、前記特定手段により特定された点を起点に顔画像を所定方向に拡大する拡大手段と、抽出された顔画像を含む領域で、該拡大手段により拡大された顔画像及び前記画像を合成する手段として機能させることを特徴とする。
Claims (13)
- 画像処理を行う画像処理装置において、
画像を取得する画像取得手段と、
該画像取得手段が取得した画像に含まれる顔画像を抽出する抽出手段と、
前記画像取得手段が取得した画像及び前記抽出手段が抽出した顔画像のそれぞれのサイズに応じて該顔画像を拡大する拡大手段と、
該拡大手段が拡大した顔画像及び前記画像取得手段が取得した画像を合成する手段と
を備えることを特徴とする画像処理装置。 - 画像処理を行う画像処理装置において、
画像を取得する画像取得手段と、
該画像取得手段が取得した画像に含まれる顔画像を抽出する抽出手段と、
前記画像取得手段が取得した画像を縮小する手段と、
画像の縮小に係わる情報を取得する取得手段と、
前記画像取得手段が取得した画像及び前記抽出手段が抽出した顔画像のそれぞれのサイズ、並びに前記取得手段が取得した情報に応じて、該顔画像を拡大する拡大手段と、
該拡大手段が拡大した顔画像及び前記画像取得手段が取得した画像を合成する手段と
を備えることを特徴とする画像処理装置。 - 画像処理を行う画像処理装置において、
画像を取得する画像取得手段と、
該画像取得手段が取得した画像に含まれる顔画像を抽出する抽出手段と、
外部の物体との距離を測定する距離測定手段と、
前記画像取得手段が取得した画像及び前記抽出手段が抽出した顔画像のそれぞれのサイズ、並びに前記距離測定手段によって測定された距離に応じて、該顔画像を拡大する拡大手段と、
該拡大手段が拡大した顔画像及び前記画像取得手段が取得した画像を合成する手段と
を備えることを特徴とする画像処理装置。 - 前記拡大手段は、
前記画像の画素数及び前記顔画像の画素数に基づいて拡大率を算出する拡大率算出部と、
該拡大率算出部によって算出された拡大率にしたがって前記顔画像を拡大する拡大部と
を備えることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 - 前記拡大率算出部は、前記画像及び前記顔画像の画素数の比率に応じて拡大率を算出することを特徴とする請求項4記載の画像処理装置。
- 前記拡大率算出部によって算出された拡大率にしたがって拡大した顔画像が特定のサイズを超える場合、該拡大率を小さくする手段を更に備え、
前記拡大部は、前記拡大率算出部によって小さくされた拡大率で前記顔画像を拡大することを特徴とする請求項4又は5に記載の画像処理装置。 - 画像処理を行う画像処理装置において、
画像を取得する画像取得手段と、
該画像取得手段が取得した画像を縮小する画像縮小手段と、
前記画像取得手段が取得した画像から顔画像を抽出する抽出手段と、
該抽出手段が抽出した顔画像を、前記画像縮小手段による画像の縮小率よりも小さい縮小率で縮小する顔画像縮小手段と、
前記画像縮小手段により縮小された画像及び前記顔画像縮小手段により縮小された顔画像を合成する手段と
を備えることを特徴とする画像処理装置。 - 画像処理を行う画像処理方法において、
画像を取得する画像取得ステップと、
該画像取得ステップにて取得した画像に含まれる顔画像を抽出する抽出ステップと、
前記画像取得ステップにて取得した画像及び前記抽出ステップにて抽出した顔画像のそれぞれのサイズに応じて該顔画像を拡大する拡大ステップと、
該拡大ステップにて拡大した顔画像及び前記画像取得ステップにて取得した画像を合成するステップと
を含むことを特徴とする画像処理方法。 - 画像処理を行う画像処理方法において、
画像を取得する画像取得ステップと、
該画像取得ステップにて取得した画像に含まれる顔画像を抽出する抽出ステップと、
前記画像取得ステップにて取得した画像を縮小する画像縮小ステップと、
画像の縮小に係わる情報を取得する取得ステップと、
前記画像取得ステップにて取得した画像及び前記抽出ステップにて抽出した顔画像のそれぞれのサイズ、並びに前記取得ステップにて取得した情報に応じて、該顔画像を拡大する拡大ステップと、
該拡大ステップにて拡大した顔画像及び前記画像取得ステップにて取得した画像を合成するステップと
を含むことを特徴とする画像処理方法。 - 画像処理を行う画像処理方法において、
画像を取得する画像取得ステップと、
該画像取得ステップにて取得した画像に含まれる顔画像を抽出する抽出ステップと、
外部の物体との距離を測定する距離測定ステップと、
前記画像取得ステップにて取得した画像及び前記抽出ステップにて抽出した顔画像のそれぞれのサイズ、並びに前記距離測定ステップにて測定された距離に応じて、該顔画像を拡大する拡大ステップと、
該拡大ステップにて拡大した顔画像及び前記画像取得ステップにて取得した画像を合成するステップと
を含むことを特徴とする画像処理方法。 - コンピュータに画像処理を行わせる画像処理プログラムにおいて、
コンピュータを、
顔画像を含む画像から該顔画像を抽出する抽出手段と、
該画像及び該抽出手段が抽出した顔画像のそれぞれのサイズに応じて該顔画像を拡大する拡大手段と、
該拡大手段が拡大した顔画像及び前記画像を合成する手段と
して機能させることを特徴とする画像処理プログラム。 - コンピュータに画像処理を行わせる画像処理プログラムにおいて、
コンピュータを、
顔画像を含む画像から該顔画像を抽出する抽出手段と、
画像を縮小する縮小手段と、
画像及び前記抽出手段が抽出した顔画像のそれぞれのサイズ、並びに前記画像の縮小に係わる情報に応じて、該顔画像を拡大する拡大手段と、
該拡大手段が拡大した顔画像及び前記画像を合成する手段と
して機能させることを特徴とする画像処理プログラム。 - コンピュータに画像処理を行わせる画像処理プログラムにおいて、
コンピュータを、
顔画像を含む画像から該顔画像を抽出する抽出手段と、
画像及び前記抽出手段が抽出した顔画像のそれぞれのサイズ、並びに外部の物体との距離に応じて、該顔画像を拡大する拡大手段と、
該拡大手段が拡大した顔画像及び前記画像を合成する手段と
して機能させることを特徴とする画像処理プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009299241A JP2015039052A (ja) | 2009-12-29 | 2009-12-29 | 画像処理装置、画像処理方法及び画像処理プログラム |
EP10840894A EP2521353A1 (en) | 2009-12-29 | 2010-12-17 | Image processing device, image processing method, and image processing program |
US13/519,852 US20120301030A1 (en) | 2009-12-29 | 2010-12-17 | Image processing apparatus, image processing method and recording medium |
CN2010800598157A CN102714761A (zh) | 2009-12-29 | 2010-12-17 | 图像处理装置、图像处理方法及图像处理程序 |
PCT/JP2010/072738 WO2011081036A1 (ja) | 2009-12-29 | 2010-12-17 | 画像処理装置、画像処理方法及び画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009299241A JP2015039052A (ja) | 2009-12-29 | 2009-12-29 | 画像処理装置、画像処理方法及び画像処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015039052A true JP2015039052A (ja) | 2015-02-26 |
Family
ID=44226447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009299241A Pending JP2015039052A (ja) | 2009-12-29 | 2009-12-29 | 画像処理装置、画像処理方法及び画像処理プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20120301030A1 (ja) |
EP (1) | EP2521353A1 (ja) |
JP (1) | JP2015039052A (ja) |
CN (1) | CN102714761A (ja) |
WO (1) | WO2011081036A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120080376A (ko) * | 2011-01-07 | 2012-07-17 | 삼성전자주식회사 | 디지털 영상 촬영 장치 및 이의 제어 방법 |
US10196088B2 (en) * | 2011-04-19 | 2019-02-05 | Ford Global Technologies, Llc | Target monitoring system and method |
WO2015029554A1 (ja) * | 2013-09-02 | 2015-03-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN105556942B (zh) * | 2013-09-27 | 2019-07-23 | 惠普发展公司,有限责任合伙企业 | 数字水印 |
US9959591B2 (en) * | 2014-07-31 | 2018-05-01 | Seiko Epson Corporation | Display apparatus, method for controlling display apparatus, and program |
CN105227867A (zh) * | 2015-09-14 | 2016-01-06 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN109168053A (zh) * | 2016-07-21 | 2019-01-08 | 吴俊� | 一种回看数字电视节目的控制系统 |
CN107172347B (zh) * | 2017-05-12 | 2020-04-14 | 维沃移动通信有限公司 | 一种拍照方法及终端 |
CN109859299B (zh) * | 2019-03-27 | 2020-12-22 | 腾讯科技(深圳)有限公司 | 人像图片处理方法、装置、计算机可读存储介质和计算机设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005311888A (ja) * | 2004-04-23 | 2005-11-04 | Omron Corp | 拡大表示装置及び拡大画像制御装置 |
JP2008236489A (ja) * | 2007-03-22 | 2008-10-02 | Fujifilm Corp | 表示装置及び撮像装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040080541A1 (en) * | 1998-03-20 | 2004-04-29 | Hisashi Saiga | Data displaying device |
JP2004313225A (ja) | 2003-04-11 | 2004-11-11 | Atlus Co Ltd | ゲーム装置 |
US7469064B2 (en) * | 2003-07-11 | 2008-12-23 | Panasonic Corporation | Image display apparatus |
JP4489608B2 (ja) * | 2004-03-31 | 2010-06-23 | 富士フイルム株式会社 | ディジタル・スチル・カメラ,画像再生装置および顔画像表示装置ならびにそれらの制御方法 |
JP2006261711A (ja) * | 2005-03-15 | 2006-09-28 | Seiko Epson Corp | 画像生成装置 |
JP4460560B2 (ja) * | 2006-09-29 | 2010-05-12 | 富士フイルム株式会社 | 撮像装置及び撮影方法 |
JP4861952B2 (ja) * | 2007-09-28 | 2012-01-25 | 富士フイルム株式会社 | 画像処理装置及び撮像装置 |
KR20090083108A (ko) * | 2008-01-29 | 2009-08-03 | 삼성전자주식회사 | 특정 영역이 확대된 영상을 촬영된 영상에 부가하는촬영방법 및 이를 적용한 촬영장치 |
-
2009
- 2009-12-29 JP JP2009299241A patent/JP2015039052A/ja active Pending
-
2010
- 2010-12-17 US US13/519,852 patent/US20120301030A1/en not_active Abandoned
- 2010-12-17 WO PCT/JP2010/072738 patent/WO2011081036A1/ja active Application Filing
- 2010-12-17 EP EP10840894A patent/EP2521353A1/en not_active Withdrawn
- 2010-12-17 CN CN2010800598157A patent/CN102714761A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005311888A (ja) * | 2004-04-23 | 2005-11-04 | Omron Corp | 拡大表示装置及び拡大画像制御装置 |
JP2008236489A (ja) * | 2007-03-22 | 2008-10-02 | Fujifilm Corp | 表示装置及び撮像装置 |
Also Published As
Publication number | Publication date |
---|---|
EP2521353A1 (en) | 2012-11-07 |
US20120301030A1 (en) | 2012-11-29 |
CN102714761A (zh) | 2012-10-03 |
WO2011081036A1 (ja) | 2011-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2011081036A1 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6886117B2 (ja) | 1つの表示装置に表示された画像の画質の制御方法 | |
US11062423B2 (en) | Image display apparatus and method of operating the same | |
JP2014123818A (ja) | 視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラム | |
US20150036050A1 (en) | Television control apparatus and associated method | |
KR20180024808A (ko) | 영상 표시 장치 및 그 동작 방법 | |
US20130300934A1 (en) | Display apparatus, server, and controlling method thereof | |
US20160300595A1 (en) | Playback device for playing video content and operating method of the same | |
JP7074056B2 (ja) | 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム | |
US11431909B2 (en) | Electronic device and operation method thereof | |
TWI595408B (zh) | 電子元件及在其中進行操作的方法 | |
US20160191841A1 (en) | Display device and display method | |
JP6058257B2 (ja) | 画像出力装置、画像出力方法、およびプログラム | |
KR20210086368A (ko) | 디스플레이 장치 및 그 제어 방법 | |
US9904980B2 (en) | Display apparatus and controller and method of controlling the same | |
KR20180103239A (ko) | 디스플레이 장치 및 그 제어 방법 | |
JP2012173683A (ja) | 表示制御装置、情報表示装置、及び表示制御方法 | |
CN113475091B (zh) | 显示设备及其图像显示方法 | |
CN111078926A (zh) | 一种人像缩略图像的确定方法及显示设备 | |
CN111445427B (zh) | 视频图像处理方法以及显示设备 | |
KR20220120303A (ko) | 디스플레이 장치 및 그 동작방법 | |
KR20220031367A (ko) | 디스플레이 기기 및 그의 동작 방법 | |
US20220014688A1 (en) | Image processing method and display device thereof | |
KR20240050054A (ko) | 디스플레이 장치 및 그 동작 방법 | |
KR102114309B1 (ko) | 디스플레이 장치 및 그 동작방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110329 |