JP2012014668A - 画像処理装置、画像処理方法、プログラム、および電子装置 - Google Patents

画像処理装置、画像処理方法、プログラム、および電子装置 Download PDF

Info

Publication number
JP2012014668A
JP2012014668A JP2010196803A JP2010196803A JP2012014668A JP 2012014668 A JP2012014668 A JP 2012014668A JP 2010196803 A JP2010196803 A JP 2010196803A JP 2010196803 A JP2010196803 A JP 2010196803A JP 2012014668 A JP2012014668 A JP 2012014668A
Authority
JP
Japan
Prior art keywords
image
light
wavelength
subject
skin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010196803A
Other languages
English (en)
Inventor
Satoshi Mitani
諭司 三谷
Masahiro Ando
正博 安藤
Hidetoshi Kabasawa
秀年 椛澤
Takanori Shimizu
隆範 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010196803A priority Critical patent/JP2012014668A/ja
Priority to US13/109,433 priority patent/US20110298909A1/en
Priority to CN2011101413667A priority patent/CN102266218A/zh
Publication of JP2012014668A publication Critical patent/JP2012014668A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8088Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game involving concurrently several players in a non-networked game, e.g. on the same game console

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】肌領域を精度良く検出する。
【解決手段】発光装置21は、第1の波長の光および第2の波長の光を被写体に照射し、カメラ22は、第1の波長の光を受光する第1の受光素子と、第2の波長の光を受光する第2の受光素子とを少なくとも有する画像センサを内蔵し、画像センサに入射される、第1および第2の波長の光が被写体に照射されているときの被写体からの反射光に基づいて第1のモザイク画像を生成し、生成した第1のモザイク画像を構成する各画素において、第1の受光素子に対応する画素の画素値に基づく第1の補間処理により得られる第1の画像、および第2の受光素子に対応する画素の画素値に基づく第2の補間処理より得られる第2の画像を生成する。そして、画像処理装置23は、第1および第2の画像に基づいて肌領域を検出する。本発明は、例えば撮像により得られる画像から、人間の肌を表す肌領域を抽出するコンピュータ等に適用できる。
【選択図】図1

Description

本発明は、画像処理装置、画像処理方法、プログラムおよび電子装置に関し、特に、撮影した画像に基づいて、例えば人の手等の肌が露出している部分を検出する場合に用いて好適な画像処理装置、画像処理方法、プログラムおよび電子装置に関する。
人物を撮像して得られる画像上から、顔や手などのように肌が露出している領域(以下、肌領域と称する)を検出する肌検出技術が存在する(例えば、特許文献1参照)。
この肌検出技術では、波長λ1の光が照射された状態の被写体(人物)を撮像した第1の画像と、波長λ1よりも長波長である波長λ2の光が照射された状態の被写体を撮像した第2の画像とを取得する。そして、第1の画像の輝度値から第2の画像の輝度値を差し引いて得られる差分が所定に閾値よりも大きな領域を肌領域として検出する。
なお、波長λ1,λ2は、人間の肌の反射特性に依存して決定される。すなわち、人の肌に照射したときの反射率が異なり、かつ、人の肌以外(例えば、髪の毛、衣服など)に照射したときの反射率がほぼ等しいものに決定されている。具体的には、例えば、波長λ1は870nm、波長λ2は950nmとされている。
特開2006−47067号公報
一般に、肌検出技術では、図34に示すように、波長λ1の光と波長λ2の光とを交互に照射して撮像して第1の画像と第2の画像を得るようになされている。
しかしながら、このようにした場合、被写体に動きがあると、第1の画像と第2の画像とで被写体の位置が異なるために、肌検出を精度良く検出できないことになる。
本発明は、このような状況に鑑みてなされたものであり、被写体に動きがあっても、肌領域を精度良く検出できるようにするものである。
本発明の第1の側面である画像処理装置は、画像上から人間の肌を表す肌領域を検出する画像処理装置であって、第1の波長の光、および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、前記第1の波長の光を受光する第1の受光素子と、前記第2の波長の光を受光する第2の受光素子とを少なくとも有する画像センサを内蔵し、前記画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されているときの前記被写体からの反射光に基づいて第1のモザイク画像を生成する第1の生成手段と、前記第1のモザイク画像を構成する各画素において、前記第1の受光素子に対応する画素の画素値に基づく第1の補間処理により得られる第1の画像、および前記第2の受光素子に対応する画素の画素値に基づく第2の補間処理より得られる第2の画像を生成する第2の生成手段と、前記第1および第2の画像に基づいて前記肌領域を検出する検出手段とを含む。
前記第1の生成手段は、前記第1および第2の受光素子の他、R(red)成分を受光する第3の受光素子、G(green)成分を受光する第4の受光素子、およびB(blue)成分を受光する第5の受光素子により構成される前記画像センサに入射された前記被写体からの反射光に基づいて前記第1のモザイク画像を生成することができる。
前記第1の生成手段は、前記画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されていないときの前記被写体からの反射光に基づいて第2のモザイク画像も生成し、前記第2の生成手段では、前記第2のモザイク画像を構成する各画素において、前記第3乃至第5の受光素子それぞれに対応する画素の画素値に基づく第3の補間処理により得られるRGB画像も生成し、前記RGB画像に基づいて、前記肌領域を検出するための肌検出可能条件を満たす範囲内で前記第1の生成手段のパラメータを調整する調整手段をさらに設けることができる。
前記第1の生成手段は、予め決められたパラメータに応じて前記被写体を撮像することにより前記第1のモザイク画像を生成するものであり、前記調整手段では、前記RGB画像を構成する画素の輝度値、または前記輝度値に基づき算出される算出値の一方が、前記RGB画像がとり得る最大の輝度値の半分以下となる前記肌検出可能条件を満たす範囲内で前記第1の生成手段の前記パラメータを調整することができる。
本発明の第1の側面である画像処理装置は、前記第1の波長以外の波長の光の入射を制限し、前記第1の波長の光を透過させる第1の入射制限手段と、前記第2の波長以外の波長の光の入射を制限し、前記第2の波長の光を透過させる第2の入射制限手段とをさらに設けることができ、前記第1の生成手段は、前記第1の入射制限手段を介して得られる前記第1の波長の光を受光する前記第1の受光素子と、前記第2の入射制限手段を介して得られる前記第2の波長の光を受光する前記第2の受光素子とを少なくとも有する前記画像センサを内蔵するようにすることができる。
前記第1の生成手段は、前記画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されていないときの前記被写体からの反射光に基づいて第2のモザイク画像も生成し、前記第2の生成手段は、前記第2のモザイク画像を構成する各画素において、前記第1の受光素子に対応する画素の画素値に基づく第4の補間処理により得られる第3の画像も生成し、前記検出手段は、さらに、前記第3の画像上の全領域のうち、前記第3の画像を構成する各画素の画素値が所定の閾値以上である画素により構成される所定領域を検出することができる。
本発明の第1の側面である画像処理装置は、前記照射手段による照射を制御する制御手段をさらに設けることができ、前記検出手段は、前記制御手段の制御にしたがって前記照射手段による照射が行われている場合に、前記第2の生成手段により生成される前記第1および第2の画像に基づいて前記肌領域を検出し、前記制御手段の制御にしたがって前記照射手段による照射が行われていない場合に、前記第2の生成手段により生成される前記第3の画像に基づいて前記所定領域を検出することができる。
本発明の第1の側面である画像処理方法は、画像上から人間の肌を表す肌領域を検出する画像処理装置の画像処理方法であって、前記画像処理装置は、照射手段と、第1の波長の光を受光する第1の受光素子と、前記第1の波長とは異なる第2の波長の光を受光する第2の受光素子とを少なくとも有する画像センサを内蔵する第1の生成手段と、第2の生成手段と、検出手段とを含み、前記照射手段が、前記第1の波長の光、および前記第2の波長の光を被写体に照射し、前記第1の生成手段が、前記画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されているときの前記被写体からの反射光に基づいて第1のモザイク画像を生成し、前記第2の生成手段が、前記第1のモザイク画像を構成する各画素において、前記第1の受光素子に対応する画素の画素値に基づく第1の補間処理により得られる第1の画像、および前記第2の受光素子に対応する画素の画素値に基づく第2の補間処理より得られる第2の画像を生成し、前記検出手段が、前記第1および第2の画像に基づいて前記肌領域を検出するステップを含む。
本発明の第1の側面のプログラムは、第1の波長の光、および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、前記第1の波長の光を受光する第1の受光素子と、前記第2の波長の光を受光する第2の受光素子とを少なくとも有する画像センサを内蔵し、前記画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されているときの前記被写体からの反射光に基づいて第1のモザイク画像を生成する第1の生成手段とを含み、画像上から人間の肌を表す肌領域を検出する画像処理装置を制御するコンピュータを、前記第1のモザイク画像を構成する各画素において、前記第1の受光素子に対応する画素の画素値に基づく第1の補間処理により得られる第1の画像、および前記第2の受光素子に対応する画素の画素値に基づく第2の補間処理より得られる第2の画像を生成する第2の生成手段と、前記第1および第2の画像に基づいて前記肌領域を検出する検出手段として機能させる。
本発明の第1の側面によれば、第1の波長の光、および前記第1の波長とは異なる第2の波長の光が被写体に照射され、前記第1の波長の光を受光する第1の受光素子と、前記第2の波長の光を受光する第2の受光素子とを少なくとも有する画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されているときの前記被写体からの反射光に基づいて第1のモザイク画像が生成され、前記第1のモザイク画像を構成する各画素において、前記第1の受光素子に対応する画素の画素値に基づく第1の補間処理により得られる第1の画像、および前記第2の受光素子に対応する画素の画素値に基づく第2の補間処理より得られる第2の画像が生成され、生成された前記第1および第2の画像に基づいて前記肌領域が検出される。
本発明の第2の側面の電子装置は、画像上から人間の肌を表す肌領域を検出する電子装置であって、第1の波長の光、および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、前記第1の波長の光を受光する第1の受光素子と、前記第2の波長の光を受光する第2の受光素子とを少なくとも有する画像センサを内蔵し、前記画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されているときの前記被写体からの反射光に基づいて第1のモザイク画像を生成する第1の生成手段と、前記第1のモザイク画像を構成する各画素において、前記第1の受光素子に対応する画素の画素値に基づく第1の補間処理により得られる第1の画像、および前記第2の受光素子に対応する画素の画素値に基づく第2の補間処理より得られる第2の画像を生成する第2の生成手段と、前記第1および第2の画像に基づいて前記肌領域を検出する検出手段と、検出された前記肌領域に応じた処理を実行する実行手段とを含む。
本発明の第2の側面によれば、第1の波長の光、および前記第1の波長とは異なる第2の波長の光が被写体に照射され、前記第1の波長の光を受光する第1の受光素子と、前記第2の波長の光を受光する第2の受光素子とを少なくとも有する画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されているときの前記被写体からの反射光に基づいて第1のモザイク画像が生成され、前記第1のモザイク画像を構成する各画素において、前記第1の受光素子に対応する画素の画素値に基づく第1の補間処理により得られる第1の画像、および前記第2の受光素子に対応する画素の画素値に基づく第2の補間処理より得られる第2の画像が生成され、生成された前記第1および第2の画像に基づいて前記肌領域が検出される。さらに、検出された前記肌領域に応じた処理が実行される。
本発明の第3の側面である画像処理装置は、画像上から人間の肌を表す肌領域を検出する画像処理装置において、第1の波長および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、前記被写体を撮像して、前記第1の波長の光に基づく第1の画像を生成するとともに、前記第2の波長の光に基づく第2の画像を生成する撮像手段と、生成された前記第1および第2の画像に基づいて前記肌領域を検出する検出手段とを含み、前記照射手段は、前記第1および第2の波長の光の輝度を所定の周波数に従って変動させて被写体に照射し、前記撮像手段は、前記被写体の光学像を光電変換して得られる電気信号の前記所定の周波数に対応する成分を抽出することにより前記第1および第2の画像を生成する。
前記照射手段は、前記第1および第2の波長の光の輝度を所定の周波数に従って交流的に変動させて被写体に照射し、前記撮像手段は、前記被写体の光学像を光電変換して得られる電気信号の前記所定の周波数に対応する交流成分を抽出することにより前記第1および第2の画像を生成することができる。
前記照射手段は、前記第1の波長の光の輝度を第1の周波数に従って交流的に変動させて被写体に照射する処理と、前記第2の波長の光の輝度を前記第1の周波数とは異なる第2の周波数に従って交流的に変動させて被写体に照射する処理を同時に行い、前記撮像手段は、前記第1および第2の波長の光が照射されている状態の前記被写体の光学像を光電変換して得られる電気信号の前記第1の周波数に対応する交流成分を抽出することにより前記第1の画像を生成し、前記被写体の光学像を光電変換して得られる電気信号の前記第2の周波数に対応する交流成分を抽出することにより前記第2の画像を生成することができる。
前記照射手段は、前記第1の波長の光の輝度を第3の周波数に従って交流的に変動させて被写体に照射する処理と、前記第2の波長の光の輝度を前記第3の周波数に従って交流的に変動させて被写体に照射する処理を交互に行い、前記撮像手段は、前記第1の波長の光が照射されている状態の前記被写体の光学像を光電変換して得られる電気信号の前記第3の周波数に対応する交流成分を抽出することにより前記第1の画像を生成し、前記第2の波長の光が照射されている状態の前記被写体の光学像を光電変換して得られる電気信号の前記第3の周波数に対応する交流成分を抽出することにより前記第2の画像を生成することができる。
本発明の第3の側面である画像処理方法は、第1の波長および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、被写体を撮像して、前記第1の波長の光に基づく第1の画像を生成するとともに、前記第2の波長の光に基づく第2の画像を生成する撮像手段と、生成された前記第1および第2の画像に基づいて前記肌領域を検出する検出手段とを備え、画像上から人間の肌を表す肌領域を検出する画像処理装置の画像処理方法において、前記照射手段が、前記第1および第2の波長の光の輝度を所定の周波数に従って変動させて被写体に照射し、前記撮像手段が、前記被写体の光学像を光電変換して得られる電気信号の前記所定の周波数に対応する成分を抽出することにより前記第1および第2の画像を生成するステップを含む。
本発明の第3の側面であるプログラムは、第1の波長および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、被写体を撮像して、前記第1の波長の光に基づく第1の画像を生成するとともに、前記第2の波長の光に基づく第2の画像を生成する撮像手段と、生成された前記第1および第2の画像に基づいて前記肌領域を検出する検出手段とを備え、画像上から人間の肌を表す肌領域を検出する画像処理装置の制御用のプログラムであって、前記照射手段を制御して、前記第1および第2の波長の光の輝度を所定の周波数に従って変動させて被写体に照射させ、前記撮像手段を制御して、前記被写体の光学像を光電変換して得られる電気信号の前記所定の周波数に対応する成分を抽出することにより前記第1および第2の画像を生成させるステップを含む処理を画像処理装置のコンピュータに実行させる。
本発明の第3の側面においては、第1および第2の波長の光の輝度が所定の周波数に従って変動されて被写体に照射され、被写体の光学像を光電変換して得られる電気信号の前記所定の周波数に対応する成分が抽出されることにより第1および第2の画像が生成される。
本発明の第4の側面である電子装置は、画像上から人間の肌を表す肌領域を検出する電子装置において、第1の波長および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、前記被写体を撮像して、前記第1の波長の光に基づく第1の画像を生成するとともに、前記第2の波長の光に基づく第2の画像を生成する撮像手段と、生成された前記第1および第2の画像に基づいて前記肌領域を検出する検出手段と、検出された前記肌領域に応じた処理を実行する実行手段とを含み、前記照射手段は、前記第1および第2の波長の光の輝度を所定の周波数に従って変動させて被写体に照射し、前記撮像手段は、前記被写体の光学像を光電変換して得られる電気信号の前記所定の周波数に対応する成分を抽出することにより前記第1および第2の画像を生成する。
本発明の第3の側面においては、第1および第2の波長の光の輝度が所定の周波数に従って変動されて被写体に照射され、被写体の光学像を光電変換して得られる電気信号の前記所定の周波数に対応する成分が抽出されることにより第1および第2の画像が生成される。
本発明の第1乃至第4の側面によれば、肌領域を精度良く検出することが可能となる。
本発明を適用した情報処理システムの構成例を示すブロック図である。 人間の肌に対する分光反射特性の一例を示す図である。 イメージセンサに設けられるフィルタ板の第1の例を示す図である。 図3のフィルタ板における光の透過特性の一例を示す図である。 画像処理装置の構成例を示す図である。 算出部および2値化部が行なう処理の詳細を示す図である。 肌検出処理を説明するためのフローチャートである。 イメージセンサに設けられるフィルタ板の第2の例を示す図である。 図8のフィルタ板における光の透過特性の一例を示す図である。 外光画像におけるヒストグラムの第1の例を示す図である。 肌検出調整処理を説明するためのフローチャートである。 外光画像におけるヒストグラムの第2の例を示す図である。 外光画像におけるヒストグラムの第3の例を示す図である。 従来のR,G,B各フィルタの透過特性の一例を示す図である。 従来のIRカットフィルタの透過特性野一例を示す図である。 従来のR,G,B各フィルタに従来のIRカットフィルタを設けた場合に得られる透過特性の一例を示す図である。 イメージセンサに設けられるフィルタ板の第3の例を示す図である ベイヤー配列により配列されたフィルタ板の一例を示す図である。 λ1フィルタおよびλ2フィルタが設けられたIRカットフィルタの一例を示す図である。 イメージセンサに設けられるフィルタ板の第4の例を示す図である。 本発明を適用した小型モジュールの一例を示す図である。 小型モジュールを内蔵したテレビジョン受像機の一例を示す図である。 LED検出処理を説明するためのフローチャートである。 LED検出調整処理を説明するためのフローチャートである。 ディスプレイに表示される画像の一例を示す図である。 第1の実施の形態に対応する、輝度変動を伴わない照射と撮像のタイミングを示す図である。 第4の実施の形態に対応する、輝度変動を伴う照射と撮像のタイミングを示す図である。 第4の実施の形態におけるCMOSイメージセンサの構成例を示すブロック図である。 第4の実施の形態によるλ1画像およびλ2画像の生成処理を説明するフローチャートである。 第5の実施の形態に対応する、輝度変動を伴う照射と撮像のタイミングを示す図である。 第5の実施の形態におけるCMOSイメージセンサの構成例を示すブロック図である。 第5の実施の形態によるλ1画像およびλ2画像の生成処理を説明するフローチャートである。 コンピュータの構成例を示すブロック図である。 従来の肌検出技術における照射と撮像のタイミングを示す図である。
以下、発明を実施するための形態(以下、実施の形態と称する)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(モザイク画像からλ1画像およびλ2画像を生成する場合の一例)
2.第2の実施の形態(外光画像に基づいてカメラ22のゲインを調整する場合の一例)
3.第3の実施の形態(LED位置を検出するテレビジョン受像機の一例)
4.第4の実施の形態(波長λ1の光と波長λ2の光の輝度を異なる周波数に従い交流的に変動させて同時に照射する場合の一例)
5.第5の実施の形態(波長λ1の光と波長λ2の光の輝度を同一の周波数に従い交流的に変動させて交互に照射する場合の一例)
<1.第1の実施の形態>
[情報処理システム1の構成例]
図1は、本発明を適用した情報処理システム1の構成例を示している。
この情報処理システム1は、ユーザの手を用いたジェスチャ(またはポスチャ)に応じて所定の処理を実行するものであり、発光装置21、カメラ22、および画像処理装置23により構成される。
情報処理システム1に対して所定の処理を実行させるため、ユーザは、カメラ22のレンズ面の前で自身の手の形状を変化させたり、自身の手を動かしたりする。
このとき、情報処理システム1では、ユーザの手の形状や動きを認識し、その認識結果に対応して所定の処理を実行する。
なお、第1の実施の形態では、ユーザは、カメラ22のレンズ面の前で手の形状を変化させるものとし、ユーザは、自身の手を、顔や胸等よりもカメラ22のレンズ面に近い位置に出して、手の形状を変化させたり、動かしたりするものとする。
発光装置21は、波長λ1の光(例えば、870[nm]の近赤外線)を照射(発光)するLED(light emitting diode)21a1およびLED21a2、並びに波長λ1とは異なる波長λ2の光(例えば、950[nm]の近赤外線)を照射するLED21b1およびLED21b2により構成される。
なお、以下の説明において、LED21a1およびLED21a2をそれぞれ区別する必要がない場合には、単にLED21aと称するとともに、LED21b1およびLED21b2をそれぞれ区別する必要がない場合には、単にLED21bと称する。なお、LED21aの個数およびLED21bの個数は、それぞれ、2個に限定されるものではない。
発光装置21は、画像処理装置23からの制御にしたがって、LED21aとLED21bとを、例えば同時に発光させる。
なお、LED21aおよびLED21bの光出力は、波長λ1およびλ2に対する反射率が同一である被写体(例えば、反射率100[%]の鏡面等)に対して、波長λ1またはλ2のいずれの光を照射した場合にも、カメラ22の撮像により得られる画像の対応する画素どうしの輝度値が同一となるように調整されているものとする。
また、LED21aにおける波長λ1と、LED21bにおける波長λ2の組合せは、例えば、波長λ1の光を人間の肌に照射したときの反射率が、波長λ2の光を人間の肌に照射したときの反射率よりも大きく、人間の肌以外のものに照射したときの反射率は殆ど変わらない組合せである。すなわち、この組合せは、人間の肌に対する分光反射特性に基づいて決定される。
次に、図2は、人間の肌に対する分光反射特性を示している。
なお、この分光反射特性は、人間の肌の色の違い(人種の違い)や状態(日焼け等)等に拘らず、一般性があるものである。
図2において、横軸は、人間の肌に照射される照射光の波長を示しており、縦軸は、人間の肌に照射された照射光の反射率を示している。
人間の肌に照射された照射光の反射率は、800[nm]付近をピークとして、900[nm]付近から急激に減少し、1000[nm]付近を極小値として再び上昇することが知られている。
具体的には、例えば、図2に示されるように、人間の肌に対して、870[nm]の光を照射して得られる反射光の反射率は約63[%]であり、950[nm]の光を照射して得られる反射光の反射率は約50[%]である。
これは、人間の肌について特有のものであり、人間の肌以外の物体(例えば、頭髪や衣服等)では、800乃至1000[nm]付近において、反射率の変化は緩やかとなっていることが多い。
第1の実施の形態では、上述した分光反射特性において、波長λ1およびλ2の組合せとして、例えば、波長λ1を870[nm]とし、波長λ2を950[nm]とする組合せが採用されている。この組合せは、人間の肌に対する反射率の差が比較的大きくなる組合せであって、人間の肌以外の部分に対する反射率の差が比較的小さくなる組合せである。
なお、波長λ1と波長λ2との組合せは、波長870[nm]と波長950[nm]とに限定されず、例えば、以下に示す関係式を満たす組合せであれば、どのような組合せであってもよい。
λ1<λ2
630[nm]≦λ1≦1000[nm]
900[nm]≦λ2≦1100[nm]
図1に戻り、カメラ22は、レンズの他、CCDやCMOS等のイメージセンサにより構成されている。
そして、カメラ22のイメージセンサの前面には、図3に示されるように、λ1フィルタ(図3でいう「1」に対応)と、λ2フィルタ(図3でいう「2」に対応)とが、市松模様状に配置されたフィルタ板31が設けられている。
なお、図4に示されるように、λ1フィルタは、発光スペクトルのピーク波長がλ1(いまの場合λ1=870[nm])である光(波長λ1の光)を透過させる透過特性を有している。また、λ2フィルタは、発光スペクトルのピーク波長がλ2(いまの場合λ1=950[nm])である光(波長λ2の光)を透過させる透過特性を有している。
これにより、カメラ22は、イメージセンサを構成する複数の受光素子において、波長λ1の光、および波長λ2の光のみを受光することとなる。そして、イメージセンサを構成する複数の受光素子のうち、λ1フィルタが設けられた受光素子は、その受光素子に対応する画素の画素値として、受光した波長λ1の光を光電変換して画素値x(λ1)を取得する。また、イメージセンサを構成する複数の受光素子のうち、λ2フィルタが設けられた受光素子は、その受光素子に対応する画素の画素値として、受光した波長λ2の光を光電変換して画素値x(λ2)を取得する。
すなわち、カメラ22のイメージセンサは、受光した波長λ1の光を光電変換して得られる画素値x(λ1)を有する画素と、受光した波長λ2の光を光電変換して得られる画素値x(λ2)を有する画素とが、市松模様状に配置されたモザイク画像を生成する。
そして、カメラ22は、モザイク画像を構成する各画素の画素値のうち、λ1フィルタが設けられた受光素子に対応する画素の画素値x(λ1)を用いて、λ2フィルタが設けられた受光素子に対応する画素において、波長λ1の光を受光した場合に得られる画素値x(λ1)を補間するλ1補間処理を行い、その結果得られるλ1画像を、画像処理装置23に供給する。
また、カメラ22は、モザイク画像を構成する各画素の画素値のうち、λ2フィルタが設けられた受光素子に対応する画素の画素値x(λ2)を用いて、λ1フィルタが設けられている受光素子に対応する画素において、波長λ2の光を受光した場合に得られる画素値x(λ2)を補間するλ2補間処理を行い、その結果得られるλ2画像を、画像処理装置23に供給する。
画像処理装置23は、カメラ22から供給されるλ1画像およびλ2画像に基づいて、λ1画像を構成する画素の画素値(例えば、輝度値)から、その画素に対応する、λ2画像を構成する画素の画素値を差し引いて得られる差分を算出する。
そして、画像処理装置23は、算出した差分に基づいて、λ1画像(またはλ2画像)上の肌領域を検出する。画像処理装置23は、検出した肌領域に基づいて、ユーザの手の形状等を認識し、その認識結果に対応して所定の処理を実行する。
[画像処理装置23の構成例]
次に、図5は、画像処理装置23の構成例を示している。
この画像処理装置23は、制御部41、算出部42、および2値化部43により構成される。
制御部41は、カメラ22の撮像タイミング、撮像時間、発光装置23の発光タイミング、発光時間等を制御する。また、例えば、制御部41は、算出部42および2値化部43を制御する。
算出部42は、カメラ22からのλ1画像およびλ2画像に対して、LPF(low pass filter)を用いた平滑化を行う。そして、算出部42は、平滑化後のλ1画像およびλ2画像どうしの差分を算出し、算出した差分を画素値とする画素により構成される差分画像を、2値化部43に供給する。
なお、カメラ22は、生成したモザイク画像を算出部42に供給するようにし、算出部42は、カメラ22からのモザイク画像に対して、λ1補間処理を行なうことによりλ1画像を生成するとともに、λ2補間処理を行なうことによりλ2画像を生成するようにしてもよい。そして、算出部42は、算出したλ1画像およびλ2画像に対して、LPFを用いた平滑化等を行うようにしてもよい。
2値化部43は、算出部42からの差分画像を2値化し、その結果得られる2値化肌画像に基づいて、λ1画像(またはλ2画像)上の肌領域を検出し、その検出結果を制御部41に供給する。
ただし、差分画像63を構成する画素の画素値を、それぞれ、λ1画像61を構成する画素のうち、対応する画素の輝度値で正規化(除算)した上で、2値化するようにしてもよい。また、2値化部43は、λ1画像61に代えて、λ2画像62を用いて差分画像63を正規化した上で2値化するようにしてもよい。
次に、図6は、算出部42および2値化部43が行なう処理の詳細を示している。
算出部42には、カメラ22から、肌領域61aおよび非肌領域61b(肌領域61a以外の領域)により構成されるλ1画像61、並びに、肌領域62aおよび非肌領域62b(肌領域62a以外の領域)により構成されるλ2画像62が供給される。
算出部42は、カメラ22から供給されるλ1画像61、およびλ2画像62に対して、LPFを用いた平滑化を行う。そして、算出部42は、平滑化後のλ1画像61、平滑化後のλ2画像62の対応する画素の画素値(例えば、輝度値)どうしの差分を算出し、その差分を画素値とする差分画像63を生成し、2値化部43に供給する。
2値化部43は、算出部42からの差分画像63に対して、差分画像63を構成する画素の画素値のうち、2値化に用いる2値化閾値以上の画素値を1とし、2値化閾値未満の画素値を0とする2値化を行う。
いま、差分画像63における肌領域63aは、肌領域61aと肌領域62aとの差分を画素値とする画素により構成されているため、肌領域63aを構成する画素の画素値は比較的大きな値となっている。
また、差分画像63における非肌領域63bは、非肌領域61bと非肌領域62bとの差分を画素値とする画素により構成されているため、非肌領域63bを構成する画素の画素値は比較的小さな値となっている。
したがって、差分画像63は、2値化部43により行われる2値化により、肌領域63aを構成する画素の画素値が1とされた肌領域64a、および非肌領域63bを構成する画素の画素値が0とされた非肌領域64bにより構成される2値化肌画像64に変換される。
そして、2値化部43は、その2値化により得られる2値化肌画像64上の肌領域64aを、制御部41に供給する。
[情報処理システム1が行なう肌検出処理の詳細]
次に、図7のフローチャートを参照して、情報処理システム1が行なう肌検出処理について説明する。
ステップS1において、LED21aおよびLED21bは、制御部41からの制御にしたがって、同一の照射タイミングで被写体を照射する。カメラ22は、LED21aからの波長λ1の光、およびLED21bからの波長λ2の光が照射されている被写体からの反射光を受光し、受光した反射光を光電変換してモザイク画像を生成する。
ステップS2において、カメラ22は、生成したモザイク画像に基づいて、λ1補間処理を行い、その結果得られるλ1画像を、算出部42に供給する。また、カメラ22は、生成したモザイク画像に基づいて、λ2補間処理を行い、その結果得られるλ2画像を、算出部42に供給する。
ステップS3において、算出部42は、カメラ22からのλ1画像およびλ2画像に対して、LPFを用いた平滑化を行う。そして、算出部42は、平滑化後のλ1画像およびλ2画像どうしの差分を算出し、算出した差分を画素値とする画素により構成される差分画像を、2値化部43に供給する。
ステップS4において、2値化部43は、算出部42からの差分画像を2値化することにより、2値化肌画像を生成する。
ステップS5において、2値化部43は、生成した2値化肌画像に基づいて、λ1画像(またはλ2画像)上の肌領域を検出し、その検出結果を制御部41に供給する。
ステップS6において、制御部41は、2値化部43からの検出結果に応じた処理、すなわち、例えば、2値化部43からの肌領域の形状に応じて、図示せぬテレビジョン受像機等のチャンネルを変更する処理等を行なう。以上で肌検出処理は終了される。
以上説明したように、肌検出処理では、図3に示されたようなフィルタ板31を、カメラ22のイメージセンサの前面に設けるようにして得られるモザイク画像から、肌領域の検出に用いるλ1画像およびλ2の画像を生成するようにした。
このため、肌検出処理では、LED21aおよびLED21bを異なるタイミングで発光させる必要がないので、LED21aおよびLED21bの制御をより容易にすることができる。
また、例えば、LED21aおよびLED21bを異なるタイミングで発光させる場合、被写体の動きに起因して、λ1画像上における被写体の位置と、λ2画像上における被写体の位置とがずれる事態を防止できる。
さらに、例えば、波長λ1の光のみを受光してλ1画像を生成するために、波長λ1の光のみを透過させる第1の透過フィルタが設けられた第1のカメラ、および波長λ2の光のみを受光してλ2画像を生成するために、波長λ2の光のみを透過させる第2の透過フィルタが設けられた第2のカメラを用いる場合のように、視差により、λ1画像およびλ2画像上の被写体の位置がずれてしまう事態を防止できる。
このため、肌検出処理では、λ1画像とλ2画像とで被写体の位置がずれていないので、肌検出の精度が低下する事態を防止することが可能となる。
<2.第2の実施の形態>
ところで、図3に示されたフィルタ板31を用いる場合には、受光した波長λ1の光の強度に対応した濃淡のあるλ1画像、および受光した波長λ2の光の強度に対応した濃淡のあるλ2画像が得られるものの、各画素がR(red)値、G(green)値、およびB(blue)値により構成されるRGB画像を得ることはできない。
そこで、カメラ22のイメージセンサの前面に設けられるフィルタ板として、λ1フィルタおよびλ2フィルタの他、R成分のみを透過させるRフィルタ、G成分のみを透過させるGフィルタ、B成分のみを透過させるBフィルタが設けられたフィルタ板71を採用することができる。
[フィルタ板による配列の一例]
次に、図8は、λ1フィルタ、λ2フィルタ、Rフィルタ、Gフィルタ、およびBフィルタが設けられたフィルタ板71の一例を示している。
このフィルタ板71には、図8に示されるように、奇数番目の行において、Rフィルタ(図8では「R」と記載)が1画素置きに配列されており、そのRフィルタの間にλ1フィルタとλ2フィルタとが交互に配列されている。また、フィルタ板71には、図8に示されるように、偶数番目の行において、Gフィルタ(図8では「G」と記載)とBフィルタ(図8ででは「B」と記載)とが交互に配列されている。
すなわち、フィルタ板71は、いわゆるベイヤー配列で配列されたRフィルタ、Gフィルタ、およびBフィルタにおいて、奇数番目の行に配列されたGフィルタを、λ1フィルタまたはλ2フィルタに置き換えたものである。
図9は、図8に示されたフィルタ板71を構成する各フィルタの透過特性の一例を示している。なお、図9において、横軸は波長を表しており、縦軸は量子効率を表している。
カメラ22では、図8に示されたようなフィルタ板71を用いるようにすれば、そのフィルタ板71を通して受光した反射光に基づき生成したモザイク画像に対して、RGB補間処理を行うことにより、RGB画像を生成することができるようになる。
すなわち、例えば、カメラ22は、生成したモザイク画像を構成する各画素の画素値のうち、Rフィルタが設けられた受光素子に対応する画素の画素値を用いて、Rフィルタ以外のフィルタが設けられている受光素子に対応する画素において、R成分を受光した場合に得られる画素値を補間する。
また、例えば、カメラ22は、生成したモザイク画像を構成する各画素の画素値のうち、Gフィルタが設けられた受光素子に対応する画素の画素値を用いて、Gフィルタ以外のフィルタが設けられている受光素子に対応する画素において、G成分を受光した場合に得られる画素値を補間する。
さらに、例えば、カメラ22は、生成したモザイク画像を構成する各画素の画素値のうち、Bフィルタが設けられた受光素子に対応する画素の画素値を用いて、Bフィルタ以外のフィルタが設けられている受光素子に対応する画素において、B成分を受光した場合に得られる画素値を補間する。
これにより、カメラ22は、各画素においてR値、G値、およびB値を有するRGB画像を生成することとなる。
なお、λ1画像およびλ2画像は、フィルタ板31が設けられている場合と同様にして、モザイク画像から生成される。
また、画像処理装置23では、例えば、LED21aおよびLED21bを消灯した状態で、カメラ22の撮像により得られるモザイク画像に基づき生成されたRGB画像に基づいて、カメラ22のゲイン等を調整することにより、太陽光や蛍光灯等の外光からの光に影響されず、精度良く肌を検出することができるようになる。
すなわち、例えば、カメラ22は、LED21aおよびLED21bを消灯した状態で得られるRGB画像を、制御部41に供給する。
そして、制御部41は、カメラ22からのRGB画像に基づいて、カメラ22のゲイン、発光装置21のLED21aやLED21bの照射光量を調整する肌検出調整処理を行なう。
制御部41は、カメラ22からのRGB画像を外光画像とし、その外光画像について、外光画像を構成する画素の画素値(例えば、輝度値)のヒストグラムを生成し、生成したヒストグラムに基づいて、カメラ22のゲインを調整する。
すなわち、例えば、制御部41は、生成したヒストグラムに基づいて、カメラ22が飽和(白とび等)せずに、λ1画像およびλ2画像に生じるノイズや、LED21aおよびLED21bの照射光量のばらつき等によっても、肌領域を精度良く検出できる範囲内で、カメラ22のゲインを調整する。
次に、図10は、制御部41が生成するヒストグラムの一例を示している。
図10において、横軸は輝度値を表しており、縦軸は、外光画像において横軸の輝度値を有する画素の総数を表している。なお、カメラ22は、輝度値が28(=256)階調により表される外光画像を生成するものとする。したがって、横軸は輝度値として0から255までの値を表している。
制御部41は、カメラ22からの外光画像に基づいて、図10に示されたようなヒストグラムを生成し、生成したヒストグラムに基づいて、外光画像を構成する画素の輝度値の平均値を表す輝度平均値を算出する。
そして、例えば、制御部41は、算出した輝度平均値に基づいて、肌領域を精度良く検出可能な範囲内、具体的には、例えば、算出した輝度平均値が、外光画像がとり得る最大の輝度値の半分以下となる範囲内で、カメラ22のゲインを調整する。
好ましくは、制御部41は、算出した輝度平均値が、外光画像がとり得る最大の輝度値の半分の輝度値となるように、カメラ22のゲインを調整する。
すなわち、例えば、制御部41は、図10に示されるように、輝度平均値165(図10において太い縦線で示す)を算出した場合、輝度平均値165を、外光画像がとり得る最大の輝度値255の半分の輝度値127(図10において太い点線で示す)となるように、ゲインを調整する。
制御部41は、ゲインを調整した後、発光装置21のLED21aおよびLED21bを制御して、LED21aおよびLED21bを同時に発光させる。また、制御部41は、カメラ22を制御し、カメラ22による被写体の撮像を行わせ、カメラ22から出力されるλ1画像およびλ2画像を、算出部42に供給させる。
さらに、制御部41は、算出部42および2値化部43を制御して、λ1画像およびλ2画像に基づく肌領域の検出を行わせる。
制御部41は、2値化部43からの肌領域の検出結果として、肌領域を検出できたことを表す検出結果を得た場合、LED21aおよびLED21bの照射光量を減少させて、肌領域を精度良く検出可能な必要最低限の照射光量となるように調整する。
また、制御部41は、LED21aおよびLED21bの照射光量を過度に減少させたことに起因して、肌領域の検出ができなくなったために、2値化部43からの肌領域の検出結果として、肌領域を検出できないことを表す検出結果を得た場合、肌領域を検出できるように、カメラ22のゲインを、現在のゲインよりも大きく調整する。
制御部41は、カメラ22のゲイン、並びにLED21aおよびLED21bの照射光量を調整し終わった後、肌領域の検出結果に基づく処理を行うために、算出部42および2値化部43を制御して、λ1画像およびλ2画像に基づく肌領域の検出を行わせる。
そして、制御部41は、2値化部43からの肌領域の検出結果に基づく処理を行う。すなわち、例えば、制御部41は、2値化部43からの検出結果に基づいて、ユーザのジェスチャやポスチャを認識し、認識したジェスチャ等に対応する処理を行なう。
[画像処理装置23が行う肌検出調整処理の詳細]
次に、図11のフローチャートを参照して、画像処理装置23が行なう肌検出調整処理について説明する。
ステップS31において、制御部41は、発光装置21およびカメラ22を制御し、発光装置21のLED21aおよびLED21bを消灯させた状態で、カメラ22による被写体の撮像を行わせ、その撮像により得られるモザイク画像を取得する。
そして、カメラ22は、取得したモザイク画像に対して、モザイク画像を構成する各画素の画素値のうち、R値、G値、またはB値のいずれかを有する画素値を用いたRGB補間処理を行い、その結果得られるRGB画像を、外光画像として制御部41に供給する。
ステップS32において、例えば、制御部41は、カメラ22からの外光画像に基づいて、ヒストグラムを生成し、生成したヒストグラムに基づいて、外光画像を構成する画素の輝度値の輝度平均値を算出する。
そして、制御部41は、算出した輝度平均値に基づいて、算出した輝度平均値が、外光画像がとり得る最大の輝度値の半分以下となるように、カメラ22のゲインを調整する。
好ましくは、制御部41は、算出した輝度平均値が、外光画像がとり得る最大の輝度値の半分の輝度値となるように、カメラ22のゲインを調整する。
ステップS33において、図7の肌検出処理が行われる。具体的には、例えば、カメラ22は、LED21aおよびLED21bを点灯させた状態で被写体の撮像を行う。そして、カメラ22は、その結果得られるモザイク画像に対して、λ1補間処理を行なうことにより得られるλ1画像、およびλ2補間処理を行なうことにより得られるλ2画像を、算出部42に供給する。
算出部42は、カメラ22からのλ1画像およびλ2画像に基づいて、差分画像を生成し、2値化部43に供給する。2値化部43は、算出部42からの差分画像を2値化肌画像に変換し、変換後の2値化肌画像に基づいて、肌領域の検出を試みる。
そして、2値化部43は、肌領域を検出できたか否かを表す検出結果を、制御部41に供給する。
ステップS34において、制御部41は、2値化部43からの検出結果に基づいて、肌領域を検出できたか否かを判定し、肌領域を検出できなかったと判定した場合、処理をステップS35に進める。
ステップS35において、制御部41は、直前のステップS32で調整したゲインが、調整することが可能な最大のゲインであるか否かを判定し、最大のゲインではないと判定した場合、処理をステップS36に進める。
ステップS36において、制御部41は、カメラ22を制御して、カメラ22のゲインを、現在設定されているゲインよりも大きくなるように調整し、処理はステップS33に戻り、算出部42は、ゲインが調整された後のカメラ22の撮像により新たに供給されるλ1画像およびλ2画像を取得し、それ以降同様の処理が行われる。
また、ステップS35において、制御部41は、直前のステップS32で調整したゲインが、調整することが可能な最大のゲインであると判定した場合、これ以上ゲインを大きく調整することができないため、処理をステップS37に進める。
ステップS37において、制御部41は、発光装置21を制御して、LED21aおよびLED21bの照射光量を所定の値に初期化し、処理をステップS31に戻し、再度、肌検出調整処理をやり直す。
すなわち、処理がステップS37に進められた場合、後述するステップS39において、LED21aおよびLED21bの照射光量を減少させ過ぎたために、肌領域を検出できない事態が生じていると考えられるため、LED21aおよびLED21bの照射光量を所定の値に初期化し、再度、肌検出調整処理をやり直すようにしている。
一方、ステップS34において、制御部41は、2値化部43からの検出結果に基づいて、肌領域を検出できたと判定した場合、処理をステップS38に進める。なお、この場合、2値化部43は、肌領域を検出できた旨を表す検出結果とともに、生成した2値化肌画像、および算出部42からの差分画像を、制御部41に供給している。
ステップS38において、制御部41は、2値化部43からの2値化肌画像および差分画像に基づいて、LED21aおよびLED21bの照射光量が、肌領域を検出するために必要最小限の照射光量であるか否かを判定する。
すなわち、例えば、制御部41は、2値化部43からの2値化肌画像に基づいて、2値化部43からの差分画像から、2値化肌画像上の肌領域(例えば、画素値が1である画素により構成される領域)に対応する肌領域を抽出する。
そして、制御部41は、抽出した差分画像上の肌領域を構成する画素の画素値が、肌検出可能値(算出部42からの差分画像上の非肌領域を構成する画素の画素値よりも十分に大きな値)と同程度である場合、LED21aおよびLED21bの照射光量が必要最小限の照射光量であると判定し、肌検出可能値よりも大きな値である場合、必要最小限の照射光量ではないと判定する。
具体的には、例えば、制御部41は、抽出した差分画像上の肌領域を構成する画素の画素値の平均値が肌検出可能値と同程度である場合、必要最小限の照射光量であると判定し、肌検出可能値よりも大きな値である場合、必要最小限の照射光量ではないと判定する。
ステップS38において、制御部41は、LED21aおよびLED21bの照射光量が、肌領域を検出するために必要最小限の照射光量ではないと判定した場合、処理をステップS39に進める。
ステップS39において、制御部41は、発光装置21を制御して、LED21aおよびLED21bの照射光量を減少させ、肌領域を検出するために必要最小限の照射光量となるように調整する。
すなわち、例えば、制御部41は、カメラ22の撮像により得られるλ1およびλ2画像上の肌領域を構成する画素の輝度値が、肌領域を精度良く検出可能な必要最低限の輝度値となるように、つまり、差分画像上の肌領域を構成する画素の画素値の平均値が肌検出可能値と同程度となるように、LED21aおよびLED21bの照射光量を調整する。
制御部41は、ステップS39の処理の終了後、処理をステップS33に戻す。ステップS33では、算出部42は、照射光量が調整されたLED21aおよびLED21bの点灯に応じて、カメラ22の撮像が行なわれてカメラ22から出力されるλ1およびλ2画像を取得し、それ以降同様の処理が行われる。
なお、ステップS38において、制御部41は、LED21aおよびLED21bの照射光量が、肌領域を検出するために必要最小限の照射光量であると判定した場合、肌検出調整処理を終了させ、それ以降、図7の肌検出処理が行なわれる。
以上説明したように肌検出調整処理では、例えば、制御部41は、外光画像を構成する画素の輝度値の輝度平均値が、カメラ22の撮像により得られる最大の輝度値の半分の輝度値となるように、カメラ22のゲインを調整するようにした。
この場合、制御部41では、肌領域を精度良く検出可能な範囲内、具体的には、例えば、算出した輝度平均値が、外光画像がとり得る最大の輝度値の半分以下となる範囲内で、最もゲインが大きくなるように調整することとなるので、肌領域の検出精度を維持しつつ、肌領域を検出可能な検出可能距離を伸ばすことが可能となる。
また、肌検出調整処理では、肌領域を検出するために必要最小限の照射光量となるように、LED21aおよびLED21bの照射光量を減少させるようにしたので、肌領域の検出精度を維持しつつ、LED21aおよびLED21bの照射に必要な電力を減らして省電力化を図ることが可能となる。
[第2の実施の形態における変形例]
なお、肌検出調整処理では、制御部41が、カメラ22からの外光画像のヒストグラムに基づいて、外光画像の輝度平均値を生成し、生成した輝度平均値に基づいて、カメラ22のゲインを調整するようにしたが、カメラ22のゲインの調整方法はこれに限定されない。
すなわち、例えば、制御部41は、図12に示されるように、カメラ22からの外光画像に基づき生成したヒストグラムにおいて、画素数が最大であるときの輝度値を表すピーク値(いまの場合、172)が、外光画像がとり得る最大の輝度値の半分以下となるように、カメラ22のゲインを調整するようにしてもよい。
なお、制御部41は、図12に示される場合において、輝度値255がピーク値となっている場合には、輝度値が255となっている(飽和している)部分を除外した上でピーク値を算出し、算出したピーク値に基づいて、カメラ22のゲインを調整するようにしてもよい。
また、例えば、制御部41は、図13に示されるように、カメラ22からの外光画像に基づき生成したヒストグラムにおいて、値が小さな輝度値を有する画素から順次積算(加算)して得られる画素数を表す画素積算数に基づき特定される輝度値が、外光画像がとり得る最大の輝度値の半分以下となるように、カメラ22のゲインを調整することができる。
すなわち、例えば、制御部41は、画素積算数が、ヒストグラムにおける総画素数の80パーセントに相当する画素数となるときに積算された画素の輝度値(いまの場合、202)が、外光画像がとり得る最大の輝度値の半分以下となるように、カメラ22のゲインを調整することができる。
また、肌検出調整処理では、制御部41は、外光画像のヒストグラムに基づいて、カメラ22のゲインを調整するようにしたが、カメラ22のゲイン、受光感度、または露光(受光)時間等の少なくとも1つを調整するように構成することが可能である。
ところで、第1の実施の形態では、図9に示されたような透過特性となるように、Rフィルタ、Gフィルタ、およびBフィルタを作成するようにして、図8に示されるフィルタ板71を作成するようにしているが、従来のRフィルタ、Gフィルタ、およびBフィルタを用いるようにして、図9に示されたような透過特性となるフィルタ板71を構成することができる。
次に、図14乃至図16を参照して、従来のRフィルタ、Gフィルタ、およびBフィルタを用いて、図9に示されるフィルタ板71のRフィルタ、Gフィルタ、およびBフィルタと同様のフィルタを作成する場合について説明する。
図14は、従来のRフィルタ、Gフィルタ、およびBフィルタの透過特性の一例を示している。
図15は、従来のIR(infrared)カットフィルタにより遮断される波長の一例を示している。従来のIRカットフィルタは、図15に示されるように、約800[nm]以上の赤外線(図15に示される2点鎖線を境界として右側)を遮断し、約800[nm]未満の光(図15に示される2点鎖線を境界として左側)を透過させる。
図16は、従来のRフィルタ、Gフィルタ、およびBフィルタそれぞれの前面に、従来のIRカットフィルタを設けた場合の透過特性の一例を示している。
このように、従来のRフィルタ、Gフィルタ、およびBフィルタそれぞれの前面に、従来のIRカットフィルタを設けるだけで、図16に示されたような透過特性となるRフィルタ、Gフィルタ、およびBフィルタを実現することができる。
そして、従来のRフィルタ、Gフィルタ、およびBフィルタそれぞれの前面に、従来のIRカットフィルタを設けたものと、λ1フィルタおよびλ2フィルタとを、図8に示されるように配列すれば、図9に示されたような透過特性となるフィルタ板71を実現できる。
この場合、従来のRフィルタ、Gフィルタ、Bフィルタ、およびIRカットフィルタを用いるので、図9に示されたような透過特性となるような、Rフィルタ、Gフィルタ、およびBフィルタを新たに作成する必要がなく、より容易にフィルタ板71を実現することが可能となる。
なお、フィルタ板におけるRフィルタ、Gフィルタ、Bフィルタ、λ1フィルタ、およびλ2フィルタの配列は、図8に示されたような配列に限定されず、例えば、図17に示されたような配列とするようにして新たなフィルタ板81を作成することができる。
また、従来のベイヤー配列のフィルタ板をそのまま用いて、図9に示されるような透過特性となるフィルタ板を実現することができる。
次に、図18乃至図20を参照して、従来のベイヤー配列のフィルタ板をそのまま用いて、図9に示されるような透過特性となるフィルタ板を実現する場合の一例を説明する。
図18は、従来のベイヤー配列により配列されたフィルタ板91の一例を示している。
このフィルタ板91には、Gフィルタ(図18でいう「G」に対応)が市松模様状に配列され、Rフィルタ(図18でいう「R」に対応)が、奇数番目の列においてGフィルタの間に交互に配置され、Bフィルタ(図18でいう「B」に対応)が、偶数番目の列においてGフィルタの間に交互に配置されている。
なお、フィルタ板91上の、縦横2個ずつの4個で構成されるフィルタとして、1個のRフィルタ、1個のBフィルタ、および2個のGフィルタが存在し、Gフィルタが、RフィルタおよびBフィルタと比較して1個だけ多くなっているが、これは、G成分に対応する緑色が、人間にとって比較的見にくい色であることによる。
次に、図19は、λ1フィルタおよびλ2フィルタが設けられたIRカットフィルタ92の一例を示している。
このIRカットフィルタ92には、λ1フィルタ(図19でいうIR870)およびλ2フィルタ(図19でいうIR950)が、それぞれ1画素分だけ離れた状態で、市松模様状に配列されている。なお、IRカットフィルタ92のうち、λ1フィルタおよびλ2フィルタが設けられていない部分(図19の空白部分)は、図15に示されたような透過(遮断)特性を有するIRカットフィルタとして機能する。
フィルタ板91の前面を、IRカットフィルタ92で覆うことにより、図20に示されたようなフィルタ板93を作成する。このフィルタ93は、図9に示されたような透過特性を有するものとなる。
なお、情報処理システム1は、テレビジョン受像機等の電子装置に内蔵できるように、小型化することができる。
次に、図21は、小型化された情報処理システム1としての小型モジュール1'の一例を示している。
この小型モジュール1'は、後述する光源群102を構成するLEDからの光を補正して被写体に照射するレンズ101、複数のLED21aおよびLED21bにより構成される光源群102、光源群102を構成する複数のLED21aおよびLED21bを配置する光源用基板103aおよび後述するカメラ104および画像処理部105を配置する処理用基板103bからなる基板103、図1のカメラ22と同様に構成されているカメラ104、図1の画像処理装置23と同様に構成されている画像処理部105、並びに、レンズ101、光源用基板103a、および処理用基板103bを支持する支持部材106により構成される。
なお、この小型モジュール1'は、例えば、図22に示されるように、テレビジョン受像機141のディスプレイ141aの上部に内蔵され、テレビジョン受像機141のディスプレイ141aの前面に存在するユーザの手の形状等を認識し、その認識結果に基づいて、テレビジョン受像機141の音量やチャンネル等を変更する処理を行なう。
<3.第3の実施の形態>
ところで、小型モジュール1'を内蔵したテレビジョン受像機141は、肌を検出する肌検出装置の他、テレビジョン受像機141を操作するためのリモートコマンダ121の位置を検出する位置検出装置としても機能させることができる。
図22は、位置検出装置として機能するテレビジョン受像機141の構成例を示している。
このテレビジョン受像機141は、テレビ番組等の画像を表示させるディスプレイ141aの上部に、小型モジュール1'を内蔵している。
テレビジョン受像機141に内蔵された小型モジュール1'は、被写体を撮像して得られるλ1画像に基づいて、ユーザが操作するリモートコマンダ121の位置を検出する。
すなわち、例えば、ユーザが、リモートコマンダ121のLED121aから波長λ1の光を照射させている状態で、リモートコマンダ121を移動させる場合、小型モジュール1'は、被写体を撮像し、その撮像により得られるモザイク画像に対して、λ1補間処理を行い、その結果得られるλ1画像上の、LED121aの位置(リモートコマンダ121の位置)を検出する。
そして、小型モジュール1'は、検出したLED121aの位置に対応する、ディスプレイ141a上の位置161に、ポインタ等を表示させる。
[テレビジョン受像機141が行なうLED検出処理]
次に、図23のフローチャートを参照して、テレビジョン受像機141が内蔵する小型モジュール1'が行なうLED検出処理について説明する。
なお、ユーザは、ディスプレイ141a上のポインタを移動させるように、リモートコマンダ121のLED121aから波長λ1の光を照射させている状態で、リモートコマンダ121を、例えば、上下左右方向に移動させているものとする。また、LED検出処理において、光源群102は常に消灯された状態とされる。このことは、図24を参照して説明するLED検出調整処理についても同様である。
ステップS71において、カメラ104は、図1のカメラ22と同様にして、撮像を行い、カメラ104のイメージセンサにより受光される光を光電変換してモザイク画像を生成する。
ステップS72において、カメラ104は、生成したモザイク画像に基づいて、λ1補間処理を行い、その結果得られるλ1画像を生成し、画像処理部105に供給する。
なお、カメラ104の撮像範囲内において、波長λ1の光を照射する光源は、LED121aのみである。
したがって、λ1画像上の全領域のうち、LED121aが存在するLED表示領域を構成する各画素の画素値が、LED表示領域以外の領域を構成する各画素の画素値よりも比較的大きくなっている。
このため、ステップS73において、画像処理部105は、カメラ104からのλ1画像を構成する画素の画素値が予め決められたLED閾値以上であるか否かに基づいて、λ1画像上の、波長λ1の光を照射しているLED121a(からの光)が表示されたLED表示領域の検出を試みる。
ステップS73において、画像処理部105は、カメラ104からのλ1画像上の全領域のうち、画素値がLED閾値以上であると判定した領域を、LED表示領域として検出する。
ステップS74において、画像処理部105は、検出したLED表示領域の重心を、λ1画像上のLED位置として算出し、算出したLED位置に対応するディスプレイ141a上の位置161に、ポインタを表示させる。これにより、ユーザは、リモートコマンダ121のLED121aを移動させることにより、ディスプレイ141a上のポインタを移動させることができる。
以上説明したように、LED検出処理では、小型モジュール1'が、リモートコマンダ121のLED121aから出射される波長λ1の光に基づいて、リモートコマンダ121aのLED121aの位置を算出するようにした。そして、算出したLED121aの位置に対応して、ディスプレイ141a上のポインタを移動させるようにした。
このため、ユーザは、リモートコマンダ121aを、ディスプレイ141a上のポインタを移動させるための装置として用いることができるようになる。
ところで、外光からカメラ104に対して、波長λ1の光が多く照射される場合には、外光からの波長λ1の光に起因して、LED位置を誤検出することが生じ得る。
[テレビジョン受像機141が行なうLED検出調整処理]
次に、図24のフローチャートを参照して、外光に応じて、カメラ104のゲインを調整するようにして、外光の影響によらず、LED位置を検出するLED検出調整処理について説明する。
なお、この場合、カメラ104のイメージセンサには、RGB画像も生成可能なフィルタ板として、例えば、図8のフィルタ板が設けられているものとする。
ステップS101において、カメラ104は、被写体の撮像を行い、その撮像により得られるモザイク画像を取得する。そして、カメラ22は、取得したモザイク画像に対して、モザイク画像を構成する各画素の画素値のうち、R値、G値、またはB値のいずれかを有する画素値を用いたRGB補間処理を行い、その結果得られるRGB画像を、外光画像として、画像処理部105に供給する。
ステップS102において、画像処理部105は、カメラ104からの外光画像に基づいて、ヒストグラムを生成し、生成したヒストグラムに基づいて、外光画像を構成する画素の輝度値の輝度平均値を算出する。
そして、画像処理部105は、算出した輝度平均値に基づいて、算出した輝度平均値が、外光画像がとり得る最大の輝度値の半分以下となるように、カメラ104のゲインを調整する。
好ましくは、画像処理部105は、算出した輝度平均値が、外光画像がとり得る最大の輝度値の半分の輝度値となるように、カメラ104のゲインを調整する。
ステップS103において、図23のLED検出処理と同様の処理が行なわれることにより、画像処理部105がLED位置の検出を試みる。
ステップS104において、画像処理部105は、LED位置を検出できた場合、処理をステップS105に進め、例えば、算出したLED位置に対応する、テレビジョン受像機141のディスプレイ141a上の位置161に、ポインタを表示させ、処理をステップS103に戻し、それ以降同様の処理を行なう。
ステップS104において、画像処理部105は、LED位置を検出できなかった場合、処理をステップS106に進める。そして、ステップS106において、画像処理部105は、カメラ104を制御して、カメラ104のゲインを、現在設定されているゲインよりも大きくなるように調整し、処理はステップS103に戻り、画像処理部105は、ゲインが調整された後のカメラ104による撮像が行なわれて出力される新たなλ1画像を取得し、それ以降同様の処理が行われる。
以上説明したように、LED検出調整処理によれば、外光からの光に拘らず、LED位置が検出できるように、カメラ104からの外光画像に基づいて、カメラ104のゲインを調整するようにしたので、外光からの光によらず、精度良くLED位置を検出できる。
なお、LED検出処理、およびLED検出調整処理では、波長λ1の光を照射するLED121aの位置を検出するようにしたが、LED121aが、波長λ1の光に代えて、波長λ2の光を照射する場合についても同様に、LED121aの位置を検出できる。但し、この場合、λ1画像の代わりに、λ2画像を用いたLED121aの位置の検出が行なわれる。
また、例えば、波長λ1の光を照射する第1のLEDを有するリモートコマンダを移動させる第1のユーザと、波長λ2の光を照射する第2のLEDを有するリモートコマンダを移動させる第2のユーザとが存在する場合、LED検出処理では、第1および第2のLEDそれぞれの位置を検出するようにすることができる。
具体的には、例えば、第1および第2のLEDそれぞれの位置を検出する場合、LED検出処理では、ステップS72において、カメラ104が、生成したモザイク画像に対してλ1補間処理を行なうことにより得られるλ1画像と、生成したモザイク画像に対してλ2補間処理を行なうことにより得られるλ2画像を、画像処理部105に供給する。
そして、ステップS73において、画像処理部105は、カメラ104からのλ1画像に基づいて第1のLEDの位置の検出を行なうとともに、カメラ104からのλ2画像に基づいて第2のLEDの位置の検出を行なうこととなる。
ステップS74では、画像処理部105は、検出した第1のLEDの位置に対応して、対応する第1のポインタを移動させ、検出した第2のLEDの位置に対応して、対応する第2のポインタを移動させるようにする。
また、LED検出調整処理においても同様に、ステップS103において、λ1画像に基づいて第1のLEDの位置の検出を試みるとともに、λ2画像に基づいて第2のLEDの位置の検出を試みる。そして、ステップS104において、例えば、第1および第2のLEDそれぞれの位置が検出できたか否かを判定することとなる。
このように、第1のLEDの位置と、第2のLEDの位置とを検出できるようにした場合、例えば、図25A乃至Dに示されるように、カメラ104によるRGB補間処理により得られるRGB画像上に、第1のLEDの位置と、第2のLEDの位置とを重畳させた画像を、ディスプレイ141aに表示させることができるようになる。
したがって、例えば、上述したテレビジョン受像機141とリモートコマンダ121とを用いることにより、ゲームのアプリケーションを実現することが可能となる。
具体的には、例えば、図25Dに示されるように、第1のユーザを守備側とし、第2のユーザが攻撃側とする野球ゲームを実現する場合には、第1のLEDの位置を守備側のグローブの位置として認識し、第2のLEDの位置を攻撃側のバットの位置として認識するようにする。
また、例えば、リモートコマンダ121に、第1のLED(LED121a)の他、第2のLEDを設けるようにすれば、LED検出処理等により検出される第1および第2のLEDそれぞれの位置関係に応じて、リモートコマンダ121の姿勢(例えば、操作面を上向きに持っているのか下向きに持っているか等)を判断できる。
したがって、この場合、リモートコマンダ121の姿勢に応じて、オセロゲームの駒や将棋の駒等を裏返す操作を判断することが可能となるので、テレビジョン受像機141とリモートコマンダ121とを用いて、オセロゲームや将棋等のアプリケーションを実現できるようになる。
また、リモートコマンダ121の姿勢の変化に応じて、リモートコマンダ121がいずれの方向に回転されたか等も判断できるようになるので、リモートコマンダ121の姿勢の変化を、テレビジョン受像機141のチャンネルを切り替える操作や、音量を変更する操作等に対応付ければ、リモートコマンダ121の動きに応じて、チャンネルや音量を変更することが可能となる。
さらに、例えば、小型モジュール1'からリモートコマンダ121(LED121a)までの距離が近い程、LED表示領域が大きくなることを利用して、検出したLED表示領域の大きさに基づいて、小型モジュール1'からリモートコマンダ121(LED121a)までの距離を計測するようにすることができる。
[第3の実施の形態における変形例]
第3の実施の形態では、LED位置を検出するために、λ1フィルタおよびλ2フィルタを少なくとも有するフィルタ板を用いるようにしたが、さらに、発光スペクトルのピーク波長がλ3(λ1,λ2のいずれとも異なる)の光(以下、波長λ3の光)を透過させるλ3フィルタを設けるようにしてもよい。
すなわち、例えば、それぞれ異なる波長λ1乃至λNの光を、それぞれ、透過させるN個のλ1フィルタ乃至λNフィルタを有するフィルタ板を用いるようにしてもよい。
この場合、波長λ1乃至λNの光をそれぞれ照射する第1乃至第NのLEDを用いるようにすれば、LED検出処理、およびLED検出調整処理において、第1乃至第NのLEDの位置を検出できるようになる。
したがって、例えば、第1のユーザと第2のユーザとの間でボクシングゲームを行なうことが可能なアプリケーションを実現する場合、第1のユーザの右手に第1のLEDを、左手に第2のLEDを装着し、第2のユーザの右手に第3のLEDを、左手に第4のLEDを装着すればよい。
これにより、小型モジュール1'において、第1のユーザの右手および左手の位置、並びに第2のユーザの右手および左手の位置を認識できることとなり、ボクシングゲームのアプリケーションを実現できるようになる。
また、LED検出処理、およびLED検出調整処理において、波長λ1の光を照射するLED121aの位置のみを検出する場合には、カメラ104のイメージセンサにおいて、少なくともλ1フィルタを有するフィルタ板を設けるだけでよく、λ2フィルタは必須ではない。
なお、上述したように、例えば、情報処理システム1が肌検出処理を行い、テレビジョン受像機141に内蔵された小型モジュール1'がLED検出処理を行なうようにしたが、情報処理システム1および小型モジュール1'は、いずれも肌検出処理およびLED検出処理を行なうことが可能である。このことは、肌検出調整処理およびLED検出調整処理についても同様のことがいえる。
具体的には、例えば、情報処理システム1において、制御部41が、発光装置21を制御して、LED21aおよびLED21bの発光を中止させるようにした状態で、LED検出処理を行なうようにし、制御部41が、発光装置21を制御して、LED21aおよびLED21bの発光を行わせている状態で、肌検出処理を行なうようにしてもよい。
このように、情報処理システム1が、肌検出処理とLED検出処理の両方を行なうことができる場合には、ユーザの好みに応じて、ユーザの手の形状や動きによるハンドフリー操作、またはリモートコマンダ(例えば、図22のリモートコマンダ121)の動きによるコントローラ操作のいずれかを選択できる。
また、上述したように、第1のユーザと、第2のユーザとでゲームを行なう場合には、肌検出処理とLED検出処理とを適宜切り替えて実行することにより、例えば、第1のユーザにおいてはハンドフリー操作を行うようにし、第2のユーザにおいてはコントローラ操作を行うようにすることができる。
<4.第4の実施の形態>
ここまでに説明した第1乃至第3の実施の形態では、波長λ1の光と波長λ2の光とを同時に照射して撮像を行うようにした。すなわち、図26に示すように、波長λ1の光を所定の期間、一定の輝度で照射し、これと同時に、波長λ2の光を所定の期間、一定の輝度で照射して撮像を行うようにした。そして、カメラ22を構成するイメージセンサでは、各受光素子にλ1フィルタまたはλ2フィルタが設けられ、イメージセンサから出力されるモザイク画像を元にした補間処理によってλ1画像およびλ2画像を生成した。したがって、第1乃至第3の実施の形態では、1回の撮像により、λ1画像およびλ2画像を得ることができる。また、波長λ1用、波長λ2用の受光素子を別々に設け、各々にその波長用のフィルタを設けることでも同じように実現が可能である。
これに対して、以下に説明する第4の実施の形態では、波長λ1の光と波長λ2の光とを、その輝度をそれぞれ異なる周波数で交流的に変動させて同時に照射し、撮像を行う。
図27は、第4の実施の形態による、輝度変動を伴う照射と撮像のタイミングを示している。すなわち、第4の実施の形態では、波長λ1の光を所定の期間、その輝度を所定の周波数f1で交流的に変動させて照射し、これと同時に、波長λ2の光を所定の期間、その輝度を所定の周波数f2で交流的に変動させて照射し、撮像を行う。なお、周波数f1,f2については任意であるが、他の装置(例えば、赤外線リモートコントローラなど)が発する赤外線の周波数との干渉が生じないように適切に設定するようにする。
そして、カメラ22を構成するイメージセンサでは、光電変換により得られる電気信号を2分配し、それぞれを周波数f1用狭帯域フィルタ、または周波数f2用狭帯域フィルタを透過させることによって、λ1画像およびλ2画像を生成する。したがって、第4の実施の形態でも、1回の撮像により、λ1画像およびλ2画像を得ることができる。
図28は、第4の実施の形態におけるカメラ22を構成するCOMSイメージセンサの、λ1画像およびλ2画像の1画素に対応する構成例を示している。
このCMOSイメージセンサ200は、主にフォトダイオード201、アンプ202、f1用狭帯域フィルタ203、キャパシタ204および208、ダイオード205および209、ゲート206および210、並びにf2用狭帯域フィルタ207から成る。
CMOSイメージセンサ200においては、フォトダイオード201による光電変換によって被写体の光学像が電気信号に変換され、アンプ202により増幅された電気信号はf1用狭帯域フィルタ203とf2用狭帯域フィルタ207に2分配される。さらに、被写体の光学像に対応する電気信号は、f1用狭帯域フィルタ203によって、周波数f1の交流成分のみが透過されて、キャパシタ204によってAC結合され、信号振幅に応じた電荷がダイオード205を通じてゲート206に蓄積される。ゲート206に蓄積された電荷がλ1画像の画素とされる。同様に、被写体の光学像に対応する電気信号は、f2用狭帯域フィルタ207によって、周波数f2の交流成分のみが透過されて、キャパシタ208によってAC結合され、信号振幅に応じた電荷がダイオード209を通じてゲート210に蓄積される。ゲート210に蓄積された電荷がλ2画像の画素とされる。
なお、上述したように、f1用狭帯域フィルタ203およびf2用狭帯域フィルタ207においては、それぞれ周波数f1またはf2の交流成分のみが透過される。換言すれば、被写体の光学像に対応する電気信号のうちの直流成分は破棄されることになる。
ところで、一般に、被写体からの光学像には、意図的に照射された波長λ1およびλ2の照射光の他、外光によるものが含まれる。日光や各種照明などによる外光は、若干の交流成分を含むものの直流成分が主である。したがって、f1用狭帯域フィルタ203を透過し、ゲート206に蓄積された電荷、すなわち、λ1画像は、外光成分を排除したものであるということができる。同様に、λ2画像も、外光成分を排除したものであるということができる。
図29は、第4の実施の形態においてλ1画像およびλ2画像を生成するまでの処理(以下、λ1画像およびλ2画像の生成処理と称する)を説明するフローチャートである。
ステップS201において、発光装置21は、LED21aを制御して、波長λ1の光を、その輝度を所定の周波数f1で交流的に変動させて照射させるとともに、LED21bを制御して、波長λ2の光を、その輝度を所定の周波数f2で交流的に変動させて照射させる。
ステップS202において、カメラ22は、発光装置21により波長λ1の光と波長λ2の光とが照射されている被写体を撮像する。すなわち、カメラ22の構成するCMOSイメージセンサ200のフォトダイオード201が被写体の光学像が電気信号に変換する。電気信号は、アンプ202により増幅された後にf1用狭帯域フィルタ203とf2用狭帯域フィルタ207に2分配され、f1用狭帯域フィルタ203は、電気信号の周波数f1の交流成分のみをキャパシタ204に透過する。この結果、ゲート206には、λ1画像の画素となる電荷が蓄積されたことになる。同様に、ステップS204において、f2用狭帯域フィルタ207は、電気信号の周波数f2の交流成分のみをキャパシタ208に透過する。この結果、ゲート210には、λ2画像の画素となる電荷が蓄積されたことになる。
ステップS203において、λ1画像の画素となる電荷を読み出しλ1画像を生成する。同様に、ステップS204において、λ2画像の画素となる電荷を読み出しλ1画像を生成する。
以上のようにして、λ1画像およびλ2画像が生成される。なお、当該処理は、第1の実施の形態による肌検出処理のうちの、ステップS1およびS2の処理に代えて行うものであり、これ以降の処理については、上述した肌検出処理のステップS3以降と同様であるのでその説明は省略する。
第4の実施の形態により得られたλ1画像とλ2画像は、画素の補間処理を伴わず、外光成分(直流成分)が除外され、さらに、被写体の位置がずれていないので、被写体に動きがあったとしても、その肌を精度良く検出することができる。
<5.第5の実施の形態>
第5の実施の形態では、波長λ1の光と波長λ2の光とを、その輝度を同一の周波数で交流的に変動させて交互に照射、撮像を行う。
図30は、第5の実施の形態による、輝度変動を伴う照射と撮像のタイミングを示している。すなわち、第5の実施の形態では、波長λ1の光を所定の期間、その輝度を所定の周波数f3で交流的に変動させて照射、撮像を行い、次に、波長λ2の光を所定の期間、その輝度を周波数f3で交流的に変動させて照射、撮像を行う。
そして、カメラ22を構成するイメージセンサでは、光電変換により得られる電気信号を、周波数f3用狭帯域フィルタを透過させることによって、λ1画像とλ2画像とを交互に生成する。したがって、第5の実施の形態では、2回の撮像により、λ1画像およびλ2画像を得ることができる。
図28は、第5の実施の形態におけるカメラ22を構成するCOMSイメージセンサの、λ1画像およびλ2画像の1画素に対応する構成例を示している。
このCMOSイメージセンサ300は、主にフォトダイオード301、アンプ302、f3用狭帯域フィルタ303、キャパシタ304、ダイオード305、およびゲート306から成る。f3用狭帯域フィルタ303は、ハードウェアまたはソフトウェアのいずれで構成してもよい。
CMOSイメージセンサ300においては、フォトダイオード301による光電変換によって被写体の光学像が電気信号に変換され、アンプ302により増幅された電気信号は、f3用狭帯域フィルタ303によって、周波数f3の交流成分のみが透過されて、その電荷がゲート306に蓄積される。したがって、波長λ1の光が照射されているときにゲート306に蓄積された電荷がλ1画像の画素とされ、波長λ2の光が照射されているときにゲート306に蓄積された電荷がλ2画像の画素とされる。
f3用狭帯域フィルタ303においては、周波数f3の交流成分のみが透過される。換言すれば、被写体の光学像に対応する電気信号のうちの直流成分は破棄されることになる。したがって、f3用狭帯域フィルタ303を透過し、ゲート306に蓄積された電荷、すなわち、λ1画像およびλ2画像は、外光成分を排除したものであるということができる。
図32は、第5の実施の形態によるλ1画像およびλ2画像の生成処理を説明するフローチャートである。
ステップS211において、発光装置21は、LED21aを制御して、波長λ1の光を、その輝度を所定の周波数f3で交流的に変動させて照射させる。ステップS212において、カメラ22は、発光装置21により波長λ1の光が照射されている被写体を撮像する。すなわち、カメラ22の構成するCMOSイメージセンサ300のフォトダイオード301が被写体の光学像が電気信号に変換する。電気信号は、アンプ302により増幅された後にf3用狭帯域フィルタ303に入力され、f3用狭帯域フィルタ303は、電気信号の周波数f3の交流成分のみをキャパシタ304に透過する。この結果、ゲート306には、λ1画像の画素となる電荷が蓄積されたことになる。
ステップS213において、λ1画像の画素となる電荷を読み出しλ1画像を生成する。
ステップS214において、発光装置21は、LED21bを制御して、波長λ2の光を、その輝度を所定の周波数f3で交流的に変動させて照射させる。ステップS215において、カメラ22は、発光装置21により波長λ2の光が照射されている被写体を撮像する。すなわち、カメラ22の構成するCMOSイメージセンサ300のフォトダイオード301が被写体の光学像が電気信号に変換する。電気信号は、アンプ302により増幅された後にf3用狭帯域フィルタ303に入力される。
ステップS216において、f3用狭帯域フィルタ303は、電気信号の周波数f3の交流成分のみをキャパシタ304に透過する。この結果、ゲート306には、λ2画像の画素となる電荷が蓄積されたことになる。
以上のようにして、λ1画像およびλ2画像が生成される。なお、当該処理も、第1の実施の形態による肌検出処理のうちの、ステップS1およびS2の処理に代えて行うものであり、これ以降の処理については、上述した肌検出処理のステップS3以降と同様であるのでその説明は省略する。
第5の実施の形態により得られたλ1画像とλ2画像は、画素の補間処理を伴わず、外光成分(直流成分)が除外されているので、被写体の肌を精度良く検出することができる。
ところで、上述した一連の処理は、専用のハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、いわゆる組み込み型のコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータ等に、記録媒体からインストールされる。
[コンピュータの構成例]
次に、図33は、上述した一連の処理をプログラムにより実行するコンピュータの構成例を示している。
このコンピュータ500において、CPU501は、ROM502、または記憶部508に記憶されているプログラムに従って各種の処理を実行する。RAM503には、CPU501が実行するプログラムやデータ等が適宜記憶される。これらのCPU501、ROM502、およびRAM503は、バス504により相互に接続されている。
CPU501にはまた、バス504を介して入出力インタフェース505が接続されている。入出力インタフェース505には、キーボード、マウス、マイクロホン等よりなる入力部506、ディスプレイ、スピーカ等よりなる出力部507が接続されている。CPU501は、入力部506から入力される指令に対応して各種の処理を実行する。そして、CPU501は、処理の結果を出力部507に出力する。
入出力インタフェース505に接続されている記憶部508は、例えばハードディスクからなり、CPU501が実行するプログラムや各種のデータを記憶する。通信部509は、インターネットやローカルエリアネットワーク等のネットワークを介して外部の装置と通信する。また、通信部509を介してプログラムを取得し、記憶部508に記憶してもよい。
入出力インタフェース505に接続されているドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア511が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータ等を取得する。取得されたプログラムやデータは、必要に応じて記憶部508に転送されて記憶される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録(記憶)する記録媒体は、磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア511、または、プログラムが一時的もしくは永続的に格納されるROM502や、記憶部508を構成するハードディスク等により構成される。記録媒体へのプログラムの記録は、必要に応じてルータ、モデム等のインタフェースである通信部509を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、上述した一連の処理を記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本発明の実施の形態は、上述した本実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 情報処理システム, 21 発光装置, 22 カメラ, 23 画像処理装置, 31 フィルタ板, 41 制御部, 42 算出部, 43 2値化部, 81 フィルタ板, 93 フィルタ板, 101 レンズ, 102 光源群, 103 基板, 103a 光源用基板, 103b 処理用基板, 104 カメラ, 105 画像処理部, 106 支持部材, 121 リモートコマンダ, 121a LED 141 テレビジョン受像機, 141a ディスプレイ, 200 CMOSイメージセンサ, 203 f1用狭帯域フィルタ, 207 f2用狭帯域フィルタ, 300 CMOSイメージセンサ, 303 f3用狭帯域フィルタ, 500 コンピュータ, 501 CPU

Claims (17)

  1. 画像上から人間の肌を表す肌領域を検出する画像処理装置において、
    第1の波長の光、および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、
    前記第1の波長の光を受光する第1の受光素子と、前記第2の波長の光を受光する第2の受光素子とを少なくとも有する画像センサを内蔵し、前記画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されているときの前記被写体からの反射光に基づいて第1のモザイク画像を生成する第1の生成手段と、
    前記第1のモザイク画像を構成する各画素において、前記第1の受光素子に対応する画素の画素値に基づく第1の補間処理により得られる第1の画像、および前記第2の受光素子に対応する画素の画素値に基づく第2の補間処理より得られる第2の画像を生成する第2の生成手段と、
    前記第1および第2の画像に基づいて前記肌領域を検出する検出手段と
    を含む画像処理装置。
  2. 前記第1の生成手段は、前記第1および第2の受光素子の他、R(red)成分を受光する第3の受光素子、G(green)成分を受光する第4の受光素子、およびB(blue)成分を受光する第5の受光素子により構成される前記画像センサに入射された前記被写体からの反射光に基づいて前記第1のモザイク画像を生成する
    請求項1に記載の画像処理装置。
  3. 前記第1の生成手段は、前記画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されていないときの前記被写体からの反射光に基づいて第2のモザイク画像も生成し、
    前記第2の生成手段は、前記第2のモザイク画像を構成する各画素において、前記第3乃至第5の受光素子それぞれに対応する画素の画素値に基づく第3の補間処理により得られるRGB画像も生成し、
    前記RGB画像に基づいて、前記肌領域を検出するための肌検出可能条件を満たす範囲内で前記第1の生成手段のパラメータを調整する調整手段を
    さらに含む請求項2に記載の画像処理装置。
  4. 前記第1の生成手段は、予め決められたパラメータに応じて前記被写体を撮像することにより前記第1のモザイク画像を生成し、
    前記調整手段は、前記RGB画像を構成する画素の輝度値、または前記輝度値に基づき算出される算出値の一方が、前記RGB画像がとり得る最大の輝度値の半分以下となる前記肌検出可能条件を満たす範囲内で前記第1の生成手段の前記パラメータを調整する
    請求項3に記載の画像処理装置。
  5. 前記第1の波長以外の波長の光の入射を制限し、前記第1の波長の光を透過させる第1の入射制限手段と、
    前記第2の波長以外の波長の光の入射を制限し、前記第2の波長の光を透過させる第2の入射制限手段と
    をさらに含み、
    前記第1の生成手段は、前記第1の入射制限手段を介して得られる前記第1の波長の光を受光する前記第1の受光素子と、前記第2の入射制限手段を介して得られる前記第2の波長の光を受光する前記第2の受光素子とを少なくとも有する前記画像センサを内蔵する
    請求項1に記載の画像処理装置。
  6. 前記第1の生成手段は、前記画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されていないときの前記被写体からの反射光に基づいて第2のモザイク画像も生成し、
    前記第2の生成手段は、前記第2のモザイク画像を構成する各画素において、前記第1の受光素子に対応する画素の画素値に基づく第4の補間処理により得られる第3の画像も生成し、
    前記検出手段は、さらに、前記第3の画像上の全領域のうち、前記第3の画像を構成する各画素の画素値が所定の閾値以上である画素により構成される所定領域を検出する
    請求項1に記載の画像処理装置。
  7. 前記照射手段による照射を制御する制御手段をさらに含み、
    前記検出手段は、
    前記制御手段の制御にしたがって前記照射手段による照射が行われている場合に、前記第2の生成手段により生成される前記第1および第2の画像に基づいて前記肌領域を検出し、
    前記制御手段の制御にしたがって前記照射手段による照射が行われていない場合に、前記第2の生成手段により生成される前記第3の画像に基づいて前記所定領域を検出する
    請求項6に記載の画像処理装置。
  8. 照射手段と、
    第1の波長の光を受光する第1の受光素子と、前記第1の波長とは異なる第2の波長の光を受光する第2の受光素子とを少なくとも有する画像センサを内蔵する第1の生成手段と、
    第2の生成手段と、
    検出手段と
    を備え、画像上から人間の肌を表す肌領域を検出する画像処理装置の画像処理方法において、
    前記照射手段が、前記第1の波長の光、および前記第2の波長の光を被写体に照射し、
    前記第1の生成手段が、前記画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されているときの前記被写体からの反射光に基づいて第1のモザイク画像を生成し、
    前記第2の生成手段が、前記第1のモザイク画像を構成する各画素において、前記第1の受光素子に対応する画素の画素値に基づく第1の補間処理により得られる第1の画像、および前記第2の受光素子に対応する画素の画素値に基づく第2の補間処理より得られる第2の画像を生成し、
    前記検出手段が、前記第1および第2の画像に基づいて前記肌領域を検出する
    ステップを含む画像処理方法。
  9. 第1の波長の光、および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、
    前記第1の波長の光を受光する第1の受光素子と、前記第2の波長の光を受光する第2の受光素子とを少なくとも有する画像センサを内蔵し、前記画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されているときの前記被写体からの反射光に基づいて第1のモザイク画像を生成する第1の生成手段と
    を備え、画像上から人間の肌を表す肌領域を検出する画像処理装置を制御するコンピュータを、
    前記第1のモザイク画像を構成する各画素において、前記第1の受光素子に対応する画素の画素値に基づく第1の補間処理により得られる第1の画像、および前記第2の受光素子に対応する画素の画素値に基づく第2の補間処理より得られる第2の画像を生成する第2の生成手段と、
    前記第1および第2の画像に基づいて前記肌領域を検出する検出手段と
    して機能させるためのプログラム。
  10. 画像上から人間の肌を表す肌領域を検出する電子装置において、
    第1の波長の光、および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、
    前記第1の波長の光を受光する第1の受光素子と、前記第2の波長の光を受光する第2の受光素子とを少なくとも有する画像センサを内蔵し、前記画像センサに入射される、前記第1および第2の波長の光が前記被写体に照射されているときの前記被写体からの反射光に基づいて第1のモザイク画像を生成する第1の生成手段と、
    前記第1のモザイク画像を構成する各画素において、前記第1の受光素子に対応する画素の画素値に基づく第1の補間処理により得られる第1の画像、および前記第2の受光素子に対応する画素の画素値に基づく第2の補間処理より得られる第2の画像を生成する第2の生成手段と、
    前記第1および第2の画像に基づいて前記肌領域を検出する検出手段と、
    検出された前記肌領域に応じた処理を実行する実行手段と
    を含む電子装置。
  11. 画像上から人間の肌を表す肌領域を検出する画像処理装置において、
    第1の波長および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、
    前記被写体を撮像して、前記第1の波長の光に基づく第1の画像を生成するとともに、前記第2の波長の光に基づく第2の画像を生成する撮像手段と、
    生成された前記第1および第2の画像に基づいて前記肌領域を検出する検出手段と
    を含み、
    前記照射手段は、前記第1および第2の波長の光の輝度を所定の周波数に従って変動させて被写体に照射し、
    前記撮像手段は、前記被写体の光学像を光電変換して得られる電気信号の前記所定の周波数に対応する成分を抽出することにより前記第1および第2の画像を生成する
    画像処理装置。
  12. 前記照射手段は、前記第1および第2の波長の光の輝度を所定の周波数に従って交流的に変動させて被写体に照射し、
    前記撮像手段は、前記被写体の光学像を光電変換して得られる電気信号の前記所定の周波数に対応する交流成分を抽出することにより前記第1および第2の画像を生成する
    請求項11に記載の画像処理装置。
  13. 前記照射手段は、前記第1の波長の光の輝度を第1の周波数に従って交流的に変動させて被写体に照射する処理と、前記第2の波長の光の輝度を前記第1の周波数とは異なる第2の周波数に従って交流的に変動させて被写体に照射する処理を同時に行い、
    前記撮像手段は、前記第1および第2の波長の光が照射されている状態の前記被写体の光学像を光電変換して得られる電気信号の前記第1の周波数に対応する交流成分を抽出することにより前記第1の画像を生成し、前記被写体の光学像を光電変換して得られる電気信号の前記第2の周波数に対応する交流成分を抽出することにより前記第2の画像を生成する
    請求項12に記載の画像処理装置。
  14. 前記照射手段は、前記第1の波長の光の輝度を第3の周波数に従って交流的に変動させて被写体に照射する処理と、前記第2の波長の光の輝度を前記第3の周波数に従って交流的に変動させて被写体に照射する処理を交互に行い、
    前記撮像手段は、前記第1の波長の光が照射されている状態の前記被写体の光学像を光電変換して得られる電気信号の前記第3の周波数に対応する交流成分を抽出することにより前記第1の画像を生成し、前記第2の波長の光が照射されている状態の前記被写体の光学像を光電変換して得られる電気信号の前記第3の周波数に対応する交流成分を抽出することにより前記第2の画像を生成する
    請求項12に記載の画像処理装置。
  15. 第1の波長および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、
    被写体を撮像して、前記第1の波長の光に基づく第1の画像を生成するとともに、前記第2の波長の光に基づく第2の画像を生成する撮像手段と、
    生成された前記第1および第2の画像に基づいて前記肌領域を検出する検出手段と
    を備え、画像上から人間の肌を表す肌領域を検出する画像処理装置の画像処理方法において、
    前記照射手段が、前記第1および第2の波長の光の輝度を所定の周波数に従って変動させて被写体に照射し、
    前記撮像手段が、前記被写体の光学像を光電変換して得られる電気信号の前記所定の周波数に対応する成分を抽出することにより前記第1および第2の画像を生成する
    ステップを含む画像処理方法。
  16. 第1の波長および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、
    被写体を撮像して、前記第1の波長の光に基づく第1の画像を生成するとともに、前記第2の波長の光に基づく第2の画像を生成する撮像手段と、
    生成された前記第1および第2の画像に基づいて前記肌領域を検出する検出手段と
    を備え、画像上から人間の肌を表す肌領域を検出する画像処理装置の制御用のプログラムであって、
    前記照射手段を制御して、前記第1および第2の波長の光の輝度を所定の周波数に従って変動させて被写体に照射させ、
    前記撮像手段を制御して、前記被写体の光学像を光電変換して得られる電気信号の前記所定の周波数に対応する成分を抽出することにより前記第1および第2の画像を生成させる
    ステップを含む処理を画像処理装置のコンピュータに実行させるプログラム。
  17. 画像上から人間の肌を表す肌領域を検出する電子装置において、
    第1の波長および前記第1の波長とは異なる第2の波長の光を被写体に照射する照射手段と、
    前記被写体を撮像して、前記第1の波長の光に基づく第1の画像を生成するとともに、前記第2の波長の光に基づく第2の画像を生成する撮像手段と、
    生成された前記第1および第2の画像に基づいて前記肌領域を検出する検出手段と、
    検出された前記肌領域に応じた処理を実行する実行手段と
    を含み、
    前記照射手段は、前記第1および第2の波長の光の輝度を所定の周波数に従って変動させて被写体に照射し、
    前記撮像手段は、前記被写体の光学像を光電変換して得られる電気信号の前記所定の周波数に対応する成分を抽出することにより前記第1および第2の画像を生成する
    電子装置。
JP2010196803A 2010-06-04 2010-09-02 画像処理装置、画像処理方法、プログラム、および電子装置 Withdrawn JP2012014668A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010196803A JP2012014668A (ja) 2010-06-04 2010-09-02 画像処理装置、画像処理方法、プログラム、および電子装置
US13/109,433 US20110298909A1 (en) 2010-06-04 2011-05-17 Image processing apparatus, image processing method, program and electronic apparatus
CN2011101413667A CN102266218A (zh) 2010-06-04 2011-05-27 图像处理装置、图像处理方法、程序及电子装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010129413 2010-06-04
JP2010129413 2010-06-04
JP2010196803A JP2012014668A (ja) 2010-06-04 2010-09-02 画像処理装置、画像処理方法、プログラム、および電子装置

Publications (1)

Publication Number Publication Date
JP2012014668A true JP2012014668A (ja) 2012-01-19

Family

ID=45048819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010196803A Withdrawn JP2012014668A (ja) 2010-06-04 2010-09-02 画像処理装置、画像処理方法、プログラム、および電子装置

Country Status (3)

Country Link
US (1) US20110298909A1 (ja)
JP (1) JP2012014668A (ja)
CN (1) CN102266218A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014065053A1 (ja) * 2012-10-23 2014-05-01 オリンパス株式会社 撮像装置及び画像生成方法
KR20160115043A (ko) * 2015-03-25 2016-10-06 한국전자통신연구원 영상 촬영 장치의 촬영 속도 증가 방법
JP2017090203A (ja) * 2015-11-09 2017-05-25 任天堂株式会社 情報処理システム情報処理装置、情報処理方法、情報処理プログラム、および、ハンドヘルド型情報処理装置
JP7484961B2 (ja) 2019-11-01 2024-05-16 カシオ計算機株式会社 情報取得装置、情報取得方法及びプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013046170A (ja) * 2011-08-23 2013-03-04 Lapis Semiconductor Co Ltd 指示光検出装置及び方法
JP2013152453A (ja) * 2011-12-27 2013-08-08 Canon Inc 画像処理装置、画像処理システム、画像処理方法および画像処理プログラム
WO2013103224A1 (en) * 2012-01-03 2013-07-11 Lg Electronics Inc. Image display apparatus and method for operating the same
WO2013126877A1 (en) * 2012-02-25 2013-08-29 Massachusetts Institute Of Technology Personal skin scanner system
TWI479362B (zh) * 2012-09-19 2015-04-01 Wistron Corp 雙模式遙控方法
FR3001063B1 (fr) * 2013-01-15 2015-02-13 Commissariat Energie Atomique Systeme et procede de detection de la position d'un organe d'actionnement sur un ecran d'affichage
FR3001064B1 (fr) 2013-01-15 2015-02-13 Commissariat Energie Atomique Systeme et procede de detection de la position d'un organe d'actionnement sur un ecran d'affichage
JP6097952B2 (ja) * 2013-08-22 2017-03-22 富士フイルム株式会社 観察画像判定装置および方法並びにプログラム
US20150062347A1 (en) * 2013-08-27 2015-03-05 Semiconductor Components Industries, Llc Image processing methods for visible and infrared imaging
CN104702849B (zh) * 2014-01-10 2018-03-30 杭州海康威视数字技术股份有限公司 一种红外摄像机及其红外灯亮度调整方法
WO2016174778A1 (ja) * 2015-04-30 2016-11-03 オリンパス株式会社 撮像装置、画像処理装置および画像処理方法
CN112932416A (zh) 2015-06-04 2021-06-11 松下知识产权经营株式会社 生物体信息检测装置及生物体信息检测方法
JP6707943B2 (ja) * 2016-03-25 2020-06-10 富士通株式会社 生体画像処理装置及び生体画像処理方法
WO2017199757A1 (ja) * 2016-05-16 2017-11-23 ソニー株式会社 光学装置および情報処理方法
CN113727000A (zh) * 2016-05-27 2021-11-30 松下知识产权经营株式会社 摄像系统
US9805257B1 (en) * 2016-09-07 2017-10-31 Datamax-O'neil Corporation Printer method and apparatus
TWI662940B (zh) * 2018-06-01 2019-06-21 廣達電腦股份有限公司 影像擷取裝置
CN112215802B (zh) * 2018-07-16 2022-04-08 荣耀终端有限公司 一种皮肤检测方法和电子设备
JP2020101878A (ja) * 2018-12-20 2020-07-02 ソニー株式会社 画像処理装置、および検出機能付き表示装置
WO2020186519A1 (zh) * 2019-03-21 2020-09-24 京东方科技集团股份有限公司 显示装置、电子设备及显示装置的驱动方法
JP2021048464A (ja) * 2019-09-18 2021-03-25 ソニーセミコンダクタソリューションズ株式会社 撮像デバイス、撮像システム及び撮像方法
WO2022233055A1 (en) * 2021-05-07 2022-11-10 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Camera system, method for skin characteristics analysis and non-transitory computer-readable medium storing program instructions for implementing the method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7602942B2 (en) * 2004-11-12 2009-10-13 Honeywell International Inc. Infrared and visible fusion face recognition system
US8084739B2 (en) * 2008-07-16 2011-12-27 Infrared Newco., Inc. Imaging apparatus and methods

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014065053A1 (ja) * 2012-10-23 2014-05-01 オリンパス株式会社 撮像装置及び画像生成方法
JP2014086862A (ja) * 2012-10-23 2014-05-12 Olympus Corp 撮像装置及び画像生成方法
US9282305B2 (en) 2012-10-23 2016-03-08 Olympus Corporation Imaging device and image generation method
KR20160115043A (ko) * 2015-03-25 2016-10-06 한국전자통신연구원 영상 촬영 장치의 촬영 속도 증가 방법
KR102238794B1 (ko) 2015-03-25 2021-04-09 한국전자통신연구원 영상 촬영 장치의 촬영 속도 증가 방법
JP2017090203A (ja) * 2015-11-09 2017-05-25 任天堂株式会社 情報処理システム情報処理装置、情報処理方法、情報処理プログラム、および、ハンドヘルド型情報処理装置
JP7484961B2 (ja) 2019-11-01 2024-05-16 カシオ計算機株式会社 情報取得装置、情報取得方法及びプログラム

Also Published As

Publication number Publication date
CN102266218A (zh) 2011-12-07
US20110298909A1 (en) 2011-12-08

Similar Documents

Publication Publication Date Title
JP2012014668A (ja) 画像処理装置、画像処理方法、プログラム、および電子装置
CN110298874B (zh) 基于单个图像传感器及在可见光谱中的结构光图案撷取图像及相关三维模型的方法及装置
JP4831267B2 (ja) 情報処理装置、情報処理方法、プログラム及び電子装置
US11405535B2 (en) Quad color filter array camera sensor configurations
WO2011062102A1 (ja) 情報処理装置、情報処理方法、プログラム、及び電子機器
US10349037B2 (en) Structured-stereo imaging assembly including separate imagers for different wavelengths
CN106254785B (zh) 图像传感器及用于改进非可见照明的方法
JP2007122237A (ja) 偽造判定用撮像装置及び個人識別装置
US11818462B2 (en) Phase detection autofocus sensor apparatus and method for depth sensing
TWI625588B (zh) Camera control device
JP2012002541A (ja) 画像処理装置、画像処理方法、プログラム、及び電子機器
JP5573209B2 (ja) 画像処理装置、画像処理方法、プログラム、及び電子機器
JP6462594B2 (ja) 撮像装置、画像処理装置および画像処理方法
JP7386703B2 (ja) ビネッティングの補償
WO2022138064A1 (ja) 生体認証システムおよび生体認証方法
JP3785148B2 (ja) 画像抽出装置
JP2006127539A (ja) 画像抽出装置
KR101120568B1 (ko) 다중 스펙트럼 전자기파의 영상 촬영 시스템 및 다중 스펙트럼 전자기파의 영상 촬영 방법
JP2011014128A (ja) 情報処理装置、情報処理方法及びプログラム
KR101146017B1 (ko) 정보 처리 장치 및 정보 처리 방법
CN212484401U (zh) 图像传感装置和电子设备
WO2020149226A1 (ja) 撮像装置組立体、3次元形状測定装置及び動き検出装置
JP2012058094A (ja) 画像処理装置及び電子装置
JP2011109237A (ja) 情報処理装置、情報処理方法、及び電子機器

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131105