JP7311617B2 - 処理装置、電子機器、処理方法、及びプログラム - Google Patents

処理装置、電子機器、処理方法、及びプログラム Download PDF

Info

Publication number
JP7311617B2
JP7311617B2 JP2021550379A JP2021550379A JP7311617B2 JP 7311617 B2 JP7311617 B2 JP 7311617B2 JP 2021550379 A JP2021550379 A JP 2021550379A JP 2021550379 A JP2021550379 A JP 2021550379A JP 7311617 B2 JP7311617 B2 JP 7311617B2
Authority
JP
Japan
Prior art keywords
distance measurement
imaging
recognition
light
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021550379A
Other languages
English (en)
Other versions
JPWO2021065176A5 (ja
JPWO2021065176A1 (ja
Inventor
健吉 林
智紀 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2021065176A1 publication Critical patent/JPWO2021065176A1/ja
Publication of JPWO2021065176A5 publication Critical patent/JPWO2021065176A5/ja
Priority to JP2023111686A priority Critical patent/JP2023134584A/ja
Application granted granted Critical
Publication of JP7311617B2 publication Critical patent/JP7311617B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths

Description

本開示の技術は、処理装置、電子機器、処理方法、及びプログラムに関する。
特許第6321145号には、測距装置が開示されている。特許第6321145号に記載の測距装置は、被写体を示す被写体像を結像する結像光学系により結像された被写体像を撮影する撮影部と、結像光学系の光軸方向に沿って、指向性のある光である指向性光を射出する射出部であって、指向性光の射出強度が調整可能であり、合焦状態特定情報と、被写体輝度又は露出状態特定情報と、の少なくとも一方に基づいて射出強度を調整して指向性光を射出する射出部と、指向性光の被写体からの反射光を受光する受光部と、射出部により指向性光が射出されたタイミング及び受光部により反射光が受光されたタイミングに基づいて被写体までの距離を導出する導出部と、撮影部による撮影に先立って、結像光学系の被写体への焦点調整、及び露出調整の少なくとも一方を実行する実行部と、実行部に対して焦点調整及び露出調整の少なくとも一方の実行を開始させる撮影準備指示の第1押圧操作と撮影部による本露光を開始させる撮影指示の第2押圧操作との2段階の押圧操作を受け付ける受付部と、受付部によって第1押圧操作が受け付けられた場合に、実行部により焦点調整及び露出調整の少なくとも一方が実行される制御を行い、焦点調整及び露出調整の少なくとも一方が実行されたことを条件に射出部、受光部、及び導出部による測距を開始させる制御を行い、測距が完了した後に、第1押圧操作が維持された状態で、情報を提示する提示部に対して、測距の結果に関する情報を提示させてから、受付部に対する押圧操作が解除されることなく第1押圧操作から引き続き第2押圧操作が受付部によって受け付けられた場合に、撮影部による本露光が行われる制御を行う制御部と、を含む。
特開2006-171120号には、撮影装置が開示されている。特開2006-171120号に記載の撮影装置は、撮影操作に先立って被写体コントラストを検知してピント調整を行う撮影装置であり、被写体コントラスト検出用に被写体に向けて相対的に波長帯域の広い光を照射する第1の補助光発光体と、被写体コントラスト検出用に被写体に向けて相対的に波長帯域の狭い光を照射する第2の補助光発光体と、第1の補助光発光体と第2の補助光発光体を切り替える切替手段と、を備えたことを特徴とする。
国際公開第2018/142993号には、発光制御装置が開示されている。国際公開第2018/142993号に記載の発光制御装置は、AF(Auto Focus)補助光の光量を設定する光量設定部と、光量設定部による設定に従って、AF補助光の発光を制御する発光制御部と、を備えている。
本開示の技術に係る一つの実施形態は、撮像領域に対して常に同一の照射エネルギーで照射される光に基づく測距と撮像領域に含まれる特定被写体の認識とが同時に行われる場合に比べ、測距と特定被写体の認識とを高精度に両立させることができる処理装置、電子機器、処理方法、及びプログラムを提供する。
本開示の技術に係る第1の態様は、撮像部によって撮像領域が撮像されることで得られた撮像画像に基づいて認識部が撮像領域に含まれる特定被写体を認識する認識動作と、測距部が撮像領域に対して光を照射し、撮像領域に対する光による反射光を受光することで測距を行う測距動作とを複数回並行して行わせる制御を行う制御部と、測距動作毎に、撮像領域に対する光の照射エネルギーを変更する変更部とを含む処理装置である。
本開示の技術に係る第2の態様は、認識動作によって得られる認識結果と測距動作によって得られる測距結果とを複数回のうちの特定の回に合わせて特定の出力先に出力する出力部を更に含む第1の態様に係る処理装置である。
本開示の技術に係る第3の態様は、特定の出力先が、認識結果及び測距結果のうちの少なくとも一方を表示可能な表示部である第2の態様に係る処理装置である。
本開示の技術に係る第4の態様は、表示部が、特定被写体を示す特定被写体画像と、認識結果として特定被写体画像を取り囲む画像とを表示する第3の態様に係る処理装置である。
本開示の技術に係る第5の態様は、撮像部が、光軸に沿って移動可能なレンズを有し、制御部が、光軸上の位置であって、測距動作によって得られる測距結果に応じて定められた位置にレンズを光軸に沿って移動させる第1の態様から第4の態様の何れか一つの態様に係る処理装置である。
本開示の技術に係る第6の態様は、位置が、合焦位置である第5の態様に係る処理装置である。
本開示の技術に係る第7の態様は、撮像部が、光軸に沿って移動可能なレンズを有し、測距部が、認識動作に先立って、撮像領域に対して合焦制御用光を照射し、撮像領域に対する合焦制御用光による合焦制御用反射光を受光することで合焦制御用測距を行い、制御部は、合焦制御用測距によって得られる測距結果に応じて定められた合焦位置にレンズを光軸に沿って移動させる第1の態様から第4の態様の何れか一つの態様に係る処理装置である。
本開示の技術に係る第8の態様は、複数回の認識動作によって得られた複数の認識結果を用いた特定処理を行う処理部を更に含む第1の態様から第7の態様の何れか一つの態様に係る処理装置である。
本開示の技術に係る第9の態様は、認識動作によって得られる認識結果が、特定被写体と、認識動作に並行する測距動作で用いられる照射エネルギーとのうち少なくとも一方に応じて重みづけされる第1の態様から第8の態様の何れか一つの態様に係る処理装置である。
本開示の技術に係る第10の態様は、制御部が、重みづけに従って選定された認識結果に基づいて撮像部に対して本露光による撮像を行わせる第9の態様に係る処理装置である。
本開示の技術に係る第11の態様は、特定被写体が、顔である第1の態様から第10の態様の何れか一つの態様に係る処理装置である。
本開示の技術に係る第12の態様は、顔が、特定の表情の顔である第11の態様に係る処理装置である。
本開示の技術に係る第13の態様は、特定被写体が、閾値未満の反射率を有する物体である第1の態様から第10の態様の何れか一つの態様に係る処理装置である。
本開示の技術に係る第14の態様は、第1の態様から第13の態様の何れか一つの態様に係る処理装置と、認識部及び測距部のうちの少なくとも一方とを含む電子機器である。
本開示の技術に係る第15の態様は、撮像部によって撮像領域が撮像されることで得られた撮像画像に基づいて認識部が撮像領域に含まれる特定被写体を認識する認識動作と、測距部が撮像領域に対して光を照射し、撮像領域に対する光による反射光を受光することで測距を行う測距動作とを複数回並行して行わせる制御を行うこと、及び、測距動作毎に、撮像領域に対する光の照射エネルギーを変更することを含む処理方法である。
本開示の技術に係る第16の態様は、コンピュータに、撮像部によって撮像領域が撮像されることで得られた撮像画像に基づいて認識部が撮像領域に含まれる特定被写体を認識する認識動作と、測距部が撮像領域に対して光を照射し、撮像領域に対する光による反射光を受光することで測距を行う測距動作とを複数回並行して行わせる制御を行うこと、及び、測距動作毎に、撮像領域に対する光の照射エネルギーを変更することを含む処理を実行させるためのプログラムである。
第1実施形態に係るスマートデバイスの使用態様の一例を示す概略斜視図である。 第1実施形態に係るスマートデバイスの背面側の外観の一例を示す背面視斜視図である。 第1実施形態に係るスマートデバイスに含まれる光電変換素子の構造の一例を示す概略斜視図である。 図2に示すスマートデバイスの前面側の外観の一例を示す前面視斜視図である。 第1実施形態に係るスマートデバイスに含まれる測距撮像装置によって撮像領域が撮像され、ディスプレイに可視光画像が表示されている態様の一例を示す概念図である。 第1実施形態に係るスマートデバイスに含まれる測距撮像装置によって測距動作と認識動作が行われ、ディスプレイにライブビュー画像が表示されている態様の一例を示す概念図である。 第1実施形態に係るスマートデバイスによって静止画像を撮像した態様の一例を示す概念図である。 第1実施形態に係るスマートデバイスの電気系ハードウェアの構成の一例を示すブロック図である。 第1実施形態に係るスマートデバイスに含まれるCPUによって撮像処理を実行する場合の撮像処理プログラム読み込みの一例を示す概念図である。 第1実施形態に係るスマートデバイスに含まれるCPUによって撮像処理が行われる場合のCPU及び測距撮像装置の機能の一例を示す機能ブロック図である。 第1実施形態に係る撮像処理の流れの一例を示すフローチャートである。 第2実施形態に係るスマートデバイスの電気系ハードウェアの構成の一例を示すブロック図である。 第2実施形態に係る撮像処理の流れの一例を示すフローチャートである。 第2実施形態に係る撮像処理の流れの変形例を示すフローチャートである。 第3実施形態に係る撮像処理フローの一例を示すフローチャートである。 その他の実施形態に係るスマートデバイスに含まれるディスプレイに表示された測距範囲指定案内画面の一例を示す概略画面図である。 その他の実施形態に係るスマートデバイスに含まれるディスプレイにライブビュー画像として表示された可視光画像と指定画像領域との一例を示す概略画面図である。 その他の実施形態に係るスマートデバイスに含まれる光電変換素子の測距用区分領域から測距用指定区分領域への絞り方の一例の説明に供する概念図である。 その他の実施形態に係るスマートデバイスの外観構成の第1変形例を示す概略斜視図である。 その他の実施形態に係るスマートデバイスの外観構成の第2変形例を示す概略斜視図である。 その他の実施形態に係る測距撮像装置とスマートデバイスとを組み合わせた外観構成の一例を示す概略斜視図である。 撮像処理プログラムがスマートデバイスにインストールされる態様の一例を示す概念図である。
以下、添付図面に従って本開示の技術に係る測距撮像装置の実施形態の一例について説明する。
先ず、以下の説明で使用される文言について説明する。
CPUとは、“Central Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。A/Dとは、“Analog/Digital”の略称を指す。I/Fとは、“Interface”の略称を指す。UIとは、“User Interface”の略称を指す。LTEとは、“Long Term Evolution”の略称を指す。5Gとは、“5th Generation”の略称を指す。LDとは、“Laser Diode”の略称を指す。IRとは、“Infrared”の略称を指す。APDとは、“Avalanche Photodiode”の略称を指す。fpsとは、“frame per second”の略称を指す。LEDとは、“Light Emitting Diode”の略称を指す。ROIとは、“Region of Interest”の略称を指す。LANとは、“Local Area Network”の略称を指す。Exifとは、“Exchangeable Image File Format”の略称を指す。
本明細書の説明において、「水平」とは、完全な水平の他に、本開示の技術が属する技術分野で一般的に許容される誤差を含めた意味合いでの水平を指す。本明細書の説明において、「平行」とは、完全な平行の他に、本開示の技術が属する技術分野で一般的に許容される誤差を含めた意味合いでの平行を指す。本明細書の説明において、「垂直」とは、完全な垂直の他に、本開示の技術が属する技術分野で一般的に許容される誤差を含めた意味合いでの垂直を指す。本明細書の説明において、「同一」とは、完全な同一の他に、本開示の技術が属する技術分野で一般的に許容される誤差を含めた意味合いでの同一を指す。また、本明細書の説明において「~」を用いて表される数値範囲は、「~」の前後に記載される数値を下限値及び上限値として含む範囲を意味する。
[第1実施形態]
一例として図1に示すように、第1実施形態によるスマートデバイス10は、画角θ1で規定された撮像領域が撮像されることで得られた撮像画像に基づいて撮像領域に含まれる特定被写体を認識する認識動作と、撮像領域に対してレーザ光を照射し、撮像領域に対するレーザ光による反射光を受光することで測距を行う測距動作とを行う。レーザ光は、本開示の技術に係る「光」の一例である。
本実施形態において、「測距」とは、スマートデバイス10から撮像領域内の測距対象までの距離を測定する処理を指す。また、ここで、「測距対象」とは、光を反射する物体を指し、図1に示す例では、撮像領域内の測距対象として、人物及び樹木が示されている。なお、スマートデバイス10としては、例えば、撮像機能付きの電子機器であるスマートフォン又はタブレット端末等が挙げられる。
一例として図2に示すように、スマートデバイス10は、筐体12を備えている。筐体12には、測距撮像装置14が収容されている。測距撮像装置14は、光照射器16及び受光器18を備えている。光照射器16は、LD24を備えており、受光器18は、光電変換素子26を備えている。スマートデバイス10において、撮像動作及び測距動作は、測距撮像装置14によって行われる。なお、測距撮像装置14は、本開示の技術に係る「撮像部(撮像装置)」及び「測距部(測距装置)」の一例である。
スマートデバイス10の側面には、指示キー13が配置されている。指示キー13は、各種の指示を受け付ける。ここで言う「各種の指示」とは、例えば、各種メニューを選択可能なメニュー画面の表示の指示、1つ又は複数のメニューの選択の指示、選択内容の確定の指示、及び選択内容の消去の指示等を指す。
スマートデバイス10を縦置きの状態にした場合の筐体12の背面12Aの上部(縦置きの状態のスマートデバイス10の背面視上部)には、透光窓20及び22が設けられている。透光窓20及び22は、透光性を有する光学素子(例えば、レンズ)であり、水平方向に沿って既定の間隔(例えば、数ミリの間隔)で配置されており、背面12Aから露出している。光照射器16は、LD24から出射されたレーザ光を、透光窓20を介して測距対象に照射する。本実施形態では、赤外波長域のレーザ光が採用されている。しかし、レーザ光の波長域は、これに限らず、他の波長域のレーザ光であってもよい。
受光器18は、透光窓22を介してIR反射光を取り込む。IR反射光とは、光照射器16によって測距対象に照射されたレーザ光による反射光を指す。また、受光器18は、透光窓22を介して可視反射光を取り込む。可視反射光とは、撮像領域に対して照射された可視光(例えば、太陽光に含まれる可視光)による反射光を指す。なお、以下では、説明の便宜上、IR反射光と可視反射光とを区別して説明する必要がない場合、単に「反射光」と称する。
受光器18は、光電変換素子26を備えており、光電変換素子26は、透光窓22を介して受光器18に取り込まれた反射光を受光し、受光した反射光の光量に応じた電気信号を出力する。
一例として図3に示すように、光電変換素子26は、マトリクス状に配置された複数のフォトダイオードを有している。複数のフォトダイオードの一例としては、“4896×3265”画素分のフォトダイオードが挙げられる。
光電変換素子26に含まれる各フォトダイオードには、カラーフィルタが配置されている。カラーフィルタは、輝度信号を得るために最も寄与するG(緑色)波長域に対応するGフィルタ、R(赤色)波長域に対応するRフィルタ、B(青色)波長域に対応するBフィルタ、及びIR(赤外)波長域に対応するIRフィルタを含む。なお、本実施形態において、Gフィルタ、Rフィルタ、及びBフィルタは、赤外光をカットする赤外光カットフィルタとしての機能も有する。また、以下では、説明の便宜上、Gフィルタ、Rフィルタ、及びBフィルタを区別して説明する必要がない場合、「可視光フィルタ」とも称する。
光電変換素子26は、R画素、G画素、B画素、及びIR画素を有する。R画素は、Rフィルタが配置されたフォトダイオードに対応する画素であり、G画素は、Gフィルタが配置されたフォトダイオードに対応する画素であり、B画素は、Bフィルタが配置されたフォトダイオードに対応する画素であり、IR画素は、IRフィルタが配置されたフォトダイオードに対応する画素である。R画素、G画素、B画素、及びIR画素は、行方向(水平方向)及び列方向(垂直方向)の各々に既定の周期性で配置されている。本実施形態において、R画素、G画素、B画素、及びIR画素の配列は、X-Trans(登録商標)配列のうち、一部のG画素をIR画素に置き換えられることで得られた配列である。IR画素は、行方向及び列方向に沿って特定の周期性で配置されている。
なお、ここでは、R画素、G画素、B画素、及びIR画素の配列として、X-Trans配列を基礎とした配列が例示しているが、本開示の技術はこれに限定されず、R画素、G画素、B画素、及びIR画素の配列は、ベイヤ配列又はハニカム(登録商標)配列などの他の配列を基礎とした配列であってもよい。
また、ここでは、R画素、G画素、及びB画素の配列として一般的に知られている配列のうち、一部のG画素がIR画素に置き換えられることで得られた配列がR画素、G画素、B画素、及びIR画素の配列として例示されているが、本開示の技術はこれに限定されない。例えば、R画素、G画素、及びB画素(以下、これらを「可視光画素」とも称する)の各々に対応する各カラーフィルタを、赤外光も透過させるカラーフィルタとし、1つのカラーフィルタにつき、可視光画素用のフォトダイオードとIR画素用のフォトダイオート(例えば、InGaAs APD)による一対のフォトダイオードが配置されるようにしてもよい。
本実施形態において、光電変換素子26は、2つの領域に区分される。すなわち、光電変換素子26は、可視光画像用区分領域26N1と測距用区分領域26N2とを有する。可視光画像用区分領域26N1は、複数の可視光画素による可視光画素群であり、可視光画像の生成に用いられる。測距用区分領域26N2は、複数のIR画素によるIR画素群であり、測距に用いられる。可視光画像用区分領域26N1は、可視反射光を受光し、受光量に応じた電気信号を出力する。測距用区分領域26N2は、IR反射光を受光し、受光量に応じた電気信号を出力する。
一例として図4に示すように、筐体12の前面12Bには、タッチパネル・ディスプレイ59が設けられている。タッチパネル・ディスプレイ59は、ディスプレイ46及びタッチパネル48を備えている。ディスプレイ46の一例としては、有機ELディスプレイが挙げられる。ディスプレイ46は、有機ELディスプレイではなく、液晶ディスプレイなどの他種類のディスプレイであってもよい。なお、ディスプレイ46は、本開示の技術に係る「表示部」の一例である。
ディスプレイ46は、画像及び文字情報等を表示する。タッチパネル48は、透過型のタッチパネルであり、ディスプレイ46の表示領域の表面に重ねられている。タッチパネル48は、指又はスタイラスペン等の指示体による接触を検知することで、ユーザからの指示を受け付ける。なお、ここでは、タッチパネル・ディスプレイ59の一例として、タッチパネル48がディスプレイ46の表示領域の表面に重ねられているアウトセル型のタッチパネル・ディスプレイを挙げているが、これはあくまでも一例に過ぎない。例えば、タッチパネル・ディスプレイ59として、オンセル型又はインセル型のタッチパネル・ディスプレイを適用することも可能である。
一例として図5に示すように、スマートデバイス10では、撮像を開始する指示がタッチパネル48によって受け付けられると、受光器18によって撮像領域が撮像される。すなわち、受光器18は、可視反射光を受光し、受光した可視反射光に応じた画像として、撮像領域を示す可視光画像を生成する。可視光画像は、本開示の技術に係る「撮像画像」の一例である。
可視光画像は、タッチパネル48によって受け付けられた指示に応じて、ディスプレイ46に表示される。図5に示す例では、撮像領域が画角θ1によって規定されている。画角θ1は、タッチパネル48によって受け付けられた指示に従って変更される。
スマートデバイス10は、画像認識機能を備えている。スマートデバイス10は、画像認識機能を働かせることで、可視光画像から人物の顔を示す顔画像を認識する。スマートデバイス10では、撮像領域に含まれる人物の顔を認識する認識動作(以下、単に「認識動作」とも称する)が行われる。認識動作は、画像認識機能を働かせること、すなわち、可視光画像から顔画像が認識されることによって実現される。図5に示す例では、可視光画像から顔画像が認識され、認識結果として枠線29が顔画像を取り囲んだ状態で表示されている。認識結果には、例えば、認識された顔画像、認識された顔画像の個数(以下、「顔画像数」とも称する)、顔画像の位置を特定可能な座標、及び枠線29を示す枠線情報等が含まれている。なお、人物の顔は、本開示の技術に係る「特定被写体」の一例である。また、枠線29は、本開示の技術に係る「測距結果」及び「特定被写体画像を取り囲む画像」の一例である。
また、スマートデバイス10は、測距機能を備えている。スマートデバイス10は、測距機能を働かせることで、一例として図6に示すように、光照射器16に対して照射角度θ2でレーザ光を照射させ、IR反射光を受光器18の測距用区分領域26N2に対して受光させる。照射角度θ2は、画角θ1と同じであってもよいし、違っていてもよい。レーザ光の照射からIR反射光が受光されるまでに要する時間と、光速とに基づいて、スマートデバイス10から測距対象までの距離が測定される。例えば、測距対象までの距離を“L”とし、光速を“c”とし、光照射器16によってレーザ光が照射されてから測距用区分領域26N2よってIR反射光が受光されるまでに要する時間を“t”とすると、距離Lは、“L=c×t×0.5”の式に従って算出される。
認識結果と測距結果は可視光画像に重畳される。可視光画像に対して認識結果と測距結果とが重畳されることで得られた重畳画像は、ライブビュー画像としてディスプレイ46に表示される。図6に示す例では、可視光画像に対して、顔画像を囲む枠線29が認識結果として重畳され、かつ、スマートデバイス10から測距対象までの距離を示す数値(図6に示す例では、1.6m、1.8m、及び5.3m)が測距結果として重畳された画像が重畳画像として示されており、重畳画像がライブビュー画像としてディスプレイ46に表示されている。また、図6に示す例では、スマートデバイス10から撮像領域内のうちの代表的な複数の箇所(図6に示す例では3箇所)の各々までの距離が可視光画像に重畳されている。代表的な複数の箇所の一例としては、撮像領域内の特定被写体(例えば、画面中央領域に含まれる被写体、及び/又は、人間等)のうち、互いのコントラストの差が既定値以上の複数の箇所が挙げられる。
ディスプレイ46には、ライブビュー画像と共にソフトキー28が表示される。ソフトキー28は、記録画像用の撮像の開始を指示する場合にユーザ等によって操作される。記録画像としては、例えば、静止画像及び/又は動画像が挙げられる。図7に示すように、ユーザは、ライブビュー画像を視認しながら撮像領域を決定して、ソフトキー28を操作する。スマートデバイス10では、ユーザによってソフトキー28が操作されることで、認識結果と測距結果とに応じてピントの調整が行われ、記録画像用の撮像が行われる。なお、以下では、記録画像用の撮像で行われる露光を「本露光」とも称する。
図8を参照して、スマートデバイス10の構成について説明する。スマートデバイス10は、光照射器16及び受光器18の他に、コントローラ15、入出力インタフェース40、画像メモリ42、UI系デバイス44、外部I/F52、及び通信I/F54を備えている。なお、コントローラ15は、本開示の技術に係る「処理装置」及び「コンピュータ」の一例である。
コントローラ15は、CPU15A、ストレージ15B、及びメモリ15Cを備えている。CPU15Aは、本開示の技術に係る「プロセッサ」及び「認識プロセッサ」の一例であり、メモリ15Cは、本開示の技術に係る「メモリ」の一例である。CPU15A、ストレージ15B、及びメモリ15Cは、バス50を介して接続されており、バス50は、入出力インタフェース40に接続されている。なお、図8に示す例では、図示の都合上、バス50として1本のバスが図示されているが、複数本のバスであってもよい。バス50は、シリアルバスであってもよいし、情報バス、アドレスバス、及びコントロールバス等を含むパラレルバスであってもよい。
ストレージ15Bは、各種パラメータ及び各種プログラムを記憶している。ストレージ15Bは、不揮発性の記憶装置である。ここでは、ストレージ15Bの一例として、フラッシュメモリが採用されている。フラッシュメモリはあくまでも一例に過ぎず、ストレージ15Bとしては、例えば、フラッシュメモリに代えて、又は、フラッシュメモリと併せて、磁気抵抗メモリ及び/又は強誘電体メモリなどの各種の不揮発性メモリが挙げられる。また、不揮発性の記憶装置は、EEPROM、HDD、及び/又はSSD等であってもよい。また、メモリ15Cは、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリ15Cの一例としては、RAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。
ストレージ15Bには、撮像処理プログラム70を含む各種プログラムが記憶されている。撮像処理プログラム70は、本開示の技術に係る「プログラム」の一例である。CPU15Aは、ストレージ15Bから必要なプログラムを読み出し、読み出したプログラムをメモリ15C上で実行する。CPU15Aは、メモリ15C上で実行するプログラムに従ってスマートデバイス10の全体を制御する。
入出力インタフェース40には、複数のデバイスが接続されており、入出力インタフェース40は、複数のデバイス間での各種情報の授受を司る。図8に示す例では、入出力インタフェース40に接続されている複数のデバイスとして、コントローラ15、光照射器16、受光器18、画像メモリ42、UI系デバイス44、外部I/F52、及び通信I/F54が示されている。
外部I/F52は、スマートデバイス10の外部に存在する装置(以下、「外部装置」とも称する)との間の各種情報の授受を司る。外部I/F52の一例としては、USBインタフェースが挙げられる。USBインタフェースには、スマートデバイス、パーソナル・コンピュータ、サーバ、USBメモリ、メモリカード、及び/又はプリンタ等の外部装置(図示省略)が直接または間接的に接続可能である。
通信I/F54は、LTE、5G、無線LAN、及び/又はBluetooth(登録商標)等の通信機能を有しており、外部装置とCPU15Aとの間での各種情報の授受を司る。例えば、通信I/F54は、基地局(図示省略)を介してネットワーク56(例えば、インターネット)に通信可能に接続されており、ネットワーク56上の外部装置とCPU15Aとの間での各種情報の授受を司る。
UI系デバイス44は、ディスプレイ46を備えており、CPU15Aは、ディスプレイ46に対して各種情報を表示させる。また、UI系デバイス44は、受付デバイス47を備えている。受付デバイス47は、タッチパネル48及びハードキー部53を備えている。ハードキー部53は、指示キー13(図2参照)を含む少なくとも1つのハードキーである。CPU15Aは、タッチパネル48によって受け付けられた各種指示に従って動作する。なお、ここでは、ハードキー部53がUI系デバイス44に含まれているが、本開示の技術はこれに限定されず、例えば、ハードキー部53は、外部I/F52に接続されていてもよい。
光照射器16は、透光窓20、ビームエクスパンダ21、コリメートレンズ23、LD24、及びLDドライバ25を備えており、光軸L1に沿って、撮像領域側(物体側)からLD24にかけて、透光窓20、ビームエクスパンダ21、及びコリメートレンズ23が順に配置されている。LDドライバ25は、LD24及び入出力インタフェース40に接続されており、CPU15Aの指示に従ってLD24を駆動させてLD24からレーザ光を出射させる。
LD24から出射されたレーザ光は、コリメートレンズ23によって平行光に変換されてからビームエクスパンダ21によって光径が拡げられ、透光窓20から測距対象に向けて照射される。
受光器18は、透光窓22、対物レンズ30A、フォーカスレンズ30B、絞り30C、光電変換素子26、光電変換素子ドライバ32、及び信号処理回路34を備えている。受光器18では、光軸L2に沿って、撮像領域側(物体側)から光電変換素子26にかけて、透光窓22、対物レンズ30A、フォーカスレンズ30B、及び絞り30Cが順に配置されている。光電変換素子ドライバ32は、光電変換素子26及び入出力インタフェース40に接続されており、CPU15Aの指示に従って光電変換素子26を駆動させる。例えば、光電変換素子ドライバ32は、CPU15Aの制御下で、光電変換素子26によって行われる撮像のタイミングを規定する撮像タイミング信号を光電変換素子26に供給する。光電変換素子26は、光電変換素子ドライバ32から供給された撮像タイミング信号に従って、リセット、露光、及び電気信号の出力を行う。撮像タイミング信号としては、例えば、垂直同期信号及び水平同期信号が挙げられる。
受光器18は、合焦制御機構31を備えている。合焦制御機構31は、フォーカスレンズ30B、移動機構60、モータ62、及びモータドライバ64を備えている。フォーカスレンズ30Bは、移動機構60によって光軸L2に沿ってスライド可能に支持されている。モータ62は、移動機構60及びモータドライバ64に接続されている。モータドライバ64は、入出力インタフェース40に接続されており、CPU15Aからの指示に従ってモータ62を駆動させる。移動機構60は、モータ62の駆動軸(図示省略)に接続されており、モータ62から動力を受けることで、フォーカスレンズ30Bを光軸L2に沿って物体側と像側とに選択的に移動させる。すなわち、CPU15Aは、モータドライバ64を介してモータ62の駆動を制御することで合焦位置を調整する。ここで、「合焦位置」とは、ピントが合っている状態(例えば、可視光画像のコントラストを最大値にした状態、又は、既定の被写体深度を実現した状態)でのフォーカスレンズ30Bの光軸L2上での位置を指す。以下では、説明の便宜上、フォーカスレンズ30Bを合焦位置に合わせる制御を「合焦制御」とも称する。
絞り30Cは、開口が変化しない固定絞りである。固定絞りの場合、露出調節は光電変換素子26の電子シャッタで行われる。絞り30Cは、固定絞りでなく、可変絞りであってもよい。なお、受光器18に含まれる対物レンズ30A、フォーカスレンズ30B、及び絞り30Cはあくまでも一例であり、レンズの構成及び/又は絞り30Cの位置が変わっても本開示の技術は成立する。
受光器18には、透光窓22から反射光が入射される。透光窓22に入射された反射光は、対物レンズ30A、フォーカスレンズ30B、及び絞り30Cを介して光電変換素子26に結像される。
光電変換素子26は、信号処理回路34に接続されており、可視光画素及びIR画素の各画素について、画素値を示す画素データを信号処理回路34に出力する。信号処理回路34は、光電変換素子26から入力された画素データに対してA/D変換を行うことで画素データをデジタル化し、デジタル化した画素データに対して各種の信号処理を施す。
信号処理回路34は、可視光画素データ処理回路34A及びIR画素データ処理回路34Bを備えている。可視光画素データ処理回路34Aは、可視光画素についての画素データに対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、色空間変換処理、及び色差補正などの公知の信号処理を施すことで可視光画像を生成する。そして、可視光画素データ処理回路34Aは、可視光画像を画像メモリ42に格納する。なお、画像メモリ42には、後述するように、測距用レーザ光の強度を段階的に変化させながら順次撮像された10フレーム分の可視光画像が格納される。
測距用区分領域26N2では、IR反射光は、IR画素によって受光され、出射タイミングと受光タイミングとに基づいて、スマートデバイス10から測距対象までの距離を測定するのに使用される。IR画素データ処理回路34Bは、CPU15AからLD24からレーザ光が出射されたタイミング(以下、「出射タイミング」とも称する)を示す出射タイミング信号を取得する。IR画素データ処理回路34Bは、出射タイミング信号により示される出射タイミングと、各IR画素によってIR反射光が受光されたタイミング(以下、「受光タイミング」とも称する)とに基づいて、各IR画素について、スマートデバイス10から測距対象までの距離を測定する。そして、IR画素データ処理回路34Bは、測定した距離を含む測距結果を可視光画像に関連付けて画像メモリ42に格納する。
ところで、スマートデバイス10は、人物が描かれた紙を被写体として撮像を行うことで得た可視光画像に対して画像認識を行う場合、被写体を「人物」として誤判定してしまうことがある。しかし、スマートデバイス10は、被写体の奥行方向に対する測距を行うことで得た測距結果を利用した画像認識を行うことで、被写体が「人物が描かれた紙」であるか、又は、「人物」であるかを判定することができる。つまり、スマートデバイス10は、測距結果を利用した画像認識を行うことで、画像認識の精度を向上させることができる。画像認識は、可視光画像用区分領域26N1での受光結果に基づいて可視光画素データ処理回路34Aによって生成された可視光画像に対して行われる。可視光画像用区分領域26N1では、IR反射光が、可視光フィルタによって完全にカットされるのが理想であるが、IR反射光の強度によっては、可視光フィルタで完全にカットすることが困難である。IR反射光が可視光画素に到達した場合、IR反射光がノイズとして可視光画像に写り込むことがある。可視光画像に対して画像認識を行う場合、可視光画像の画質が悪化すると、画像認識の精度が低下してしまう。例えば、LD24のレーザ光の強度をゼロにすれば、IR反射光もゼロになるので、IR反射光がノイズとして可視光画像に写り込むことはなくなるが、測距ができなくなる。測距ができなくなると、測距結果を画像認識に利用することができなくなるので、画像認識に対して測距結果を利用する場合に比べ、画像認識の精度が低下する。
そこで、スマートデバイス10では、一例として図9に示すように、CPU15Aが、ストレージ15Bから撮像処理プログラム70を読み出し、読み出した撮像処理プログラムに従って撮像処理を実行する。
一例として図10に示すように、撮像処理は、測距撮像装置14が撮像部91及び測距部92として動作し、かつ、CPU15Aが変更部96、制御部93、認識部94、処理部95、出力部97、及び表示制御部99として動作することによって実現される。撮像部91は、受光器18を備えており、測距部92は、光照射器16、測距用区分領域26N2(図3及び図8参照)、及びIR画素データ処理回路34B等を備えている。
変更部96は、レーザ光の照射エネルギー(以下、単に「照射エネルギー」とも称する)を多段階で変更する。本実施形態では、「多段階」の一例として、10段階が採用されている。変更部96は、LDドライバ25を介してLD24から出射されるレーザ光の強度を変更することで、照射エネルギーを変更する。照射エネルギーが最も低い状態では、照射エネルギーはゼロであってもよい。レーザ光は、可視光画像の撮像と同期して照射される。ここでは、変更部96によってレーザ光の強度が変更される形態例が挙げられているが、本開示の技術はこれに限定されない。例えば、レーザ光の強度と共に、又は、レーザ光の強度に代えて、レーザ光の発光時間及び/又は単位時間あたりのレーザ光の発光回数が変更されることによってレーザ光の照射エネルギーが変更されるようにしてもよい。
制御部93は、撮像部91に対して既定のフレームレート(例えば、120fps)で撮像領域を撮像させる。撮像部91によって撮像されることで得られた可視光画像は、画像メモリ42に格納される。また、制御部93は、連続並行処理を行う。連続並行処理とは、複数回連続した並行処理を指す。ここで、複数回とは、10回を指す。10回とは、例えば、撮像部91によって行われる撮像の10フレーム分を意味する。また、並行処理とは、認識部94及び測距部92に対して、認識動作と測距動作とを並行して行わせる処理を指す。認識動作は、認識部94によって行われ、測距動作は、測距部92によって行われる。つまり、制御部93は、認識動作と測距動作とを10フレーム分並行して行わせるように認識部94及び測距部92を制御する。
なお、ここでは、認識動作と測距動作とが10フレーム分並行して行われる形態例を挙げて説明しているが、本開示の技術はこれに限定されず、認識動作と測距動作とが10フレーム未満又は11フレーム以上並行して行われるようにしてもよく、認識動作と測距動作とが複数回並行して行われるようにすればよい。認識動作と測距動作とが並行して行われる回数は、固定値であってもよいし、受付デバイス47によって受け付けられた指示に応じて変更される値であってもよいし、スマートデバイス10の動作モード及び/又は撮像シーン等に応じて変更される値であってもよい。
また、本実施形態において、連続並行処理は、繰り返し行われる。すなわち、認識動作と測距動作とを10フレーム分並行して行う処理が複数回にわたって繰り返し行われる。本実施形態において、連続並行処理が繰り返し行われる回数は、数十回(例えば、30回)以上である。連続並行処理が繰り返し行われる回数は、固定値であってもよいし、受付デバイス47によって受け付けられた指示に応じて変更される値であってもよいし、スマートデバイス10の動作モード及び/又は撮像シーン等に応じて変更される値であってもよい。
IR画素データ処理回路34Bは、光照射器16によってレーザ光が照射されてから、測距用区分領域26N2(図3及び図8参照)によってIR反射光が受光されるまでに要する時間と、光速とに基づいて、スマートデバイス10から測距対象までの距離をIR画素毎に測定する。このとき、レーザ光の照射エネルギーと測距対象までの距離によっては、IR反射光を十分に受光できないIR画素が生じる。ここで、「IR反射光を十分に受光できないIR画素」とは、例えば、数メートル先の測距対象からのIR反射光の受光量が測距可能な受光量として、実機による試験及び/又はコンピュータ・シミュレーション等によって予め導出された受光量に満たないIR画素を指す。一般に、レーザ光の照射エネルギーが高いほど測定できる距離は長くなり、弱くなるにしたがって測定できる距離は短くなる。IR画素データ処理回路34Bは、各IR画素によるIR反射光の受光量(例えば、単位時間あたりの受光量)との比較に用いる閾値を有しており、IR反射光の受光量が閾値未満のIR画素については、正しく測距できなかったとしてブランク情報を出力する。測距部92による1フレーム分の測距結果は、可視光画像と対応付けられて、画像メモリ42に格納される。
測距結果には、測距部92によって測定された距離、すなわち、スマートデバイス10から測距対象までの距離と、正しく測距が行われたIR画素(以下、「正測距IR画素」とも称する)の個数(以下、「正測距IR画素数」とも称する)と、ブランク情報とが含まれる。正測距IR画素数は、IR画素データ処理回路34Bによって算出される。正測距IR画素は、例えば、受光量が閾値以上のIR反射光を受光したIR画素であり、概して、レーザ光の照射エネルギーが高いほど多くなる。逆に、レーザ光の照射エネルギーが高いと可視光画像に写り込むレーザ光の光量が多くなり画質が悪化するので、レーザ光の照射エネルギーが高いほど、顔画像数は少なくなる。
認識部94は、画像メモリ42から可視光画像を読み出し、読み出した可視光画像に対して、画像認識用辞書(図示省略)を参照して、顔画像についての画像認識を行う。画像認識用辞書には、例えば、複数種類の顔画像が登録されている。画像認識が行われることによって得られた1フレーム分の認識結果は、可視光画像及び測距結果と対応付けられて画像メモリ42に格納される。
処理部95は、画像メモリ42から1フレーム分の測距結果及び認識結果を読み出す。そして、処理部95は格付け処理を行う。ここで、格付け処理とは、読み出した測距結果に含まれるIR画素数及び顔画像数に応じて、フレーム毎に(ここでは、一例として、10フレーム分のフレームの各々について)対応するフレームの格付けをする処理を指す。各フレームが格付けされることは、各フレームに対応する認識結果が重みづけされることを意味する。なお、顔画像数は、本開示の技術に係る「複数回の認識動作によって得られた複数の認識結果」の一例である。また、格付け処理は、本開示の技術に係る「特定処理」の一例である。また、以下では、説明の便宜上、格付けをする対象とされる1フレームを「格付け対象フレーム」とも称する。
格付け処理は、下記の計算式(1)に従って処理部95によって実行される。具体的には、下記の計算式(1)に示すように、処理部95は、正測距IR画素数に対して係数Aを乗じることで得た値と、顔画像数に対して、係数Aとは異なる係数Bを乗じることで得た値との和を格付け値として算出する。ここでは、係数A及びBとして正値が採用されている。
格付け値=(正測距IR画素数)×A+(顔画像数)×B・・・・(1)
なお、上記の計算式(1)において、係数A及びBは正値でなくてもよい。例えば、測距結果を無視した格付け値を得る場合、係数Aを“0”とし、認識結果を無視した格付け値を得る場合、係数Bを“0”とすればよい。また、係数Aは、照射エネルギーに応じて定められるようにしてもよい。例えば、照射エネルギーが“0”の場合、係数Aを“0”とし、照射エネルギーが高くなるほど、係数Aの値を大きくするようにしてもよい。これにより、格付け値は、認識動作に並行する測距動作で用いられる照射エネルギーに応じた値として算出される。また、係数A及び/又は係数Bは、固定値であってもよいし、受付デバイス47によって受け付けられた指示に応じて変更される値であってもよいし、スマートデバイス10の動作モード及び/又は撮像シーン等に応じて変更される値であってもよい。
上記の計算式(1)によれば、正測距IR画素数が多く、かつ、顔画像数が多いほど、格付け値は高くなる。格付け値は、可視光画像、測距結果、及び認識結果と対応付けられて画像メモリ42に格納される。
画像メモリ42には、レーザ光の照射エネルギーレベルRを1~10の10段階で変更しながら順次撮像された10フレーム分の可視光画像、測距結果、認識結果、及び格付け値が格納される。
出力部97は、撮像部91によって既定のフレームレートに従って撮像領域が複数回撮像されることで得られた複数のフレームのうちの特定のフレームについての認識結果と測距結果とを出力する。具体的には、出力部97は、10フレーム分の格付け値を参照し、10フレームのうちの最も格付け値の高いフレームの可視光画像、測距結果、及び認識結果を画像メモリ42のライブビュー画像記憶領域42Aに出力する。なお、10フレームのうちの最も格付け値の高いフレームは、本開示の技術に係る「複数回のうちの特定の回」の一例であり、ライブビュー画像記憶領域42Aは、本開示の技術に係る「特定の出力先」の一例である。
表示制御部99は、ライブビュー画像記憶領域42Aから可視光画像、測距結果、及び認識結果を取得し、取得した可視光画像、測距結果、及び認識結果に基づいて重畳画像を生成する。表示制御部99は、生成した重畳画像をライブビュー画像としてディスプレイ46に出力することで、ディスプレイ46に対してライブビュー画像を表示させる(図6参照)。なお、出力部97及び表示制御部99は、本開示の技術に係る「出力部」の一例である。また、ディスプレイ46は、本開示の技術に係る「特定の出力先」及び「表示部」の一例である。
なお、ここでは、重畳画像として、測距結果と枠線29との両方が可視光画像に対して重畳されることで得られた画像が例示されているが、本開示の技術はこれに限らず、可視光画像に対して測距結果又は枠線29のいずれか一方のみが重畳されることで得られる画像であってもよい。また、重畳画像と可視光画像とがライブビュー画像としてディスプレイ46に選択的に表示されるようにしてもよい。
次に、スマートデバイス10の本開示の技術に係る部分についての作用について図11を参照しながら説明する。なお、図11には、CPU15Aによって実行される撮像処理の流れの一例が示されている。
図11に示す撮像処理では、先ず、ステップST10で、制御部93は、撮像処理を開始する条件(以下、「撮像処理開始条件」とも呼ぶ)を満足したか否かを判定する。撮像処理開始条件の一例としては、タッチパネル48に対して、撮像処理を開始する指示が受け付けられた、との条件が挙げられる。ステップST10において、撮像処理開始条件を満足してない場合は、ステップST10の判定が再び行われる。ステップST10において、撮像処理開始条件を満足した場合は、撮像処理はステップST12へ移行する。
ステップST12で、変更部96は、レーザ光の照射エネルギーレベルRを最大値10に設定する。その後、撮像処理はステップST14へ移行する。
ステップST14で、制御部93は、撮像タイミングが到来したか否かを判定する。撮像タイミングは、例えば、既定のフレームレートで定められた周期(例えば、1/120秒)毎に到来する。ステップST14において、撮像タイミングが到来していない場合は、判定が否定されて、ステップST14の判定が再び行われる。ステップST14において、撮像タイミングが到来した場合、判定が肯定されて、撮像処理はステップST16へ移行する。
ステップST16で、制御部93は、撮像部91を制御することで光電変換素子26に対して露光を行わせる。すなわち、制御部93は、光電変換素子ドライバ32に対して撮像タイミング信号を光電変換素子26へ出力させることで、光電変換素子26をリセットさせ、かつ、光電変換素子26に対して新たな電荷を蓄積させる。そして、制御部93は、可視光画素データ処理回路34Aに対して、光電変換素子26に蓄積された電荷量に応じた可視光画像を生成させる。光電変換素子26に対する露光によって得られた可視光画像は、画像メモリ42に格納される。また、制御部93は、測距部92を制御して、レーザ光を照射させる。その後、撮像処理はステップST18へ移行する。
ステップST18で、制御部93は、並行処理を行う。すなわち、ステップST18では、測距部92によって測距動作が行われ、かつ、認識部94によって認識動作が行われる。測距部92は、スマートデバイス10から測距対象までの距離をIR画素毎に測定する。認識部94は、画像メモリ42から可視光画像を読み出し、読み出した可視光画像に対して顔画像についての画像認識を行う。ここで得られた1フレーム分の測距結果及び認識結果は、可視光画像と対応付けられて制御部93によって画像メモリ42に格納される。その後、撮像処理はステップST20へ移行する。
ステップST20では、処理部95は、画像メモリ42から格付け対象フレームの測距結果及び認識結果を読み出し、正測距IR画素数と顔画像数とに応じて、格付け対象フレームにおける測距結果及び認識結果の格付け値を算出する。格付け値は、格付け対象フレームについての可視光画像、測距結果、及び認識結果と対応付けられて画像メモリ42に格納される。その後、撮像処理はステップST22へ移行する。
ステップST22で、処理部95は、レーザ光の照射エネルギーレベルRが最小値1に等しいか否かを判定する。ステップST22において、R=1を満たさない場合は、判定が否定されて、撮像処理はステップST23へ移行する。ステップST22において、R=1を満たした場合は、判定が肯定されて、撮像処理はステップST24へ移行する。
ステップST23で、処理部95は、照射エネルギーレベルRから“1”を減算する。その後、撮像処理はステップST14へ移行する。
このように、ステップST14からステップST20までの処理が繰り返されることで、照射エネルギーレベルRが最大値10から最小値1まで1ずつ減少し、これに伴って、照射エネルギーレベルRが10段階で変化する。照射エネルギーレベルRが1段階ずつ変化するのに伴って撮像部91によって撮像領域が順次撮像されることで得られた可視光画像と、測距部92による測距結果と、認識部94による認識結果と、処理部95によって算出された格付け値とが画像メモリ42に10フレーム分記憶される。
ステップST24で、出力部97は、10フレーム分の格付け値を参照し、最も格付けの良いフレームの可視光画像、測距結果、及び認識結果を画像メモリ42のライブビュー画像記憶領域42Aに出力する。その後、撮像処理はステップST26へ移行する。
ステップST26で、表示制御部99は、ライブビュー画像記憶領域42Aから最も格付け値の高いフレームの可視光画像、測距結果、及び認識結果を取得する。そして、表示制御部99は、ライブビュー画像記憶領域42Aから取得した最も格付け値の高いフレームの可視光画像、測距結果、及び認識結果から重畳画像を生成し、生成した重畳画像をライブビュー画像としてディスプレイ46に対して表示させる。これにより、照射エネルギーレベルRを10段階で変化させながら取得された10フレーム分の測距結果及び認識結果のうち、測距動作と認識動作との総合的な精度が最も良いフレームの測距結果及び認識結果を使って生成されたライブビュー画像がディスプレイ46に表示される。その後、撮像処理はステップST28へ移行する。
ステップST28で、制御部93は、ユーザによってソフトキー28(図6参照)が操作されたか否かを判定する。ステップST28において、ソフトキー28が操作されていない場合、判定が否定されて、撮像処理はステップST32へ移行する。ステップST28において、ソフトキー28が操作された場合、判定が肯定されて、撮像処理はステップST30へ移行する。
ステップST30で、制御部93は、ライブビュー画像で使用された最も格付け値の高いフレームの測距結果及び認識結果に基づいて、撮像部91に対して本露光を伴う静止画像用の撮像を行わせる。その後、撮像処理はステップST32へ移行する。なお、ここでは、静止画像用の撮像を例示しているが、本開示の技術はこれに限定されず、本露光を伴う動画像用の撮像であってもよく、上述した記録画像用の撮像であればよい。
ステップST30での撮像部91による静止画像用の撮像では、ライブビュー画像で使用された最も格付け値の高いフレームの測距結果及び認識結果に基づいて、特定の顔画像により示される人物の顔に対する合焦が行われる。ここで、特定の顔画像は、例えば、認識結果に含まれている顔画像である。認識結果に複数の顔画像が含まれている場合には、複数の顔画像により示される複数人の人物の顔のうち、撮像領域の中央に最も近い人物の顔、又は、特定の表情(例えば、笑顔)の人物の顔が合焦対象として選定される。また、枠線29に囲まれてディスプレイ46に表示された複数人の人物の顔のうち、ピントを合わせる領域として、ユーザ等によってタッチパネル48を介して指定された人物の顔が合焦対象として選定されるようにしてもよい。
制御部93は、測距結果から、合焦対象として選定した人物の顔までの距離を取得し、取得した距離に対応する合焦位置を導出する。合焦位置は、例えば、距離と合焦位置とが対応付けられた合焦位置導出テーブル(図示省略)、又は、距離を独立変数とし、合焦位置を従属変数とした合焦位置導出演算式(図示省略)から制御部93によって導出される。制御部93は、合焦制御機構31を作動させることで、導出した合焦位置にフォーカスレンズ30Bを移動させる。そして、制御部93は、光電変換素子ドライバ32を駆動することで、光電変換素子26に対して本露光を行わせる。本露光が行われることによって可視光画素データ処理回路34Aによって静止画像が生成され、生成された静止画像は可視光画素データ処理回路34Aによって画像メモリ42に格納される。そして、制御部93は、画像メモリ42から静止画像を取得し、取得した静止画像を、外部I/F52に接続されているメモリカード(図示省略)に格納する。
ステップST32で、制御部93は、撮像処理を終了させる条件(以下、「撮像処理終了条件」とも称する)を満足したか否かを判定する。撮像処理終了条件の一例としては、タッチパネル48に対して、撮像処理を終了する指示が受け付けられた、との条件が挙げられる。ステップST36において、撮像処理終了条件を満足していない場合は、判定が否定されて、撮像処理はステップST12へ移行する。ステップST36において、撮像処理終了条件を満足した場合は、判定が肯定されて、撮像処理が終了する。
以上説明したように、本第1実施形態のスマートデバイス10によれば、制御部93は、撮像部91によって撮像領域が撮像されることで得られた可視光画像に基づいて認識部94が撮像領域に含まれる特定被写体(ここでは、一例として、人物の顔)を認識する認識動作と、測距部92が撮像領域に対してレーザ光を照射し、撮像領域に対するレーザ光によるIR反射光を受光することで測距を行う測距動作とを複数回並行して行わせる。変更部96は、測距動作毎に、撮像領域に対するレーザ光の照射エネルギーを変更する。従って、本構成によれば、常に同一の照射エネルギーのレーザ光を使って測距を行いながら特定被写体の画像認識を行う場合に比べ、測距と特定被写体の認識とを高精度に両立させることができる。なお、本開示の技術に係る「測距動作毎に撮像領域に対するレーザ光の照射エネルギーを変更する」の一例として、全ての測距動作毎のレーザ光の照射エネルギーを変更する態様を説明したが、本開示の技術はこれに限定されない。例えば、「測距動作毎に撮像領域に対するレーザ光の照射エネルギーを変更する」には、複数の測距動作の一部の連続した回又は連続しない回においてレーザ光の照射エネルギーが同一である場合も含まれる。これらのレーザ光の照射エネルギーが同一である測距動作を含む複数フレームは、いずれか1フレームのみを格付け対象フレームとしてもよいし、全てのフレームを格付け対象フレームとしてもよい。
本第1実施形態のスマートデバイス10によれば、出力部97は、最も格付け値が高いフレームについての認識結果と測距結果とを特定の出力先(ここでは、例えば、ライブビュー画像記憶領域42A及びディスプレイ46)に出力する。従って、本構成によれば、認識結果と測距結果が互いに異なるタイミングで出力される場合に比べ、認識結果と測距結果とを得たタイミングを容易に特定することができる。
本第1実施形態のスマートデバイス10によれば、特定の出力先は、認識結果及び測距結果のうち少なくとも一方を表示可能なディスプレイ46である。従って、本構成によれば、認識動作によって得られた認識結果及び測距動作によって得られた測距結果をユーザに知覚させることができる。
本第1実施形態のスマートデバイス10によれば、ディスプレイ46は、特定被写体を示す特定被写体画像と、認識結果として特定被写体画像を取り囲む枠線29とを表示する。従って、本構成によれば、認識動作によって得られた認識結果をユーザに対して視覚的に把握させることができる。
本第1実施形態のスマートデバイス10によれば、制御部93は、測距結果に応じて定められた合焦位置にフォーカスレンズ30Bを移動させる。従って、本構成によれば、測距結果とは無関係に、マニュアルフォーカス方式で合焦させる場合に比べ、オートフォーカス方式によって、簡単に合焦させることができる。
本第1実施形態のスマートデバイス10によれば、処理部95は、10回の認識動作と測距動作とによって得られた認識結果と測距結果から10個の格付け値を算出する。従って、本構成によれば、格付け値を算出しない場合に比べ、認識結果及び測距結果の組み合わせとしてバランスの取れた組み合わせを特定することができる。
本第1実施形態のスマートデバイス10によれば、認識動作によって得られる認識結果は、特定被写体の種類及び/又は態様などに応じて重みづけされる。従って、本構成によれば、認識結果について重要度の高低を特定することができる。
本第1実施形態のスマートデバイス10によれば、制御部93は、格付け値に従って選定された認識結果に基づいて、撮像部91に対して本露光による撮像を行わせる。従って、本構成によれば、複数回の認識動作によって得られた複数の認識結果から無作為に選定された認識結果に基づいて撮像部91に対して本露光による撮像を行わせる場合に比べ、不適切な認識結果に基づいて撮像部91に対して本露光による撮像を行わせることを抑制することができる。
本第1実施形態のスマートデバイス10によれば、特定被写体は、人物の顔である。従って、本構成によれば、撮像領域に対して常に同一の照射エネルギーで照射される指向性光に基づく測距と撮像領域に含まれる顔の認識とが同時に行われる場合に比べ、測距と人物の顔の認識とを高精度に両立させることができる。
本第1実施形態のスマートデバイス10によれば、人物の顔は、特定の表情の顔であってもよい。この場合、撮像領域に対して常に同一の照射エネルギーで照射されるレーザ光に基づく測距と撮像領域に含まれる特定の表情の顔の認識とが同時に行われる場合に比べ、測距と特定の表情の顔の認識とを高精度に両立させることができる。
なお、上記第1実施形態では、本開示の技術に係る「特定被写体」の一例として、人物の顔を挙げたが、本開示の技術はこれに限定されない。例えば、特定被写体は、閾値未満の反射率を有する物体であってもよい。ここで、閾値は、例えば、既定の照射エネルギーレベルRでレーザ光が照射されることで得られるIR反射光がノイズとして可視光画像に視覚的に認識されるレベルで現れる反射率の下限値として、実機による官能試験及び/又はコンピュータ・シミュレーション等によって予め導き出された値である。既定の照射エネルギーレベルRとは、例えば、上述した10段階の照射エネルギーレベルRのうちの5段階目の照射エネルギーレベルRを指す。従って、本構成によれば、撮像領域に対して常に同一の照射エネルギーで照射されるレーザ光に基づく測距と閾値未満の反射率を有する物体の認識とが同時に行われる場合に比べ、測距と閾値未満の反射率を有する物体の認識とを高精度に両立させることができる。
また、上記第1実施形態では、本開示の技術に係る「特定処理」の一例として、格付け処理を挙げたが、本開示の技術はこれに限定されない。例えば、認識動作毎によって得られた認識結果、及び測距動作毎によって得られた測距結果のうちの少なくとも認識結果が、外部I/F52を介して、スマートデバイス10とは異なるスマートデバイス、パーソナル・コンピュータ、及び/又はサーバ等の外部装置(図示省略)に出力される処理が処理部95によって行われるようにしてもよい。また、認識動作毎によって得られた認識結果、及び測距動作毎によって得られた測距結果のうちの少なくとも認識結果と、可視光画像とが特定のフォーマット形式(例えば、Exifフォーマット形式)の画像ファイルとして作成される処理が処理部95によって行われるようにしてもよい。
また、上記第1実施形態では、認識部94は、特定被写体として人物の顔を認識したが、特定被写体は人物の顔に限らず、人物の全身であってもよいし、複数の人物の顔のうち特定の表情の顔(例えば、笑顔)であってもよい。認識部94は、樹木、草花、歴史的な建築物、及び/又は文字などを特定被写体として認識してもよい。また、被写体に一般的に反射率が高いと認識されている物体(例えば、ミラー)が含まれている場合、一般的に反射率が高いと認識されている物体は、黒色の物体等のように光を吸収する物体に比べ、レーザ光を反射しやすく、可視光画像にノイズとして現れやすいので、認識部94は、上述した閾値未満の反射率を有する物体のみを特定被写体として認識するようにしてもよい。
認識部94は、特定被写体の種類もしくは様態に応じて、特定被写体を重みづけしてもよい。例えば、認識部94が予め登録された人物の顔に重みづけをし、その認識結果に基づいて本露光を行えば、予め登録された人物が撮像領域の中央にいなくても、その人物に合焦された画像が撮像される。また、認識部94が動物の珍しい表情または動作に重みづけをすれば、珍しい表情または動作に合焦されやすくなる。一方、人物の目を閉じている表情への重みをゼロにすれば、閉眼している人物に合焦されにくくなる。
また、上記第1実施形態では、最も高い格付け値のフレーム(本開示の技術に係る「特定の回」の一例)についての認識結果及び測距結果が特定の出力先(例えば、ライブビュー画像記憶領域42A及びディスプレイ46)に出力される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、連続並行処理において、10フレーム分の1フレーム目、10フレーム目、及び最も高い格付け値のフレームの各フレームについての認識結果及び測距結果が特定の出力先に出力されるようにしてもよい。また、連続並行処理は繰り返し行われるので、周期的に又は非周期的に選定された連続並行処理において、10フレーム分のうちの少なくとも1以上の特定のフレームについての認識結果及び測距結果が特定の出力先に出力されるようにしてもよい。
[第2実施形態]
一例として図12に示すように、本第2実施形態に係るスマートデバイス100は、ズーム制御機構131を備えている点で、上記第1実施形態によるスマートデバイス10と異なる。スマートデバイス100のその他の構成は、上記第1実施形態によるスマートデバイス10と同じであるので、上記第1実施形態で説明した構成要素と同一の構成要素については同一の符号を付し、その説明を省略する。
スマートデバイス100は、上記実施形態で説明したスマートデバイス10に比べ、測距撮像装置14に代えて測距撮像装置114を有する点が異なる。測距撮像装置114は、測距撮像装置14に比べ、ズーム制御機構131を有する点が異なる。ズーム制御機構131は、ズームレンズ30D、移動機構160、モータ162、及びモータドライバ164を備えている。ズームレンズ30Dは、移動機構160によって光軸L2に沿ってスライド可能に支持されている。モータ162は、移動機構160及びモータドライバ164に接続されている。モータドライバ164は、入出力インタフェース40に接続されており、CPU15Aからの指示に従ってモータ162を駆動させる。移動機構160は、モータ162の駆動軸(図示省略)に接続されており、モータ162から動力を受けることで、ズームレンズ30Dを光軸L2に沿って物体側と像側とに選択的に移動させる。すなわち、CPU15Aは、モータドライバ164を介してモータ162の駆動を制御することで撮像の画角を調整する。
次に、本第2実施形態に係る撮像処理について図13を参照しながら説明する。図13に示す撮像処理は、図11に示す撮像処理に比べ、ステップST40及びステップST42を有する点が異なる。そこで、以下では、図11に示すフローチャートとは異なるステップについて説明し、図11に示すフローチャートに含まれるステップと同一のステップについては、同一のステップ番号を付し、その説明を省略する。
図13に示す撮像処理において、ステップST26が終了すると、撮像処理はステップST40へ移行する。ステップST40で、制御部93は、ライブビュー画像で使用された最も格付け値の高いフレームの測距結果から、ライブビュー画像で使用された最も格付け値の高いフレームに含まれる特定の顔画像(例えば、ライブビュー画像内の中央に最も近い顔画像)により示される人物の顔までの距離を取得し、取得した距離が既定範囲外か否かを判定する。既定範囲は、固定値であってもよいし、受付デバイス47によって受け付けられた指示に応じて変更される値であってもよいし、スマートデバイス10の動作モード及び/又は撮像シーン等に応じて変更される値であってもよい。
ステップST40において、特定の顔画像により示される人物の顔までの距離が既定範囲内の場合は、判定が否定されて、撮像処理はステップST28へ移行する。ステップST40において、特定の顔画像により示される人物の顔までの距離が既定範囲外の場合は、判定が肯定されて、撮像処理はステップST42へ移行する。
ステップST42で、制御部93は、特定の顔画像により示される人物の顔までの距離に応じて定められた画角となるように、モータドライバ164を介してモータ162を制御することで、特定移動量でズームレンズ30Dを光軸L2に沿って移動させる。つまり、制御部93は、光軸L2上の位置であって、測距動作によって得られる測距結果に応じて定められたズームイン位置又はズームアウト位置にズームレンズ30Dを光軸L2に沿って移動させる。
ここで、上記の特定移動量は、例えば、距離とズームレンズ30Dの移動量とが対応付けられた移動量導出用テーブル(図示省略)、又は、距離を独立変数とし、ズームレンズ30Dの移動量を従属変数とする移動量導出用演算式(図示省略)から制御部93によって導出された移動量である。ステップST42の処理が終了すると、撮像処理はステップST12へ移行する。
本第2実施形態のスマートデバイス100によれば、測距撮像装置114は光軸L2に沿って移動可能なズームレンズ30Dを有する。制御部93は、光軸L2上の位置であって、測距動作によって得られる測距結果に応じて定められたズームイン位置又はズームアウト位置にズームレンズ30Dを光軸L2に沿って移動させる。従って、本構成によれば、手動でズームレンズ30Dを移動させる場合に比べ、測距結果に応じた位置に容易にズームレンズ30Dを移動させることができる。
また、上記第2実施形態では、制御部93が、測距動作によって得られる測距結果に応じてズームレンズ30Dを移動させる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、制御部93は、受付デバイス47によって受け付けられたズーム操作に応じてズームレンズ30Dを移動させるようにしてもよい。
この場合、例えば、図14に示す撮像処理がCPU15Aによって実行される。図14に示す撮像処理は、図13に示す撮像処理に比べ、ステップST40の処理に代えてステップST140の処理を有する点、及びステップST42の処理に代えてステップST142を有する点が異なる。
図14に示す撮像処理では、ステップST140で、制御部93は、受付デバイス47に対してズーム操作が行われたか否かを判定する。ズーム操作としては、例えば、タッチパネル48に対するピンチイン操作及びピンチアウト操作が挙げられる。例えば、枠線29で囲まれた顔画像により示される人物の顔に対してズームインする場合には、顔画像上でタッチパネル48に対してピンチアウト操作が行われ、人物の顔からズームアウトする場合には、タッチパネル48に対してピンチアウト操作が行われる。
ステップST140において、受付デバイス47に対してズーム操作が行われた場合は、判定が肯定されて、撮像処理はステップST142へ移行する。ステップST140において、受付デバイス47に対してズーム操作が行われていない場合は、判定が否定されて、撮像処理はステップST28へ移行する。
ステップST142で、制御部93は、モータドライバ164を介してモータ162を制御することで、ズーム操作に応じた移動量でズームレンズ30Dを光軸L2に沿って移動させる。その後、撮像処理はステップST12へ移行する。本ステップST142の処理が実行されることで、画角が変更される。
[第3実施形態]
一例として図8に示すように、本第3実施形態に係るスマートデバイス200は、上記第1実施形態に係るスマートデバイス10と同一の構成を有する。以下では、本第3実施形態に係るスマートデバイス200の撮像処理について、上記第1実施形態に係るスマートデバイス10の撮像処理と異なる点を説明する。
一例として図15に示すように、本第3実施形態に係る撮像処理は、図11に示す撮像処理に比べ、ステップST10とステップST12との間にステップST50及びステップST52を有する点が異なる。
図15に示す撮像処理では、ステップST50で、制御部93は、合焦制御用測距を行う。本ステップST50が実行されることで、光照射器16は、撮像領域の全部もしくは一部(例えば、中央部)に向かってレーザ光を照射し、測距用区分領域26N2は、IR反射光を受光する。測距用区分領域26N2によってIR反射光が受光されることによって得られた画素データは、IR画素データ処理回路34Bに送られ、レーザ光の照射からIR反射光が受光されるまでに要する時間と、光速とに基づいて、スマートデバイス200から撮像領域の全部もしくは一部までの距離が測定される。このようにして得られた測距結果は、IR画素データ処理回路34Bによって画像メモリ42に格納される。
次のステップST52で、制御部93は、ステップST50が実行されることで画像メモリ42に格納された測距結果に応じて定められた合焦位置にフォーカスレンズ30Bを移動させる。合焦位置は、上記第1実施形態と同様に、合焦位置導出テーブル(図示省略)又は合焦位置導出演算式(図示省略)から制御部93によって導出される。
本第3実施形態のスマートデバイス200によれば、測距撮像装置14(撮像部)は光軸L2に沿って移動可能なフォーカスレンズ30Bを有する。測距撮像装置14(測距部)は、認識動作に先立って、撮像領域に対してレーザ光を照射し、撮像領域からのIR反射光を受光することで合焦制御用測距を行う。制御部93は、合焦制御用測距によって得られた測距結果に応じて定められた合焦位置にフォーカスレンズ30Bを光軸L2に沿って移動させる。従って、本構成によれば、認識動作を行う前に合焦位置にフォーカスレンズ30Bが移動されるので、スマートデバイス200は、認識動作を行う前に合焦位置にフォーカスレンズ30Bが移動されない場合に比べ、並行処理が行われることで得られる可視光画像の画質を良好にすることができる。この結果、認識動作を行う前に合焦位置にフォーカスレンズ30Bが移動されない場合に比べ、並行処理が行われることで得られる可視光画像に対する画像認識の精度を高めることができる。
[その他の実施形態]
上記各実施形態では、測距用区分領域26N2によってIR反射光が受光される形態例を挙げて説明したが、本開示の技術はこれに限定されず、測距用区分領域26N2内の一部のIR画素によってIR反射光が受光されるようにしてもよい。
この場合、例えば、図16に示すように、制御部93は、ディスプレイ46に対して測距範囲指定案内画面102を表示させる。測距範囲指定案内画面102は、ユーザ等に対して測距範囲の指定を案内する画面である。測距範囲指定案内画面102には、測距範囲を指定するか否かをユーザに対して問うメッセージ(以下、「案内メッセージ」とも称する)が表示されている。図16に示す例では、案内メッセージの一例として、「測距範囲を指定しますか?」というメッセージが示されている。また、測距範囲指定案内画面102には、ソフトキー102A及び102Bが表示されている。ソフトキー102Aは、ユーザ等が測距範囲を指定する場合にタッチパネル48を介してユーザ等によってオンされる。ソフトキー102Bは、ユーザ等が測距範囲を指定しない場合、すなわち、撮像領域の全体を測距範囲とする場合にタッチパネル48を介してユーザ等によってオンされる。
測距範囲指定案内画面102がディスプレイ46に表示されている状態で、タッチパネル48を介してソフトキー102Aがユーザ等によってオンされると、一例として図17に示すように、制御部93は、ディスプレイ46に対して、可視光画像をライブビュー画像として表示させる。ディスプレイ46にライブビュー画像が表示されている状態で、タッチパネル48を介してユーザ等によって画像領域(図17に示す例では、可視光画像上の破線で囲まれた矩形領域)が指定される。ユーザ等によって指定された画像領域(以下、「指定画像領域」とも称する)に対応する実空間領域は、測距撮像装置14による測距対象として指定される。
この場合、一例として図18に示すように、タッチパネル48から、可視光画像上での指定画像領域の位置を特定可能な領域位置特定情報(例えば、座標)が制御部93に出力される。制御部93は、測距用区分領域26N2のうちの測距用指定区分領域26N2aの位置を特定可能な区分領域位置情報(例えば、画素アドレス)を光電変換素子ドライバ32に出力する。ここで、測距用指定区分領域26N2aとは、測距用区分領域26N2のうち、タッチパネル48から入力された領域位置特定情報により特定される指定画像領域の位置に対応する位置の区分領域を指す。
光電変換素子ドライバ32は、測距動作において、測距用区分領域26N2のうちの測距用指定区分領域26N2aのみを駆動させることで、測距撮像装置14及び114に対して、測距用指定区分領域26N2aのみによって受光されたIR反射光を用いて測距を行わせる。つまり、測距は、複数のIR画素のうちの指定された領域内に含まれる少なくとも1つのIR画素のみによって受光されたIR反射光を用いて行われる。
図16~図18に示す例では、測距用区分領域26N2が測距用指定区分領域26N2aに変更されることによって、ユーザ等が指定した測距対象(いわゆるROI)に絞って測距が行われるようにしたが、測距対象を絞る方法は、これに限定されない。例えば、ユーザ等によって指定された測距対象にレーザ光が照射されるように、受付デバイス47によって受け付けられた指示に従って制御部93によってレーザ光のビーム径及び/又は向きを変更させる制御が行われるようにしてもよい。
上記各実施形態では、受光器18が搭載されたスマートデバイス10、100及び200を例示したが、本開示の技術はこれに限定されず、例えば、図19に示すように、受光器18及び350が搭載されたスマートデバイス300であってもよい。一例として図19に示すように、スマートデバイス300を縦置きの状態にした場合の筐体12の背面12Aの左上部(縦置きの状態のスマートデバイス300の背面視左上部)には、透光窓22に隣接して透光窓352が設けられている。透光窓352は、透光窓20及び22と同様に、透光性を有する光学素子(例えば、レンズ)であり、透光窓20、22及び352は、水平方向に沿って既定の間隔で配置されている。透光窓352も、透光窓20及び22と同様に、背面12Aから露出している。
受光器350は、光電変換素子354を備えている。光電変換素子354は、IR反射光の受光用に特化した光電変換素子であり、マトリクス状に配置された複数のIR画素を有している。複数のIR画素の一例としては、“4896×3265”画素分のIR画素用のフォトダイオート(例えば、InGaAs APD)が挙げられる。光電変換素子354は、透光窓352を介して受光器350に取り込まれたIR反射光を受光し、受光したIR反射光の光量に応じた電気信号を信号処理回路34(図8参照)に出力する。
また、図19に示す例では、受光器18及び350が搭載されたスマートデバイス300を示したが、本開示の技術はこれに限定されず、例えば、図20に示すように、受光器18及び450が搭載されたスマートデバイス400であってもよい。一例として図20に示すように、スマートデバイス400を縦置きの状態にした場合の筐体12の背面12Aの右上部(縦置きの状態のスマートデバイス400の背面視右上部)には、透光窓20に隣接して透光窓452が設けられている。透光窓452は、透光窓20及び22と同様に、透光性を有する光学素子(例えば、レンズ)であり、透光窓452、20及び22は、水平方向に沿って既定の間隔で配置されている。透光窓452も、透光窓20及び22と同様に、背面12Aから露出している。
受光器450は、単一のフォトダイオード454を備えている。フォトダイオード454は、例えば、IR反射光を受光可能なフォトダイオードである。フォトダイオード454の一例としては、InGaAs APDが挙げられる。フォトダイオード454は、透光窓452を介して受光器450に取り込まれたIR反射光を受光し、受光したIR反射光の光量に応じた電気信号を信号処理回路34(図8参照)に出力する。
上記各実施形態では、本開示の技術に係る「光」の一例としてレーザ光を挙げて説明したが、本開示の技術はこれに限定されず、レーザ光に代えて、スーパールミネッセント光を用いてもよく、測距可能な指向性を有する光を用いて測距が行われるようにすればよい。
上記各実施形態では、測距撮像装置14がスマートデバイス10に内蔵されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図21に示すように、一般的なスマートデバイス500、すなわち、測距撮像装置14が内蔵されていないスマートデバイス500に対して測距撮像装置14が外付けされていてもよい。
また、上記各実施形態では、UI系デバイス44がスマートデバイス10に組み込まれている形態例を挙げて説明したが、UI系デバイス44に含まれる複数の構成要素のうちの少なくとも一部がスマートデバイス10に対して外付けされていてもよい。また、UI系デバイス44に含まれる複数の構成要素のうちの少なくとも一部が別体として外部I/F52に接続されることによって使用されるようにしてもよい。
また、図1に示す例では、スマートデバイス10を例示したが、本開示の技術はこれに限定されない。すなわち、測距撮像装置14が内蔵された各種の電子機器(例えば、レンズ交換式カメラ、レンズ固定式カメラ、パーソナル・コンピュータ、及び/又はウェアラブル端末装置等)に対しても本開示の技術は適用可能であり、これらの電子機器であっても、上記のスマートデバイス10と同様の作用及び効果が得られる。
また、上記各実施形態では、ディスプレイ46を例示したが、本開示の技術はこれに限定されない。例えば、スマートデバイス10に対して後付けされた別体のディスプレイを、本開示の技術に係る「表示部」として用いるようにしてもよい。
また、上記実施形態では、認識部94がスマートデバイス10に搭載されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、認識部94を有する外部装置(例えば、他のスマートデバイス、パーソナル・コンピュータ及び/又はサーバ等)がスマートデバイス10に対して接続されていてもよい。この場合、外部装置からスマートデバイス10に対して提供される画像認識結果は、スマートデバイス10のCPU15Aによって取得されるようにすればよい。また、クラウド・コンピューティング(図示省略)に認識部94の機能を担わせ、クラウド・コンピューティングからスマートデバイス10に対して画像認識結果が提供されるようにしてもよい。この場合、クラウド・コンピューティングからスマートデバイス10に対して提供される画像認識結果は、スマートデバイス10のCPU15Aによって取得されるようにすればよい。
また、上記各実施形態では、ストレージ15Bに撮像処理プログラム70が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図22に示すように、撮像処理プログラム70が記憶媒体900に記憶されていてもよい。記憶媒体900の一例としては、SSD又はUSBメモリなどの任意の可搬型の記憶媒体が挙げられる。
記憶媒体900に記憶されている撮像処理プログラム70は、コントローラ15にインストールされる。CPU15Aは、撮像処理プログラム70に従って撮像処理を実行する。
また、通信網(図示省略)を介してコントローラ15に接続される他のコンピュータ又はサーバ装置等の記憶部に撮像処理プログラム70を記憶させておき、上述のスマートデバイス10の要求に応じて撮像処理プログラム70がダウンロードされ、コントローラ15にインストールされるようにしてもよい。
なお、コントローラ15に接続される他のコンピュータ又はサーバ装置等の記憶部、又はストレージ15Bに撮像処理プログラム70の全てを記憶させておく必要はなく、撮像処理プログラム70の一部を記憶させておいてもよい。
図22に示す例では、スマートデバイス10にコントローラ15が内蔵されている態様例が示されているが、本開示の技術はこれに限定されず、例えば、コントローラ15がスマートデバイス10の外部に設けられるようにしてもよい。
図22に示す例では、CPU15Aは、単数のCPUであるが、複数のCPUであってもよい。また、CPU15Aに代えてGPUを適用してもよい。
図22に示す例では、コントローラ15が例示されているが、本開示の技術はこれに限定されず、コントローラ15に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コントローラ15に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
上記各実施形態で説明した撮像処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、撮像処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで撮像処理を実行する。
撮像処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、撮像処理を実行するハードウェア資源は1つのプロセッサであってもよい。
1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、撮像処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、撮像処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、撮像処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の撮像処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
以上の実施形態に関し、更に以下の付記を開示する。
(付記)
プロセッサと、
上記プロセッサに接続又は内蔵されたメモリと、を含み、
上記プロセッサは、
撮像部によって撮像領域が撮像されることで得られた撮像画像に基づいて認識部が上記撮像領域に含まれる特定被写体を認識する認識動作と、測距部が上記撮像領域に対して光を照射し、上記撮像領域に対する上記光による反射光を受光することで測距を行う測距動作とを複数回並行して行わせる制御を行うこと、及び、
上記測距動作毎に、上記撮像領域に対する上記光の照射エネルギーを変更することを含む処理を実行する
処理装置。

Claims (22)

  1. プロセッサと、
    前記プロセッサに接続又は内蔵されたメモリと、を備え、
    前記プロセッサは、
    撮像装置によって撮像領域が撮像されることで得られた撮像画像に基づいて認識プロセッサが前記撮像領域に含まれる特定被写体を認識する認識動作と、測距装置が前記撮像領域に対して光を照射し、前記撮像領域に対する前記光による反射光を受光することで測距を行う測距動作とを複数回並行して行わせる制御を行い、
    前記測距動作毎に、前記撮像領域に対する前記光の照射エネルギーを変更し、
    前記認識動作と前記測距動作とが並行して行われる回毎に、前記認識動作による認識結果と前記測距動作による測距結果とを統合する
    処理装置。
  2. 前記プロセッサは、前記認識動作と前記測距動作とが並行して行われる回である実行回を、前記認識結果と前記測距結果とを統合することにより得られる格付け値を用いて格付する
    請求項1に記載の処理装置。
  3. 前記格付け値は、前記認識結果が良好な度合いを示す第1重みを前記認識結果に対して付与して得た値と前記測距結果が良好な度合いを示す第2重みを前記測距結果に対して付与して得た値とを統合することにより得られる値である
    請求項2に記載の処理装置。
  4. 前記プロセッサは、
    前記格付け値に従って前記実行回を選択し、
    選択した前記実行回で得られた前記撮像画像、前記認識結果、及び/又は前記測距結果を用いた第1処理を実行する
    請求項2又は請求項3に記載の処理装置。
  5. 前記プロセッサは、
    複数の前記実行回のうち、前記格付け値が最も高い前記実行回を選択する
    請求項4に記載の処理装置。
  6. 前記第1処理は、撮像処理、表示処理、及び/又は格納処理を含み、
    前記撮像処理は、前記認識結果及び/又は前記測距結果を用いて撮像を行う処理であり、
    前記表示処理は、前記撮像画像、前記認識結果、及び/又は前記測距結果を表示装置に表示する処理であり、
    前記格納処理は、前記撮像画像、前記認識結果、及び/又は前記測距結果を格納領域に格納する処理である
    請求項4又は請求項5に記載の処理装置。
  7. 前記撮像処理は、合焦処理を含み、
    前記合焦処理は、前記認識結果及び/又は前記測距結果を用いて合焦を行う処理である
    請求項6に記載の処理装置。
  8. 前記プロセッサは、前記認識動作によって得られる認識結果と前記測距動作によって得られる測距結果とを前記複数回のうちの特定の回に合わせて特定の出力先に出力する請求項1から請求項7の何れか一項に記載の処理装置。
  9. 前記特定の出力先は、前記認識結果及び前記測距結果のうちの少なくとも一方を表示可能なディスプレイである請求項8に記載の処理装置。
  10. 前記ディスプレイは、前記特定被写体を示す特定被写体画像と、前記認識結果として前記特定被写体画像を取り囲む画像とを表示する請求項9に記載の処理装置。
  11. 前記撮像装置は、光軸に沿って移動可能なレンズを有し、
    前記プロセッサは、前記光軸上の位置であって、前記測距動作によって得られる測距結果に応じて定められた位置に前記レンズを前記光軸に沿って移動させる請求項1から請求項10の何れか一項に記載の処理装置。
  12. 前記位置は、合焦位置である請求項11に記載の処理装置。
  13. 前記撮像装置は、光軸に沿って移動可能なレンズを有し、
    前記測距装置は、前記認識動作に先立って、前記撮像領域に対して合焦制御用光を照射し、前記撮像領域に対する前記合焦制御用光による合焦制御用反射光を受光することで合焦制御用測距を行い、
    前記プロセッサは、前記合焦制御用測距によって得られる測距結果に応じて定められた合焦位置に前記レンズを前記光軸に沿って移動させる請求項1から請求項10の何れか一項に記載の処理装置。
  14. 前記プロセッサは、前記複数回の前記認識動作によって得られた複数の認識結果を用いた特定処理を行う請求項1から請求項13の何れか一項に記載の処理装置。
  15. 前記特定処理は、前記認識結果が外部に出力される処理である
    請求項14に記載の処理装置。
  16. 前記特定処理は、前記認識結果と、前記撮像画像とが、特定のフォーマット形式のファイルとして作成される処理である
    請求項14に記載の処理装置。
  17. 前記特定被写体は、顔である請求項1から請求項16の何れか一項に記載の処理装置。
  18. 前記顔は、特定の表情の顔である請求項17に記載の処理装置。
  19. 前記特定被写体は、閾値未満の反射率を有する物体である請求項1から請求項16の何れか一項に記載の処理装置。
  20. 請求項1から請求項19の何れか一項に記載の処理装置と、
    前記認識プロセッサ及び前記測距装置のうちの少なくとも一方と、
    を含む電子機器。
  21. 撮像装置によって撮像領域が撮像されることで得られた撮像画像に基づいて認識プロセッサが前記撮像領域に含まれる特定被写体を認識する認識動作と、測距装置が前記撮像領域に対して光を照射し、前記撮像領域に対する前記光による反射光を受光することで測距を行う測距動作とを複数回並行して行わせる制御を行うこと、
    前記測距動作毎に、前記撮像領域に対する前記光の照射エネルギーを変更すること、及び、
    前記認識動作と前記測距動作とが並行して行われる回毎に、前記認識動作による認識結果と前記測距動作による測距結果とを統合することを含む
    処理方法。
  22. コンピュータに、
    撮像装置によって撮像領域が撮像されることで得られた撮像画像に基づいて認識プロセッサが前記撮像領域に含まれる特定被写体を認識する認識動作と、測距装置が前記撮像領域に対して光を照射し、前記撮像領域に対する前記光による反射光を受光することで測距を行う測距動作とを複数回並行して行わせる制御を行うこと、
    前記測距動作毎に、前記撮像領域に対する前記光の照射エネルギーを変更すること、及び、
    前記認識動作と前記測距動作とが並行して行われる回毎に、前記認識動作による認識結果と前記測距動作による測距結果とを統合することを含む処理を実行させるためのプログラム。
JP2021550379A 2019-09-30 2020-07-28 処理装置、電子機器、処理方法、及びプログラム Active JP7311617B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023111686A JP2023134584A (ja) 2019-09-30 2023-07-06 処理装置、電子機器、処理方法、及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019180386 2019-09-30
JP2019180386 2019-09-30
PCT/JP2020/028910 WO2021065176A1 (ja) 2019-09-30 2020-07-28 処理装置、電子機器、処理方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023111686A Division JP2023134584A (ja) 2019-09-30 2023-07-06 処理装置、電子機器、処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2021065176A1 JPWO2021065176A1 (ja) 2021-04-08
JPWO2021065176A5 JPWO2021065176A5 (ja) 2022-06-02
JP7311617B2 true JP7311617B2 (ja) 2023-07-19

Family

ID=75338104

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021550379A Active JP7311617B2 (ja) 2019-09-30 2020-07-28 処理装置、電子機器、処理方法、及びプログラム
JP2023111686A Pending JP2023134584A (ja) 2019-09-30 2023-07-06 処理装置、電子機器、処理方法、及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023111686A Pending JP2023134584A (ja) 2019-09-30 2023-07-06 処理装置、電子機器、処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US11979666B2 (ja)
JP (2) JP7311617B2 (ja)
CN (1) CN114521240A (ja)
WO (1) WO2021065176A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020036765A1 (en) 2000-08-09 2002-03-28 Mccaffrey Nathaniel Joseph High resolution 3-D imaging range finder
JP2008241435A (ja) 2007-03-27 2008-10-09 Stanley Electric Co Ltd 距離画像生成装置
JP2009175821A (ja) 2008-01-22 2009-08-06 Fujifilm Corp 特定画像の検出方法及び撮影装置
JP2010109592A (ja) 2008-10-29 2010-05-13 Canon Inc 情報処理装置およびその制御方法
CN104270570A (zh) 2014-10-17 2015-01-07 北京英泰智软件技术发展有限公司 双目摄像机及其图像处理方法
JP2018526641A (ja) 2015-08-24 2018-09-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated レーザ深度マップサンプリングのためのシステム及び方法
WO2018180391A1 (ja) 2017-03-30 2018-10-04 パナソニックIpマネジメント株式会社 画像認識装置および距離画像生成方法
WO2019163212A1 (ja) 2018-02-22 2019-08-29 コニカミノルタ株式会社 監視システムおよび監視システムの制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171120A (ja) 2004-12-13 2006-06-29 Fuji Photo Film Co Ltd 撮影装置
JP6321145B2 (ja) 2014-05-02 2018-05-09 富士フイルム株式会社 測距装置、測距方法、及び測距プログラム
US9912861B1 (en) * 2016-03-02 2018-03-06 Amazon Technologies, Inc. Systems and methods for determining a depth or reflectance of objects
US10477097B2 (en) * 2017-01-03 2019-11-12 University Of Connecticut Single-frame autofocusing using multi-LED illumination
WO2018142993A1 (ja) 2017-02-06 2018-08-09 ソニー株式会社 発光制御装置、発光制御方法、プログラム、発光装置、および撮像装置
CN112513677A (zh) * 2018-09-28 2021-03-16 松下知识产权经营株式会社 纵深取得装置、纵深取得方法以及程序
KR20200091197A (ko) * 2019-01-22 2020-07-30 엘지이노텍 주식회사 카메라 장치 및 그의 오토포커싱 방법
US20230290113A1 (en) * 2020-08-17 2023-09-14 Sony Group Corporation Information processing device, information processing method, and information processing program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020036765A1 (en) 2000-08-09 2002-03-28 Mccaffrey Nathaniel Joseph High resolution 3-D imaging range finder
JP2008241435A (ja) 2007-03-27 2008-10-09 Stanley Electric Co Ltd 距離画像生成装置
JP2009175821A (ja) 2008-01-22 2009-08-06 Fujifilm Corp 特定画像の検出方法及び撮影装置
JP2010109592A (ja) 2008-10-29 2010-05-13 Canon Inc 情報処理装置およびその制御方法
CN104270570A (zh) 2014-10-17 2015-01-07 北京英泰智软件技术发展有限公司 双目摄像机及其图像处理方法
JP2018526641A (ja) 2015-08-24 2018-09-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated レーザ深度マップサンプリングのためのシステム及び方法
WO2018180391A1 (ja) 2017-03-30 2018-10-04 パナソニックIpマネジメント株式会社 画像認識装置および距離画像生成方法
WO2019163212A1 (ja) 2018-02-22 2019-08-29 コニカミノルタ株式会社 監視システムおよび監視システムの制御方法

Also Published As

Publication number Publication date
JP2023134584A (ja) 2023-09-27
CN114521240A (zh) 2022-05-20
US11979666B2 (en) 2024-05-07
US20220210311A1 (en) 2022-06-30
WO2021065176A1 (ja) 2021-04-08
JPWO2021065176A1 (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
US10334151B2 (en) Phase detection autofocus using subaperture images
JP6946188B2 (ja) 複数技術奥行きマップ取得および融合のための方法および装置
US9521320B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US20170059305A1 (en) Active illumination for enhanced depth map generation
US11727585B2 (en) Information processing device, information processing method, and program
US10109036B2 (en) Image processing apparatus, control method for same, and program that performs image processing for image data having a focus state that is changeable
US20240056682A1 (en) Information processing apparatus, information processing method, and program
JP2023175752A (ja) 処理装置、電子機器、処理方法、及びプログラム
JP2016009396A (ja) 入力装置
JP6534455B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7311617B2 (ja) 処理装置、電子機器、処理方法、及びプログラム
JP7436509B2 (ja) 情報処理装置、撮像装置、情報処理方法、及びプログラム
JP6534456B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JPWO2021065175A5 (ja)
JP6534457B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2024063018A (ja) 情報処理装置、撮像装置、情報処理方法、及びプログラム
JP7113327B1 (ja) 撮像装置
JPWO2021065176A5 (ja)
JP2021125741A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP2021069004A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2012108322A (ja) 焦点調節装置、焦点調節方法、撮影装置及び焦点調節プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220310

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R150 Certificate of patent or registration of utility model

Ref document number: 7311617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150