JP2019029750A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2019029750A
JP2019029750A JP2017145288A JP2017145288A JP2019029750A JP 2019029750 A JP2019029750 A JP 2019029750A JP 2017145288 A JP2017145288 A JP 2017145288A JP 2017145288 A JP2017145288 A JP 2017145288A JP 2019029750 A JP2019029750 A JP 2019029750A
Authority
JP
Japan
Prior art keywords
image
unit
signal
luminance
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017145288A
Other languages
English (en)
Other versions
JP7091031B2 (ja
Inventor
正紀 舟木
Masanori Funaki
正紀 舟木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2017145288A priority Critical patent/JP7091031B2/ja
Priority to US16/040,990 priority patent/US10878221B2/en
Publication of JP2019029750A publication Critical patent/JP2019029750A/ja
Application granted granted Critical
Publication of JP7091031B2 publication Critical patent/JP7091031B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/42Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by switching between different modes of operation using different resolutions or aspect ratios, e.g. switching between interlaced and non-interlaced mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/445Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by skipping some contiguous pixels within the read portion of the array
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Abstract

【課題】素早く画像を判断することができる撮像装置を提供する。
【解決手段】撮像素子2は、1フレーム内に赤、緑、青の画素が所定の配列で配置された複数のフレームによって構成される第1の画像信号を出力する。映像信号処理部3は、第1の画像信号を順に処理する複数の画像処理回路を含み、複数の画像処理回路のうちの1つの画像処理回路として、第1の画像信号を処理することによって生成された第2の画像信号に基づき、1フレーム内に赤、緑、青それぞれの画素が配置された各フレームによって構成される第3の画像信号を生成するデモザイク回路33を有する。映像信号処理部3は、第3の画像信号に基づいて表示用の映像信号を生成する。画像認識部4は、映像信号処理部3が映像信号を生成する処理と並行して、第1または第2の画像信号を用いて画像を認識する。
【選択図】図1

Description

本発明は、画像を認識する機能を有する撮像装置に関する。
従来、撮像装置を用いて画像を認識する場合には、撮像装置から出力される映像信号(特にYUV信号)が用いられる。特許文献1には、情報処理装置が単眼カメラとして機能するイメージセンサから出力されるフレームレート30fps(frame per second)のYUV422信号から特徴点を抽出することが記載されている。この場合、フレームレートが30fpsであるから、特徴点の抽出は約33msごとに行われる。つまり情報処理装置は少なくとも1フレーム(33ms)前の情報から特徴点を抽出している。
特開2015−210677号公報
周辺環境の変化が速く早急な画像の認識が必要な場合には、従来の撮像装置の構成では問題になる場合がある。例えば従来の撮像装置が搭載されている機器が移動物体であり、高速で移動している場合を考える。移動物体が100km/hで移動しているとすると、1フレームの33msの間にこの移動物体は92cm移動する。したがってこの移動物体の進行方向に何かの問題が発生した場合に、この遅れの分だけ対応が遅れてしまう。
本発明は、素早く画像を判断することができる撮像装置を提供することを目的とする。
本発明は、1フレーム内に赤、緑、青の画素が所定の配列で配置された複数のフレームによって構成される第1の画像信号を出力する撮像素子と、第1の画像信号を順に処理する複数の画像処理回路を含み、複数の画像処理回路のうちの1つの画像処理回路として、第1の画像信号を処理することによって生成された第2の画像信号に基づき、1フレーム内に赤、緑、青それぞれの画素が配置された各フレームによって構成される第3の画像信号を生成するデモザイク回路を有し、第3の画像信号に基づいて表示用の映像信号を生成する映像信号処理部と、映像信号処理部が映像信号を生成する処理と並行して、第1または第2の画像信号を用いて画像を認識する画像認識部を備えることを特徴とする撮像装置を提供する。
本発明の撮像装置によれば、従来よりも素早く画像を判断することができる。
一実施形態の撮像装置を備える情報処理装置を示すブロック図である。 一実施形態の撮像装置の詳細ブロック図である。 一実施形態の撮像装置の出力された結果の一例を示す図である。 一実施形態の撮像装置の危険検出の例である。 一実施形態の撮像装置の危険時検出時のフローチャートである。
以下、一実施形態の撮像装置について説明する。
図1は一実施形態の撮像装置100を備える情報処理装置500を示すブロック図である。情報処理装置500は、撮像装置100、映像表示部200、情報処理部300、ミリ波レーダ400、レーザレーダ410、加速度センサ420を備える。
撮像装置100は、レンズ1と、撮像素子2と、映像信号処理部3と、画像認識部4とを備える。撮像素子2はCCDまたはCMOSセンサであり、図示されないADC(Analog to Digital Convertor)を備え、1フレーム内に赤(R)、緑(G)、青(B)の画素が所定の配列で配置されたデジタルのRAWデータを複数フレーム出力する。RAWデータは、第1の画像信号である。RAWデータは映像信号処理部3と画像認識部4とに供給される。
映像信号処理部3は、人間の目で見て不自然でないような映像を生成することを目的として設けられている。映像信号処理部3は表示用の映像信号としてYUV信号を出力し、映像表示部200はYUV信号に基づく映像を表示する。
画像認識部4は、RAWデータから後述する情報を得ることを目的として設けられている。具体的には、画像認識部4は、画像における所定の特徴を抽出し、画像として表示されていない部分を推定し、また数フレーム後の状態を推定し、危険状態を検出する。つまり、画像認識部4は、撮像装置100内で映像信号処理部3による映像信号処理と並行して画像を認識し、認識した結果を出力する。画像認識部4が画像を認識した結果である認識情報は情報処理部300に供給される。
情報処理部300には、画像認識部4より供給された認識情報以外に、各種センサ、例えばミリ波レーダ400、レーザレーダ410、加速度センサ420より出力された情報が供給される。情報処理部300はそれらの情報を総合的に判断する。判断した結果の一部は映像表示部200に表示される。情報処理部300は例えばCPU、プログラムを収めたメモリ、あるいはFPGAなどによって構成される。
このように、従来は撮像装置が出力したYUV信号に基づいて撮像装置の外で行っていた画像認識を、本実施形態においては撮像装置100の内部で映像信号処理と並行して行うので、情報処理部300は従来より素早い判断が可能となる。
図2を用いて、撮像装置100についてさらに詳細に説明する。
映像信号処理部3は、画像処理回路として、白傷補正回路31、シェーディング補正回路32、デモザイク回路33、補正回路34、色空間処理回路35を有する。映像信号処理部3のそれぞれの画像処理回路は、撮像素子2から供給されたRAWデータを所定の順に処理し、画像信号を生成する。白傷補正回路31またはシェーディング補正回路32より出力される画像信号を第2の画像信号とすれば、デモザイク回路33より出力される画像信号は第3の画像信号である。
白傷補正回路31は、注目画素の信号レベルが周辺画素レベルよりも格段に大きい場合に、注目画素が白傷であると判断して、その画素の信号レベルを周辺の画素信号から補間する。
シェーディング補正回路32は、主にレンズなどの光学的な特性により、平坦な輝度の被写体を撮影しても画像周辺部の信号レベルが中央付近の信号レベルと異なっている場合に、信号レベルが画像全体で平坦になるように信号レベルを補正する。
デモザイク回路33はカラーフィルタが所定の規則で並んでいる場合に、1フレーム内で各色信号を全画素に割り当てた画像信号を生成する。カラーフィルタの配列は、R、G、Bのカラーフィルタを用いたベイヤ配列になっていることが多い。またカラーフィルタを持たず、可視光から近赤外まで感度を持つ画素を含む配列になっていることもある。このような画素は白(ホワイト)と呼ばれることがある。
補正回路34は画像の各種特性を補正する。この補正には、ホワイトバランス、輪郭補正、ガンマ補正が含まれる。ホワイトバランスとは、白の被写体においてR、G、Bの各信号が同じ大きさになるように調整することである。輪郭補正とは、解像感を改善するために輪郭部の信号を強調することである。ガンマ補正とは、映像表示部200としてのモニタで表示するときの輝度レベルが線形になるように、予めモニタ特性に合わせて補正しておくことである。
色空間処理回路35はR、G、Bの3色の信号を輝度(Y)と色差信号に変換する。この後、色相を調整するために、色差信号が補正されることもある。
また、色空間処理回路35はノイズリダクション処理を行うこともある。例えば色空間処理回路35は複数フレームの画像を加算して、ノイズを減らすなどの処理を行う。このような複数フレームを用いた処理をする場合には、色空間処理回路35は、使用する複数フレームが全て色空間処理回路35に入力されるのを待ってから処理を行うので、その分、色空間処理回路35からの信号の出力が遅れることになる。
さらに、色空間処理回路35は色差信号を圧縮してU信号及びV信号を生成し、YUV信号を生成する。このような処理を経て得られたYUV信号は端子50から映像信号として出力される。
撮像素子2のRAWデータは画像認識部4にも供給される。画像認識部4は、輝度画像生成部41、静的フィルタ部42、輝度情報メモリ43及び44、動的フィルタ部45、輝度画像認識部46、色画像認識部47、認識結果送信部48を含む。
このうち輝度画像生成部41から輝度画像認識部46は、輝度信号を処理する。色画像認識部47は色画像を判断する。認識結果送信部48は輝度画像認識部46と色画像認識部47の認識結果に基づいて認識結果信号を生成する。認識結果信号は端子51から出力される。
輝度画像生成部41について述べる。画像認識部4では処理のほとんどが輝度情報をもとに行われる。輝度画像生成部41は輝度情報をRAWデータから取り出す。もっとも単純な輝度画像生成方法として、ベイヤ配列の場合、Gのカラーフィルタのついた画素の信号だけを用いるという方法がある。または、ホワイトと呼ばれるカラーフィルタがない画素は純粋に輝度のみを扱っているので、ホワイトの画素信号を用いるという方法もある。
ここでは撮像素子2がベイヤ配列であり、Gの画素信号を用いる場合を説明する。この場合、撮像素子2が有する画素数に基づく本来の解像度に比べて、輝度信号の解像度は劣化する。通常、デモザイク処理における輝度信号はGだけでなくR及びBの画素信号も用いて生成されるので、解像度は本来の解像度の0.7〜0.8倍程度ある。しかしながら、Gのみの画素信号では、R及びBの画素信号を用いることができず、解像度は0.5倍程度に劣化する。
人間が見るための映像であれば、このような解像度劣化は重大な問題となる。しかしながら画像認識をすることが目的の場合には、解像度劣化が必ずしも重要とは限らず、影響が少ない。その理由については後述する。
ベイヤ配列のGの画素信号だけを用いるとR及びBの画素には信号がなくなってしまう。そこで輝度画像生成部41は、抜けた画素部分の周辺の4つのGの画素信号を単純平均して画素を補間する。
また白傷がある場合、白傷補正回路31は白傷を補正する。通常は見た目を重視するのでGだけでなくR及びBの画素信号も用いて白傷補正が行われる。しかしながら輝度画像生成部41は隣接するGの画素信号のみを使って補正する。この結果、輝度画像の解像度はGだけでなくR及びBの画素信号を用いた場合よりも劣化する。このように輝度画像生成部41は解像度よりも処理の高速さを重視して単純な処理で輝度画像を生成する。
なお緊急動作状態では、輝度画像生成部41の生成した輝度画像は図2の破線の経路を通して補正回路34に送られる。この緊急動作状態の場合の処理については後述する。
輝度画像生成部41が生成した輝度画像は静的フィルタ部42と輝度情報メモリ43に供給される。
静的フィルタ部42について説明する。静的フィルタ部42は動きのない1フレームの輝度画像から特徴を抽出するためのフィルタ処理を行う。ここで行うフィルタ処理とは主に畳み込み処理やプーリング処理である。畳み込み処理とは画像を滑らかにしたりシャープにしたりする処理である。プーリング処理とはこのような畳み込みを行った結果を再サンプリングする処理である。
このような処理は抽出すべき特徴だけを残して情報を削っていくことに相当する。このように情報を削っていく処理を含んでいるので、輝度画像が持つ情報量がある程度少なくても、静的フィルタ部42による特徴抽出にあまり影響を与えない。したがって輝度画像生成部41は、輝度画像の生成に解像度の劣化を伴う単純な方法を使える。
静的フィルタ部42は抽出する特徴ごとに異なるフィルタを有し、それらを並列で動作させる。それらの異なるフィルタは、ニューラルネットワークのディープラーニングにより予め学習済みで、パラメータがチューニングされている。
静的フィルタ部42により抽出された結果は、輝度情報メモリ43と輝度画像認識部46に供給される。
なお、撮像装置100では、フィルタのパラメータの再チューニング(再学習)は行わない。なぜなら再チューニングを行うと、個々の撮像装置100の特性が時間とともに変化し、乖離していくからである。フィルタのパラメータは、バージョンアップという形で外部から与えられる場合のみ変化する。
静的フィルタ部42では例えば次のような特徴を抽出する。
・形状抽出:静的フィルタ部42は特定の形状を抽出する。形状には、縦線、横線、斜め線、角度、鋭角のピーク、四角、丸、三角、などが含まれる。
・重要物体抽出:静的フィルタ部42は人体、車、動物、標識などの重要物体を抽出する。本実施形態によれば、全体が見えていなくても部分が見えているだけで特徴の抽出は可能である。
・文字、記号抽出:静的フィルタ部42は文字または記号があるかどうかを抽出する。
・静的輪郭抽出:静的フィルタ部42は静的画像で輝度が急激に変わるところを抽出する。
・消失点抽出:遠近を比較するために用いられる。
輝度情報メモリ43には最新の輝度画像と静的フィルタ部42の抽出結果が書き込まれている。書き込まれた最新の輝度画像及び抽出結果は次のフレームの輝度画像及び抽出結果が輝度情報メモリ43に書き込まれる前に輝度情報メモリ44に移される。こうして輝度情報メモリ44には少なくとも1フレーム前の情報が記憶されている。
なお、静的フィルタ部42による輝度画像からの特徴の抽出は、輝度画像生成部41から輝度画像の供給が完了するのを待ってから行う必要はなく、輝度画像を供給中でも、すでに供給された輝度画像の一部分に対して行うことが可能である。
動的フィルタ部45は、輝度情報メモリ44の少なくとも1フレーム前の情報と輝度情報メモリ43の情報とを比較することで、動きに関連する特徴を抽出する。このような動きに関連した特徴抽出は例えば次のようなものである。
・塊抽出:動的フィルタ部45は同じような動きをする画素の集まりを抽出する。
・動的輪郭抽出:動的フィルタ部45は塊抽出でひとつの塊を抽出したときに塊の境界を輪郭として抽出する。動的輪郭抽出は、背景と塊が同じような輝度を持っている場合、静的画像から輪郭を抽出しにくい場合に有効である。
・動き方向抽出:動的フィルタ部45は塊の動く方向を抽出する。
・動き方特徴抽出:動的フィルタ部45は特定の動き方を抽出する。例えば、動的フィルタ部45は、回転運動、人が歩いている動き、ボールが弾んで転がる動き、鳥が飛ぶ動きなど、特定の特徴ある動きがあるかどうかを抽出する。
動的フィルタ部45は、ニューラルネットワークのディープラーニングにより予め学習済みの、パラメータがチューニングされたフィルタを用いる。また、動的フィルタ部45は、抽出する特徴ごとに異なるフィルタを有し、それらを並列で動作させる。
静的フィルタ部42または動的フィルタ部45で抽出された特徴は、輝度画像認識部46に供給される。輝度画像認識部46は抽出された複数の特徴をまとめ、輝度画像の内容を認識する。例えば、静的フィルタ部42で人と抽出された物体が、動的フィルタ部45の抽出した結果においてひと塊の物体として動いているか、動き方の特徴が人特有の動き方であるかなど、複数の特徴が一致しているかを確認し、輝度画像認識部46はその物体を人と認識する。このように、複数の特徴から確認することで、輝度画像認識部46は認識の確からしさを高め、例えば人形を人間と誤認識する確率を下げる。
また輝度画像認識部46は様々な推定作業を行う。輝度画像認識部46は例えば次のような推定を行う。
・前後関係の推定:輝度画像認識部46はある塊の物体同士がどのような前後関係にあるのかを推定する。
・自分の動きの推定:輝度画像認識部46は自分が動いているかどうかなどの周囲との相対関係について推定する。
・塊の前後方向(奥行き方向)の動きの推定。
・隠れている部分の推定:輝度画像認識部46は例えば直線状のものが隠れている場合、見えている部分が延長されていると推定する。輝度画像認識部46は認識している対象が一時的に隠れて見えなくなった場合でも、対象がそこにあると推定する。
・未来の状態の推定(予測):輝度画像認識部46は動きの推定結果から数フレーム後にどのような位置関係になっているかを推定する。また、輝度画像認識部46は推定結果通りになっているか確認する。
このような推定をすることで、輝度画像認識部46は、例えば次のような認識が可能になる。物体Aが移動して物体Bの陰に隠れて見えなくなった場合、輝度画像認識部46は、物体Aが見えてはいないが物体Bの陰にあると認識する。また、輝度画像認識部46は、一定時間後に物体Aが物体Bの反対側から出てくると推定し、そして実際に出てくるかどうかを確認する。
また、輝度画像認識部46は危険な状態の検出を行う。ここではそれを危険検出と呼ぶことにする。輝度画像認識部46は1フレーム前までの予測と比較して、現在の状態が大きく異なっている場合に危険を検出する。例えば1フレーム前になかった新しい物体が突然現れ画面全体の大きな部分、例えば15%以上を占めたとする。すると動的フィルタ部45は輝度画像認識部46に新しい物体が出現したことを知らせる。輝度画像認識部46は推定結果と照らし合わせて、それが予め推定されていたものでなければ、危険を検出する。
危険検出をフレーム遅れなく行うことは撮像装置100を搭載している機器にとっては重要である。撮像装置100は映像信号処理と同時に画像認識を行うので、フレーム遅れなく危険を検出する。
危険が検出された場合には、撮像装置100は緊急動作状態に移行する。緊急動作状態については後述する。
次に色情報の認識について説明する。色情報の認識とは、例えば交通信号機の発する色に関する認識である。静的フィルタ部42が信号機を抽出したとしても、何色の信号が光っているかは輝度画像からは分からないので、色情報の認識が必要な場合がある。しかしながら色情報を高速で処理する意義は輝度情報に比べて低い。そこで、本実施形態では色空間処理回路35の結果を待って色情報を処理する構成としている。
もちろん、色情報にフレーム遅れがあると問題になる場合には、輝度信号の場合と同様に、映像信号処理と並列処理を行ってもよい。その場合はデモザイク処理などを行わず、直接各色(通常はR、G、Bの3色)のRAWデータから特徴を抽出する構成とすることが好ましい。
輝度画像認識部46と色画像認識部47の認識結果は、認識結果送信部48に送られ、予め決められたプロトコルにしたがって端子51から送信され、情報処理部300に送られる。輝度画像認識部46と色画像認識部47からは膨大な認識結果が送られてくるので、認識結果送信部48は認識結果を選択し、送信の順序を設定する。
認識結果送信部48での認識結果の選択の方法または基準は、搭載している機器の特徴に合わせればよいが、危険検出の結果は最優先で送信されることが望ましい。危険検出専用の送信線があれば、さらに望ましい。
なお、端子50及び51はシリアルバス端子でもパラレルバス端子でもよい。
次に、輝度画像認識部46が画像をどのように認識しているかの例を示す。図3は撮像装置100が端子50から出力する映像信号のある1フレームの画像60である。この画像60について輝度画像認識部46の認識結果は例えば次のようである。
静的フィルタ部42は物体62と物体66から人間の特徴を抽出し輝度画像認識部46に報告している。一方、動的フィルタ部45は物体62及び66がひと塊として動いていることを輝度画像認識部46に報告しており、また動き方も人間の歩き方であると報告しているので、すべての報告に矛盾がない。そこで、輝度画像認識部46は物体62及び66が人間であると認識し、その結果を情報処理部300に報告する。
静的フィルタ部42は消失点65を抽出しており、この消失点65から輝度画像認識部46は物体62及び66の遠近に関する位置関係を認識している。また動的フィルタ部45の報告する物体62及び66の移動速度、移動方向から、輝度画像認識部46は物体62及び66の現在と将来のおおよその位置関係を推定している。
さらには、輝度画像認識部46は、物体66と物体68の前後関係の推定から、物体66が物体68の背後にあることを認識している。また、輝度画像認識部46は、移動方向の認識から、物体66が物体68から出てきていることを認識している。また、輝度画像認識部46は、物体66が人間であると認識しているので、物体68の陰に見えていない人体の一部67があることも認識しており、一定時間後に人体の一部67が見えるであろうことを予測している。
線64は一部が物体62の陰に隠れているが、輝度画像認識部46は見えないところにも線が続いていると仮定するので、破線63が存在すると推定しており、物体62の移動にともなって破線63が実際に現れることを推定している。
また、静的フィルタ部42は物体61から物体61の形状の特徴を抽出するとともに、標識との特徴抽出も行っているので、輝度画像認識部46はそのような認識結果を認識結果送信部48に送る。標識の場合は色情報が重要である場合が多いので、認識結果送信部48は、輝度画像認識部46の結果に合わせて、色画像認識部47の認識した物体61の各部の色を情報処理部300に報告している。
このように撮像装置100は映像信号処理と並行して画像認識の処理を実行し、映像信号と認識結果信号とを略同時に出力することを特徴としている。
次に、危険検出により危険が検出されたときの緊急動作状態について説明する。例えば1フレーム前になかった物体がフレームの例えば15%以上を占め、それが予め予測されていなかった場合、輝度画像認識部46は危険を検出すると仮定する。図3の画像60の次のフレームが図4のように物体70が15%以上占める状態になると、輝度画像認識部46は危険を検出する。危険を検出すると撮像装置100は緊急動作状態になる。
緊急動作状態の動作について図2のブロック図、及び図5のフローチャートを用いて説明する。
まず、輝度画像認識部46は、ステップS1にて、危険を検出したかどうかを判断する。輝度画像認識部46がステップS1で危険を検出すると、輝度画像認識部46は、ステップS2にて、撮像素子2と輝度画像生成部41に動作変更を指示する。
動作変更の指示を受けて、ステップS3にて、撮像素子2は1秒間の撮像枚数(フレームレート)を増やす。例えば撮像素子2は、それまでのフレームレート30fpsを16倍してフレームレート480fpsとする。撮像素子2がフレームレートを増やすと、撮像の間隔が短くなるので、輝度画像認識部46の認識の間隔も短くできる。
しかしフレームレートを16倍に増やすことは撮像素子2にとって簡単ではない。単純に増やすとADCや出力回路の処理能力を越えてしまう。そこで、撮像素子2は1フレームあたりの信号量を減らす。
画像認識に必要なのは主に輝度信号であるから、撮像素子2は輝度に寄与するGの画素信号、あるいはホワイトの画素信号のみを読み出し、R及びBの画素信号は読み出さずに捨ててしまう。ベイヤ配列であれば、この処理により、撮像素子2が出力する信号量は半分になる。
さらに必要であれば、撮像素子2はG(またはホワイト)の画素信号も間引いて出力する。例えば撮像素子2はGの画素信号の4つに1つだけ読み出す。さらに撮像素子2はADCで生成するデジタル信号を例えば14ビットから7ビット程度に落とす。このように複数の処理を組み合わせて、撮像素子2はフレームレート480fpsを達成する。
この結果、得られる輝度画像は解像度が少なく、階調が減少した画像になる。このように、緊急動作状態では、画質よりも画像を得る高速さを優先する。
撮像素子2から出力されたRAWデータはすでに輝度信号のみであるから、輝度画像生成部41は輝度信号の抽出作業は行わずに、輝度信号の単純補間のみを行い、静的フィルタ部42に供給し、輝度情報メモリ43に記憶する。
また輝度画像生成部41は、この単純補間した輝度信号を補正回路34に供給する。この内容については後述する。
ステップS4では、解像度の少ない輝度画像を使って、静的フィルタ部42及び動的フィルタ部45が特徴を抽出し、輝度画像認識部46に知らせ、輝度画像認識部46が認識処理を行う。画素数が少ないので、特徴抽出、認識処理は高速で実施される。
なお、静的フィルタ部42、動的フィルタ部45、輝度画像認識部46には、緊急動作状態用のものを予め用意し、緊急動作状態ではそれらを使うようにしてもよい。特徴検出の項目も、緊急動作状態とそうでない通常動作の状態とでは異なっていてもよい。例えば項目数を大幅に減らし、より高速に動作できるようにしてもよい。
輝度画像認識部46が認識した内容は、認識結果送信部48を経て端子51から情報処理部300に供給され、そこで総合的な判断が行われる。例えば、情報処理部300は機器の動作を止めるなどの危険回避行動の判断を行う。
次のステップS5では、情報処理装置500は、危険状態が終了したかどうかを判断する。この判断を輝度画像認識部46が行ってもよいし、情報処理部300が判断して画像認識部4に伝えてもよい。後者の場合は、情報処理部300の判断結果は端子52から輝度画像認識部46に伝えられる。危険状態が終了していない場合は、ステップS4の高速認識処理が継続される。
危険状態が終了したと判断された場合には、ステップS6にて、輝度画像認識部46は、撮像素子2の動作、及び輝度画像生成部41の動作を通常動作に戻す。その後、処理はステップS1に戻される。
次に、緊急動作状態における、映像信号処理部3の動作を説明する。撮像素子2が高速フレーム動作になったときに、撮像素子2から出力される画像信号はカラー情報のない輝度画像のみになる。その輝度画像も画素が間引きされた状態であり、1秒間のフレーム数も多い状態である。このような画像信号では映像信号処理部3は通常の信号処理はできない。
しかしながら、間引かれた輝度信号は輝度画像生成部41で補間された輝度画像となり、これは映像信号処理部3で扱える画像となっている。そこで輝度画像生成部41は16フレームごとに1フレームを映像信号処理部3に供給する。つまり映像信号処理部3で扱う映像はフレームレート30fpsのままである。
映像信号処理部3ではその信号を人間が見やすくなる処理をして、端子50から出力する。その処理は例えばガンマ処理であり輪郭補正である。したがって映像信号処理部3のうち補正回路34で輝度画像を輝度画像生成部41から受け取る。
色空間処理回路35はモニタ(映像表示部200)に表示できるYUV信号(ただし色信号がない輝度信号のみ)に変換し、端子50から出力する。したがって、映像表示部200は緊急動作状態ではモノクロ画像しか表示しない。
なお、本実施形態では撮像素子2から画像認識部4にRAWデータを直接供給する場合のみについて説明したが、必要に応じてYUV信号に変換される以前の状態であれば、そこから分岐して画像認識部4に供給するようにしてもよい。例えば、白傷が非常に多く、判断に影響を与えるようであれば、白傷補正回路31の処理を終えてから輝度画像生成部41に画像を供給するように設計してもよい。
またレンズの影響が強く、画像周辺部の信号レベルの低下が大きい場合は、シェーディング補正回路32のあとで画像を輝度画像生成部41に供給するようにしてもよい。YUV信号に変換される以前の信号であれば、どの段階でも従来の撮像装置を使った構成よりも判断を高速にできる。デモザイク回路33に供給される前の画像信号(第1または第2の画像信号)を分岐して画像認識部4に供給すればより高速に判断でき、望ましい。したがってこれらの変形例は本発明の範囲である。
また撮像素子2において、ADC機能が内蔵されておらず、ADCが撮像素子2の外部にある場合も本発明に含まれることはもちろんである。
1 レンズ
2 撮像素子
3 映像信号処理部
4 画像認識部
31 白傷補正回路
32 シェーディング補正回路
33 デモザイク回路
34 補正回路
35 色空間処理回路
41 輝度画像生成部
42 静的フィルタ部
43,44 輝度情報メモリ
45 動的フィルタ部
46 輝度画像認識部
47 色画像認識部
48 認識結果送信部
50〜52 端子

Claims (2)

  1. 1フレーム内に赤、緑、青の画素が所定の配列で配置された複数のフレームによって構成される第1の画像信号を出力する撮像素子と、
    前記第1の画像信号を順に処理する複数の画像処理回路を含み、前記複数の画像処理回路のうちの1つの画像処理回路として、前記第1の画像信号を処理することによって生成された第2の画像信号に基づき、1フレーム内に赤、緑、青それぞれの画素が配置された各フレームによって構成される第3の画像信号を生成するデモザイク回路を有し、前記第3の画像信号に基づいて表示用の映像信号を生成する映像信号処理部と、
    前記映像信号処理部が前記映像信号を生成する処理と並行して、前記第1または第2の画像信号を用いて画像を認識する画像認識部と、
    を備えることを特徴とする撮像装置。
  2. 前記第1の画像信号はRAWデータであり、
    前記画像認識部は前記RAWデータを用いて画像を認識することを特徴とする請求項1に記載の撮像装置。
JP2017145288A 2017-07-27 2017-07-27 撮像装置 Active JP7091031B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017145288A JP7091031B2 (ja) 2017-07-27 2017-07-27 撮像装置
US16/040,990 US10878221B2 (en) 2017-07-27 2018-07-20 Imaging device capable of performing high-speed image recognition processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017145288A JP7091031B2 (ja) 2017-07-27 2017-07-27 撮像装置

Publications (2)

Publication Number Publication Date
JP2019029750A true JP2019029750A (ja) 2019-02-21
JP7091031B2 JP7091031B2 (ja) 2022-06-27

Family

ID=65138258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017145288A Active JP7091031B2 (ja) 2017-07-27 2017-07-27 撮像装置

Country Status (2)

Country Link
US (1) US10878221B2 (ja)
JP (1) JP7091031B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020174254A (ja) * 2019-04-09 2020-10-22 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
WO2023190473A1 (ja) * 2022-03-28 2023-10-05 ソニーセミコンダクタソリューションズ株式会社 画像処理装置および画像処理方法、画像変換装置および画像変換方法、aiネットワーク生成装置およびaiネットワーク生成方法、並びにプログラム
US11962916B2 (en) 2019-10-11 2024-04-16 Sony Semiconductor Solutions Corporation Imaging device with two signal processing circuitry partly having a same type of signal processing, electronic apparatus including imaging device, and imaging method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015125580A1 (ja) * 2014-02-20 2015-08-27 オリンパス株式会社 固体撮像装置および撮像システム
JP2016006930A (ja) * 2014-06-20 2016-01-14 ソニー株式会社 撮像装置および撮像方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5229575B2 (ja) * 2009-05-08 2013-07-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP6441586B2 (ja) 2014-04-25 2018-12-19 国立大学法人 東京大学 情報処理装置および情報処理方法
US9501915B1 (en) * 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
JP2016146174A (ja) * 2015-02-06 2016-08-12 パナソニックIpマネジメント株式会社 決定方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015125580A1 (ja) * 2014-02-20 2015-08-27 オリンパス株式会社 固体撮像装置および撮像システム
JP2016006930A (ja) * 2014-06-20 2016-01-14 ソニー株式会社 撮像装置および撮像方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020174254A (ja) * 2019-04-09 2020-10-22 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
JP7325211B2 (ja) 2019-04-09 2023-08-14 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
US11962916B2 (en) 2019-10-11 2024-04-16 Sony Semiconductor Solutions Corporation Imaging device with two signal processing circuitry partly having a same type of signal processing, electronic apparatus including imaging device, and imaging method
WO2023190473A1 (ja) * 2022-03-28 2023-10-05 ソニーセミコンダクタソリューションズ株式会社 画像処理装置および画像処理方法、画像変換装置および画像変換方法、aiネットワーク生成装置およびaiネットワーク生成方法、並びにプログラム

Also Published As

Publication number Publication date
JP7091031B2 (ja) 2022-06-27
US10878221B2 (en) 2020-12-29
US20190034698A1 (en) 2019-01-31

Similar Documents

Publication Publication Date Title
KR102557794B1 (ko) 화상 처리 장치, 화상 처리 장치의 제어 방법, 및 비일시적인 컴퓨터 판독가능한 저장 매체
JP7077395B2 (ja) 多重化高ダイナミックレンジ画像
US10852127B2 (en) Image processing apparatus and method, data, and recording medium
JP4346634B2 (ja) 目標物検出装置
US9628751B2 (en) Method, device, and system for pre-processing a video stream for subsequent motion detection processing
JP2004522372A (ja) 時空間適応的雑音除去/高画質復元方法及びこれを応用した高画質映像入力装置
KR20190079574A (ko) 촬상장치, 화상 처리장치, 제어방법 및 기억매체
JP7091031B2 (ja) 撮像装置
US20170061565A1 (en) Information embedding device, information embedding method, and recording medium storing program
WO2016086489A1 (zh) 图像降噪的方法及其装置
WO2019146226A1 (ja) 画像処理装置、および出力情報制御方法、並びにプログラム
KR101733309B1 (ko) 4 칼라 이미지 센서를 위해 듀얼 isp를 갖는 카메라 시스템
US9860456B1 (en) Bayer-clear image fusion for dual camera
JP6375138B2 (ja) パープルフリンジ除去処理方法及びその処理を遂行するパープルフリンジ除去処理装置
JP7024658B2 (ja) 処理装置
US20170364765A1 (en) Image processing apparatus, image processing system, vehicle, imaging apparatus and image processing method
US10896344B2 (en) Information processing apparatus, information processing method, and computer program
JP3625442B2 (ja) 物体検出方法及び物体検出装置並びに物体検出プログラム
WO2022256109A1 (en) Glare removal using dual cameras
JP2007108965A (ja) 変化領域計算方法、変化領域計算装置、変化領域計算プログラム
JP2017092876A (ja) 撮像装置、撮像システム、及び撮像方法
JP2007221367A (ja) 画像伝送装置および画像伝送システム
US11678068B2 (en) Glare removal using dual cameras
US10306153B2 (en) Imaging apparatus, image sensor, and image processor
KR101722969B1 (ko) 이동 물체 검출 장치 및 그 제어 방법

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220615

R150 Certificate of patent or registration of utility model

Ref document number: 7091031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150