JP2018042196A - データ生成装置、画像処理システム、および方法 - Google Patents

データ生成装置、画像処理システム、および方法 Download PDF

Info

Publication number
JP2018042196A
JP2018042196A JP2016176719A JP2016176719A JP2018042196A JP 2018042196 A JP2018042196 A JP 2018042196A JP 2016176719 A JP2016176719 A JP 2016176719A JP 2016176719 A JP2016176719 A JP 2016176719A JP 2018042196 A JP2018042196 A JP 2018042196A
Authority
JP
Japan
Prior art keywords
data
sensor
image
image processing
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016176719A
Other languages
English (en)
Inventor
八弓 上原
Yayumi Uehara
八弓 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2016176719A priority Critical patent/JP2018042196A/ja
Priority to US15/626,144 priority patent/US20180075313A1/en
Publication of JP2018042196A publication Critical patent/JP2018042196A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像処理の負荷が軽減され得るデータを生成するための技術を提供することである。【解決手段】データ生成装置(230)は、画像処理を行なう外部装置(240)と通信可能に構成される。このデータ生成装置は、第1の通信インターフェイス(332)を介してカメラ(210)から受信した画像データと、第2の通信インターフェイス(334)を介してセンサから受信したセンサデータとを含むデータユニット(400)を生成して、外部装置に送信するためのデータ生成部(336)を備える。外部装置は、データユニットに含まれるセンサデータに基づいて、当該センサデータに関連付けられる画像データに対する画像処理内容を決定するように構成される。データ生成部は、画像データと、第1の通信インターフェイスを介してカメラから受信する同期のための情報に基づいてセンサから出力されるセンサデータとを含むデータユニットを生成する。【選択図】図6

Description

この開示は、データユニットを生成する技術に関し、より特定的には、画像データとセンサデータとを含むデータユニットを生成する技術に関する。
従来、画像の含む情報を有効に利用する目的で画像の変形、変換、特徴の抽出、などの様々な画像処理が行われている(たとえば、非特許文献1)。
また、非特許文献2は、工業製品の品質検査の目的で、画像を処理して製品の寸法検査や、微小な汚れ検出などの検査などを行なう構成を開示している。
また、非特許文献3は、車載用カメラが撮影する画像にリアルタイムで画像処理を行い、当該画像中に含まれる看板や信号機の強調表示を行い、ユーザに注意喚起を行なう構成を開示している。
"ウェキペディア 画像処理"、[online]、[平成28年7月7日検索]、インターネット〈URL:https://ja.wikipedia.org/wiki/%E7%94%BB%E5%83%8F%E5%87%A6%E7%90%86〉 "SKYLOGIQ 画像検査ソフト このような検査ができます"、[online]、[平成28年7月7日検索]、インターネット〈URL:http://www.skylogiq.co.jp/easyinspector/kensa_gaiyou/index.html〉 市原直彦、他4名、"車載カメラ応用技術〜画像認識カーナビゲーションと車載ロボット〜"、[online]、[平成28年7月7日検索]、インターネット〈URL:http://pioneer.jp/en/crdl_design/crdl/rd/pdf/19-1-1.pdf〉
近年、カメラの撮像素子の一層の微細加工化(すなわち、画素数増加)が進み、画像処理の負荷増大に伴う処理時間の増加、およびプロセッサでの消費電力の増加などが問題になっている。
非特許文献3に開示される技術は、カメラが撮影する全ての画像に対して予め定められた画像処理プログラムを行なう構成である。より具体的には、この技術は、撮影画像に看板や信号機が含まれているか否かをまず画像処理によって判断した後、これらのオブジェクトを強調表示する画像処理を行なう構成である。すなわち、この技術は、強調表示の対象が含まれない画像に対しても、一定の画像処理を行なう必要があるため、画像処理の負荷が大きい。
また、非特許文献1および2に開示される技術は、画像処理の負荷軽減については何ら言及していない。したがって、より画像処理の負荷を小さくする技術が求められている。
本開示は、上記のような問題を解決するためになされたものであって、ある局面における目的は、画像処理の負荷が軽減され得るデータを生成するためのデータ生成装置を提供することである。他の局面における目的は、画像処理の負荷が軽減され得る画像処理システムを提供することである。さらに他の局面における目的は、画像処理の負荷が軽減され得る方法を提供することである。
その他の課題と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
ある実施形態に従うデータ生成装置は、画像処理を行なう外部装置と通信可能に構成される。このデータ生成装置は、カメラによって取得される画像データを受信するための第1の通信インターフェイスと、センサから出力されるセンサデータを受信するための第2の通信インターフェイスと、第1の通信インターフェイスを介して受信された画像データと、第2の通信インターフェイスを介して受信されたセンサデータとを含むデータユニットを生成して、生成したデータユニットを外部装置に送信するためのデータ生成部を備える。外部装置は、データユニットに含まれるセンサデータに基づいて、当該センサデータに関連付けられる画像データに対する画像処理内容を決定するように構成される。データ生成部は、画像データと、第1の通信インターフェイスを介してカメラから受信する同期のための情報に基づいてセンサから出力されるセンサデータとを含むデータユニットを生成する。
ある実施形態に従うデータ生成装置は、画像処理の負荷が軽減され得るデータを生成することができる。
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。
関連技術に従う画像処理の制御を説明するフローチャートである。 ある実施形態に従う画像処理システム200の構成例について説明する図である。 ある実施形態に従う画像処理システム200を構成する各デバイスのハードウェア構成例を説明する図である。 ディスプレイポート規格に従うパケットデータ400の構造を説明する図である。 ある実施形態に従う画像処理の制御を説明するフローチャートである。 ある実施形態に従うデータユニットの生成方法について説明するフローチャートである。 他の局面に従うデータユニットの生成方法について説明するフローチャートである。 関連技術に従う品質検査の制御を説明するフローチャートである。 ある実施形態に従う画像処理システム900の構成例について説明する図である。 ある実施形態に従う品質検査(画像処理)の制御を説明するフローチャートである。 関連技術に従う監視のための画像処理について説明するフローチャートである。 ある実施形態に従う画像処理システム1200の構成例について説明する図である。 ある実施形態に従う画像処理の制御を説明するフローチャートである。 ある実施形態に従う画像処理システム1400の構成例を説明する図である。 ある実施形態に従うデータユニットの生成法について説明するフローチャートである。
以下、この発明の実施形態について図面を参照しながら詳細に説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
[実施形態1]
図1は、関連技術に従う画像処理の制御を説明するフローチャートである。図1に示される例において、プロセッサは、関連技術に従う画像処理プログラムを読み込んで、車載カメラが取得する画像データに基づいて、歩行者を検出し、当該歩行者を強調表示する。
ステップS105において、プロセッサは、カメラが取得する画像データに基づいて、明るさ補正量を決定する。一例として、プロセッサは、画像データを読み込んで、各画素ごとのγ特性の補正量を決定する。
ステップS107において、プロセッサは、決定した明るさ補正量に基づいて、画像データを補正する。
ステップS110において、プロセッサは、画像データに基づいて歩行者検出処理を実行する。一例として、プロセッサは、画像データ中の肌色領域を検出するなど、人間に関係のある特徴量の抽出を行う。
ステップS115において、プロセッサは、ステップS110の結果に基づいて、カメラによって撮影される画像の中に歩行者(人間)が存在するか否かを判断する。プロセッサは、画像の中に歩行者が存在すると判断した場合(ステップS115において歩行者あり)、処理をステップS120に進める。そうでない場合(ステップS115において歩行者なし)、プロセッサは、処理をステップS125に進める。
ステップS120において、プロセッサは、画像の中の歩行者が強調されるように、歩行者の周りを枠線で囲むように、画像データを加工する。
ステップS125において、プロセッサは、画像データを車内に設けられるディスプレイに出力する。これにより、運転手は、車の後部に歩行者がいることを認識する。
上記のように、関連技術に従う画像処理プログラムは、歩行者が存在しない画像に対しても、明るさ補正の画像処理(ステップS105およびS107)、および歩行者検出の画像処理(ステップS110およびS115)をプロセッサに実行させる。そのため、関連技術に従う画像処理プログラムに対するプロセッサの負荷が大きい。以下、この問題を解決し得る、ある実施形態に従う画像処理システムについて説明する。
図2は、ある実施形態に従う画像処理システム200の構成例について説明する図である。図2を参照して、画像処理システム200は、I/F(インターフェイス)ボード210と、カメラ220と、データ生成装置230と、情報処理端末240とを含む。ある局面において、画像処理システム200は、車に搭載される。
I/Fボード210は、外部のセンサとデータ生成装置230とを接続するためのインターフェイスである。ある局面において、I/Fボード210は、USB(Universal Serial Bus)、IEEE(Institute of Electrical and Electronic Engineers)1394、および/またはRS−232Cの規格に対応する。図1の例において、I/Fボード210は、明るさセンサ212と、近接センサ214と、データ生成装置230とに、それぞれ電気的に接続される。
明るさセンサ212は、車外の明るさを検出する。明るさセンサ212は、一例として、フォトダイオードによって構成される。近接センサ214は、例えば車の後部に配置され、車の後部に接近する物体を検出する。近接センサ214は、一例として、焦電素子によって構成される。I/Fボード210は、明るさセンサ212から出力されるデータと、近接センサ214から出力されるデータとを、データ生成装置230に出力する。
カメラ220は、車の後部に配置され、車の後部の周囲を撮影する。カメラ220は、撮影により得られた画像データを、データ生成装置230に送信する。
データ生成装置230は、I/Fボード210から受信するセンサデータと、カメラ220から受信する画像データとを含むデータユニットを生成して、生成したデータユニットを情報処理端末240に送信する。データユニットとは、1受信単位として扱われるひとかたまりのデータである。ある局面において、データユニットは、パケットであり得る。データユニットの生成方法の詳細は、後述される。
情報処理端末240は、受信したデータユニットに基づいて画像処理を行なう。具体的には、情報処理端末240は、画像処理プログラム250を実行することにより、各種画像処理を行なう。各種画像処理の一例として、明るさ補正処理252、歩行者位置検出処理254、および/または画像加工処理256を含み得る。明るさ補正処理252は、一例として、各画素ごとのγ特性の補正量を決定する処理を含む。歩行者位置検出処理254は、一例として、画像データ中の肌色領域を検出するなど、人間に関係のある特徴量の抽出を行って、歩行者の位置を検出する処理を含む。画像加工処理256は、歩行者位置検出処理254によって検出した歩行者の周囲を囲むように強調表示する処理を含む。情報処理端末240は、画像加工処理256を行なった加工済みの画像データを、ディスプレイ260に出力する。情報処理端末240は、データユニットに含まれるセンサデータに基づいて、当該データユニットに含まれる画像データに対して行なう画像処理の内容を決定する。この制御の詳細は、後述する。
図3は、ある実施形態に従う画像処理システム200を構成する各デバイスのハードウェア構成例を説明する図である。
I/Fボード210は、入力I/F312,314と、送受信処理回路316と、通信I/F318とを備える。入力I/F312は、明るさセンサ212と電気的に接続され、明るさセンサ212から車外の明るさに関するセンサデータの入力を受け付ける。入力I/F314は、近接センサ214と電気的に接続され、車の後部に近接する物体に関するセンサデータの入力を受け付ける。
I/F312,314は、入力されたデータを送受信処理回路316に出力する。送受信処理回路316は、後述する同期信号出力回路324によって出力される同期信号に応答して、I/F312,314を介して入力されるセンサデータを、通信I/F318を介してデータ生成装置230に出力する。
カメラ220は、撮像素子322と、同期信号出力回路324と、メモリ326と、通信I/F328とを備える。撮像素子322は、レンズ(不図示)によって集められた光を電気信号に変換した画像データをメモリ326に出力する。ある局面において、撮像素子322は、CCD(Charge Coupled Devices)センサ、またはCMOS(Complementary Metal Oxide Semiconductor)によって構成される。
同期信号出力回路324は、撮像素子322によって撮影を行なうごとに同期信号(例えば、垂直同期信号)を通信I/F328を介してI/Fボード210およびデータ生成装置230に出力する。メモリ326は、画像データを一時的に記憶するバッファメモリとして機能する。
データ生成装置230は、通信I/F332,334と、メモリ335と、データ生成回路336と、出力I/F338とを備える。
通信I/F332は、I/Fボード210から、明るさセンサ212および近接センサ214によって取得されるセンサデータを受信する。通信I/F334は、カメラ220によって取得される画像データを受信する。メモリ335は、I/Fボード210とカメラ220とからそれぞれ受信するセンサデータと画像データとを一時的に記憶する。ある局面において、メモリ326およびメモリ335は、揮発性メモリであって、SRAM(Static Random Access Memory)またはDRAM(Dynamic Random Access Memory)によって構成される。
データ生成回路336は、メモリ335に記憶される画像データとセンサデータとを含むデータユニットを生成する。一例として、ある局面に従うデータ生成回路336は、ディスプレイポート規格に従うパケットデータを生成する。データ生成回路336は、生成したパケットデータを出力I/F338を介して情報処理端末240に出力する。ある局面において、データ生成回路336は、生成したパケットデータを予め定められたプロトコル(たとえば、HDCP:High-bandwidth Digital Content Protection system)に従って、暗号化し得る。ある局面において、出力I/F338はディスプレイポート規格に従うコネクタによって構成され得る。ある局面において、データ生成回路336は、後述する回路の機能を実現するために設計された少なくとも1つのASIC(Application Specific Integrated Circuit:特定用途向け集積回路)によって構成される。他の局面において、データ生成回路336は、少なくとも1つのプロセッサのような半導体集積回路、少なくとも1つのDSP(Digital Signal Processor)、少なくとも1つのFPGA(Field Programmable Gate Array)、および/またはその他の演算機能を有する回路を含む回路によって構成され得る。
情報処理端末240は、入力I/F342と、CPU(Central Processing Unit)344と、RAM(Random Access Memory)346と、ROM(Read Only Memory)348とを備える。
入力I/F342は、データ生成装置230からデータユニットの入力を受け付ける。入力I/F342は、受け付けたデータユニットをCPU344に出力する。
CPU344は、ROM348に格納される画像処理プログラム250を実行することにより、データユニットに含まれる画像データに対して種々の画像処理を行なう。RAM346は、典型的にはDRAMによって構成され、CPU344が画像処理プログラム250を実行するために必要なデータ等を一時的に記憶するワーキングメモリとして機能する。ROM348は、典型的にはフラッシュメモリによって構成され、画像処理プログラム250と、情報処理端末240の動作に使用される各種設定情報とを記憶する。次に、データユニットの一例である、ディスプレイポート規格に従うパケットデータのデータ構造について説明する。
図4は、ディスプレイポート規格に従うパケットデータ400の構造を説明する図である。各ラインに含まれる水平ブランキング期間の最初にブランキングスタート(BS:Blanking Start)パケット410が含まれる。また、画像データ460が存在する水平ブランキング期間の最後に、ブランキングエンド(BE:Blanking End)パケット420が含まれる。画像信号460が存在しない垂直ブランキング期間内のラインと、画像信号460が存在するラインとでは、水平ブランキング期間の長さが異なる。BEパケット420の後に、1つのラインを構成する画素のデータが含まれる。
パケットデータ400は、画像信号460が存在しない垂直ブランキング期間内のラインにおいて、セカンダリデータパケット(SDP:Secondary Data Packet)440を含む。SDP440の前後には、セカンダリデータスタート(SS:Secondary-data Start)パケット430と、セカンダリデータエンド(SE:Secondary-data End)パケット450とが存在する。
SDP440は、画像信号以外の付加的な情報を含み、一般的には音声データなどを含む。ある局面に従うデータ生成回路336は、カメラ220から取得する画像データと、I/Fボード210から取得するセンサデータとを含むパケットデータ400を生成する。より具体的には、データ生成回路336は、画像データが画像信号460に、センサデータがSDP440にそれぞれ格納されるように、パケットデータ400を生成する。
このように、ある局面において、データ生成回路336は、既存のディスプレイポート規格のSDP440を利用して、画像データとセンサデータとを含むパケットデータ400を生成する。これにより、情報処理端末240の入力I/F342も既存のディスプレイポート規格に従うコネクタを採用し得る。
図5は、ある実施形態に従う画像処理の制御を説明するフローチャートである。図1で説明した関連技術に従う画像処理プログラムは、画像データにのみ基づいて画像処理を行なう。一方、図5に示される画像処理プログラムは、画像データとセンサデータとを含むデータユニットを用いて実行される。図5に示される例において、画像処理プログラムは、データユニットとして、パケットデータ400を用いて画像処理を行なう。図5に示される処理は、CPU344がROM348に格納される画像処理プログラム250を実行することにより実現される。なお、図1と同一符号を付している部分については略同じ処理であるため、その部分については繰り返し説明しない場合もある。
ステップS505において、CPU344は、パケットデータ400のSDP440に含まれる近接センサ214が取得するセンサデータ(以下、「近接データ」とも称する)を読み込む。
ステップS510において、CPU344は、近接データに基づいて、車の後部に歩行者(人間)が存在するか否かを判断する。CPU344は、車の後部に歩行者が存在すると判断した場合(ステップS510において歩行者あり)、処理をステップS515に進める。そうでない場合(ステップS510において歩行者なし)、CPU344は、処理をステップS125に進め、パケットデータ400の画像信号460に含まれる画像データをディスプレイ260にそのまま出力する。なお、他の局面において、CPU344は、画像データに対して明るさ補正を行なったデータをディスプレイ260に出力し得る。
ステップS515において、CPU344は、SDP440に含まれる明るさセンサ212が取得するセンサデータ(以下、「明るさデータ」とも称する)を読み込む。ステップS107において、CPU344は、明るさデータに基づいて、明るさ補正処理252を実行する。一例として、CPU344は、明るさデータに基づいて各画素ごとのγ特性を補正する。
上記によれば、画像処理プログラム250は、SDP440に含まれる近接データに基づいて、車の後部に歩行者が近接していると判断したときのみ、後の画像処理(明るさ補正、歩行者強調)を実行する。そのため、画像処理プログラム250は、CPU344の画像処理の負荷を軽減し得る。
また、画像処理プログラム250は、車の後部に歩行者が近接していると判断した場合においても、SDP440に含まれる明るさデータに基づいて、画像データの明るさ補正処理を行なうことができる。そのため、画像処理プログラム250は、CPU344の画像処理の負荷をより軽減できる。
画像処理プログラム250は、画像データと、当該画像データが撮影されるタイミングに同期したセンサデータとを含むデータユニットを受信することにより上記図5に示される一連の処理を実行することができる。次に、データ生成装置230がデータユニットを生成する方法について説明する。
図6は、ある実施形態に従うデータユニットの生成方法について説明するフローチャートである。
ステップS605およびS610において、カメラ220は、同期信号出力回路324から垂直同期信号をI/Fボード210およびデータ生成装置230にそれぞれ出力する。ステップS612において、カメラ220は、撮影して1フレーム目の画像データを取得する。この画像データは、メモリ326に一時的に記憶される。
ステップS615において、データ生成装置230のデータ生成回路336は、垂直同期信号の受信に応答して、データユニットの生成を開始する。
ステップS620において、I/Fボード210の送受信処理回路316は、垂直同期信号の受信に応答して、明るさセンサ212および近接センサ214からI/F312および214を介して1フレーム目の明るさデータと近接データとをそれぞれ取得する。
ステップS625において、送受信処理回路316は、取得した明るさデータと近接データとをデータ生成装置230に出力する。データ生成回路336は、受信した1フレーム目のセンサデータをメモリ335に一時的に記憶する。
ステップS630において、データ生成回路336は、通信I/F334および328を介して、カメラ220のメモリ326にアクセスして、1フレーム目の画像データを取得する。データ生成回路336は、画像データをメモリ335に一時的に記憶する。
ステップS635において、データ生成回路336は、メモリ335に記憶される1フレーム目の画像データとセンサデータとを含むデータユニットを生成して、データユニットの生成処理を終了する。
ステップS640において、データ生成回路336は、出力I/F338を介して生成したデータユニットを情報処理端末240に出力する。
ステップS645において、情報処理端末240のCPU344は、図5に示される一連の画像処理を実行する。
画像処理システム200は、これらステップS605〜645の処理を2フレーム目以降も繰り返し実行する。
上記によれば、データ生成回路336は、画像データと、カメラ220から出力される垂直同期信号に基づいて各センサから出力されたセンサデータとを関連付けてデータユニットを生成することができる。これにより、データ生成回路336は、画像データと、当該画像データの撮影タイミングに同期して取得されたセンサデータとを関連付けてデータユニットを生成できる。その結果、データユニットを用いた画像処理プログラム250は、CPU344の画像処理の負荷を従来よりも軽減し得る。
なお、上記の例では、カメラ220がI/Fボード210とデータ生成装置230とに垂直同期信号を出力する構成であるが、他の局面において、データ生成回路336にだけ出力する構成であってもよい。
図7は、他の局面に従うデータユニットの生成方法について説明するフローチャートである。なお、図6と同一符号を付している部分については同じ処理であるため、その部分についての説明は繰り返さない。
ステップS710において、データ生成回路336は、カメラ220から垂直同期信号を受信したことに応答して、I/Fボード210に対してセンサデータの出力を要求する要求信号を出力する。
ステップS720において、I/Fボード210の送受信処理回路316は、データ生成装置230から要求信号を受信したことに応答して、明るさセンサ212および近接センサ214から1フレーム目の明るさデータと近接データとをそれぞれ取得する。
上記によれば、I/Fボード210がカメラ220と接続できない場合(たとえば、I/Fボード210に設けられるインターフェイスの数が足りない場合)であっても、データ生成装置230はデータユニットを生成できる。
[実施形態2]
上記の実施形態では、車載カメラ220によって撮影される画像に対する画像処理を例にとって説明した。実施形態2では、工場等での製品の品質検査に関する画像処理を例にとって説明する。
図8は、関連技術に従う品質検査の制御を説明するフローチャートである。図8に示される処理は、プロセッサが関連技術に従う画像処理プログラムを実行することにより実現される。図8に示される例において、関連技術に従う画像処理プログラムは、ベルトコンベアを流れる複数の製品の各々を示す画像データに基づいて品質検査を行なう。
ステップS805において、プロセッサは、カメラによって取得される製品の画像データに基づいて、バーコードを認識するとともに、バーコードに含まれる製造IDを特定する。
ステップS810において、プロセッサは、画像データに基づいて、溶接検査処理を実行する。より具体的には、プロセッサは、製品の溶接部における溶接不良が起きていないかを判断する。一例として、プロセッサは、溶接部における黄銅色部分の面積を検出する処理を行なう。溶接不良が起こると、溶接電極への酸化物付着によって溶接抵抗が増える結果、溶接部分が黄銅色になるためである。
ステップS815において、プロセッサは、溶接不良が起きているか否かを判断する。一例として、溶接部分における黄銅色部分の面積が予め定められた面積未満である場合、プロセッサは、溶接不良が起きていないと判断する。プロセッサは、溶接不良が起きていないと判断した場合(ステップS815においてOK)、処理をステップS820に進める。そうでない場合(ステップS815においてNG)、プロセッサは検査対象の製品が不良品であると判断する(ステップS835)。
ステップS820において、プロセッサは、画像データに基づいて、傷・ひび割れ検査処理を実行する。一例として、プロセッサは、周辺画素と比べて輝度差の大きい画素を傷・ひび割れとして抽出する。
ステップS825において、プロセッサは、ステップS820の検査結果に基づいて、製品に傷・ひび割れがあるか否かを判断する。プロセッサは、製品に傷・ひび割れがないと判断した場合(ステップS825においてOK)、検査対象の製品が良品であると判断する(ステップS830)。そうでない場合(ステップS825においてNG)、プロセッサは、検査対象の製品が不良品であると判断する(ステップS835)。
ステップS840において、プロセッサは、ステップS805で特定した製造IDと、検査結果とを関連付けて記憶装置に保存する。
上記のように、関連技術に従う品質検査は、製品に生じ得る複数の検査項目のすべてに対して、画像処理を用いた検査を実施する必要がある。そのため、検査項目の数が増えるほど、プロセッサの品質検査(画像処理)に対する負荷が大きくなる。図8の例では、簡単のため検査項目を2つとして説明したが、実際には数十種類もの検査項目が存在し得る。以下、このような問題を解決し得る、ある実施形態に従う画像処理システムの構成および制御について説明する。
図9は、ある実施形態に従う画像処理システム900の構成例について説明する図である。画像処理システム900の構成は、上記の画像処理システム200の構成と略同じであるため、相違する点についてのみ説明する。
画像処理システム900は、製造ライン910を流れる製品915A、915B、915C、・・・の品質検査を行なう。以下、製品915A、915B、915C、・・・を総称して「製品915」とも言う。製品915には、互いに識別可能な製造IDを示すバーコードが付されている。
I/Fボード210は、バーコードリーダ920、ラインセンサ930、温度センサ940とに、それぞれ電気的に接続される。バーコードリーダ920は、製品915に付されているバーコードから製造IDを取得する。ラインセンサ930は、複数の投光部と受光部(フォトダイオード)とを備える。ラインセンサ930は、製品915が流れる経路に設けられ、製品915によって反射された光を受光部によって受け付ける。温度センサ940は、一例として、放射温度計であって非接触で製品915の溶接部の温度を測定する。
カメラ220は、製品915が流れる経路に設けられ、各製品915を撮影する。データ生成装置230は、カメラ220によって取得される製品915の画像データと、上記センサのセンサデータとを含むデータユニットを生成して、情報処理端末240に出力する。この実施形態において、センサデータは、バーコードリーダ920が取得する製造IDと、ラインセンサ930の取得する製品915によって反射される光強度のデータ(以下、「ラインデータ」とも称する)と、温度センサ940が取得する製品915の温度のデータ(以下、「温度データ」とも称する)とを含む。ある局面において、データ生成装置230は、カメラ220が撮影する製品915の画像データと、センサデータを格納するSDP440とを含むパケットデータ400を生成して、情報処理端末240に出力する。
情報処理端末240は、画像データとセンサデータとを含むデータユニットに基づいて、溶接検査処理952と、傷・ひび割れ検査処理954とを含む画像処理プログラム950を実行して、製品915の品質検査を行なう。
図10は、ある実施形態に従う品質検査(画像処理)の制御を説明するフローチャートである。図10に示される処理は、CPU344がROM348に格納される画像処理プログラム950を実行することにより実現される。他の局面において、処理の一部または全部が、回路素子その他のハードウェアによって実行されてもよい。なお、図8と同一符号を付している部分については略同じ処理であるため、その部分については繰り返し説明しない場合もある。
ステップS1005において、CPU344は、データユニットに含まれる温度データが示す温度が、適正範囲内であるか否かを判断する。CPU344は溶接部の温度が適正範囲内であると判断した場合(ステップS1005においてYES)、処理をステップS1010の傷・ひび割れ検査処理に進める。そうでない場合(ステップS1005においてNO)、CPU344は、処理をステップS810の溶接検査に進める。すなわち、CPU344は、溶接部の温度が適正範囲内であると判断した場合は、溶接検査を省略する。一方、CPU344は、溶接部の温度が適正範囲外であると判断した場合は、溶接部に溶接不良が生じている可能性があるとして、溶接検査を行なう。その理由は、溶接不良を起こした溶接部は、通常よりも温度が上がる傾向があるためである。
ステップS1010において、CPU344は、データユニットに含まれるラインデータに基づいて、検査対象の製品915に傷またはひび割れが生じている可能性があるか否かを判断する。一例として、CPU344は、周辺領域と比べて強度差の大きい領域がある場合、製品915に傷またはひび割れが生じている可能性があると判断する。CPU344は、検査対象の製品915に傷またはひび割れが生じている可能性があると判断した場合(ステップS1010においてYES)、処理をステップS820に進める。そうでない場合(ステップS1010においてNO)、CPU344は、検査対象の製品915が良品であると判断する(ステップS830)。
ステップS1020において、CPU344は、データユニットに含まれる製造IDと、検査結果とを関連付けて記憶装置(たとえば、ROM348)に保存する。
上記によれば、ある実施形態に従う画像処理システム900は、センサデータを用いて、可能性のない不良に対する画像処理による検査を省略し、可能性のある不良に対する画像処理による検査のみを実施する。そのため、この画像処理システム900は、関連技術に従う画像データのみを用いた品質検査に比して、品質検査に要する時間の短縮、およびCPU344への画像処理負担の軽減を実現し得る。
また、関連技術に従う品質検査は、画像データに基づいて製造IDを取得する構成であるが、カメラ220によって撮影される画像によっては、製造IDを取得できない場合(例えば、画像にバーコードが正確に写っていない場合)もある。すなわち、当該システムは、画像データと製造IDとを関連付けることが出来ない場合がある。
一方、実施形態に従う画像処理システム900は、バーコードリーダ920によって取得される製造IDの情報を画像データと関連付けたデータユニットを生成する。そのため、本システムは、製造IDを取得する画像処理が不要である上に、確実に画像データと製造IDとを関連付けることができる。また、本システムは、製造IDを利用して、カメラ220によって検査画像を取り込んだ後、任意のタイミングで上記の品質検査を実施し得る。
なお、上記の例において、画像処理システム900は、製品915に付されたバーコード(1次元コード)を、バーコードリーダ920によって読み取ることによって、製品915の製造IDを取得する構成であったが、製造IDの取得方法はこれに限られない。
他の局面において、製品915に、製造IDを含むQRコード(2次元コード)(商標登録)、RFID(Radio Frequency IDentifier)タグ、その他のシンボルが付されており、これを読み取るセンサがI/Fボード210に接続されていればよい。
[実施形態3]
実施形態3では、店舗や空港などにおける、監視カメラを利用した監視システムについて説明する。
図11は、関連技術に従う監視のための画像処理について説明するフローチャートである。図11に示される処理は、プロセッサが関連技術に従う画像処理プログラムを実行することにより実現される。図11に示される例において、関連技術に従う画像処理プログラムは、監視カメラによって取得される画像データから人間を検出し、当該人間を特定する。
ステップS1110において、プロセッサは、カメラによって撮影される画像の中に人の顔が含まれているか否かを検出するための画像処理を実行する。顔検出のための画像処理は、既知の方法(たとえば、Haar-Like特徴量を利用した顔検出)によって実現され得る。
ステップS1120において、プロセッサは、ステップS1110における画像処理の結果に基づいて、画像の中に人の顔が含まれているか否かを判断する。プロセッサは、画像の中に人の顔が含まれていると判断した場合(ステップS1120においてYES)、処理をステップS1130に進める。そうでない場合(ステップS1120においてNO)、プロセッサは、一連の処理を終了する。
ステップS1130において、プロセッサは、ステップS1120で検出した顔の特徴量を算出して、当該算出した特徴量と、記憶装置に保存される過去に算出した特徴量の各々とを比較して、人物の特定を行なう。この特徴量の算出は、既知の方法によって実現され得る。
上記にように、関連技術に従う監視のための画像処理プログラムは、カメラによって撮影された画像すべてに対して、ステップS1110〜1130に示される処理を実行する必要がある。より具体的には、当該プログラムは、人(顔)が存在しない画像に対しても、人が居るか否かを判断するための処理(ステップS1110およびS1120)を実行する必要がある。そのため、プロセッサの監視のための画像処理に対する負荷は大きい。以下、このような問題を解決し得る、実施形態に従う画像処理システムの構成および制御について説明する。
図12は、ある実施形態に従う画像処理システム1200の構成例について説明する図である。画像処理システム1200の構成は、上記の画像処理システム200の構成と略同じであるため、相違する点についてのみ説明する。
I/Fボード210は、人感センサ1210と電気的に接続される。人感センサ1210は、一例として、焦電素子によって構成される。人感センサ1210は、カメラ220が撮影する視界領域において、人が存在するか否かを検出する。カメラ220は、監視カメラであって、店舗や空港にいる人物を撮影する。データ生成装置230は、カメラ220によって取得される画像データと、人感センサ1210によって取得される周囲に人が居るか居ないかを示すセンサデータ(以下、「人感データ」とも称する)とをデータユニットを生成する。データ生成装置230は、生成したデータユニットを情報処理端末240に出力する。情報処理端末240は、入力されるデータユニットに基づいて、顔認識処理1252を含む画像処理プログラム1250を実行する。ある局面において、データ生成装置230は、カメラ220によって取得される画像データと、人感データを格納するSDP440とを含むパケットデータ400を生成して、情報処理端末240に出力する。
図13は、ある実施形態に従う画像処理の制御を説明するフローチャートである。図13に示される処理は、CPU344がROM348に格納される画像処理プログラム1250を実行することにより実現される。他の局面において、処理の一部または全部が、回路素子その他のハードウェアによって実行されてもよい。なお、図11と同一符号を付している部分については同じ処理であるため、その部分については繰り返し説明しない場合もある。
ステップS1310において、CPU344は、データユニットに含まれる人感データを読み込む。ステップS1320において、CPU344は、人感データに基づいて、人感センサ1210が人を検出しているか否かを判断する。CPU344は、人感センサ1210が人を検出していると判断した場合(ステップS1320においてYES)、処理をステップS1110に進める。そうでない場合(ステップS1320においてNO)、CPU344は、顔認識の画像処理を実行することなく処理を終了する。
上記によれば、ある実施形態に従う画像処理システム1200は、データユニットに含まれる人感データに基づいて、カメラ220が撮影する視界領域に人が居ると判断した場合のみ、一連の顔認識の画像処理を実行する。そのため、本実施形態に従う画像処理システム1200は、関連技術に従う画像データのみを用いたシステムに比して、画像処理に要する時間の短縮、およびCPU344への画像処理負担の軽減を実現し得る。
[実施形態4]
上記の実施形態では、データ生成装置230は、カメラ220の同期信号出力回路324が出力する垂直同期信号に基づいて、画像データと、当該画像データが取得(撮影)されるタイミングに同期したセンサデータとを含むデータユニットを生成する。しかし、カメラの種類によっては、垂直同期信号を外部に出力する構成をもたないものも存在する。そこで、このようなカメラを用いた場合であっても、画像データと、当該画像データが撮影されるタイミングに同期したセンサデータとを含むデータユニットを生成するための構成および制御について説明する。
図14は、ある実施形態に従う画像処理システム1400の構成例を説明する図である。なお、図3と同一符号を付している部分については同じであるため、その部分についての説明は繰り返さない。
図14を参照して、画像処理システム1400は、カメラ220およびデータ生成装置230に替えて、カメラ1420およびデータ生成装置1430とを備える点において、画像処理システム200と相違する。カメラ1420は、同期信号出力回路324を有さない。カメラ1420は、メモリ326に替えてメモリ1426を有する。メモリ1426には、フォーマット情報1427が不揮発的に記憶される。フォーマット情報1427は、カメラ1420が1秒間に撮影する画像の枚数(フレームレート)の情報を含む。フォーマット情報1427は、フレームレートの情報の他にも、カメラ1420の垂直ブランキング期間、水平ブランキング期間、垂直有効画素数、水平有効画素数、RGB色深度(1ピクセルあたりのRGBデータ量)などの情報を含み得る。
データ生成装置1430は、データ生成回路336に替えてデータ生成回路1436を有する。データ生成回路1436は、タイミング生成回路1460と、ユニット生成回路1470とを含む。次に、図15を用いてタイミング生成回路1460およびユニット生成回路1470の機能について説明する。
図15は、ある実施形態に従うデータユニットの生成法について説明するフローチャートである。
ステップS1505において、タイミング生成回路1460は、カメラ1420からフォーマット情報1427を取得する。ステップS1507において、カメラ1420は、画像データを取得してメモリ1426に一時的に格納する。ステップS1510において、タイミング生成回路1460は、フォーマット情報1427に含まれるフレームレートの情報に基づいて、同期タイミングを生成する。一例として、フレームレートが60Hzである場合、タイミング生成回路1460は、60Hzの同期タイミングを生成する。
ステップS1515において、タイミング生成回路1460は、生成した同期タイミングに従うタイミングで、ユニット生成回路1470に対して生成開始信号を出力する。ステップS1520において、ユニット生成回路1470は、生成開始信号の受信に応答して、ユニットデータの生成を開始する。
ステップS1525において、タイミング生成回路1460は、生成した同期タイミングに従うタイミングで、I/Fボード210に対して要求信号を出力する。ステップS1530において、I/Fボード210は、データ生成装置1430から要求信号を受信したことに応答して、1フレーム目のセンサデータ(例えば、明るさデータおよび近接データ)を取得する。ステップS1535において、I/Fボード210は、取得した1フレーム目のセンサデータをユニット生成回路1470に出力する。ユニット生成回路1470は、受信した1フレーム目のセンサデータをメモリ335に一時的に記憶する。
ステップS1540において、ユニット生成回路1470は、通信I/F334および328を介して、カメラ1420のメモリ1426にアクセスして、1フレーム目の画像データを取得する。ユニット生成回路1470は、画像データをメモリ335に一時的に記憶する。
ステップS1545において、ユニット生成回路1470は、メモリ335に記憶される1フレーム目の画像データとセンサデータとを含むデータユニットを生成して、データユニットの生成処理を終了する。
ステップS1547において、ユニット生成回路1470は、出力I/F338を介して生成したデータユニットを情報処理端末240に出力する。ステップS645において、情報処理端末240のCPU344は、1フレーム目のデータユニットに対して画像処理プログラム250に従う一連の画像処理を実行する。
ステップS1550において、タイミング生成回路1460は、フレームレートの情報および前回(ステップS1510)生成した同期タイミングに基づいて、2フレーム目の同期タイミングを生成する。一例として、フレームレートが60Hzである場合、タイミング生成回路1460は、前回生成した同期タイミングから1/60秒後の同期タイミングを生成する。画像処理システム1400は、これらステップS1510〜1547およびステップS645の処理を、2フレーム目以降も繰り返し実行する。
上記によれば、ある実施形態に従うデータ生成装置1430は、画像データと、フォーマット情報に基づいて各センサから出力されるセンサデータとを関連付けてデータユニットを生成できる。これにより、カメラが垂直同期信号を外部に出力する構成を有さない場合であっても、当該カメラが取得する画像データと、当該画像データが取得(撮影)されるタイミングに同期したセンサデータとを含むデータユニットを生成できる。一般的に、高価なカメラは、垂直同期信号を外部に出力する構成(同期信号出力回路)を有するが、安価なカメラは、この構成を有さない。実施形態4に従う画像処理システム1400は、安価なカメラを用いる構成であったとしても、画像データと、センサデータとを含むデータユニットを生成できる。すなわち、実施形態4に従う画像処理システム1400は、安価なカメラを用いる構成であったとしても、センサデータに基づいて画像処理の内容を適切に決定することにより、画像処理時間の短縮、および画像処理の負荷軽減を実現し得る。
ある局面においてデータ生成回路336は、データユニットの一例として既知のディスプレイポート規格に従うパケットデータを生成する。これにより、情報処理端末240の入力I/F342も既存のディスプレイポート規格に従うコネクタを採用し得る。なお、他の局面において、データ生成回路336は、パケット化可能な他の規格に従う構成であってもよい。より好ましくは、データ生成回路336は、画像データとセンサデータとを含むパケットデータを生成でき、かつ、当該生成したパケットデータをカメラ220のフレームレートに従うタイミング(すなわち、垂直同期信号に従うタイミングを含む)で出力可能な規格であることが好ましい。これにより、情報処理端末240が、動画像データに対するリアルタイム画像処理(例えば、実施形態1および3で説明した処理)を実行できるためである。
上記の実施形態で説明した処理は、演算機能を有する回路が有形の読取可能な少なくとも1つの媒体から、1以上の命令を読み出すことにより実行され得る。
このような媒体は、磁気媒体(たとえば、ハードディスク)、光学媒体(たとえば、コンパクトディスク(CD)、DVD)、揮発性メモリ、不揮発性メモリの任意のタイプのメモリなどの形態をとるが、これらの形態に限定されるものではない。
揮発性メモリはDRAM(Dynamic Random Access Memory)およびSRAM(Static Random Access Memory)を含み得る。不揮発性メモリは、ROM、NVRAMを含み得る。
以上、本発明者によってなされた発明を実施形態に基づき具体的に説明したが、本発明は前記実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
210 I/Fボード、212 明るさセンサ、214 近接センサ、220,1420 カメラ、230,1430 データ生成装置、240 情報処理端末、250,950,1250 画像処理プログラム、260 ディスプレイ、318,328,332,334 通信I/F、316 送受信処理回路、322 撮像素子、324 同期信号出力回路、326,335,1426 メモリ、336,1436 データ生成回路、344 CPU、346 RAM、348 ROM、400 パケットデータ、440 SDP、460 画像信号、920 バーコードリーダ、930 ラインセンサ、940 温度センサ、1210 人感センサ、1427 フォーマット情報、1460 タイミング生成回路、1470 データ生成回路。

Claims (9)

  1. 画像処理を行なう外部装置と通信可能に構成されるデータ生成装置であって、
    カメラによって取得される画像データを受信するための第1の通信インターフェイスと、
    センサから出力されるセンサデータを受信するための第2の通信インターフェイスと、
    前記第1の通信インターフェイスを介して受信された前記画像データと、前記第2の通信インターフェイスを介して受信された前記センサデータとを含むデータユニットを生成して、生成したデータユニットを前記外部装置に送信するためのデータ生成部を備え、
    前記外部装置は、前記データユニットに含まれる前記センサデータに基づいて、当該センサデータに関連付けられる画像データに対する画像処理内容を決定するように構成され、
    前記データ生成部は、前記画像データと、前記第1の通信インターフェイスを介して前記カメラから受信する同期のための情報に基づいて前記センサから出力されるセンサデータとを含むデータユニットを生成する、データ生成装置。
  2. 前記同期のための情報は、前記カメラのフレームレートの情報を含む、請求項1に記載のデータ生成装置。
  3. 前記データ生成部は、
    前記フレームレートに従うタイミングで、前記センサから出力される前記センサデータと、前記カメラから前記画像データとをそれぞれ取得し、
    前記取得したセンサデータと画像データとを含むデータユニットを生成する、請求項2に記載のデータ生成装置。
  4. 前記同期のための情報は、前記カメラの垂直同期信号を含む、請求項1に記載のデータ生成装置。
  5. 前記データ生成部は、
    前記垂直同期信号の受信に応答して前記センサから出力される前記センサデータと、前記カメラから前記画像データとをそれぞれ取得し、
    前記取得したセンサデータと画像データとを含むデータユニットを生成する、請求項4に記載のデータ生成装置。
  6. 前記センサは、前記カメラから前記垂直同期信号を受信可能に構成され、
    前記データ生成部は、前記垂直同期信号の受信に応答して前記カメラから取得する画像データと、前記垂直同期信号の受信に応答して前記センサから出力されるセンサデータとを含むデータ生成装置データユニットを生成する、請求項5に記載のデータ生成装置。
  7. 前記データ生成部は、
    Displayport規格に従うパケットデータを前記データユニットとして生成し、
    SDP(Secondary Data Packet)に前記センサデータを格納する、請求項1に記載のデータ生成装置。
  8. カメラと、
    センサと、
    データユニットを生成するデータ生成装置と、
    前記データユニットに基づいて画像処理を行なう画像処理装置とを備え、
    前記データ生成装置は、
    前記カメラによって取得される画像データを受信するための第1の通信インターフェイスと、
    前記センサから出力されるセンサデータを受信するための第2の通信インターフェイスと、
    前記第1の通信インターフェイスを介して受信された前記画像データと、前記第2の通信インターフェイスを介して受信された前記センサデータとを含むデータユニットを生成して、生成したデータユニットを前記画像処理装置に送信するためのデータ生成部を含み、
    前記データ生成部は、前記画像データと、前記第1の通信インターフェイスを介して前記カメラから受信する同期のための情報に基づいて前記センサによって取得されたセンサデータとを含むデータユニットを生成し、
    前記画像処理装置は、前記データユニットに含まれる前記センサデータに基づいて、当該センサデータに関連付けられる画像データに対する画像処理内容を決定する、画像処理システム。
  9. 外部装置に送信するためのデータユニットを生成するための方法であって、
    前記外部装置は、当該データユニットに含まれるセンサデータに基づいて、当該センサデータに関連付けられる画像データに対する画像処理内容を決定するように構成され、
    前記方法は、
    画像処理のためのデータユニットを生成するための方法であって、
    カメラによって取得される画像データを受信するステップと、
    センサから出力されるセンサデータを受信するステップと、
    前記カメラから同期のための情報を受信するステップと、
    前記画像データと、前記同期のための情報に基づいて前記センサから出力されるセンサデータとを含むデータユニットを生成するステップとを含む、方法。
JP2016176719A 2016-09-09 2016-09-09 データ生成装置、画像処理システム、および方法 Pending JP2018042196A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016176719A JP2018042196A (ja) 2016-09-09 2016-09-09 データ生成装置、画像処理システム、および方法
US15/626,144 US20180075313A1 (en) 2016-09-09 2017-06-18 Data generation device and image processing system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016176719A JP2018042196A (ja) 2016-09-09 2016-09-09 データ生成装置、画像処理システム、および方法

Publications (1)

Publication Number Publication Date
JP2018042196A true JP2018042196A (ja) 2018-03-15

Family

ID=61560121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016176719A Pending JP2018042196A (ja) 2016-09-09 2016-09-09 データ生成装置、画像処理システム、および方法

Country Status (2)

Country Link
US (1) US20180075313A1 (ja)
JP (1) JP2018042196A (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4426780B2 (ja) * 2003-06-06 2010-03-03 株式会社日立製作所 映像の記録再生システムおよび記録再生方法
US9565419B2 (en) * 2007-04-13 2017-02-07 Ari M. Presler Digital camera system for recording, editing and visualizing images
US9807291B1 (en) * 2014-01-29 2017-10-31 Google Inc. Augmented video processing
IL236114A (en) * 2014-12-07 2016-04-21 Yoav Grauer Improved object recognition in the reimbursement-based imaging unit
US10681257B2 (en) * 2015-08-26 2020-06-09 Zhejiang Dahua Technology Co., Ltd. Methods and systems for traffic monitoring
US20170168285A1 (en) * 2015-12-14 2017-06-15 The Regents Of The University Of California Systems and methods for image reconstruction
US10717001B2 (en) * 2016-03-25 2020-07-21 Zero Latency PTY LTD System and method for saving tracked data in the game server for replay, review and training
US9916496B2 (en) * 2016-03-25 2018-03-13 Zero Latency PTY LTD Systems and methods for operating a virtual reality environment using colored marker lights attached to game objects

Also Published As

Publication number Publication date
US20180075313A1 (en) 2018-03-15

Similar Documents

Publication Publication Date Title
CN110633682B (zh) 基于双光融合的红外图像的异常监测方法、装置、设备
Li et al. Color-decoupled photo response non-uniformity for digital image forensics
JP2018510324A5 (ja)
JP2016218760A5 (ja)
US10536679B2 (en) Imaging apparatus and image processing system having stacked structure
CN101335841A (zh) 摄像装置
US20130301877A1 (en) Image reading out control apparatus, image reading out control method thereof and storage medium
JP2020187409A (ja) 画像認識装置、固体撮像装置、および画像認識方法
US9967478B2 (en) Imaging device and infrared image generation method
JP2008022454A (ja) 障害物検出システム及び障害物検出方法
CN108737797B (zh) 白平衡处理方法、装置和电子设备
CN110809885A (zh) 图像传感器瑕疵检测
JP2009010669A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2007139564A (ja) 障害物検出システム、障害物検出方法及びコンピュータプログラム
WO2015168893A1 (zh) 一种视频质量检测的方法及装置
JP2008165595A (ja) 障害物検出方法、障害物検出装置、障害物検出システム
JP2019086885A (ja) ナンバープレートと顔を同期識別できるウェアラブル装置、及びナンバープレートと顔を同期識別する方法
JP2018042196A (ja) データ生成装置、画像処理システム、および方法
US20170006212A1 (en) Device, system and method for multi-point focus
CN111145234A (zh) 基于双目视觉的火灾烟雾探测方法
JP4457077B2 (ja) 障害物検出システム、及び障害物検出方法
JP6331258B2 (ja) 撮像装置及び方法
JP2013250604A (ja) 物体検出装置および物体検出方法
JP2007249526A (ja) 撮像装置及びその顔領域抽出方法
KR102125775B1 (ko) 배제 픽셀 데이터를 보상하여 영상을 생성하는 방법 및 그것을 이용하는 영상 생성 장치