JP2021033334A - 情報処理装置、情報処理方法、および情報処理プログラム - Google Patents

情報処理装置、情報処理方法、および情報処理プログラム Download PDF

Info

Publication number
JP2021033334A
JP2021033334A JP2019148676A JP2019148676A JP2021033334A JP 2021033334 A JP2021033334 A JP 2021033334A JP 2019148676 A JP2019148676 A JP 2019148676A JP 2019148676 A JP2019148676 A JP 2019148676A JP 2021033334 A JP2021033334 A JP 2021033334A
Authority
JP
Japan
Prior art keywords
image
unit
information processing
image data
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019148676A
Other languages
English (en)
Inventor
恭二 横山
Kyoji Yokoyama
恭二 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2019148676A priority Critical patent/JP2021033334A/ja
Priority to DE112020003840.8T priority patent/DE112020003840T5/de
Priority to US17/631,555 priority patent/US20220351505A1/en
Priority to PCT/JP2020/026784 priority patent/WO2021029167A1/ja
Priority to CN202080055198.7A priority patent/CN114175110A/zh
Publication of JP2021033334A publication Critical patent/JP2021033334A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/955Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0051Embedding of the watermark in the spatial domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3243Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of type information, e.g. handwritten or text document
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3245Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of image modifying data, e.g. handwritten addenda, highlights or augmented reality information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)

Abstract

【課題】入力画像から被写体を認識するアプリケーションプロセッサの情報処理量を低減することができる情報処理装置、情報処理方法、および情報処理プログラムを提供する。【解決手段】本開示に係る情報処理装置は、取得部と、生成部と、出力部とを有する。取得部は、画像を撮像して画像データを生成する撮像部から画像データを取得する。生成部は、取得部によって取得される画像データから、画像に関する処理を実行するアプリケーションプロセッサを補助するメタデータを生成する。出力部は、生成部によって生成されるメタデータを前記アプリケーションプロセッサへ出力する。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、および情報処理プログラムに関する。
機械学習によって構築されたニューラルネットワークを用いて入力画像から被写体の認識を行う画像認識装置がある(例えば、特許文献1参照)。かかる被写体の認識は、画像認識用のアプリケーションプロセッサによって行われることが一般的である。
特開2018−190332号公報
しかしながら、アプリケーションプロセッサは、入力画像からニューラルネットワークを使用して被写体を認識するために、膨大な情報処理を行う必要がある。
そこで、本開示では、入力画像から被写体を認識するアプリケーションプロセッサの情報処理量を低減することができる情報処理装置、情報処理方法、および情報処理プログラムを提案する。
本開示によれば、情報処理装置が提供される。情報処理装置は、取得部と、生成部と、出力部とを有する。取得部は、画像を撮像して画像データを生成する撮像部から前記画像データを取得する。生成部は、前記取得部によって取得される前記画像データから、前記画像に関する処理を実行するアプリケーションプロセッサを補助するメタデータを生成する。出力部は、前記生成部によって生成される前記メタデータを前記アプリケーションプロセッサへ出力する。
本開示に係る情報処理装置が設けられる撮像装置の構成例を示す図である。 本開示に係るメタデータの一例を示す説明図である。 本開示に係るメタデータの一例を示す説明図である。 本開示に係る情報処理装置からAPへ出力される情報の説明図である。 本開示に係る情報処理装置からAPへ出力される情報の説明図である。 本開示に係る情報処理装置からAPへ出力される情報の説明図である。 本開示に係るウォーターマークの一例を示す説明図である。 本開示に係る情報処理装置が実行する処理の一例を示すフローチャートである。 本開示に係る情報処理装置が実行する処理の一例を示すフローチャートである。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
[1.撮像装置の構成]
図1は、本開示に係る情報処理装置1が設けられる撮像装置100の構成例を示す図である。図1に示すように、撮像装置100は、情報処理装置1と、撮像部2と、メモリ3とを備える。
撮像部2は、2次元に配列される複数の撮像画素を備え、各撮像画素を露光することによって画像を撮像する。撮像部2は、各撮像画素によって受光する被写体からの光を受光量に応じた信号電荷に光電変換し、信号電荷に応じたアナログの画素信号をデジタルの画素信号にアナログ/デジタル変換することによって画像データを生成する。撮像部2は、撮像した画像の画像データを情報処理装置1へ出力する。メモリ3は、情報処理装置1を介して撮像部2から入力される画像データを一時的に記憶する。
情報処理装置1は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有するマイクロコンピュータや各種の回路を含む。
情報処理装置1は、CPUがROMに記憶された情報処理プログラムを、RAMを作業領域として使用して実行することにより機能する取得部4と、画像処理部5と、出力部6と、生成部7と、マーク付与部8と、受付部9とを備える。
なお、情報処理装置1が備える取得部4、画像処理部5、出力部6、生成部7、マーク付与部8、および受付部9は、一部または全部がASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。
情報処理装置1が備える取得部4、画像処理部5、出力部6、生成部7、マーク付与部8、および受付部9は、それぞれ以下に説明する情報処理の作用を実現または実行する。なお、情報処理装置1の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
取得部4は、撮像部2から画像データを取得して、画像処理部5へ出力する。画像処理部5は、画像データに対して一般的な画像処理を行う。例えば、画像処理部5は、欠陥画素補正等の画像処理を行う。
画像処理部5は、画像処理後の画像データをメモリ3へ出力して記憶させる。また、画像処理部5は、画像処理後の画像データを出力部6へ出力する。出力部6は、例えば、セレクタであり、画像処理部5から入力される画像データIMGおよび後述する生成部7から入力されるメタデータMetaのいずれか一方または双方をアプリケーションプロセッサ(以下、「AP101」と記載する)へ出力する。
AP101は、アプリケーションプログラムを実行することにより、撮像部2によって撮像される画像に関する処理を実行する処理部である。AP101は、例えば、撮像装置100から入力される画像データIMGを液晶ディスプレイ等の表示部に表示させる処理を実行する。
また、AP101は、例えば、撮像装置100から入力される画像データIMGから被写体を認識する処理や被写体を認証する処理等を実行する。AP101は、画像データIMGから被写体の認識や認証を行う場合、例えば、DNN(Deep Neural Network)等の機械学習によって構築された機械学習モデルを使用する。
AP101は、DNNを使用して画像認識を行う場合、撮像装置100から入力される画像データIMGをR(赤)G(緑)B(青)の色信号や、Y(輝度信号)U(青色成分の差分信号)V(赤色成分の差分信号)等のデータフォーマットに変換して処理する。
この場合、撮像装置100およびAP101間のインターフェースやAP101側のメモリ帯域等に性能が制約される可能性がある。また、AP101は、画像データIMGから認識する被写体の認識精度を向上させるためには、非常に重い処理が必要であり情報処理量が膨大となる。
そこで、情報処理装置1が備える生成部7は、AP101を補助するメタデータMetaを生成して出力部6へ出力する。出力部6は、AP101が出力する情報に応じて、画像データIMGおよびメタデータMetaのいずれか一方または双方をAP101へ出力する。これにより、AP101は、情報処理量を低減することができる。なお、生成部7が生成するメタデータMetaの一例については、図2および図3を参照して後述する。
マーク付与部8は、撮像部2によって撮像される画像の出所を示す肉眼では認識不可能なウォーターマークを生成し、画像処理部5へ出力することによって、画像データIMGにウォーターマークを付与する。マーク付与部8は、例えば、撮像装置100の製造番号と、画像が撮像された日付および場所とが対応付けられたウォーターマークを画像に付与する。
これにより、撮像装置100のユーザは、例えば、撮像した画像が自身の目的以外の目的に不正に使用された場合、その画像に付与されたウォーターマークを所定の画像解析装置によって解析することにより、自身が撮像した画像か否かを確認することができる。
また、マーク付与部8は、撮像装置100が複数のユーザによって共用される場合、撮像した人を特定可能なウォーターマークを画像に付与する。例えば、マーク付与部8は、第1のユーザが撮像する場合には、画像が撮像された日付および場所に対して、撮像装置100の製造番号を対応付け、第2のユーザが撮像する場合には、撮像部2固有のチップナンバーを対応付ける。
また、マーク付与部8は、第3のユーザが撮像する場合には、メモリ3固有のチップナンバーを対応付け、第4のユーザが撮像する場合には、情報処理装置1固有のチップナンバーを対応つける。
これにより、撮像装置100の複数のユーザは、画像に付与されたウォーターマークを所定の画像解析装置によって解析することにより、自身が撮像した画像か否かを確認することができる。なお、マーク付与部8が画像に付与するウォーターマークの一例については、図5を参照して後述する。
受付部9は、AP101からの要求を受け付け、要求に応じた情報を生成部7または撮像部2へ出力する。生成部7は、受付部9によって受け付けられたAP101からの要求に応じたメタデータMetaを生成する。
例えば、受付部9は、例えば、AP101から、被写体の位置や被写体までの距離、被写体の属性等の情報提供要求がある場合には、AP101から要求される情報を含むメタデータMetaを生成部7によって生成させる。
また、受付部9は、AP101からAP101の用途(AP101が出力する情報の種類)に関する情報を受け付ける。そして、受付部9は、AP101から受け付けるAP101の用途に応じて、画像データIMGおよびメタデータMetaのいずれか一方または双方を出力部6からAP101へ出力させる。なお、情報処理装置1からAP101へ出力される情報については、図4A〜図4Cを参照して後述する。
また、受付部9は、AP101から撮像制御に関する要求を受け付ける場合、撮像制御に関する要求に応じた制御信号を撮像部2へ出力して、AP101から要求される撮像制御を行うように撮像部2を設定する。
例えば、AP101は、情報処理に高解像度の画像データIMGが不要な場合、撮像画像の解像度を低下させる要求を受付部9へ出力する。かかる場合、受付部9は、撮像画像の解像度を低下させるように撮像部2を設定する。
これにより、AP101は、出力部6から画素数が少ない低解像度の画像データIMGが入力されるので、画素数が多い高解像度の画像データIMGを処理する場合に比べて、処理負荷を低減することができる。
また、例えば、AP101は、R(赤)G(緑)B(青)の色信号のうち、情報処理にR(赤)B(青)の色信号が不要な場合、G(緑)の色信号のみの出力要求を受付部9へ出力する。かかる場合、受付部9は、G(緑)の色信号のみを出力させるように撮像部2を設定する。なお、AP101は、Y(輝度信号)等、G(緑)の色信号以外の信号の出力要求を出力する場合もある。かかる場合、受付部9は、AP101から出力要求される信号を出力させるように撮像部2を設定する。
これにより、AP101は、出力部6から受付部9は、G(緑)の色信号のみ入力されるので、R(赤)G(緑)B(青)の色信号の全てについて情報処理を行う場合に比べて、処理負荷を低減することができる。また、AP101は、撮像装置100からY(輝度信号)のみが入力される場合にも、同様に処理負荷を低減することができる。
また、例えば、AP101は、情報処理に高フレームレートの画像データIMGが不要な場合、フレームレートを低下させる要求を受付部9へ出力する。かかる場合、受付部9は、フレームレートを低下させるように撮像部2を設定する。
これにより、AP101は、所定時間内に入力される画像データIMGの数が減少するので、所定時間内に高フレームレートの画像が大量に入力される場合に比べて、処理負荷を低減することができる。
[2.メタデータの一例]
次に、図2および図3を参照し、生成部7が生成するメタデータMetaの一例について説明する。図2および図3は、本開示に係るメタデータの一例を示す説明図である。
図2に示すように、生成部7は、例えば、人201が撮像された画像データIMG1が入力される場合、画像データIMG1をDNNへ入力して、画像データIMG1の特徴を示す特徴量データを抽出し、特徴量データからメタデータMeta1を生成する。これにより、生成部7は、AP101を補助する正確なメタデータMeta1を生成することができる。
具体的には、生成部7は、特徴量データから画像における被写体(ここでは、人201)の位置を特定し、被写体の位置を示すメタデータMeta1を生成する。例えば、生成部7は、画像データIMG1のなかで、人201の顔の領域を囲む矩形枠Aの4隅の座標(X1,Y1)、(X2,Y2)、(X3,Y3)、(X4,Y4)をメタデータMeta1として生成して出力部6へ出力する。
出力部6は、例えば、AP101が画像データIMG1に含まれる人201の顔を認識する情報処理を行う場合、画像データIMG1およびメタデータMeta1をAP101へ出力する。これにより、AP101は、メタデータMeta1を使用することによって、画像データIMG1に含まれる人201の顔を認識する処理負荷を低減することができる。
具体的には、AP101は、メタデータMeta1を使用せずに、画像データIMG1から人201の顔を認識する場合、画像データIMG1に含まれる全画素をAP101内部のメモリに展開し、全画素の情報をDNNへ入力して情報処理を行う必要がある。
これに対して、AP101は、メタデータMeta1を使用する場合、画像データIMG1における人201の顔の領域を囲む矩形枠A内の画素に限ってAP101内部のメモリに展開し、矩形枠A内の画素の情報をDNNへ入力して人201の顔を認識する。これにより、AP101は、メタデータMeta1を使用しない場合に比べて、情報処理量が少なくなるので、処理負荷を低減することができる。
また、図3に示すように、生成部7は、例えば、近くに男の人202と自転車203とが写り、遠くに女の人204と建物205とが写る画像データIMG2が入力される場合、メタデータMeta2を生成する。
例えば、生成部7は、画像データIMG2に含まれる被写体の情報として、近くの男性、近くの自転車、遠くの女性、および遠くの建物という情報を含むメタデータMeta2を生成して出力部6へ出力する。なお、生成部7は、人202,204、自転車203、および建物205までの各距離と各方位とを示す情報を含むメタデータMeta2を生成して出力部6へ出力することもできる。
このように、生成部7は、被写体の位置を示す情報、被写体の属性を示す情報、および被写体までの距離を示す情報を含むメタデータMeta2を生成して出力部6へ出力する。これにより、AP101は、例えば、車両に搭載されて障害物を検知する情報処理を行う場合に、メタデータMeta2を使用することにより、遠くの人204および遠くの建物205を検知対象から除外することで、処理負荷を低減することができる。
また、AP101は、例えば、画像データIMG2から読み取れる情報を出力する場合、メタデータMeta2を使用することにより、被写体の属性を判別する処理を行うことなく、画像に写る男性および女性の人数等を出力することができる。
[3.情報処理装置からAPへ出力される情報]
次に、図4A〜図4Cを参照し、撮像装置100からAP101へ出力される情報について説明する。図4A〜図4C本開示に係る情報処理装置からAPへ出力される情報の説明図である。
情報処理装置1は、AP101の用途(AP101が出力する情報の種類)に応じて、画像データIMGおよびメタデータMetaのいずれか一方または双方をAP101へ出力する。例えば、図4Aに示すように、情報処理装置1は、AP101が鑑賞に使われる美しい画像の出力を要求される場合、AP101へメタデータMetaを出力せずに、画像データIMGを出力する。
また、図4Bに示すように、情報処理装置1は、AP101が画像および画像中の情報の出力を要求される場合、AP101へ画像データIMGおよびメタデータMetaを出力する。
例えば、AP101は、文字が書かれたホワイトボードの画像と、ホワイトボードに書かれた文字情報の出力を要求される場合がある。かかる場合、情報処理装置1はホワイトボードが撮像された画像データIMGと、画像データIMG中のホワイトボードにおける文字情報が書かれた位置を示すメタ情報とをAP101へ出力する。
これにより、AP101は、ホワイトボードが撮像された画像と、画像データIMG中のホワイトボードにおける文字情報が書かれた位置を選択的に画像認識して取得した文字情報とを出力することができる。
また、図4Cに示すように、情報処理装置1は、AP101がAP101の判定結果の出力を要求される場合、つまり、画像の出力が不要な場合には、AP101へ画像データIMGを出力せずに、メタデータMetaを出力する。
例えば、情報処理装置1は、例えば、AP101が画像に写る人数の判定結果の出力を要求される場合、画像中の被写体の属性および位置を示すメタデータMetaをAP101へ出力する。これにより、AP101は、情報処理装置1から画像データIMGが入力されなくても、メタデータMetaから画像に写る人数を判定し、判定結果を出力することができる。
[4.ウォーターマークの一例]
次に、図5を参照し、マーク付与部8が画像データIMGへ付与するウォーターマークの一例について説明する。図5は、本開示に係るウォーターマークの一例を示す説明図である。
図5に示すように、マーク付与部8は、例えば、人の顔が撮像された画像の画像データIMG3をメモリ3から読み出した場合、画像データIMG3から画像のエッジを検出する。その後、マーク付与部8は、エッジを構成する色の濃淡が不規則な複数の画素を検出する。
図5に示す例では、マーク付与部8は、エッジを構成する色の濃淡が不規則な複数の画素として、人の毛の髪の部分と、人の頬のラインの部分とを検出する。そして、マーク付与部8は、検出した色の濃淡が不規則な複数の画素を、色の濃淡が肉眼では識別不可能な規則的関係となる複数の画素P1,P2に置き換えることによって、画像データIMG3にウォーターマークWMを付与する。
図5に白丸で示す画素Paは、輝度値を示す値の下一桁の数値が偶数となっている。また、図5に白四角で示す画素Pbは、輝度値を示す値の下一桁の数値が奇数となっている。このように、マーク付与部8が付与するウォーターマークWMは、輝度値を示す値の下一桁の数値が規則的に交互に偶数と奇数とが繰り返す画素列になっている。
かかるウォーターマークWMは、厳密には元の画像データIMG3とは局所的に色の濃淡が異なるが、輝度値を示す値の下一桁の数値を変更した程度では、肉眼によって認識されることはない。これにより、マーク付与部8は、肉眼では認識不可能なウォーターマークWMを画像データIMG3に付与することができる。
また、マーク付与部8は、例えば、人等の主たる被写体の部分にウォーターマークWMを付与する。これにより、撮像装置100のユーザは、例えば、撮像した画像における主たる被写体の部分が不正に切り取られて別の画像に合成された場合であっても、ウォーターマークWMを解析することによって、画像の出所を確認することができる。
また、マーク付与部8は、画像全体にウォーターマークWMを付与することもできる。これにより、撮像装置100のユーザは、撮像した画像の一部でも自身の意思に反して加工された場合に、ウォーターマークWMを解析することによって、画像の出所を確認することができる。
また、マーク付与部8は、例えば、画像における被写体の原型が肉眼で認識不可能となるまで加工が施される場合に消滅するウォーターマークWMを生成して画像データに付与することもできる。これにより、マーク付与部8は、原型が肉眼で認識不可能となるまで加工が施された画像の出所がウォーターマークWMの解析によって特定されることを防止することができる。
[5.情報処理装置が実行する処理]
次に、図6および図7を参照し、実施形態に係る情報処理装置が実行する処理について説明する。図6および図7は、本開示に係る情報処理装置が実行する処理の一例を示すフローチャートである。
情報処理装置1は、撮像部2によって画像が撮像される場合に、図6および図7に示す処理を実行する。具体液には、図6に示すように、取得部4は、撮像部2によって画像が撮像されると、まず、撮像部2から画像データを取得する(ステップS101)。
続いて、受付部9は、AP101からメタデータに関する要求があるか否かを判定する(ステップS102)。受付部9は、AP101からメタデータに関する要求があると判定した場合(ステップS102,Yes)、生成部7によってAP101から要求されるメタデータを生成させ(ステップS103)、処理をステップS107へ移す。
また、受付部9は、AP101からメタデータに関する要求がないと判定した場合(ステップS102,No)、AP101から撮像制御に関する要求があるか否かを判定する(ステップS104)。
受付部9は、AP101から撮像制御に関する要求があると判定した場合(ステップS104,Yes)、AP101から要求される撮像制御を撮像部2に設定して(ステップS105)、処理をステップS107へ移す。
また、受付部9は、AP101から撮像制御に関する要求がないと判定した場合(ステップS104,No)、画像データから所定のメタデータを生成し(ステップS106)、処理をステップS107へ移す。
ステップS107において、マーク付与部8は、ウォーターマーク付与処理を行い、処理をステップS108へ移す。ウォーターマーク付与処理の一例については、図7を参照して後述する。
ステップS108において、受付部9は、AP101の出力が画像および画像中の情報か否かを判定し、画像および画像中の情報であると判定した場合(ステップS108,Yes)、出力部6によって、画像データとメタデータとをAP101へ出力させ、処理を終了する。
また、受付部9は、AP101の出力が画像および画像中の情報でないと判定した場合(ステップS108,No)、AP101の出力がAP101による判定結果か否かを判定する(ステップS110)。
受付部9は、AP101の出力がAP101による判定結果であると判定した場合(ステップS110,Yes)、出力部6によってメタデータをAP101へ出力させ、処理を終了する。
また、受付部9は、AP101の出力がAP101による判定結果でないと判定した場合(ステップS110,No)、出力部6によって画像データをAP101へ出力させ、処理を終了する。
次に、図7を参照し、マーク付与部8がステップS107で行うウォーターマーク付与処理の一例について説明する。図7に示すように、マーク付与部8は、まず、画像における被写体のエッジを検出する(ステップS201)。
続いて、マーク付与部8は、エッジにおける色の濃淡の不規則性を判定する(ステップS202)。その後、マーク付与部8は、色の濃淡が規則的となるウォーターマークを生成する(ステップS203)。
そして、マーク付与部8は、色の濃淡が不規則な画素をウォーターマークに置換えることによって、画像データにウォーターマークを付与し(ステップS204)、ウォーターマーク付与処理を終了する。
[6.移動体への応用例]
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図8は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図8に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図8の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図9は、撮像部12031の設置位置の例を示す図である。
図9では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図9には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031等に適用され得る。例えば、図1の撮像装置100は、撮像部12031に適用することができる。等。撮像部12031に本開示に係る技術を適用することにより、車外情報検出ユニット12030による車外情報の検出処理に要する処理負荷を低減することができる。
[7.効果]
情報処理装置1は、取得部4と、生成部7と、出力部6とを有する。取得部4は、画像を撮像して画像データを生成する撮像部2から画像データを取得する。生成部7は、取得部4によって取得される画像データから、画像に関する処理を実行するAP101を補助するメタデータMetaを生成する。出力部6は、生成部7によって生成されるメタデータMetaをAP101へ出力する。これにより、情報処理装置1は、入力画像から被写体を認識するAP101の情報処理量を低減することができる。
また、生成部7は、機械学習モデルを使用して画像データから画像の特徴を示す特徴データを抽出し、特徴データからメタデータMetaを生成する。これにより、生成部7は、AP101を補助する正確なメタデータMeta1を生成することができる。
また、生成部7は、画像における被写体の位置を示すメタデータMeta1を生成する。これにより、AP101は、被写体の認識処理を行う場合に、メタデータMeta1を使用することにより、画像における被写体が写る領域について選択的に認識処理を行うことで処理負荷を低減しつつ被写体を認識することができる。
また、生成部7は、画像の被写体の属性を示すメタデータMeta2を生成する。これにより、AP101は、例えば、被写体の認識処理を行う場合に、メタデータMeta2を使用することにより、被写体の属性を判定する処理を省略することができるので、処理負荷を低減することができる。
また、生成部7は、画像の被写体までの距離を示すメタデータMeta2を生成する。これにより、AP101は、例えば、車両に搭載されて障害物を検知する情報処理を行う場合に、メタデータMeta2を使用することにより、遠くの被写体を検知対象から除外することで、処理負荷を低減することができる。
また、情報処理装置1は、AP101からの要求を受け付ける受付部9をさらに備える。生成部7は、受付部9によって受け付けられる要求に応じたメタデータMetaを生成する。これにより、情報処理装置1は、AP101が行う情報処理において、より有用なメタデータMetaをAP101へ出力することがきる。
また、受付部9は、画像を撮像して画像データを生成する撮像部2へ、AP101から受け付ける撮像制御に関する要求に応じた制御信号を出力する。これにより、情報処理装置1は、例えば、AP101が行う情報処理において、必要最小限の情報量の画像データIMGをAP101へ出力することができる。
また、情報処理装置1は、画像の出所を示す肉眼では認識不可能なウォーターマークWM1,WM2を生成して、画像データに付与するマーク付与部8をさらに備える。これにより、情報処理装置1は、画像の見栄えを損なうことなく、画像データIMG3にウォーターマークWMを付与することができる。
また、マーク付与部8は、画像における被写体のエッジを検出し、エッジを構成する色の濃淡が不規則な複数の画素を、色の濃淡が肉眼では識別不可能な規則的関係となる複数の画素に置き換えることによって、画像データにウォーターマークWMを付与する。これにより、これにより、肉眼では認識不可能なウォーターマークWMを画像データIMG3に付与することができる。
また、マーク付与部8は、画像全体にウォーターマークWMを付与する。これにより、撮像装置100のユーザは、撮像した画像の一部でも自身の意思に反して加工された場合に、ウォーターマークWMを解析することによって、画像の出所を確認することができる。
また、マーク付与部8は、画像における主たる被写体の部分にウォーターマークWMを付与する。これにより、撮像装置100のユーザは、例えば、撮像した画像における主たる被写体の部分が不正に切り取られて別の画像に合成された場合であっても、ウォーターマークWMを解析することによって、画像の出所を確認することができる。
また、マーク付与部8は、画像における被写体の原型が肉眼で認識不可能となるまで加工が施される場合に消滅するウォーターマークWMを生成する。これにより、情報処理装置1は、原型が肉眼で認識不可能となるまで加工が施された画像の出所がウォーターマークの解析によって特定されることを防止することができる。
また、情報処理方法は、コンピュータが、画像を撮像して画像データを生成する撮像部2から画像データを取得することと、画像データから、画像に関する処理を実行するアプリケーションプロセッサを補助するメタデータMetaを生成することと、メタデータMetaをAP101へ出力することと、を含む。これにより、本開示に係る情報処理方法によれば、入力画像から被写体を認識するAP101の情報処理量を低減することができる。
また、情報処理プログラムは、コンピュータを、取得部4と、生成部7と、出力部6として機能させる。取得部4は、画像を撮像して画像データを生成する撮像部2から画像データを取得する。生成部7は、取得部4によって取得される画像データから、画像に関する処理を実行するAP101を補助するメタデータMetaを生成する。出力部6は、生成部7によって生成されるメタデータMetaをAP101へ出力する。これにより、本開示に係る情報処理プログラムによれば、入力画像から被写体を認識するAP101の情報処理量を低減することができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
画像を撮像して画像データを生成する撮像部から前記画像データを取得する取得部と、
前記取得部によって取得される前記画像データから、前記画像に関する処理を実行するアプリケーションプロセッサを補助するメタデータを生成する生成部と、
前記生成部によって生成される前記メタデータを前記アプリケーションプロセッサへ出力する出力部と、
を有する情報処理装置。
(2)
前記生成部は、
機械学習モデルを使用して前記画像データから前記画像の特徴を示す特徴データを抽出し、前記特徴データから前記メタデータを生成する
前記(1)に記載の情報処理装置。
(3)
前記生成部は、
前記画像における被写体の位置を示す前記メタデータを生成する
前記(1)または(2)に記載の情報処理装置。
(4)
前記生成部は、
前記画像の被写体の属性を示す前記メタデータを生成する
前記(1)〜(3)のいずれか一つに記載の情報処理装置。
(5)
前記生成部は、
前記画像の被写体までの距離を示す前記メタデータを生成する
前記(1)〜(4)のいずれか一つに記載の情報処理装置。
(6)
前記アプリケーションプロセッサからの要求を受け付ける受付部
をさらに備え、
前記生成部は、
前記受付部によって受け付けられる要求に応じたメタデータを生成する
前記(1)〜(5)のいずれか一つに記載の情報処理装置。
(7)
前記受付部は、
前記画像を撮像して前記画像データを生成する撮像部へ、前記アプリケーションプロセッサから受け付ける撮像制御に関する要求に応じた制御信号を出力する
前記(6)に記載の情報処理装置。
(8)
前記画像の出所を示す肉眼では認識不可能なウォーターマークを生成して、前記画像データに付与するマーク付与部
をさらに備える前記(1)〜(7)のいずれか一つに記載の情報処理装置。
(9)
前記マーク付与部は、
前記画像における被写体のエッジを検出し、前記エッジを構成する色の濃淡が不規則な複数の画素を、色の濃淡が肉眼では識別不可能な規則的関係となる複数の画素に置き換えることによって、前記画像データに前記ウォーターマークを付与する
前記(8)に記載の情報処理装置。
(10)
前記マーク付与部は、
前記画像全体に前記ウォーターマークを付与する
前記(8)または(9)に記載の情報処理装置。
(11)
前記マーク付与部は、
前記画像における主たる被写体の部分に前記ウォーターマークを付与する
前記(8)〜(10)のいずれか一つに記載の情報処理装置。
(12)
前記マーク付与部は、
前記画像における被写体の原型が肉眼で認識不可能となるまで加工が施される場合に消滅する前記ウォーターマークを生成する
前記(8)〜(11)のいずれか一つに記載の情報処理装置。
(13)
コンピュータが、
画像を撮像して画像データを生成する撮像部から前記画像データを取得することと、
前記画像データから、前記画像に関する処理を実行するアプリケーションプロセッサを補助するメタデータを生成することと、
前記メタデータを前記アプリケーションプロセッサへ出力することと、
を含む情報処理方法。
(14)
コンピュータを、
画像を撮像して画像データを生成する撮像部から前記画像データを取得する取得部と、
前記取得部によって取得される前記画像データから、前記画像に関する処理を実行するアプリケーションプロセッサを補助するメタデータを生成する生成部と、
前記生成部によって生成される前記メタデータを前記アプリケーションプロセッサへ出力する出力部と
として機能させるための情報処理プログラム。
1 情報処理装置
2 撮像部
3 メモリ
4 取得部
5 画像処理部
6 出力部
7 生成部
8 マーク付与部
9 受付部
100 撮像装置
101 AP

Claims (14)

  1. 画像を撮像して画像データを生成する撮像部から前記画像データを取得する取得部と、
    前記取得部によって取得される前記画像データから、前記画像に関する処理を実行するアプリケーションプロセッサを補助するメタデータを生成する生成部と、
    前記生成部によって生成される前記メタデータを前記アプリケーションプロセッサへ出力する出力部と、
    を有する情報処理装置。
  2. 前記生成部は、
    機械学習モデルを使用して前記画像データから前記画像の特徴を示す特徴データを抽出し、前記特徴データから前記メタデータを生成する
    請求項1に記載の情報処理装置。
  3. 前記生成部は、
    前記画像における被写体の位置を示す前記メタデータを生成する
    請求項1に記載の情報処理装置。
  4. 前記生成部は、
    前記画像の被写体の属性を示す前記メタデータを生成する
    請求項1に記載の情報処理装置。
  5. 前記生成部は、
    前記画像の被写体までの距離を示す前記メタデータを生成する
    請求項1に記載の情報処理装置。
  6. 前記アプリケーションプロセッサからの要求を受け付ける受付部
    をさらに備え、
    前記生成部は、
    前記受付部によって受け付けられる要求に応じた前記メタデータを生成する
    請求項1に記載の情報処理装置。
  7. 前記受付部は、
    前記画像を撮像して前記画像データを生成する撮像部へ、前記アプリケーションプロセッサから受け付ける撮像制御に関する要求に応じた制御信号を出力する
    請求項6に記載の情報処理装置。
  8. 前記画像の出所を示す肉眼では認識不可能なウォーターマークを生成して、前記画像データに付与するマーク付与部
    をさらに備える請求項1に記載の情報処理装置。
  9. 前記マーク付与部は、
    前記画像における被写体のエッジを検出し、前記エッジを構成する色の濃淡が不規則な複数の画素を、色の濃淡が肉眼では識別不可能な規則的関係となる複数の画素に置き換えることによって、前記画像データに前記ウォーターマークを付与する
    請求項8に記載の情報処理装置。
  10. 前記マーク付与部は、
    前記画像全体に前記ウォーターマークを付与する
    請求項8に記載の情報処理装置。
  11. 前記マーク付与部は、
    前記画像における主たる被写体の部分に前記ウォーターマークを付与する
    請求項8に記載の情報処理装置。
  12. 前記マーク付与部は、
    前記画像における被写体の原型が肉眼で認識不可能となるまで加工が施される場合に消滅する前記ウォーターマークを生成する
    請求項8に記載の情報処理装置。
  13. コンピュータが、
    画像を撮像して画像データを生成する撮像部から前記画像データを取得することと、
    前記画像データから、前記画像に関する処理を実行するアプリケーションプロセッサを補助するメタデータを生成することと、
    前記メタデータを前記アプリケーションプロセッサへ出力することと、
    を含む情報処理方法。
  14. コンピュータを、
    画像を撮像して画像データを生成する撮像部から前記画像データを取得する取得部と、
    前記取得部によって取得される前記画像データから、前記画像に関する処理を実行するアプリケーションプロセッサを補助するメタデータを生成する生成部と、
    前記生成部によって生成される前記メタデータを前記アプリケーションプロセッサへ出力する出力部と
    として機能させるための情報処理プログラム。
JP2019148676A 2019-08-13 2019-08-13 情報処理装置、情報処理方法、および情報処理プログラム Pending JP2021033334A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019148676A JP2021033334A (ja) 2019-08-13 2019-08-13 情報処理装置、情報処理方法、および情報処理プログラム
DE112020003840.8T DE112020003840T5 (de) 2019-08-13 2020-07-09 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, und informationsverarbeitungsprogramm
US17/631,555 US20220351505A1 (en) 2019-08-13 2020-07-09 Information processing device, information processing method, and information processing program
PCT/JP2020/026784 WO2021029167A1 (ja) 2019-08-13 2020-07-09 情報処理装置、情報処理方法、および情報処理プログラム
CN202080055198.7A CN114175110A (zh) 2019-08-13 2020-07-09 信息处理设备、信息处理方法及信息处理程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019148676A JP2021033334A (ja) 2019-08-13 2019-08-13 情報処理装置、情報処理方法、および情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2021033334A true JP2021033334A (ja) 2021-03-01

Family

ID=74571086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019148676A Pending JP2021033334A (ja) 2019-08-13 2019-08-13 情報処理装置、情報処理方法、および情報処理プログラム

Country Status (5)

Country Link
US (1) US20220351505A1 (ja)
JP (1) JP2021033334A (ja)
CN (1) CN114175110A (ja)
DE (1) DE112020003840T5 (ja)
WO (1) WO2021029167A1 (ja)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3269470B2 (ja) * 1998-11-20 2002-03-25 村田機械株式会社 画像撮像装置
JP2002359805A (ja) * 2001-05-31 2002-12-13 Sony Corp 電子透かし埋め込み処理装置、および電子透かし埋め込み処理方法、並びにプログラム
JP2004112650A (ja) * 2002-09-20 2004-04-08 Fuji Photo Film Co Ltd 画像処理方法及び画像表示装置、画像編集装置
JP4933292B2 (ja) * 2006-02-28 2012-05-16 キヤノン株式会社 情報処理装置、無線通信方法、記憶媒体、プログラム
JP5344238B2 (ja) * 2009-07-31 2013-11-20 ソニー株式会社 画像符号化装置および方法、記録媒体、並びにプログラム
JP6039942B2 (ja) * 2012-07-09 2016-12-07 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
JP2015002423A (ja) * 2013-06-14 2015-01-05 ソニー株式会社 画像処理装置、サーバ及び記憶媒体
CN109219801A (zh) * 2016-03-24 2019-01-15 苏蓓拉·阿兰德 为个体提供实时或即时的在线帮助以帮助他们实现个性化健康目标
JP7023613B2 (ja) 2017-05-11 2022-02-22 キヤノン株式会社 画像認識装置および学習装置
US11019407B2 (en) * 2019-08-27 2021-05-25 Synamedia Limited Systems and methods for providing watermarked content

Also Published As

Publication number Publication date
CN114175110A (zh) 2022-03-11
US20220351505A1 (en) 2022-11-03
DE112020003840T5 (de) 2022-05-05
WO2021029167A1 (ja) 2021-02-18

Similar Documents

Publication Publication Date Title
US11606516B2 (en) Image processing device, image processing method, and image processing system
JP2022111151A (ja) 撮像装置及び撮像装置の制御方法
EP3968273A1 (en) Image recognition device, solid-state imaging device, and image recognition method
WO2020230636A1 (ja) 画像認識装置および画像認識方法
WO2021085128A1 (ja) 測距装置、測定方法、および、測距システム
JP7020434B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2017175492A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び電子機器
WO2017195459A1 (ja) 撮像装置、および撮像方法
CN114868148A (zh) 信息处理装置、信息处理系统、信息处理程序及信息处理方法
WO2021065494A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
WO2020209079A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
WO2020246264A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
WO2021029167A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US20220224830A1 (en) Imaging device and imaging method
WO2021065500A1 (ja) 測距センサ、信号処理方法、および、測距モジュール
US20230093035A1 (en) Information processing device and information processing method
WO2020039837A1 (ja) 画像処理装置
CN109076168B (zh) 控制装置、控制方法和计算机可读介质
WO2021192682A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2022249562A1 (ja) 信号処理装置および方法、並びにプログラム
WO2022004413A1 (ja) 情報処理装置、情報処理方法、並びにプログラム
WO2022219874A1 (ja) 信号処理装置および方法、並びにプログラム
WO2021192714A1 (ja) レンダリングシステム及び自動運転検証システム
WO2020137503A1 (ja) 画像処理装置