JP2024000797A - 情報処理装置、情報処理方法、および情報処理プログラム - Google Patents

情報処理装置、情報処理方法、および情報処理プログラム Download PDF

Info

Publication number
JP2024000797A
JP2024000797A JP2022099709A JP2022099709A JP2024000797A JP 2024000797 A JP2024000797 A JP 2024000797A JP 2022099709 A JP2022099709 A JP 2022099709A JP 2022099709 A JP2022099709 A JP 2022099709A JP 2024000797 A JP2024000797 A JP 2024000797A
Authority
JP
Japan
Prior art keywords
area
specific target
image
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022099709A
Other languages
English (en)
Inventor
洋次郎 登内
Yojiro Touchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2022099709A priority Critical patent/JP2024000797A/ja
Priority to US18/170,803 priority patent/US20230410347A1/en
Priority to CN202310165660.4A priority patent/CN117278835A/zh
Publication of JP2024000797A publication Critical patent/JP2024000797A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】特定対象の撮影を支援する。【解決手段】本実施形態の情報処理装置10は、特定対象領域検出部20Bと、写込領域検出部20Cと、判定部20Dと、を備える。特定対象領域検出部20Bは、撮影画像から特定対象の特定対象領域を検出する。写込領域検出部20Cは、撮影画像から特定対象の写込領域を検出する。判定部20Dは、特定対象領域および写込領域に基づいて特定対象の非写込領域を判定する。【選択図】図1

Description

本発明の実施形態は、情報処理装置、情報処理方法、および情報処理プログラムに関する。
撮影画像に含まれる被写体を検出する技術が開示されている。例えば、撮影画像に含まれる被写体のパーツを検出し、被写体を構成する複数パーツの内の未検出のパーツの有無を判別する技術が開示されている。
しかしながら、従来技術では、単に未検出のパーツの有無を判別するのみであり、被写体の特定のパーツ等の特定対象領域の全体が写り込むように撮影の支援を行うことは困難であった。
国際公開第2020/217812号公報
本発明は、上記に鑑みてなされたものであって、特定対象の撮影を支援することができる、情報処理装置、情報処理方法、および情報処理プログラムを提供することを目的とする。
実施形態の情報処理装置は、特定対象領域検出部と、写込領域検出部と、判定部と、を備える。特定対象領域検出部は、撮影画像から特定対象の特定対象領域を検出する。写込領域検出部は、前記撮影画像から前記特定対象の写込領域を検出する。判定部20Dは、前記特定対象領域および前記写込領域に基づいて前記特定対象の非写込領域を判定する。
情報処理システムの構成を示すブロック図。 特定対象領域の検出の説明図。 特定対象領域の検出の説明図。 特定対象領域の検出の説明図。 写込領域の検出の説明図。 写込領域の検出の説明図。 写込領域の検出の説明図。 隠れ領域の判定の説明図。 見切領域の判定の説明図。 表示画面の一例の模式図。 情報処理の流れを示すフローチャート。 ハードウェア構成図。
以下に添付図面を参照して、情報処理装置、情報処理方法、および情報処理プログラムを詳細に説明する。
図1は、本実施形態の情報処理システム1の構成の一例を示すブロック図である。
情報処理システム1は、情報処理装置10を備える。
情報処理装置10は、特定対象の撮影を支援するための情報処理装置である。特定対象の詳細は後述する。
情報処理装置10は、撮影部12と、記憶部14と、通信部16と、UI(ユーザ・インタフェース)部18と、制御部20と、を備える。撮影部12、記憶部14、通信部16、UI部18、および制御部20は、バス19等を介して通信可能に接続されている。
撮影部12は、撮影によって撮影画像データを取得する。以下では、撮影画像データを、撮影画像と称して説明する。記憶部14は、各種の情報を記憶する。
通信部16は、情報処理装置10の外部の情報処理装置と通信するめの通信インターフェースである。例えば、通信部16は、Ethernet(登録商標)等の有線ネットワーク、Wi-Fi(Wireless Fidelity)またはBluetooth(登録商標)等の無線ネットワーク、等により外部の情報処理装置や電子機器と通信する。
UI部18は、出力部18Aおよび入力部18Bを含む。
出力部18Aは、各種の情報を出力する。出力部18Aは、例えば、ディスプレイである表示部、スピーカ、投影装置等である。入力部18Bは、ユーザによる操作指示を受付ける。入力部18Bは、例えば、マウスおよびタッチパッドなどのポインティングデバイス、キーボード、等である。UI部18は、出力部18Aと入力部18Bとを一体的に構成したタッチパネルであってもよい。
制御部20は、情報処理装置10において情報処理を実行する。制御部20は、取得部20Aと、特定対象領域検出部20Bと、写込領域検出部20Cと、判定部20Dと、特定部20Eと、出力制御部20Fと、を備える。
取得部20A、特定対象領域検出部20B、写込領域検出部20C、判定部20D、特定部20E、および出力制御部20Fは、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のICなどのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
なお、制御部20含まれる上記各部の内に少なくとも1つを、ネットワーク等を介して情報処理装置10に通信可能に接続された外部の情報処理装置に搭載した構成としてもよい。また、記憶部14に記憶される各種の情報の内の少なくとも1つを、ネットワーク等を介して情報処理装置10に通信可能に接続された外部の記憶装置に記憶してもよい。また、撮影部12、記憶部14、およびUI部18の少なくとも一つを、情報処理装置10に対して通信可能に接続された外部の情報処理装置に搭載した構成としてもよい。この場合、外部に搭載した構成要素と情報処理装置10とを含むシステムを、情報処理システム1として構成すればよい。
取得部20Aは、処理対象の撮影画像を取得する。例えば、取得部20Aは、撮影部12で撮影された撮影画像を該撮影部12から取得する。取得部20Aは、記憶部14から撮影画像を取得してもよい。また、取得部20Aは、通信部16およびネットワークを介して情報処理装置10に接続された外部の情報処理装置から撮影画像を取得してもよい。
特定対象領域検出部20Bは、撮影画像から特定対象の特定対象領域を検出する。特定対象領域検出部20Bは、取得部20Aで取得した撮影画像から特定対象領域を検出する。特定対象領域を検出する、とは、撮影画像に対する、特定対象領域の位置、大きさ、および範囲を検出することを意味する。
特定対象とは、対象に含まれる特定の要素を意味する。
対象とは、撮影支援対象の被写体である。対象は、生物および非生物の何れであってもよい。生物は、例えば、人物、植物、犬などの動物、細胞、などである。非生物は、橋梁や建物などの建造物、自動車等の移動体、非移動体、などである。本実施形態では、対象が人物である形態を一例として説明する。
特定対象は、対象の少なくとも一部の要素である。対象が人物である場合、特定対象は、例えば、人物の一部分であってもよく、人物の全身であってもよい。具体的には、対象が人物である場合、特定対象は、人物の頭部、上半身、下半身、脚部、全身、などの何れであってもよい。また、対象が橋梁である場合、特定対象は、例えば、橋梁全体、橋梁の一部を構成する橋脚部分、などである。特定対象は、撮影支援の適用対象などに応じて予め定めればよい。また、特定対象は、ユーザによる入力部18Bの操作指示などによって適宜変更可能としてもよい。本実施形態では、特定対象が、人物の全身である形態を一例として説明する。
特定対象領域は、特定対象の、撮影画像に写り込んだ領域および撮影画像に写り込んでいない領域の全てを含む領域である。詳細には、特定対象領域は、撮影画像の撮影範囲を拡大した仮想拡大領域に含まれる、特定対象の全体を含む領域である。
対象が人物であり、特定対象が人物の全身である場合を想定する。また、人物の全身の内の一部分が撮影画像から見切れた状態となっており、且つ、撮影画像内において人物の全身の内の一部分が他の物体等によって隠れた状態となっている場合を想定する。この場合、特定対象領域は、人物の全身の内の見切領域および隠れ領域の双方を含む該人物の全身を含む領域である。
特定対象領域は、特定対象を含む領域であればよく、その形状は限定されない。例えば、特定対象領域は、特定対象の外形に沿った枠線内の領域、特定対象を囲む予め定めた形状の枠線内の領域、などである。特定対象を囲む枠線の形状は限定されない。例えば、特定対象領域を表す枠線の形状は、多角形状、矩形状、楕円状、円状、等の何れであってもよい。
なお、特定対象領域は、特定対象の少なくとも一部に外接する枠線によって囲まれた領域であることが好ましい。例えば、特定対象領域は、撮影画像に含まれる人物の外形に少なくとも一部が接する枠線によって囲まれた領域であることが好ましい。
本実施形態では、特定対象領域が、特定対象の一例である人物の全身を囲み、且つ撮影画像に含まれる人物の外形の少なくとも一部に外接する矩形状の枠線によって囲まれた矩形領域である形態を一例として説明する。すなわち、本実施形態では、特定対象領域を、撮影画像に対する位置、大きさ、および範囲を表す矩形状の枠線によって囲まれた矩形領域で表す形態を一例として説明する。
図2A~図2Cは、特定対象領域32の検出の一例の説明図である。
図2Aは、取得部20Aが撮影画像30Aを取得した場合の一例の説明図である。撮影画像30Aは、撮影画像30の一例である。
例えば、取得部20Aが、特定対象Pの一例である人物の全身の内、脚部分が遮蔽物Cによって隠された撮影画像30Aを取得した場面を想定する。この場合、特定対象領域検出部20Bは、特定対象Pの遮蔽物Cによる隠れ領域を含み且つ特定対象Pの一例である人物の全身を囲む矩形状の領域を、特定対象領域32Aとして撮影画像30Aから検出する。
図2Bは、取得部20Aが撮影画像30Bを取得した場合の一例の説明図である。撮影画像30Bは、撮影画像30の一例である。
例えば、取得部20Aが、特定対象Pの一例である人物の全身の内、脚部分が撮影画像30から見切れた撮影画像30Bを取得した場面を想定する。この場合、特定対象領域検出部20Bは、撮影画像30Bの撮影範囲を拡大した仮想拡大領域35に含まれる、撮影画像30Bから見切れた見切領域を含み且つ特定対象Pの一例である人物の全身を囲む矩形状の領域を、特定対象領域32Bとして撮影画像30Bから検出する。
図2Cは、取得部20Aが撮影画像30Cを取得した場合の一例の説明図である。撮影画像30Cは、撮影画像30の一例である。
例えば、取得部20Aが、特定対象Pの一例である人物の全身が撮影画像30C内に写り込み、且つ、人物の全身が遮蔽物Cなどによって隠されていない撮影画像30Cを取得した場面を想定する。この場合、特定対象領域検出部20Bは、特定対象Pの一例である人物の全身を囲む矩形状の領域を、特定対象領域32Cとして撮影画像30Cから検出する。
これらの処理によって、特定対象領域検出部20Bは、撮影画像30から、撮影画像30に対する位置、大きさ、および範囲を表す矩形状の枠線によって囲まれた矩形領域である特定対象領域32を検出する。
図1に戻り説明を続ける。
特定対象領域検出部20Bは、第1学習モデルを用いて撮影画像30から特定対象領域32を検出する。
特定対象領域32の検出に用いる第1学習モデルは、撮影画像30を入力とし、特定対象領域32を出力とするモデルである。第1学習モデルには、例えば、撮影画像30の分類結果である特定対象領域32として、特定対象Pの一例である人物の全身を囲む矩形領域を出力する機械学習モデルを用いればよい。
特定対象領域32の検出に用いる第1学習モデルは、予め学習し記憶部14に記憶すればよい。特定対象領域32の検出に用いる学習モデルには、例えば、CNN(Convolution Neural Network)、セマンティックセグメンテーション、SVM(サポートベクトルマシン)等の公知の機械学習方法を用いたモデルを用いればよい。
例えば、非特許文献1に示される機械学習方法を用いた学習モデルを想定する。非特許文献1には、学習用画像と正解矩形との複数のペアからなる学習データを用いて学習を行うことで、所望の矩形を出力する検出器を学習することが開示されている。また、一般的な物体検出処理では、学習用画像からはみ出した領域を含む矩形領域を出力矩形として検出した場合、該出力矩形から該はみ出した領域をクリッピングした上で、検出結果を表す出力矩形として出力することが行われている。このため、本実施形態では、該クリッピング処理を行わないように更に学習することで、撮影画像30から本実施形態の特定対象領域32を検出する第1学習モデルを予め学習すればよい。
非特許文献1:Ren, Shaoqing, Kaiming He, Ross Girshick, and Jian Sun. "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks." Advances in Neural Information Processing Systems . Vol. 28, 2015.
特定対象領域検出部20Bは、取得部20Aで取得した撮影画像30を特定対象領域32の検出に用いる第1学習モデルへ入力することで、第1学習モデルからの出力として特定対象領域32を検出する。すなわち、特定対象領域検出部20Bは、撮影画像30を第1学習モデルへ入力することで、該撮影画像30に対する位置、大きさ、および範囲を表す矩形領域の情報を、特定対象領域32として検出する。
写込領域検出部20Cは、撮影画像30から特定対象Pの写込領域を検出する。写込領域検出部20Cは、取得部20Aで取得した撮影画像30から写込領域を検出する。写込領域を検出する、とは、撮影画像30に対する、写込領域の位置、大きさ、および範囲を検出することを意味する。
写込領域とは、特定対象Pにおける撮影画像30に写り込んだ領域を表す。詳細には、写込領域は、特定対象Pにおける、撮影画像30において遮蔽物Cなどによって隠されていない領域、すなわち撮影画像30に像として写り込んだ領域を表す。
写込領域は、特定対象Pの撮影画像30に写り込んだ領域であればよく、その形状は限定されない。例えば、写込領域は、特定対象Pの撮影画像30に写り込んだ部分の外形に沿った枠線内の領域、特定対象Pの撮影画像30に写り込んだ部分を囲む予め定めた形状の枠線内の領域、などである。特定対象Pの撮影画像30に写り込んだ部分を囲む枠線の形状は限定されない。例えば、写込領域を表す枠線の形状は、多角形状、矩形状、楕円状、円状、等の何れであってもよい。
また、写込領域を表す枠線の形状は、特定対象領域32を表す枠線の形状と同じ形状であってもよく、異なる形状であってもよい。本実施形態では、写込領域が特定対象Pにおける撮影画像30に写り込んだ領域を囲む矩形状の枠線によって囲まれた領域である形態を一例として説明する。すなわち、本実施形態では、写込領域を、撮影画像30に対する位置、大きさ、および範囲を表す矩形状の枠線によって囲まれた矩形領域で表す形態を一例として説明する。
本実施形態では、写込領域および特定対象領域32を表す枠線の形状が、矩形状である形態を一例として説明する。なお、写込領域および特定対象領域32を表す矩形状の枠線の形状は、撮影画像30に写り込む特定対象Pに応じて、アスペクト比およびサイズの少なくとも一方が異なるものとなる場合があることはいうまでもない。
図3A~図3Cは、写込領域34の検出の一例の説明図である。
図3Aは、取得部20Aが撮影画像30Aを取得した場合の一例の説明図である。図3Aおよび図2Aに示す撮影画像30Aは同じ撮影画像30の一例である。
例えば、取得部20Aが撮影画像30Aを取得した場面を想定する。この場合、写込領域検出部20Cは、特定対象Pの一例である人物の全身の内、撮影画像30に写り込んだ領域、すなわち、撮影画像30A内において遮蔽物Cに隠されていない領域を囲む矩形状の領域を、写込領域34Aとして撮影画像30Aから検出する。
図3Bは、取得部20Aが撮影画像30Bを取得した場合の一例の説明図である。図3Bおよび図2Bに示す撮影画像30Bは同じ撮影画像30の一例である。
例えば、取得部20Aが撮影画像30Bを取得した場面を想定する。この場合、写込領域検出部20Cは、特定対象Pの一例である人物の全身の内、撮影画像30に写り込んだ領域を囲む矩形状の領域を、写込領域34Bとして撮影画像30Bから検出する。
図3Cは、取得部20Aが撮影画像30Cを取得した場合の一例の説明図である。図3Cおよび図2Cに示す撮影画像30Cは同じ撮影画像30の一例である。
例えば、取得部20Aが撮影画像30Cを取得した場面を想定する。この場合、特定対象領域検出部20Bは、特定対象Pの一例である人物の全身の内、撮影画像30に写り込んだ領域を囲む矩形状の領域を、写込領域34Cとして撮影画像30Cから検出する。
これらの処理によって、写込領域検出部20Cは、撮影画像30から、撮影画像30に対する位置、大きさ、および範囲を表す矩形状の枠線によって囲まれた矩形領域である写込領域34を検出する。
図1に戻り説明を続ける。写込領域検出部20Cは、第2学習モデルを用いて撮影画像30から写込領域34を検出する。
写込領域34の検出に用いる第2学習モデルは、撮影画像30を入力とし、写込領域34を出力とするモデルである。第2学習モデルには、例えば、撮影画像30から分類結果である写込領域34として特定対象Pにおける撮影画像30に写り込んだ部分を囲む矩形領域を出力する機械学習モデルを用いればよい。
写込領域34の検出に用いる第2学習モデルは、予め学習し記憶部14に記憶すればよい。写込領域34の検出に用いる第2学習モデルには、例えば、CNN、セマンティックセグメンテーション、SVM等の公知の機械学習方法を用いたモデルを用いればよい。具体的には、第2学習モデルには、例えば、非特許文献1に示される機械学習方法を用いた学習モデルを用いればよい。
写込領域検出部20Cは、取得部20Aで取得した撮影画像30を写込領域34の検出に用いる第2学習モデルへ入力することで、第2学習モデルからの出力として写込領域34を検出する。すなわち、写込領域検出部20Cは、撮影画像30を第2学習モデルへ入力することで、該撮影画像30に対する位置、大きさ、および範囲を表す矩形領域の情報を、写込領域34として検出する。
次に判定部20Dについて説明する。
判定部20Dは、特定対象領域32および写込領域34に基づいて、特定対象Pの非写込領域を判定する。
非写込領域とは、特定対象Pにおける撮影画像30に写り込んでいない領域を表す。詳細には、非写込領域は、特定対象Pにおける、撮影画像30において遮蔽物Cなどによって隠された隠れ領域、および、撮影画像30から見切れた見切領域、の少なくとも一方を含む領域である。
隠れ領域とは、特定対象Pにおける、撮影画像30内において遮蔽物C等の他の物体に隠されることで撮影画像30に写り込んでいない領域を意味する。言い換えると、隠れ領域は、特定対象Pにおける、撮影画像30の撮影画角内に存在しているが、遮蔽物C等の他の物体によって撮影部12の死角に位置する領域である。
例えば、取得部20Aが、撮影画像30A(図2A、図3A参照)を取得した場面を想定する。撮影画像30Aは、図2Aおよび図3Aに示すように、特定対象Pの一例である人物の全身の内、脚部分が遮蔽物Cによって隠された撮影画像30である。この場合、特定対象Pの内、撮影画像30Aにおいて遮蔽物Cによって隠された領域が、隠れ領域に相当する。図2Aおよび図3Aに示す撮影画像30Aの場合、特定対象Pの一例である人物の全身の内、遮蔽物Cによって隠された領域である脚の一部の領域が、隠れ領域に相当する。
見切領域とは、特定対象Pにおける、撮影画像30から見切れた領域を意味する。言い換えると、見切領域とは、特定対象Pにおける、撮影画像30の撮影画角の外側の領域を意味する。すなわち、見切領域は、特定対象Pにおける、撮影画像30の撮影画角から外れた画角外の領域である。
例えば、取得部20Aが、撮影画像30B(図2B、図3B参照)を取得した場面を想定する。撮影画像30Bは、図2Bおよび図3Bに示すように、特定対象Pの一例である人物の全身の内、脚部分が撮影画像30から見切れた撮影画像30である。この場合、特定対象Pの内の撮影画像30Bから見切れた領域が、見切領域に相当する。図2Bおよび図3Bに示す撮影画像30Bの場合、特定対象Pの一例である人物の全身の内、該撮影画像30Bから見切れた領域である脚の一部の領域が、見切領域に相当する。
判定部20Dは、特定対象領域32および写込領域34に基づいて、撮影画像30に含まれる特定対象Pの隠れ領域、および、特定対象Pの撮影画像30から見切れた見切領域、の少なくとも一方を含む非写込領域を判定する。判定部20Dは、撮影画像30と、撮影画像30から検出された特定対象領域32と、撮影画像30から検出された写込領域34と、を用いて、隠れ領域および見切領域の少なくとも一方を含む非写込領域を判定する。
詳細には、判定部20Dは、特定対象領域検出部20Bによって検出された特定対象領域32と、写込領域検出部20Cによって検出された写込領域34と、を比較する。判定部20Dは、撮影画像30内における特定対象領域32と写込領域34との非重複領域が存在する場合、該撮影画像30に隠れ領域が含まれると判定する。そして、判定部20Dは、撮影画像30内における特定対象領域32と写込領域34との非重複領域を、隠れ領域と判定する。
図4Aは、隠れ領域36の判定の一例の説明図である。例えば、取得部20Aが撮影画像30Aを取得した場面を想定する。図4A、図2A、および図3Aに示す撮影画像30Aは同じ撮影画像30の一例である。そして、特定対象領域検出部20Bが撮影画像30Aから特定対象領域32Aを特定し、写込領域検出部20Cが撮影画像30Aから写込領域34Aを特定した場面を想定する。
この場合、判定部20Dは、特定対象領域32Aと写込領域34Aとを比較し、撮影画像30A内において特定対象領域32Aと写込領域34Aとの間に非重複領域が存在するか否かを判定する。すなわち、判定部20Dは、特定対象領域32Aによって表される位置、大きさ、および範囲と、写込領域34Aによって表される位置、大きさ、および範囲と、の間に異なる部分があるか否かを判定する。そして、判定部20Dは、特定対象領域32Aと写込領域34Aとの間に非重複領域が含まれる場合、隠れ領域有と判断し、該非重複領域を隠れ領域36として判定する。
また、判定部20Dは、撮影画像30と、特定対象領域検出部20Bによって検出された特定対象領域32と、を比較する。判定部20Dは、特定対象領域32内に、撮影画像30に対して非重複な非重複領域が存在するか否かを判定する。特定対象領域32内に撮影画像30に対して非重複な非重複領域が存在する場合、該撮影画像30に見切領域が含まれると判定する。そして、判定部20Dは、特定対象領域32における、撮影画像30に対して非重複な非重複領域を、見切領域と判定する。
図4Bは、見切領域38の判定の一例の説明図である。例えば、取得部20Aが撮影画像30Bを取得した場面を想定する。図4B、図2B、および図3Bに示す撮影画像30Bは同じ撮影画像30の一例である。そして、特定対象領域検出部20Bが撮影画像30Bから特定対象領域32Bを特定し、写込領域検出部20Cが撮影画像30Bから写込領域34Bを特定した場面を想定する。
この場合、判定部20Dは、撮影画像30Bと特定対象領域32とを比較し、特定対象領域32B内に、撮影画像30Bに対して非重複な非重複領域が存在するか否かを判定する。すなわち、判定部20Dは、特定対象領域32Bの少なくとも一部が撮影画像30Bの画像枠31の外側に存在するか否かを判定する。そして、判定部20Dは、特定対象領域32B内に、撮影画像30Bに対して非重複な非重複領域が存在する場合、見切領域38有と判断し、該非重複領域を見切領域38として判定する。すなわち、判定部20Dは、特定対象領域32B内における、撮影画像30Bの画像枠31の外側に位置する領域を、見切領域38として判定する。
これらの処理によって、判定部20Dは、撮影画像30、特定対象領域32、および写込領域34を用いて、隠れ領域36および見切領域38の少なくとも一方を非写込領域37として判定する。
図1に戻り説明を続ける。
特定部20Eは、判定部20Dによって判定された非写込領域37が撮影画像30に写り込む推奨撮影環境を特定する。
詳細には、特定部20Eは、見切領域38が写り込む推奨撮影画角、および、隠れ領域36が写り込む推奨撮影方向、の少なくとも一方を推奨撮影環境として特定する。
特定部20Eは、判定部20Dによって非写込領域37として見切領域38が判定されたか否かを判断する。見切領域38が判定された場合、特定部20Eは、見切領域38を含むと判定された特定対象領域32の全体を含む撮影画角となるように、撮影画像30の画像枠31に対して拡大処理、変形処理、および移動処理の少なくとも1つの処理を実行した枠を、推奨撮影画角として特定する。
特定部20Eは、撮影画像30を撮影する撮影部12の機能に応じて、推奨撮影画角を特定してもよい。例えば、撮影部12がズーム機能を有する場合を想定する。この場合、特定部20Eは、見切領域38を含むと判定された特定対象領域32の全体を含む撮影画角となるように、撮影画像30の画像枠31を拡大処理した枠を、推奨撮影画角として特定すればよい。特定部20Eは、例えば、撮影部12の識別情報と撮影部12の機能を表す機能情報とを対応付けて予め記憶部14へ記憶する。そして、特定部20Eは、推奨撮影画角の特定時に、対象となる撮影部12の識別情報に対応する機能情報を読取り、推奨撮影画角の特定を行えばよい。
また、特定部20Eは、判定部20Dによって非写込領域37として隠れ領域36が判定されたか否かを判断する。隠れ領域36が判定された場合、特定部20Eは、特定対象Pに含まれる隠れ領域36が撮影画像30に写り込む撮影方向を推奨撮影方向として特定する。
例えば、特定部20Eは、隠れ領域36が判定された場合、現在の撮影方向から予め定めた撮影角度分ずらした方向を、推奨撮影方向として特定する。予め定めた撮影角度は、例えば、30°、60°、90°、などであるが、これらの値に限定されない。予め定めた撮影角度は、ユーザによる入力部18Bの操作指示等によって適宜変更可能としてもよい。また、特定部20Eは、撮影画像30と隠れ領域36および特定対象領域32の少なくとも一方とを入力とし、推奨撮影方向を出力とする学習モデルを予め学習し、該学習モデルを用いて推奨撮影方向を特定してもよい。
次に、出力制御部20Fについて説明する。
出力制御部20Fは、判定部20Dの判定結果に応じた判定結果情報を出力部18Aに出力する。出力制御部20Fは、判定結果情報を表す音声および画像の少なくとも一方を出力部18Aへ出力する。
例えば、出力制御部20Fは、判定部20Dによって判定された非写込領域37、特定対象領域検出部20Bによって検出された特定対象領域32、写込領域検出部20Cによって検出された写込領域34、特定部20Eによって特定された推奨撮影環境、および撮影画像30に非写込領域37が含まれることを表す警告、の少なくとも1つを表す判定結果情報を出力部18Aへ出力する。
具体的には、出力制御部20Fは、判定結果情報を含む表示画面を出力部18Aに含まれる表示部に表示する。
図5は、表示画面40の一例の模式図である。表示画面40は、判定結果情報を含む表示画面であり、出力部18Aに含まれる表示部に表示される表示画面の一例である。
例えば、出力制御部20Fは、判定結果情報を表す画像を撮影画像30に重畳した重畳画像50を含む表示画面40を、出力部18Aに出力する。
詳細には、出力制御部20Fは、撮影画像30上に、特定対象領域32を表す画像42、写込領域34を表す画像44、隠れ領域36を表す画像46、および見切領域38を表す画像48、の少なくとも1つを重畳した重畳画像50を作成する。また、出力制御部20Fは、推奨撮影画角を表す画像41、および推奨撮影方向を表す画像43の少なくとも一方を更に作成してよい。そして、出力制御部20Fは、重畳画像50と、推奨撮影画角を表す画像41および推奨撮影方向を表す画像43の少なくとも一方と、を含む重畳画像50を、出力部18Aに含まれる表示部に表示する。
出力制御部20Fが生成する上記画像41、画像43、画像42、画像44、画像46、および画像48の表示形態は、図5に示す例に限定されない。例えば、図5に示すように、出力制御部20Fは、特定対象領域32、写込領域34、隠れ領域36、および見切領域38の各々の領域を表す画像として、これらの領域の外枠を表す画像を用いてもよい。また、出力制御部20Fは、これらの領域の各々を表す画像として、各領域の内部を塗りつぶした画像を用いてもよい。
出力制御部20Fは、推奨撮影画角を表す画像41および推奨撮影方向を表す画像43の少なくとも一方を撮影画像30に更に重畳した重畳画像50を生成し、出力部18Aである表示部に表示してもよい。
また、出力制御部20Fは、特定対象領域32に隠れ領域36および見切領域38の少なくとも一方である非写込領域37が含まれる場合、非写込領域37が含まれることを表す警告の画像を更に含む表示画面40を、出力部18Aである表示部に表示してもよい。
また、出力制御部20Fは、上記警告を表す音声を、出力部18Aに含まれるスピーカから出力してもよい。
判定結果情報を出力部18Aに出力することで、出力制御部20Fは、特定対象領域32が撮影画像30に写り込むように撮影環境を調整するための情報を提供することができる。
次に、本実施形態の情報処理装置10で実行する情報処理の流れの一例を説明する。
図6は、本実施形態の情報処理装置10で実行する情報処理の流れの一例を示すフローチャートである。
取得部20Aが、撮影画像30を取得する(ステップS100)。
特定対象領域検出部20Bは、ステップS100で取得した撮影画像30から特定対象領域32を検出する(ステップS102)。写込領域検出部20Cは、ステップS100で取得した撮影画像30から写込領域34を検出する(ステップS104)。
判定部20Dは、ステップS102で検出された特定対象領域32およびステップS104で検出された写込領域34に基づいて、特定対象Pの非写込領域37を判定する(ステップS106)。判定部20Dは、隠れ領域36および見切領域38の少なくとも一方を含む非写込領域37を判定する。
次に、判定部20Dは、ステップS106で非写込領域37を判定出来たか否かを判断する(ステップS108)。非写込領域37を判定できなかった場合(ステップS108:No)、後述するステップS112へ進む。非写込領域37を判定出来た場合(ステップS108:Yes)、ステップS110へ進む。
ステップS110では、特定部20Eが、ステップS100で取得した撮影画像30およびステップS106で判定した非写込領域37に基づいて、非写込領域37が撮影画像30に写り込む推奨撮影環境を特定する(ステップS110)。
出力制御部20Fは、ステップS106の判定結果に応じた判定結果情報を出力部18Aに出力する(ステップS112)。出力制御部20Fは、ステップS108で判定された非写込領域37、ステップ102で検出された特定対象領域32、ステップS104で検出された写込領域34、ステップS110で特定された推奨撮影環境、および撮影画像30に非写込領域37が含まれることを表す警告、の少なくとも1つを表す判定結果情報を出力部18Aへ出力する。そして、本ルーチンを終了する。
以上説明したように、本実施形態の情報処理装置10は、特定対象領域検出部20Bと、写込領域検出部20Cと、判定部20Dと、を備える。特定対象領域検出部20Bは、撮影画像30から特定対象Pの特定対象領域32を検出する。写込領域検出部20Cは、撮影画像30から特定対象Pの写込領域34を検出する。判定部20Dは、特定対象領域32および写込領域34に基づいて特定対象Pの非写込領域37を判定する。
ここで、従来技術では、撮影画像30に含まれる被写体のパーツを検出し、被写体を構成する複数パーツの内の未検出のパーツの有無を判別する技術が開示されている。しかしながら従来技術では、単に未検出のパーツの有無を判別するのみであり、撮影画像30に対する未検出のパーツの領域の特定が行われていなかった。このため、従来技術では、被写体の特定のパーツ等の特定対象領域32の全体が写り込むように、撮影環境を調整可能な情報を提供することができなかった。すなわち、従来技術では、特定対象Pの撮影を支援することは困難であった。
一方、本実施形態の情報処理装置10では、特定対象領域検出部20Bが特定対象領域32を検出し、写込領域検出部20Cが写込領域34を検出する。判定部20Dは、撮影画像30から検出された特定対象Pの特定対象領域32および写込領域34に基づいて、特定対象Pの非写込領域37を判定する。
このように、本実施形態の情報処理装置10では、単に特定のパーツ有無を検出するのではなく、特定対象Pの撮影画像30に写り込んでいない非写込領域37を判定する。
このため、判定部20Dによって判定された非写込領域37を表す情報を提供することで、本実施形態の情報処理装置10は、非写込領域37が撮影画像30に写り込むように撮影環境を調整するための情報を提供することが可能となる。すなわち、本実施形態の情報処理装置10は、非写込領域37を含む特定対象Pの全体が撮影画像30に写り込むように、撮影環境を調整するための情報を提供することが出来る。
従って、本実施形態の情報処理装置10は、特定対象Pの撮影を支援することができる。
また、従来技術では、特定対象Pが複数のパーツから構成される人物および自動車に限定されており、複数のパーツに区別して表すことの困難な特定対象Pに従来技術を適用することは困難であった。また、従来技術では、複数のパーツの各々ごとに検出処理を実行する必要があり、処理負荷および処理コストが問題となる場合があった。
一方、本実施形態の情報処理装置10は、特定対象Pが1または複数のパーツから構成されているか否かに拘わらず、撮影画像30から特定対象Pの特定対象領域32および写込領域34を検出し、特定対象領域32および写込領域34に基づいて特定対象Pの非写込領域37を判定する。
このため、本実施形態の情報処理装置10は、上記効果に加えて、処理負荷の削減および処理コストの削減を図ることができる。
また、本実施形態の情報処理装置10は、撮影画像30から特定対象領域32および写込領域34を検出することで、特定対象Pの非写込領域37を判定する。このため、本実施形態の情報処理装置10は、上記効果に加えて、人物および自動車に限定されず様々な特定対象Pに対して適用することが可能である。
また、本実施形態の情報処理装置10は、出力制御部20Fを備える。出力制御部20Fは、判定部20Dの判定結果に応じた判定結果情報を出力部18Aに出力する。
このため、例えば、ユーザは、出力部18Aに出力された判定結果情報を確認することで、撮影画角や撮影方向等の撮影環境が所望の撮影環境となるように、撮影部12の設置環境等を容易に調整することができる。すなわち、ユーザは判定結果情報を確認することで、特定対象Pの全体が写り込む撮影方向および撮影画角となるように、撮影部12の設置環境などの撮影環境を容易に調整することができる。
このため、本実施形態の情報処理装置10は、上記効果に加えて、撮影部12の調整作業の作業負荷軽減を図ることができる。
なお、上記実施形態では、撮影部12が情報処理装置10に設けられた形態を一例として説明した。しかし、上述したように、撮影部12は、情報処理装置10に対して通信部16を介して通信可能に接続された外部の情報処理装置に搭載された形態であってもよい。
撮影部12を搭載した外部の情報処理装置としては、例えば、建造物などに設置された監視カメラ、ドローン等の飛翔体、撮影部12を搭載した無人搬送車、撮影部12を搭載した移動体、等が挙げられるが、これらに限定されない。
また、上記実施形態では、出力制御部20Fが判定結果情報をUI部18へ出力する形態を一例として説明した。しかし、出力制御部20Fは、通信部16を介して外部の情報処理装置へ判定結果情報を出力してもよい。
例えば、出力制御部20Fは、通信部16を介して撮影部12が搭載された情報処理装置へ判定結果情報を出力してよい。この場合、該情報処理装置の制御部は、情報処理装置10から受付けた判定結果情報を用いて、特定対象Pの全体が写り込む撮影方向および撮影画角となるように、撮影部12の撮影方向および撮影画角を調整するためのモータ等の駆動部を制御してもよい。
次に、上記実施形態の情報処理装置10のハードウェア構成の一例を説明する。
図7は、上記実施形態の情報処理装置10の一例のハードウェア構成図である。
上記実施形態の情報処理装置10は、CPU(Central Processing Unit)81、ROM(Read Only Memory)82、RAM(Random Access Memory)83、および通信I/F84等がバス85により相互に接続されており、通常のコンピュータを利用したハードウェア構成となっている。
CPU81は、上記実施形態の情報処理装置10を制御する演算装置である。ROM82は、CPU81による各種処理を実現するプログラム等を記憶する。ここではCPUを用いて説明しているが、情報処理装置10を制御する演算装置として、GPU(Graphics Processing Unit)を用いてもよい。RAM83は、CPU81による各種処理に必要なデータを記憶する。通信I/F84は、UI部18などに接続し、データを送受信するためのインターフェースである。
上記実施形態の情報処理装置10では、CPU81が、ROM82からプログラムをRAM83上に読み出して実行することにより、上記各機能がコンピュータ上で実現される。
なお、上記実施形態の情報処理装置10で実行される上記各処理を実行するためのプログラムは、HDD(ハードディスクドライブ)に記憶されていてもよい。また、上記実施形態の情報処理装置10で実行される上記各処理を実行するためのプログラムは、ROM82に予め組み込まれて提供されていてもよい。
また、上記実施形態の情報処理装置10で実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、上記実施形態の情報処理装置10で実行される上記処理を実行するためのプログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記実施形態の情報処理装置10で実行される上記処理を実行するためのプログラムを、インターネットなどのネットワーク経由で提供または配布するようにしてもよい。
なお、上記には、本発明の実施形態を説明したが、本実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 情報処理装置
20B 特定対象領域検出部
20C 写込領域検出部
20D 判定部
20E 特定部
20F 出力制御部

Claims (11)

  1. 撮影画像から特定対象の特定対象領域を検出する特定対象領域検出部と、
    前記撮影画像から前記特定対象の写込領域を検出する写込領域検出部と、
    前記特定対象領域および前記写込領域に基づいて前記特定対象の非写込領域を判定する判定部と、
    を備える情報処理装置。
  2. 前記特定対象領域は、
    前記撮影画像の撮影範囲を拡大した仮想拡大領域に含まれる、前記特定対象の全体を含む領域である、
    請求項1に記載の情報処理装置。
  3. 前記判定部は、
    前記特定対象領域および前記写込領域に基づいて、前記撮影画像に含まれる前記特定対象の隠れ領域、および前記特定対象の前記撮影画像から見切れた見切領域、の少なくとも一方を含む前記非写込領域を判定する、
    請求項1に記載の情報処理装置。
  4. 前記非写込領域が前記撮影画像に写り込む推奨撮影環境を特定する特定部、
    を備える請求項3に記載の情報処理装置。
  5. 前記特定部は、
    前記見切領域が写り込む推奨撮影画角、および前記隠れ領域が写り込む推奨撮影方向、の少なくとも一方を前記推奨撮影環境として特定する、
    請求項4に記載の情報処理装置。
  6. 前記判定部の判定結果に応じた判定結果情報を出力部に出力する出力制御部、
    を備える請求項1に記載の情報処理装置。
  7. 前記出力制御部は、
    前記判定結果情報を表す音声および画像の少なくとも一方を前記出力部に出力する、
    請求項6に記載の情報処理装置。
  8. 前記出力制御部は、
    前記非写込領域、前記特定対象領域、前記写込領域、推奨撮影環境、および前記撮影画像に前記非写込領域が含まれることを表す警告、の少なくとも1つを表す前記判定結果情報を前記出力部に出力する、
    請求項6に記載の情報処理装置。
  9. 前記出力制御部は、
    前記判定結果情報を表す画像を前記撮影画像に重畳した重畳画像を前記出力部に出力する、請求項6に記載の情報処理装置。
  10. 撮影画像から特定対象の特定対象領域を検出するステップと、
    前記撮影画像から前記特定対象の写込領域を検出するステップと、
    前記特定対象領域および前記写込領域に基づいて前記特定対象の非写込領域を判定するステップと、
    を含む情報処理方法。
  11. 撮影画像から特定対象の特定対象領域を検出するステップと、
    前記撮影画像から前記特定対象の写込領域を検出するステップと、
    前記特定対象領域および前記写込領域に基づいて前記特定対象の非写込領域を判定するステップと、
    をコンピュータに実行させるための情報処理プログラム。
JP2022099709A 2022-06-21 2022-06-21 情報処理装置、情報処理方法、および情報処理プログラム Pending JP2024000797A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022099709A JP2024000797A (ja) 2022-06-21 2022-06-21 情報処理装置、情報処理方法、および情報処理プログラム
US18/170,803 US20230410347A1 (en) 2022-06-21 2023-02-17 Information processing device, information processing method, and computer program product
CN202310165660.4A CN117278835A (zh) 2022-06-21 2023-02-24 信息处理装置、信息处理方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022099709A JP2024000797A (ja) 2022-06-21 2022-06-21 情報処理装置、情報処理方法、および情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2024000797A true JP2024000797A (ja) 2024-01-09

Family

ID=89168993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022099709A Pending JP2024000797A (ja) 2022-06-21 2022-06-21 情報処理装置、情報処理方法、および情報処理プログラム

Country Status (3)

Country Link
US (1) US20230410347A1 (ja)
JP (1) JP2024000797A (ja)
CN (1) CN117278835A (ja)

Also Published As

Publication number Publication date
CN117278835A (zh) 2023-12-22
US20230410347A1 (en) 2023-12-21

Similar Documents

Publication Publication Date Title
US10708508B2 (en) Control apparatus, control method, and storage medium
CN104573623B (zh) 人脸检测装置、方法
EP2988248B1 (en) Image processing apparatus, image processing method, information processing apparatus, information processing method, and program
WO2017163955A1 (ja) 監視システム、画像処理装置、画像処理方法およびプログラム記録媒体
KR20200133863A (ko) 첨단 운전자 지원 장치, 이의 캘리브레이션 방법 및 이의 객체를 검출하는 방법
EP3654236A2 (en) Information processing apparatus, control method of information processing apparatus, storage medium, and imaging system
US11170520B2 (en) Image processing apparatus for analyzing an image to detect an object within the image
JP4962304B2 (ja) 歩行者検出装置
KR20170032033A (ko) 전경 추출 방법 및 장치
JP7006678B2 (ja) 移動体検出装置、移動体検出方法および移動体検出プログラム
US11575841B2 (en) Information processing apparatus, imaging apparatus, method, and storage medium
JP7384158B2 (ja) 画像処理装置、移動装置、および方法、並びにプログラム
JP5785515B2 (ja) 歩行者検出装置及び方法、並びに車両用衝突判定装置
JP2024000797A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP6859910B2 (ja) 撮像装置
CN111626078A (zh) 识别车道线的方法及装置
US20210227131A1 (en) Image capturing support apparatus, image capturing support method, and computer-readable recording medium
EP3496390B1 (en) Information processing device, information processing method, and storage medium
US10943103B2 (en) Human body detection apparatus, human body detection method, information processing apparatus, information processing method, and storage medium
US9082002B2 (en) Detection device and detection method
JP5896781B2 (ja) 画像処理装置および画像処理方法
WO2020259603A1 (zh) 图像处理装置及图像处理方法
KR20240127532A (ko) 위험 감지 방법 및 이를 수행하는 전자 장치
JP6501945B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2022123912A (ja) 視線検出装置、視線検出システム、及び視線検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240904