JP7122806B2 - 物体接近検知装置および物体接近検知方法 - Google Patents

物体接近検知装置および物体接近検知方法 Download PDF

Info

Publication number
JP7122806B2
JP7122806B2 JP2017032991A JP2017032991A JP7122806B2 JP 7122806 B2 JP7122806 B2 JP 7122806B2 JP 2017032991 A JP2017032991 A JP 2017032991A JP 2017032991 A JP2017032991 A JP 2017032991A JP 7122806 B2 JP7122806 B2 JP 7122806B2
Authority
JP
Japan
Prior art keywords
image information
approach
detected
lens group
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017032991A
Other languages
English (en)
Other versions
JP2018138875A (ja
Inventor
佑介 篠崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017032991A priority Critical patent/JP7122806B2/ja
Priority to US15/881,454 priority patent/US10628697B2/en
Priority to CN201810153922.4A priority patent/CN108507540A/zh
Publication of JP2018138875A publication Critical patent/JP2018138875A/ja
Application granted granted Critical
Publication of JP7122806B2 publication Critical patent/JP7122806B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体接近検知装置および物体接近検知方法に関する。
従来より、接近する物体の検知装置または検知方法として、ステレオカメラなどを用いて周囲の物体を検知し、物体までの距離を測定するものが知られている。
また、特許文献1には、メインレンズと焦点距離を可変できるマイクロレンズを2次元配列したレンズアレイとから構成されるレンズユニットを用い、個々の焦点距離に対応した画像情報に基づいて距離推定を行う装置が開示されている。
特許文献2には、複数の合焦距離を持つ多焦点レンズを用いて複数の合焦距離別に同時に撮像して複数の画像を取得し、取得した複数の画像に基づいて、移動物体の3次元空間上の位置を検出する装置が開示されている。
特開2014-16309号公報 特開2014-62748号公報
上に述べた特許文献1の装置では、個々の焦点距離に対応した画像情報に基づいて距離推定を行うので、そのための計算量が多くなり、消費電力が大きくなる。
また、特許文献2の装置では、複数の焦点距離の画像情報から最もピントの合う焦点距離、すなわち物体までの距離zを推定して算出し、それに基づいて物体のxy位置を検出することによって物体の3次元位置(x,y,z)を得る。また、所定時間ごとに3次元位置を検出して物体の移動軌跡を得る。そのため、やはり計算量が多くなって消費電力が大きくなる。
昨今においてはドローンのような小型の飛行マシンにも物体の接近を検知する検知装置が搭載され、これにより衝突による墜落の防止が図られている。
これら小型の飛行マシンでは、様々な方向からの物体を検知するために広い範囲に渡って広角に接近物体を検知する必要がある。しかし、広角に接近物体を検知するためには複数のカメラが必要となり、ステレオカメラを用いた場合にはカメラモジュールの台数が増えて重量が増加し、飛行時間が短くなる。
そのため、単眼を用いた方式が考えられるが、接近物体の距離測定のためにフォーカシングが必要であり、フォーカシングに時間がかかるため、画像を同一時刻に取得できない。また、フォーカシング用のレンズと駆動機構が必要となるため、レンズが重くなって飛行時間が短くなる。
また、上に述べたように、物体までの距離を推定するものでは計算量が多くなって消費電力が大きくなり、電源容量の限られた小型の飛行マシンでは飛行時間が短くなる。
本発明は、上述の問題に鑑みてなされたもので、接近する物体の検知を行うための計算量が少なく、低消費電力を低減することのできる物体接近検知装置および方法を提供することを目的とする。
本発明の実施形態に係る装置は、同じ対象物体を撮像するように配置された互いに焦点距離の異なる第1のレンズ群および第2のレンズ群を備え、前記第1のレンズ群および前記第2のレンズ群を通してそれぞれ撮像される第1の画像情報および第2の画像情報を取得する撮像部と、前記第1の画像情報および前記第2の画像情報に基づいて物体の有無を検知する物体検知部と、前記第1の画像情報に基づいて物体が検知されたときの当該第1の画像情報が取得された第1の時刻と前記第2の画像情報に基づいて物体が検知されたときの当該第2の画像情報が取得された第2の時刻との時刻差が接近判断用しきい値以下であるときに、物体の接近を検知したと判断する物体接近判断部と、を有する。
本発明の実施形態に係る方法は、同じ対象物体を撮像するように配置された互いに焦点距離の異なる第1のレンズ群および第2のレンズ群を通してそれぞれ第1の画像情報および第2の画像情報を取得し、前記第1の画像情報および前記第2の画像情報に基づいて物体の有無を検知し、前記第1の画像情報に基づいて物体が検知されたときの当該第1の画像情報が取得された第1の時刻と前記第2の画像情報に基づいて物体が検知されたときの当該第2の画像情報が取得された第2の時刻との時刻差が接近判断用しきい値以下であるときに、物体の接近を検知したと判断する。
本発明によると、接近する物体の検知を行うための計算量が少なく、低消費電力を低減することができる。したがって、小型の飛行マシンに適用した場合に、その飛行時間をより長くすることができる。
本発明の一実施形態に係る物体接近検知装置の概略の構成を示す図である。 物体検知部の機能的構成の例を示す図である。 物体接近検知装置のハードウエア構成を示すブロック図である。 物体接近検知装置の撮像部のレンズ構成の他の例を示す図である。 物体接近検知装置の撮像部のレンズ構成のさらに他の例を示す図である。 図5に示す撮像部における1つのレンズを拡大して示す図である。 物体接近検知装置の処理部における処理の概略を示す図である。 物体接近検知装置における画像情報およびエッジ画像の例を示す図である。 画像情報からの物体検知の様子を示す図である。 物体接近判断部における処理の概略の流れを示す図である。 画像情報の領域を分割して物体の接近を検知する様子を示す図である。 物体を検知しても接近を検知しないと判断する例を示す図である。 物体接近検知装置における処理の概略の流れを示すフローチャートである。
図1には本発明の一実施形態に係る物体接近検知装置1の概略の構成が、図2には物体検知部23の機能的構成の例を示す図が、図3には物体接近検知装置1のハードウエア構成の例が、それぞれ示されている。
図1において、物体接近検知装置1は、撮像部10および処理部20を有する。
撮像部10は、メインレンズ11、同じ対象物体を撮像するように配置された互いに焦点距離の異なる第1のレンズ群13G、および第2のレンズ群14Gを備え、メインレンズ11、第1のレンズ群13G、および第2のレンズ群14Gを通してそれぞれ撮像される第1の画像情報D1および第2の画像情報D2を取得する。
メインレンズ11は、集光を行い、撮像の対象範囲を拡げて視野角を大きく(広角化)するためのものである。
第1のレンズ群13Gは、第1の焦点距離をもつ複数の第1のレンズ13,13…からなるレンズアレイである。第2のレンズ群14Gは、第2の焦点距離をもつ複数の第2のレンズ14,14…からなるレンズアレイである。
複数の第1のレンズ13,13…、および複数の第2のレンズ14,14…は、1つの対物面12上に配置されている。ここの例では、対物面12は平面であり、ガラスのような透明な物体であってもよく、または仮想的な平面であってもよい。また、平面ではなく曲面であってもよい。
撮像部10は、さらに、第1のレンズ群13Gを通過した光を受光して第1の画像情報D1を出力する第1の撮像素子16S、および、第2のレンズ群14Gを通過した光を受光して第2の画像情報D2を出力する第2の撮像素子17Sを有する。第1の撮像素子16Sおよび第2の撮像素子17Sは、それぞれ、各レンズ13,14に対応した撮像素子16、17を含んでおり、これらで撮像された画像に基づいて、焦点距離ごとの第1の画像情報D1および第2の画像情報D2を合成する。
第1の撮像素子16Sおよび第2の撮像素子17Sは、対物面12に対向するように配置されている。つまり、対物面12に対向する平面である撮像面15に沿って配置されている。なお、ここでは、撮像面15の一部が第1の撮像素子16Sおよび第2の撮像素子17Sとなっているが、撮像面15の全体を撮像素子とし、必要な部分の画像情報を抽出して合成するようにしてもよい。
なお、本実施形態において、第1のレンズ群13Gが合焦距離Lの長いレンズ群であり、第2のレンズ群14Gが合焦距離Lの短いレンズ群である。第1のレンズ群13Gの合焦距離をL1、第2のレンズ群13Gの合焦距離をL2とすると、L1>L2である。つまり、第1のレンズ13の第1の焦点距離は、第2のレンズ14の第2の焦点距離よりも長い。
したがって、第1のレンズ13はより遠くの物体に焦点(ピント)が合い、第2のレンズ14は第1のレンズ13の場合よりも近い物体に焦点が合う。そのため、物体が遠方から撮像部10に近づいてきた場合に、最初に第1のレンズ群13Gによって焦点の合った第1の画像情報D1が取得され、その後で第2のレンズ群14Gによって焦点の合った第2の画像情報D2が取得されることとなる。
撮像部10によって、所定の視野角の対象範囲に対して所定の時間間隔で連続的に、つまり周期的に撮像を行い、それぞれのタイミングで第1の画像情報D1および第2の画像情報D2を取得する。その際に、撮像のタイミングを示すタイムスタンプ(デジタルタイムスタンプ)DTSを取得する。タイムスタンプDTSは、第1の画像情報D1および第2の画像情報D2がそれぞれ取得された時刻tを示す。時刻tの例をあげると、「2017年1月30日13時10分25秒27」、「15時52分18秒78」「17:21:25:66」などと示すことができる。
撮像部10における撮像の時間間隔は、例えば、1/60秒、1/30秒、1/10秒、1秒、2秒などとすることができる。物体接近検知の速度を上げたい場合は時間間隔を短くし、検知の速度が低くてもよい場合には時間間隔を長くしておけばよい。また、60fps(frames per second ) 、30fps、25fpsなどの適当なフレームレートの動画を取得しておき、動画から静止画などを抽出してもよい。
撮像部10として、レンズおよび撮像素子などが一体となって構成されるカメラまたはビデオカメラを用いることが可能である。取得する画像情報D1、D2は、RGBのカラー画像情報であってもよく、モノクロ画像情報、赤外線または紫外線による画像情報、その他の画像情報であってもよい。
処理部20は、画像記憶部21,22、物体検知部23、および物体接近判断部24を有する。
画像記憶部21,22は、撮像部10で取得して転送されてきた第1の画像情報D1および第2の画像情報D2をそれぞれ記憶する。
物体検知部23は、第1の画像情報D1および第2の画像情報D2に基づいて物体の有無を検知する。
図2によく示されるように、物体検知部23は、例えば、第1の画像情報D1および第2の画像情報D2についてエッジ検出を行うエッジ検出部231を有し、エッジがエッジ検知用しきい値th11以上検出されたときに物体が有ると検知する。記憶部231A,231Bには、第1のエッジ画像E1および第2のエッジ画像E2が記憶される。
物体検知部23は、また、第1の画像情報D1および第2の画像情報D2に基づいて画像認識を行って物体を認識する物体認識部232を有する。物体接近判断部24は、物体認識部232で認識された物体(認識物体)Bが互いに同じであることを条件として、物体の接近を検知したと判断することができる。記憶部232A,232Bには、第1の認識物体B1および第2の認識物体B2が記憶される。
物体検知部23は、また、第1の画像情報D1および第2の画像情報D2について空間周波数F1,F2を検出する空間周波数検知部233を有し、空間周波数F1,F2が周波数検知用しきい値th12以上であるときに物体が有ると検知する。
その際に、例えば、第1の画像情報D1および第2の画像情報D2をそれぞれ複数の領域に分割し、それぞれの領域ごとの画像情報について、エッジ検出または空間周波数の検出を行う。
記憶部233A,233Bには、第1の空間周波数F1および第2の空間周波数F2が記憶される。
また、物体検知部23は、例えば、第1の画像情報D1および第2の画像情報D2のうち、合焦距離Lの長いレンズ群に対応した画像情報に基づいて先に物体の有無を検知し、そこで物体が有ると検知した場合にのみ、他の画像情報に基づいて物体の有無を検知する。
なお、物体検知部23において、エッジ検出部231、物体認識部232、および空間周波数検知部233における構成および処理のために、種々の公知の技術を用いることが可能である。また、これらの一部を省略した構成とすることも可能である。
物体接近判断部24は、第1の画像情報D1に基づいて物体が検知されたときの当該第1の画像情報D1が取得された第1の時刻taと、第2の画像情報D2に基づいて物体が検知されたときの当該第2の画像情報D2が取得された第2の時刻tbとの時刻差Δtが接近判断用しきい値th1以下であるときに、物体の接近を検知したと判断する。物体の接近を検知したと判断したときに、物体接近信号S1を出力する。
物体接近判断部24は、例えば、物体が検知された領域が、第1の画像情報D1および第2の画像情報D2について分割された互いに対応する領域またはそれに隣接する領域であったことを条件として、物体の接近を検知したと判断することが可能である。
また、例えば、物体接近判断部24は、物体検知部23が、第1の画像情報D1および第2の画像情報D2のうち、合焦距離Lの長いレンズ群に対応した画像情報よりも先に合焦距離Lの短いレンズ群に対応した画像情報に基づいて物体が有りと検知した場合には、物体の接近を検知しないと判断することができる。
また、物体接近判断部24は、接近判断用しきい値th1よりも小さい高速接近判断用しきい値th2を持ち、時刻差Δtが高速接近判断用しきい値th2以下であるときに、物体の高速接近を検知したと判断する。
なお、撮像部10による撮像の対象となる実物体については、「物体BT」「物体BT1」「物体BT2」などと記載し、撮像されが画像情報Dに基づいて検知されまたは認識される認識物体については、「物体B」「物体B1」「物体B2」などと記載することとする。しかし、実物体と認識物体との区別は厳密なものではない。
図3に示すように、処理部20は、例えば、CPU101、ROM102、RAM103、クロックジェネレータ104、外部I/F105などから構成され、これらがバスなどで接続されている。
CPU(Central Processing Unit) 101は、プログラム(コンピュータプログラム)にしたがって物体接近検知装置1の各部および全体を制御する。CPU101は、例えばASIC(Application Specific Integrated Circuit )によって形成することが可能である。処理部20の機能などは、CPU101が所定のプログラムを実行することにより、およびハードウエア素子との協働によって実現可能である。
ROM(Read Only Memory)102およびRAM(Random Access Memory)103は、半導体や磁気ディスクなどによって実現可能であり、制御プログラム、アプリケーションプログラム、データ、画像情報などを記憶する。RAM103は、作業用のメモリとして用いられる他、その一部が画像記憶部21,22として用いられる。
クロックジェネレータ104は、処理部20における処理に必要なクロックを生成し、例えばカウンターによる計時やタイムスタンプDTSのためのクロックを提供する。
外部I/F105は、他の装置との間でデータや信号の授受を行う。例えば、ドローンなどの飛行マシンの動作制御部などと接続され、処理部20での判断結果である物体接近信号S1を動作制御部に送信することができる。動作制御部は、物体接近信号S1があったときに、例えば衝突回避のための動作を行うようにすればよい。
図4~図6には、物体接近検知装置1のレンズ構成の他の例を示す撮像部10B、10Cが示されている。
図4において、撮像部10Bは、メインレンズ11B、第1の焦点距離をもつ複数の第1のレンズ13B,13B…からなる第1のレンズ群13GB、第2の焦点距離をもつ複数の第2のレンズ14B,14B…からなる第2のレンズ群14GBを備える。
図4の例では、メインレンズ11Bの表面を対物面12とし、対物面12に沿ってレンズ13B、14Bが配置されている。第1の撮像素子16SBおよび第2の撮像素子17SBは、対物面12に対向する撮像面15B上に配置されている。
図5において、撮像部10Cは、第1の焦点距離をもつ複数の第1のレンズ13C,13C…からなる第1のレンズ群13GC、第2の焦点距離をもつ複数の第2のレンズ14C,14C…からなる第2のレンズ群14GCを備える。
図5の例では、第1のレンズ13Cおよび第2のレンズ14Cは、円周面状または球面状の対物面12C上に配置されている。
第1の撮像素子16SCおよび第2の撮像素子17SCは、対物面12Cに対向する円周面状または球面状の撮像面15C上に配置されている。
また、撮像部10,10B,10Cのいずれも、第1のレンズ13,13B,13Cおよび第2のレンズ14,14B,14Cは、対物面12,12B,12C上においてそれぞれ交互に、詳しくは千鳥状に配置され、且つ全体としてマトリクス状に配置されている。
図5の撮像部10Cでは、それぞれの第1のレンズ13Cおよび第2のレンズ14Cと、第1の撮像素子16Cおよび第2の撮像素子17Cとの間に、対応する領域外への光路を遮蔽するための遮蔽壁18が設けられている。
遮蔽壁18は、例えば図6に示されるように、1つの透光穴18aが設けられたブロック状のものであってもよい。遮蔽壁18は、第1のレンズ13C(または第2のレンズ14C)と第1の撮像素子16C(または第2の撮像素子17C)との間に挿入される。
なお、遮蔽壁18は、各レンズに対応した多数の透光穴18aが設けられた板状のものであってもよい。
図7には、処理部20における物体接近検知のための処理の流れの例が示されている。
図7において、撮像部10によって対象範囲についての静止画または動画などの画像が撮像され、画像から第1の画像情報D1および第2の画像情報D2が取得され、同時にタイムスタンプDTSが取得される。第1の画像情報D1および第2の画像情報D2の組は、所定の時間間隔で取得され、順次処理部20に送られる。
処理部20において、1組の第1の画像情報D1および第2の画像情報D2に対し、エッジ検出が行われ、第1のエッジ画像E1および第2のエッジ画像E2が取得される。これらのエッジ画像に基づいて、物体の有無が検知される。物体が検知されたときに、その第1の画像情報D1または第2の画像情報D2に対応したタイムスタンプDTSから時刻tが取得される。
通常、物体が遠方から撮像部10に近づいてきた場合に、最初に第1のレンズ群13Gによって焦点の合った第1の画像情報D1が取得され、その後で第2のレンズ群14Gによって焦点の合った第2の画像情報D2が取得されることとなる。その場合には、第1の画像情報D1について例えば時刻taが取得され、第2の画像情報D2について例えば時刻tbが取得されることとなる。時刻taが先で、時刻tbが後となる。
この場合に、時刻taと時刻tbとの差の時刻差Δtは、tb-taであり、この時刻差Δtは、物体が第1のレンズ群13Gの合焦距離L1から第2のレンズ群14Gの合焦距離L2まで移動するに要した時間である。それぞれの合焦距離L1,L2を一定とすると、時刻差Δtが小さいほど物体の移動速度は速いことになる。
そこで、時刻差Δtを接近判断用しきい値th1と比較する。時刻差Δtが接近判断用しきい値th1以下であるときに、物体の接近を検知したと判断し、物体接近信号S1を出力する。
また、必要に応じて、時刻差Δtを高速接近判断用しきい値th2と比較し、時刻差Δtが高速接近判断用しきい値th2以下であるときに、物体の高速接近を検知したと判断し、高速物体接近信号S2を出力する。高速接近判断用しきい値th2は、接近判断用しきい値th1よりも小さく、例えば半分以下としてよい。例えば、接近判断用しきい値th1を1秒とした場合に、高速接近判断用しきい値th2を0.5秒程度とすることができる。
以下、さらに詳しく説明する。
図8(A)には画像情報D1、D2の例が、図8(B)にはそのエッジ画像E1、E2の例が、それぞれ示されている。
図8(A)において、画像情報D1は、第1のレンズ群13Gで撮像された画像によるものであり、第1のレンズ群13Gの合焦距離L1に焦点が合っている。画像情報D2は、第2のレンズ群14Gで撮像された画像によるものであり、第2のレンズ群14Gの合焦距離L2に焦点が合っている。
これら画像情報D1、D2において、背景の中に互いに異なる物体(実物体)BT1,物体BT2が写っており。物体BT1は物体BT2よりも撮像部10から遠くに配置されている。一方の画像情報D1においては遠い方の物体BT1に焦点が合っており、他方の画像情報D2においては近い方の物体BT2に焦点が合っている。
図8(B)のエッジ画像E1は、画像情報D1についてエッジ検出を行った結果であり、エッジ画像E2は、画像情報D2についてエッジ検出を行った結果である。
エッジ検出の方法として、例えば、画像濃度(輝度)を微分することにより濃度勾配を求める方法、隣接する画素の濃度差を求める方法、その他の方法などがある。焦点の合った物体の画像では、エッジにおいて濃度勾配および濃度差が大きくなる傾向にある。したがって、例えば、画像の全体に対して濃度勾配や濃度差の大きい部分の面積の割合が一定以上である場合、隣接する画素との間で濃度勾配や濃度差が大きい画素が一定数以上あったり一定割合以上ある場合などに、焦点の合った物体BTが有ると検知することが可能である。
図8(B)のエッジ画像E1においては、焦点の合った物体BT1についてエッジが明瞭に現れ、エッジ画像E2においては、焦点の合った物体BT2についてエッジが明瞭に現れている。したがって、この場合に、画像情報D1またはエッジ画像E1について物体BT1が検知され、画像情報D2またはエッジ画像E2について物体BT2が検知されることとなる。
図9(A)(B)(C)には、画像情報から物体検知を行う様子が示されている。
図9(A)には画像情報D11、D12、D13が示され、図9(B)には画像情報D11、D12、D13からそれぞれ得られたエッジ画像E11、E12、E13が示され、図9(C)にはエッジ画像E11、E12、E13におけるそれぞれの隣接画素の濃度差ΔGの度数分布曲線が示されている。
図9(A)において、画像情報D11、D12、D13は、画面の中央に配置された物体(実物体)BT3を異なる距離で撮像したものである。このうち、中央の画像情報D12において、物体BT3は合焦距離にあり、焦点が合っている。
図9(B)において、エッジ画像E11、E12、E13では、エッジ検出後の画素が拡大されて示されている。このうち、エッジ画像E12において濃淡の差つまりコントラストが大きく、エッジが最もよく検出されている。
図9(C)において、それぞれの横軸は各画素の濃度差ΔGであり、縦軸は個数(画素数)nである。横軸の適当な位置をしきい値thGとし、しきい値thGを越える濃度差ΔGの画素の総個数NTGをチェックする。総個数NTGは、曲線の下側の部分の面積と対応する。総個数NTGの最も多いのは、中央のエッジ画像E12であることが分かる。
したがって、例えば、エッジの画素を示すしきい値thGを設定し、しきい値thGを越える画素の総個数NTGがエッジ検知用しきい値th11以上であった場合に、そのエッジ画像Eまたは画像情報Dにおいて物体Bが有ると検知すればよい。
なお、画像情報Dにおいて、ピントが合った鮮明な画像が含まれることによって、濃淡の差が大きくなり、つまりコントラストが大きくなり、空間周波数Fが高くなる傾向にある。つまり、ピントが合った画像情報Dは空間周波数Fが高い。
そこで、画像情報D11、D12、D13について、それぞれの空間周波数Fを検出し、空間周波数Fが周波数検知用しきい値th12以上であるときに物体が有ると検知してもよい。
その場合には、空間周波数検知部233によって、第1の画像情報D1および第2の画像情報D2について空間周波数F1,F2を検出する。空間周波数F1,F2が周波数検知用しきい値th12以上であるときに物体が有ると検知すればよい。
図10(A)(B)には、物体接近判断部24における処理の概略の流れが図で示されている。
図10(A)には、撮像部10の視野の中に物体BTが入り、時刻tとともに近づいてくる様子が示されている。撮像部10によって、各時刻t1,t2,t3,t4,t5において、撮像が行われる。物体BTは、時刻t2において第1のレンズ群13Gの合焦距離L1に位置し、時刻t4において第2のレンズ群14Gの合焦距離L2に位置する。
図10(B)には、各時刻tで撮像された画像情報D1、D2が模式的に示されている。時刻t1において、焦点の合っていない画像情報D1、および実質的に何も写っていない画像情報D2が得られる。時刻t2において、焦点の合った画像情報D1、および焦点の合っていない画像情報D2が得られる。時刻t3において、焦点の合っていない画像情報D1、D2が得られる。時刻t4において、焦点の合っていない画像情報D1、および焦点の合った画像情報D2が得られる。時刻t5において、焦点の合っていない画像情報D1、D2が得られる。
これらの画像情報D1、D2から、それぞれエッジ検出によってエッジ画像E1、E2が得られ、物体BTの検知が行われる。この例では、時刻t2における焦点の合った画像情報D1、および時刻t4における焦点の合った画像情報D2から、それぞれ物体(認識物体)B1、B2として検知される。
結局、時刻t2において合焦距離L1で物体B1が検知され、時刻t4において合焦距離L2で物体B2が検知されたこととなる。つまり、第1の画像情報D1に基づいて物体B1が検知されたときの第1の時刻taは「時刻t2」であり、第2の画像情報D2に基づいて物体B2が検知されたときの第2の時刻tbは「時刻t4」である。したがって、第1の時刻taと第2の時刻tbとの時刻差Δt(=tb-ta)は、Δt=t4-t2となる。
そして、時刻差Δt=t4-t2が、接近判断用しきい値th1以下であるとき、つまりΔt<th1のときに、物体の接近を検知したと判断し、物体接近信号S1を出力する。
また、時刻差Δt=t4-t2が、高速接近判断用しきい値th2以下であるとき、つまりΔt<th2のときに、物体の高速接近を検知したと判断し、高速物体接近信号S2を出力する。
なお、物体接近の検知の判断において、時刻差Δtがしきい値th1,th2と等しい場合を含めてもよい。
次に、物体接近の検知の判断における種々の条件について説明する。
まず、図10に示した例では、同じ1つの物体BTが撮像されるので、物体認識部232において、検知された物体B1(第1の認識物体)と物体B2(第2の認識物体)とが同じであると判断されることとなる。
この場合に、物体接近判断部24は、物体認識部232で認識された物体B1,B2が互いに同じであることを条件として、物体の接近を検知したと判断することができる。つまり、このような判断を行う場合には、物体B1,B2が互いに異なっていれば、物体の接近を検知したと判断しない。したがって、物体接近信号S1は出力されない。
次に、図11には、画像情報Dの領域を分割して物体の接近を検知する様子が示されている。
図11において、撮像面15は、この例では画素が縦300、横300のマトリクス状に配列されている。撮像面15は、第1の撮像素子16SCおよび第2の撮像素子17SCを含んでいる。第1の撮像素子16SCおよび第2の撮像素子17SCとして、例えば、縦150、横150の画素が割り当てられ、それぞれ第1の画像情報画D1と第2の画像情報画D2とが得られる。
第1の撮像素子16SCおよび第2の撮像素子17SCにおいて、第1の画像情報画D1および第2の画像情報画D2について、所定のサイズの領域AEに分割されている。ここの例は、縦10画素、横10画素のマトリクス状の領域AEに分割されている。第1の画像情報画D1と第2の画像情報画D2とで、領域AEの位置関係は互いに対応している。
そして、物体接近判断部24は、物体B1,B2が検知された場合に、検知されたそれぞれの領域AEが、第1の画像情報D1および第2の画像情報D2について分割された互いに対応する領域AEまたはそれに隣接する領域AEであったことを条件として、物体の接近を検知したと判断することができる。
つまりこの場合は、図11に示す第2の画像情報D2において、第1の画像情報D1で物体B1が検知された領域AE1、またはこの領域AE1に対して上下左右に隣接する8つの領域AEに対応するいずれかの領域AEで物体B2が検知され場合にのみ、物体の接近を検知したと判断することとなり、より高い精度で物体の接近を検知することができる。
また、物体B1,B2を検知した領域AEを特定できるので、これによって物体B1,B2の空間的な位置も特定することも可能である。
なお、この場合の領域AEのサイズや設定の仕方は種々のものとしてよい。
図12には、物体を検知しても接近を検知しないと判断する場合の例が示されている。図12では、各時刻tで撮像された画像情報D1、D2が模式的に示されている。
つまり、撮像部10によって、各時刻t1,t2,t3において、撮像が行われる。時刻t1において、画像情報D1からは物体が検知されず、画像情報D2からは物体B3が検知される。時刻t2において、画像情報D1からは物体B1が検知され、画像情報D2からは物体B2が検知される。時刻t3において、画像情報D1からは物体が検知されず、画像情報D2からは2つの物体(認識物体)B2,B3が検知される。
このような場合には、時刻t1において、長い合焦距離L1のレンズ群に対応した第1の画像情報D1よりも先に短い合焦距離L2のレンズ群に対応した第2の画像情報D2に基づいて物体B3が有りと検知されたので、物体の接近を検知しないと判断し、物体接近信号S1は出力されない。
すなわち、第2の画像情報D2に基づいて検知される物体B3は、いずれの時刻t1,t2,t3においても検知されており、これは合焦距離L2の位置に検知すべき物体BTとは異なる別の物体があったか、別の物体が横切った場合などであり、誤検知に繋がるので、ここでは物体接近信号S1を出力しない。
このような状況は、例えば、飛行マシンに取り付けた撮像部10の位置が機体などに近くて機体の一部が写っている場合や、下方を撮像するように取り付けられたため常に地面を撮像した場合などが考えられる。
なお、この場合に、もし第2の画像情報D2に基づいて物体B3が検知されなかった場合には、時刻t2において物体B1が検知され、時刻t3において物体B2が検知されたので、時刻差Δtはt3-t2となり、これが接近判断用しきい値th1以下であるときに、物体の接近を検知したと判断し、物体接近信号S1を出力することとなる。
また、先に時刻t1において第2の画像情報D2に基づいて物体B3が検知されているのであるが、時刻t2において物体B1が検知され時刻t3において物体B2が検知されたので、物体B1と物体B2とが同じであることを条件として、時刻差Δtによる物体の接近の有無の判断を行い、条件を満たす場合に物体接近信号S1を出力するようにしてもよい。
また、第2の画像情報D2に基づいて検知される物体B3について、それが物体認識部232によって特定され、検知すべき物体BTとは異なることが分かれば、この場合においても物体B1,B2の検知に基づく接近の有無の判断を行ってもよい。
また、例えば、時刻t1においてのみ第2の画像情報D2に基づいて物体B3が検知され、時刻t2,t3においては物体B3が検知されなかった場合には、やはり検知すべき物体BTとは異なることが考えられるので、このような場合、つまり短い合焦距離L2のレンズ群に対応した第2の画像情報D2に基づいて先に物体B3が有りと検知された場合には、その後の一定時間における物体B1の検知を行わないようにすることができる。この場合は、長い合焦距離L1のレンズ群に対応した第1の画像情報D1に基づいて先に物体の有無を検知した場合にのみ、第2の画像情報D2に基づく物体の有無の検知を行うこととなる。
また、第1の画像情報D1から物体が検知されるまで第2の画像情報D2に基づく物体の検知を行わないようにしてもよい。このようにすると、演算量が少なくなり、消費電力が少なくなる。
上に述べた実施形態では、撮像部10,10B,10Cにおいて、第1の撮像素子16SCおよび第2の撮像素子17SCの2つの撮像素子によって2つの画像情報画D1、D2を取得したが、これに限らず、3つまたは4つ以上の撮像素子を用いて3つまたは4つ以上の画像情報画Dを取得し、それらに基づいて物体の有無の検知および物体の接近を検知してもよい。
つまり、そのような撮像部10Dでは、例えば、同じ対象物体を撮像するように配置された互いに焦点距離の異なるN個(Nは3以上の整数)のレンズ群を備え、N個のレンズ群によって、第1の画像情報D1、第2の画像情報D2、第3の画像情報D3、…第Nの画像情報DNを含むN個の画像情報D1~DNを取得する。
そして、例えば物体検知部23において、N個の画像情報D1~DNに基づいて物体の有無を検知する。物体接近判断部24において、N個の画像情報D1~DNのうちのいずれかの画像情報画像情報D1~DNに基づいて物体が検知されたときの当該画像情報が取得された時刻taと他の画像情報に基づいて物体が検知されたときの当該画像情報が取得された時刻tbとの時刻差Δtが接近判断用しきい値th1以下であるときに、物体の接近を検知したと判断する。
次に、図13に示すフローチャートに基づいて、物体接近検知装置1における処理の概略の流れを説明する。
図13において、撮像部10によって第1の画像情報D1を取得する(#11)。第1の画像情報D1から物体の有無をチェックする(#12)。物体を検知した場合に(#12でイエス)、タイムスタンプDTSなどから第1の時刻taを取得する(#13)。第2の画像情報D2を取得し(#14)、物体の有無をチェックする(#15)。物体を検知した場合に(#15でイエス)、第2の時刻tbを取得する(#16)。
第1の時刻taと第2の時刻tbとから時刻差Δtを求め、これを接近判断用しきい値th1と比較し(#17)、時刻差Δtが接近判断用しきい値th1以下であれば、物体の接近を検知したと判断し、物体接近信号S1などを出力する(#18)。
上に述べた実施形態によれば、物体の検知を行って時刻差Δtを求め、これを接近判断用しきい値th1と比較することで接近の有無を判断するので、計算量が少なく、そのため低消費電力を低減することができる。因みに従来のように物体までの距離を推定する場合には計算量が多くなって消費電力を低減できない。
したがって、本実施形態の物体接近検知装置1によると、これをドローンなどの小型の飛行マシンに搭載した場合に、その飛行時間をより長くすることができる。
撮像部10としてメインレンズ11と第1のレンズ群13Gおよび第2のレンズ群14Gの組み合わせを用いた場合には、撮像の対象範囲が拡がって広角化され、軽量な機材で様々な方向からの物体を検知することが可能である。
上に述べた実施形態において、撮像部10,10B,10C、処理部20、および物体接近検知装置1のそれぞれの全体または各部の構成、構造、組み合わせ、寸法、個数、材質、配置、処理の内容、順序、しきい値thの値などは、本発明の趣旨に沿って適宜変更することができる。
1 物体接近検知装置
10 撮像部
11 メインレンズ
12 対物面
13 第1のレンズ
13G 第1のレンズ群
14 第2のレンズ
14G 第2のレンズ群
16SC 第1の撮像素子
17SC 第2の撮像素子
18 遮蔽壁
20 処理部
21,22 画像記憶部
23 物体検知部
231 エッジ検出部
232 物体認識部
233 空間周波数検知部
24 物体接近判断部
D1 第1の画像情報(画像情報)
D2 第2の画像情報(画像情報)
th1 接近判断用しきい値
th2 高速接近判断用しきい値
th11 エッジ検知用しきい値
th12 周波数検知用しきい値
ta 第1の時刻
tb 第2の時刻
Δt 時刻差
S1 物体接近信号
S2 高速物体接近信号
F 空間周波数
AE 領域
L,L1,L2 合焦距離
B,B1,B2,B3 物体(認識物体)
BT,BT1,BT2 物体(実物体)

Claims (14)

  1. 同じ対象物体を撮像するように配置された第1のレンズ群および前記第1のレンズよりも焦点距離の短い第2のレンズ群を備え、前記第1のレンズ群および前記第2のレンズ群を通してそれぞれ撮像される第1の画像情報および第2の画像情報を取得する撮像部と、
    前記第1の画像情報および前記第2の画像情報に基づいて物体の有無を検知する物体検知部と、
    前記第1の画像情報に基づいて物体が検知されたときの当該第1の画像情報が取得された第1の時刻から前記第2の画像情報に基づいて物体が検知されたときの当該第2の画像情報が取得された第2の時刻までの経過時間が接近判断用しきい値以下であるときに、物体の接近を検知したと判断する物体接近判断部と、
    を有することを特徴とする物体接近検知装置。
  2. 前記撮像部は、
    第1の焦点距離をもつ複数の第1のレンズからなる前記第1のレンズ群と、
    前記第1のレンズ群を通過した光を受光して前記第1の画像情報を出力する第1の撮像素子と、
    第2の焦点距離をもつ複数の第2のレンズからなる前記第2のレンズ群と、
    前記第2のレンズ群を通過した光を受光して前記第2の画像情報を出力する第2の撮像素子と、
    を有する請求項1記載の物体接近検知装置。
  3. 前記撮像部は、
    メインレンズと、
    第1の焦点距離をもつ複数の第1のレンズからなる前記第1のレンズ群と、
    前記メインレンズおよび前記第1のレンズ群を通過した光を受光して前記第1の画像情報を出力する第1の撮像素子と、
    第2の焦点距離をもつ複数の第2のレンズからなる前記第2のレンズ群と、
    前記メインレンズおよび前記第2のレンズ群を通過した光を受光して前記第2の画像情報を出力する第2の撮像素子と、
    を有する請求項1記載の物体接近検知装置。
  4. 複数の前記第1のレンズおよび複数の前記第2のレンズは、1つの対物面上に配置され、
    前記第1の撮像素子および前記第2の撮像素子は、前記対物面に対向するように配置されてなる、
    請求項2または3記載の物体接近検知装置。
  5. 複数の前記第1のレンズおよび複数の前記第2のレンズは、前記対物面上においてそれぞれ交互に配置され且つ全体としてマトリクス状に配置され、
    それぞれの前記第1のレンズおよび前記第2のレンズと前記第1の撮像素子および前記第2の撮像素子との間に、対応する領域外への光路を遮蔽するための遮蔽壁が設けられている、
    請求項4記載の物体接近検知装置。
  6. 前記物体検知部は、前記第1の画像情報および前記第2の画像情報についてエッジの画素を検出し、前記エッジの画素の個数がエッジ検知用しきい値以上検出されたときに物体が有ると検知する、
    請求項1ないし5のいずれかに記載の物体接近検知装置。
  7. 前記物体検知部は、前記第1の画像情報および前記第2の画像情報をそれぞれ複数の領域に分割し、それぞれの領域ごとの画像情報について、前記エッジの画像を検出する
    請求項6記載の物体接近検知装置。
  8. 前記物体接近判断部は、物体が検知された領域が、前記第1の画像情報および前記第2の画像情報について分割された互いに対応する領域またはそれに隣接する領域であったことを条件として、物体の接近を検知したと判断する、
    請求項記載の物体接近検知装置。
  9. 前記物体検知部は、前記第1の画像情報および前記第2の画像情報のうち、合焦距離の長いレンズ群に対応した画像情報に基づいて先に物体の有無を検知し、そこで物体が有ると検知した場合にのみ、他の画像情報に基づいて物体の有無を検知する、
    請求項1ないしのいずれかに記載の物体接近検知装置。
  10. 前記第1の画像情報および前記第2の画像情報に基づいて画像認識を行って物体を認識する物体認識部を有し、
    前記物体接近判断部は、前記物体認識部で認識された物体が互いに同じであることを条件として、物体の接近を検知したと判断する、
    請求項1ないしのいずれかに記載の物体接近検知装置。
  11. 前記物体接近判断部は、
    前記物体検知部が、前記第1の画像情報および前記第2の画像情報のうち、合焦距離の長いレンズ群に対応した画像情報よりも先に合焦距離の短いレンズ群に対応した画像情報に基づいて物体が有りと検知した場合には、物体の接近を検知しないと判断する、
    請求項1ないしのいずれかに記載の物体接近検知装置。
  12. 前記物体接近判断部は、
    前記接近判断用しきい値よりも小さい高速接近判断用しきい値を持ち、
    前記時刻差が前記高速接近判断用しきい値以下であるときに、物体の高速接近を検知したと判断する、
    請求項1ないし11のいずれかに記載の物体接近検知装置。
  13. 前記撮像部は、前記第1のレンズ群および前記第2のレンズ群を含み、同じ対象物体を撮像するように配置された互いに焦点距離の異なるN個(Nは3以上の整数)のレンズ群を備え、N個の前記レンズ群によって前記第1の画像情報および前記第2の画像情報を含むN個の画像情報を取得し、
    前記物体検知部は、N個の前記画像情報に基づいて物体の有無を検知し、
    前記物体接近判断部は、N個の前記画像情報のうちのいずれかの画像情報に基づいて物体が検知されたときの当該画像情報が取得された時刻と他の画像情報に基づいて物体が検知されたときの当該画像情報が取得された時刻との時刻差が接近判断用しきい値以下であるときに、物体の接近を検知したと判断する、
    請求項1ないし12のいずれかに記載の物体接近検知装置。
  14. 同じ対象物体を撮像するように配置された第1のレンズ群および前記第1のレンズよりも焦点距離の短い第2のレンズ群を通してそれぞれ第1の画像情報および第2の画像情報を取得し、
    前記第1の画像情報および前記第2の画像情報に基づいて物体の有無を検知し、
    前記第1の画像情報に基づいて物体が検知されたときの当該第1の画像情報が取得された第1の時刻から前記第2の画像情報に基づいて物体が検知されたときの当該第2の画像情報が取得された第2の時刻までの経過時間が接近判断用しきい値以下であるときに、物体の接近を検知したと判断する、
    ことを特徴とする物体接近検知方法。
JP2017032991A 2017-02-24 2017-02-24 物体接近検知装置および物体接近検知方法 Active JP7122806B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017032991A JP7122806B2 (ja) 2017-02-24 2017-02-24 物体接近検知装置および物体接近検知方法
US15/881,454 US10628697B2 (en) 2017-02-24 2018-01-26 Object approach detection device and object approach detection method
CN201810153922.4A CN108507540A (zh) 2017-02-24 2018-02-22 物体接近检知装置以及物体接近检知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017032991A JP7122806B2 (ja) 2017-02-24 2017-02-24 物体接近検知装置および物体接近検知方法

Publications (2)

Publication Number Publication Date
JP2018138875A JP2018138875A (ja) 2018-09-06
JP7122806B2 true JP7122806B2 (ja) 2022-08-22

Family

ID=63246667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017032991A Active JP7122806B2 (ja) 2017-02-24 2017-02-24 物体接近検知装置および物体接近検知方法

Country Status (3)

Country Link
US (1) US10628697B2 (ja)
JP (1) JP7122806B2 (ja)
CN (1) CN108507540A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021212486A1 (zh) * 2020-04-24 2021-10-28 达闼机器人有限公司 镜头模块和物体探测装置
CN112347892A (zh) * 2020-10-30 2021-02-09 南方电网数字电网研究院有限公司 一种基于双变倍云台的目标识别方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002321579A (ja) 2001-04-26 2002-11-05 Sumitomo Electric Ind Ltd 警告情報生成方法及び車両側方映像生成装置
JP4361000B2 (ja) 2004-10-27 2009-11-11 株式会社ニューギン 施錠機構の作動装置の制御システム
JP2009294781A (ja) 2008-06-03 2009-12-17 Toyota Central R&D Labs Inc 物体存在判定装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04361000A (ja) * 1991-06-07 1992-12-14 Sb Kogyo Kk トンネル内の車両接近報知装置
CN100483184C (zh) * 2007-05-29 2009-04-29 东南大学 可变焦透镜三维显示器
CN101324430A (zh) * 2007-06-12 2008-12-17 北京航空航天大学 基于相似原理的双目测距法
JP2009192771A (ja) * 2008-02-14 2009-08-27 Sony Corp ズームレンズおよび撮像装置ならびにズームレンズの制御方法
TW201009757A (en) * 2008-08-29 2010-03-01 Automotive Res & Testing Ct Object position detecting device and method
JP2011203410A (ja) * 2010-03-25 2011-10-13 Sony Corp 撮像光学系及び撮像装置
US9349057B2 (en) * 2011-09-12 2016-05-24 Nissan Motor Co., Ltd. Three-dimensional object detection device
WO2013133225A1 (ja) * 2012-03-07 2013-09-12 旭硝子株式会社 マイクロレンズアレイおよび撮像素子パッケージ
JP5942193B2 (ja) * 2012-03-15 2016-06-29 パナソニックIpマネジメント株式会社 レンズ系、交換レンズ装置及びカメラシステム
JP6079017B2 (ja) * 2012-07-11 2017-02-15 株式会社リコー 距離測定装置および距離計測方法
WO2014024745A1 (ja) * 2012-08-06 2014-02-13 富士フイルム株式会社 撮像装置
JP5939945B2 (ja) * 2012-09-20 2016-06-22 富士フイルム株式会社 移動物体の位置検出装置及び方法
JP5750551B2 (ja) * 2012-09-24 2015-07-22 富士フイルム株式会社 複数被写体の距離計測装置及び方法
CN104714048B (zh) * 2015-03-30 2017-11-21 上海斐讯数据通信技术有限公司 一种用于移动物体移动速度的检测方法及移动终端

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002321579A (ja) 2001-04-26 2002-11-05 Sumitomo Electric Ind Ltd 警告情報生成方法及び車両側方映像生成装置
JP4361000B2 (ja) 2004-10-27 2009-11-11 株式会社ニューギン 施錠機構の作動装置の制御システム
JP2009294781A (ja) 2008-06-03 2009-12-17 Toyota Central R&D Labs Inc 物体存在判定装置

Also Published As

Publication number Publication date
JP2018138875A (ja) 2018-09-06
US10628697B2 (en) 2020-04-21
US20180247145A1 (en) 2018-08-30
CN108507540A (zh) 2018-09-07

Similar Documents

Publication Publication Date Title
JP6285958B2 (ja) ローリングシャッターを伴うステレオ支援
US9185388B2 (en) Methods, systems, and computer program products for creating three-dimensional video sequences
TWI441095B (zh) 距離估算方法及其距離估算裝置,及其機器可讀取媒體
US9311524B2 (en) Image processing apparatus and image processing method
US20120237114A1 (en) Method and apparatus for feature-based stereo matching
JP2009529824A (ja) 3次元映像獲得用cmosステレオカメラ
US10277888B2 (en) Depth triggered event feature
US8243124B2 (en) Face detection apparatus and distance measurement method using the same
US11509813B2 (en) Image processing device
JP3990271B2 (ja) 簡易ステレオ画像入力装置、方法、プログラム、および記録媒体
JP7122806B2 (ja) 物体接近検知装置および物体接近検知方法
JP2006226965A (ja) 画像処理装置、コンピュータプログラム、及び画像処理方法
TW202143112A (zh) 運用相位偵測自動對焦(pdaf)光學系統的方法和裝置
CN111800588A (zh) 基于三维光场技术的光学无人机监测系统
JP3988574B2 (ja) 画像処理装置
CN106973199B (zh) 利用对焦距离扫描提高深度精确度的多光圈相机系统
WO2017163606A1 (ja) 物体認識装置
US20130271572A1 (en) Electronic device and method for creating three-dimentional image
JP6860445B2 (ja) 物体距離検出装置
JP2010224936A (ja) 物体検出装置
JP6305232B2 (ja) 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。
JP6602412B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム。
CN110087059B (zh) 一种针对真实三维场景的交互式自由立体显示方法
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
JP2007233487A (ja) 歩行者検出方法、装置、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210901

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210901

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210909

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210914

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20211203

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20211207

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220201

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220308

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220510

C19 Decision taken to dismiss amendment

Free format text: JAPANESE INTERMEDIATE CODE: C19

Effective date: 20220517

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220621

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20220630

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220705

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220809

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220809

R150 Certificate of patent or registration of utility model

Ref document number: 7122806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150