WO2022137919A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2022137919A1
WO2022137919A1 PCT/JP2021/042462 JP2021042462W WO2022137919A1 WO 2022137919 A1 WO2022137919 A1 WO 2022137919A1 JP 2021042462 W JP2021042462 W JP 2021042462W WO 2022137919 A1 WO2022137919 A1 WO 2022137919A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
unit
input
zone
zones
Prior art date
Application number
PCT/JP2021/042462
Other languages
English (en)
French (fr)
Inventor
学 薄田
信三 香山
裕樹 杉浦
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2022571973A priority Critical patent/JPWO2022137919A1/ja
Priority to CN202180086143.7A priority patent/CN116648596A/zh
Publication of WO2022137919A1 publication Critical patent/WO2022137919A1/ja
Priority to US18/331,532 priority patent/US20230316765A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the present disclosure relates to an image pickup device that generates distance image data using a subrange method.
  • Imaging devices and image processing devices are used for obstacle monitoring.
  • Patent Document 1 a laser scanner or the like is installed on a moving body such as a railroad vehicle or a maintenance vehicle, and three-dimensional point cloud data representing the shape of a feature along the railroad is acquired while moving on the railroad track, and the three-dimensional point cloud data is acquired.
  • a technique for calculating the position of a reference building by processing point cloud data is disclosed.
  • the detection accuracy of the absolute position of the three-dimensional point cloud is improved based on the summary statistic.
  • Patent Document 2 discloses a technique for calculating an average distance by performing weighting interpolation between a plurality of zones with respect to distance interpolation.
  • the present disclosure has been made in view of this point, and an object of the present disclosure is to enable more accurate peripheral monitoring of an object by using an image pickup device that generates distance image data using a subrange method. ..
  • the image pickup apparatus divides a detection unit having a distance measuring camera and a target space into a plurality of distance zones based on the distance from a reference point in the depth direction, and from the output of the detection unit.
  • a control unit for generating distance image data representing each of the distance zones is provided, and the control unit includes the number of the distance zones and the front side position and the back side position of the distance zone.
  • the input unit for inputting the setting information and the distance image generation unit adjacent to the distance image generation unit for generating the distance image data by using the setting information of the distance zone input to the input unit from the output of the detection unit, the first and adjacent units.
  • An extraction unit that extracts an object existing over a second distance zone, and a calculation unit that calculates an object position data that estimates the position and shape of the object extracted by the extraction unit based on the distance image data.
  • the calculation unit is a first position indicating the position of the object in the front position of the first distance zone in a plane composed of the depth direction and the horizontal direction perpendicular to the depth direction.
  • a second position indicating the position of the object at the boundary position between the first and second distance zones, and a third position indicating the position of the object at the inner position of the second distance zone. It is configured to generate the object position data based on the position information of the second position with respect to the straight line connecting the first position and the third position.
  • Block diagram showing the configuration of the image pickup apparatus according to the embodiment Diagram to explain the problem when using the subrange method are diagrams showing the first method in the embodiment.
  • (A) and (b) are diagrams showing the second method in the embodiment.
  • Example of monitoring area settings A diagram showing the existence of an object that can be an obstacle
  • An example of a method to calculate the probability that an object is in the surveillance area An example of a method to calculate the probability that an object is in the surveillance area Examples of other methods to generate position data for objects
  • the image pickup apparatus divides a detection unit having a distance measuring camera and a target space into a plurality of distance zones based on the distance from a reference point in the depth direction, and outputs the detection unit.
  • a control unit that generates distance image data representing each of the distance zones is provided, and the control unit includes the number of the distance zones and the front side position and the back side position of the distance zone.
  • the first distance image generation unit adjacent to the input unit for inputting the setting information of the above and the distance image generation unit for generating the distance image data by using the setting information of the distance zone input to the input unit from the output of the detection unit.
  • the extraction unit that extracts the object existing over the second distance zone, and the calculation to calculate the object position data that estimates the position and shape of the object extracted by the extraction unit based on the distance image data.
  • a second position indicating the position of the object at the boundary position between the first and second distance zones, and a third position indicating the position of the object at the inner position of the second distance zone. Is obtained, and the object position data is generated based on the position information of the second position with respect to the straight line connecting the first position and the third position.
  • the first position at the front position of the first distance zone and the second position at the boundary position between the first and second distance zones are obtained.
  • a third position indicating a position at the back side of the second distance zone is obtained.
  • the object position data is generated based on the position information of the second position with respect to the straight line connecting the first position and the third position.
  • the image pickup apparatus divides a detection unit having a distance measuring camera and a target space into a plurality of distance zones based on the distance from a reference point in the depth direction, and outputs the detection unit.
  • a control unit that generates distance image data representing each of the distance zones is provided, and the control unit includes the number of the distance zones and the front side position and the back side position of the distance zone.
  • the first distance image generation unit adjacent to the input unit for inputting the setting information of the above and the distance image generation unit for generating the distance image data by using the setting information of the distance zone input to the input unit from the output of the detection unit.
  • the extraction unit that extracts the object existing over the second distance zone, and the calculation to calculate the object position data that estimates the position and shape of the object extracted by the extraction unit based on the distance image data.
  • the calculation unit includes a unit, and the calculation unit sets a third distance zone including a boundary position between the first and second distance zones, and from the depth direction and the horizontal direction perpendicular to the depth direction.
  • the first position indicating the position of the object in the front position of the first distance zone and the second position indicating the position of the object at the boundary position between the first and second distance zones in the plane.
  • a third position indicating the position of the object in the back position of the second distance zone, a fourth position indicating the position of the object in the front position of the third distance zone, and the third distance.
  • the fifth position indicating the position of the object in the inner position of the zone is obtained, the position information of the fourth position with respect to the straight line connecting the first position and the second position, and the second position and the above.
  • the object position data is generated based on the position information of the fifth position with respect to the straight line connecting the third position.
  • the image pickup apparatus includes a monitoring unit that sets a monitoring area based on a monitoring area function input to the input unit with reference to the object position data. , May be.
  • the input unit can input a threshold value for issuing an alarm due to the presence of an obstacle in the monitoring area, and when the imaging device recognizes an object that can be an obstacle in the target space.
  • a probability value is calculated by integrating the monitoring area function with respect to the depth direction for the representative point of the object in the vertical plane, and the probability value is compared with the threshold value input to the input unit. It may be provided with a specific part for determining whether or not an alarm is issued.
  • the input unit is configured to be able to input a threshold value for issuing an alarm due to the presence of an obstacle in the monitoring area
  • the image pickup apparatus is an object that can be an obstacle in the target space.
  • a probability value is calculated by integrating the monitoring area function with respect to the depth direction for the area of the object in the vertical plane, and the probability value is compared with the threshold value input to the input unit. Then, it may be provided with a specific unit for determining whether or not an alarm is issued.
  • FIG. 1 is a block diagram showing a configuration of an image pickup apparatus according to an embodiment.
  • the image pickup apparatus 1 shown in FIG. 1 uses a so-called subrange method. That is, the space to be imaged is divided into a plurality of distance zones based on the distance from the reference point in the depth direction, and distance image data representing each distance zone is output.
  • the detection unit 10 acquires distance image data based on a so-called TOF (TimeOfFlight) method, and includes a distance measuring camera 11 using the TOF method and a light source 12 synchronized with the distance measuring camera 11.
  • TOF TimeOfFlight
  • the control unit 20 divides the target space into a plurality of distance zones based on the distance from the reference point in the depth direction, and generates distance image data representing each distance zone from the output of the detection unit 10.
  • the control unit 20 includes an input unit 21, a distance image generation unit 22, an extraction unit 23, a calculation unit 24, a monitoring unit 25, a specific unit 26, an output unit 27, and a storage unit 28. And.
  • the input unit 21 is configured to be able to input the number of distance zones and the setting information of the distance zones including the front side position and the back side position of each distance zone. In addition, it is configured to be able to input the setting information of the monitoring area, which will be described later, and the threshold value for issuing an alarm due to the existence of an obstacle in the monitoring area.
  • the distance image generation unit 22 generates distance image data representing each distance zone from the output of the detection unit 10 by using the distance zone setting information input to the input unit 21.
  • the extraction unit 23 extracts an object existing over a plurality of adjacent distance zones from the distance image data.
  • the objects extracted here are, for example, rails, station platforms, curbs, walls, and the like.
  • a monitoring area such as a building limit can be set around the object extracted here.
  • the calculation unit 24 calculates the object position data, which is the data estimated by the position and shape of the object extracted by the extraction unit 23, using the distance image data.
  • the monitoring unit 25 and the specific unit 26 will be described later.
  • the output unit 27 outputs information such as distance image data, object position data, monitoring area, alarm information, etc. to an external output device 3 such as a display or a printer.
  • the storage unit 28 stores information such as distance image data, object position data, monitoring area, and alarm information. In addition, information such as object position data, monitoring area, and alarm information is also output to the external control device 2.
  • FIG. 2 shows a case where a certain object OB, such as a railroad track or a guardrail, exists in an imaging space across a plurality of distance zones.
  • the lower figure of FIG. 2 shows the position and shape of the object OB shown in the upper figure of FIG. 2 in the plane coordinates including the depth direction and the horizontal direction perpendicular to the depth direction.
  • the depth positions z1 to z2 are the first distance zones, and the depth positions z2 to z3 are the second distance zones.
  • the object OB exists over the first and second distance zones and is gently curved.
  • One distance zone is treated as a single distance.
  • the first distance zone is treated as a representative distance / z12
  • the second distance zone is treated as a representative distance / z23.
  • / z12 may be selected, for example, as an intermediate distance between z1 and z2.
  • the subrange method has a problem that the accuracy of the position and shape of the object OB is lowered.
  • the second position is on the left side of the straight line 3.
  • the straight line connecting the first position and the second position (straight line 1) and the straight line connecting the second position and the third position (straight line 2) are also on the left side of the straight line 3.
  • the position data of the object OB is generated by interpolating between the first position, the second position, and the third position with a curve function convex to the left.
  • the second position is on the right side with respect to the straight line 3.
  • the straight line connecting the first position and the second position (straight line 1) and the straight line connecting the second position and the third position (straight line 2) are also on the right side of the straight line 3.
  • the position data of the object OB is generated by interpolating between the first position, the second position, and the third position with a curve function convex to the right.
  • a third distance zone including the boundary position z2 of the first and second distance zones is set.
  • the third distance zone is set between the intermediate position / z12 of the first distance zone and the intermediate position / z23 of the second distance zone.
  • the position (first position) of the object OB at the front position z1 of the first distance zone and the first and second distance zones are obtained.
  • the position of the object OB at the boundary position z2 (second position) and the position of the object OB at the inner position z3 of the second distance zone (third position) are obtained.
  • the position of the object OB at the front side position / z12 of the third distance zone (fourth position) and the position of the object OB at the back side position of the third distance zone / z23 (fifth position) are obtained. ..
  • the fourth position is on the left side with respect to the straight line 1.
  • the position data of the object OB is generated by interpolating between the first position, the fourth position, and the second position with a curve function convex to the left.
  • the fifth position is on the left side of the straight line 2.
  • the position data of the object OB is generated by interpolating between the second position, the fifth position, and the third position with a curve function convex to the left.
  • the fourth position is on the left side with respect to the straight line 1.
  • the position data of the object OB is generated by interpolating between the first position, the fourth position, and the second position with a curve function convex to the left.
  • the fifth position is on the right side of the straight line 2.
  • the position data of the object OB is generated by interpolating between the second position, the fifth position, and the third position with a curve function convex to the right.
  • the image pickup apparatus 1 of FIG. 1 includes a monitoring unit 25 and a specific unit 26.
  • the monitoring unit 25 sets a predetermined monitoring area according to the purpose for the object OB based on the position data generated by the above method.
  • the setting information for setting the monitoring area can be input from the input unit 21. For example, when the object OB is a railroad track, the monitoring area setting information is input based on the building limit of the railroad track. Further, for example, when the object OB is a road, the monitoring area setting information is input based on the building limit of the road.
  • FIG. 5 is an example of setting the monitoring area.
  • the monitoring area function f (x, y, z) is defined in a three-dimensional space having the horizontal direction as the x-axis, the vertical direction as the y-axis, and the depth direction as the z-axis.
  • f (x, y, z) 1
  • f (x, y, z) 0.
  • the monitoring unit 25 determines the monitoring area function f (x, y, z) according to the monitoring area setting information input to the input unit 21 with reference to the position data of the object OB.
  • the identification unit 26 When the identification unit 26 recognizes an object that can be an obstacle in the space to be imaged, it calculates the probability that the object exists in the monitoring area set based on the position data of the object OB. Then, the probability is compared with the alarm threshold value input to the input unit 21 to determine whether or not an alarm is issued.
  • FIG. 6 shows a state in which a balloon is caught in an electric wire stretched above the object OB.
  • the balloon which is an example of an object that can be an obstacle, exists in the second distance zone but does not exist in the third distance zone from the distance image data. That is, it is specified that the balloon exists between the distances / z23 and z3. Then, when the balloon is in the position (1), it is outside the monitoring area, and when it is in the position (2), it is in the monitoring area. Therefore, the specific unit 26 calculates the probability that the balloon exists in the monitoring area by the following method.
  • the probability P (x0, y0) that the balloon is in the monitoring area is calculated. This calculation is performed by the following formula.
  • the probability P (x0, y0) is compared with the alarm threshold Palarm, and the presence or absence of an alarm is determined.
  • the probability P ( ⁇ ) that the balloon is in the monitoring area is calculated for the area ⁇ of the balloon in the vertical plane. This calculation is performed by the following formula.
  • the probability P ( ⁇ ) is compared with the alarm threshold Palarm, and the presence or absence of an alarm is determined.
  • the first position in the front position of the first distance zone and the first and first positions are The second position at the boundary position between the second distance zones and the third position indicating the position at the inner side of the second distance zone are obtained, and the second position with respect to the straight line connecting the first position and the third position is obtained.
  • Location information can be obtained.
  • the fourth position in the front position of the third distance zone including the boundary position between the first and second distance zones is used.
  • the fifth position in the inner position of the third distance zone is obtained, the position information of the fourth position with respect to the straight line connecting the first position and the second position, and the straight line connecting the second position and the third position.
  • the position information of the fifth position with respect to is obtained.
  • the position data of the object OB is generated by using this position information.
  • a desired monitoring area can be set around it. Furthermore, when an object that can be an obstacle is recognized in the monitoring area of the object OB, it is possible to accurately determine whether or not an alarm is issued.
  • FIG. 9 shows another method for generating the position data of the object OB.
  • the second position is determined to be on the left side of the straight line 3.
  • the first distance zone is virtually divided from z0 to z2n in the depth direction.
  • the correction ⁇ xi is defined as follows.
  • is a negative value when the second position is on the left side of the straight line 3, and a positive value when the second position is on the right side of the straight line 3.
  • the position data of the object OB can be generated by this method.
  • the image pickup apparatus can perform peripheral monitoring of an object with higher accuracy by using a subrange method. Therefore, for example, obstacle detection on railways and roads, factories, distribution warehouses, hospitals, schools, etc. It is useful for monitoring the position of people and objects in commercial facilities.
  • Imaging device 10 Detection unit 11 Distance measuring camera 12 Light source 20 Control unit 21 Input unit 22 Distance image generation unit 23 Extraction unit 24 Calculation unit 25 Monitoring unit 26 Specific unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)

Abstract

サブレンジ方式を用いて距離画像データを生成する撮像装置を利用して、対象物の周辺監視をより精度高く実行可能にする。隣接する第1および第2距離ゾーンにわたって存在する対象物(OB)について、第1距離ゾーンの手前側位置における第1位置と、第1および第2距離ゾーン間の境界位置における第2位置と、第2距離ゾーンの奥側位置における位置を示す第3位置とが求められる。そして、第1位置と第3位置とを結ぶ直線に対する第2位置の位置情報に基づいて、対象物(OB)の位置データを生成する。

Description

撮像装置
 本開示は、サブレンジ方式を用いて距離画像データを生成する撮像装置に関する。
 障害物監視のために、撮像装置や画像処理装置が利用されている。
 特許文献1では、鉄道車両や保守用車等の移動体にレーザスキャナ等を設置し、線路上を移動しながら鉄道沿線の地物の形状を表す3次元点群データを取得し、この3次元点群データを情報処理して基準建造物の位置を算出する技術が開示されている。特許文献1では、3次元点群の絶対位置に関して、要約統計量を基にして検出精度を向上させている。
 特許文献2では、距離補間に関し、複数のゾーン間で重み付け補間を行い、平均距離を算出する技術が開示されている。
特開2020-15419号公報 特許第6320406号公報
 ところが、特許文献1のように、点群データの集合体を用いて物体検知を行う方法では、遠方物体の形状判別が難しい、という問題がある。また、特許文献2のように、単に画素データを重み付けして距離を算出する手法では、距離の測定精度が不十分である。
 本開示は、かかる点に鑑みてなされたもので、サブレンジ方式を用いて距離画像データを生成する撮像装置を利用して、対象物の周辺監視をより精度高く実行可能にすることを目的とする。
 本開示の一態様に係る撮像装置は、測距用カメラを有する検出部と、対象空間を、奥行き方向における基準点からの距離に基づいて複数の距離ゾーンに分割し、前記検出部の出力から各々の前記距離ゾーンを表す距離画像データを生成する制御部と、を備え、前記制御部は、前記距離ゾーンの個数、並びに、前記距離ゾーンの手前側位置および奥側位置を含む、距離ゾーンの設定情報を入力する入力部と、前記検出部の出力から、前記入力部に入力された距離ゾーンの設定情報を用いて、前記距離画像データを生成する距離画像生成部と、隣接する第1および第2距離ゾーンにわたって存在する対象物を抽出する抽出部と、前記距離画像データに基づいて、前記抽出部によって抽出された前記対象物の位置および形状を推定した対象物位置データを算出する算出部と、を備え、前記算出部は、前記奥行き方向と、前記奥行き方向と垂直をなす水平方向とからなる平面において、前記第1距離ゾーンの手前側位置における前記対象物の位置を示す第1位置と、前記第1および第2距離ゾーンの間の境界位置における前記対象物の位置を示す第2位置と、前記第2距離ゾーンの奥側位置における前記対象物の位置を示す第3位置とを求め、前記第1位置と前記第3位置とを結ぶ直線に対する前記第2位置の位置情報に基づいて、前記対象物位置データを生成する、ように構成されている。
 本開示によって、サブレンジ方式を用いて距離画像データを生成する撮像装置を利用して、対象物の周辺監視を精度よく実行することができる。
実施形態に係る撮像装置の構成を示すブロック図 サブレンジ方式を用いた場合の問題を説明するための図 (a)(b)は実施形態における第1の方法を示す図 (a)(b)は実施形態における第2の方法を示す図 監視エリアの設定の例 障害物となり得る物体が存在する状態を示す図 物体が監視エリア内にある確率を算出する手法の例 物体が監視エリア内にある確率を算出する手法の例 対象物の位置データを生成する他の手法の例
 (概要)
 本開示の第1態様に係る撮像装置は、測距用カメラを有する検出部と、対象空間を、奥行き方向における基準点からの距離に基づいて複数の距離ゾーンに分割し、前記検出部の出力から各々の前記距離ゾーンを表す距離画像データを生成する制御部と、を備え、前記制御部は、前記距離ゾーンの個数、並びに、前記距離ゾーンの手前側位置および奥側位置を含む、距離ゾーンの設定情報を入力する入力部と、前記検出部の出力から、前記入力部に入力された距離ゾーンの設定情報を用いて、前記距離画像データを生成する距離画像生成部と、隣接する第1および第2距離ゾーンにわたって存在する対象物を抽出する抽出部と、前記距離画像データに基づいて、前記抽出部によって抽出された前記対象物の位置および形状を推定した対象物位置データを算出する算出部と、を備え、前記算出部は、前記奥行き方向と、前記奥行き方向と垂直をなす水平方向とからなる平面において、前記第1距離ゾーンの手前側位置における前記対象物の位置を示す第1位置と、前記第1および第2距離ゾーンの間の境界位置における前記対象物の位置を示す第2位置と、前記第2距離ゾーンの奥側位置における前記対象物の位置を示す第3位置とを求め、前記第1位置と前記第3位置とを結ぶ直線に対する前記第2位置の位置情報に基づいて、前記対象物位置データを生成する、ように構成されている。
 これにより、隣接する第1および第2距離ゾーンにわたって存在する対象物について、第1距離ゾーンの手前側位置における第1位置と、第1および第2距離ゾーン間の境界位置における第2位置と、第2距離ゾーンの奥側位置における位置を示す第3位置とが求められる。そして、第1位置と第3位置とを結ぶ直線に対する第2位置の位置情報に基づいて、対象物位置データが生成される。これにより、対象物が湾曲している場合であっても、その位置や形状をより正確に表すことができる。したがって、隣接する第1および第2距離ゾーンにわたって存在する対象物について、その位置データをより精度高く生成することができる。
 本開示の第2態様に係る撮像装置は、測距用カメラを有する検出部と、対象空間を、奥行き方向における基準点からの距離に基づいて複数の距離ゾーンに分割し、前記検出部の出力から各々の前記距離ゾーンを表す距離画像データを生成する制御部と、を備え、前記制御部は、前記距離ゾーンの個数、並びに、前記距離ゾーンの手前側位置および奥側位置を含む、距離ゾーンの設定情報を入力する入力部と、前記検出部の出力から、前記入力部に入力された距離ゾーンの設定情報を用いて、前記距離画像データを生成する距離画像生成部と、隣接する第1および第2距離ゾーンにわたって存在する対象物を抽出する抽出部と、前記距離画像データに基づいて、前記抽出部によって抽出された前記対象物の位置および形状を推定した対象物位置データを算出する算出部と、を備え、前記算出部は、前記第1および第2距離ゾーンの間の境界位置を含む第3距離ゾーンを設定し、前記奥行き方向と、前記奥行き方向と垂直をなす水平方向とからなる平面において、前記第1距離ゾーンの手前側位置における前記対象物の位置を示す第1位置と、前記第1および第2距離ゾーンの間の境界位置における前記対象物の位置を示す第2位置と、前記第2距離ゾーンの奥側位置における前記対象物の位置を示す第3位置と、前記第3距離ゾーンの手前側位置における前記対象物の位置を示す第4位置と、前記第3距離ゾーンの奥側位置における前記対象物の位置を示す第5位置とを求め、前記第1位置と前記第2位置とを結ぶ直線に対する前記第4位置の位置情報、および、前記第2位置と前記第3位置とを結ぶ直線に対する前記第5位置の位置情報に基づいて、対象物位置データを生成する。
 これにより、第1および第2距離ゾーンの間の境界位置を含む第3距離ゾーンが設定される。そして、隣接する第1および第2距離ゾーンにわたって存在する対象物について、第1距離ゾーンの手前側位置における第1位置と、第1および第2距離ゾーン間の境界位置における第2位置と、第2距離ゾーンの奥側位置における位置を示す第3位置とが求められる。加えて、第3距離ゾーンの手前側位置における第4位置と、第3距離ゾーンの奥側位置における第5位置とが求められる。そして、第1位置と第2位置とを結ぶ直線に対する第4位置の位置情報、および、第2位置と第3位置とを結ぶ直線に対する第5位置の位置情報に基づいて、対象物位置データが生成される。これにより、対象物が湾曲している場合であっても、その位置や形状をより正確に表すことができる。したがって、隣接する第1および第2距離ゾーンにわたって存在する対象物について、その位置データをより精度高く生成することができる。
 第1または第2態様に係る撮像装置において、前記撮像装置は、前記対象物位置データを基準にして、前記入力部に入力された監視エリア関数に基づいて、監視エリアを設定する監視部を備える、としてもよい。
 これにより、隣接する第1および第2距離ゾーンにわたって存在する対象物について、その周辺に所望の監視エリアを設定することができる。
 さらに、前記入力部は、前記監視エリア内に障害物が存在することに起因するアラーム発報のための閾値を入力でき、前記撮像装置は、前記対象空間において障害物となり得る物体を認識したとき、垂直平面における当該物体の代表点について、前記監視エリア関数を前記奥行き方向に対して積算することによって確率値を算出し、前記確率値と前記入力部に入力された閾値とを比較して、アラーム発報の有無を決定する特定部を備える、してもよい。
 これにより、障害物となり得る物体が認識されたとき、アラーム発報の有無を精度よく判断することができる。
 あるいは、前記入力部は、前記監視エリア内に障害物が存在することに起因するアラーム発報のための閾値を入力可能に構成されており、前記撮像装置は、対象空間において障害物となり得る物体を認識したとき、垂直平面における当該物体の領域について、前記監視エリア関数を前記奥行き方向に対して積算することによって確率値を算出し、前記確率値と前記入力部に入力された閾値とを比較して、アラーム発報の有無を決定する特定部を備える、としてもよい。
 これにより、障害物となり得る物体が認識されたとき、アラーム発報の有無を精度よく判断することができる。
 以下、実施の形態について、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施形態)
 図1は実施形態に係る撮像装置の構成を示すブロック図である。図1に示す撮像装置1は、いわゆるサブレンジ方式を用いる。すなわち、撮像の対象となる空間を、奥行き方向における基準点からの距離に基づいて複数の距離ゾーンに分割し、各距離ゾーンを表す距離画像データを出力する。
 検出部10は、いわゆるTOF(Time Of Flight)方式に基づき距離画像データを取得するものであり、TOF方式を利用した測距用カメラ11と、これに同期する光源12とを備える。
 制御部20は、対象空間を、奥行き方向における基準点からの距離に基づいて複数の距離ゾーンに分割し、検出部10の出力から、各距離ゾーンを表す距離画像データを生成する。本実施形態では、制御部20は、入力部21と、距離画像生成部22と、抽出部23と、算出部24と、監視部25と、特定部26と、出力部27と、記憶部28とを備える。
 入力部21は、距離ゾーンの個数、並びに、各距離ゾーンの手前側位置および奥側位置を含む、距離ゾーンの設定情報を入力可能に構成されている。また、後述する監視エリアの設定情報と、監視エリア内に障害物が存在することに起因するアラーム発報のための閾値を入力可能に構成されている。距離画像生成部22は、検出部10の出力から、入力部21に入力された距離ゾーンの設定情報を用いて、各距離ゾーンを表す距離画像データを生成する。
 抽出部23は、距離画像データから、隣接する複数の距離ゾーンにわたって存在する対象物を抽出する。ここで抽出される対象物は、例えば、レール、駅ホーム、縁石、壁、などである。本実施形態では、ここで抽出された対象物に対して、建築限界等の監視エリアをその周辺に設定することができる。算出部24は、距離画像データを用いて、抽出部23によって抽出された対象物の位置および形状を推定したデータである対象物位置データを算出する。なお、監視部25および特定部26については、後述する。
 出力部27は、距離画像データ、および、対象物位置データ、監視エリア、アラーム情報等の情報を、ディスプレイやプリンタ等の外部出力装置3に出力する。記憶部28は、距離画像データ、および、対象物位置データ、監視エリア、アラーム情報等の情報を、保存する。また、対象物位置データ、監視エリア、アラーム情報等の情報は、外部制御装置2にも出力される。
 ここで、サブレンジ方式を用いた場合の問題について説明する。
 図2は、撮像空間に、ある対象物OB例えば線路やガードレール等が、複数の距離ゾーンにまたがって存在している場合を示している。図2下図は、図2上図に示す対象物OBの位置および形状を、奥行き方向とこの奥行き方向と垂直をなす水平方向とからなる平面座標において図示したものである。奥行き位置z1~z2が第1距離ゾーンであり、奥行き位置z2~z3が第2距離ゾーンである。対象物OBは、第1および第2距離ゾーンにわたって存在しており、緩やかに湾曲している。
 1つの距離ゾーンは、単一距離として扱われる。図2下図では、第1距離ゾーンは代表的な距離/z12として扱われ、第2距離ゾーンは代表的な距離/z23として扱われるものとしている。ここで/z12は、例えばz1~z2間の中間距離に選んでもよい。/z23も同様である。このため、第1および第2距離ゾーンにわたって存在する対象物OBは、その形状にかかわらず、水平位置x1~x2では距離/z12になり、水平位置x2~x3では距離/z23になってしまう。このように、サブレンジ方式では、対象物OBの位置や形状の精度が低下してしまうという問題がある。
 この問題を解決するためには、例えば、各距離ゾーンの幅をそれぞれ狭めて、距離分解能を上げる、という方法が考えられる。ところが、各距離ゾーンの幅を狭めた場合には、近傍から遠方まで検出を行おうとすると、データ量が膨大になってしまい、現実的には実現は困難である。
 そこで、本実施形態では、次のような方法を用いる。
 <第1の方法>
 図3に示すように、隣接する第1および第2距離ゾーンについて、第1距離ゾーンの手前側位置z1における対象物OBの位置(第1位置)と、第1および第2距離ゾーンの境界位置z2における対象物OBの位置(第2位置)と、第2距離ゾーンの奥側位置z3における対象物OBの位置(第3位置)とを求める。そして、第1位置と第3位置とを結ぶ直線(直線3)に対して、第2位置が水平方向におけるいずれの側にあるかを判定する。すなわち、直線3に対する第2位置の位置情報を得る。
 図3(a)の例では、第2位置は、直線3に対して左側にある。この場合、第1位置と第2位置とを結ぶ直線(直線1)、および、第2位置と第3位置とを結ぶ直線(直線2)も、直線3の左側にある。このとき、第1位置-第2位置-第3位置の間を、左に凸の曲線関数で補間して、対象物OBの位置データを生成する。
 また、図3(b)の例では、第2位置は、直線3に対して右側にある。この場合、第1位置と第2位置とを結ぶ直線(直線1)、および、第2位置と第3位置とを結ぶ直線(直線2)も、直線3の右側にある。このとき、第1位置-第2位置-第3位置の間を、右に凸の曲線関数で補間して、対象物OBの位置データを生成する。
 <第2の方法>
 図4に示すように、第1および第2距離ゾーンの境界位置z2を含む第3距離ゾーンを設定する。図4の設定では、第3距離ゾーンは、第1距離ゾーンの中間位置/z12から第2距離ゾーンの中間位置/z23までの間に設定されている。
 そして、第1の方法と同様に、隣接する第1および第2距離ゾーンについて、第1距離ゾーンの手前側位置z1における対象物OBの位置(第1位置)と、第1および第2距離ゾーンの境界位置z2における対象物OBの位置(第2位置)と、第2距離ゾーンの奥側位置z3における対象物OBの位置(第3位置)とを求める。加えて、第3距離ゾーンの手前側位置/z12における対象物OBの位置(第4位置)と、第3距離ゾーンの奥側位置/z23における対象物OBの位置(第5位置)とを求める。
 そして、第1位置と第2位置とを結ぶ直線(直線1)に対して、第4位置が水平方向におけるいずれの側にあるかを判定する。また、第2位置と第3位置とを結ぶ直線(直線2)に対して、第5位置が水平方向におけるいずれの側にあるかを判定する。すなわち、直線1に対する第4位置の位置情報、および、直線2に対する第5位置の位置情報を得る。
 図4(a)の例では、第4位置は、直線1に対して左側にある。このとき、第1位置-第4位置-第2位置の間を、左に凸の曲線関数で補間して、対象物OBの位置データを生成する。また、第5位置は、直線2に対して左側にある。このとき、第2位置-第5位置-第3位置の間を、左に凸の曲線関数で補間して、対象物OBの位置データを生成する。
 また、図4(b)の例では、第4位置は、直線1に対して左側にある。このとき、第1位置-第4位置-第2位置の間を、左に凸の曲線関数で補間して、対象物OBの位置データを生成する。また、第5位置は、直線2に対して右側にある。このとき、第2位置-第5位置-第3位置の間を、右に凸の曲線関数で補間して、対象物OBの位置データを生成する。
 仮に、比較例として、直線1および直線2を対象物OBの位置データとすると、湾曲している対象物OBの形状を適切に表すことができない。これに対して、上述の第1方法によると、第2位置が直線3に対して水平方向におけるいずれの側にあるかを判定する。また、上述の第2方法によると、第4位置が直線1に対して水平方向におけるいずれの側にあるか、および、第5位置が直線2に対して水平方向におけるいずれの側にあるかを判定する。そして、これらの判定結果を用いて対象物OBの位置データを生成するので、対象物OBが湾曲していても、その形状や位置をより精度よく表すことができる。
 また、図1の撮像装置1は、監視部25と、特定部26とを備える。
 監視部25は、対象物OBに対して、上述した方法によって生成した位置データを基準にして、目的に応じた所定の監視エリアを設定する。監視エリアを設定するための設定情報は、入力部21から入力することができる。例えば対象物OBが線路である場合は、監視エリア設定情報は、その線路の建築限界を基にして入力される。また、例えば対象物OBが道路である場合は、監視エリア設定情報は、その道路の建築限界を基にして入力される。
 図5は監視エリアの設定の例である。図5では、水平方向をx軸、垂直方向をy軸、奥行き方向をz軸とする3次元空間において、監視エリア関数f(x,y,z)が定義されている。点(x,y,z)が監視エリア内のときは、f(x,y,z)=1、点(x,y,z)が監視エリア外のときは、f(x,y,z)=0である。監視部25は、対象物OBの位置データを基準にして、入力部21に入力された監視エリア設定情報に従って、監視エリア関数f(x,y,z)を定める。
 特定部26は、撮像対象の空間において障害物となり得る物体を認識したとき、その物体が対象物OBの位置データを基準にして設定した監視エリア内に存在する確率を算出する。そして、その確率を、入力部21に入力されたアラーム閾値と比較して、アラーム発報の有無を判定する。
 図6は対象物OBの上方に張られた電線に風船が引っかかった状態を示す。障害物となり得る物体の一例である風船は、距離画像データから、第2距離ゾーン内に存在するが第3距離ゾーンには存在しないことが分かったとする。すなわち、風船は距離/z23~z3の間に存在していることが特定される。そして、風船は、位置(1)にあるときは、監視エリア外にあり、位置(2)にあるときは、監視エリア内にある。そこで、特定部26は、この風船について、以下のような方法によって、監視エリア内に存在する確率を算出する。
 図7に示すように、例えば、垂直平面における風船の代表点(x0,y0)について、風船が監視エリア内にいる確率P(x0,y0)を算出する。この算出は、次の式で行う。
Figure JPOXMLDOC01-appb-M000001
そして、確率P(x0,y0)をアラーム閾値Palarmと比較し、アラーム発報の有無を判定する。
 あるいは、図8に示すように、例えば、垂直平面における風船の領域σについて、風船が監視エリア内にいる確率P(σ)を算出する。この算出は、次の式で行う。
Figure JPOXMLDOC01-appb-M000002
そして、確率P(σ)をアラーム閾値Palarmと比較し、アラーム発報の有無を判定する。
 以上のように本実施形態によると、隣接する第1および第2距離ゾーンにわたって存在する対象物OBについて、第1の方法では、第1距離ゾーンの手前側位置における第1位置と、第1および第2距離ゾーン間の境界位置における第2位置と、第2距離ゾーンの奥側位置における位置を示す第3位置とが求められ、第1位置と第3位置とを結ぶ直線に対する第2位置の位置情報が得られる。また、第2の方法では、第1位置、第2位置および第3位置に加えて、第1および第2距離ゾーンの間の境界位置を含む第3距離ゾーンの手前側位置における第4位置と、第3距離ゾーンの奥側位置における第5位置とが求められ、第1位置と第2位置とを結ぶ直線に対する第4位置の位置情報、および、第2位置と第3位置とを結ぶ直線に対する第5位置の位置情報が得られる。そして、この位置情報を用いて、対象物OBの位置データが生成される。これにより、対象物OBが湾曲している場合であっても、その位置や形状をより正確に表すことができ、したがって、隣接する第1および第2距離ゾーンにわたって存在する対象物OBについて、その位置データをより精度高く生成することができる。
 また、この対象物OBについて、その周辺に、所望の監視エリアを設定することができる。さらには、対象物OBの監視エリアに対して、障害物となり得る物体が認識されたとき、アラーム発報の有無を精度よく判断することができる。
 なお、上述の実施形態では、対象物OBの位置データの生成において、右に凸または左に凸の曲線関数を用いて補間する手法を用いるものとしたが、本開示は、これに限られるものではない。
 図9は対象物OBの位置データを生成する他の手法を示す。いま、図3(a)に示すように、第2位置が直線3に対して左側にあると判定されたとする。この場合、図9に示すように、第1距離ゾーンを奥行き方向においてz0~z2nまで仮想的に分割する。そして、距離zi(i=0~2n)に対する水平位置xiを、直線1のx座標に補正値Δxiを加える形で定義する。そして、補正Δxiを次のように定める。
Figure JPOXMLDOC01-appb-M000003
ここで、αは、第2位置が直線3に対して左側にあるときは、負の値、第2位置が直線3に対して右側にあるときは、正の値とする。この手法によっても、本開示において、対象物OBの位置データを生成することができる。
 本発明に係る撮像装置は、サブレンジ方式を用いて、対象物の周辺監視をより精度高く実行することができるので、例えば、鉄道や道路における障害物検知や、工場、物流倉庫、病院、学校、商業施設等における人や物の位置監視等に有用である。
1 撮像装置
10 検出部
11 測距用カメラ
12 光源
20 制御部
21 入力部
22 距離画像生成部
23 抽出部
24 算出部
25 監視部
26 特定部

Claims (5)

  1.  測距用カメラを有する検出部と、
     対象空間を、奥行き方向における基準点からの距離に基づいて複数の距離ゾーンに分割し、前記検出部の出力から各々の前記距離ゾーンを表す距離画像データを生成する制御部と、を備え、
     前記制御部は、
     前記距離ゾーンの個数、並びに、前記距離ゾーンの手前側位置および奥側位置を含む、距離ゾーンの設定情報を入力する入力部と、
     前記検出部の出力から、前記入力部に入力された距離ゾーンの設定情報を用いて、前記距離画像データを生成する距離画像生成部と、
     隣接する第1および第2距離ゾーンにわたって存在する対象物を抽出する抽出部と、
     前記距離画像データに基づいて、前記抽出部によって抽出された前記対象物の位置および形状を推定した対象物位置データを算出する算出部と、を備え、
     前記算出部は、
     前記奥行き方向と、前記奥行き方向と垂直をなす水平方向とからなる平面において、
     前記第1距離ゾーンの手前側位置における前記対象物の位置を示す第1位置と、前記第1および第2距離ゾーンの間の境界位置における前記対象物の位置を示す第2位置と、前記第2距離ゾーンの奥側位置における前記対象物の位置を示す第3位置とを求め、
     前記第1位置と前記第3位置とを結ぶ直線に対する前記第2位置の位置情報に基づいて、前記対象物位置データを生成する
    ことを特徴とする撮像装置。
  2.  測距用カメラを有する検出部と、
     対象空間を、奥行き方向における基準点からの距離に基づいて複数の距離ゾーンに分割し、前記検出部の出力から各々の前記距離ゾーンを表す距離画像データを生成する制御部と、を備え、
     前記制御部は、
     前記距離ゾーンの個数、並びに、前記距離ゾーンの手前側位置および奥側位置を含む、距離ゾーンの設定情報を入力する入力部と、
     前記検出部の出力から、前記入力部に入力された距離ゾーンの設定情報を用いて、前記距離画像データを生成する距離画像生成部と、
     隣接する第1および第2距離ゾーンにわたって存在する対象物を抽出する抽出部と、
     前記距離画像データに基づいて、前記抽出部によって抽出された前記対象物の位置および形状を推定した対象物位置データを算出する算出部と、を備え、
     前記算出部は、
     前記第1および第2距離ゾーンの間の境界位置を含む第3距離ゾーンを設定し、
     前記奥行き方向と、前記奥行き方向と垂直をなす水平方向とからなる平面において、
     前記第1距離ゾーンの手前側位置における前記対象物の位置を示す第1位置と、前記第1および第2距離ゾーンの間の境界位置における前記対象物の位置を示す第2位置と、前記第2距離ゾーンの奥側位置における前記対象物の位置を示す第3位置と、前記第3距離ゾーンの手前側位置における前記対象物の位置を示す第4位置と、前記第3距離ゾーンの奥側位置における前記対象物の位置を示す第5位置とを求め、
     前記第1位置と前記第2位置とを結ぶ直線に対する前記第4位置の位置情報、および、前記第2位置と前記第3位置とを結ぶ直線に対する前記第5位置の位置情報に基づいて、対象物位置データを生成する
    ことを特徴とする撮像装置。
  3.  請求項1または2記載の撮像装置において、
     前記撮像装置は、前記対象物位置データを基準にして、前記入力部に入力された監視エリア関数に基づいて、監視エリアを設定する監視部を備える
    ことを特徴とする撮像装置。
  4.  請求項3記載の撮像装置において、
     前記入力部は、前記監視エリア内に障害物が存在することに起因するアラーム発報のための閾値を入力でき、
     前記撮像装置は、前記対象空間において障害物となり得る物体を認識したとき、垂直平面における当該物体の代表点について、前記監視エリア関数を前記奥行き方向に対して積算することによって確率値を算出し、前記確率値と前記入力部に入力された閾値とを比較して、アラーム発報の有無を決定する特定部を備える
    ことを特徴とする撮像装置。
  5.  請求項3記載の撮像装置において、
     前記入力部は、前記監視エリア内に障害物が存在することに起因するアラーム発報のための閾値を入力可能に構成されており、
     前記撮像装置は、対象空間において障害物となり得る物体を認識したとき、垂直平面における当該物体の領域について、前記監視エリア関数を前記奥行き方向に対して積算することによって確率値を算出し、前記確率値と前記入力部に入力された閾値とを比較して、アラーム発報の有無を決定する特定部を備える
    ことを特徴とする撮像装置。
PCT/JP2021/042462 2020-12-22 2021-11-18 撮像装置 WO2022137919A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022571973A JPWO2022137919A1 (ja) 2020-12-22 2021-11-18
CN202180086143.7A CN116648596A (zh) 2020-12-22 2021-11-18 成像装置
US18/331,532 US20230316765A1 (en) 2020-12-22 2023-06-08 Imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-212815 2020-12-22
JP2020212815 2020-12-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/331,532 Continuation US20230316765A1 (en) 2020-12-22 2023-06-08 Imaging device

Publications (1)

Publication Number Publication Date
WO2022137919A1 true WO2022137919A1 (ja) 2022-06-30

Family

ID=82159369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/042462 WO2022137919A1 (ja) 2020-12-22 2021-11-18 撮像装置

Country Status (4)

Country Link
US (1) US20230316765A1 (ja)
JP (1) JPWO2022137919A1 (ja)
CN (1) CN116648596A (ja)
WO (1) WO2022137919A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011064498A (ja) * 2009-09-15 2011-03-31 Honda Motor Co Ltd 測距装置、測距方法、及びそのプログラム
JP2016506492A (ja) * 2012-11-27 2016-03-03 イー・2・ブイ・セミコンダクターズ 深さ情報および画像センサにより画像を生成する方法
JP2020008344A (ja) * 2018-07-04 2020-01-16 株式会社日立エルジーデータストレージ 距離測定装置
US20200077011A1 (en) * 2018-08-30 2020-03-05 Analog Devices, Inc. Blending depth images obtained with multiple exposures
JP2020052001A (ja) * 2018-09-28 2020-04-02 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011064498A (ja) * 2009-09-15 2011-03-31 Honda Motor Co Ltd 測距装置、測距方法、及びそのプログラム
JP2016506492A (ja) * 2012-11-27 2016-03-03 イー・2・ブイ・セミコンダクターズ 深さ情報および画像センサにより画像を生成する方法
JP2020008344A (ja) * 2018-07-04 2020-01-16 株式会社日立エルジーデータストレージ 距離測定装置
US20200077011A1 (en) * 2018-08-30 2020-03-05 Analog Devices, Inc. Blending depth images obtained with multiple exposures
JP2020052001A (ja) * 2018-09-28 2020-04-02 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SEIJI INOKUCHI ; KOSUKE SATO: "3D IMAGING TECHNIQUES FOR MEASUREMENT", 10 May 1996, SHOKODOU CO., LTD. , JAPAN , ISBN: 4-7856-9036-4, article INOKUCHI, SEIJI ET AL.: "5.1.6 Curved object recognition", pages: 137 - 141, XP009537835 *

Also Published As

Publication number Publication date
JPWO2022137919A1 (ja) 2022-06-30
US20230316765A1 (en) 2023-10-05
CN116648596A (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
US10061993B2 (en) Warning method of obstacles and device of obstacles
JP4687563B2 (ja) 車両用レーンマーク認識装置
EP2476996B1 (en) Parallax calculation method and parallax calculation device
CN110286389B (zh) 一种用于障碍物识别的栅格管理方法
JP5075672B2 (ja) 対象物検出装置及び方法
JP2014029604A (ja) 移動体認識システム、移動体認識プログラム、及び移動体認識方法
JP6221390B2 (ja) 画像処理装置、プログラム、および画像処理方法
JPH06293236A (ja) 走行環境監視装置
JP6524529B2 (ja) 建築限界判定装置
KR20140056790A (ko) 영상 인식 장치 및 그 방법
EP2476999B1 (en) Method for measuring displacement, device for measuring displacement, and program for measuring displacement
JP2019168953A (ja) 状態推定装置及びプログラム
JP2013148356A (ja) 車両位置算出装置
JP2011134234A (ja) 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム
JP2010079582A (ja) 物体を検出する装置、方法及びプログラム
JPH11257931A (ja) 物体認識装置
JP6096601B2 (ja) 駅ホーム転落検知装置
JP6431299B2 (ja) 車両周辺監視装置
WO2022137919A1 (ja) 撮像装置
JP5981284B2 (ja) 対象物検出装置、及び対象物検出方法
JP2010009236A (ja) 平面領域推定装置及びプログラム
KR20170138842A (ko) 템플릿 매칭 기반의 차량 추적 시스템 및 방법
JP5891802B2 (ja) 車両位置算出装置
JP7212455B2 (ja) 監視装置及び監視方法
JP2019179289A (ja) 処理装置、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21910072

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022571973

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180086143.7

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21910072

Country of ref document: EP

Kind code of ref document: A1