WO2020261973A1 - 運転制御システム - Google Patents

運転制御システム Download PDF

Info

Publication number
WO2020261973A1
WO2020261973A1 PCT/JP2020/022659 JP2020022659W WO2020261973A1 WO 2020261973 A1 WO2020261973 A1 WO 2020261973A1 JP 2020022659 W JP2020022659 W JP 2020022659W WO 2020261973 A1 WO2020261973 A1 WO 2020261973A1
Authority
WO
WIPO (PCT)
Prior art keywords
control system
transport vehicle
unit
transported
posture
Prior art date
Application number
PCT/JP2020/022659
Other languages
English (en)
French (fr)
Inventor
良夫 香月
Original Assignee
株式会社Ihi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Ihi filed Critical 株式会社Ihi
Priority to KR1020217040521A priority Critical patent/KR102587696B1/ko
Priority to JP2021528106A priority patent/JP7180777B2/ja
Priority to CN202080045695.9A priority patent/CN114072314B/zh
Priority to US17/619,748 priority patent/US20220355806A1/en
Priority to EP20833690.9A priority patent/EP3992031A4/en
Publication of WO2020261973A1 publication Critical patent/WO2020261973A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/12Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to parameters of the vehicle itself, e.g. tyre models
    • B60W40/13Load or weight
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60PVEHICLES ADAPTED FOR LOAD TRANSPORTATION OR TO TRANSPORT, TO CARRY, OR TO COMPRISE SPECIAL LOADS OR OBJECTS
    • B60P9/00Other vehicles predominantly for carrying loads, e.g. load carrying vehicles convertible for an intended purpose
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60PVEHICLES ADAPTED FOR LOAD TRANSPORTATION OR TO TRANSPORT, TO CARRY, OR TO COMPRISE SPECIAL LOADS OR OBJECTS
    • B60P7/00Securing or covering of load on vehicles
    • B60P7/06Securing of load
    • B60P7/08Securing to the vehicle floor or sides
    • B60P7/0823Straps; Tighteners
    • B60P7/0861Measuring or identifying the tension in the securing element
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/14Trucks; Load vehicles, Busses

Definitions

  • the present disclosure relates to an operation control system.
  • the present application claims priority based on Japanese Patent Application No. 2019-118572 filed in Japan on June 26, 2019, the contents of which are incorporated herein by reference.
  • Patent Document 1 the configuration of the transport vehicle shown in Patent Document 1 is complicated because it is necessary to newly provide a load collapse detection sensor in addition to the obstacle sensor. The same can be said for Patent Document 2.
  • the load collapse determination unit obtains a set of a plurality of continuous linear measurement points in the outer shape of the object to be transported. It is used as a reference for the posture of the object to be transported.
  • the load collapse determination unit determines the load collapse of the object to be transported with a simple configuration based on the measurement data of the measurement unit that detects an obstacle.
  • the operation control system S (operation control system) according to the embodiment of the present disclosure is a system for transporting a transportation object (for example, a transportation object C) to a target place or supporting the transportation.
  • the operation control system S of the present disclosure is a system that autonomously travels the transport vehicle T that is transporting the transport object C.
  • the transport vehicle T has a structure including a trailer head H and a loading platform N connected to the trailer head H.
  • the transport vehicle T may be unmanned or manned, but in the following description, it is assumed that the transport vehicle T is an unmanned transport vehicle.
  • the object to be transported C is loaded on the loading platform N.
  • the operation control system S has a distance sensor 1 (measurement means or measurement unit), a shape recognition unit 2, a posture storage unit 3, and a load collapse determination unit 4 (load collapse determination means). ) And the display unit 5.
  • the shape recognition unit 2, the posture storage unit 3, and the load collapse determination unit 4 are configured as one function of the arithmetic unit P.
  • This arithmetic unit P is a computer composed of a CPU (Central Processing Unit), memories such as RAM (Random Access Memory) and ROM (Read Only Memory), and an input / output device for exchanging signals with an external device. ..
  • the arithmetic unit P there is an ECU (Electric Control Unit) mounted on the transport vehicle T and controlling an internal combustion engine, an electric motor, a transmission, or a combination thereof. Therefore, as an algorithm executed by a computer or an ECU as an example thereof, the functions of the shape recognition unit 2, the posture storage unit 3, and the load collapse determination unit 4 may be realized.
  • Each of the shape recognition unit 2, the posture storage unit 3, and the load collapse determination unit 4 is a computer composed of a CPU, memories such as RAM and ROM, an input / output device that exchanges signals with an external device, and the like. You may.
  • the functions of the shape recognition unit 2, the posture storage unit 3, and the load collapse determination unit 4 are realized as algorithms executed by the respective computers provided in the shape recognition unit 2, the attitude storage unit 3, and the load collapse determination unit 4. May be done.
  • the distance sensor 1 is provided at the upper part of the trailer head H of the transport vehicle T (vehicle), for example, as shown in FIGS. 1 and 2.
  • a distance sensor 1 can detect the distance to the object by irradiating the object with laser light in a pulse shape and measuring the time until the reflected light from the object reaches the distance sensor 1. It is a device.
  • the distance sensor 1 attached to the front side in the traveling direction can scan a region including the front and the rear of the transport vehicle T, exists around the transport vehicle T including the front of the transport vehicle T, and operates the transport vehicle T. It is also possible to detect the obstacle R by measuring the distance from the obstacle R that can be an obstacle.
  • Obstacle R is, for example, temporarily installed on utility poles, tunnel surface walls, railroad crossings and parking lot barriers, medians, other parked vehicles, other running vehicles, and road surfaces under construction. It is assumed that guards will be used.
  • the distance sensor 1 is, for example, a two-dimensional or three-dimensional LRF (Laser Range Finder) or a two-dimensional or three-dimensional LIDAR (Light Detection and Langing, Laser Imaging Detection and Ringing). Further, the distance sensor 1 may apply the data of the sensor used for SLAM (Simultaneous Localization and Mapping).
  • the objects for which the distance sensor 1 measures the distance may be collectively referred to as surrounding objects. That is, the surrounding objects include an obstacle R, a transportation object C, a loading platform N, a ground G (road surface), and the like.
  • the shape recognition unit 2 identifies the outer shape from the data point cloud based on the measurement data acquired from the distance sensor 1.
  • the measurement data is, for example, data indicating the distance to the object measured by the distance sensor 1.
  • the measurement point which is a point on the surface of the object whose distance to the distance sensor 1 is measured by irradiating the surface of the object with a pulsed laser beam, becomes a point on the object. Multiple are displayed in. These plurality of points are called a data point cloud.
  • the shape recognition unit 2 groups (aggregates) consecutive measurement points having similar heights based on the acquired data point group, and identifies them as the outer shape of the object.
  • the shape recognition unit 2 can detect not only the shape of the object to be transported C but also the outer shape of an object that can be an obstacle R in the traveling direction. Therefore, the shape recognition unit 2 also serves as an obstacle detection sensor.
  • the distance sensor 1 and the arithmetic unit P are electrically and / or electronically connected so that signals can be exchanged with each other.
  • the posture storage unit 3 stores a group of measurement points identified by the shape recognition unit 2 by time (by frame). Further, the posture storage unit 3 also stores the outer shape of the object in the traveling direction in the same manner.
  • the load collapse determination unit 4 determines whether or not the shape of the group of measurement points stored in the posture storage unit 3 is linear. Then, the load collapse determination unit 4 uses a group of linear measurement points as a determination standard for the posture of the object to be transported C to determine the load collapse. That is, the load collapse determination unit 4 uses a group of linear measurement points, and the posture of the group in the current frame is close to the height position in the previous frame (previous or past frame). When the difference in posture is equal to or greater than the threshold value, it is determined that the load has collapsed.
  • the display unit 5 is, for example, a monitor provided in a central control facility or the like that manages the running of an unmanned transportation vehicle, and displays a warning or the like when it is determined that the load has collapsed.
  • a warning display may be displayed on the windshield of the driver's seat, an in-vehicle monitor, or the like.
  • the central control equipment, etc. refers to equipment that allows an observer to constantly monitor the operating status of an unmanned transportation vehicle, such as the presence or absence of a collapse of cargo. If necessary, instructions such as stopping may be transmitted from the central control facility or the like to the unmanned transportation vehicle. Further, in the central control facility or the like, a plurality of unmanned transportation vehicles may be monitored at the same time.
  • the distance sensor 1 the distance to the point cloud of the measurement point of the object to be transported C is measured (step S1). Then, the shape recognition unit 2 compares the heights of the acquired point clouds in the vertical direction, and measures that the distances are short and the heights of the point clouds are close (that is, the difference between the distance and the height is equal to or less than a predetermined value). Group the points (step S2).
  • step S4 when the determination is YES, that is, when the group is linear, the load collapse determination unit 4 stores the attitude of the measurement point group (G1) in the current frame and the attitude storage unit 3. In the previous frame, it is determined whether or not the difference between the posture of the measurement point group (G1) in the current frame and the posture of the measurement point group (G2) whose positions are close to each other is equal to or greater than the threshold value (step S5). ). In step S5, if the determination is YES, that is, if the difference in posture is equal to or greater than the threshold value, it is determined that the load collapse has occurred, and a warning is displayed on the display unit 5 (step S6). Further, when the determination is NO in step S5, that is, when the difference in posture is less than the threshold value, it is determined that the load has not collapsed.
  • connection angle between the trailer head H and the object to be transported C may change when the transport vehicle T turns.
  • the value of the connection angle between the trailer head H and the object to be transported C is acquired from a sensor (for example, an angle sensor) provided on the transport vehicle T for measuring the connection angle, and the distance sensor 1 acquires the value.
  • the distance sensor 1 which also serves as an obstacle detection sensor
  • determine the load collapse by the load collapse determination unit 4 it is possible to determine the load collapse of the object to be transported C with a simple configuration without providing a load collapse detection sensor separately from the obstacle detection sensor. Since it is possible to determine the collapse of the load of the object to be transported C with a simple configuration, the processing capacity of the arithmetic unit P mounted on the operation control system S can be suppressed low, and the processing speed of the arithmetic unit P can be increased. It becomes possible to do. Therefore, it is possible to contribute to the realization of autonomous traveling of the transportation vehicle T carrying the transportation object C, which is an improvement in computer-related technology.
  • a group of a plurality of continuous linear measurement points in the outer shape of the object to be transported C is used as a reference for the posture of the object to be transported C.
  • the distance sensor 1 since the distance sensor 1 is attached to the upper part of the transport vehicle T, the blind spot can be reduced in both the front in the traveling direction and the rear in the traveling direction. Therefore, it is possible to measure the obstacle R in front of the traveling direction and the transported object C behind in the traveling direction.
  • the present disclosure is not limited to the above embodiment, and for example, the following modifications can be considered.
  • a load collapse occurs, a warning is displayed on the display unit 5, but the present disclosure is not limited to this.
  • a process of stopping the traveling of the transport vehicle T from the central control facility or the like may be performed. This process may be performed artificially by an observer in the central control facility or the like, or may be automatically performed by the central control facility or the like.
  • the distance is measured using LiDAR as the measuring unit, but the present disclosure is not limited to this.
  • an omnidirectional camera, a wide-angle radar, or the like may be used as the measuring unit.
  • a plurality of distance sensors 1 may be provided.
  • the distance sensors 1 may be provided at two positions at the left and right ends of the trailer head H'in the direction orthogonal to the traveling direction of the transport vehicle T'(horizontal direction).
  • by reducing the blind spot of the distance sensor 1 not only the measurement range of the distance sensor 1 is widened, but also the posture of the object to be transported C is detected by comparing the measurement points of the two distance sensors 1. Therefore, it is possible to detect the posture of the object to be transported C more widely and accurately.
  • the driving control system S is a system that supports autonomous driving of an unmanned transportation vehicle, but the present disclosure is not limited to this.
  • it may be a system that provides driving support information to the driver of a manned transportation vehicle.
  • the load collapse warning information is displayed on a monitor that can be visually recognized by the driver of the transport vehicle T or on the windshield.
  • the warning information of the collapse of the load is displayed on the display unit, but the present disclosure is not limited to this.
  • the load collapse warning information may be notified as voice to the manager of the unmanned transportation vehicle or the driver of the manned transportation vehicle.
  • the load collapse determination unit determines the load collapse of the object to be transported with a simple configuration based on the measurement data of the measurement unit that detects an obstacle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

運搬車両(T)における障害物(R)を検知する計測部(1)と、前記計測部(1)の計測データに基づいて前記運搬車両(T)に積載された運搬対象物(C)の姿勢を取得し、時間に対する前記姿勢の変化に基づいて前記運搬対象物(C)の荷崩れを判定する荷崩れ判定部(4)とを備える運転制御システム(S)。

Description

運転制御システム
 本開示は、運転制御システムに関する。
 本願は、2019年6月26日に、日本国に出願された特願2019-118572号に基づき優先権を主張し、その内容をここに援用する。
 特許文献1には、荷物(運搬対象物)が載置された状態で移動する搬送車が開示されている。このような搬送車においては、荷物の落下を防止・検出するため、荷崩れ検出センサを用いて、載置部に載置される荷物の荷崩れを検出している。特許文献1における荷崩れ検出センサは、棒状の接触センサであり、荷物に接触した状態で配置されている。また、特許文献1の搬送車には、荷崩れ検出センサとは別に、搬送車の周囲に出現する障害物を検出する障害物センサが設けられている。特許文献2には、特許文献1の障害物センサに相当する超音波センサに加えて、荷物(トレイ)の有無を検知するトレイ有無センサを備える自律移動式無人運搬車が開示されている。
日本国特開2012-158445号公報 日本国特開2014-186693号公報
 現在、トラック等の大型運搬車両を用いた自律走行が検討されている。このような自律走行車両においては、運転者が乗車しないため、荷崩れを認識することができない。したがって、荷崩れを自動で検出することが必要となる。しかしながら、特許文献1に示される搬送車の構成は、障害物センサに加えて、新たに荷崩れ検出センサを設ける必要があり、構成が複雑である。同様のことが、特許文献2に対しても言える。
 本開示は、上述する事情に鑑みてなされ、運搬車両において簡易な構成で荷崩れを判定することを目的とする。
 本開示の運転制御システムに係る第1の態様は、運搬車両における障害物を検知する計測部と、前記計測部の計測データに基づいて前記運搬車両に積載された運搬対象物の姿勢を取得し、時間に対する前記姿勢の変化に基づいて前記運搬対象物の荷崩れを判定する荷崩れ判定部とを備える。
 本開示の運転制御システムに係る第2の態様は、上記第1の態様において、前記計測部は、前記運搬車両に搭載され、レーザ光を走査して前記運搬車両と周囲物体との距離を計測する。
 本開示の運転制御システムに係る第3の態様は、上記第2の態様において、前記荷崩れ判定部は、前記運搬対象物の外形形状における連続した直線状の複数の計測点の集合を、前記運搬対象物の姿勢の基準とする。
 本開示の運転制御システムに係る第4の態様は、上記第1~3のいずれかの態様において、前記計測部は、前記運搬車両の上部に設置されている。
 本開示の運転制御システムに係る第5の態様は、上記第1~3のいずれかの態様において、前記計測部は、前記運搬車両の左右端にそれぞれ設置されている。
 本開示によれば、荷崩れ判定部により、障害物を検知する計測部の計測データに基づいて、簡易な構成で運搬対象物の荷崩れを判定することが可能である。
本開示の一実施形態に係る運転制御システムを含む模式図である。 運搬車両における距離センサの取り付け位置を示す模式図である。 本開示の一実施形態に係る運転制御システムの荷崩れ判定手順を説明するフローチャートである。 運搬車両における距離センサの取り付け位置の変形例を示す模式図である。
 以下、本開示の一実施形態に係る運転制御システムSを、図面を用いて説明する。
 本開示の一実施形態に係る運転制御システムS(運転制御システム)は、運搬対象物(例えば、運搬対象物C)を目的の場所に運搬する又はその運搬を支援するシステムである。本開示の運転制御システムSは、運搬対象物Cを運搬している運搬車両Tの自律走行を行うシステムである。なお、この運搬車両Tは、トレーラヘッドHと、トレーラヘッドHに連結された荷台Nとを含む構造とされている。運搬車両Tは、無人でも有人でも良いが、以下の説明では、運搬車両Tが無人運搬車両である場合を想定している。荷台N上には、運搬対象物Cが積載されている。
 本実施形態に係る運転制御システムSは、図1に示すように、距離センサ1(計測手段、又は計測部)、形状認識部2、姿勢記憶部3、荷崩れ判定部4(荷崩れ判定手段)及び表示部5を有している。なお、形状認識部2、姿勢記憶部3及び荷崩れ判定部4は、演算装置Pの一機能として構成されている。この演算装置Pは、CPU(Central Processing Unit)、RAM(Random Access Memory)やROM(Read Only Memory)といったメモリ、外部の機器との信号のやり取りを行う入出力装置等から構成されたコンピュータである。演算装置Pの一例としては、運搬車両Tに搭載され、内燃機関、電動機、変速機等、又はこれらの組合せを制御するECU(Electric Control Unit)がある。よって、コンピュータ、又はその一例であるECUにより実行されるアルゴリズムとして、形状認識部2、姿勢記憶部3、荷崩れ判定部4の機能が実現されても良い。なお、形状認識部2、姿勢記憶部3、荷崩れ判定部4のそれぞれが、CPU、RAMやROMといったメモリ、外部の機器との信号のやり取りを行う入出力装置等から構成されたコンピュータであっても良い。この場合、形状認識部2、姿勢記憶部3、荷崩れ判定部4に備わったそれぞれのコンピュータにより実行されるアルゴリズムとして、形状認識部2、姿勢記憶部3、荷崩れ判定部4の機能が実現されても良い。
 距離センサ1は、例えば運搬車両T(車両)のトレーラヘッドHに対して、図1及び図2に示すように、上部に設けられている。このような距離センサ1は、レーザ光をパルス状に対象物に照射し、対象物からの反射光が距離センサ1に到達するまでの時間を測定することにより、対象物までの距離を検知可能な装置である。なお、進行方向前側に取り付けられる距離センサ1は、運搬車両Tの前方及び後方を含む領域を走査可能であり、運搬車両Tの前方を含む運搬車両Tの周囲に存在し、運搬車両Tの運行の障害となり得る障害物Rとの距離を計測することで障害物Rの検知も可能である。障害物Rとは、例えば、電柱、トンネルの面壁、踏切や駐車場の遮断機、中央分離帯、駐車している他の車両、走行中の他の車両、工事中の路面に一時的に設置されるガード等が想定される。距離センサ1は、例えば、2次元又は3次元のLRF(Laser Range Finder)や2次元又は3次元のLIDAR(LightDetection and Ranging、Laser Imaging Detection and Ranging)である。また、この距離センサ1は、SLAM(Simultaneous Localization and Mapping)に用いられるセンサのデータを応用してもよい。このような距離センサ1が距離を計測する対象を、まとめて、周囲物体と呼んでも良い。即ち、周囲物体には、障害物R、運搬対象物C、荷台N、地面G(路面)などが含まれる。
 形状認識部2は、距離センサ1から取得した計測データに基づいて、データ点群から、外形形状を識別する。ここで、計測データとは、例えば、距離センサ1が測定する対象物までの距離を示すデータである。このデータを可視化すると、対象物の表面にパルス状のレーザ光が照射されることで距離センサ1との距離が計測された対象物の表面上の点である計測点が、点として対象物上に複数表示される。この複数の点を、データ点群と呼ぶ。形状認識部2は、取得したデータ点群に基づいて高さが近い連続した計測点同士をグループ(集合)化し、物体の外形形状として識別する。なお、形状認識部2は、運搬対象物Cの形状のみではなく、進行方向における障害物Rとなり得る物体の外形形状の検出についても行うことが可能である。よって、形状認識部2は、障害物検知センサを兼ねている。なお、距離センサ1と演算装置Pとは、相互に信号のやり取りを行うことができるように、電気的、及び/又は電子的に接続されている。
 姿勢記憶部3は、形状認識部2において識別された計測点のグループを時間別(フレーム別)に記憶している。また、姿勢記憶部3は、進行方向における物体の外形形状についても、同様に記憶している。
 荷崩れ判定部4は、姿勢記憶部3に記憶された計測点のグループにおいて、グループの形状が直線状であるか否かを判定する。そして、荷崩れ判定部4は、直線状の計測点のグループを、運搬対象物Cの姿勢の判定基準として、荷崩れの判定に使用する。即ち、荷崩れ判定部4は、直線状の計測点のグループを使用して、現在のフレームにおけるグループの姿勢と、1つ前のフレーム(以前又は過去のフレーム)における高さ位置が近い計測点のグループの姿勢とを比較し、姿勢の差が閾値以上である場合に、荷崩れであると判定する。
 表示部5は、例えば、無人運搬車両の走行を管理する中央管制設備等において設けられるモニタであり、荷崩れと判定された場合に、警告等の表示が行われる。なお、運搬車両Tに作業者が乗車する場合には、運転席のフロントガラスまたは車載モニタ等にも警告表示を行ってもよい。なお、中央管制設備等とは、無人運搬車両において、例えば、荷崩れの有無のような運転状況を、監視者が常時監視可能な設備をいう。中央管制設備等から無人運搬車両に対して、必要に応じて、停止等の指示を送信しても良い。また、中央管制設備等では、複数の無人運搬車両を同時に監視しても良い。
 このような運転制御システムSにおける荷崩れ判定のフローを、図3を参照して説明する。
 距離センサ1において、運搬対象物Cの計測点の点群までの距離が計測される(ステップS1)。
 そして、形状認識部2において、取得した点群の鉛直方向の高さを比較し、距離が近く、かつ点群の高さが近い(すなわち、距離及び高さの差が所定値以下)の計測点をグループ化する(ステップS2)。
 そして、姿勢記憶部3は、形状認識部2においてグループ化された計測点を記憶する(ステップS3)。さらに、荷崩れ判定部4は、現在のフレームにおけるグループが直線状であるか否かを判定する(ステップS4)。ステップS4において、判定がNOの場合、すなわち、グループが直線状でない場合には、荷崩れ判定を行わない。
 ステップS4において、判定がYESの場合、すなわち、グループが直線状である場合には、荷崩れ判定部4は、現在のフレームにおける計測点のグループ(G1)の姿勢と、姿勢記憶部3に記憶された1つ前のフレームにおいて、現在のフレームにおける計測点のグループ(G1)と位置が近い計測点のグループ(G2)の姿勢との差が閾値以上であるか否かを判定する(ステップS5)。ステップS5において、判定がYESの場合、すなわち、姿勢の差が閾値以上である場合には、荷崩れが発生したと判定し、表示部5において警告表示を行う(ステップS6)。また、ステップS5において判定がNOの場合、すなわち、姿勢の差が閾値未満である場合には、荷崩れしていないと判定する。
 なお、運搬車両Tが旋回する場合等において、トレーラヘッドHと運搬対象物Cとの連結角が変化する場合がある。このような場合には、運搬車両Tに設けられた連結角を計測するセンサ(例えば角度センサ)から、トレーラヘッドHと運搬対象物Cとの連結角の値を取得し、距離センサ1が取得した計測データを連結角により補正することで、運搬対象物Cの姿勢の変化を検出することが可能である。
 本実施形態によれば、障害物検知センサを兼ねている距離センサ1を用いて、運搬対象物Cの姿勢を検出し、荷崩れ判定部4により荷崩れを判定することが可能である。これにより、障害物検知センサとは別に荷崩れ検出センサを設けることなく、簡易な構成で運搬対象物Cの荷崩れの判定が可能である。簡易な構成で運搬対象物Cの荷崩れの判定が可能であることにより、運転制御システムSに搭載される演算装置Pの処理能力を低く抑えることができたり、演算装置Pの処理速度を上げたりすることが可能となる。そのため、運搬対象物Cを運搬している運搬車両Tの自律走行の実現に貢献することができるので、コンピュータ関連技術の改善となる。
 本実施形態によれば、運搬対象物Cの外形形状における連続した直線状の複数の計測点のグループを運搬対象物Cの姿勢の基準として用いている。これにより、フレーム同士の比較が容易であり、荷崩れの判定を容易に行うことができる。
 また、本実施形態によれば、距離センサ1は、運搬車両Tの上部に取り付けられているため、進行方向前方と進行方向後方との双方について死角を低減することができる。そのため、進行方向前方の障害物R及び進行方向後方の運搬対象物Cの計測が可能である。
 なお、本開示は上記実施形態に限定されず、例えば以下のような変形例が考えられる。
(1)上記実施形態においては、荷崩れが発生した場合には、表示部5に警告表示を行うとしたが、本開示はこれに限定されない。例えば、荷崩れが発生した場合には、中央管制設備等から運搬車両Tの走行を停止する処理を行ってもよい。この処理は、中央管制設備等にいる監視者が人為的に行っても良いし、中央管制設備等が自動的に行っても良い。
(2)上記実施形態においては、計測部としてLiDARを用いて距離を計測したが、本開示はこれに限定されない。例えば、計測部として、全方位カメラや、広角のレーダ等を用いてもよい。
(3)また、距離センサ1は、複数設けられてもよい。例えば、距離センサ1は、図4に示すように、運搬車両T’の進行方向に直交する方向(左右方向)において、トレーラヘッドH’の左右端に2カ所に設けられても良い。この場合、上記2か所の距離センサ1による計測点を比較して運搬対象物Cの姿勢を検出することが可能である。この場合、距離センサ1の死角が低減されることにより、距離センサ1の測定範囲が広がるのみならず、2か所の距離センサ1による計測点を比較して運搬対象物Cの姿勢を検出するため、より広範にわたり、かつ正確に運搬対象物Cの姿勢を検出することが可能である。
(4)上記実施形態においては、運転制御システムSは、無人運搬車両の自律運転を支援するシステムとしたが、本開示はこれに限定されない。例えば、有人運搬車両の運転者に運転支援情報を提供するシステムとしてもよい。この場合、運搬車両Tの運転者が視認可能なモニタや、フロントガラス上に荷崩れ警告情報を表示する。
(5)なお、上記実施形態においては、荷崩れ発生を判定するとしたが、運搬対象物Cの姿勢の変化の閾値を小さくすることにより、運搬対象物Cがバランスを崩しつつある状態を検出することができる。こうすることで、運搬対象物Cの荷崩れの発生を予報したり、将来、荷崩れに成長する可能性のあるずれが発生した段階で警告を発したりすることも可能である。
(6)上記実施形態においては、荷崩れの警告情報を表示部へと表示したが、本開示はこれに限定されない。荷崩れの警告情報は、音声として無人運搬車両の管理者または有人運搬車両の運転者へと報知してもよい。
(7)上記実施形態では、図2に表示されるように、運搬対象物Cが1個の場合を想定したが、これに限定されず、運搬対象物Cが複数個であっても、荷崩れの判定が可能である。
 本開示の運転制御システムによれば、荷崩れ判定部により、障害物を検知する計測部の計測データに基づいて、簡易な構成で運搬対象物の荷崩れを判定することが可能である。
1 距離センサ
2 形状認識部
3 姿勢記憶部
4 判定部
5 表示部
C 運搬対象物
S 運転制御システム

Claims (5)

  1.  運搬車両における障害物を検知する計測部と、
     前記計測部の計測データに基づいて前記運搬車両に積載された運搬対象物の姿勢を取得し、時間に対する前記姿勢の変化に基づいて前記運搬対象物の荷崩れを判定する荷崩れ判定部と
     を備える運転制御システム。
  2.  前記計測部は、前記運搬車両に搭載され、レーザ光を走査して前記運搬車両と周囲物体との距離を計測する請求項1記載の運転制御システム。
  3.  前記荷崩れ判定部は、前記運搬対象物の外形形状における連続した直線状の複数の計測点の集合を、前記運搬対象物の姿勢の基準とする請求項2記載の運転制御システム。
  4.  前記計測部は、前記運搬車両の上部に設置されている請求項1~3のいずれか一項に記載の運転制御システム。
  5.  前記計測部は、前記運搬車両の左右端にそれぞれ設置されている請求項1~3のいずれか一項に記載の運転制御システム。
PCT/JP2020/022659 2019-06-26 2020-06-09 運転制御システム WO2020261973A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020217040521A KR102587696B1 (ko) 2019-06-26 2020-06-09 운전 제어 시스템
JP2021528106A JP7180777B2 (ja) 2019-06-26 2020-06-09 運転制御システム
CN202080045695.9A CN114072314B (zh) 2019-06-26 2020-06-09 驾驶控制系统
US17/619,748 US20220355806A1 (en) 2019-06-26 2020-06-09 Drive control system
EP20833690.9A EP3992031A4 (en) 2019-06-26 2020-06-09 DRIVE CONTROL SYSTEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019118572 2019-06-26
JP2019-118572 2019-06-26

Publications (1)

Publication Number Publication Date
WO2020261973A1 true WO2020261973A1 (ja) 2020-12-30

Family

ID=74060964

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/022659 WO2020261973A1 (ja) 2019-06-26 2020-06-09 運転制御システム

Country Status (6)

Country Link
US (1) US20220355806A1 (ja)
EP (1) EP3992031A4 (ja)
JP (1) JP7180777B2 (ja)
KR (1) KR102587696B1 (ja)
CN (1) CN114072314B (ja)
WO (1) WO2020261973A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240083353A1 (en) * 2022-09-14 2024-03-14 Venti Technologies Container Misalignment Detection System and Methods for Autonomous Vehicles

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012158445A (ja) 2011-02-01 2012-08-23 Murata Machinery Ltd 搬送車
JP2013230903A (ja) * 2012-04-27 2013-11-14 Hitachi Ltd フォークリフト
JP2014186693A (ja) 2013-03-25 2014-10-02 Murata Mach Ltd 自律移動式無人搬送車
JP2017019596A (ja) * 2015-07-08 2017-01-26 株式会社豊田自動織機 無人フォークリフトにおける荷取り時の走行制御方法及び荷取り時の走行制御装置
JP2019118572A (ja) 2017-12-28 2019-07-22 ユニ・チャーム株式会社 吸収性物品

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3299125B2 (ja) * 1996-09-30 2002-07-08 日野自動車株式会社 荷崩れ警報装置
JP4330050B2 (ja) * 1999-08-27 2009-09-09 東急車輛製造株式会社 パレット搬送車
JP2005018472A (ja) * 2003-06-26 2005-01-20 Nec Mobiling Ltd 運送車両の荷崩れ監視システムおよびその方法
JP5165503B2 (ja) * 2008-08-29 2013-03-21 全国農業協同組合連合会 積荷監視方法及びそのための積荷監視システム
JP2013035399A (ja) * 2011-08-08 2013-02-21 Toshiba Alpine Automotive Technology Corp 荷室監視装置
CN103273880A (zh) * 2013-05-23 2013-09-04 无锡伊佩克科技有限公司 一种货车货物防掉落系统
US9902397B2 (en) * 2014-07-30 2018-02-27 Komatsu Ltd. Transporter vehicle and transporter vehicle control method
JP2016081159A (ja) * 2014-10-14 2016-05-16 トヨタ自動車株式会社 移動体
KR102326062B1 (ko) * 2014-11-12 2021-11-12 현대모비스 주식회사 자율주행차량의 장애물 회피 시스템 및 방법
US9944213B2 (en) * 2015-05-13 2018-04-17 Stratom, Inc. Robotic cargo system
JP6741402B2 (ja) * 2015-06-18 2020-08-19 日野自動車株式会社 情報提供装置、車両、および情報提供方法
US9958872B2 (en) * 2016-06-06 2018-05-01 International Business Machines Corporation Cargo-based vehicle control
US10346797B2 (en) * 2016-09-26 2019-07-09 Cybernet Systems, Inc. Path and load localization and operations supporting automated warehousing using robotic forklifts or other material handling vehicles
US10720070B2 (en) * 2018-01-03 2020-07-21 Qualcomm Incorporated Adjustable object avoidance proximity threshold of a robotic vehicle based on presence of detected payload(s)
US11041956B2 (en) * 2018-05-24 2021-06-22 Toyota Motor Engineering & Manufacturing North America, Inc. Lidar module and portable lidar scanner unit
US20210354924A1 (en) * 2018-10-29 2021-11-18 Fq Ip Ab Navigator for Intralogistics
US11770677B1 (en) * 2019-01-08 2023-09-26 Spirited Eagle Enterprises, LLC Enhanced safety systems and method for transportation vehicles
WO2020203253A1 (ja) * 2019-04-03 2020-10-08 株式会社Ihi 重量推定システム
US11429113B2 (en) * 2019-08-08 2022-08-30 Lg Electronics Inc. Serving system using robot and operation method thereof
US11062582B1 (en) * 2020-02-07 2021-07-13 Ford Global Technologies, Llc Pick-up cargo bed capacitive sensor systems and methods
US20220035684A1 (en) * 2020-08-03 2022-02-03 Nvidia Corporation Dynamic load balancing of operations for real-time deep learning analytics
US20220379792A1 (en) * 2021-05-25 2022-12-01 Stratom, Inc. Cargo transport system
WO2023064520A1 (en) * 2021-10-14 2023-04-20 Tusimple, Inc. Systems and methods for operating an autonomous vehicle
WO2024102846A1 (en) * 2022-11-08 2024-05-16 Seegrid Corporation System and method for definition of a zone of dynamic behavior with a continuum of possible actions and locations within the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012158445A (ja) 2011-02-01 2012-08-23 Murata Machinery Ltd 搬送車
JP2013230903A (ja) * 2012-04-27 2013-11-14 Hitachi Ltd フォークリフト
JP2014186693A (ja) 2013-03-25 2014-10-02 Murata Mach Ltd 自律移動式無人搬送車
JP2017019596A (ja) * 2015-07-08 2017-01-26 株式会社豊田自動織機 無人フォークリフトにおける荷取り時の走行制御方法及び荷取り時の走行制御装置
JP2019118572A (ja) 2017-12-28 2019-07-22 ユニ・チャーム株式会社 吸収性物品

Also Published As

Publication number Publication date
CN114072314B (zh) 2024-06-11
EP3992031A4 (en) 2023-07-19
KR20220006622A (ko) 2022-01-17
EP3992031A1 (en) 2022-05-04
US20220355806A1 (en) 2022-11-10
CN114072314A (zh) 2022-02-18
JPWO2020261973A1 (ja) 2020-12-30
KR102587696B1 (ko) 2023-10-10
JP7180777B2 (ja) 2022-11-30

Similar Documents

Publication Publication Date Title
US20210325897A1 (en) Sensor array for an autonomously operated utility vehicle and method for surround-view image acquisition
CN113329927B (zh) 基于激光雷达的挂车追踪
US10260889B2 (en) Position estimation device and position estimation method
JP7154362B2 (ja) 作業車
US20170320437A1 (en) Measurement of a Dimension on a Surface
WO2020203253A1 (ja) 重量推定システム
US11280897B2 (en) Radar field of view extensions
US9616886B2 (en) Size adjustment of forward objects for autonomous vehicles
US11709260B2 (en) Data driven resolution function derivation
US20220035029A1 (en) Method for evaluating an effect of an object in the surroundings of a transport device on a driving maneuver of the transport device
JP2009075638A (ja) 車種判別装置
US11999384B2 (en) Travel route generation device and control device
WO2020261973A1 (ja) 運転制御システム
JP2020067702A (ja) 姿勢検出装置及び運搬システム
KR20220064112A (ko) 다중 정보 기반의 증강 현실 영상을 이용한 선박블록 운송 장치 및 그것을 이용한 가시화 방법
CN218949346U (zh) 一种无人驾驶牵引车
US20230182730A1 (en) Apparatus for calculating driving path area of vehicle and method thereof
US11993274B2 (en) Monitoring of on-board vehicle image capturing device functionality compliance
US20220163675A1 (en) Methods of Using Background Images from a Light Detection and Ranging (LIDAR) Device
US20240094384A1 (en) Object detection using reflective surfaces
JP6886237B2 (ja) 移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20833690

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021528106

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20217040521

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020833690

Country of ref document: EP

Effective date: 20220126