JP6884312B1 - Robot obstacle avoidance processing method, device, robot - Google Patents

Robot obstacle avoidance processing method, device, robot Download PDF

Info

Publication number
JP6884312B1
JP6884312B1 JP2020193589A JP2020193589A JP6884312B1 JP 6884312 B1 JP6884312 B1 JP 6884312B1 JP 2020193589 A JP2020193589 A JP 2020193589A JP 2020193589 A JP2020193589 A JP 2020193589A JP 6884312 B1 JP6884312 B1 JP 6884312B1
Authority
JP
Japan
Prior art keywords
obstacle
image
sensing module
positioning
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020193589A
Other languages
Japanese (ja)
Other versions
JP2022035927A (en
Inventor
張曉龍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Django Robotics Shanghai Co ltd
Shanghai Jiangge Robot Co Ltd
Original Assignee
Django Robotics Shanghai Co ltd
Shanghai Jiangge Robot Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Django Robotics Shanghai Co ltd, Shanghai Jiangge Robot Co Ltd filed Critical Django Robotics Shanghai Co ltd
Application granted granted Critical
Publication of JP6884312B1 publication Critical patent/JP6884312B1/en
Publication of JP2022035927A publication Critical patent/JP2022035927A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

【課題】ロボット障害回避処理方法、装置及びロボットを提供する。【解決手段】ロボット障害回避処理方法は、画像感知モジュールが採集した環境画像を取得し(S102)、前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定し(S104)、前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断し(S106)、YESであれば、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行う(S108)。【選択図】図1PROBLEM TO BE SOLVED: To provide a robot obstacle avoidance processing method, an apparatus and a robot. SOLUTION: A robot obstacle avoidance processing method acquires an environmental image collected by an image sensing module (S102), identifies an obstacle in the environmental image, and positions a positioning sensing module with respect to the obstacle. Confirmed (S104), based on the positioning feature information collected by the positioning sensing module, it is determined whether or not the obstacle is within the target obstacle area (S106), and if YES, the positioning feature information is confirmed. Failure avoidance processing is performed based on the position information (S108). [Selection diagram] Fig. 1

Description

本発明はロボット技術分野に関し、特に、ロボット障害回避処理方法、装置及びロボットに関する。 The present invention relates to the field of robot technology, and more particularly to robot obstacle avoidance processing methods, devices and robots.

ロボット技術の発展に伴い、ロボットの作業環境は益々複雑化しており、このような複雑で変化が多く且つ予測不可能な作業環境において、ロボットが完了すべきタスクも益々複雑になるとと同時に、ユーザのロボットに対する要求も絶えず増大している。複雑で変化の多い作業環境に適用できるよう、周囲を感知でき且つ判断を下せるロボットが必要とされており、このようなロボットは周囲の環境パラメータに基づき、関連のアルゴリズムによりモデルを構築して意思決定でき、最終的にユーザが発したコマンドを実行できる。 With the development of robot technology, the working environment of robots is becoming more and more complicated, and in such a complicated, changing and unpredictable working environment, the tasks that the robot should complete become more and more complicated, and at the same time, the user. The demand for robots is also constantly increasing. Robots that can sense the surroundings and make decisions are needed so that they can be applied to complex and changing work environments, and such robots build models with related algorithms based on the surrounding environmental parameters and intend to do so. It can be decided and finally the command issued by the user can be executed.

ロボットについて言えば、作業過程において障害回避計画の処理は非常に基本的なことであり且つ極めて重要なタスクである。保管倉庫環境におけるロボットを例に、ロボットがオーダータスクを実行する時、コマンドに従って倉庫陳列棚の間を往来するが、その走行過程において、周囲には移動する仕分け作業員や、他のロボット等の移動する障害物だけでなく、陳列棚や壁等の固定の障害物も存在する。ロボットの作業走行過程においてロボットの衝突を避けられるよう、どのように速やかに判断を下せるかはロボットがオーダータスクを実行する上で重要な点となっており、また難しい点でもある。 As for robots, the processing of obstacle avoidance plans is a very basic and extremely important task in the work process. Taking a robot in a storage warehouse environment as an example, when a robot executes an order task, it moves back and forth between warehouse display shelves according to a command. There are not only moving obstacles, but also fixed obstacles such as display shelves and walls. How quickly a decision can be made so that a robot can avoid a collision during the working process of the robot is an important point and a difficult point for the robot to execute an order task.

本明細書の一つの又は複数の実施例はロボット障害回避処理方法を提供する。前記ロボット障害回避処理方法は、
画像感知モジュールが採集した環境画像を取得することと、
前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定することと、
前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することと、
もしYESなら、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うことを含む。
One or more embodiments of the present specification provide a robotic failure avoidance processing method. The robot obstacle avoidance processing method is
Acquiring the environmental image collected by the image sensing module
Identifying an obstacle in the environmental image and determining a positioning sensing module that positions the obstacle.
Based on the positioning feature information collected by the positioning sensing module, it is determined whether or not the obstacle is within the target obstacle area.
If YES, the failure avoidance process is included based on the position information determined by the positioning feature information.

任意選択的に、上記の前記環境画像中の障害物を識別することは、
前記環境画像を画像識別モデルに入力し、前記画像識別モデルにより前記環境画像に対して特徴分割および特徴識別を行い、前記環境画像に含まれる障害物の障害物タイプを出力することを含む。
Optionally, identifying obstacles in the environmental image above can be
This includes inputting the environmental image into an image identification model, performing feature division and feature identification on the environmental image by the image identification model, and outputting an obstacle type of an obstacle included in the environmental image.

任意選択的に、上記の前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
前記障害物タイプが固定障害物である場合、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することを含み、
前記画像感知モジュールは単眼カメラを含み、
これに対応して、上記の前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像に基づき前記障害物に対応する画像座標位置を確定するとともに、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定することと、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、上記の前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うステップを実行する。
任意選択的に、上記の前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
前記障害物タイプが移動障害物である場合、深度画像センサ及び前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することを含み、
これに対応して、上記の前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像及び前記深度画像センサが採集した深度画像に基づき、前記深度画像における、前記障害物に対応する画像座標位置を確定することと、
前記深度画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定することと、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、上記の前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うステップを実行する。
任意選択的に、上記の前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
前記環境画像に基づき前記障害物の特徴占有率を確定することと、
前記障害物の特徴占有率は所定の特徴占有率閾値より大きいか否か判断することと、
もしYESなら、無線センサを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することと、
もしNOなら、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することを含み、
前記画像感知モジュールは単眼カメラを含む。
Optionally, determining a positioning sensing module that positions the obstacle above
When the obstacle type is a fixed obstacle, it includes determining that the image sensing module is a positioning sensing module that positions the obstacle.
The image sensing module includes a monocular camera.
Correspondingly, it is possible to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, the step of performing the failure avoidance process based on the position information determined by the above-mentioned positioning feature information is executed.
Optionally, determining a positioning sensing module that positions the obstacle above
When the obstacle type is a movement obstacle, it includes determining that the depth image sensor and the image sensing module are positioning sensing modules that position the obstacle.
Correspondingly, it is possible to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
Based on the environmental image and the depth image collected by the depth image sensor, the image coordinate position corresponding to the obstacle in the depth image is determined.
Determining the target image area corresponding to the preset reference image area in the depth image, and
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, the step of performing the failure avoidance process based on the position information determined by the above-mentioned positioning feature information is executed.
Optionally, determining a positioning sensing module that positions the obstacle above
Determining the feature occupancy of the obstacle based on the environmental image
Judging whether or not the feature occupancy rate of the obstacle is larger than the predetermined feature occupancy threshold value,
If YES, confirm that the wireless sensor is a positioning sensing module that positions the obstacle.
If NO, it involves determining that the image sensing module is a positioning sensing module that positions the obstacle.
The image sensing module includes a monocular camera.

任意選択的に、上記の前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記無線センサが採集した前記障害物の位置データに基づき、前記位置データに対応する物理座標位置を確定することと、
前記物理座標位置は予め設置された物理障害エリア内にあるか否か判断することを含み、
もしYESなら、上記の前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うステップを実行する。
It is possible to optionally determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
Based on the position data of the obstacle collected by the wireless sensor, the physical coordinate position corresponding to the position data is determined.
The physical coordinate position includes determining whether or not the physical coordinate position is within a pre-installed physical obstacle area.
If YES, the step of performing the failure avoidance process based on the position information determined by the above-mentioned positioning feature information is executed.

任意選択的に、上記の前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像に基づき前記障害物に対応する画像座標位置を確定するとともに、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定することと、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、上記の前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うステップを実行する。
任意選択的に、上記の前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
前記環境画像に基づき前記障害物に対応する初期距離を計算することと、
予め確立された距離と位置決め感知モジュールの対応関係に基づき、前記初期距離に対応する第一位置決め感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールとして確定することを含む。
It is possible to optionally determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, the step of performing the failure avoidance process based on the position information determined by the above-mentioned positioning feature information is executed.
Optionally, determining a positioning sensing module that positions the obstacle above
To calculate the initial distance corresponding to the obstacle based on the environmental image,
Based on the correspondence between the distance and the positioning sensing module established in advance, the first positioning sensing module corresponding to the initial distance is determined as the positioning sensing module for positioning the obstacle.

任意選択的に、前記ロボット障害回避処理方法はさらに、
前記距離に対応する位置決め感知モジュールが採集した前記障害物の位置決め特徴情報に基づき、前記障害物に対応する第二距離を計算することと、
距離と位置決め感知モジュールの対応関係において、前記第二距離に対応する第二位置決め感知モジュールは、前記初期距離に対応する位置決め感知モジュールと一致するか否か判断することと、
もしNOなら、前記位置決め感知モジュールを前記第一位置決め感知モジュールから前記第二位置決め感知モジュールに切り換えることを含む。
Arbitrarily, the robot obstacle avoidance processing method further
Based on the positioning feature information of the obstacle collected by the positioning sensing module corresponding to the distance, the second distance corresponding to the obstacle is calculated.
Regarding the correspondence between the distance and the positioning sensing module, it is determined whether or not the second positioning sensing module corresponding to the second distance matches the positioning sensing module corresponding to the initial distance.
If NO, this includes switching the positioning sensing module from the first positioning sensing module to the second positioning sensing module.

任意選択的に、上記の前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うことは、
減速走行する走行コマンドを生成して実行することと、
前記位置情報に基づき走行ルートを規定し、前記走行ルートに基づき元の走行ルートを更新することを含む。
任意選択的に、上記の前記位置情報に基づき走行ルートを規定することは、
前記環境画像に基づき、前記障害物の最大障害アウトラインを確定することと、
前記走行ルートの走行幅が前記最大障害アウトラインの数値より大きくなるように、前記最大障害アウトライン及び前記位置情報に基づき走行ルートを規定することを含む。
任意選択的に、前記画像感知モジュールが採集した環境画像を取得するステップの実行後、且つ上記の前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定するステップの実行前に、
前記環境画像に含まれる目標物体特徴を検出することと、
前記目標物体特徴は障害物であるか否か検出することをさらに含み、
もしYESなら、上記の前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定するステップを実行する。
Arbitrarily, it is possible to perform the failure avoidance process based on the position information determined by the above-mentioned positioning feature information.
Generating and executing a driving command to decelerate,
It includes defining a traveling route based on the location information and updating the original traveling route based on the traveling route.
Arbitrarily, defining a travel route based on the above-mentioned position information is not possible.
Determining the maximum obstacle outline of the obstacle based on the environmental image,
It includes defining a traveling route based on the maximum obstacle outline and the position information so that the traveling width of the traveling route becomes larger than the numerical value of the maximum obstacle outline.
Arbitrarily, after executing the step of acquiring the environmental image collected by the image sensing module, and determining the positioning sensing module that identifies the obstacle in the environmental image and positions the obstacle. Before performing the steps to
Detecting the target object features included in the environmental image and
The target object feature further includes detecting whether or not it is an obstacle.
If YES, the step of identifying the obstacle in the environmental image and determining the positioning sensing module that positions the obstacle is performed.

本明細書の一つの又は複数の実施例はさらに、
画像感知モジュールが採集した環境画像を取得するように構成された環境画像取得モジュールと、
前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定するように構成された障害物識別モジュールと、
前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断するように構成された障害物判断モジュールと、を備え、
もしYESなら、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うように構成された障害回避処理モジュールを稼働する、ロボット障害回避処理装置を提供する。
One or more embodiments of the present specification further include.
An environmental image acquisition module configured to acquire environmental images collected by the image sensing module, and
An obstacle identification module configured to identify an obstacle in the environmental image and determine a positioning sensing module that positions the obstacle.
An obstacle determination module configured to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning detection module is provided.
If YES, the robot fault avoidance processing device that operates the fault avoidance processing module configured to perform the fault avoidance processing based on the position information determined by the positioning feature information is provided.

本明細書の一つの又は複数の実施例はさらに、
プロセッサ、画像感知モジュール及び位置決め感知モジュールを備え、
前記画像感知モジュールは環境画像を採集するように構成され、
前記プロセッサは前記画像感知モジュールが採集した環境画像を取得し、前記環境画像中の障害物を識別し、前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断し、もしYESなら、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うように構成され、
前記位置決め感知モジュールは前記プロセッサにより確定され、前記障害物に対して位置決めを行うように構成される、ロボットを提供する。
One or more embodiments of the present specification further include.
Equipped with a processor, image sensing module and positioning sensing module
The image sensing module is configured to collect environmental images.
The processor acquires an environmental image collected by the image sensing module, identifies an obstacle in the environmental image, and the obstacle is in the target obstacle area based on the positioning feature information collected by the positioning sensing module. If YES, the failure avoidance process is performed based on the position information determined by the positioning feature information.
The positioning sensing module provides a robot that is determined by the processor and configured to position against the obstacle.

任意選択的に、上記の前記環境画像中の障害物を識別することは、
前記環境画像を画像識別モデルに入力し、前記画像識別モデルにより前記環境画像に対して特徴分割および特徴識別を行い、前記環境画像に含まれる障害物の障害物タイプを出力することを含む。
Optionally, identifying obstacles in the environmental image above can be
This includes inputting the environmental image into an image identification model, performing feature division and feature identification on the environmental image by the image identification model, and outputting an obstacle type of an obstacle included in the environmental image.

任意選択的に、前記障害物タイプが固定障害物である場合、前記画像感知モジュールを前記位置決め感知モジュールであると確定し、
前記画像感知モジュールは単眼カメラを含み、
これに対応して、上記の前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像に基づき前記障害物に対応する画像座標位置を確定するとともに、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定することと、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、次のステップを実行する。
Optionally, if the obstacle type is a fixed obstacle, the image sensing module is determined to be the positioning sensing module.
The image sensing module includes a monocular camera.
Correspondingly, it is possible to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, perform the next step.

任意選択的に、前記障害物タイプが移動障害物である場合、深度画像センサ及び前記画像感知モジュールを前記位置決め感知モジュールであると確定し、
これに対応して、上記の前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像及び前記深度画像センサが採集した深度画像に基づき、前記深度画像における、前記障害物に対応する画像座標位置を確定することと、
前記深度画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定することと、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、次のステップを実行する。
Optionally, if the obstacle type is a movement obstacle, the depth image sensor and the image sensing module are determined to be the positioning sensing module.
Correspondingly, it is possible to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
Based on the environmental image and the depth image collected by the depth image sensor, the image coordinate position corresponding to the obstacle in the depth image is determined.
Determining the target image area corresponding to the preset reference image area in the depth image, and
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, perform the next step.

任意選択的に、前記プロセッサは、
前記環境画像に基づき前記障害物の特徴占有率を確定し、
前記障害物の特徴占有率は所定の特徴占有率閾値より大きいか否か判断し、
もしYESなら、無線センサを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定し、
もしNOなら、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定する、
操作を実行することにより前記位置決め感知モジュールを確定し、
前記画像感知モジュールは単眼カメラを含む。
Optionally, the processor
The feature occupancy rate of the obstacle is determined based on the environmental image, and the feature occupancy rate is determined.
It is determined whether or not the feature occupancy rate of the obstacle is larger than the predetermined feature occupancy threshold value.
If YES, it is determined that the wireless sensor is a positioning sensing module that positions the obstacle.
If NO, it is determined that the image sensing module is a positioning sensing module that positions the obstacle.
The positioning sensing module is confirmed by executing the operation, and the positioning sensing module is confirmed.
The image sensing module includes a monocular camera.

任意選択的に、上記の前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記無線センサが採集した前記障害物の位置データに基づき、前記位置データに対応する物理座標位置を確定することと、
前記物理座標位置は予め設置された物理障害エリア内にあるか否か判断することを含み、
もしYESなら、次のステップを実行する。
It is possible to optionally determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
Based on the position data of the obstacle collected by the wireless sensor, the physical coordinate position corresponding to the position data is determined.
The physical coordinate position includes determining whether or not the physical coordinate position is within a pre-installed physical obstacle area.
If YES, perform the next step.

任意選択的に、上記の前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像に基づき前記障害物に対応する画像座標位置を確定するとともに、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定することと、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、次のステップを実行する。
It is possible to optionally determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, perform the next step.

任意選択的に、前記プロセッサは、
前記環境画像に基づき前記障害物に対応する初期距離を計算し、
予め確立された、距離と位置決め感知モジュールの対応関係に基づき、前記初期距離に対応する第一位置決め感知モジュールを前記位置決め感知モジュールとして確定する、
操作を実行することにより前記位置決め感知モジュールを確定する。
Optionally, the processor
The initial distance corresponding to the obstacle is calculated based on the environmental image, and the initial distance is calculated.
Based on the pre-established correspondence between the distance and the positioning sensing module, the first positioning sensing module corresponding to the initial distance is determined as the positioning sensing module.
The positioning sensing module is confirmed by performing the operation.

任意選択的に、前記プロセッサはさらに、
前記距離に対応する位置決め感知モジュールが採集した前記障害物の位置決め特徴情報に基づき、前記障害物に対応する第二距離を計算し、
距離と位置決め感知モジュールの対応関係において、前記第二距離に対応する第二位置決め感知モジュールは、前記初期距離に対応する位置決め感知モジュールと一致するか否か判断し、
もしNOなら、前記位置決め感知モジュールを前記第一位置決め感知モジュールから前記第二位置決め感知モジュールに切り換えるように構成される。
Optionally, the processor further
Based on the positioning feature information of the obstacle collected by the positioning sensing module corresponding to the distance, the second distance corresponding to the obstacle is calculated.
In the correspondence relationship between the distance and the positioning sensing module, it is determined whether or not the second positioning sensing module corresponding to the second distance matches the positioning sensing module corresponding to the initial distance.
If NO, the positioning sensing module is configured to switch from the first positioning sensing module to the second positioning sensing module.

任意選択的に、上記の前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うことは、
減速走行する走行コマンドを生成して実行することと、
前記位置情報に基づき走行ルートを規定し、前記走行ルートに基づき元の走行ルートを更新することを含む。
Arbitrarily, it is possible to perform the failure avoidance process based on the position information determined by the above-mentioned positioning feature information.
Generating and executing a driving command to decelerate,
It includes defining a traveling route based on the location information and updating the original traveling route based on the traveling route.

任意選択的に、上記の前記位置情報に基づき走行ルートを規定することは、
前記環境画像に基づき、前記障害物の最大障害アウトラインを確定することと、
前記走行ルートの走行幅が前記最大障害アウトラインの数値より大きくなるように、前記最大障害アウトライン及び前記位置情報に基づき走行ルートを規定することを含む。
Arbitrarily, defining a travel route based on the above-mentioned position information is not possible.
Determining the maximum obstacle outline of the obstacle based on the environmental image,
It includes defining a traveling route based on the maximum obstacle outline and the position information so that the traveling width of the traveling route becomes larger than the numerical value of the maximum obstacle outline.

任意選択的に、前記プロセッサはさらに、
前記環境画像に含まれる目標物体特徴を検出し、
前記目標物体特徴は障害物であるか否か検出し、
もしYESなら、次のステップに進むように構成される。
Optionally, the processor further
The target object feature included in the environmental image is detected and
Detecting whether or not the target object feature is an obstacle,
If YES, it is configured to proceed to the next step.

本明細書の一つの又は複数の実施例はさらに、コンピュータ実行可能なコマンドを記憶するための記憶媒体であって、
前記コンピュータ実行可能なコマンドは実行される時に、
画像感知モジュールが採集した環境画像を取得し、
前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定し、
前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断し、
もしYESなら、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行う、
フローを実現する、記憶媒体を提供する。
One or more embodiments of the present specification are further storage media for storing computer-executable commands.
When the computer-executable command is executed,
Acquires the environmental image collected by the image sensing module and
An obstacle in the environmental image is identified, and a positioning sensing module that positions the obstacle is determined.
Based on the positioning feature information collected by the positioning sensing module, it is determined whether or not the obstacle is within the target obstacle area.
If YES, failure avoidance processing is performed based on the position information determined by the positioning feature information.
A storage medium that realizes a flow is provided.

本明細書の一つの又は複数の実施例又は従来技術における技術方案をより明確に説明するために、以下に、実施例又は従来技術の説明に必要な図面について簡単に紹介する。以下に説明される図面は本明細書に記載の一部の実施例に過ぎず、当業者は創造的な労働を経ずに、これら図面に基づき、さらに他の図面を得られることは言うまでもない。 In order to more clearly explain the technical plan in one or more examples or the prior art of the present specification, the drawings necessary for the description of the embodiment or the prior art will be briefly introduced below. It goes without saying that the drawings described below are only a portion of the embodiments described herein, and those skilled in the art will be able to obtain yet other drawings based on these drawings without the need for creative labor. ..

図1は本明細書の一つの又は複数の実施例が提供するロボット障害回避処理方法処理のフローチャートである。FIG. 1 is a flowchart of a robot failure avoidance processing method processing provided by one or more embodiments of the present specification. 図2は本明細書の一つの又は複数の実施例が提供する保管倉庫シーンに応用されるロボット障害回避処理方法処理のフローチャートである。FIG. 2 is a flowchart of a robot failure avoidance processing method processing applied to a storage warehouse scene provided by one or more embodiments of the present specification. 図3は本明細書の一つの又は複数の実施例が提供するロボット障害回避処理装置の概略図である。FIG. 3 is a schematic view of a robotic failure avoidance processing device provided by one or more embodiments of the present specification. 図4は本明細書の一つの又は複数の実施例が提供するロボットの構造概略図である。FIG. 4 is a schematic structural diagram of a robot provided by one or more embodiments of the present specification.

当業者が本明細書の一つの又は複数の実施例における技術方案をより理解できるように、以下に本明細書の一つの又は複数の実施例における図面と合わせて、本明細書の一つの又は複数の実施例における技術方案について明確に、完全に説明する。勿論、説明する実施例は単に本明細書の一部の実施例に過ぎず、全ての実施例ではない。本明細書の一つの又は複数の実施例に基づき、当業者が創造的な労働を経ずに得られる他の実施例もすべて本書類の保護範囲に属すと理解される。 To help those skilled in the art better understand the technical schemes in one or more embodiments of the present specification, the following, together with the drawings in one or more embodiments of the present specification, may be combined with one or more of the present specification. The technical proposals in the plurality of embodiments will be clearly and completely described. Of course, the examples described are merely a part of the examples of the present specification, not all the examples. Based on one or more embodiments herein, it is understood that all other embodiments obtained by those skilled in the art without creative labor also fall within the scope of this document.

本明細書が提供するロボット障害回避処理方法の実施例は以下のとおり: Examples of the robot failure avoidance processing method provided in the present specification are as follows:

図1は本実施例が提供するロボット障害回避処理方法処理のフローチャートを示す。図2は本実施例が提供する保管倉庫シーンに応用されるロボット障害回避処理方法処理のフローチャートを示す。 FIG. 1 shows a flowchart of the robot failure avoidance processing method processing provided by this embodiment. FIG. 2 shows a flowchart of the robot failure avoidance processing method processing applied to the storage warehouse scene provided by this embodiment.

図1を参照し、本実施例が提供するロボット障害回避処理方法は具体的に下記のステップS102〜ステップS108を含む。 With reference to FIG. 1, the robot failure avoidance processing method provided by this embodiment specifically includes the following steps S102 to S108.

ステップS102、画像感知モジュールが採集した環境画像を取得する。 Step S102, Acquire the environmental image collected by the image sensing module.

本明細書が提供するロボット障害回避処理方法は、まず画像感知モジュールによりロボットがいる作業環境の環境画像を採集し、環境画像に含まれる障害物を識別した場合において、障害物のタイプ、障害物の高さまたは障害物とロボットの距離から、障害物に対して位置決めを行う位置決め感知モジュールを確定し、こうして異なる障害物の状況に対して異なる位置決め感知モジュールを採用してより精確な位置決めを行い、障害物に対して位置決めを行った後、さらに障害物はロボット作業に影響する目標障害エリア内にあるか否か判断し、障害物が当該目標障害エリア内にいれば、障害物の位置情報からロボットに対して障害回避処理を行い、ロボットの作業がスムーズに行われることを確保する。 The robot obstacle avoidance processing method provided in the present specification first collects an environmental image of the work environment in which the robot is located by an image sensing module, and when the obstacle included in the environmental image is identified, the type of the obstacle and the obstacle. Based on the height of the robot or the distance between the robot and the robot, the positioning sensing module that positions the robot is determined, and thus different positioning sensing modules are adopted for different obstacle situations to perform more accurate positioning. After positioning the obstacle, it is determined whether or not the obstacle is in the target obstacle area that affects the robot work, and if the obstacle is in the target obstacle area, the position information of the obstacle is obtained. To ensure that the robot's work is performed smoothly by performing obstacle avoidance processing on the robot.

本実施例の前記画像センサとはロボット自体に設けられた画像センサを指し、例えばロボットに設けられた単眼カメラである。前記画像センサが採集したロボットがいる作業環境の画像とは前記環境画像であり、環境画像を採集する目的はロボット走行過程における障害物を検出するためであるため、ここにおける画像センサが採集した環境画像とはロボット走行ルートの前方作業環境エリアの環境画像であると理解できる。 The image sensor of this embodiment refers to an image sensor provided on the robot itself, and is, for example, a monocular camera provided on the robot. The image of the working environment in which the robot is collected by the image sensor is the environment image, and the purpose of collecting the environment image is to detect an obstacle in the robot traveling process. Therefore, the environment collected by the image sensor here. It can be understood that the image is an environmental image of the work environment area in front of the robot traveling route.

この他、前記画像センサはさらにロボットがいる作業環境内において、ロボットと協働作業する可動カメラとすることができ、またはロボット作業環境内の異なる位置に設けられ且つ互いに協働する複数の固定カメラとすることができる。 In addition, the image sensor can be a movable camera that collaborates with the robot in the work environment where the robot is present, or a plurality of fixed cameras that are provided at different positions in the robot work environment and cooperate with each other. Can be.

実際の応用において、ロボットの障害物に対する検出の迅速性及び正確性を高めるために、採用される方式は往々にしてロボットに設けられた画像センサの周波数を高めることであり、より高周波の画像採集及び障害物検出位置決めによりロボットと作業環境内の障害物がぶつかり合うのを回避するが、より高周波の画像採集及び障害物検出位置決め識別はロボットに対して処理圧力をもたらし、本実施例が提供する任意選択的な実施形態においては、ロボットの作業効率を高めるために、前記画像感知モジュールが環境画像を採集した後、まず環境画像に含まれる目標物体特徴を検出し、その後さらに前記目標物体特徴は障害物であるか否か検出し、もしYESなら、下記ステップS104を実行し、もしNOなら、現在のロボットに設けられた画像センサが採集した環境画像中に障害物が存在しないことを表し、つまりロボットが現在いる作業環境にその走行に対して影響を及ぼす障害物はないことを表し、処理しないでよい。 In practical applications, in order to improve the speed and accuracy of detection of obstacles in the robot, the method adopted is often to increase the frequency of the image sensor provided in the robot, and to collect higher frequency images. And while obstacle detection and positioning avoids the robot from colliding with obstacles in the work environment, higher frequency image collection and obstacle detection and positioning identification exerts processing pressure on the robot, provided by this embodiment. In the optional embodiment, in order to improve the work efficiency of the robot, after the image sensing module collects the environmental image, the target object feature included in the environmental image is first detected, and then the target object feature is further determined. Detects whether or not it is an obstacle, and if YES, executes step S104 below, and if NO, indicates that there is no obstacle in the environmental image collected by the image sensor installed in the current robot. In other words, it means that there are no obstacles in the current working environment of the robot that affect its running, and it is not necessary to process the robot.

ステップS104、前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定する。 Step S104, the obstacle in the environmental image is identified, and the positioning sensing module for positioning with respect to the obstacle is determined.

上記の画像採集モジュールが採集した環境画像を基に、前記環境画像中の障害物を識別する。または上記の前記環境画像に含まれる障害物を検出した場合において障害物に対して識別を行う。具体的に、識別過程において、前記環境画像を画像識別モデルに入力し、前記画像識別モデルにより前記環境画像に対して特徴分割および特徴識別を行い、前記環境画像に含まれる障害物の障害物タイプを出力する。 Obstacles in the environmental image are identified based on the environmental image collected by the image collecting module. Alternatively, when an obstacle included in the above environmental image is detected, the obstacle is identified. Specifically, in the identification process, the environmental image is input to the image identification model, feature division and feature identification are performed on the environmental image by the image identification model, and the obstacle type of the obstacle included in the environmental image. Is output.

例えば、識別効率及び識別正確率を高めるために、YOLOアルゴリズムを採用した画像識別モデルを学習させ、画像識別モデルを用いて採集した環境画像に対して障害物識別を行う。画像識別モデルは環境画像に対して障害物識別を行う過程において、識別前に往往にして特徴分割を行う必要がある。即ち、環境画像の複雑画像特徴の中で障害物特徴を分割し、特徴分割で取得した障害物特徴により障害物識別を行う。同様に、効率向上の角度から、さらに、画像識別モデルに環境画像に対して特徴分割を行うモジュールを追加し、当該モジュールが出力した障害物特徴を後で行う障害物識別の入力とすることで、環境画像を画像識別モデルに入力し特徴分割及び障害物識別を行い、取得した障害物タイプ、例えば人の脚(仕分け作業員)、ロボット、充電器、陳列棚および壁等を出力識別することを実現できる。 For example, in order to improve the identification efficiency and the identification accuracy rate, an image identification model adopting the YOLO algorithm is trained, and obstacle identification is performed on the environmental image collected using the image identification model. In the image identification model, in the process of identifying obstacles for an environmental image, it is necessary to perform feature division by going back and forth before identification. That is, the obstacle feature is divided among the complex image features of the environment image, and the obstacle is identified by the obstacle feature acquired by the feature division. Similarly, from the angle of efficiency improvement, by adding a module that divides the features of the environment image to the image identification model, and using the obstacle features output by the module as an input for obstacle identification to be performed later. , Input the environment image into the image identification model, perform feature division and obstacle identification, and output and identify the acquired obstacle types such as human legs (sorting workers), robots, chargers, display shelves and walls. Can be realized.

本実施例の前記位置決め感知モジュールとは、ロボットに設けられたセンサにおいて位置決め用として用いられるセンサを指す。例えばロボットに設けられた単眼カメラ、深度カメラ及び赤外線センサである。位置決め過程において単眼カメラが採集した環境画像に基づき位置決めを行う場合、単眼カメラを位置決め感知モジュールであると確定する。同様に、位置決め過程において深度カメラが採集した深度画像または赤外線センサが採集した位置データに基づき位置決めを行う場合、深度カメラまたは赤外線センサを位置決め感知モジュールであると確定する。 The positioning sensing module of this embodiment refers to a sensor used for positioning in a sensor provided in the robot. For example, a monocular camera, a depth camera, and an infrared sensor provided in the robot. When positioning is performed based on the environmental image collected by the monocular camera in the positioning process, the monocular camera is determined to be the positioning sensing module. Similarly, when positioning is performed based on the depth image collected by the depth camera or the position data collected by the infrared sensor in the positioning process, the depth camera or the infrared sensor is determined to be the positioning sensing module.

実際の応用において、ロボット作業環境には様々なタイプの障害物、例えば仕分け作業員、他のロボット等の移動障害物、また、陳列棚、壁等の固定障害物が存在する可能性がある。異なるタイプの障害物の異なる特性に基づき、本実施例が提供する任意選択的な実施形態において、障害物タイプに基づき相応の位置決め感知モジュールを確定する。つまり障害物タイプに基づき相応の位置決め方式を選択して障害物に対して位置決めを行う。こうして障害物の位置決めの正確性を高める。 In practical applications, the robot working environment may have various types of obstacles, such as moving obstacles such as sorting workers and other robots, and fixed obstacles such as display shelves and walls. Based on the different characteristics of different types of obstacles, in the optional embodiments provided by this embodiment, the appropriate positioning sensing module is determined based on the obstacle type. That is, positioning is performed on an obstacle by selecting an appropriate positioning method based on the obstacle type. In this way, the accuracy of obstacle positioning is improved.

具体的に、もし画像識別モデルが出力した障害物タイプが固定障害物である場合、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定する。例えば、陳列棚、壁等といったタイプの固定障害物については、依然として前の環境画像を採集する単眼カメラを障害物に対して位置決めを行う位置決め感知モジュールとして採用する。つまり単眼カメラが採集した環境画像に基づき障害物に対して位置決めを行う。 Specifically, if the obstacle type output by the image identification model is a fixed obstacle, it is determined that the image sensing module is a positioning sensing module that positions the obstacle. For example, for fixed obstacles of the type such as display shelves, walls, etc., a monocular camera that still collects previous environmental images is adopted as a positioning sensing module that positions the obstacles. That is, the obstacle is positioned based on the environmental image collected by the monocular camera.

もし前記障害物タイプが移動障害物である場合、深度画像センサ及び前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定する。例えば、仕分け作業員、他のロボットといったタイプの移動障害物については、ロボットに設けられた深度カメラ及び単眼カメラを同時に採用することで障害物に対して位置決めを行う。つまり深度カメラが採集した深度画像及び単眼カメラが採集した環境画像を合わせて障害物に対して位置決めを行う。
具体的に実施する時、多くのシーンにおいて障害物の高さは障害物の識別位置決めに対して一定の影響があることを考慮し、例えば保管倉庫シーンにおいて仕分けロボットの高さは低く、相対的に、仕分けロボットに設けられた画像センサの視野範囲も低い可能性があり、この状況に対して、本実施例が提供する任意選択的な実施形態において、障害物の高さに基づき相応の位置決め感知モジュールを確定し、異なる高さの障害物に対して異なる位置決め方式を採用し、こうして障害物の位置決めの正確性を高める。具体的に以下のように実現する:
前記環境画像に基づき前記障害物の特徴占有率を確定し、
前記障害物の特徴占有率は所定の特徴占有率閾値より大きいか否か判断し、
もしYESなら、無線センサを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定し、
もしNOなら、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定する。
If the obstacle type is a movement obstacle, it is determined that the depth image sensor and the image sensing module are positioning sensing modules that position the obstacle. For example, for a type of moving obstacle such as a sorting worker or another robot, positioning is performed on the obstacle by simultaneously adopting a depth camera and a monocular camera provided in the robot. That is, the depth image collected by the depth camera and the environment image collected by the monocular camera are combined to position the obstacle.
When specifically implemented, considering that the height of obstacles has a certain effect on the identification and positioning of obstacles in many scenes, for example, in the storage warehouse scene, the height of the sorting robot is low and relative. In addition, the field of view of the image sensor provided in the sorting robot may also be low, and in this situation, in the optional embodiment provided by this embodiment, appropriate positioning is performed based on the height of the obstacle. The sensing module is fixed and different positioning methods are adopted for obstacles of different heights, thus improving the accuracy of obstacle positioning. Specifically, it is realized as follows:
The feature occupancy rate of the obstacle is determined based on the environmental image, and the feature occupancy rate is determined.
It is determined whether or not the feature occupancy rate of the obstacle is larger than the predetermined feature occupancy threshold value.
If YES, it is determined that the wireless sensor is a positioning sensing module that positions the obstacle.
If NO, it is determined that the image sensing module is a positioning sensing module that positions the obstacle.

例えば、保管倉庫シーンにおいて仕分けロボットが採集した作業環境の環境画像において、ある障害物(陳列棚)の画像特徴の当該環境画像中の高さ占有率が1/2を超える場合、保管倉庫ロボット前方の陳列棚という障害物の高さは高いことを表す。このような場合において、無線探知及び測距センサ(レーダ)、超音波波センサまたは赤外線センサにより陳列棚という障害物に対して位置決めすればより正確になる。ある障害物(他の仕分けロボット)の高さ占有率が1/2未満である場合、保管倉庫ロボット前方の仕分けロボットという障害物の高さは低いことを表し、依然としてロボットに設けられた単眼カメラを用いて位置決めを行えばよい。 For example, in the environment image of the work environment collected by the sorting robot in the storage warehouse scene, when the height occupancy rate of the image feature of a certain obstacle (display shelf) in the environment image exceeds 1/2, the front of the storage warehouse robot. The height of the obstacle called the display shelf is high. In such a case, it will be more accurate if it is positioned with respect to an obstacle such as a display shelf by a wireless detection and ranging sensor (radar), an ultrasonic wave sensor or an infrared sensor. If the height occupancy of a certain obstacle (other sorting robot) is less than 1/2, it means that the height of the obstacle called the sorting robot in front of the storage warehouse robot is low, and the monocular camera still installed in the robot. Positioning may be performed using.

この他、具体的に実施する時、多くのシーンにおいて障害物とロボットの距離も同様に障害物の識別位置決めに対して一定の影響があることを考慮し、この状況に対して、本実施例が提供する任意選択的な実施形態において、障害物の距離に基づき相応の位置決め方式を選択し、こうして障害物の位置決めの正確性を高める。具体的に、前記環境画像に基づき前記障害物が対応する初期距離を計算し、その後予め確立された距離と位置決め感知モジュールの対応関係に基づき、前記初期距離が対応する第一位置決め感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールとして確定する。 In addition to this, when concretely implemented, considering that the distance between the obstacle and the robot also has a certain influence on the identification and positioning of the obstacle in many scenes, in this situation, this embodiment In an optional embodiment provided by, a suitable positioning method is selected based on the distance of the obstacle, thus increasing the accuracy of the positioning of the obstacle. Specifically, the initial distance corresponding to the obstacle is calculated based on the environmental image, and then the first positioning sensing module corresponding to the initial distance is referred to based on the correspondence relationship between the distance established in advance and the positioning sensing module. Determined as a positioning sensing module that positions obstacles.

例えば、障害物とロボットの間の距離が6mより大きい時、対応する位置決め感知モジュールは無線探知及び測距センサ(レーダ)、超音波波センサまたは赤外線センサ等の遠距離探知センサである。障害物とロボットの間の距離が6m以下である時、対応の位置決め感知モジュールは深度カメラである。このような場合において、深度カメラが採集した深度画像に基づき障害物に対して位置決めを行うだけでなく、深度画像及び単眼カメラが採集した環境画像を合わせて精度のより高い障害物の位置決めを行うことができる。 For example, when the distance between the obstacle and the robot is greater than 6 m, the corresponding positioning sensing module is a ranged detection sensor such as a wireless detection and ranging sensor (radar), an ultrasonic wave sensor or an infrared sensor. When the distance between the obstacle and the robot is less than 6m, the corresponding positioning sensing module is a depth camera. In such a case, not only the depth image collected by the depth camera is used for positioning the obstacle, but also the depth image and the environment image collected by the monocular camera are combined to position the obstacle with higher accuracy. be able to.

なお、同一障害物に対して障害回避処理を行う異なる段階において、異なる位置決め感知モジュールを採用して障害物に対して位置決めを行う正確度はより高くなる可能性があり、ロボットの作業走行過程における位置決めの正確度をさらに高めるために、本実施例はさらに、下記位置決め感知モジュールの切換操作を提供する。具体的に、前記距離が対応する位置決め感知モジュールが採集した前記障害物の位置決め特徴情報に基づき、前記障害物が対応する第二距離を計算し、これを基に、距離と位置決め感知モジュールの対応関係において、前記第二距離に対応する第二位置決め感知モジュールは、前記初期距離が対応する位置決め感知モジュールと一致するか否か判断し、もしYESなら、処理しないでよく、もしNOなら、前記位置決め感知モジュールを前記第一位置決め感知モジュールから前記第二位置決め感知モジュールに切り換える。 It should be noted that there is a possibility that the accuracy of positioning the obstacle by adopting different positioning sensing modules at different stages of performing the obstacle avoidance process for the same obstacle may be higher, and in the work running process of the robot. In order to further improve the positioning accuracy, the present embodiment further provides the following positioning sensing module switching operation. Specifically, based on the positioning feature information of the obstacle collected by the positioning sensing module corresponding to the distance, the second distance corresponding to the obstacle is calculated, and based on this, the distance corresponds to the positioning sensing module. In relation to this, the second positioning sensing module corresponding to the second distance determines whether the initial distance matches the corresponding positioning sensing module, and if YES, it does not need to be processed, and if NO, the positioning The sensing module is switched from the first positioning sensing module to the second positioning sensing module.

ステップS106、前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断する。 Step S106, based on the positioning feature information collected by the positioning sensing module, it is determined whether or not the obstacle is within the target obstacle area.

上記のステップS104で位置決め感知モジュールを確定したことを基に、ここで、確定した位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断し、もしYESなら、ステップS108を実行し、前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行い、もしNOなら、障害物はロボットの目標障害エリア内にないことを表し、処理しないでよい。 Based on the determination of the positioning sensing module in step S104 above, here, based on the positioning feature information collected by the determined positioning sensing module, it is determined whether or not the obstacle is within the target obstacle area, and if. If YES, step S108 is executed, and the obstacle avoidance process is performed based on the position information in which the positioning feature information is determined. If NO, it indicates that the obstacle is not within the target obstacle area of the robot, and the process may not be performed.

なお、前記位置決め感知モジュールが採集した位置決め特徴情報は、位置決めセンサ確定後、確定した位置決めセンサが採集した位置決め特徴情報とすることができ、例えば、確定した位置決め感知モジュールが深度カメラである場合、位置決め感知モジュールが採集した位置決め特徴情報は深度カメラが採集した深度画像となり、また、例えば、確定した位置決め感知モジュールが単眼カメラである場合、位置決め感知モジュールが採集した位置決め特徴情報は単眼カメラが採集した環境画像となり、当該環境画像は単眼カメラが位置決め感知モジュールであると確定する前に採集した環境画像でも、単眼カメラが位置決め感知モジュールであると確定した後に新たに採集した環境画像でもよい。 The positioning feature information collected by the positioning sensing module can be the positioning feature information collected by the determined positioning sensor after the positioning sensor is confirmed. For example, when the determined positioning sensing module is a depth camera, positioning is performed. The positioning feature information collected by the sensing module is a depth image collected by the depth camera. For example, when the determined positioning sensing module is a monocular camera, the positioning feature information collected by the positioning sensing module is the environment collected by the monocular camera. The environmental image becomes an image, and the environmental image may be an environmental image collected before the monocular camera is determined to be the positioning sensing module, or may be an environmental image newly collected after the monocular camera is determined to be the positioning sensing module.

本実施例の前記目標障害エリアとは空間緯度においてロボット走行前方の特定エリアを指し、例えばロボットの正面前方の幅0.7m、長さ1.2mの矩形エリアを目標障害エリアに指定できる。この他、前記目標障害エリアはさらに画像緯度における画像中の特定エリアを含むことができる。例えば単眼カメラが採集した環境画像中の矩形エリアまたは扇形エリアを目標障害エリアに指定でき、または深度カメラが採集した深度画像中の矩形エリアまたは扇形エリアを目標障害エリアに指定できる。 The target obstacle area of the present embodiment refers to a specific area in front of the robot traveling in spatial latitude, and for example, a rectangular area with a width of 0.7 m and a length of 1.2 m in front of the robot can be designated as the target obstacle area. In addition, the target obstacle area can further include a specific area in the image at image latitude. For example, a rectangular area or a fan-shaped area in an environmental image collected by a monocular camera can be designated as a target obstacle area, or a rectangular area or a fan-shaped area in a depth image collected by a depth camera can be designated as a target obstacle area.

上記の障害物タイプに基づき位置決め感知モジュールを確定する実現方式に対応して、もし上記画像識別モデルが出力した障害物タイプが固定障害物である場合、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定した後、以下の方式で障害物が目標障害エリア内にあるか否かの判断を行う:
前記環境画像に基づき前記障害物が対応する画像座標位置を確定し、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定し、
前記画像座標位置は前記目標画像エリア内にあるか否か判断し、
もしYESなら、下記ステップS108を実行し、前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行い、
もしNOなら、障害物はロボットの目標障害エリア内にないことを表し、処理しないでよい。
Corresponding to the implementation method of determining the positioning detection module based on the above obstacle type, if the obstacle type output by the image identification model is a fixed obstacle, the image detection module is applied to the obstacle. After confirming that it is a positioning detection module that performs positioning, it is determined whether or not an obstacle is within the target obstacle area by the following method:
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
It is determined whether or not the image coordinate position is within the target image area, and the image coordinate position is determined.
If YES, the following step S108 is executed, and the failure avoidance process is performed based on the position information in which the positioning feature information is confirmed.
If NO, it means that the obstacle is not within the robot's target obstacle area and should not be processed.

これと同様、もし上記画像識別モデルが出力した障害物タイプが移動障害物である場合、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定した後、以下の方式で障害物が目標障害エリア内にあるか否かの判断を行う:
前記環境画像に基づき前記障害物が対応する画像座標位置を確定し、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定し、
その後、前記画像座標位置は前記目標画像エリア内にあるか否か判断し、
もしYESなら、下記ステップS108を実行し、前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行い、
もしNOなら、障害物はロボットの目標障害エリア内にないことを表し、処理しないでよい。
Similar to this, if the obstacle type output by the image identification model is a moving obstacle, after determining that the image sensing module is a positioning sensing module that positions the obstacle, the following method is used. To determine if an obstacle is within the target obstacle area:
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
After that, it is determined whether or not the image coordinate position is within the target image area, and the image coordinate position is determined.
If YES, the following step S108 is executed, and the failure avoidance process is performed based on the position information in which the positioning feature information is confirmed.
If NO, it means that the obstacle is not within the robot's target obstacle area and should not be processed.

この他、上記の障害物の高さに基づき相応の位置決め感知モジュールを確定する実現方式に対応して、もし上記確定した位置決め感知モジュールが無線センサである場合、以下の方式で障害物が目標障害エリア内にあるか否かの判断を行う:
前記無線センサが採集した前記障害物の位置データに基づき、前記位置データが対応する物理座標位置を確定し、
前記物理座標位置は予め設置された物理障害エリア内にあるか否か判断し、
もしYESなら、下記ステップS108を実行し、前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行い、
もしNOなら、障害物はロボットの目標障害エリア内にないことを表し、処理しないでよい。
In addition, corresponding to the realization method of determining the appropriate positioning sensing module based on the height of the obstacle, if the determined positioning sensing module is a wireless sensor, the obstacle is the target obstacle by the following method. Determine if it is in the area:
Based on the position data of the obstacle collected by the wireless sensor, the physical coordinate position corresponding to the position data is determined.
It is determined whether or not the physical coordinate position is within the pre-installed physical obstacle area, and the physical coordinate position is determined.
If YES, the following step S108 is executed, and the failure avoidance process is performed based on the position information in which the positioning feature information is confirmed.
If NO, it means that the obstacle is not within the robot's target obstacle area and should not be processed.

これと同様、もし上記確定した位置決め感知モジュールが画像センサである場合、以下の方式で障害物が目標障害エリア内にあるか否かの判断を行う:
前記環境画像に基づき前記障害物が対応する画像座標位置を確定し、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定し、
前記画像座標位置は前記目標画像エリア内にあるか否か判断し、
もしYESなら、下記ステップS108を実行し、前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行い、
もしNOなら、障害物はロボットの目標障害エリア内にないことを表し、処理しないでよい。
Similarly, if the above-determined positioning sensing module is an image sensor, the following method is used to determine whether an obstacle is within the target obstacle area:
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
It is determined whether or not the image coordinate position is within the target image area, and the image coordinate position is determined.
If YES, the following step S108 is executed, and the failure avoidance process is performed based on the position information in which the positioning feature information is confirmed.
If NO, it means that the obstacle is not within the robot's target obstacle area and should not be processed.

ステップS108、前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行う。 In step S108, the failure avoidance process is performed based on the position information in which the positioning feature information is determined.

本ステップが実施される前提は、上記ステップS106で前記障害物は目標障害エリア内にあるか否か判断した判断結果がYESであることであり、具体的に前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行う過程において、まず減速走行する走行コマンドを生成して実行し、その後、前記位置情報に基づき走行ルートを規定し、前記走行ルートに基づき元の走行ルートを更新することである。 The premise that this step is carried out is that the determination result of determining whether or not the obstacle is within the target obstacle area in step S106 is YES, and specifically, the position information in which the positioning feature information is determined. In the process of performing obstacle avoidance processing based on, first, a traveling command for decelerating travel is generated and executed, then a traveling route is defined based on the position information, and the original traveling route is updated based on the traveling route. is there.

実際の応用において、ロボットの作業シーンにおいて往往にして様々な複雑な状況が存在し、保管倉庫シーンを例に、仕分けロボット上に置かれる貨物の体積は仕分けロボットの体積より大きい可能性があり、仕分けロボットの間で障害物との衝突は生じないが、仕分けロボット上に置かれた貨物は衝突を生じる可能性があり、または障害物と衝突を生じる可能性がある。このような状況に対して、本実施例は走行ルート規定過程において、まず前記環境画像に基づき、前記障害物の最大障害アウトラインを確定し、前記走行ルートの走行幅が前記最大障害アウトライン数値より大きくなるように、前記最大障害アウトライン及び前記位置情報に基づき走行ルートを規定する。こうして降低ロボット走行過程において障害物と衝突する確率を低くし、ロボットの複雑シーンに対する対応力を高める。 In actual application, there are various complicated situations in the robot work scene, and the volume of cargo placed on the sorting robot may be larger than the volume of the sorting robot, taking the storage warehouse scene as an example. Although there is no collision with obstacles between the sorting robots, the cargo placed on the sorting robots can cause collisions or collisions with obstacles. In response to such a situation, in the traveling route defining process, in the traveling route defining process, the maximum obstacle outline of the obstacle is first determined based on the environmental image, and the traveling width of the traveling route is larger than the maximum obstacle outline value. Therefore, the travel route is defined based on the maximum obstacle outline and the position information. In this way, the probability of colliding with an obstacle in the traveling process of the descending robot is reduced, and the robot's ability to respond to complicated scenes is enhanced.

下記に、本実施例が提供するロボット障害回避処理方法の保管倉庫シーンにおける応用を例に、本実施例が提供するロボット障害回避処理方法についてさらに説明する。図2を参照し、保管倉庫シーンに応用されるロボット障害回避処理方法は具体的にステップS202〜ステップS226を含む。 The robot failure avoidance processing method provided by the present embodiment will be further described below by taking as an example the application of the robot failure avoidance processing method provided by the present embodiment in the storage warehouse scene. With reference to FIG. 2, the robot failure avoidance processing method applied to the storage warehouse scene specifically includes steps S202 to S226.

ステップS202、仕分けロボットに設けられた単眼カメラが採集した環境画像を取得する。 In step S202, the environmental image collected by the monocular camera provided in the sorting robot is acquired.

この他、単眼カメラはさらに仕分けロボットがいる作業環境において、仕分けロボットと協働作業する可動カメラとすることができ、または仕分けロボット作業環境内の異なる位置に設けられ且つ互いに協働する複数の固定カメラとすることができる。
ステップS204、環境画像に含まれる目標物体特徴を検出する。
In addition, the monocular camera can be a movable camera that works in collaboration with the sorting robot in a work environment with a sorting robot, or a plurality of fixed cameras that are provided at different positions in the sorting robot working environment and cooperate with each other. It can be a camera.
Step S204, the target object feature included in the environmental image is detected.

ステップS206、目標物体特徴は障害物であるか否か検出する。 In step S206, the target object feature detects whether it is an obstacle.

もし目標物体特徴の検出結果はそれが障害物であると表す場合、下記ステップS208を実行し、逆の場合は、現在の仕分けロボットに設けられた単眼カメラが採集した環境画像中に障害物が存在しないことを表し、つまり仕分けロボットは現在のいる作業環境にその走行に対して影響を及ぼす障害物がないことを表し、処理しないでよい。 If the detection result of the target object feature indicates that it is an obstacle, perform step S208 below, and vice versa, the obstacle is in the environmental image collected by the monocular camera installed in the current sorting robot. It means that it does not exist, that is, the sorting robot means that there are no obstacles in the current working environment that affect its running, and it does not have to be processed.

ステップS208、環境画像を画像識別モデルに入力し、特徴分割および特徴識別を行い、環境画像に含まれる障害物の障害物タイプを出力する。 Step S208, the environmental image is input to the image identification model, feature division and feature identification are performed, and the obstacle type of the obstacle included in the environmental image is output.

ステップS210、もし障害物タイプが固定障害物である場合、単眼カメラを障害物に対して位置決めを行う位置決め感知モジュールであると確定する。 Step S210, if the obstacle type is a fixed obstacle, determine that it is a positioning sensing module that positions the monocular camera with respect to the obstacle.

ステップS212、環境画像に基づき障害物が対応する空間座標位置を確定する。 Step S212, the spatial coordinate position corresponding to the obstacle is determined based on the environment image.

ステップS214、空間座標位置が空間障害エリア内にあるか否か判断し、もしYESなら、ステップS224を実行し、もしNOなら、処理しないでよい。 Step S214, determines whether the spatial coordinate position is within the spatial obstacle area, if YES, execute step S224, and if NO, do not process.

ステップS216、もし障害物タイプが移動障害物である場合、深度カメラ及び単眼カメラの両方を障害物に対して位置決めを行う位置決め感知モジュールであると確定する。 Step S216, if the obstacle type is a moving obstacle, determine that both the depth camera and the monocular camera are positioning sensing modules that position the obstacle.

ステップS218、環境画像及び深度カメラが採集した深度画像に基づき、障害物の融合画像中の対応する画像座標位置を確定する。そのうち、融合画像は環境画像及び深度画像により融合された後に取得できる。 Step S218, Based on the environmental image and the depth image collected by the depth camera, determine the corresponding image coordinate position in the fusion image of the obstacle. Among them, the fused image can be acquired after being fused by the environment image and the depth image.

ステップS220、融合画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定する。 Step S220, the target image area corresponding to the preset reference image area in the fused image is determined.

ステップS222、画像座標位置は目標画像エリア内にあるか否か判断し、もしYESなら、ステップS224を実行し、もしNOなら、処理しないでよい。 In step S222, it is determined whether or not the image coordinate position is within the target image area. If YES, step S224 is executed, and if NO, the process may not be performed.

ステップS224、減速走行する走行コマンドを生成して実行する。 Step S224, generate and execute a running command to decelerate.

ステップS226、位置情報に基づき走行ルートを規定し、仕分けロボットに対してルート更新を行う。 Step S226, the travel route is defined based on the position information, and the route is updated for the sorting robot.

本明細書が提供するロボット障害回避処理装置の実施例は以下のとおり:
上記の実施例においてロボット障害回避処理方法を提供した。これに対応して、ロボット障害回避処理装置をさらに提供する。以下に図面と合わせて説明する。
Examples of the robot failure avoidance processing device provided in the present specification are as follows:
In the above embodiment, the robot failure avoidance processing method is provided. Correspondingly, a robot failure avoidance processing device is further provided. It will be described below together with the drawings.

図3は本実施例が提供するロボット障害回避処理装置の概略図を示す。 FIG. 3 shows a schematic view of the robot failure avoidance processing device provided by this embodiment.

装置実施例は方法実施例に対応するため、比較的簡単に説明する。関連部分は上記提供した方法実施例の対応説明を参照できる。以下に説明する装置実施例は単に概略的なものである。 Since the device embodiment corresponds to the method embodiment, it will be described relatively briefly. For the related part, the corresponding description of the method embodiment provided above can be referred to. The device embodiments described below are merely schematic.

本実施例はロボット障害回避処理装置を提供する。 This embodiment provides a robot failure avoidance processing device.

画像感知モジュールが採集した環境画像を取得するように構成された環境画像取得モジュール302と、
前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定するように構成された障害物識別モジュール304と、
前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断するように構成された障害物判断モジュール306と、を備え、
もしYESなら、前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行うように構成された障害回避処理モジュール308を稼働する。
An environmental image acquisition module 302 configured to acquire environmental images collected by the image sensing module, and
An obstacle identification module 304 configured to identify an obstacle in the environmental image and determine a positioning sensing module that positions the obstacle.
An obstacle determination module 306 configured to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module is provided.
If YES, the failure avoidance processing module 308 configured to perform the failure avoidance processing based on the position information in which the positioning feature information is determined is operated.

任意選択的に、前記障害物識別モジュール304は、
前記環境画像を画像識別モデルに入力し、前記画像識別モデルにより前記環境画像に対して特徴分割および特徴識別を行い、前記環境画像に含まれる障害物の障害物タイプを出力するように構成された識別子モジュールを含む。
Optionally, the obstacle identification module 304
The environment image is input to the image identification model, the environment image is feature-divided and feature-identified by the image identification model, and the obstacle type of the obstacle included in the environment image is output. Includes an identifier module.

任意選択的に、前記障害物識別モジュール304は、
前記障害物タイプが固定障害物である場合において、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定するように構成された第一確定子モジュールを含み、
前記画像感知モジュールは単眼カメラを備え、
これに対応して、前記障害物判断モジュール306は、具体的に、前記環境画像に基づき前記障害物が対応する画像座標位置を確定し、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定し、前記画像座標位置は前記目標画像エリア内にあるか否か判断するように構成され、
もしYESなら、前記障害回避処理モジュール308を稼働する。
Optionally, the obstacle identification module 304
Includes a first determiner module configured to determine that the image sensing module is a positioning sensing module that positions the obstacle when the obstacle type is a fixed obstacle.
The image sensing module includes a monocular camera and
Correspondingly, the obstacle determination module 306 specifically determines the image coordinate position corresponding to the obstacle based on the environment image, and corresponds to the reference image area set in advance in the environment image. The target image area to be used is determined, and it is configured to determine whether or not the image coordinate position is within the target image area.
If YES, the failure avoidance processing module 308 is operated.

任意選択的に、前記障害物識別モジュール304は、
前記障害物タイプが移動障害物である場合において、深度画像センサ及び前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定するように構成された第二確定子モジュールを含み、
これに対応して、前記障害物判断モジュール306は、具体的に、前記環境画像及び前記深度画像センサが採集した深度画像に基づき、前記障害物は前記深度画像中の対応する画像座標位置にあると確定し、前記深度画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定し、前記画像座標位置は前記目標画像エリア内にあるか否か判断するように構成され、
もしYESなら、前記障害回避処理モジュール308を稼働する。
Optionally, the obstacle identification module 304
When the obstacle type is a movement obstacle, a second determinant module configured to determine that the depth image sensor and the image sensing module are positioning sensing modules that position the obstacle. Including
Correspondingly, the obstacle determination module 306 is specifically based on the environment image and the depth image collected by the depth image sensor, and the obstacle is at the corresponding image coordinate position in the depth image. Is determined, the target image area corresponding to the preset reference image area in the depth image is determined, and it is configured to determine whether or not the image coordinate position is within the target image area.
If YES, the failure avoidance processing module 308 is operated.

任意選択的に、前記障害物識別モジュール304は、
前記環境画像に基づき前記障害物の特徴占有率を確定するように構成された特徴占有率確定子モジュールと、
前記障害物の特徴占有率は所定の特徴占有率閾値より大きいか否か判断するように構成された特徴占有率判断子モジュールと、を含み、
もしYESなら、無線センサを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定し、
もしNOなら、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定し、
前記画像感知モジュールは単眼カメラを備える。
Optionally, the obstacle identification module 304
A feature occupancy determinant module configured to determine the feature occupancy of the obstacle based on the environmental image.
Includes a feature occupancy determiner module configured to determine if the feature occupancy of the obstacle is greater than a predetermined feature occupancy threshold.
If YES, it is determined that the wireless sensor is a positioning sensing module that positions the obstacle.
If NO, it is determined that the image sensing module is a positioning sensing module that positions the obstacle.
The image sensing module includes a monocular camera.

任意選択的に、前記障害物判断モジュール306は、具体的に、前記無線センサが採集した前記障害物の位置データに基づき、前記位置データが対応する物理座標位置を確定し、前記物理座標位置は予め設置された物理障害エリア内にあるか否か判断するように構成され、
もしYESなら、前記障害回避処理モジュール308を稼働する。
Arbitrarily, the obstacle determination module 306 determines the physical coordinate position corresponding to the position data based on the position data of the obstacle collected by the wireless sensor, and the physical coordinate position is set to the physical coordinate position. It is configured to determine if it is within a pre-installed physical failure area,
If YES, the failure avoidance processing module 308 is operated.

任意選択的に、前記障害物判断モジュール306は、具体的に、前記環境画像に基づき前記障害物が対応する画像座標位置を確定し、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定し、前記画像座標位置は前記目標画像エリア内にあるか否か判断するように構成され、
もしYESなら、前記障害回避処理モジュール308を稼働する。
Optionally, the obstacle determination module 306 specifically determines the image coordinate position corresponding to the obstacle based on the environment image, and corresponds to a preset reference image area in the environment image. It is configured to determine the target image area and determine whether the image coordinate position is within the target image area.
If YES, the failure avoidance processing module 308 is operated.

任意選択的に、前記障害物識別モジュール304は、
前記環境画像に基づき前記障害物が対応する初期距離を計算するように構成された初期距離計算子モジュールと、
予め確立された距離と位置決め感知モジュールの対応関係に基づき、前記初期距離が対応する第一位置決め感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールとして確定するように構成された第一位置決め感知モジュール確定子モジュールと、を含む。
Optionally, the obstacle identification module 304
An initial distance calculator module configured to calculate the corresponding initial distance of the obstacle based on the environmental image.
Based on the correspondence between the distance and the positioning sensing module established in advance, the first positioning sensing module configured to determine the first positioning sensing module corresponding to the initial distance as the positioning sensing module that positions the obstacle. Includes a sensing module determinant module and.

任意選択的に、前記ロボット障害回避処理装置は、
前記距離が対応する位置決め感知モジュールが採集した前記障害物の位置決め特徴情報に基づき、前記障害物が対応する第二距離を計算するように構成された第二距離確定モジュールと、
距離と位置決め感知モジュールの対応関係において、前記第二距離に対応する第二位置決め感知モジュールは、前記初期距離が対応する位置決め感知モジュールと一致するか否か判断するように構成された第二距離判断モジュールと、をさらに備え、
もしNOなら、前記位置決め感知モジュールを前記第一位置決め感知モジュールから前記第二位置決め感知モジュールに切り換える。
Optionally, the robot fault avoidance processing device
A second distance determination module configured to calculate the second distance corresponding to the obstacle based on the positioning feature information of the obstacle collected by the positioning sensing module corresponding to the distance.
In the correspondence relationship between the distance and the positioning sensing module, the second positioning sensing module corresponding to the second distance is configured to determine whether or not the initial distance matches the corresponding positioning sensing module. With more modules,
If NO, the positioning sensing module is switched from the first positioning sensing module to the second positioning sensing module.

任意選択的に、前記障害回避処理モジュール308は、
減速走行する走行コマンドを生成して実行するように構成された走行コマンド実行子モジュールと、
前記位置情報に基づき走行ルートを規定し、前記走行ルートに基づき元の走行ルートを更新するように構成された走行ルート規定子モジュールと、を含む。
Optionally, the failure avoidance processing module 308
A travel command executor module configured to generate and execute travel commands for decelerating travel,
It includes a travel route regulator module configured to define a travel route based on the location information and update the original travel route based on the travel route.

任意選択的に、前記走行ルート規定子モジュールは、
前記環境画像に基づき、前記障害物の最大障害アウトラインを確定するように構成された最大障害アウトライン確定ユニットと、
前記走行ルートの走行幅が前記最大障害アウトライン数値より大きくなるように、前記最大障害アウトライン及び前記位置情報に基づき走行ルートを規定するように構成された走行ルート規定ユニットと、を備える。
Optionally, the travel route regulator module
A maximum obstacle outline determination unit configured to determine the maximum obstacle outline of the obstacle based on the environmental image,
The traveling route defining unit is provided so as to define a traveling route based on the maximum obstacle outline and the position information so that the traveling width of the traveling route becomes larger than the maximum obstacle outline numerical value.

任意選択的に、前記ロボット障害回避処理装置は、
前記環境画像に含まれる目標物体特徴を検出するように構成された目標物体特徴検出モジュールと、
前記目標物体特徴は障害物であるか否か検出するように構成された障害物検出モジュールと、をさらに備え、
もしYESなら、障害物識別モジュール304を稼働する。
Optionally, the robot fault avoidance processing device
A target object feature detection module configured to detect a target object feature included in the environmental image, and a target object feature detection module.
The target object feature further comprises an obstacle detection module configured to detect whether or not it is an obstacle.
If YES, run the obstacle identification module 304.

本明細書が提供するロボットの実施例は以下のとおり:
上記説明したロボット障害回避処理方法に対応して、同じ技術構想に基づき、本明細書の一つの又は複数の実施例はさらにロボットを提供する。当該ロボットは上記のロボット障害回避処理方法を実行するために用いられる。図4は本明細書の一つの又は複数の実施例が提供するロボットの構造概略図である。
Examples of robots provided herein are:
Corresponding to the robotic failure avoidance processing method described above, based on the same technical concept, one or more embodiments of the present specification further provide robots. The robot is used to execute the above-mentioned robot obstacle avoidance processing method. FIG. 4 is a schematic structural diagram of the robot provided by one or more embodiments of the present specification.

本実施例が提供するロボットは、
プロセッサ401、画像感知モジュール402及び位置決め感知モジュール403を備え、
前記画像感知モジュール402は環境画像を採取するように構成され、
前記プロセッサ401は前記画像感知モジュール402が採集した環境画像を取得し、前記環境画像中の障害物を識別し、前記位置決め感知モジュール403が採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断し、
もしYESなら、前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行うように構成され、
前記位置決め感知モジュール403は前記プロセッサ401により確定され、前記障害物に対して位置決めを行うように構成された。
The robot provided by this embodiment is
Equipped with processor 401, image sensing module 402 and positioning sensing module 403
The image sensing module 402 is configured to collect environmental images.
The processor 401 acquires an environmental image collected by the image sensing module 402, identifies an obstacle in the environmental image, and based on the positioning feature information collected by the positioning sensing module 403, the obstacle is a target obstacle area. Judge whether it is inside,
If YES, the fault avoidance process is configured to be performed based on the position information in which the positioning feature information is fixed.
The positioning sensing module 403 was determined by the processor 401 and configured to position against the obstacle.

任意選択的に、上記の前記環境画像中の障害物を識別することは、
前記環境画像を画像識別モデルに入力し、前記画像識別モデルにより前記環境画像に対して特徴分割および特徴識別を行い、前記環境画像に含まれる障害物の障害物タイプを出力することを含む。
Optionally, identifying obstacles in the environmental image above can be
This includes inputting the environmental image into an image identification model, performing feature division and feature identification on the environmental image by the image identification model, and outputting an obstacle type of an obstacle included in the environmental image.

任意選択的に、もし前記障害物タイプが固定障害物である場合、前記画像感知モジュール402を前記位置決め感知モジュール403であると確定し、
前記画像感知モジュール402は単眼カメラを備え、
これに対応して、上記の前記位置決め感知モジュール403が採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像に基づき前記障害物が対応する画像座標位置を確定し、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定し、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、次を実行する。
Optionally, if the obstacle type is a fixed obstacle, the image sensing module 402 is determined to be the positioning sensing module 403.
The image sensing module 402 includes a monocular camera.
Correspondingly, it is possible to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module 403.
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, do the following:

任意選択的に、もし前記障害物タイプが移動障害物である場合、深度画像センサ及び前記画像感知モジュール402を前記位置決め感知モジュール403であると確定し、
これに対応して、上記の前記位置決め感知モジュール403が採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像及び前記深度画像センサが採集した深度画像に基づき、前記障害物は前記深度画像中の対応する画像座標位置にあると確定し、
前記深度画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定し、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、次を実行する。
Optionally, if the obstacle type is a moving obstacle, the depth image sensor and the image sensing module 402 are determined to be the positioning sensing module 403.
Correspondingly, it is possible to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module 403.
Based on the environmental image and the depth image collected by the depth image sensor, it is determined that the obstacle is at the corresponding image coordinate position in the depth image.
A target image area corresponding to a preset reference image area in the depth image is determined, and the target image area is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, do the following:

任意選択的に、前記プロセッサは、
前記環境画像に基づき前記障害物の特徴占有率を確定し、
前記障害物の特徴占有率は所定の特徴占有率閾値より大きいか否か判断し、
もしYESなら、無線センサを前記位置決め感知モジュール403であると確定し、
もしNOなら、前記画像感知モジュール402を前記位置決め感知モジュール403であると確定する、
操作を実行することにより前記位置決め感知モジュール403を確定し、
前記画像感知モジュール402は単眼カメラを備える。
Optionally, the processor
The feature occupancy rate of the obstacle is determined based on the environmental image, and the feature occupancy rate is determined.
It is determined whether or not the feature occupancy rate of the obstacle is larger than the predetermined feature occupancy threshold value.
If YES, the wireless sensor is determined to be the positioning sensing module 403,
If NO, the image sensing module 402 is determined to be the positioning sensing module 403.
The positioning sensing module 403 is confirmed by executing the operation, and the positioning sensing module 403 is confirmed.
The image sensing module 402 includes a monocular camera.

任意選択的に、上記の前記位置決め感知モジュール403が採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記無線センサが採集した前記障害物の位置データに基づき、前記位置データが対応する物理座標位置を確定し、
前記物理座標位置は予め設置された物理障害エリア内にあるか否か判断することを含み、
もしYESなら、次を実行する。
It is possible to optionally determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module 403.
Based on the position data of the obstacle collected by the wireless sensor, the physical coordinate position corresponding to the position data is determined.
The physical coordinate position includes determining whether or not the physical coordinate position is within a pre-installed physical obstacle area.
If YES, do the following:

任意選択的に、上記の前記位置決め感知モジュール403が採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像に基づき前記障害物が対応する画像座標位置を確定し、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定し、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、次を実行する。
It is possible to optionally determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module 403.
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, do the following:

任意選択的に、前記プロセッサは、
前記環境画像に基づき前記障害物が対応する初期距離を計算し、
予め確立された距離と位置決め感知モジュールの対応関係に基づき、前記初期距離が対応する第一位置決め感知モジュールを前記位置決め感知モジュール403として確定する、
操作を実行することにより前記位置決め感知モジュール403を確定する。
Optionally, the processor
Based on the environmental image, the initial distance corresponding to the obstacle is calculated.
Based on the correspondence between the distance and the positioning sensing module established in advance, the first positioning sensing module corresponding to the initial distance is determined as the positioning sensing module 403.
The positioning sensing module 403 is confirmed by executing the operation.

任意選択的に、前記プロセッサ401はさらに、
前記距離が対応する位置決め感知モジュールが採集した前記障害物の位置決め特徴情報に基づき、前記障害物が対応する第二距離を計算し、
距離と位置決め感知モジュールの対応関係において、前記第二距離に対応する第二位置決め感知モジュールは、前記初期距離が対応する位置決め感知モジュールと一致するか否か判断し、
もしNOなら、前記位置決め感知モジュール403を前記第一位置決め感知モジュールから前記第二位置決め感知モジュールに切り換えるように構成される。
Optionally, the processor 401 further
Based on the positioning feature information of the obstacle collected by the positioning sensing module corresponding to the distance, the second distance corresponding to the obstacle is calculated.
In the correspondence relationship between the distance and the positioning sensing module, the second positioning sensing module corresponding to the second distance determines whether or not the initial distance matches the corresponding positioning sensing module.
If NO, the positioning sensing module 403 is configured to switch from the first positioning sensing module to the second positioning sensing module.

任意選択的に、上記の前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行うことは、
減速走行する走行コマンドを生成して実行し、
前記位置情報に基づき走行ルートを規定し、前記走行ルートに基づき元の走行ルートを更新することを含む。
Arbitrarily, it is possible to perform the failure avoidance process based on the position information in which the above-mentioned positioning feature information is determined.
Generate and execute a running command to decelerate,
It includes defining a traveling route based on the location information and updating the original traveling route based on the traveling route.

任意選択的に、上記の前記位置情報に基づき走行ルートを規定することは、
前記環境画像に基づき、前記障害物の最大障害アウトラインを確定し、
前記走行ルートの走行幅が前記最大障害アウトライン数値より大きくなるように、前記最大障害アウトライン及び前記位置情報に基づき走行ルートを規定することを含む。
Arbitrarily, defining a travel route based on the above-mentioned position information is not possible.
Based on the environmental image, the maximum obstacle outline of the obstacle is determined.
It includes defining a traveling route based on the maximum obstacle outline and the position information so that the traveling width of the traveling route becomes larger than the maximum obstacle outline numerical value.

任意選択的に、前記プロセッサはさらに、
前記環境画像に含まれる目標物体特徴を検出し、
前記目標物体特徴は障害物であるか否か検出し、
もしYESなら、次に進むように構成される。
Optionally, the processor further
The target object feature included in the environmental image is detected and
Detecting whether or not the target object feature is an obstacle,
If YES, it is configured to proceed.

本明細書が提供する記憶媒体の実施例は以下のとおり:
上記説明したロボット障害回避処理方法に対応して、同じ技術構想に基づき、本明細書の一つの又は複数の実施例はさらに記憶媒体を提供する。
Examples of storage media provided herein are:
Corresponding to the robotic failure avoidance processing method described above, based on the same technical concept, one or more embodiments of the present specification further provide a storage medium.

本実施例が提供する記憶媒体はコンピュータ実行可能なコマンドを記憶するために用いられ、前記コンピュータ実行可能なコマンドは実行される時に、
画像感知モジュールが採集した環境画像を取得し、
前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定し、
前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断し、
もしYESなら、前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行う、フローを実現する。
The storage medium provided by this embodiment is used to store a computer-executable command, and the computer-executable command is executed when the computer-executable command is executed.
Acquires the environmental image collected by the image sensing module and
An obstacle in the environmental image is identified, and a positioning sensing module that positions the obstacle is determined.
Based on the positioning feature information collected by the positioning sensing module, it is determined whether or not the obstacle is within the target obstacle area.
If YES, a flow is realized in which the failure avoidance process is performed based on the position information in which the positioning feature information is determined.

任意選択的に、上記の前記環境画像中の障害物を識別することは、
前記環境画像を画像識別モデルに入力し、前記画像識別モデルにより前記環境画像に対して特徴分割および特徴識別を行い、前記環境画像に含まれる障害物の障害物タイプを出力することを含む。
Optionally, identifying obstacles in the environmental image above can be
This includes inputting the environmental image into an image identification model, performing feature division and feature identification on the environmental image by the image identification model, and outputting an obstacle type of an obstacle included in the environmental image.

任意選択的に、上記の前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
もし前記障害物タイプが固定障害物である場合、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することを含み、
前記画像感知モジュールは単眼カメラを備え、
これに対応して、上記の前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像に基づき前記障害物が対応する画像座標位置を確定し、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定し、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、上記の前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行うフローを実行する。
Optionally, determining a positioning sensing module that positions the obstacle above
If the obstacle type is a fixed obstacle, it includes determining that the image sensing module is a positioning sensing module that positions the obstacle.
The image sensing module includes a monocular camera and
Correspondingly, it is possible to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, the flow of performing the failure avoidance process is executed based on the position information in which the above-mentioned positioning feature information is confirmed.

任意選択的に、上記の前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
もし前記障害物タイプが移動障害物である場合、深度画像センサ及び前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することを含み、
これに対応して、上記の前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像及び前記深度画像センサが採集した深度画像に基づき、前記障害物は前記深度画像中の対応する画像座標位置にあると確定し、
前記深度画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定し、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、上記の前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行うフローを実行する。
Optionally, determining a positioning sensing module that positions the obstacle above
If the obstacle type is a movement obstacle, it includes determining that the depth image sensor and the image sensing module are positioning sensing modules that position the obstacle.
Correspondingly, it is possible to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
Based on the environmental image and the depth image collected by the depth image sensor, it is determined that the obstacle is at the corresponding image coordinate position in the depth image.
A target image area corresponding to a preset reference image area in the depth image is determined, and the target image area is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, the flow of performing the failure avoidance process is executed based on the position information in which the above-mentioned positioning feature information is confirmed.

任意選択的に、上記の前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
前記環境画像に基づき前記障害物の特徴占有率を確定し、
前記障害物の特徴占有率は所定の特徴占有率閾値より大きいか否か判断し、
もしYESなら、無線センサを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定し、
もしNOなら、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することを含み、
前記画像感知モジュールは単眼カメラを備える。
Optionally, determining a positioning sensing module that positions the obstacle above
The feature occupancy rate of the obstacle is determined based on the environmental image, and the feature occupancy rate is determined.
It is determined whether or not the feature occupancy rate of the obstacle is larger than the predetermined feature occupancy threshold value.
If YES, it is determined that the wireless sensor is a positioning sensing module that positions the obstacle.
If NO, it involves determining that the image sensing module is a positioning sensing module that positions the obstacle.
The image sensing module includes a monocular camera.

任意選択的に、上記の前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記無線センサが採集した前記障害物の位置データに基づき、前記位置データが対応する物理座標位置を確定し、
前記物理座標位置は予め設置された物理障害エリア内にあるか否か判断することを含み、
もしYESなら、上記の前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行うフローを実行する。
It is possible to optionally determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
Based on the position data of the obstacle collected by the wireless sensor, the physical coordinate position corresponding to the position data is determined.
The physical coordinate position includes determining whether or not the physical coordinate position is within a pre-installed physical obstacle area.
If YES, the flow of performing the failure avoidance process is executed based on the position information in which the above-mentioned positioning feature information is confirmed.

任意選択的に、上記の前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像に基づき前記障害物が対応する画像座標位置を確定し、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定し、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、上記の前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行うフローを実行する。
It is possible to optionally determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, the flow of performing the failure avoidance process is executed based on the position information in which the above-mentioned positioning feature information is confirmed.

任意選択的に、上記の前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
前記環境画像に基づき前記障害物が対応する初期距離を計算し、
予め確立された距離と位置決め感知モジュールの対応関係に基づき、前記初期距離が対応する第一位置決め感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールとして確定することを含む。
Optionally, determining a positioning sensing module that positions the obstacle above
Based on the environmental image, the initial distance corresponding to the obstacle is calculated.
Based on the correspondence between the distance and the positioning sensing module established in advance, the first positioning sensing module corresponding to the initial distance is determined as the positioning sensing module that positions the obstacle.

任意選択的に、前記コンピュータ実行可能なコマンドは実行される時にさらに、
前記距離が対応する位置決め感知モジュールが採集した前記障害物の位置決め特徴情報に基づき、前記障害物が対応する第二距離を計算し、
距離と位置決め感知モジュールの対応関係において、前記第二距離に対応する第二位置決め感知モジュールは、前記初期距離が対応する位置決め感知モジュールと一致するか否か判断し、
もしNOなら、前記位置決め感知モジュールを前記第一位置決め感知モジュールから前記第二位置決め感知モジュールに切り換える、
フローを実現する。
Optionally, the computer-executable command further, when executed,
Based on the positioning feature information of the obstacle collected by the positioning sensing module corresponding to the distance, the second distance corresponding to the obstacle is calculated.
In the correspondence relationship between the distance and the positioning sensing module, the second positioning sensing module corresponding to the second distance determines whether or not the initial distance matches the corresponding positioning sensing module.
If NO, the positioning sensing module is switched from the first positioning sensing module to the second positioning sensing module.
Realize the flow.

任意選択的に、上記の前記位置決め特徴情報が確定した位置情報に基づき障害回避処理を行うことは、
減速走行する走行コマンドを生成して実行し、
前記位置情報に基づき走行ルートを規定し、前記走行ルートに基づき元の走行ルートを更新することを含む。
Arbitrarily, it is possible to perform the failure avoidance process based on the position information in which the above-mentioned positioning feature information is determined.
Generate and execute a running command to decelerate,
It includes defining a traveling route based on the location information and updating the original traveling route based on the traveling route.

任意選択的に、上記の前記位置情報に基づき走行ルートを規定することは、
前記環境画像に基づき、前記障害物の最大障害アウトラインを確定し、
前記走行ルートの走行幅が前記最大障害アウトライン数値より大きくなるように、前記最大障害アウトライン及び前記位置情報に基づき走行ルートを規定することを含む。
Arbitrarily, defining a travel route based on the above-mentioned position information is not possible.
Based on the environmental image, the maximum obstacle outline of the obstacle is determined.
It includes defining a traveling route based on the maximum obstacle outline and the position information so that the traveling width of the traveling route becomes larger than the maximum obstacle outline numerical value.

任意選択的に、前記コンピュータ実行可能なコマンドは実行される時にさらに、
前記環境画像に含まれる目標物体特徴を検出し、
前記目標物体特徴は障害物であるか否か検出し、
もしYESなら、上記の前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定する、
フローを実行する。
Optionally, the computer-executable command further, when executed,
The target object feature included in the environmental image is detected and
Detecting whether or not the target object feature is an obstacle,
If YES, identify the obstacle in the above environmental image and determine the positioning sensing module that positions the obstacle.
Execute the flow.

なお、本明細書において記憶媒体に関する実施例と本明細書においてロボット障害回避処理方法に関する実施例は同じ発明構想に基づく。よって当該実施例の具体的な実施は前述の対応方法の実施を参照できるため、繰り返しとなる説明は省略する。
以上、本明細書の特定の実施例について説明した。その他の実施例は付属の請求の範囲の範囲内に入る。一部の場合において、請求の範囲に記載の動作又はステップは実施例における順序と異なる順番で実行でき、且つ所望の結果を実現できる。また、図面で図示する過程は必ずしも特定の順番または連続した順番でないと所望の結果を実現できないわけではない。一部の実施形態においてはマルチタスク処理及びパラレル処理でもよく、または、これらが有益である可能性がある。
It should be noted that the examples relating to the storage medium in the present specification and the examples relating to the robot failure avoidance processing method in the present specification are based on the same concept of the invention. Therefore, since the specific implementation of the embodiment can refer to the implementation of the above-mentioned corresponding method, the repeated description will be omitted.
The specific examples of the present specification have been described above. Other embodiments fall within the scope of the accompanying claims. In some cases, the actions or steps described in the claims can be performed in a different order than in the examples, and the desired result can be achieved. In addition, the processes illustrated in the drawings do not necessarily mean that the desired results cannot be achieved unless they are in a specific order or a continuous order. In some embodiments, multitasking and parallel processing may be possible, or these may be beneficial.

20世紀30年代、一つの技術の改良に関して、非常に明らかなのはハードウエア上の改良である(例えば、ダイオード、トランジスタ、スイッチ等の回路構造に対する改良)またはソフトウエア上の改良である(方法フローに対する改良)。しかし、技術の発展に伴い、現在の多くの方法フローの改良は既にハードウエア回路構造の直接的な改良であると見なすことができる。設計者はほぼ改良した方法フローをハードウエア回路にプログラムすることにより相応のハードウエア回路構造を得ることができる。よって、一つの方法フローの改良はハードウエア実体モジュールにより実現できないとは言えない。例えば、プログラム可能な論理デバイス、(Programmable Logic Device、PLD)(例えばフィールドプログラマブルゲートアレイ(Field Programmable Gate Array、FPGA))はこのような集積回路であり、その論理機能はユーザがデバイスをプログラミングすることにより確定する。設計者が自らプログラミングすることにより一つのデジタルシステムを一枚のPLDに“集積”でき、チップ製造メーカに専用の集積回路チップの設計及び制作を依頼する必要はない。また、現在、集積回路チップのマニュアル製造に代わり、このようなプログラミングも多くは“論理コンパイラ(logic compiler)”ソフトウエアに変えて実現され、これはプログラム開発作成時に用いるソフトウエアコンパイラに似ており、コンパイルする前の原コードも特定のプログラミング言語により作成されなければならず、ここではハードウエア記述言語(Hardware Description Language、HDL)と称するが、HDLも一種類でだけでなく、多くの種類があり、例えばABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby Hardware Description Language)等であり、現在最も普及しているのはVHDL(Very-High-Speed Integrated Circuit Hardware Description Language)とVerilogである。当業者にとって、方法フローを上記何種類かのハードウエア記述言語で少し論理プログラミングして集積回路にプログラミングすれば、当該論理方法フローを実現するハードウエア回路を容易に得られることは明らかである。 In the 1930s, with respect to one technological improvement, the most obvious is a hardware improvement (eg, an improvement in the circuit structure of a diode, a transistor, a switch, etc.) or a software improvement (for a method flow). Improvement). However, with the development of technology, many current method flow improvements can already be regarded as direct improvements to the hardware circuit structure. The designer can obtain a suitable hardware circuit structure by programming a nearly improved method flow into the hardware circuit. Therefore, it cannot be said that the improvement of one method flow cannot be realized by the hardware entity module. For example, a programmable logic device (PLD) (eg, Field Programmable Gate Array (FPGA)) is such an integrated circuit whose logical function is for the user to program the device. Is confirmed by. Designers can "integrate" a single digital system into a single PLD by programming themselves, without having to ask the chip manufacturer to design and produce a dedicated integrated circuit chip. Also, nowadays, instead of manual manufacturing of integrated circuit chips, many such programs are realized by replacing them with "logic compiler" software, which is similar to the software compiler used when creating program development. , The original code before compiling must also be written in a specific programming language, and here it is called Hardware Description Language (HDL), but there are many types of HDL, not just one type. Yes, for example ABEL (Advanced Boolean Expression Language), AHDL (Altera Hardware Description Language), Confluence, CUPL (Cornell University Programming Language), HDCal, JHDL (Java Hardware Description Language), Lava, Lola, MyHDL, PALASM, RHDL (Ruby) Hardware Description Language), etc., and the most popular ones at present are VHDL (Very-High-Speed Integrated Circuit Hardware Description Language) and Verilog. It is clear to those skilled in the art that a hardware circuit that realizes the logical method flow can be easily obtained by slightly logically programming the method flow in some of the above-mentioned hardware description languages and programming it into an integrated circuit.

コントローラは如何なる適切な方式でも実現でき、例えばマイクロプロセッサ又はプロセッサおよび当該(マイクロ)プロセッサにより実行可能なコンピュータ読み取り可能なプログラムコード(例えばソフトウエア又はファームウエア)を記憶するコンピュータ読み取り可能な媒体、論理ゲート、スイッチ、専用集積回路(Application Specific Integrated Circuit、ASIC)、プログラム可能な論理コントローラ及び組み込みマイクロコントローラの形式を採用でき、コントローラの例は以下のマイクロコントローラ、即ちARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 およびSilicone Labs C8051F320を含むがこれらに限られず、メモリコントローラはさらにメモリの制御論理の一部として実現されてもよい。当業者は、純粋なコンピュータ読み取り可能なプログラムコード方式でコントローラを実現する以外、方法ステップを論理プログラミングすることにより、コントローラを論理ゲート、スイッチ、専用集積回路、プログラム可能な論理コントローラ及び組み込みマイクロコントローラ等の形式により同じ機能を完全に実現できることも理解している。よって、このようなコントローラは一種のハードウエア部材と見なすことができ、その内に含まれる各機能を実現するための装置もハードウエア部材内の構造と見なすことができる。または、各機能を実現するための装置を、方法を実現するソフトウエアモジュールでもあり、ハードウエア部材内の構造でもあると見なすこともできる。 The controller can be implemented in any suitable manner, eg, a computer-readable medium, logical gate that stores a microprocessor or processor and computer-readable program code (eg, software or firmware) that can be executed by the (micro) processor. , Switches, Application Specific Integrated Circuits (ASICs), programmable logic controllers and embedded microcontrollers can be adopted, and examples of controllers are the following microprocessors: ARC 625D, Atmel AT91SAM, Microchip PIC18F26K20 and Silicone. Memory controllers may also be implemented as part of memory control logic, including but not limited to Labs C8051F320. Other than implementing the controller with a pure computer readable program code method, those skilled in the art can logically program the method steps to make the controller a logic gate, switch, dedicated integrated circuit, programmable logic controller, embedded microcontroller, etc. I also understand that the same functionality can be fully achieved by the format of. Therefore, such a controller can be regarded as a kind of hardware member, and a device for realizing each function included in the controller can also be regarded as a structure in the hardware member. Alternatively, the device for realizing each function can be regarded as both a software module for realizing the method and a structure in the hardware member.

上記実施例で説明したシステム、装置、モジュール又はユニットは、具体的に、コンピュータチップ又は実体により実現でき、または、ある機能を有する製品により実現でき、一つの典型的な実現デバイスはコンピュータである。具体的に、コンピュータは、例えば、パーソルコンピュータ、ラップトップコンピュータ、セルラーフォン、テレビ電話、スマートフォン、パーソナルデジタルアシスタント、メディアプレイヤー、ナビゲーションデバイス、電子メールデバイス、ゲームコンソール、タブレットコンピュータ、ウェアラブルデバイス、またはこれらデバイスにおける如何なるデバイスの組み合わせとすることができる。 The system, device, module or unit described in the above embodiment can be specifically realized by a computer chip or an entity, or can be realized by a product having a certain function, and one typical realization device is a computer. Specifically, computers include, for example, parsol computers, laptop computers, cellular phones, videophones, smartphones, personal digital assistants, media players, navigation devices, email devices, game consoles, tablet computers, wearable devices, or these devices. It can be any combination of devices in.

説明しやすいように、以上の装置を説明する時、機能により各ユニットに分けてそれぞれ説明する。当然、本明細書の実施例を実施する時、各ユニットの機能を同一の又は複数のソフトウエア及び/又はハードウエアにおいて実現できる。 For the sake of clarity, when the above devices are described, they will be described separately for each unit according to the function. Of course, when implementing the embodiments herein, the functionality of each unit can be implemented in the same or more software and / or hardware.

当業者にとって、本明細書の一つの又は複数の実施例は方法、システム又はコンピュータプログラム製品として提供できることは明らかである。よって、本明細書の一つの又は複数の実施例は完全なハードウエア実施例、完全なソフトウエア実施例、又はソフトウエアとハードウエアを組み合わせた実施例の形式を採用できる。また、本明細書は一つの又は複数の、コンピュータ使用可能なプログラムコードを含むコンピュータ使用可能な記憶媒体(磁気ディスクメモリ、CD-ROM、光学メモリ等を含むが、これらに限られない)で実施されるコンピュータプログラム製品の形式を採用できる。 It will be apparent to those skilled in the art that one or more embodiments of the specification can be provided as a method, system or computer program product. Thus, one or more embodiments herein may adopt the form of a complete hardware embodiment, a complete software embodiment, or a combination of software and hardware embodiments. In addition, the present specification is carried out on one or more computer-usable storage media (including, but not limited to, magnetic disk memory, CD-ROM, optical memory, etc.) including computer-usable program code. The format of the computer program product to be used can be adopted.

本明細書は本明細書の実施例に基づく方法、機器(システム)、及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照して説明するものである。コンピュータプログラムコマンドによりフローチャート及び/又はブロック図中の各フロー及び/又はブロック、およびフローチャート及び/又はブロック図中のフロー及び/又はブロックの組み合わせを実現すると理解できる。一つの機器を製造するように、これらコンピュータプログラムコマンドを汎用コンピュータ、専用コンピュータ、組み込み処理機又は他のプログラム可能なデータ処理機器のプロセッサに提供でき、これにより、コンピュータ又は他のプログラム可能なデータ処理機器のプロセッサにより実行されるコマンドはフローチャートの一つのフロー又は複数のフロー及び/又はブロック図一つのブロック又は複数のブロックで指定された機能を実現するための装置を製造する。 This specification is described with reference to flowcharts and / or block diagrams of methods, devices (systems), and computer program products based on the embodiments of the present specification. It can be understood that computer program commands realize each flow and / or block in the flowchart and / or block diagram, and a combination of the flow and / or block in the flowchart and / or block diagram. These computer program commands can be provided to the processor of a general purpose computer, dedicated computer, embedded processor or other programmable data processing device as if manufacturing one device, thereby processing the computer or other programmable data. The command executed by the processor of the device manufactures a device for realizing the function specified by one flow or a plurality of flows and / or a block diagram in one block or a plurality of blocks.

これらコンピュータプログラムコマンドはコンピュータ又は他のプログラム可能なデータ処理機器を特定方式で動作するように導けるコンピュータ読み取り可能なメモリに記憶してもよく、これにより当該コンピュータ読み取り可能なメモリに記憶されたコマンドはコマンド装置を含む製造品が製造され、当該コマンド装置はフローチャートの一つのフロー又は複数のフロー及び/又はブロック図の一つのブロック又は複数のブロックで指定された機能を実現する。 These computer program commands may be stored in a computer-readable memory that can lead the computer or other programmable data processing device to operate in a particular manner, so that the commands stored in the computer-readable memory can be stored. A manufactured product including a command device is manufactured, and the command device realizes a function specified by one flow or a plurality of flows in a flowchart and / or a block or a plurality of blocks in a block diagram.

これらコンピュータプログラムコマンドはコンピュータ又は他のプログラム可能なデータ処理機器にロードすることもでき、これにより、コンピュータが実現する処理を発生させるように、コンピュータ又は他のプログラム可能な機器で一系列の操作ステップを実行させ、こうして、コンピュータ又は他のプログラム可能な機器で実行するコマンドは、フローチャートの一つのフロー又は複数のフロー及び/又はブロック図の一つのブロック又は複数のブロックで指定された機能を実現するためのステップを提供する。 These computer program commands can also be loaded into a computer or other programmable data processing device, thereby causing a series of operational steps on the computer or other programmable device so that the processing achieved by the computer occurs. And thus the command executed on a computer or other programmable device implements the function specified in one or more flows and / or blocks in the diagram. Provides steps for.

一つの典型的な配置において、計算機器は一つの又は複数のプロセッサ(CPU)、入力/出力インタフェース、ネットワークインタフェース及び内部メモリを含む。 In one typical arrangement, the computing device includes one or more processors (CPUs), input / output interfaces, network interfaces and internal memory.

内部メモリはコンピュータ読み取り可能な媒体における非永久性メモリ、ランダムアクセスメモリ(RAM)及び/又は不揮発性内部メモリ等の形式、例えばリードオンリーメモリ(ROM)又はフラッシュメモリ(flash RAM)を含む可能性がある。内部メモリはコンピュータ読み取り可能な媒体の例である。 Internal memory may include forms such as non-permanent memory, random access memory (RAM) and / or non-volatile internal memory in computer readable media, such as read-only memory (ROM) or flash memory (flash RAM). is there. Internal memory is an example of a computer-readable medium.

コンピュータ読み取り可能な媒体は永久性及び非永久性、可動性及び非可動性の媒体を含み、如何なる方法又は技術によっても情報記憶を実現できる。情報はコンピュータ読み取り可能な指令、データ構造、プログラムのモジュール又は他のデータとすることができる。コンピュータの記憶媒体の例としては、相変化メモリ(PRAM)、スタティックランダムアクセスメモリ(SRAM)、ダイナミックランダムアクセスメモリ(DRAM)、他のタイプのランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、書き換え可能なリードオンリーメモリ(EEPROM)、フラッシュROM又は他の内部メモリ技術、コンパクトディスクリードオンリーメモリ(CD-ROM)、デジタルバーサタイル・ディスクディスク(DVD)又は他の光学メモリ、カセット磁気テープ、磁気テープ磁気ディスクメモリ又は他の磁気記憶装置又は他の如何なる非伝送媒体を含むが、これらに限られず、これらは計算機器にアクセスされる情報を記憶するために用いることができる。本文の画定に従って、コンピュータ読み取り可能な媒体は一時的なコンピュータ読み取り可能な媒体(transitory media)、例えば変調されたデータ信号及び搬送波を含まない。 Computer-readable media include permanent and non-permanent, mobile and non-movable media, and information storage can be achieved by any method or technique. The information can be computer readable directives, data structures, program modules or other data. Examples of computer storage media include phase change memory (PRAM), static random access memory (SRAM), dynamic random access memory (DRAM), other types of random access memory (RAM), read-only memory (ROM), Rewritable Read Only Memory (EEPROM), Flash ROM or Other Internal Memory Technology, Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc Disc (DVD) or Other Optical Memory, Cassette Magnetic Tape, Magnetic Tape These include, but are not limited to, magnetic disk memory or other magnetic storage devices or any other non-transmission medium, which can be used to store information accessed by a computer. As defined in the text, computer readable media does not include transient computer readable media, such as modulated data signals and carrier waves.

なお、用語“備える”、“含む”又はその如何なる他の代替用語は非排他的な包含をカバーすることを意味し、一系列の要素を含むプロセス、方法、商品又は機器はそれら要素だけでなく、明確に挙げていない他の要素も含み、若しくは、これらのプロセス、方法、商品又は機器に固有の要素も含む。より多くの制限がない場合において、用語“一つの……を含む”で限定される要素は、前記要素を含むプロセス、方法、商品又は機器において更に別の同じ要素が存在することを排除しない。 It should be noted that the terms "provide", "include" or any other alternative term mean to cover non-exclusive inclusion, and processes, methods, goods or equipment containing a series of elements are not limited to those elements. , Other elements not explicitly listed, or elements specific to these processes, methods, goods or equipment. In the absence of more restrictions, an element limited by the term "contains one ..." does not preclude the existence of yet another same element in a process, method, commodity or device that includes said element.

本明細書の一つの又は複数の実施例は、コンピュータにより実行されるコンピュータ実行可能なコマンドの一般的な文脈において説明できる。例えばプログラムモジュール。一般的に、プログラムモジュールは特定のタスクを実行する又は特定の抽象データ類を実現するルーチン、プログラム、対象、アセンブリ、データ構造等を含む。また、分散計算環境において明細書の一つ又は複数の実施例を実践してもよく、これら分散計算環境においては、通信ネットワークにより接続されるリモート処理装置によりタスクを実行できる。分散計算環境において、プログラムモジュールは記憶装置を含むローカル及びリモートコンピュータ記憶媒体に位置することができる。 One or more examples herein can be described in the general context of computer-executable commands executed by a computer. For example, a program module. In general, a program module includes routines, programs, objects, assemblies, data structures, etc. that perform specific tasks or realize specific abstract data. Further, one or more examples of the specification may be practiced in the distributed calculation environment, and in these distributed calculation environments, the task can be executed by the remote processing device connected by the communication network. In a distributed computing environment, program modules can be located on local and remote computer storage media, including storage devices.

本出願における各実施例はいずれも累加方式により説明しており、各実施例同士で同一類似部分は互いに参照すればよく、実施例毎に重点的に説明するのは、みな他の実施例と異なる部分である。特に、システム実施例について言えば、その基本は方法実施例に似ているため、比較的簡単に説明しており、関連個所は方法実施例の部分的説明を参照すればよい。 Each of the examples in the present application is described by the cumulative method, and the same similar parts may be referred to each other among the examples, and the emphasis on each example is the same as that of the other examples. It's a different part. In particular, as for the system embodiment, since the basics are similar to the method embodiment, the explanation is relatively simple, and the related parts may refer to the partial explanation of the method embodiment.

以上の内容は本出願を限定するためのものではなく、単に本出願の実施例に過ぎない。当業者にとって、本出願は各種変更や変形を有することができる。本出願の思想及び原理の範囲内において行われる如何なる修正、均等な差し替え、改良等もすべて本出願の請求項の範囲に入る。


The above contents are not for limiting the present application, but merely for examples of the present application. For those skilled in the art, this application may have various modifications and variations. Any amendments, equal replacements, improvements, etc. made within the ideas and principles of the present application are all within the scope of the claims of the present application.


Claims (24)

画像感知モジュールが採集した環境画像を取得することと、
前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定することと、
前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することと、
もしYESなら、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うことと、を含
前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
前記環境画像に基づき前記障害物の特徴占有率を確定することと、
前記障害物の特徴占有率は所定の特徴占有率閾値より大きいか否か判断することと、
もしYESなら、無線センサを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することと、
もしNOなら、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することを含み、
前記画像感知モジュールは単眼カメラを含む、
ことを特徴とするロボット障害回避処理方法。
Acquiring the environmental image collected by the image sensing module
Identifying an obstacle in the environmental image and determining a positioning sensing module that positions the obstacle.
Based on the positioning feature information collected by the positioning sensing module, it is determined whether or not the obstacle is within the target obstacle area.
If YES if, viewed contains a and performing the failure avoidance processing based on the determined position information by the positioning characteristic information,
Determining the positioning sensing module that positions the obstacle
Determining the feature occupancy of the obstacle based on the environmental image
Judging whether or not the feature occupancy rate of the obstacle is larger than the predetermined feature occupancy threshold value,
If YES, confirm that the wireless sensor is a positioning sensing module that positions the obstacle.
If NO, it involves determining that the image sensing module is a positioning sensing module that positions the obstacle.
The image sensing module includes a monocular camera.
A robot obstacle avoidance processing method characterized by this.
前記環境画像中の障害物を識別することは、
前記環境画像を画像識別モデルに入力し、前記画像識別モデルにより前記環境画像に対して特徴分割および特徴識別を行い、前記環境画像に含まれる障害物の障害物タイプを出力することを含む、
ことを特徴とする請求項1に記載のロボット障害回避処理方法。
Identifying obstacles in the environmental image
This includes inputting the environmental image into an image identification model, performing feature division and feature identification on the environmental image by the image identification model, and outputting an obstacle type of an obstacle included in the environmental image.
The robot failure avoidance processing method according to claim 1.
前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
前記障害物タイプが固定障害物である場合、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することを含み、
前記画像感知モジュールは単眼カメラを含み、
これに対応して、前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像に基づき前記障害物に対応する画像座標位置を確定するとともに、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定することと、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うステップを実行する、
ことを特徴とする請求項2に記載のロボット障害回避処理方法。
Determining the positioning sensing module that positions the obstacle
When the obstacle type is a fixed obstacle, it includes determining that the image sensing module is a positioning sensing module that positions the obstacle.
The image sensing module includes a monocular camera.
Correspondingly, it is possible to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, the step of performing the failure avoidance process based on the position information determined by the positioning feature information is executed.
The robot failure avoidance processing method according to claim 2.
前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
前記障害物タイプが移動障害物である場合、深度画像センサ及び前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することを含み、
これに対応して、前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像及び前記深度画像センサが採集した深度画像に基づき、前記深度画像における、前記障害物に対応する画像座標位置を確定することと、
前記深度画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定することと、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うステップを実行する、
ことを特徴とする請求項2に記載のロボット障害回避処理方法。
Determining the positioning sensing module that positions the obstacle
When the obstacle type is a movement obstacle, it includes determining that the depth image sensor and the image sensing module are positioning sensing modules that position the obstacle.
Correspondingly, it is possible to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
Based on the environmental image and the depth image collected by the depth image sensor, the image coordinate position corresponding to the obstacle in the depth image is determined.
Determining the target image area corresponding to the preset reference image area in the depth image, and
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, the step of performing the failure avoidance process based on the position information determined by the positioning feature information is executed.
The robot failure avoidance processing method according to claim 2.
前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記無線センサが採集した前記障害物の位置データに基づき、前記位置データに対応する物理座標位置を確定することと、
前記物理座標位置は予め設置された物理障害エリア内にあるか否か判断することを含み、
もしYESなら、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うステップを実行する、
ことを特徴とする請求項に記載のロボット障害回避処理方法。
Based on the positioning feature information collected by the positioning sensing module, it is possible to determine whether or not the obstacle is within the target obstacle area.
Based on the position data of the obstacle collected by the wireless sensor, the physical coordinate position corresponding to the position data is determined.
The physical coordinate position includes determining whether or not the physical coordinate position is within a pre-installed physical obstacle area.
If YES, the step of performing the failure avoidance process based on the position information determined by the positioning feature information is executed.
The robot failure avoidance processing method according to claim 1.
前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像に基づき前記障害物に対応する画像座標位置を確定するとともに、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定することと、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うステップを実行する、
ことを特徴とする請求項に記載のロボット障害回避処理方法。
Based on the positioning feature information collected by the positioning sensing module, it is possible to determine whether or not the obstacle is within the target obstacle area.
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, the step of performing the failure avoidance process based on the position information determined by the positioning feature information is executed.
The robot failure avoidance processing method according to claim 1.
前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
前記環境画像に基づき前記障害物に対応する初期距離を計算することと、
予め確立された距離と位置決め感知モジュールの対応関係に基づき、前記初期距離に対応する第一位置決め感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールとして確定することを含む、
ことを特徴とする請求項1に記載のロボット障害回避処理方法。
Determining the positioning sensing module that positions the obstacle
To calculate the initial distance corresponding to the obstacle based on the environmental image,
Based on the correspondence between the distance and the positioning sensing module established in advance, the first positioning sensing module corresponding to the initial distance is determined as the positioning sensing module for positioning the obstacle.
The robot failure avoidance processing method according to claim 1.
前記距離に対応する位置決め感知モジュールが採集した前記障害物の位置決め特徴情報に基づき、前記障害物に対応する第二距離を計算することと、
距離と位置決め感知モジュールの対応関係において、前記第二距離に対応する第二位置決め感知モジュールは、前記初期距離に対応する位置決め感知モジュールと一致するか否か判断することと、
もしNOなら、前記位置決め感知モジュールを前記第一位置決め感知モジュールから前記第二位置決め感知モジュールに切り換えることをさらに含む、
ことを特徴とする請求項に記載のロボット障害回避処理方法。
Based on the positioning feature information of the obstacle collected by the positioning sensing module corresponding to the distance, the second distance corresponding to the obstacle is calculated.
Regarding the correspondence between the distance and the positioning sensing module, it is determined whether or not the second positioning sensing module corresponding to the second distance matches the positioning sensing module corresponding to the initial distance.
If NO, further comprises switching the positioning sensing module from the first positioning sensing module to the second positioning sensing module.
The robot failure avoidance processing method according to claim 7.
前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うことは、
減速走行する走行コマンドを生成して実行することと、
前記位置情報に基づき走行ルートを規定し、前記走行ルートに基づき元の走行ルートを更新することを含む、
ことを特徴とする請求項1に記載のロボット障害回避処理方法。
Performing failure avoidance processing based on the position information determined by the positioning feature information is not possible.
Generating and executing a driving command to decelerate,
Including defining a travel route based on the location information and updating the original travel route based on the travel route.
The robot failure avoidance processing method according to claim 1.
前記位置情報に基づき走行ルートを規定することは、
前記環境画像に基づき、前記障害物の最大障害アウトラインを確定することと、
前記走行ルートの走行幅が前記最大障害アウトラインの数値より大きくなるように、前記最大障害アウトライン及び前記位置情報に基づき走行ルートを規定することを含む、
ことを特徴とする請求項に記載のロボット障害回避処理方法。
Defining a travel route based on the location information
Determining the maximum obstacle outline of the obstacle based on the environmental image,
Including defining a travel route based on the maximum obstacle outline and the position information so that the travel width of the travel route is larger than the numerical value of the maximum obstacle outline.
The robot failure avoidance processing method according to claim 9.
前記画像感知モジュールが採集した環境画像を取得するステップの実行後、且つ前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定するステップの実行前に、
前記環境画像に含まれる目標物体特徴を検出することと、
前記目標物体特徴は障害物であるか否か検出することをさらに含み、
もしYESなら、前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定するステップを実行する、
ことを特徴とする請求項1に記載のロボット障害回避処理方法。
After executing the step of acquiring the environmental image collected by the image sensing module, and before executing the step of identifying the obstacle in the environmental image and determining the positioning sensing module that positions the obstacle.
Detecting the target object features included in the environmental image and
The target object feature further includes detecting whether or not it is an obstacle.
If YES, perform the step of identifying an obstacle in the environmental image and determining a positioning sensing module that positions the obstacle.
The robot failure avoidance processing method according to claim 1.
画像感知モジュールが採集した環境画像を取得するように構成された環境画像取得モジュールと、
前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定するように構成された障害物識別モジュールと、
前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断するように構成された障害物判断モジュールと、を備え、
もしYESなら、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うように構成された障害回避処理モジュールを稼働し、
前記障害物に対して位置決めを行う位置決め感知モジュールを確定することは、
前記環境画像に基づき前記障害物の特徴占有率を確定することと、
前記障害物の特徴占有率は所定の特徴占有率閾値より大きいか否か判断することと、
もしYESなら、無線センサを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することと、
もしNOなら、前記画像感知モジュールを前記障害物に対して位置決めを行う位置決め感知モジュールであると確定することを含み、
前記画像感知モジュールは単眼カメラを含む、
ことを特徴とするロボット障害回避処理装置。
An environmental image acquisition module configured to acquire environmental images collected by the image sensing module, and
An obstacle identification module configured to identify an obstacle in the environmental image and determine a positioning sensing module that positions the obstacle.
An obstacle determination module configured to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning detection module is provided.
If YES, the failure avoidance processing module configured to perform the failure avoidance processing based on the position information determined by the positioning feature information is operated .
Determining the positioning sensing module that positions the obstacle
Determining the feature occupancy of the obstacle based on the environmental image
Judging whether or not the feature occupancy rate of the obstacle is larger than the predetermined feature occupancy threshold value,
If YES, confirm that the wireless sensor is a positioning sensing module that positions the obstacle.
If NO, it involves determining that the image sensing module is a positioning sensing module that positions the obstacle.
The image sensing module includes a monocular camera.
A robot obstacle avoidance processing device characterized by this.
プロセッサ、画像感知モジュール及び位置決め感知モジュールを備え、
前記画像感知モジュールは環境画像を採集するように構成され、
前記プロセッサは前記画像感知モジュールが採集した環境画像を取得し、前記環境画像中の障害物を識別し、前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断し、もしYESなら、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うように構成され、
前記位置決め感知モジュールは前記プロセッサにより確定され、前記障害物に対して位置決めを行うように構成され、
前記プロセッサは、
前記環境画像に基づき前記障害物の特徴占有率を確定し、
前記障害物の特徴占有率は所定の特徴占有率閾値より大きいか否か判断し、
もしYESなら、無線センサを前記位置決め感知モジュールであると確定し、
もしNOなら、前記画像感知モジュールを前記位置決め感知モジュールであると確定する、
操作を実行することにより前記位置決め感知モジュールを確定し、
前記画像感知モジュールは単眼カメラを含む、
ことを特徴とするロボット。
Equipped with a processor, image sensing module and positioning sensing module
The image sensing module is configured to collect environmental images.
The processor acquires an environmental image collected by the image sensing module, identifies an obstacle in the environmental image, and the obstacle is in the target obstacle area based on the positioning feature information collected by the positioning sensing module. If YES, the failure avoidance process is performed based on the position information determined by the positioning feature information.
The positioning sensing module is determined by the processor and is configured to position against the obstacle .
The processor
The feature occupancy rate of the obstacle is determined based on the environmental image, and the feature occupancy rate is determined.
It is determined whether or not the feature occupancy rate of the obstacle is larger than the predetermined feature occupancy threshold value.
If YES, the wireless sensor is confirmed to be the positioning sensing module.
If NO, the image sensing module is determined to be the positioning sensing module.
The positioning sensing module is confirmed by executing the operation, and the positioning sensing module is confirmed.
The image sensing module includes a monocular camera.
A robot characterized by that.
前記環境画像中の障害物を識別することは、
前記環境画像を画像識別モデルに入力し、前記画像識別モデルにより前記環境画像に対して特徴分割および特徴識別を行い、前記環境画像に含まれる障害物の障害物タイプを出力することを含む、
ことを特徴とする請求項13に記載のロボット。
Identifying obstacles in the environmental image
This includes inputting the environmental image into an image identification model, performing feature division and feature identification on the environmental image by the image identification model, and outputting an obstacle type of an obstacle included in the environmental image.
13. The robot according to claim 13.
前記障害物タイプが固定障害物である場合、前記画像感知モジュールを前記位置決め感知モジュールであると確定し、
前記画像感知モジュールは単眼カメラを含み、
これに対応して、前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像に基づき前記障害物に対応する画像座標位置を確定するとともに、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定することと、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、次のステップを実行する、
ことを特徴とする請求項14に記載のロボット。
When the obstacle type is a fixed obstacle, the image sensing module is determined to be the positioning sensing module, and the image sensing module is determined to be the positioning sensing module.
The image sensing module includes a monocular camera.
Correspondingly, it is possible to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, take the next step,
14. The robot according to claim 14.
前記障害物タイプが移動障害物である場合、深度画像センサ及び前記画像感知モジュールを前記位置決め感知モジュールであると確定し、
これに対応して、前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像及び前記深度画像センサが採集した深度画像に基づき、前記深度画像における、前記障害物に対応する画像座標位置を確定することと、
前記深度画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定することと、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、次のステップを実行する、
ことを特徴とする請求項14に記載のロボット。
When the obstacle type is a movement obstacle, the depth image sensor and the image sensing module are determined to be the positioning sensing module.
Correspondingly, it is possible to determine whether or not the obstacle is within the target obstacle area based on the positioning feature information collected by the positioning sensing module.
Based on the environmental image and the depth image collected by the depth image sensor, the image coordinate position corresponding to the obstacle in the depth image is determined.
Determining the target image area corresponding to the preset reference image area in the depth image, and
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, take the next step,
14. The robot according to claim 14.
前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記無線センサが採集した前記障害物の位置データに基づき、前記位置データに対応する物理座標位置を確定することと、
前記物理座標位置は予め設置された物理障害エリア内にあるか否か判断することを含み、
もしYESなら、次のステップを実行する、
ことを特徴とする請求項16に記載のロボット。
Based on the positioning feature information collected by the positioning sensing module, it is possible to determine whether or not the obstacle is within the target obstacle area.
Based on the position data of the obstacle collected by the wireless sensor, the physical coordinate position corresponding to the position data is determined.
The physical coordinate position includes determining whether or not the physical coordinate position is within a pre-installed physical obstacle area.
If YES, take the next step,
16. The robot according to claim 16.
前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断することは、
前記環境画像に基づき前記障害物に対応する画像座標位置を確定するとともに、前記環境画像における、予め設置された基準画像エリアに対応する目標画像エリアを確定することと、
前記画像座標位置は前記目標画像エリア内にあるか否か判断することを含み、
もしYESなら、次のステップを実行する、
ことを特徴とする請求項16に記載のロボット。
Based on the positioning feature information collected by the positioning sensing module, it is possible to determine whether or not the obstacle is within the target obstacle area.
The image coordinate position corresponding to the obstacle is determined based on the environment image, and the target image area corresponding to the preset reference image area in the environment image is determined.
The image coordinate position includes determining whether or not the image coordinate position is within the target image area.
If YES, take the next step,
16. The robot according to claim 16.
前記プロセッサは、
前記環境画像に基づき前記障害物に対応する初期距離を計算し、
予め確立された、距離と位置決め感知モジュールの対応関係に基づき、前記初期距離に対応する第一位置決め感知モジュールを前記位置決め感知モジュールとして確定する、
操作を実行することにより前記位置決め感知モジュールを確定する、
ことを特徴とする請求項13に記載のロボット。
The processor
The initial distance corresponding to the obstacle is calculated based on the environmental image, and the initial distance is calculated.
Based on the pre-established correspondence between the distance and the positioning sensing module, the first positioning sensing module corresponding to the initial distance is determined as the positioning sensing module.
The positioning sensing module is confirmed by performing the operation.
13. The robot according to claim 13.
前記プロセッサはさらに、
前記距離に対応する位置決め感知モジュールが採集した前記障害物の位置決め特徴情報に基づき、前記障害物に対応する第二距離を計算し、
距離と位置決め感知モジュールの対応関係において、前記第二距離に対応する第二位置決め感知モジュールは、前記初期距離に対応する位置決め感知モジュールと一致するか否か判断し、
もしNOなら、前記位置決め感知モジュールを前記第一位置決め感知モジュールから前記第二位置決め感知モジュールに切り換えるように構成された、
ことを特徴とする請求項19に記載のロボット。
The processor further
Based on the positioning feature information of the obstacle collected by the positioning sensing module corresponding to the distance, the second distance corresponding to the obstacle is calculated.
In the correspondence relationship between the distance and the positioning sensing module, it is determined whether or not the second positioning sensing module corresponding to the second distance matches the positioning sensing module corresponding to the initial distance.
If NO, the positioning sensing module is configured to switch from the first positioning sensing module to the second positioning sensing module.
The robot according to claim 19.
前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を行うことは、
減速走行する走行コマンドを生成して実行することと、
前記位置情報に基づき走行ルートを規定し、前記走行ルートに基づき元の走行ルートを更新することを含む、
ことを特徴とする請求項13に記載のロボット。
Performing failure avoidance processing based on the position information determined by the positioning feature information is not possible.
Generating and executing a driving command to decelerate,
Including defining a travel route based on the location information and updating the original travel route based on the travel route.
13. The robot according to claim 13.
前記位置情報に基づき走行ルートを規定することは、
前記環境画像に基づき、前記障害物の最大障害アウトラインを確定することと、
前記走行ルートの走行幅が前記最大障害アウトラインの数値より大きくなるように、前記最大障害アウトライン及び前記位置情報に基づき走行ルートを規定することを含む、
ことを特徴とする請求項21に記載のロボット。
Defining a travel route based on the location information
Determining the maximum obstacle outline of the obstacle based on the environmental image,
Including defining a travel route based on the maximum obstacle outline and the position information so that the travel width of the travel route is larger than the numerical value of the maximum obstacle outline.
21. The robot according to claim 21.
前記プロセッサはさらに、
前記環境画像に含まれる目標物体特徴を検出し、
前記目標物体特徴は障害物であるか否か検出し、
もしYESなら、次のステップに進むように構成された、
ことを特徴とする請求項13に記載のロボット。
The processor further
The target object feature included in the environmental image is detected and
Detecting whether or not the target object feature is an obstacle,
If YES, configured to proceed to the next step,
13. The robot according to claim 13.
コンピュータ実行可能なコマンドを記憶するための記憶媒体であって、
前記コンピュータ実行可能なコマンドは実行される時に、
画像感知モジュールが採集した環境画像を取得し、
前記環境画像中の障害物を識別し、前記障害物に対して位置決めを行う位置決め感知モジュールを確定し、
前記位置決め感知モジュールが採集した位置決め特徴情報に基づき、前記障害物は目標障害エリア内にあるか否か判断し、
もしYESなら、前記位置決め特徴情報で確定した位置情報に基づき障害回避処理を実行し、
前記環境画像に基づき前記障害物の特徴占有率を確定し、
前記障害物の特徴占有率は所定の特徴占有率閾値より大きいか否か判断し、
もしYESなら、無線センサを前記位置決め感知モジュールであると確定し、
もしNOなら、前記画像感知モジュールを前記位置決め感知モジュールであると確定する、
操作を実行することにより前記位置決め感知モジュールを確定する、
フローを実現し、
前記画像感知モジュールは単眼カメラを含む、
ことを特徴とする記憶媒体。
A storage medium for storing computer-executable commands.
When the computer-executable command is executed,
Acquires the environmental image collected by the image sensing module and
An obstacle in the environmental image is identified, and a positioning sensing module that positions the obstacle is determined.
Based on the positioning feature information collected by the positioning sensing module, it is determined whether or not the obstacle is within the target obstacle area.
If YES, the failure avoidance process is executed based on the position information determined by the positioning feature information.
The feature occupancy rate of the obstacle is determined based on the environmental image, and the feature occupancy rate is determined.
It is determined whether or not the feature occupancy rate of the obstacle is larger than the predetermined feature occupancy threshold value.
If YES, the wireless sensor is confirmed to be the positioning sensing module.
If NO, the image sensing module is determined to be the positioning sensing module.
The positioning sensing module is confirmed by performing the operation.
Realize the flow ,
The image sensing module includes a monocular camera.
A storage medium characterized by that.
JP2020193589A 2020-08-20 2020-11-20 Robot obstacle avoidance processing method, device, robot Active JP6884312B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010843699.3A CN112068553A (en) 2020-08-20 2020-08-20 Robot obstacle avoidance processing method and device and robot
CN202010843699.3 2020-08-20

Publications (2)

Publication Number Publication Date
JP6884312B1 true JP6884312B1 (en) 2021-06-09
JP2022035927A JP2022035927A (en) 2022-03-04

Family

ID=73662546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020193589A Active JP6884312B1 (en) 2020-08-20 2020-11-20 Robot obstacle avoidance processing method, device, robot

Country Status (2)

Country Link
JP (1) JP6884312B1 (en)
CN (1) CN112068553A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113467468A (en) * 2021-07-23 2021-10-01 合肥工业大学 Embedded robot intelligent obstacle avoidance system and method
CN113848895A (en) * 2021-09-16 2021-12-28 北京空间飞行器总体设计部 Long-distance safe moving and efficient detection method and device for fire surface patrol device
CN114879701A (en) * 2022-06-23 2022-08-09 池州市安安新材科技有限公司 Robot track obstacle avoidance method and system
CN115147738A (en) * 2022-06-24 2022-10-04 中国人民公安大学 Positioning method, device, equipment and storage medium
CN116203970A (en) * 2023-04-27 2023-06-02 泰坦(天津)能源技术有限公司 Intelligent obstacle avoidance method and system for inspection robot

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113655793A (en) * 2021-08-12 2021-11-16 上海三一重机股份有限公司 Obstacle avoidance control method and device based on fusion strategy and engineering machinery
CN113741472B (en) * 2021-09-10 2024-03-08 上海伯镭智能科技有限公司 Obstacle avoidance method and device based on multi-image acquisition
CN114740867A (en) * 2022-05-10 2022-07-12 丰疆智能(深圳)有限公司 Intelligent obstacle avoidance method and device based on binocular vision, robot and medium
CN115019216B (en) * 2022-08-09 2022-10-21 江西师范大学 Real-time ground object detection and positioning counting method, system and computer

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5722127B2 (en) * 2011-06-07 2015-05-20 株式会社小松製作所 Work vehicle perimeter monitoring device
JPWO2016009585A1 (en) * 2014-07-18 2017-04-27 パナソニックIpマネジメント株式会社 Autonomous mobile object and its control method
JP2017220057A (en) * 2016-06-08 2017-12-14 株式会社リコー Obstacle avoidance device, obstacle avoidance system and program
CN110442120B (en) * 2018-05-02 2022-08-05 深圳市优必选科技有限公司 Method for controlling robot to move in different scenes, robot and terminal equipment
CN109116841B (en) * 2018-07-23 2021-09-14 昆明理工大学 Path planning smooth optimization method based on ant colony algorithm
JP2020017206A (en) * 2018-07-27 2020-01-30 ソニー株式会社 Information processing apparatus, action determination method, and program
US11036232B2 (en) * 2018-09-14 2021-06-15 Huawei Technologies Co., Ltd Iterative generation of adversarial scenarios
JP7044694B2 (en) * 2018-12-27 2022-03-30 ヤンマーパワーテクノロジー株式会社 Obstacle detection system for work vehicles
CN110609546B (en) * 2019-08-15 2023-06-30 浙江国自机器人技术股份有限公司 Method, system, computer device and readable storage medium for protecting pick device
CN110502019A (en) * 2019-09-06 2019-11-26 北京云迹科技有限公司 A kind of barrier-avoiding method and device of Indoor Robot

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113467468A (en) * 2021-07-23 2021-10-01 合肥工业大学 Embedded robot intelligent obstacle avoidance system and method
CN113467468B (en) * 2021-07-23 2024-03-29 合肥工业大学 Intelligent robot obstacle avoidance system and method based on embedded robot
CN113848895A (en) * 2021-09-16 2021-12-28 北京空间飞行器总体设计部 Long-distance safe moving and efficient detection method and device for fire surface patrol device
CN113848895B (en) * 2021-09-16 2023-06-06 北京空间飞行器总体设计部 Long-distance safe movement and efficient detection method and device for fire surface inspection device
CN114879701A (en) * 2022-06-23 2022-08-09 池州市安安新材科技有限公司 Robot track obstacle avoidance method and system
CN115147738A (en) * 2022-06-24 2022-10-04 中国人民公安大学 Positioning method, device, equipment and storage medium
CN116203970A (en) * 2023-04-27 2023-06-02 泰坦(天津)能源技术有限公司 Intelligent obstacle avoidance method and system for inspection robot

Also Published As

Publication number Publication date
JP2022035927A (en) 2022-03-04
CN112068553A (en) 2020-12-11

Similar Documents

Publication Publication Date Title
JP6884312B1 (en) Robot obstacle avoidance processing method, device, robot
JP6494331B2 (en) Robot control apparatus and robot control method
JP6598090B2 (en) Storage medium, method for planning robot operation, hardware for planning robot operation, and robot
KR101999033B1 (en) Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot
US20190337154A1 (en) Robot navigation using 2d and 3d path planning
US10049578B2 (en) Travel command generation device
CN111062372B (en) Method and device for predicting obstacle track
US11969898B2 (en) Multi-sensor optimization of automatic machines to prevent safety issues
WO2022252574A1 (en) Fault detection method and apparatus, and storage medium and electronic device
CN114077252B (en) Robot collision obstacle distinguishing device and method
CN114740842A (en) Multi-sensor fusion robot obstacle avoidance method, equipment and medium
CN113534789B (en) Method and device for real-time planning of three-time polynomial speed curve of mobile robot
US20220314980A1 (en) Obstacle tracking method, storage medium and unmanned driving device
WO2019088990A1 (en) Control system for mobile robots
US20220319189A1 (en) Obstacle tracking method, storage medium, and electronic device
US20220357747A1 (en) Method and apparatus for trajectory planning, storage medium, and electronic device
CN116149362A (en) Method and system for optimizing obstacle avoidance track of aircraft at any time
Eilbrecht et al. Reducing computation times for planning of reference trajectories in cooperative autonomous driving
WO2023034047A1 (en) Machine learning-based environment fail-safes through multiple camera views
CN114690771A (en) Path planning method and device for robot
CN113885531A (en) Method for moving robot, circuit, medium, and program
US11967157B2 (en) Robot and method for controlling thereof
Bis et al. Velocity occupancy space for differential drive vehicles
Cheng et al. Dynamic path planning in human-shared environments for low-resource mobile agents
CN114047763B (en) System, method and device for distinguishing collision barriers by unmanned vehicles and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210108

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210108

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210414

R150 Certificate of patent or registration of utility model

Ref document number: 6884312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250