JP7094396B2 - 移動ロボット及び移動ロボットの照明システムを制御する方法 - Google Patents

移動ロボット及び移動ロボットの照明システムを制御する方法 Download PDF

Info

Publication number
JP7094396B2
JP7094396B2 JP2020566996A JP2020566996A JP7094396B2 JP 7094396 B2 JP7094396 B2 JP 7094396B2 JP 2020566996 A JP2020566996 A JP 2020566996A JP 2020566996 A JP2020566996 A JP 2020566996A JP 7094396 B2 JP7094396 B2 JP 7094396B2
Authority
JP
Japan
Prior art keywords
light sources
mobile robot
light
image
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020566996A
Other languages
English (en)
Other versions
JP2021525429A (ja
Inventor
デイヴィッド・ワイアット
デイヴィッド・リチャーズ
ホセイン・ファリド・ガッセム・ニア
クリストファー・スミス
Original Assignee
ダイソン・テクノロジー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダイソン・テクノロジー・リミテッド filed Critical ダイソン・テクノロジー・リミテッド
Publication of JP2021525429A publication Critical patent/JP2021525429A/ja
Application granted granted Critical
Publication of JP7094396B2 publication Critical patent/JP7094396B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/30Arrangement of illuminating devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/249Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45098Vacuum cleaning robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Studio Devices (AREA)
  • Manipulator (AREA)

Description

本発明は、移動ロボットと、移動ロボットにある複数の光源によって提供される照明レベルを制御する方法と、に関する。
真空掃除ロボットのような移動ロボットは、視覚システムをますます採用して移動ロボットをナビゲートしたり移動ロボットの周辺環境を把握したりすることを補助する。視覚システムを用いることは、ロボットが位置している周辺環境をロボットがより良好に理解することを可能とすることや構造化航行経路を可能とすることのような多くの利点を有する。しかしながら、視覚システムを使用することの1つの欠点は、光が少ない状態で視覚システムが良好に機能しないこと、である。結果として、視覚システムを使用する移動ロボットは、しばしば、視覚システムで捕捉した画像の品質を改善するために、照明システム、すなわちヘッドライトを必要とする。
照明システムを有するロボットの一例は、特許文献1に説明されている。この例において、移動ロボットは、ロボットの側部にあるハンドル内に位置付けられた光源を備えている。
英国特許第2529846号明細書
移動ロボットのための視覚システムの様々な利点に起因して、視覚システム及び照明システムへの改善は、移動ロボット用途のために常に追求されている。
本発明の一態様は、移動ロボットを提供し、この移動ロボットは、カメラ及び照明システムを備える視覚システムであって、照明システムが、移動ロボットを囲む領域に所定照明レベルを提供するように構成された複数の光源を備える、視覚システムと、照明システムを制御するための制御システムと、を備える。制御システムは、カメラで捕捉した画像、画像を捕捉した時点におけるカメラの露光時間、及び、ロボット回転情報、に基づいて、複数の光源により提供された照明のレベルを調整する。
その結果、移動ロボットは、移動ロボットの環境へ動的照明を提供し、照明が必要な領域のみを照明してカメラからの画像品質を改善し、また、光を迅速に位置変更させてロボットの回転を相殺できる。
制御システムは、カメラの露光時間を閾値露光時間と比較し得、所定期間にわたって露光時間が閾値露光時間未満であった場合、制御システムは、複数の光源への電力を低減する。その結果、露光時間が閾値を越えたときにのみ作動する。これは、通常の点灯状態の下、照明システムが主としてオフのままであり、ロボットの走行時間を低減する不必要な電力消費を防止する。
閾値露光時間は、0.05秒から0.3秒であり得、0.15秒であり得る。所定期間は、1秒から5秒であり得、3秒であり得る。これらパラメータは、絶対的に必要な照明を提供することと可能な限りバッテリ時間を節約することとの間の最適なバランスを提供する特に有益であることを見出した。
制御システムは、画像を複数の画像セグメントに分割し得る。その結果、画像の様々な領域を別個に処理し得、ロボットの周囲の環境における様々な領域内で独立して照明を制御することが可能となる。
画像セグメントの数は、複数の光源における光源の数に対応する。このようにして、光源それぞれは、特定のセグメントを照明できると容易に考えられ得、特有のセグメントに関して照明を調整することを簡素化する。
制御システムは、複数の画像セグメントそれぞれに関する平均輝度を算出し得、平均輝度は、セグメントにおける中央平均ピクセル強度を用いて算出され得る。
制御システムは、画像セグメントそれぞれに関して算出した平均輝度を上側及び下側輝度閾値と比較し得る。特有の画像セグメントに関して算出した平均輝度が下側輝度閾値より下である場合、制御システムは、複数の光源のうちその画像セグメントに対応する領域を照明できる1以上の光源への電力を増加させる指示をし得る。特有の画像セグメントに関して算出した平均輝度が上側輝度閾値より上である場合、制御システムは、複数の光源のうちその画像セグメントに対応する領域を照明できる1以上の光源への電力を減少させる指示をし得る。特有の画像セグメントに関して算出した平均輝度が上側及び下側輝度閾値間にある場合、複数の光源のうちその画像セグメントに対応する領域を照明できる1以上の光源への電力に変化をなさない。
制御システムが複数の光源のうちの1以上への電力を増減させるように指示すると、その画像セグメントに関する光変化要求値を増分し得、制御システムは、新たな光変化要求値を所定の要求値閾値と比較し得る。その結果、照明レベルにおける変化間の移行は、滑らかになる。また、照明変化を付与する前に、若干の遅延を導入し、したがって、光は、揺れない。
制御システムは、ロボット回転情報に基づいて、複数の光源に関する電力レベルをロボットの回転方向とは反対の方向に位置変更させることによって、複数の光源が供給する照明レベルを調整し得る。これは、移動ロボットの回転を考慮して迅速になし得る簡素ではあるが効果的な調整を提供する。
回転情報は、ジャイロドメトリシステムによって制御システムに提供され得る。ジャイロドメトリシステムは、慣性測定ユニット(IMU)及びオドメータのうちの一方または双方を備え得る。
移動ロボットが動作している際、制御システムは、カメラが捕捉した画像それぞれに関して複数の光源が提供する照明レベルを繰返し調整し得る。その結果、照明システムが提供した照明は、ロボットが環境をナビゲートする際に遭遇する周囲照明における変化を迅速に相殺して解決するようになされ得る。
本発明の第2態様は、移動ロボットにある複数の光源が提供する照明レベルを制御する方法を提供し、この方法は、複数の光源が提供する照明レベルを、ビークルにあるカメラが捕捉する画像、画像を捕捉した時点におけるカメラの露光時間、及び、ロボット回転情報、に基づいて、調整するステップを備える。
その結果、移動ロボットが移動ロボットの環境へ提供する照明は、動的であり得、照明がカメラからの画像の品質を改善するために必要である領域のみを照明し、また、光を迅速に位置変更させてロボットの回転を相殺できる。
方法は、カメラの露光時間を閾値露光時間と比較するステップと、所定期間にわたって露光時間が閾値露光時間未満であった場合、複数の光源への電力を低減するステップと、を備え得る。その結果、照明は、露光時間が閾値を越えたときにのみ作動される。これは、通常の点灯条件の下、照明システムが主としてオフのままであり、ロボットの走行時間を低減する不必要な電力消費を防止する。
方法は、画像を複数の画像セグメントに分割するステップをさらに備え得る。その結果、画像の様々な領域は、別個に処理され得、ロボットの周囲にある環境の様々な領域内で、複数の光源が提供する照明を個別に制御することを可能とする。
方法は、複数の画像セグメントそれぞれに関して平均輝度を算出するステップをさらに備え得る。
方法は、画像セグメントそれぞれに関する算出平均輝度を上側及び下側輝度閾値と比較するステップをさらに備え得る。特有の画像セグメントに関して算出平均輝度が下側輝度閾値よりも下である場合、方法は、複数の光源のうちその画像セグメントに対応する領域を照明できる1以上の光源への電力を増加させるステップを備え得る。特有の画像セグメントに関して算出平均輝度が上側輝度閾値より上である場合、方法は、複数の光源のうちそのセグメントに対応する領域を照明できる1以上の光源への電力を減少させるステップを備え得る。特有の画像セグメントに関して算出平均輝度が上側及び下側輝度閾値間にある場合、方法は、複数の光源のうちその画像セグメントに対応する領域を照明できる1以上の光源への電力への変化をしないステップを備え得る。
複数の光源のうちの1以上への電力を増減させるステップは、その画像セグメントに関する光変化要求値を増分させるステップと、新たな光変化要求値を所定の要求値閾値と比較するステップと、を備え得る。その結果、照明レベルにおける変化間の移行が滑らかになる。また、照明変化を付与する前に若干の遅延を導入し、したがって、光は、揺れない。
方法は、ロボット回転情報に基づいて、複数の光源に関する電力レベルを移動ロボットの回転方向とは反対側の方向で位置変更させることによって、複数の光源が提供する照明レベルを調整するステップを備え得る。これにより、移動ロボットの回転を考慮して迅速になし得る簡素ではあるが効果的な調整を提供する。
方法は、移動ロボットのジャイロドメトリシステムからロボット回転情報を読み出すステップを備え得る。
方法は、カメラが捕捉する画像それぞれに関して複数の光源が提供する照明レベルを繰返し調整するステップを備え得る。その結果、照明は、ロボットが環境をナビゲートする際に遭遇する周囲照明における変化を迅速に相殺して解決するようになされ得る。
本発明をより迅速に理解し得るために、以下の添付の図面を参照しながら、例として、本発明の実施形態をここで説明する。
移動ロボットを示す図である。 図1の移動ロボットの視覚システムを示す分解図である。 図2の視覚システムを有する図1の移動ロボットの一部を通る横断面図である。 視覚システムのためのレンズモジュールを通る横断面図である。 図2及び図3の視覚システムの一部を通る横断面図である。 図2及び図3の視覚システムから視覚システムを示す図である。 図2及び図3の視覚システムによって捕捉された球状イメージを示す図である。 巻き解いた後の図7Aの画像を示す図である。 PCBに装着されたセンサマウントを示す図である。 図8のセンサマウントを示す下面図である。 図9のセンサマウントを通る横断面図である。 移動ロボットを示す概略図である。 移動ロボットのための照明アルゴリズムの入力及び出力を示すフローダイアグラムである。 図12の照明アルゴリズムにおけるステップを示すフローダイアグラムである。 図13の照明ダイアグラムの一部における別のステップを示すフローダイアグラムである。
図1は、主本体2及び分離機器4を備えるロボット真空掃除機1を示す。主本体2は、連続タンクトラックの形態にある牽引ユニット5と、掃除機ヘッド6と、を備えており、この掃除機ヘッドは、ブラシバーを収容し、この掃除機ヘッドを通して、空気をロボット真空掃除機1内に引きこみ、分離機器4内に通す。いったん分離機器4において空気を塵埃から清浄化したら、空気は、分離機器21から出て、気流を発生させるモータ及びファンを収容する主本体2を通過する。そして、空気は、排気口を通してロボット1から排出される。視覚システム8は、移動ロボット1の主本体2の頂面3から突出する。視覚システム8は、カメラ12及び照明システム14を備える。カメラ12は、ロボット1を囲む周辺環境の360°視覚を捕捉できる全方位カメラである。カメラ12は、例えば、魚眼レンズカメラまたはパノラマ環状レンズ(PAL)カメラであり得る。
ロボット1は、ロボット1のソフトウエア及び電子機器に統合された制御システムを備え、この制御システムは、同時の自己位置推定及び環境地図作成(SLAM)技術を使用して視覚システム8で捕捉した画像を処理することができ、局所的な周辺環境を理解し、解釈して自動的にナビゲートすることを可能とする。制御システムは、同様に、衝突センサのようにロボット1に設けられた複数の他のセンサから収集された情報を使用し、同様に、位置検知デバイス(PSD)及び/または飛行時間(ToF)センサのような複数の位置センサを備える。PSD及び/またはToPは、分離機器4の側面に位置するセンサポッド内に収容されている。センサポッドには、透光性カバーが設けられており、この透光性カバーを通して、PSD及びToFセンサは、赤外線(IR)光のような光を放出したり受けたりすることができる。センサポッド10は、アレイ状のセンサを収容しており、これらセンサは、様々な方向に向けられており、それにより、障害物は、ロボットの前方だけでなく側方に向けても検出され得る。しばしば崖センサと称される下方を向くセンサは、同様に、床面における降下を検出し得、それにより、ロボットは、ロボットが階段のような降下を進行する前にロボットが停止するかつ/またはロボットの進行方向を調整することができる。いくつかのロボットは、物理接触センサのような移動可能な緩衝部分を使用する一方、このロボット1は、衝突センサを有し、この衝突センサは、主本体2における別個のシャーシ部分と本体部分との間の相対移動を検出して障害物との物理的接触を記録する。
図2は、移動ロボット1の視覚システム8の分解図を示す。視覚システムの様々な部品は、符号Xが付された破線の軸に沿って軸方向で互いに分離されている。視覚システム8は、カメラ12及び照明システム14双方を形成する複数の構成部材を備えており、これらカメラ及び照明システムは、レンズモジュール20、レンズモジュールホルダ22、視覚システムマウント24、画像センサ31が設けられた印刷回路基板(PCB)30、センサマウント32、発光ダイオード(LED)27の形態にある複数の光源が設けられた第2PCB28、及び、透光性カバー34を有する。レンズモジュール20は、魚眼レンズモジュールであり、魚眼レンズは、センサマウント32を用いて画像センサ31に装着されている。センサマウント32は、ネジ33を用いて画像センサ31を覆うようにPCB30に装着されている。センサマウント32は、レンズモジュール20と画像センサ31とを位置合わせする目的で、画像センサ31とレンズモジュール20との間に設置された機械構成部材である。画像センサ31は、カメラで主として使用されるものの1つであり得、例えば、画像センサ31は、電荷結合素子(CCD)センサまたは相補型金属酸化膜半導体(CMOS)センサであり得る。センサマウント32に装着される別の実施形態にかかるセンサを図8、図9及び図10に関して後述する。
8のLED27は、PCB28にある環状に配列されている。PCB28は、穴部を画成し、この穴部を通して、レンズモジュール20は、LED27がレンズモジュール20の周りに環状に配列され得るように延在し得る。もちろん、理解することは、LEDの数が異なり得ること、及び、視覚システムの照明要件に応じて視覚システムが2以上のLED27を備え得ること、である。LEDは、電磁スペクトルの可視部分にある光を生成するが、別の実施形態において、例えば赤外光または近赤外光などの他の領域のスペクトルにある光を生成し得る。
視覚システムマウント24は、組み立て済みの視覚システム8を移動ロボット1に装着するために使用される。視覚システムマウント24は、8の穴部26を備えており、これら穴部を通して、8のLED27は、突出し得る。理解することは、穴部26の数が同様にLED26の数に一致するように変化し得ること、である。視覚システムマウント24は、複数のフィン25をさらに備えており、これらフィンは、フィン25が各対の隣接する穴部26間に位置するように位置付けられている。これらフィン25は、LED27によって生成された光を分割するように機能し、光により指向性を持たせる。視覚システムマウント24は、マグネシウムのような金属で形成されており、LED27から熱を引き込むヒートシンクとして機能する。これにより、LEDが過熱する危険性を低減することによってLED27の寿命を延ばすことを補助し、LED27からの熱がレンズモジュール20を損傷させることを停止する。視覚システムマウント24のヒートシンクとしての効率を増加させるために、ヒートシンク29は、ヒートシンクマウント24aを介して視覚システムマウント24に固定される。
レンズモジュールホルダ22は、レンズモジュール20の周りに嵌っており、レンズモジュール20を視覚システムマウント24に装着するように機能する。反射面23は、フランジの底面に設けられており、このフランジは、レンズモジュールホルダ22の外面から径方向外方に突出する。この反射面23は、半放物線状のドーナツ型ミラーであり、LED27から放射された光を外方へ反射するように機能しており、以下で詳述する。
透光性カバー34は、開口部35を画成しており、この開口部を通して、レンズモジュールホルダ22の頂部及びレンズモジュール20は、突出し得る。したがって、透光性カバー34は、視覚システム8のうち照明システム14部分を覆って保護するが、カメラ12を露光させて可能な限り最高品質の画像を捕捉する。
図3は、視覚システム8と移動ロボット1の一部とを通る横断面を示す。視覚システム8は、移動ロボット1の頂面3の上方へ部分的に突出する。画像センサ31は、ロボットの頂面3の下方に位置しており、レンズモジュールは、画像センサ31の頂面から視覚システム8のまさに頂部まで延在する。一例の魚眼レンズモジュールを通る横断面を図4に示す。複数のレンズ42、44、46、48は、レンズモジュール40内に保持されている。図3に示されることは、LED27が移動ロボットの頂面3の下方に位置していること、であり、これにより、LED及びPCBを損傷することから保護することを補助する。しかしながら、LED27から放出した光は、透光性カバー34を通って上方かつ外方に方向付けられ、符号Yが付された領域によって示されるように、移動ロボットの周囲の環境を照明する。
図5は、レンズモジュールホルダ22にある反射面23がどのような状態で半環形状の放物線状ミラーであるかを示しており、この放物線状ミラーは、LED27からの光をレンズモジュールから離間する方向に方向付けるように機能する。その結果として、LED27からの光は、レンズモジュール内に直接進行できず、このような直接進行は、過剰な輝度で視覚システムを効率的に目晦ましする。反射面23は、フランジの底面に設けられており、このフランジは、レンズモジュールホルダ22の外側から径方向外方に突出し、フランジは、LED27を越えて径方向外方に延在し、それにより、LED27からの光は、上方へ直線的に進行できない。LED27からの光が上方へ直接進行できる場合、これにより、移動ロボットの上方にある天井に照明が集中した明るい点を引き起こし、この明るい点は、同様に、過剰な輝度で視覚システムを効率的に目晦ましするように機能する。その替わりに、例示的な照明光線U、V及びWは、反射面23がどのように光を径方向外側へ移動ロボット1の周りの環境へ反射させるかを示す。
その上、図3に示すように、反射面23が移動ロボットの頂面3の若干上方まで延在しているので、LED27からの光は、ロボット1の頂面3と平行な水平方向で延在できる。その結果、照明システムは、移動ロボットの側方の領域までも照明できる。
図6は、視覚システムマウント24と穴部26それぞれを通って突出するLED27との頂面図を示す。LEDそれぞれは、特に照明領域A~Hを照明するように機能する光を生成する。例えば、LED27Aは、照明領域Aを照明し、LED27Bは、符号Bでラベル付けされた照明領域を照明する、などである。このセグメント化効果は、フィン25によって強調される。フィン25の頂部は、視覚システム8を組み立てるとフィンの頂部が反射面の湾曲形状に沿うように形付けられており、そのため、これにより、LEDの照明領域の外側において特有のLEDからの光の漏洩を低減する。LED27A~Hそれぞれは、個別に制御可能であり、そのため、照明は、必要に応じてのみ環境の一部に提供され得る。これにより、浪費電力を最小化することを補助し、したがって、製品のバッテリ寿命を延ばす。バッテリ寿命を延ばすことにより、移動ロボットがより長い稼働時間を有すること、及び、充電ステーションに戻って充電することが必要となる前により多くの床面積をカバーすることを可能とする。照明領域A~Hは、共に、移動ロボット1の周りの全360°に延在する完全な照明可能領域に達する。
いくつかの実施形態において、LEDは、制御を簡素化するために共にグループ化され得る。例えば、LED27A及び27Bは、第1グループであり得、LED27C及び27Dは、第2グループであり得、LED27E及び27Fは、第3グループであり得、LED27G及び27Hは、第4グループであり得る。そして、これらグループは、独立して制御可能であり得る。これにより、ロボットには、8のLED27全てを独立して制御可能である八分円照明制御とは対照的に四分円照明制御が提供される。想定されることは、視覚システム及び移動ロボットの要件に応じて、他のグループ分け及びLEDグループの数を選択し得ること、である。
図7Aは、視覚システム8で捕捉した球面状画像70を示す。画像70は、LED照明領域A~Hに対応する複数のセグメント72へセグメント化され得る。処理中、球面状画像70は、矢印QおよびRで示されるように分割されて巻き解かれ、移動ロボット1の周りにある全360°視野を示す巻き解いた矩形状画像74を実現する。そして、球面状画像70のセグメント72は、矩形状画像74のセグメント76に対応する。ロボット1が動作している間、照明システム14は、カメラで捕捉した環境のいずれかの領域であって符号A~Hでラベル付けされたセグメントに対応する領域を明るくするために使用され得る。例えば、ロボットが良好に照明された部屋から暗くした部屋へ進行するときのように、ロボットの前方にある領域が暗い場合、前方を向くセグメントA及びBは、画像70及び74においてより暗くなる。したがって、ロボットの制御システムは、LED27A及び27Bへの電力を増加させ得、それにより、これらLEDは、A及びBセグメントにおいてより多くの照明を提供し、ロボットは、継続できる。照明システムの制御の詳細を図11から図14に関連して後述する。
図8は、別の実施形態にかかるセンサマウント82を示しており、このセンサマウントは、PCB80にある画像センサに装着される。図2に関連して上述したセンサマウント32は、ネジ33を用いて画像センサ31及びPCB30に装着されている。ネジは、画像センサ31及びセンサマウント32を、ひいてはレンズモジュールを良好な位置合わせで維持することを補助する。しかしながら、図8の別の実施形態において、センサマウント82を画像センサに装着するためにネジを使用していない。このように、別の実施形態にかかるセンサマウント82は、受動位置合せ型センサマウント82と称され得る。受動位置合せ型センサマウント82には、係合部分83が設けられており、この係合部分は、レンズまたはレンズモジュールと係合し得る。この実施形態にかかる係合部分83は、レンズまたはレンズモジュールにある同様のネジ山に従うネジ山が設けられており、それにより、レンズまたはレンズモジュールは、受動位置合せ型センサマウント82に螺着され得る。
受動位置合わせセンサマウント82は、画像センサとレンズまたはレンズモジュールとの間に設置された機械構成部材である。上述したセンサマウント32と同様に、受動位置合わせセンサマウント82の目的は、レンズまたはレンズモジュールと画像センサとを位置合わせすることであるが、この例において、受動位置合わせセンサマウント82は、機械的手段によってのみかつ例えばネジを用いてなど外部入力なく画像センサに中心合わせかつ焦点を合わせた画像を形成しなければならない。センサマウント82は、同様に、焦点合わせに必要な相対移動を可能としなければならない。
図9は、受動位置合わせセンサマウント82の下面図を示し、図10は、図9に示す線P-Pを通る受動位置合わせマウントを通る横断面図を示す。X軸位置合わせは、画像センサの横面に作用する第1変形可能プラスチック素子84を用いて達成され、これは、画像センサを第1垂直基準面86に接触させて押す矢印Mで示す力を形成し、この第1垂直基準面は、受動位置合わせセンサマウント82の本体に一体化されている。同様に、Y軸位置合わせは、画像センサの別の横面に作用する第2変形可能プラスチック素子88を用いて達成される。これは、画像センサを第2垂直基準面89に接触させて押す矢印Nで示す力を形成し、この第2垂直基準面は、同様に、受動位置合わせセンサマウント82の本体に一体化されている。画像センサを2つの垂直基準面86、89に接触させて押すことによって、センサ軸を受動センサ位置合わせマウント82の軸と位置合わせする。
Z軸に関して、受動位置合わせセンサマウント82は、画像センサパッケージガラスの頂面に載置されており、この画像センサパッケージガラスの頂面は、画像センサの頂層を形成し、この頂面を第3基準面として使用し、レンズの光軸とガラスの法線ベクトルとを位置合わせすることを可能とし、これら光軸及び法線ベクトルは、レンズの「ピッチ」及び「ヨー」軸に対応する。「ロール」軸は、焦点合わせの目的で回転自在のままである。この組の反応は、レンズ、センサマウント及び画像センサパッケージの製造許容誤差まで最小化した許容誤差での位置合わせを形成する。
上述したように、受動位置合わせセンサマウント82は、受動的機械手段のみによって、X及びY軸双方で、及びピッチ及びロールにおいて、レンズと画像センサとの位置合わせを可能とする。受動位置合わせセンサマウント82の別の利点は、第1及び第2変形可能素子の弾性性質に起因して、受動位置合わせセンサマウントが、構成部材のいずれにも損傷を引き起こすことなく画像センサに取り付け可能かつ画像センサから取り外し可能であること、である。
図11は、一実施形態にかかる移動ロボット1の概略的な図を示す。照明制御アルゴリズムは、移動ロボット1の制御システム90において実行される。制御システム90は、プロセッサ91、画像処理ユニット92及びナビゲーションユニット93を備える。制御システムは、移動ロボット1の他のシステムを制御するために図11に示さない他のユニットを備え得、例えば、制御システムは、真空清掃動作のような移動ロボットが行っているタスクを制御するためのタスク制御ユニットをさらに備え得る。
視覚システム8は、カメラ12及び照明システム14を備える。すでに説明したように、カメラ12は、移動ロボット1を囲む領域の画像を捕捉できる。例えば、カメラ12は、天井の画像を捕捉するように上方へ方向付けられたカメラ、移動ロボット1の前方進行方向における画像を捕捉するように前方を向くカメラ、ロボット1を囲む領域の360°画像を捕捉するパノラマ環状レンズ(PAL)カメラ、または、同様にロボット1を囲む領域の360°画像を捕捉できる魚眼レンズカメラであり得る。
照明システム14は、ロボット1が低照度状態を有する環境にあるときに、または、カメラ12が捕捉した画像が低コントラストである場合に、カメラ12が捕捉した画像の品質を改善できる。照明システム14は、上記図面で示したLEDに対応する複数のLED27A~Hを備えて示されている。LED27A~Hそれぞれは、LEDに駆動電力を供給するために使用される対応するLED駆動体94A~Hを有する。LED27A~Hは、カメラ12が捕捉した画像の品質を改善するために、カメラのセンサが方向付けられることができる任意の帯域の光を放出する。例えば、LEDが放出した光は、電磁スペクトルの可視光、近赤外光(NIR)または赤外光(IR)部分であり得る。可視光は、特に照明システムが正確にかつ有効に機能していることをロボットの所有者がより容易に判断できるので、特に有益であることが分かっている。
制御システム90は、同様に、ロボットの環境内で移動ロボット1の移動を制御することに関与する。視覚システム8が収集した画像および他のデータは、制御システム90のナビゲーションユニット93に供給される。ナビゲーションユニット93は、例えば、同時の自己位置推定及び環境地図作成(SLAM)ユニットであり得る。SLAMユニットは、画像を解析し、画像内に示されるロボット1を囲む領域内にある目印となる特性を見出すために使用され得る。目印となる特性は、画像内で容易に検出される高コントラストな特性であり、例えば、テーブルの縁や額縁の角である。画像の解析の一部またはすべては、画像処理ユニット92で実行され得る。そして、目印特性は、ナビゲーションユニット93によって使用され、環境内でロボットの位置または姿勢を測量して判断し得る。ナビゲーションユニット93は、移動ロボット1にある他のセンサから捕捉された画像及びデータからの情報を使用し、ロボット1が使用して環境を解釈してナビゲートする環境のマップを形成し得る。
命令は、制御システム90から駆動システム98に送られ、この駆動システムは、ロボット1を移動させる。駆動システム98は、左手側(LHS)牽引ユニット99A及び右手側(RHS)牽引ユニット99Bを備えるとして図1に示されている。牽引ユニット99A、99Bそれぞれは、独立して制御され、それにより、ロボット1を操縦し得る。例えば、RHS牽引ユニット99BをLHS牽引ユニット99Aよりも速く前方方向で駆動させると、ロボットは、ロボットが前方に移動するにしたがって左へ方向転換し、さらなる例として、LHS及びRHS牽引ユニット99A、99Bそれぞれを同一速度であるが反対方向で駆動すると、ロボット1は、その場で回転する。
移動ロボット1は、同様に、周囲環境及び環境内でのロボットの姿勢についての情報をロボット1に提供するセンサシステム95を備える。センサシステム95は、衝突センサ96及びジャイロドメトリシステム97を有する。ジャイロドメトリシステム97は、慣性測定ユニット(IMU)97A及びオドメータ97Bを有する。オドメータ97Bは、駆動システム98からデータを受信し、(例えば、車輪の回転数を用いて)牽引ユニットによる進行距離の指標を提供する。衝突センサ96は、障害物との物理的接触をなしたことをロボット1に知らせる。衝突センサ96からの信号に応じて、ロボットは、例えば、ロボットの位置及び軌道を停止させ得るかつ/または調整し得る。これにより、ロボット1がロボット自身にまたはロボットが接触を形成した障害物に損傷を引き起こすことを防止する。センサシステム95は、例えばPSD及び/またはToFセンサのような1以上の近接センサなど、図11に示さない他のセンサを備え得る。近接センサは、ロボット1の近傍にある障害物の指標を与えることができる。これにより、ロボット1は、障害物と接触することなく障害物を回避することが可能となる。
照明システムをどのように制御するかについての詳細をここで説明する。
図12は、移動ロボット1にある照明システム14を制御するために使用されるアルゴリズム100の入力及び出力を示すフローダイアグラムである。照明ダイアグラムは、LED制御値108、露光時間102、カメラ12からの画像104及びロボットの回転106に関する情報を提供するために使用される3つの入力を有する。図12は、照明アルゴリズム100の出力としての単一LED制御値108を示すが、想定されることは、複数のLEDの制御が必要とする場合には、1以上のLED制御値108を発生させ得ること、である。
照明アルゴリズム100は、照明システム14を制御し、ナビゲーションユニット93が暗い領域で信頼性高く実行することができるバランスの取れた光を提供する。アルゴリズム100は、カメラ12が捕捉した単一フレームごとに解析し、照明システム14から強化した照明を採用する必要性を評価する。アルゴリズムの実行頻度は、カメラ12が捕捉したフレームの周波数と同じである。
露光時間102は、算出されて照明アルゴリズムに送られる。照明システムは、算出した露光時間102が所定の閾値を越えたときにのみ作動される。これは、通常の照明条件の下で、照明システムは、主として、オフのままとなっており、ロボットの実行時間を低減する電力の不必要な消費を防止すること、を意味する。露光時間102は、露光制御アルゴリズムによって算出されており、露光制御アルゴリズムの詳細は、本発明の範囲外にある。しかしながら、理解されることは、露光値を算出するために使用される計測アルゴリズムのような、露光時間を算出し得る多くの周知の方法があること、である本明細書の目的には適用した的確な方法を詳述する必要はない。
ロボット1が回転すると、ロボットの回転106に関する情報は、アルゴリズム100で使用されて光を位置変更させる。この情報は、ジャイロドメトリシステム97から得られる。ロボットの回転についての情報を用いずに、アルゴリズムは、相応に照明を調整できるが、アルゴリズムが新たな画像フレームを評価して必要な調整をするのに時間がかかる。この調整時間中に、画像は、飽和したまたは非常に暗いピクセルであり、ロボットのナビゲーションに悲観的な影響を与える。しかしながら、ロボットの回転についての情報を用いることにより、アルゴリズムは、ロボットの回転とは反対方向に光を位置変更させ、ロボット1の周りの環境の必要な領域における照明をはるかに迅速に維持する。このように、照明システムは、環境に対する動的な照明を提供すると言え得る。
図13は、アルゴリズム100の実行中に取るステップを示すフローダイアグラムである。アルゴリズムは、ステップ100において開始し、ステップ112における第1作動は、カメラ12から新たなフレーム104を得てこのフレームをセグメントに分割することである。フレーム104は、図7Bに示す分割した矩形状画像のような分割した矩形状画像であり、この矩形状画像は、画像処理ユニット92によって分割される。セグメントは、セグメントと図6、図7A及び図7Bに関連して上述した照明領域A~Hとに対応する。
ステップ114において、算出した露光時間TEXP102が所定の期間Tよりも長きにわたって閾値露光時間TTHRESH未満である場合、照明システムが不要であると判断され、LED電力Lは、ステップ115において低減される。Lのこの低減は、TEXPがTTHRESH未満のままである間にフレームそれぞれを解析する際に時間と共にLEDが薄暗くなる結果となる。これは、照明の変化に滑らかで漸次的な効果を付与するために選択されている。しかしながら、代替は、LEDへの電力を即時にオフにすることであり得る。
算出した露光時間TEXP102が所定の期間Tよりも長きにわたって閾値露光時間TTHRESH以上である(または、露光時間が閾値よりも大きい)場合、照明システムが必要であると判断され、アルゴリズムは、ステップ116を継続し、このステップにおいて、次のステップのために関心領域として次のセグメントA~Hを選択する。
150ミリ秒(0.15秒)の閾値露光時間TEXP及び3秒の所定期間Tは、最適なバランスを提供することが分かっている。しかしながら、50ミリ秒から300ミリ秒(0.05秒から0.3秒)の範囲にあるTTHRESHを選択し得、1秒から5秒の範囲にあるTを選択し得る。ロボットの要件が必要とする場合には、これら範囲外のTTHRESH及びTに関する値を選択し得る。
選択したセグメントに関する平均輝度をステップ118において算出する。平均輝度は、セグメントにおけるピクセル強度の中央平均を用いて算出される。
セグメントそれぞれにおける平均強度、すなわち輝度は、以下の式1を用いて算出され、ここで、swは、セグメント幅、shは、セグメント高さである。例えば、8セグメントを有する1024×128の画像において、sw=128、sh=128であり、または、他の実施形態において、4のセグメントを有する1024×128の画像において、sw=256、sh=128である。この式は、ピクセル全てに関する強度の和を算出し、セグメントにおける全ピクセル数で割る。
Figure 0007094396000001
式1で算出した平均強度は、以下の式2を用いて平均輝度として分類される。2つの所定のパラメータa及びbは、画像の輝度を判断するために使用される。あるセグメントに関する平均強度がaとbとの間である場合、そのセグメントの輝度は、通常であると考えられる。あるセグメントに関する平均輝度がbよりも上である場合、そのセグメントは、明るいと考えられる。最後に、あるセグメントに関する平均強度がa未満である場合、そのセグメントは暗いと考えられる。
Figure 0007094396000002
ステップ120において、選択したセグメントに関する分類した平均輝度が「通常」である場合、アルゴリズムは、まっすぐステップ122に進み、このステップにおいて、確認を行ってフレームに処理するセグメントが残っていないか判断する。セグメントがまだ残っている場合、アルゴリズムは、ステップ116に戻り、関心領域としてフレームにおける次のセグメントを選択し、輝度算出及び分類ステップを繰り返す。
あるいは、ステップ120において選択したセグメントに関して分類した平均輝度が「暗い」場合、アルゴリズムは、替わりにステップ121Aに進み、このステップにおいて、そのセグメントを照明するのに関与するLED電力Lを増加させる。これは、増加したL値をそのLED27に関するLED駆動体94に送ることによって、行われる。そして、アルゴリズムは、上述のようにステップ122に進む。
あるいは、ステップ120において選択したセグメントに関する分類した平均輝度が「明るい」場合、アルゴリズムは、替わりにステップ121Bに進み、このステップにおいて、そのセグメントを照明するのに関与するLED電力Lを減少させる。これは、低減したL値をそのLED27に関するLED駆動体94に送ることによって、行われる。
いったんフレーム内のセグメントすべてを処理したら、ステップ122において、アルゴリズムは、ステップ124に進み、このステップは、ジャイロドメトリシステム97から得られたロボット回転情報106を用いてロボット1が回転したか判断する。ロボットが回転していない場合、アルゴリズムは、ステップ112に戻り、カメラから新たなフレーム104を得て処理を繰り返す。しかしながら、ロボットが回転した場合、アルゴリズムは、ステップ126に進み、検出したロボットの回転角度に関して適切なセグメント数だけ、LED電力(L)値をロボットの回転とは反対方向に位置変更させる。例えば、8のLEDセグメントがある場合、アルゴリズムは、回転方向とは反対に45°回転当たり1セグメントだけ関連するL値を位置変更させる。あるいは、4のLEDセグメントがある場合、アルゴリズムは、回転方向とは反対に90°回転当たり1セグメントだけ関連するL値を位置変更させる。
例えば、図7A及び図7Bに示す画像セグメント及び図6から対応するLED27A~Hを取ると、以下の表1における第1列は、第1ロボット姿勢におけるLEDA~Hそれぞれに関するL値を示す。この姿勢において、ロボット1の前方に暗い領域があり、そのため、ロボット1の前方に向けて方向付けられたLED27A及び27Bは、大幅に照明され、ロボットの右側及び左側の周辺に向けて方向付けられたLED27H及び27Cは、若干だけ照明される。そして、表1の第2列は、第2ロボット姿勢におけるLEDA~Hそれぞれに関するL値を示しており、ここで、ロボットは、時計回り報告で90°回転しており、他の要因は同じままである。90°の時計回り回転の後、ロボットの左手側に向けて方向付けられたLED27C及び27Dは、ここで暗い領域を向き、そのため、アルゴリズムがL値を2のセグメントだけ反時計回りに位置変更させることに起因して、照明される。
Figure 0007094396000003
もちろん、ロボットが十分にゆっくりと回転している場合、アルゴリズムは、輝度算出によって照明を十分に調整するので、光を位置変更する必要はない。このように、回転は、回転速度が所定閾値よりも迅速である場合に、考慮され得るのみである。
ステップ126においてアルゴリズムが必要な量だけL値を位置変更させたら、アルゴリズムは、ステップ112に戻り、カメラから新たなフレーム104を得て処理を繰り返す。
図13におけるフローダイアグラムで設定されたステップを用いるアルゴリズムは、結果として、照明システムが発生させた光のある程度僅かな「揺れ」を引き起し得る。揺れは、照明システムが生成した照明が急速に変化すると、生じ得る。例えば、明るい環境から暗い領域に入るときに、照明における急速な増加は、結果として、画像が明るく見えすぎることを生じ得る。これに対抗するため、アルゴリズムは、照明を低減し、この照明の低減は、順に、結果として、画像が暗く見えすぎることなどを生じる。この揺れ効果を防止するため、照明レベルを変更する前に若干の遅延があるべきであり、周辺光における検出した変化が持続的であり継続することを保証する。また、照明の移行を若干ゆっくりにして滑らかにすべきである。しかしながら、必要なことは、ロボットのナビゲーションシステムが妨げられないことを続けられるのに十分に迅速に、周辺光における変化に対してロボットが十分に迅速に反応すること、である。
図14は、図13の照明アルゴリズムの一部における別のステップを示すフローダイアグラムであり、これらステップは、揺れの問題に取り組む。ステップ118及び120は、図13におけるものと同じであるが、後続のステップが異なる。光増加要求(LIR)及び光減少要求(LDR)をこの方法に導入する。
平均輝度がステップ120において「通常」と分類される場合において、アルゴリズムは、ステップ130に進み、このステップにおいて、LIR及びLDRの値は、ゼロにリセットされ、LED電力(L)は、変更されないままである。そして、アルゴリズムは、図13に示すアルゴリズムと同じ方法で、画像セグメントそれぞれに関して繰り返す。これは、ダイアグラムを簡素化するために、ステップ160として図14において示されている。
平均輝度がステップ120において「暗い」と分類される場合において、アルゴリズムは、ステップ140に進み、このステップにおいて、現在選択したセグメントに関するLIR値を増加させる。この例において、LIR値を1だけ増加させる。そして、ステップ142において、輝度が「暗い」かつ現在のLIR値が所定閾値thrLIRより上方である条件に合致する場合、セグメントン関するLED電力Lを増加させ(L=L+1)、LIR値をゼロ(LIR=0)にリセットする。そして、アルゴリズムは、ステップ160において画像セグメントそれぞれに関して繰り返す。
平均輝度がステップ120において「明るい」と分類される場合において、アルゴリズムは、ステップ150に進み、このステップにおいて、現在選択したセグメントに関するLDRを増加させる。この例において、LDR値を1だけ増加させる。そして、ステップ152において、輝度が「明るい」かつ現在のLDR値が所定閾値thrLDRより上方にある条件に合致する場合、セグメントに関するLED電力Lを減少させ(L=L-1)、LDR値をゼロ(LDR=0)にリセットする。そして、アルゴリズムは、ステップ160において画像セグメントそれぞれに関して繰り返す。
現在のフレームまたは画像に関するセグメントすべてをいったん処理したら、アルゴリズムは、ステップ162に進み、このステップにおいて、アルゴリズムは、図13におけるステップ124及び126に関連して説明したものを同じ方法で、ロボットの回転に関してL値を調整する。いったんL値をロボットの回転に関して調整したら、アルゴリズムは、ステップ164に進み、このステップにおいて、L値全ては、LED駆動体それぞれに各別に送信される。そして、アルゴリズムは、アルゴリズムのステップ112にもう一度戻り、新たなフレームを取得する。
したがって、纏めると、以下の式3は、画像内の輝度をどのように解釈するかを示す。画像が暗い場合、LIRを増分させる。輝度が通常である場合、光要求LIR及びLDR双方をリセットする。輝度が明るい場合、LDRを増分させる。
Figure 0007094396000004
光変化要求を有することによって、光レベルにおける変化間の移行が滑らかになる。また、照明における変化が発生する前にLIR及びLDR値が閾値を越える必要があることにより、変化を付与するときに遅延を形成する。アルゴリズムにおいてこの方法を使用することにより、光は、揺れない。
この方法のさらなる利点は、複数の増加/減少要求に関する閾値、すなわちthrLIR及びthrLDRを変更することによって、照明の変化速度のレートを容易に調整し得る。閾値が高いと、変化速度のレートを減少させる一方、閾値が低いと、変化速度のレートを増加させる。
LED電力における変化を上記アルゴリズムにおいて+1または-1として説明することに注目することには価値がある。これは、光変化におけるステップに対応する。光変化におけるステップは、LED駆動体に付与され得る最小量の変化として規定され得る。すぐに理解されることは、これが、LED駆動体及び電気特性に依存すること、である。例えば、LED光が0%以上100%以下の範囲にある場合、ステップは、1%変化として規定され得る。ステップ状変化は、ロボットの要求またはユーザの要望に依存して様々に規定され得る。光レベルステップは、所望の光出力と移行の滑らかさとの間のバランスである。光ステップは、ユーザが光変化に気づくことができないのに十分に小さいべきであるが、同様に、照明が画像処理のために適切な時間で最大光レベルに達し得るのに十分迅速であるべきである。
あるいは、LED電力の増分変化に替えて、Lへのより大きな変化を算出する場合、この変化は、離散したレベルでLED駆動体に送られ得、滑らかな増加の印象をユーザに付与する。
特有の実施形態を説明したが、理解されることは、特許請求の範囲で規定されたような本発明の範囲から逸脱することなく、上述した改変を含む様々な改変をなし得ること、である。
1 移動ロボット,ロボット真空掃除機、8 視覚システム、12 カメラ、14 照明システム、74 矩形状画像、76 セグメント、90 制御システム、92 画像処理ユニット、97 ジャイロドメトリシステム、97A 慣性測定ユニット(IMU)、97B オドメータ、102 露光時間、104 フレーム,画像、106 ロボット回転情報

Claims (23)

  1. 移動ロボットであって、
    カメラ及び照明システムを備える視覚システムであって、前記照明システムが、当該移動ロボットを囲む領域に所定照明レベルを提供するように構成された複数の光源を備える、視覚システムと、
    前記照明システムを制御するための制御システムと、
    を備え、
    前記制御システムが、
    前記カメラで捕捉した画像、
    前記画像を捕捉した時点における前記カメラの露光時間、及び、
    ロボット回転情報、
    に基づいて、複数の前記光源により提供された照明のレベルを調整し、
    前記制御システムが、複数の前記光源のための電力レベルの分布を当該移動ロボットの回転方向とは反対の方向に位置変更することによって、前記ロボット回転情報に基づいて複数の前記光源により提供される前記照明レベルを調整することを特徴とする移動ロボット。
  2. 前記制御システムが、前記カメラの前記露光時間を閾値露光時間と比較し、
    所定期間にわたって前記露光時間が閾値露光時間未満であった場合、前記制御システムが、複数の前記光源への電力を低減することを特徴とする請求項1に記載の移動ロボット。
  3. 前記閾値露光時間が、0.05秒以上0.3秒以下であることを特徴とする請求項2に記載の移動ロボット。
  4. 前記閾値露光時間が、0.15秒であることを特徴とする請求項2または3に記載の移動ロボット。
  5. 前記所定期間が、1秒以上5秒以下であることを特徴とする請求項2から4のいずれか1項に記載の移動ロボット。
  6. 前記所定期間が、3秒であることを特徴とする請求項2から5のいずれか1項に記載の移動ロボット。
  7. 前記制御システムが、前記画像を複数の画像セグメントに分割することを特徴とする請求項1から6のいずれか1項に記載の移動ロボット。
  8. 画像セグメントの数が、複数の前記光源における光源の数に対応することを特徴とする請求項に記載の移動ロボット。
  9. 前記制御システムが、複数の前記画像セグメントそれぞれの平均輝度を算出することを特徴とする請求項7または8に記載の移動ロボット。
  10. 前記平均輝度が、前記セグメントにおける中央平均ピクセル強度を用いて算出されることを特徴とする請求項9に記載の移動ロボット。
  11. 前記制御システムが、前記画像セグメントそれぞれに関して算出した平均輝度を上側及び下側輝度閾値と比較し、
    特定の前記画像セグメントに関して前記算出した平均輝度が前記下側輝度閾値よりも下である場合、前記制御システムが、複数の前記光源のうち当該画像セグメントに対応する前記領域を照明できる1以上の前記光源への電力を増加させるように指示する、
    特定の前記画像セグメントに関して前記算出した平均輝度が前記上側輝度閾値よりも上である場合、前記制御システムが、複数の前記光源のうち当該画像セグメントに対応する前記領域を照明できる1以上の前記光源への電力を減少させるように指示する、または、
    特定の前記画像セグメントに関して前記算出した平均輝度が前記上側及び前記下側輝度閾値間である場合、複数の前記光源のうち当該画像セグメントに対応する前記領域を照明できる1以上の前記光源への電力を変更しないことを特徴とする請求項9または10に記載の移動ロボット。
  12. 前記制御システムが、前記画像セグメントそれぞれに関して算出した平均輝度を上側及び下側輝度閾値と比較し、
    特定の前記画像セグメントに関して前記算出した平均輝度が前記下側輝度閾値よりも下である場合、前記制御システムが光増加要求値を増加させるよう指示し、前記算出した平均輝度が前記下側輝度閾値よりも下でありかつ前記光増加要求値が光増加要求値閾値よりも上であるならば、前記制御システムが複数の前記光源のうち当該画像セグメントに対応する前記領域を照明できる1以上の前記光源への電力を増加させるように指示する、
    特定の前記画像セグメントに関して前記算出した平均輝度が前記上側輝度閾値よりも上である場合、前記制御システムが光減少要求値を増加させるよう指示し、前記算出した平均輝度が前記上側輝度閾値よりも上でありかつ前記光減少要求値が光減少要求値閾値よりも上であるならば、前記制御システムが複数の前記光源のうち当該画像セグメントに対応する前記領域を照明できる1以上の前記光源への電力を減少させるように指示する、または、
    特定の前記画像セグメントに関して前記算出した平均輝度が前記上側及び前記下側輝度閾値間である場合、前記制御システムが前記光増加要求値および前記光減少要求値を0にリセットするよう指示し、複数の前記光源のうち当該画像セグメントに対応する前記領域を照明できる1以上の前記光源への電力を変更しないことを特徴とする請求項9または10に記載の移動ロボット。
  13. 当該移動ロボットが、ジャイロドメトリシステムをさらに備え、
    前記回転情報が、前記ジャイロドメトリシステムによって前記制御システムに提供されることを特徴とする請求項1から12のいずれか1項に記載の移動ロボット。
  14. 前記ジャイロドメトリシステムが、慣性測定ユニット(IMU)及びオドメータのうちの一方または双方を備えることを特徴とする請求項13に記載の移動ロボット。
  15. 当該移動ロボットが動作している際、前記制御システムが、前記カメラで捕捉された画像それぞれに関して、複数の前記光源によって提供される前記照明レベルを繰返し調整することを特徴とする請求項1から14のいずれか1項に記載の移動ロボット。
  16. 移動ロボットにある複数の光源によって提供される照明レベルを制御する方法であって、
    ビークルにあるカメラで捕捉した画像、
    前記画像を捕捉した時点の前記カメラの露光時間、及び、
    ロボット回転情報、
    に基づいて、複数の前記光源によって提供される前記照明レベルを調整し、
    複数の前記光源に関する電力レベルの分布を前記移動ロボットの回転方向とは反対の方向に位置変更することによって、前記ロボット回転情報に基づいて、複数の前記光源によって提供される前記照明レベルを調整するステップを備えることを特徴とする方法。
  17. 前記カメラの前記露光時間を閾値露光時間と比較するステップと、
    所定期間にわたって前記露光時間が前記閾値露光時間未満である場合に、複数の前記光源への電力を減少させるステップと、
    を備えることを特徴とする請求項16に記載の方法。
  18. 前記画像を複数の画像セグメントに分割するステップをさらに備えることを特徴とする請求項16または17に記載の方法。
  19. 複数の前記画像セグメントそれぞれに関する平均輝度を算出するステップを備えることを特徴とする請求項18に記載の方法。
  20. 前記画像セグメントそれぞれに関して前記算出した平均輝度を上側及び下側輝度閾値と比較するステップと、
    特定の前記画像セグメントに関して前記算出した平均輝度が前記下側輝度閾値よりも下である場合、複数の前記光源のうち当該画像セグメントに対応する領域を照明できる1以上の前記光源への電力を増加させるステップ、
    特定の前記画像セグメントに関して前記算出した平均輝度が前記上側輝度閾値よりも上である場合、複数の前記光源のうち当該画像セグメントに対応する領域を照明できる1以上の前記光源への電力を減少させるステップ、または、
    特定の前記画像セグメントに関して前記算出した平均輝度が前記上側及び前記下側輝度閾値間にある場合、複数の前記光源のうち当該画像セグメントに対応する領域に照明できる1以上の前記光源への電力に変化をなさないステップと、
    をさらに備えることを特徴とする請求項19に記載の方法。
  21. 前記画像セグメントそれぞれに関して前記算出した平均輝度を上側及び下側輝度閾値と比較するステップと、
    特定の前記画像セグメントに関して前記算出した平均輝度が前記下側輝度閾値よりも下である場合、光増加要求値を増分させ、前記算出した平均輝度が前記下側輝度閾値よりも下でありかつ前記光増加要求値が光増加要求値閾値よりも上であるならば、複数の前記光源のうち当該画像セグメントに対応する領域を照明できる1以上の前記光源への電力を増加させるステップ、
    特定の前記画像セグメントに関して前記算出した平均輝度が前記上側輝度閾値よりも上である場合、光減少要求値を増分させ、前記算出した平均輝度が前記上側輝度閾値よりも上でありかつ前記光減少要求値が光減少要求値閾値よりも上であるならば、複数の前記光源のうち当該画像セグメントに対応する領域を照明できる1以上の前記光源への電力を減少させるステップ、または、
    特定の前記画像セグメントに関して前記算出した平均輝度が前記上側及び前記下側輝度閾値間にある場合、前記制御システムが前記光増加要求値および前記光減少要求値を0にリセットするよう指示し、複数の前記光源のうち当該画像セグメントに対応する領域に照明できる1以上の前記光源への電力に変化をなさないステップと、
    をさらに備えることを特徴とする請求項19に記載の方法。
  22. 前記移動ロボットのジャイロドメトリシステムから前記ロボット回転情報を取り出すステップを備えることを特徴とする請求項16から21のいずれか1項に記載の方法。
  23. 前記カメラで捕捉した前記画像それぞれに関して複数の前記光源によって提供された前記照明レベルを繰返し調整するステップを備えることを特徴とする請求項16から22のいずれか1項に記載の方法。
JP2020566996A 2018-06-05 2019-05-08 移動ロボット及び移動ロボットの照明システムを制御する方法 Active JP7094396B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1809179.3 2018-06-05
GB1809179.3A GB2574418B (en) 2018-06-05 2018-06-05 A mobile robot and method of controlling a mobile robot illumination system
PCT/GB2019/051264 WO2019234384A1 (en) 2018-06-05 2019-05-08 A mobile robot and method of controlling a mobile robot illumination system

Publications (2)

Publication Number Publication Date
JP2021525429A JP2021525429A (ja) 2021-09-24
JP7094396B2 true JP7094396B2 (ja) 2022-07-01

Family

ID=62975438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020566996A Active JP7094396B2 (ja) 2018-06-05 2019-05-08 移動ロボット及び移動ロボットの照明システムを制御する方法

Country Status (7)

Country Link
US (1) US11911917B2 (ja)
JP (1) JP7094396B2 (ja)
KR (1) KR102427098B1 (ja)
CN (1) CN112203807B (ja)
GB (1) GB2574418B (ja)
TW (1) TW202012880A (ja)
WO (1) WO2019234384A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021135673A1 (zh) * 2020-01-03 2021-07-08 苏州宝时得电动工具有限公司 自移动设备
CN113163125A (zh) * 2020-01-03 2021-07-23 苏州宝时得电动工具有限公司 自移动设备
CN210927761U (zh) 2020-01-10 2020-07-03 北京石头世纪科技股份有限公司 智能清洁设备
KR102218120B1 (ko) * 2020-09-21 2021-02-22 주식회사 폴라리스쓰리디 자율 주행 모듈, 이를 포함하는 이동 로봇 및 이의 위치 추정 방법
GB2612567B (en) * 2021-01-22 2023-11-22 Dyson Technology Ltd Autonomous surface treatment apparatus
CN114005026A (zh) * 2021-09-29 2022-02-01 达闼科技(北京)有限公司 机器人的图像识别方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007153032A (ja) 2005-12-01 2007-06-21 Seiko Epson Corp ライト制御システム、車両及び集積回路装置
JP2011160083A (ja) 2010-01-29 2011-08-18 Omron Corp 照明制御装置およびそれを含む照明装置
JP2016052515A (ja) 2014-09-03 2016-04-14 ダイソン・テクノロジー・リミテッド 移動式ロボット

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096891A (ja) 1995-06-21 1997-01-10 Asahi Optical Co Ltd データシンボル読み取り装置およびデータシンボル読み取りシステム
JP2003136456A (ja) * 2001-11-06 2003-05-14 Sony Corp ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体
JP4565107B2 (ja) * 2005-08-31 2010-10-20 株式会社東芝 アーム機構を備えた移動ロボット
KR100883792B1 (ko) 2005-12-29 2009-02-18 한국생산기술연구원 이동 로봇의 위치 추정 시스템 및 그 방법
KR100960650B1 (ko) * 2007-04-03 2010-06-07 엘지전자 주식회사 이동로봇 및 그 동작방법
KR101337534B1 (ko) * 2007-07-24 2013-12-06 삼성전자주식회사 이동 로봇의 위치 인식 장치 및 방법
CN101358714A (zh) 2007-07-31 2009-02-04 上海申杰保洁管理有限公司 一种清扫机器人的照明灯
KR101412751B1 (ko) * 2008-03-14 2014-08-06 엘지전자 주식회사 이동로봇 및 그 동작방법
KR101470635B1 (ko) 2008-05-16 2014-12-08 엘지전자 주식회사 로봇 청소기 및 그 제어방법
KR20080090367A (ko) 2008-08-26 2008-10-08 엘지전자 주식회사 이동로봇 및 그 동작방법
CN102656532B (zh) * 2009-10-30 2015-11-25 悠进机器人股份公司 用于移动机器人位置识别的地图的生成及更新方法
DE102011000816B4 (de) 2011-02-18 2023-04-27 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät
KR101223480B1 (ko) * 2011-09-20 2013-01-17 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
CN105960831B (zh) * 2014-01-08 2019-02-26 飞利浦灯具控股公司 用于基于所检测的照明改变进行照明控制的方法和装置
GB2529846B (en) * 2014-09-03 2019-02-20 Dyson Technology Ltd Illumination Control of a Vision System for a Mobile Robot
GB2529848B (en) * 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile robot
KR101571719B1 (ko) * 2014-10-02 2015-11-25 엘지전자 주식회사 로봇 청소기
CN113916230A (zh) 2014-11-26 2022-01-11 艾罗伯特公司 用于使用机器视觉系统执行同时定位和映射的系统和方法
KR101696296B1 (ko) * 2015-05-29 2017-01-16 전북대학교산학협력단 정낭 블럭 이동 로봇 및 정낭 블럭 드론
US10506172B2 (en) * 2016-08-17 2019-12-10 Google Llc Camera setting adjustment based on predicted environmental factors and tracking systems employing the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007153032A (ja) 2005-12-01 2007-06-21 Seiko Epson Corp ライト制御システム、車両及び集積回路装置
JP2011160083A (ja) 2010-01-29 2011-08-18 Omron Corp 照明制御装置およびそれを含む照明装置
JP2016052515A (ja) 2014-09-03 2016-04-14 ダイソン・テクノロジー・リミテッド 移動式ロボット

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Tao Jiang; K.-D. Kuhnert; Duong Nguyen; Lars Kuhnert,Multiple templates auto exposure control based on luminance histogram for onboard camera,2011 IEEE International Conference on Computer Science and Automation Engineering,IEEE,2011年07月14日,https://ieeexplore.ieee.org/document/5952672

Also Published As

Publication number Publication date
KR102427098B1 (ko) 2022-08-01
GB2574418A (en) 2019-12-11
US20210229289A1 (en) 2021-07-29
JP2021525429A (ja) 2021-09-24
CN112203807A (zh) 2021-01-08
GB2574418B (en) 2022-08-31
WO2019234384A1 (en) 2019-12-12
TW202012880A (zh) 2020-04-01
GB201809179D0 (en) 2018-07-25
CN112203807B (zh) 2023-09-05
KR20200140871A (ko) 2020-12-16
US11911917B2 (en) 2024-02-27

Similar Documents

Publication Publication Date Title
JP7094396B2 (ja) 移動ロボット及び移動ロボットの照明システムを制御する方法
KR102153115B1 (ko) 이동 로봇
JP6103319B2 (ja) 移動式ロボット
JP6591544B2 (ja) 移動式ロボット
KR102445785B1 (ko) 모바일 로봇용 비전 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210906

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220621

R150 Certificate of patent or registration of utility model

Ref document number: 7094396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150