JP2024002853A - 最小限の入力を用いた自律型モバイル消毒のシステム及び方法 - Google Patents

最小限の入力を用いた自律型モバイル消毒のシステム及び方法 Download PDF

Info

Publication number
JP2024002853A
JP2024002853A JP2022114237A JP2022114237A JP2024002853A JP 2024002853 A JP2024002853 A JP 2024002853A JP 2022114237 A JP2022114237 A JP 2022114237A JP 2022114237 A JP2022114237 A JP 2022114237A JP 2024002853 A JP2024002853 A JP 2024002853A
Authority
JP
Japan
Prior art keywords
mobile robot
area
disinfection
processor
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022114237A
Other languages
English (en)
Inventor
ラスマス・ヴィスティスン
Vistisen Rasmus
ジョン・エルランド・オスレルガルド
Erland Oestergaard John
エフライム・ヴィッツラビン
Vitzrabin Efraim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Blue Ocean Robotics ApS
Original Assignee
Blue Ocean Robotics ApS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Blue Ocean Robotics ApS filed Critical Blue Ocean Robotics ApS
Publication of JP2024002853A publication Critical patent/JP2024002853A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/24Apparatus using programmed or automatic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/02Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using physical phenomena
    • A61L2/08Radiation
    • A61L2/10Ultraviolet radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L9/00Disinfection, sterilisation or deodorisation of air
    • A61L9/16Disinfection, sterilisation or deodorisation of air using physical phenomena
    • A61L9/18Radiation
    • A61L9/20Ultraviolet radiation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/26Accessories or devices or components used for biocidal treatment
    • A61L2/28Devices for testing the effectiveness or completeness of sterilisation, e.g. indicators which change colour
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/14Means for controlling sterilisation processes, data processing, presentation and storage means, e.g. sensors, controllers, programs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/16Mobile applications, e.g. portable devices, trailers, devices mounted on vehicles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/20Targets to be treated
    • A61L2202/25Rooms in buildings, passenger compartments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2209/00Aspects relating to disinfection, sterilisation or deodorisation of air
    • A61L2209/10Apparatus features
    • A61L2209/11Apparatus for controlling air treatment
    • A61L2209/111Sensor means, e.g. motion, brightness, scent, contaminant sensors

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Apparatus For Disinfection Or Sterilisation (AREA)

Abstract

【課題】モバイル消毒のシステム及び方法を提供する。【解決手段】消毒されるエリアにモバイルロボットを配置するステップと、モバイルロボットにおいて、消毒を行うためのコマンドを受けるステップとを含む。プロセッサが、そのエリアがすでにマップされていると決定されたときに、モバイルロボットの1つ以上のセンサから出力された1つ以上の信号に基づき、そのエリアが消毒のために片付けられているかどうかを決定することができる。モバイルロボットの光源が紫外線を放射することができ、プロセッサは、モバイルロボットが動くに従いセンサによって検出された表面及び物体の少なくとも1つに基づき2次元又は3次元マップを生成し、消毒されるエリア内の放射されたUV光によって露光される空気、表面、及び/又は物体の少なくとも1つ、及びモバイルロボットが動くに従い印加される放射されたUV光の用量レベルの露光マップを生成することができる。【選択図】図1A

Description

本願は、モバイル消毒のシステム及び方法に関する。
モバイルロボット等のモバイル機器を、汚染された表面を有する部屋等の屋内エリアを消毒するように動作させることができる。典型的には、そのような装置は、効率的な様式でエリアを消毒せず、全ての汚染された表面を消毒できないことがある。さらに、そのような装置は、典型的には、オペレータからの監視を必要とし、オペレータは、そのようなモバイルロボットに、消毒動作を行うための指示を周期的に提供する。
開示される特定事項の実施形態によると、消毒されることになるエリアにおいてモバイルロボットを配置するステップと、モバイルロボットのユーザインターフェース又は通信インターフェースにおいて、消毒を行うためのコマンドを受けるステップとを含む方法が提供され得る。当該方法は、モバイルロボットのプロセッサにおいて、エリアのマップが、プロセッサに通信可能に結合されたメモリ装置内に位置しているかどうかを決定することによって、エリアのマップが通信インターフェースを介してサーバから入手可能であるかどうかを決定することによって、及び/又は、1つ以上のセンサを使用してエリアにおける1つ以上のポイントを検出し、検出されたポイントが、メモリに格納されたマップに含まれているか、又はサーバからアクセス可能で入手可能であるかどうかを決定することによって、エリアがすでにマップされているかどうかを決定するステップを含んでもよい。当該方法は、モバイルロボットのプロセッサにおいて、そのエリアがすでにマップされていると決定されたときに、モバイルロボットの1つ以上のセンサから出力された1つ以上の信号に基づき、エリアが消毒のために片付けられているかどうかを決定するステップを含んでもよい。モバイルロボットの光源を使用して、紫外(UV)光を放射し、空気、表面、及び/又は物体の少なくとも1つを含む、エリアの少なくとも一部を消毒することができる。モバイルロボットのプロセッサは、1つ以上のセンサを使用してエリア内の他の表面及び物体を検出するためにエリア内を動くようにモバイルロボットの駆動システムを制御することができる。当該方法は、モバイルロボットのプロセッサにおいて、モバイルロボットが動くに従い検出された表面及び物体の少なくとも1つに基づき2次元(2D)マップ又は3次元(3D)マップを生成し、消毒されることになるエリア内の放射されたUV光によって露光される空気、表面、及び物体の少なくとも1つ、及びモバイルロボットが動くに従い印加される放射されたUV光の用量レベルの露光マップを生成するステップを含んでもよい。プロセッサに通信可能に結合されたメモリは、エリア内を動くモバイルロボットの軌道、生成されたマップ、及び生成された露光マップを格納することができる。当該方法は、生成された露光マップに基づく消毒報告書を、ユーザインターフェース又は通信インターフェースを介して出力するステップを含んでもよい。
開示される特定事項のさらなる特徴、利点、及び実施形態は、以下の詳細な説明、図面、及び特許請求の範囲の考察から説明又は明らかにすることができる。さらに、上述の要約及び以下の詳細な説明はいずれも例示的なものであり、特許請求の範囲を限定することなくさらなる説明を提供することを意図していることが理解されることになる。
開示される発明特定事項のさらなる理解を提供するために含まれる添付の図面は、本明細書に組み込まれ、本明細書の一部を構成する。図面はまた、開示される特定事項の実施形態を例示し、詳細な説明と共に、開示される特定事項の実施形態の原理を説明するのに役立つ。開示される特定事項の基本的理解及びそれを実施することができる様々な方法のために必要であり得る以上に詳細な構造的詳細を示す試みは行われない。
開示される特定事項の実施形態に従った、最小限の入力でエリアにおいてモバイルロボットを用いて消毒を行う例となる方法を示した図である。 開示される特定事項の実施形態に従った、最小限の入力でエリアにおいてモバイルロボットを用いて消毒を行う例となる方法を示した図である。 開示される特定事項の実施形態に従った、最小限の入力でエリアにおいてモバイルロボットを用いて消毒を行う例となる方法を示した図である。 開示される特定事項の実施形態に従った、最小限の入力でエリアにおいてモバイルロボットを用いて消毒を行う例となる方法を示した図である。 開示される特定事項の実施形態に従った、最小限の入力でエリアにおいてモバイルロボットを用いて消毒を行う例となる方法を示した図である。 開示される特定事項の実施形態に従った、最小限の入力でエリアにおいてモバイルロボットを用いて消毒を行う例となる方法を示した図である。 開示される特定事項の実施形態に従った、最小限の入力でエリアにおいてモバイルロボットを用いて消毒を行う例となる方法を示した図である。 開示される特定事項の実施形態に従った、最小限の入力でエリアにおいてモバイルロボットを用いて消毒を行う例となる方法を示した図である。 開示される特定事項の実施形態に従った、最小限の入力でエリアにおいてモバイルロボットを用いて消毒を行う例となる方法を示した図である。 開示される特定事項の実施形態に従った、エリア内の表面及び物体を検出するセンサと、UV光を出力する光源とを有するモバイルロボットの外観を示した図である。 開示される特定事項の実施形態に従った、エリア内の表面及び物体を検出するセンサと、UV光を出力する光源とを有するモバイルロボットの外観を示した図である。 開示される特定事項の実施形態に従った、エリア内の表面及び物体を検出するセンサと、UV光を出力する光源とを有するモバイルロボットの外観を示した図である。 開示される特定事項の実施形態に従った、エリアにおいてある用量のUV光を印加するための作動されたモバイルロボットの経路の一例を示した図である。 開示される特定事項の実施形態に従った、エリアの表面、物体、ホットスポット、及び/又は参照タグ(reference tag)上にUV光を出力してそれらを消毒するモバイルロボットの一例を示した図である。 開示される特定事項の実施形態に従った、図6~8のモバイルロボットの例となる構成を示した図である。 開示される特定事項の実施形態に従った、複数のモバイルロボットを含み得るネットワーク構成を示した図である。
開示される特定事項の実施形態において、消毒のためのモバイルロボットのオペレータが、モバイルロボットのユーザインターフェース上で単一のコマンドを選択することができるか、又は、オペレータの装置が、モバイルロボットの通信インターフェースに単一のコマンドを送信することができる。モバイルロボットは、単一の選択及び/又は送信された単一のコマンドに基づき、エリアの消毒を行うことができる。消毒されることになるエリアは、すでにマップされているエリアであってもよく、又はマップされていないエリアであってもよい。
コマンドを受けると、モバイルロボットは、エリアにおいて消毒動作を自律的に行うことができる。消毒動作の一部として、モバイルロボットは、エリアを探索し、自律的に消毒位置を決定することができる。モバイルロボットは、エリアを消毒するためのエリア内のルートを決定することができる。一部の実施形態において、決定されたルートは、決定された消毒位置に基づいてもよい。
モバイルロボットは、物体及び表面等を検出することによって、動くに従いエリアをマップすることができる。モバイルロボットは、マップ上に消毒位置をマップすることができ、及び/又はモバイルロボット上に配置された光源からの紫外光によって印加され得る紫外(UV)光の用量レベルをマップすることができる。
モバイルロボットは、エリアのマッピング及び消毒が完了したときに、エリアの消毒を終了することができる。モバイルロボットは、消毒されたエリア、及びそのエリアのうち1つ以上の部分に印加された用量レベルを示すことができる消毒報告書を生成及び出力してもよい。
開示される特定事項の一部の実施形態において、オペレータは、モバイルロボットが消毒を行うための単一のコマンドを選択することができ、ここで、単一のコマンドは、モバイルロボットによって消毒の標的とされることになる1つ以上のタイプの病原体及び/又は微生物、及び/又はUV光の線量を定めるLOGレベルを含んでもよい。LOGレベルは、対数減少(すなわち、対数低減)であってもよく、これは、所与の病原体が消毒方法によって不活化されることになる予測可能な割合であってもよい。例えば、1の対数減少は、関心のある病原体及び/又は微生物を90%減少させることができる。別の例において、2の対数減少は、99%の減少を提供することができ、3の対数減少は、99.9%の減少を提供することができる。
モバイルロボットは、モバイルロボットの駆動システムの速度、及び/又は標的とされることになる病原体及び/又は微生物を消毒するためのエリアの表面上へのUV光の露光時間、及び/又はLOGレベルを調整することができる。モバイルロボットは、消毒位置及び紫外(UV)光の用量レベルをマップして、露光マップを形成することができる。例えば、露光マップは、モバイルロボットによるUV光に露光されたエリアの部分及び/又はカバレッジを示すマップであってもよい。露光マップは、部屋及び/又はエリアのレイアウト、及び/又はモバイルロボットによるエリア内のUV光の放出によって行われる消毒に基づき生成されてもよい。
モバイルロボットは、エリアのマッピング及び消毒が完了したときに、エリアの消毒を終了することができる。モバイルロボットは、消毒されたエリア、及びそのエリアの1つ以上の部分に印加された用量レベルを示すことができる消毒報告書を生成及び出力してもよい。消毒報告書は、露光マップを含んでもよく、及び/又は少なくとも部分的に露光マップに基づいてもよい。
図1A~6は、開示される特定事項の実施形態に従った、最小限の入力でエリアにおいてモバイルロボットを用いて消毒を行う例となる方法10を示している。図1Aに示されている動作12において、モバイルロボットを、消毒されることになるエリアに配置することができる。モバイルロボットは、図7~9において示され且つ以下に記載されるモバイルロボット100であってもよい。モバイルロボットは、部屋(例えば、図10において示されている部屋210等)、建物、又は外部のエリア等に置かれてもよい。
動作14において、モバイルロボットのユーザインターフェース(例えば、図12において示されているユーザインターフェース110等)又は通信インターフェース(例えば、図12において示されているネットワークインターフェース116等)が、消毒を行うためのコマンドを受けることができる。一部の実施形態では、ユーザインターフェースの単一のアイテム及び/又はボタンがユーザによって選択されてもよく、モバイルロボットは、少なくともモバイルロボットが置かれたエリアの消毒を行うことができる。一部の実施形態では、モバイルロボット装置の通信インターフェースが、少なくともモバイルロボットが置かれたエリアの消毒を行うための単一のコマンドを受けることができる。一部の実施形態では、受けた消毒を行うためのコマンドは、モバイルロボットによって消毒の標的とされることになる1つ以上の病原体及び/又は微生物、及び/又はUV光の線量を定めるLOGレベルを含んでもよい。一部の実施形態では、モバイルロボットのユーザインターフェース又は通信インターフェースにおいて受けたコマンドは、さらなるコマンドを受けることなく、エリアの消毒のための全ての動作を行うための単一の指示であってもよい。例えば、単一の指示は、図1A~1Bにおいて示されている動作を開始する及び/又は行うことができる。一部の実施形態では、単一の指示は、図1A~1Bにおいて示されている動作だけでなく、図2~6において示されている動作の少なくとも1つを開始する及び/又は行うことができる。
動作16において、モバイルロボットのプロセッサ(例えば、図12において示されているコントローラ114等)は、エリアがすでにマップされているかどうかを決定することができる。例えば、プロセッサは、エリアのマップが、プロセッサ(例えば、図12において示されているコントローラ114等)に通信可能に結合されたメモリ装置(例えば、図12において示されているメモリ118及び/又は固定記憶装置120等)に位置しているかどうかを決定することができる。別の例において、プロセッサは、エリアのマップが、通信インターフェース(例えば、図12において示されているネットワークインターフェース116等)を介してサーバ(例えば、図13において示されているサーバ140及び/又はデータベース150等)から入手可能であるかどうかを決定することができる。別の例において、プロセッサは、1つ以上のセンサ(例えば、センサ102、102a、及び/又は102b等)を使用してエリア内の1つ以上のポイントを検出し、検出したポイントが、メモリ(例えば、メモリ118及び/又は固定記憶装置120等)に格納されたマップに含まれているかどうか、及び/又は、サーバ(例えば、サーバ140及び/又はデータベース150等)からアクセス可能であるかどうかを決定することができる。
動作18において、モバイルロボットのプロセッサは、エリアがすでにマップされていると決定されたときに、モバイルロボットの1つ以上のセンサ(例えば、図7~9において示されているセンサ102、102a、102b等)から出力された1つ以上の信号に基づき、そのエリアが消毒のために片付けられているかどうかを決定することができる。すなわち、動作18は、消毒動作を行う前に、消毒されることになるエリア内に他の人間又は動物等が存在するかどうかを決定することができる。一人以上の人又は動物等が検出された場合、モバイルロボットは、ユーザインターフェース110を介して(例えば、そのエリアを離れるよう)通知を出力する(例えば、表示スクリーン上に通知を表示する、又はスピーカーを介して音声通知を出力する)ことができる。一部の実施形態では、人間及び/又は動物がそのエリアに存在しているとして検出されたという通知メッセージが、通信ネットワーク130を介してサーバ140及び/又はリモートプラットフォーム160まで送信されてもよい。エリアの消毒は、モバイルロボットによって、ユーザインターフェース110により及び/又はサーバ140及び/又はリモートプラットフォーム160から受けた1つ以上の指示によって延期されてもよい。
動作20において、モバイルロボットの光源(例えば、図7~9において示され且つ以下に詳細に記載される光源104等)が、紫外(UV)光を放射して、少なくともエリアの一部を消毒することができる。UV光は、空気、表面、及び/又は物体を消毒することができる。光を放射するステップの一部の実施形態において、モバイルロボットは、エリアを消毒するための第1のモード、及び/又はエリアのうち少なくとも1つの所定の部分を消毒するための第2のモードで動作されてもよい。
動作22において、モバイルロボットのプロセッサは、1つ以上のセンサを使用してエリア内の他の表面及び物体を検出するためにエリア(例えば、図10において示されている部屋210)内を動くようにモバイルロボットの駆動システム(例えば、図6において示され且つ以下に詳細に記載される駆動システム108等)を制御することができる。例えば、モバイルロボット100を、図10~11において示されているように、壁(例えば、表面302、304等)、床(例えば、表面300等)、物体306(例えば、鏡等)、物体308(例えば、流し台等)、参照タグ310、物体312(例えば、ベッド等)、及び物体314(例えば、4フックIVスタンド)等を検出するように、経路212に沿って動かすことができる。物体及び/又は表面を、図7~9において示されているセンサ102、102a、102bによって検出することができる。参照タグ310は、第1の状態を有してもよく、ある用量のUV光が参照タグ310に印加されたときに第2の状態に変化してもよい。一部の実施形態において、参照タグ310は、エリアの2D又は3Dマップ内に表される仮想参照タグであってもよく、これは、マップされたエリアに対応するエリアにUV光が印加されたときに、状態を変化させることができる。
図1Bにおいて示されている動作24において、モバイルロボットのプロセッサ(例えば、図12において示されているコントローラ114等)は、二次元(2D)マップ又は三次元(3D)マップを生成することができる。2D及び/又は3Dマップは、モバイルロボットが動くに従いセンサを使用して検出された表面及び/又は物体に基づいてもよい。2D及び/又は3Dマップは、(例えば、図7~9において示され且つ以下に詳細に記載される光源104からの)放射されたUV光によって、及びモバイルロボットが動くに従い露光される空気、表面、及び物体のうち少なくとも1つの露光マップを含んでもよい。
動作26において、モバイルロボットのプロセッサに通信可能に結合されたメモリ(例えば、図12において示されているメモリ118及び/又は固定記憶装置120等)は、エリア内を動くモバイルロボットの軌道、生成されたマップ、及び/又は生成された露光マップを格納することができる。すなわち、メモリは、モバイルロボットの軌道、検出されたエリアの表面を含む生成されたマップ、及びUV光へのエリアの露光を詳細に示す露光マップを格納することができる。一部の実施形態では、サーバ140、データベース150、及び/又はリモートプラットフォーム160が、エリア内を動くモバイルロボットの軌道、生成されたマップ、及び/又は生成された露光マップの少なくとも一部を格納することができ、これは、ネットワークインターフェース116及び通信ネットワーク130を介してモバイルロボットによって検索することができる。
動作28において、生成された露光マップに基づく消毒報告書を、ユーザインターフェース(例えば、図12において示されているユーザインターフェース110等)及び/又は通信インターフェース(例えば、図12において示されているネットワークインターフェース116等)を介してモバイルロボットによって出力することができる。例えば、ユーザインターフェースの表示スクリーンが、エリアのうち消毒された部分及び消毒の強度(例えば、LOG値等)を示すことができる消毒報告書を表示してもよい。一部の実施形態において、モバイルロボットは、ネットワークインターフェース116及び通信ネットワーク130を介して、サーバ140、データベース150、及び/又はリモートプラットフォーム160まで消毒報告書を送信することができ、サーバ140、データベース150、及び/又はリモートプラットフォーム160は、この消毒報告書を格納することができる。通信ネットワークに結合させることができるユーザ装置が、サーバ140、データベース150、及び/又はリモートプラットフォーム160から消毒報告書を検索することができる。
図2は、開示される特定事項の実施形態に従って、図1Aの動作22における駆動システムの制御がさらなる動作を含んでもよいことを示している。動作32において、プロセッサ(例えば、図12において示されているコントローラ114等)及び1つ以上のセンサ(例えば、図7~9において示されているセンサ102、102a、102b等)からの少なくとも1つの出力信号を使用して、受けたコマンドに基づき、エリア内の空気、表面、及び/又は物体を消毒するためにモバイルロボットがUV光を出力するための消毒位置を決定することができる。例えば、センサは、図10~11において示されているように、壁(例えば、表面302、304等)、床(例えば、表面300等)、物体306(例えば、鏡等)、物体308(例えば、流し台等)、参照タグ310、物体312(例えば、ベッド等)、及び物体314(例えば、4フックIVスタンド)等の消毒位置を決定することができる。動作34において、モバイルロボットのプロセッサは、標的とされることになる1つ以上の病原体及び/又は微生物に基づき、モバイルロボットの駆動システム(例えば、図7において示されている駆動システム108等)の移動速度及び/又は1つ以上の消毒位置にUV光を出力するための持続時間を調整することができ、及び/又は受けたコマンドのLOGレベルを調整することができる。すなわち、移動速度、持続時間、及び/又はLOGレベルを、決定された消毒位置において消毒動作を行うために調整することができる。
図3A~3Bは、開示される特定事項の実施形態に従った、図1A~1Bの方法10の任意の動作を示している。動作36において、モバイルロボットのプロセッサ(例えば、図12において示されているコントローラ114等)は、生成された露光マップに基づきUV光がエリアに出力されたときに、光源(例えば、図7~9において示されている光源104等)からのUV光の出力を停止させることができる。
目標露光マップから、(例えば、図13において示されているサーバ140及び/又はリモートプラットフォーム160における)オペレータ及び/又はモバイルロボットのプロセッサは、図3Bにおいて示されている動作37に示されている逆露光ルート動作の結果として、目標露光マップを得るためのモバイルロボットの経路、移動速度、及び/又は時間系列に基づき得る最適な消毒ルートを決定することができる。例えば、逆露光ルートは、目標露光マップ、及びシミュレートされた露光マップが所定の制限を有する目標露光マップと等しくなるまで、エリア内の1つ以上の標的にUV光を出力するモバイルロボットルートの1つ以上のシミュレーションを繰り返し使用して、プロセッサによって生成することができる。
図3Bの動作38において示されているように、プロセッサは、逆露光ルート及び目標露光マップに基づき差分露光マップを生成することができる。生成された差分露光マップは、モバイルロボットによって行われる消毒ルーチンの性能を示すことができる。モバイルロボットのプロセッサは、生成された差分露光マップを使用して、UV光によって消毒されることになる任意の残りの部分、エリア、及び/又は表面が存在するかどうかを決定することができる。プロセッサが、残りの部分は存在しない、又は残りの部分は既定の範囲内にあると決定すると、プロセッサは、光源からのUV光の出力を停止することができる。
差分露光マップが、UV光によってさらに露光されることになるエリアの部分がないことを示す場合、UV光の出力の停止が生じてもよい。すなわち、生成された差分露光マップは、消毒されていないエリアを決定するためにモバイルロボットによって使用されてもよく、エリアが消毒されたことを差分露光マップが示すまで、決定されたエリアにUV光を出力することによって消毒動作を行うことができる。
図4は、開示される特定事項の実施形態に従った、図1A~1Bの方法10の任意の動作を示している。動作40において、モバイルロボットのプロセッサ(例えば、図12において示されているコントローラ114等)は、エリアがマップされていないと決定されたときに、1つ以上のセンサ(例えば、図7~9において示されているセンサ102、102a、102b等)を使用してエリア内の1つ以上の表面及び物体を検出するためにエリア内を自律的に動くように、駆動システム(例えば、図7において示されている駆動システム108等)を制御することができる。例えば、図10~11において示されているように、壁(例えば、表面302、304等)、床(例えば、表面300等)、物体306(例えば、鏡等)、物体308(例えば、流し台等)、参照タグ310、物体312(例えば、ベッド等)、及び物体314(例えば、4フックIVスタンド)等を検出するために、モバイルロボット100を経路212に沿って動かすことができる等、例えば、センサを使用して検出することができる。動作42において、モバイルロボットのプロセッサは、検出された1つ以上の表面及び物体に基づき2Dマップ及び/又は3Dマップを生成することができる。動作44において、生成されたマップは、プロセッサに通信可能に結合されたメモリ装置(例えば、図12において示されているメモリ118及び/又は固定記憶装置120等)に格納されてもよい。一部の実施形態では、生成された2D及び/又は3Dマップは、通信ネットワーク130を介してネットワークインターフェース116を使用して、格納のために、サーバ140、データベース150、及び/又はリモートプラットフォーム160まで送信されてもよい。
図5A~5Bは、開示される特定事項の実施形態に従った、図1A~1Bの方法10の任意の動作を示している。図5Aの動作46において、(例えば、図1Aにおいて示されている動作20における)UV光を放射することは、モバイルロボットのプロセッサ(例えば、図12において示されているコントローラ114等)において、プロセッサに通信可能に結合されたメモリ装置(例えば、図12において示されているメモリ118及び/又は固定記憶装置120等)に消毒軌道が格納されているかどうかを決定することを含んでもよい。一部の実施形態において、プロセッサは、ネットワークインターフェース116を使用してサーバ140、データベース150、及び/又はリモートプラットフォーム160に消毒軌道が格納され得るかどうかを決定することができる。消毒軌道は、UV光による消毒の強度及び位置を含んでもよい。動作48において、プロセッサは、消毒軌道がメモリ内に、及び/又は、サーバ140、データベース150、及び/又はリモートプラットフォーム160に格納されていることが決定されたときに、動くようにモバイルロボットの駆動システム(例えば、図7において示されている駆動システム108等)を制御し、さらに、UV光を放射するように光源を制御することができる。
図5Aにおいて示されているように、動作50において、プロセッサは、消毒軌道がメモリ装置内に、及び/又は、サーバ140、データベース150、及び/又はリモートプラットフォーム160に格納されていないと決定されたときに、モバイルロボットのための消毒位置を生成することができる。消毒位置は、UV光を使用して消毒を行うためのエリア内の位置であってもよい。動作52において、プロセッサは、決定された消毒位置に基づき、モバイルロボットを動かすようにモバイルロボットの駆動システムを制御することができ、UV光を放射するように光源(例えば、図7~9において示されている光源104等)を制御することができる。
図5Aにおいて示されている動作54及び56は、開示される特定事項の実施形態に従って行われる任意の動作であってもよい。動作54において、プロセッサは、光源(例えば、図7~9において示されている光源104等)によって放射されるUV光に対する露光設定に基づき、生成された消毒位置(例えば、動作50において生成された消毒位置等)を分類することができる。動作56において、プロセッサは、分類された消毒位置に基づき消毒軌道を更新することができる。
図5Bにおいて示されている動作は、開示される特定事項の実施形態に従った、例えば図5Aにおいて示されている動作52の後に行うことができる方法10の任意の動作である。動作58において、モバイルロボットのプロセッサ(例えば、図12において示されているコントローラ114等)は、消毒位置の配置を調整することができる。この調整は、(例えば、図5Aに示されている動作46において)消毒軌道がメモリ装置に格納されていると決定されたときに、光源(例えば、図7~9において示されている光源104等)によって放射されるUV光に対する露光設定に基づいてもよく、及び/又は、露光マップに対する1つ以上の変更に基づいてもよい。動作60において、モバイルロボットの光源は、消毒位置の各々に基づき、エリア(例えば、図10において示されている部屋210等)を消毒するためにUV光を放射することができる。
図5Bに示されている動作62において、プロセッサは、消毒位置を再配置及び/又は分類することによって、露光マップに基づきモバイルロボットのルートを更新することができる。例えば、消毒位置がUV光によって消毒される順序は、プロセッサによって調整され得る。すなわち、モバイルロボットが位置の各々を消毒するために取るルートは変化することがある。
動作64において、プロセッサに通信可能に結合されたモバイルロボットのメモリ装置(例えば、図12において示されているメモリ118及び/又は固定記憶装置120等)は、最適化されたルートを格納することができる。一部の実施形態では、最適化されたルートの少なくとも一部は、サーバ140、データベース150、及び/又はリモートプラットフォーム160に格納されてもよい。動作66において、プロセッサは、(例えば、図1Bにおいて示され且つ先に記載した動作28において)出力されることになる消毒報告書を生成することができる。
図6は、開示される特定事項の実施形態に従った、図1A~1Bの方法10の任意の動作を示している。動作68において、モバイルロボットの1つ以上のセンサは、生成されたマップの一部ではないエリア内の1つ以上の新しい表面、及び/又は1つ以上の新しい物体を検出することができる。例えば、センサは、図10~11において示されているように、壁(例えば、表面302、304等)、床(例えば、表面300等)、物体306(例えば、鏡等)、物体308(例えば、流し台等)、参照タグ310、物体312(例えば、ベッド等)、及び物体314(例えば、4フックIVスタンド)等を検出することができる。動作70において、プロセッサは、検出された1つ以上の新しい表面及び1つ以上の新しい物体のうち少なくとも1つを用いて、生成されたマップを更新することができる。UV光を使用した検出された表面及び/又は物体の消毒を、更新されたマップに基づき計画する及び/又は行うことができる。
図7~9は、開示される特定事項の実施形態に従った、エリア内の表面及び物体を検出するためのセンサ、及びエリア内の空気、物体、及び/又は表面を消毒するための受けた用量レベルに基づき第1の用量を有するUV光を出力するための光源を含むモバイルロボット100の複数の外観を示している。モバイルロボット100は、少なくとも(図8においてセンサ102a及び102bとして示されている)第1のセンサ102、紫外光を出力する光源104、少なくとも第2のセンサ106、駆動システム108、ユーザインターフェース110、及び/又は停止ボタン112を含んでもよい。コントローラ(例えば、図12において示され且つ以下に記載されるコントローラ114等)は、少なくとも1つの第1のセンサ102、光源104、少なくとも1つの第2のセンサ106、駆動システム108、ユーザインターフェース110、及び停止ボタン112に通信可能に結合されてもよく、モバイルロボット100の動作を制御することができる。
(図8において示されているセンサ102a、102bを含む)少なくとも1つの第1のセンサ102は、モバイルロボット100の向き(例えば、ロボットの前側及び/又は第1の側が向いている方向等)、モバイルロボット100の位置(例えば、エリア内のモバイルロボット100の位置等)、及び/又は、光源104が、エリア内の表面及び/又は物体(例えば、図11において示されている表面300、302、及び/又は304、及び/又は、物体306、308等)の所定の距離内にあるとき、のうち少なくとも1つを決定することができる。一部の実施形態において、第1のセンサ102は、光源104からのUV光で消毒され得る空気、表面、参照タグ、及び/又は物体を検出することができる。
一部の実施形態において、少なくとも1つの第1のセンサ102は、斜め70度の視野を有してもよい。少なくとも1つのセンサ102は、0.2~4メートルの検出距離を有してもよい。図7~9において示されているように、少なくとも1つの第1のセンサ102は、光源104にわたって配置されてもよい。
少なくとも1つの第1のセンサ102は、モバイルロボット100の第1の側に配置される第1の側のセンサと、装置の第2の側に配置され得る第2の側のセンサとを含んでもよい。例えば、図8において示されているように、センサ102aが、モバイルロボット100の第1の側(例えば、前側等)に配置されてもよく、センサ102bが、モバイルロボット100の第2の側(例えば、後側等)に配置されてもよい。ロボットの2つの側のセンサが図8において示されているけれども、少なくとも表面及び/又は物体を検出するためにモバイルロボット102の異なる側に配置された複数のセンサが存在してもよい。一部の実施形態では、センサ102a及び/又はセンサ102bは、光源104にわたって配置されてもよい。
光源104は、UV光(例えば、10nm~400nmの波長を有する光等)を放射するための1つ以上のバルブ、1つ以上のランプ、及び/又は発光ダイオード(LED)若しくは有機発光ダイオード(OLED)のアレイであってもよい。UV光の用量(例えば、強度、持続時間、又は光パワー出力等)は、コントローラ114によって制御されてもよく、コントローラ114は、光源104の装置(例えば、バルブ、ランプ、LED、OLED等)の一部又は全てをオン又はオフすることもできる。光源は、モバイルロボットがエリア内にあるとき、モバイルロボットがエリア内を動くに従い、エリアのマッピング前に、エリアのマッピングの間に、及び/又はエリアのマッピング後に、UV光を放射するように制御され得る。
一部の実施形態において、モバイルロボットは、モバイルロボット100のロボットアーム124に結合され得る光源126等の二次光源を含んでもよい。光源126は、UV光(例えば、10nm~400nmの波長を有する光等)を放射するために、1つ以上のバルブ、1つ以上のランプ、及び/又は発光ダイオード(LED)又は有機発光ダイオード(OLED)のアレイからUV光を放射することができる。光源126は、UV光を放射するように制御することができる。一部の実施形態では、光源126を使用して、光源104がある用量のUV光を提供しなかった可能性のある空気、物体、表面、又は参照タグ等に、ある用量のUV光を提供することができる。アーム124の動きは、図12において示されているコントローラ114によって制御することができる。
少なくとも1つの第2のセンサ106は、図12において示されているコントローラ114に通信可能に結合されてもよく、マップされ得る及び/又は光源104からのUV光で消毒され得る空気、表面、及び/又は物体を検出するために使用されてもよい。一部の実施形態では、少なくとも1つの第2のセンサ106は、モバイルロボット100の向き(例えば、ロボットの前側及び/又は第1の側が向いている方向等)、モバイルロボット100の位置(例えば、エリア内のモバイルロボット100の位置等)、及び/又は、光源104が、エリア内の表面及び/又は物体(例えば、図11において示されている表面300、302、及び/又は304、及び/又は、物体306、308等)の所定の距離内にあるとき、のうち少なくとも1つを決定することができる。
一部の実施形態において、センサ102、106は、エリア内に存在し得る人間及び/又は動物を検出するために使用されてもよい。コントローラ114は、人間及び/又は動物がセンサによって検出されたときに、光源104が動作しないよう防ぐことができる。
一部の実施形態において、センサ102、106は、飛行時間型センサ、超音波センサ、二次元(2D)の光検出と測距(LiDAR)センサ、三次元(3D)のLiDARセンサ、及び/又はレーダー(無線検出と測距)センサ、ステレオビジョンセンサ、3Dスリーカメラ、又はストラクチャードライトカメラ等であってもよい。センサ106は、20~27度の視野を有してもよい。一部の実施形態において、センサ106は、0.05~4メートルの検出距離を有してもよい。
モバイルロボット100は、駆動システム108を駆動して部屋又は建物等のエリア内でモバイルロボットを動かすためのモータを含んでもよい。駆動システム108がモバイルロボット100の方向を制御することができるように調整可能であり得るホイールを、駆動システム108は含んでもよい。
一部の実施形態において、モバイルロボット100は、駆動システム108を有するベースを含んでもよく、センサ102、106をベース上に配置することができる。
コントローラ114は、手動モード、自律モード、及び/又はテレオペレーションモードであり得る動作モードでモバイルロボット100を制御する及び/又は動作させることができる。手動モードにおいて、コントローラ114は、ユーザインターフェース110及び/又は停止ボタン112から1つ以上の制御信号を受けることができる。例えば、ユーザは、ユーザインターフェース110上で1つ以上の選択を行うことによって、モバイルロボット100の動きの移動、方向、及び/又は停止を制御することができる。停止ボタン112は、選択された場合にモバイルロボット100の全ての動作及び/又は移動を停止することができる非常停止(ESTOP)ボタンであってもよい。一部の実施形態において、コントローラ114は、テレオペレーションモードで動作するときに、ネットワークインターフェース116(図12において示されている)を介して少なくとも1つの制御信号を受信することができる。例えば、ネットワークインターフェースは、図13に関連して以下に記載されるように、サーバ140、データベース150、及び/又はリモートプラットフォーム160から、ネットワーク130を介して制御信号を受信することができる。
一部の実施形態では、モバイルロボット100がある方向に動いているとき、センサ102、106は、1つ以上の表面(例えば、図11において示されている表面300、302、304等)、物体(例えば、図11において示されている物体306、308等)、及び/又は参照タグ(例えば、図9において示されている参照タグ310等)の幾何学的形状を検出することができる。少なくとも1つの第1のセンサ102の出力は、例えば、モバイルロボット100の経路内の1つ以上の物体のポイントクラウドであってもよい。センサ102及び/又はセンサ106がステレオビジョンセンサである場合、互いの距離からの既知の距離内の2つのセンサからの画像が(すなわち、2つのセンサがセンサ102及び/又はセンサ106のステレオビジョンセンサの一部であってもよい場合)、時間的に所定のポイントにおいて、及び/又はグローバルシャッターを用いて所定の時間間隔でキャプチャされ得る。グローバルシャッターは、ステレオビジョンセンサの2つのセンサが、ほぼ同時に画像をキャプチャすることができるように構成されてもよい。1つ以上の特徴(例えば、図10において示されている表面300、302、304、及び/又は物体306、308、及び/又は参照タグ310等)は、キャプチャされた画像から決定されてもよく、一致している部分を決定するために互いに比較されてもよい。ステレオビジョンセンサの2つのセンサの焦点距離及び2つのセンサ間の距離(例えば、約6cm等)は、メモリ118及び/又は固定記憶装置120(図11において示されている)に格納することができるため、コントローラ114及び/又は少なくとも1つの第1のセンサ102は、センサ102、106から表面及び/又は物体までの距離を決定するために、キャプチャされた画像及び格納された値を使用ことができ、さらに、光源からある用量のUV光を出力するためにプロセッサによって使用することができる。一部の実施形態において、センサ102、106は、物体が、識別する特徴なしであり得る(例えば、ブランクウォール等の)場合に、物体の表面上の1つ以上のポイントに放射するために、少なくとも1つのレーザ、LED、及び/又はOLEDを含んでもよい。
表面及び/又は物体を検出する場合、センサ102、106は、飛行時間型(TOF)センサであってもよい。少なくとも1つの光の光子は、センサ102、106によって出力されてもよく、空気を介して伝達されてもよい。少なくとも1つの光の光子が表面及び/又は物体に放射する場合、光の一部は、表面及び/又は物体によって反射されることがあり、センサ102、106の受け部分まで戻ることがある。センサ106は、少なくとも1つの光の光子を送ってから反射を受けるまでの時間を計算することができ、この値に空気中の光の速度を乗じて、センサ102、106と表面及び/又は物体との距離を決定することができる。これを使用して、モバイルロボットがその中で動作しているエリアのマップを生成することができる。
図12は、開示される特定事項の実施形態を提供するのに適したモバイルロボット100の例となる構成要素を示している。モバイルロボット100は、駆動システム108、適したネットワーク接続を介して1つ以上のリモートデバイスと通信するように動作可能なネットワークインターフェース116、コントローラ114、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、又はフラッシュRAM等のメモリ118、停止ボタン112、光源104、少なくとも1つの第1のセンサ102、1つ以上のコントローラと、キーボード及びタッチスクリーン等の関連するユーザ入力デバイスとを含み得るユーザインターフェース110、ハードドライブ及びフラッシュ記憶装置等の固定記憶装置120、並びに少なくとも1つの第2のセンサ106等、モバイルロボット100の主要な構成要素を相互接続するバス122を含んでもよい。
バス122は、上記のように、コントローラ114と、RAM、ROM、及び他のメモリを含み得る1つ以上のメモリコンポーネントとの間のデータ通信を可能にする。典型的には、RAMは、オペレーティングシステム及びアプリケーションプログラムがロードされるメインメモリである。ROM又はフラッシュメモリコンポーネントは、数あるコードの中でも、周辺コンポーネントとの相互作用等の基本的なハードウェア動作を制御するBasic Input-Output system (BIOS)を有し得る。モバイルロボット100と常在のアプリケーションは、一般的に、ソリッドステートドライブ、ハードディスクドライブ、光学ドライブ、ソリッドステートドライブ、又は他の記憶媒体等、コンピュータ読み取り可能媒体(例えば、固定記憶装置120)上に格納され、これを介してアクセスされる。
ネットワークインターフェース116は、有線又は無線接続(例えば、図12において示されているネットワーク130)を介して、リモートサーバ(例えば、図12において示されているサーバ140、データベース150、及び/又はリモートプラットフォーム160)への直接接続を提供することができる。ネットワークインターフェース116は、デジタル携帯電話、WiFi、Bluetooth(登録商標)、及び近接場等を含む、当業者によって容易に理解されることになる任意の適した技術及びプロトコルを使用して、そのような接続を提供することができる。例えば、ネットワークインターフェース116は、以下にさらに詳細に記載されるように、モバイルロボット100が1つ以上のローカル、ワイドエリア、又は他の通信ネットワークを介して他のコンピュータと通信するのを可能にし得る。モバイルロボットは、動作経路及びUV光で放射される表面及び/又はエリア等を含み得るデータを、リモートサーバまでネットワークインターフェースを介して送信することができる。
多くの他の装置又は構成要素(図示せず)が、類似の様式で接続されてもよい。逆に、図12において示されている構成要素の全てが、本開示を実行するために存在する必要はない。構成要素は、示されたものとは異なる方法で相互接続することができる。本開示を実施するためのコードは、メモリ118、固定記憶装置120のうち1つ以上等、コンピュータ読み取り可能記憶媒体に、又はリモートストレージ位置に格納することができる。
図13は、開示される特定事項の実施形態に従った、例となるネットワーク配置を示している。上記のモバイルロボット100、及び/又は類似のモバイルロボット200は、ネットワーク130を介して他の装置に接続することができる。ネットワーク130は、ローカルネットワーク、ワイドエリアネットワーク、インターネット、又は任意の他の適した1つ又は複数の通信ネットワークであってもよく、有線及び/又は無線ネットワークを含む任意の適したプラットフォーム上に実装されてもよい。モバイルロボット100及び/又はモバイルロボット200は、互いに通信することができ、及び/又は、サーバ140、データベース150、及び/又はリモートプラットフォーム160等の1つ以上のリモートデバイスと通信することができる。リモートデバイスは、モバイルロボット100、200、又は1つ以上の他の装置によって直接アクセス可能であってもよく、サーバ140がデータベース150に格納されたリソースへのアクセスを提供する場合等、中間アクセスを提供することができる。モバイルロボット100、200は、リモートプラットフォーム160、又は、クラウドコンピューティングのアレンジメント及びサービス等のリモートプラットフォーム160によって提供されるサービスにアクセスすることができる。リモートプラットフォーム160は、1つ以上のサーバ140及び/又はデータベース150を含んでもよい。
より一般的には、本開示の特定事項の様々な実施形態は、これらのプロセスを実行するためのコンピュータ実装プロセス及び装置の形態を含んでもよく、又はそれらの形態で具体化されてもよい。実施形態はまた、ソリッドステートドライブ、DVD、CD-ROM、ハードドライブ、USB(ユニバーサルシリアルバス)ドライブ、又は任意の他の機械読み取り可能記憶媒体等、非一時的及び/又は有形の媒体において命令を有するコンピュータプログラムコードを具現化させたコンピュータプログラムプロダクトの形態で具体化されてもよいため、コンピュータプログラムコードがコンピュータにロードされ、コンピュータによって実行されると、コンピュータは、開示される特定事項の実施形態を実行するための装置となる。実施形態はまた、例えば、記憶媒体に格納される、コンピュータにロードされる及び/又はコンピュータによって実行される、或いは、電気配線若しくはケーブル配線等を介して、ファイバーオプティクスを介して、又は電磁放射を介して等、一部の伝送媒体を介して伝送されるかにかかわらず、コンピュータプログラムコードの形態で具体化されてもよいため、コンピュータプログラムコードがコンピュータにロードされ、コンピュータによって実行されると、コンピュータは、開示される特定事項の実施形態を実行するための装置となる。汎用マイクロプロセッサに実装される場合、コンピュータプログラムコードのセグメントは、特定の論理回路を作るようにマイクロプロセッサを構成する。
一部の構成では、コンピュータ読み取り可能記憶媒体に格納されたコンピュータ読み取り可能命令のセットを、汎用プロセッサによって実装することができ、これは、汎用プロセッサ又は汎用プロセッサを有する装置を、命令を実装又は実行するように構成された専用装置に変換することができる。実施形態は、ハードウェア及び/又はファームウェアにおいて開示される特定事項の実施形態による技術の全て又は一部を具現化する特定用途向け集積回路(ASIC)及び/又は汎用マイクロプロセッサ等のプロセッサを有するハードウェアを使用することを含んでもよい。プロセッサは、RAM、ROM、フラッシュメモリ、ハードディスク、又は電子情報を格納することができる任意の他のデバイス等のメモリに結合することができる。メモリは、開示される特定事項の実施形態に従って技術を行うために、プロセッサによって実行されるように適応した命令を格納することができる。
上記は、説明のために、特定の実施形態を参照して記載されている。しかし、上記の例示的な考察は、網羅的であること、又は開示される特定事項の実施形態を開示された正確な形態に限定することを意図したものではない。上記の教示を考慮して、多くの修正及び変更が可能である。実施形態は、開示される特定事項の実施形態の原理及びそれらの実際の用途を説明するために選ばれ且つ記載され、それによって、当業者が、それらの実施形態だけでなく、熟考される特定の用途に適し得る様々な修正を有した様々な実施形態を利用するのを可能にしている。

Claims (17)

  1. 消毒されることになるエリアにおいてモバイルロボットを配置するステップと、
    前記モバイルロボットのユーザインターフェース又は通信インターフェースにおいて、消毒を行うためのコマンドを受けるステップと、
    前記モバイルロボットのプロセッサにおいて、前記エリアのマップが、前記プロセッサに通信可能に結合されたメモリ装置内に位置しているかどうかを決定すること、前記エリアのマップが前記通信インターフェースを介してサーバから入手可能であるかどうかを決定すること、及び、1つ以上のセンサを使用して前記エリアにおける1つ以上のポイントを検出し、検出された前記ポイントが、前記メモリに格納された前記マップに含まれているか、又は前記サーバからアクセス可能であるかどうかを決定することを含む群から少なくとも1つによって、前記エリアがすでにマップされているかどうかを決定するステップと、
    前記モバイルロボットの前記プロセッサにおいて、前記エリアがすでにマップされていると決定されたときに、前記モバイルロボットの前記1つ以上のセンサから出力された1つ以上の信号に基づき、前記エリアが消毒のために片付けられているかどうかを決定するステップと、
    前記モバイルロボットの光源を使用して、紫外(UV)光を放射し、空気、表面、及び物体を含む群から選択された少なくとも1つを含む、前記エリアの少なくとも一部を消毒するステップと、
    前記プロセッサにおいて、前記1つ以上のセンサを使用して前記エリア内の他の表面及び物体を検出するために前記エリア内を動くように前記モバイルロボットの駆動システムを制御するステップと、
    前記モバイルロボットの前記プロセッサにおいて、前記モバイルロボットが動くに従い検出された前記表面及び物体の少なくとも1つに基づき2次元(2D)マップ又は3次元(3D)マップを生成し、消毒されることになる前記エリア内の放射された前記UV光によって露光される前記空気、表面、及び物体の少なくとも1つ、及び前記モバイルロボットが動くに従い印加される放射された前記UV光の用量レベルの露光マップを生成するステップと、
    前記プロセッサに通信可能に結合された前記メモリにおいて、前記エリア内を動く前記モバイルロボットの軌道、生成された前記マップ、及び生成された前記露光マップを格納するステップと、
    前記生成された露光マップに基づく消毒報告書を、前記ユーザインターフェース又は前記通信インターフェースを介して出力するステップと、
    を含む方法。
  2. 受けた前記消毒を行うためのコマンドは、前記モバイルロボットによって消毒の標的とされることになる1つ以上の病原体又は微生物、及び前記UV光の線量を定めるLOGレベルを含む群から選択された少なくとも1つを含む、請求項1に記載の方法。
  3. 前記駆動システムを制御するステップは、
    前記プロセッサ及び前記1つ以上のセンサからの少なくとも1つの出力信号を使用して、前記受けたコマンドに基づき、前記モバイルロボットが前記UV光を出力して前記エリア内の前記空気、表面、及び物体の少なくとも1つを消毒するための消毒位置を決定することをさらに含む、請求項1に記載の方法。
  4. 前記プロセッサにおいて、前記標的とされることになる1つ以上の病原体又は微生物を含む群の少なくとも1つに基づき、前記モバイルロボットの前記駆動システムの移動速度及び前記消毒位置の1つ以上に前記UV光を出力するための持続時間、及び前記受けたコマンドのLOGレベルを調整するステップをさらに含む、請求項3に記載の方法。
  5. 前記プロセッサにおいて、前記生成された露光マップに基づき前記エリアにUV光が出力されたときに、前記光源からのUV光の出力を停止するステップをさらに含む、請求項1に記載の方法。
  6. 前記停止するステップは、
    前記モバイルロボットが移動する1つ以上のルート、前記モバイルロボットの移動速度、及び前記エリア内の1つ以上の標的にUV光を出力するのに前記モバイルロボットが費やす時間を含む群から選択された少なくとも1つを使用することによって、逆露光ルートを生成することと、
    前記生成された露光マップと前記生成された逆露光ルートとの差を示す差分露光マップを生成することと、
    をさらに含み、
    前記UV光によってさらに露光されることになる前記エリアの部分がないことを前記差分マップが示すときに、前記UV光の出力を停止するステップは生じる、請求項5に記載の方法。
  7. 前記プロセッサにおいて、前記エリアがマップされていないと決定されたときに、前記1つ以上のセンサを使用して前記エリア内の1つ以上の表面及び物体を検出するために、前記エリア内を自律的に動くように前記モバイルロボットの駆動システムを制御するステップと、
    前記モバイルロボットの前記プロセッサにおいて、検出された前記1つ以上の表面及び物体に基づき、前記2Dマップ又は前記3Dマップを生成するステップと、
    生成された前記マップを、前記プロセッサに通信可能に結合されたメモリ装置に格納するステップと、
    をさらに含む、請求項1に記載の方法。
  8. 前記UV光を放射するステップは、
    前記プロセッサにおいて、前記プロセッサに通信可能に結合されたメモリ装置に消毒軌道が格納されているかどうかを決定することであって、前記消毒軌道は、前記UV光による消毒の強度及び位置を含むことと、
    前記プロセッサにおいて、前記消毒軌道が前記メモリに格納されていると決定されたときに、動くように前記モバイルロボットの駆動システムを制御し、UV光を放射するように前記光源を制御することと、
    をさらに含む、請求項1に記載の方法。
  9. 前記プロセッサにおいて、消毒軌道が前記メモリ装置に格納されていないと決定されたときに、前記モバイルロボットの消毒位置を生成するステップであって、前記消毒位置は、前記UV光を使用して消毒を行うための前記エリア内の位置である、ステップと、
    前記プロセッサにおいて、決定された前記消毒位置に基づき、動くように前記モバイルロボットの駆動システムを制御し、UV光を放射するように前記光源を制御するステップと、
    をさらに含む、請求項8に記載の方法。
  10. 前記プロセッサにおいて、前記光源によって放射されるUV光に対する露光設定に基づき、生成された前記消毒位置を分類するステップと、
    前記プロセッサにおいて、分類された前記消毒位置に基づき、前記消毒軌道を更新するステップと、
    をさらに含む、請求項9に記載の方法。
  11. 前記プロセッサにおいて、消毒軌道が前記メモリ装置に格納されていると決定されたときに、前記光源によって放射されるUV光に対する露光設定に基づき、及び前記露光マップに対する1つ以上の変更に基づき、消毒位置の配置を調整するステップをさらに含む、請求項8に記載の方法。
  12. 前記消毒位置の各々に基づき、前記モバイルロボットの光源を使用して、UV光を放射し、前記エリアを消毒するステップをさらに含む、請求項11に記載の方法。
  13. 前記プロセッサにおいて、前記消毒位置を再配置及び分類することによって、前記露光マップに基づき前記モバイルロボットのルートを更新するステップをさらに含む、請求項12に記載の方法。
  14. 前記プロセッサに通信可能に結合されたメモリ装置において、最適化されたルートを格納するステップと、
    前記プロセッサにおいて、出力されることになる前記消毒報告書を生成するステップと、
    をさらに含む、請求項13に記載の方法。
  15. 前記UV光を放射し、前記エリアの少なくとも一部を消毒するステップは、前記エリアを消毒するための第1のモード、及び前記エリアのうち少なくとも1つの所定の部分を消毒するための第2のモードを含む群から選択された少なくとも1つで前記モバイルロボットを動作させることを含む、請求項1に記載の方法。
  16. 前記モバイルロボットのユーザインターフェース又は通信インターフェースにおける前記受けたコマンドは、さらなるコマンドを受けることなく、前記エリアの消毒のための全ての動作を行うための単一の指示である、請求項1に記載の方法。
  17. 前記1つ以上のセンサを使用して、前記生成されたマップの一部ではない前記エリア内の1つ以上の新しい表面及び1つ以上の新しい物体を含む群から少なくとも1つを検出するステップと、
    前記プロセッサにおいて、検出された前記1つ以上の新しい表面及び前記1つ以上の新しい物体のうち少なくとも1つを用いて、前記生成されたマップを更新するステップと、
    をさらに含む、請求項1に記載の方法。
JP2022114237A 2022-06-23 2022-07-15 最小限の入力を用いた自律型モバイル消毒のシステム及び方法 Pending JP2024002853A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/847,441 US20230414813A1 (en) 2022-06-23 2022-06-23 Systems and methods of autonomous mobile disinfection with minimal input
US17/847441 2022-06-23

Publications (1)

Publication Number Publication Date
JP2024002853A true JP2024002853A (ja) 2024-01-11

Family

ID=82557962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022114237A Pending JP2024002853A (ja) 2022-06-23 2022-07-15 最小限の入力を用いた自律型モバイル消毒のシステム及び方法

Country Status (3)

Country Link
US (1) US20230414813A1 (ja)
EP (1) EP4295867A1 (ja)
JP (1) JP2024002853A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021202514A2 (en) * 2020-03-30 2021-10-07 Brain Corporation Systems and methods for disinfection and sanitation of environments by robotic devices
US20210346558A1 (en) * 2020-05-09 2021-11-11 Chenghung Pan Robotic germicidal irradiation system
US20220124260A1 (en) * 2020-10-19 2022-04-21 X Development Llc Combined UV and Color Imaging System

Also Published As

Publication number Publication date
EP4295867A1 (en) 2023-12-27
US20230414813A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
US11511423B2 (en) Method of plotting ultraviolet (UV) radiation for disinfection
US11701442B2 (en) Method of autonomous mobile disinfection
US11602845B2 (en) Method of detecting human and/or animal motion and performing mobile disinfection
US20220288249A1 (en) Method of self-disinfection of mobile robot
US20200356094A1 (en) Methods and systems for machine state related visual feedback in a robotic device
TW202028908A (zh) 移動式機器人
US11687075B2 (en) Remotely operated mobile service robots
US20230205211A1 (en) Protection of ultraviolet (uv) light source on mobile device
TW201908080A (zh) 機器人
JP2024002853A (ja) 最小限の入力を用いた自律型モバイル消毒のシステム及び方法
US20230110302A1 (en) Methods of sensor exposure validation
TWI729733B (zh) 對移動裝置上的紫外光源的保護
US11399320B2 (en) Methods of connecting to communications networks and switching network connectivity
CN113406950A (zh) 对移动装置上的紫外光源的保护
KR102484693B1 (ko) 로봇의 이동을 위한 가이드 태그를 포함하는 가이드 장치가 설치된 건물
CN111949027B (zh) 自适应的机器人导航方法和装置
EP4198671A1 (en) Methods of area mapping with a mobile robot that crosses areas without communications network availability, and sharing the same with other mobile robots
US20240119604A1 (en) Method of controlling electronic device by using spatial information and electronic device using spatial information
CN116166047A (zh) 一种无人机自动跟随方法、系统、终端及介质