JP7334460B2 - 作業支援装置及び作業支援方法 - Google Patents

作業支援装置及び作業支援方法 Download PDF

Info

Publication number
JP7334460B2
JP7334460B2 JP2019085238A JP2019085238A JP7334460B2 JP 7334460 B2 JP7334460 B2 JP 7334460B2 JP 2019085238 A JP2019085238 A JP 2019085238A JP 2019085238 A JP2019085238 A JP 2019085238A JP 7334460 B2 JP7334460 B2 JP 7334460B2
Authority
JP
Japan
Prior art keywords
work
worker
image
work support
generates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019085238A
Other languages
English (en)
Other versions
JP2020181456A (ja
Inventor
山 姜
創輔 山尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019085238A priority Critical patent/JP7334460B2/ja
Publication of JP2020181456A publication Critical patent/JP2020181456A/ja
Application granted granted Critical
Publication of JP7334460B2 publication Critical patent/JP7334460B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Description

本発明は、作業支援装置及び作業支援方法に関する。
近年、ビルの電気設備、工場等の各種設備における作業現場において、ICT(Information and Communications Technology)を用いて経験不足の作業者を支援する、作業支援技術が注目されている。例えば、ICTの一例として、拡張現実(Augmented Reality,AR)技術が知られている。
AR技術を利用して、作業者の目の前に存在する対象物の画像に、作業指示等のARコンテンツを重ね合わせて表示することで、各種設備の保守点検作業を支援することができる(例えば、特許文献1、非特許文献1、及び非特許文献2を参照)。このような作業支援技術により、ヒューマンエラー、作業コスト等の削減が可能になる。
車両の自動走行、ロボット制御等の分野においてSLAM(Simultaneous Localization and Mapping)技術が知られている(例えば、非特許文献3及び非特許文献4を参照)。2次元平面上の複数の点をスプライン曲線によって補間する方法も知られている(例えば、非特許文献5を参照)。
特開2015-102880号公報
"AR統合基盤製品",[online],富士通株式会社,[平成31年4月5日検索],インターネット<URL:https://www.fujitsu.com/jp/about/corporate/info/index.html> "「3次元モデルARを用いた保守点検作業支援技術」を開発",[online],三菱電機株式会社,2016年11月7日,[平成31年4月5日検索],インターネット<URL:http://www.mitsubishielectric.co.jp/news/2016/pdf/1107.pdf> N. Brunetto et al.,"Interactive RGB-D SLAM on Mobile Devices", Computer Vision - ACCV 2014 Workshops, pages 339-351, November, 2014 R. Mur-Artal et al.,"ORB-SLAM: A Versatile and Accurate Monocular SLAM System", IEEE TRANSACTIONS ON ROBOTICS, VOL. 31, NO. 5, pages 1147-1163, October 2015 "Spline (mathematics)",[online],Wikipedia,[平成31年4月5日検索],インターネット<URL:https://en.wikipedia.org/wiki/Spline_(mathematics)>
AR技術を利用した作業支援を行う際に、実際の作業環境に存在するすべての機器の画像とARコンテンツとを、画面上に同時に表示すると、作業者の認知負荷が増大して、作業効率が低下することがある。
なお、かかる問題は、設備の保守点検作業を支援する場合に限らず、作業現場における様々な作業を支援する場合において生ずるものである。
1つの側面において、本発明は、作業環境に合わせて、作業者の作業を支援する情報を提示することを目的とする。
1つの案では、作業支援装置は、記憶部及び画像生成部を含む。記憶部は、複数の作業位置を結ぶ移動経路を示す経路情報と、移動経路上を移動する作業者の位置から観察される物体を撮影した撮影画像とを記憶する。
画像生成部は、作業者の位置を示す位置情報と経路情報とに基づいて、撮影画像から、作業者の位置から観察される物体のうち作業支援と関連しない物体の視認性を低減した表示用画像を生成する。
1つの側面によれば、作業環境に合わせて、作業者の作業を支援する情報を提示することができる。
作業環境に合わせた支援情報を提示できる。
作業支援装置の機能的構成図である。 作業支援処理のフローチャートである。 作業支援装置の具体例を示す機能的構成図である。 作業現場を示す図である。 移動経路及び曲面を示す図である。 空間モデルを示す図である。 第1の曲線生成処理を示す図である。 空間モデル内における曲面を示す図である。 第2の曲線生成処理を示す図である。 経路生成処理のフローチャートである。 作業支援処理の具体例を示すフローチャートである。 情報処理装置の構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
非特許文献1の技術によれば、作業現場において、ARマーカ等の認識対象にスマートデバイスのカメラをかざしたり、スマートデバイスのセンサによって位置情報を取得したりすることで、作業者に応じた最適な情報を物体の画像に重ね合わせて表示できる。また、作業者は、作業現場にいながら簡単な操作を行うことで、表示される情報を追加することもできる。
非特許文献2の技術によれば、作業者が3次元AR機能を備えたウェアラブル端末を装着して、点検作業の手順を確認したり、点検結果を音声で入力したりすることができる。ウェアラブル端末は、作業者の視線の先にある複数の機器をカメラで捉え、AR機能により点検項目及び点検順序を機器の画像に重ね合わせて、画面上に表示する。事前に構築した3次元モデルを活用してカメラの位置及び方向を計算することで、点検対象の位置にかかわらず、正確にARコンテンツを表示できる。
各種設備の保守点検作業においては、作業現場における作業者の移動経路、作業指示、注意事項等の情報を、ARコンテンツとして、作業現場の状況に合わせて分かりやすく提示することが望ましい。しかしながら、詳細な移動経路等を示すARコンテンツを作成する場合、ARコンテンツの作成及び管理の作業負荷が大きくなる。
一方、工場等の複雑な作業現場には、作業対象の機器以外にも多数の機器が存在する。例えば、企業のサーバルームには、多数のサーバラックが設置されていることがある。作業現場に存在する機器のうち作業対象の機器以外は、作業支援とは無関係な機器であり、作業者に対して提示する必要がない。それにもかかわらず、AR技術を利用した作業支援を行う際に、実際の作業環境に存在するすべての機器の画像とARコンテンツとを、画面上に同時に表示すると、作業者の認知負荷が増大して、作業効率が低下することがある。
図1は、実施形態の作業支援装置の機能的構成例を示している。図1の作業支援装置101は、記憶部111及び画像生成部112を含む。記憶部111は、複数の作業位置を結ぶ移動経路を示す経路情報121と、移動経路上を移動する作業者の位置から観察される物体を撮影した撮影画像122とを記憶する。画像生成部112は、経路情報121に基づいて、撮影画像122から表示用画像を生成する。
図2は、図1の作業支援装置101が行う作業支援処理の例を示すフローチャートである。まず、画像生成部112は、記憶部111から撮影画像122を取得する(ステップ201)。
次に、画像生成部112は、作業者の位置を示す位置情報と経路情報121とに基づいて、撮影画像122から、作業者の位置から観察される物体のうち作業支援と関連しない物体の視認性を低減した表示用画像を生成する(ステップ202)。
図1の作業支援装置101によれば、作業環境に合わせて、作業者の作業を支援する情報を提示することができる。
図3は、図1の作業支援装置101の具体例を示している。図3の作業支援装置301は、記憶部311、撮像装置312、位置センサ313、深度センサ314、経路生成部315、画像生成部316、及び表示部317を含む。記憶部311及び画像生成部316は、図1の記憶部111及び画像生成部112にそれぞれ対応する。
作業支援装置301は、例えば、タブレット、スマートデバイス、ノート型PC(Personal Computer)等の携帯端末装置である。作業支援装置301は、HMD(Head Mounted Display)等のウェアラブル端末装置であってもよい。
例えば、作業者は、屋内又は屋外の作業現場において、作業支援装置301を携帯しながら、設備の保守点検作業、機器の操作作業、部品の運搬作業等を行う。作業支援装置301は、作業者の位置及び姿勢、作業対象、作業の進捗状況等に応じて、作業支援処理を行う。作業支援処理には、作業手順を示すAR情報、特定の作業位置又は作業対象へ作業者を誘導するAR情報等を画面上に表示する処理が含まれる。
図4は、作業現場の例を示している。図4の作業現場はサーバルームであり、サーバルームの床401上に、サーバラック403~サーバラック406及び物体407が設置されている。このうち、サーバラック403及びサーバラック406が、保守点検作業の作業対象である。
作業支援装置301の一例である携帯端末装置422を携帯した作業者421は、ドア402を開けてサーバルームに入室する。そして、作業者421は、サーバラック403の正面の作業位置411で、サーバラック403に搭載されたサーバの保守点検作業を行い、サーバラック406の正面の作業位置412で、サーバラック406に搭載されたサーバの保守点検作業を行う。
図3の撮像装置312は、例えば、CCD(Charged-Coupled Device)、CMOS(Complementary Metal-Oxide-Semiconductor)等の撮像素子を有するカメラであり、3次元空間における作業支援装置301の周囲の映像を撮影する。3次元空間内には、作業現場における複数の作業位置が含まれる。撮像装置312によって撮影された映像は、複数の時刻それぞれにおける画像を含む。各時刻の画像は、フレームと呼ばれることもある。
位置センサ313は、例えば、GPS(Global Positioning System)受信機、加速度センサ、地磁気センサ等であり、作業支援装置301の現在位置を示す位置情報を出力する。深度センサ314は、例えば、レーザスキャナ、ステレオカメラ等であり、作業支援装置301と被写体との距離を示す深度情報を出力する。
作業支援装置301は、作業支援処理の前に経路生成処理を行って、作業支援処理で使用される経路情報323を生成する。
経路生成処理において、経路生成部315は、3次元空間を撮影した映像に含まれる各画像から、3次元空間内の複数の点に対応する点群を生成し、その点群を示す点群情報321を生成して、記憶部311に格納する。例えば、経路生成部315は、深度センサ314が出力する各画素の深度情報を用いて、点群を生成することができる。
次に、経路生成部315は、点群情報321を用いて、作業現場の3次元空間を示す空間モデル322を生成し、記憶部311に格納する。空間モデル322には、作業現場の床を表す平面が含まれる。
例えば、経路生成部315は、非特許文献3又は非特許文献4に記載されたSLAM技術を用いて、点群情報321及び空間モデル322を生成することができる。SLAM技術は、未知の環境において、移動物体が自己位置を推定しながら、環境地図を同時に生成する技術である。
次に、経路生成部315は、空間モデル322内において指定された複数の点を、床を表す平面上に投影することで、複数の作業位置それぞれに対応する点を生成する。そして、経路生成部315は、平面上に投影された複数の点を補間することで、複数の作業位置を結ぶ移動経路に対応する曲線を生成し、生成された曲線を示す経路情報323を生成して、記憶部311に格納する。
経路情報323は、図1の経路情報121に対応し、作業者の作業手順を表す。経路情報323は、複数の作業位置それぞれに対応する点を示す情報と、それらの作業位置の訪問順序を示す情報と、各作業位置における作業対象を示す情報を含んでいてもよい。
このような経路生成処理によれば、作業環境に合わせて、空間モデル322及び経路情報323が自動的に生成され、空間モデル322の更新と経路情報323の登録、更新、及び削除とを自動化することも可能になる。
作業支援処理において、位置センサ313は、移動経路上を移動する作業者の現在位置を示す位置情報324を出力し、記憶部311は、位置情報324を記憶する。そして、撮像装置312は、作業者の現在位置から観察される周囲の物体を撮影して、撮影画像325を出力し、記憶部311は、撮影画像325を記憶する。撮影画像325は、図1の撮影画像122に対応する。
次に、画像生成部316は、位置情報324と経路情報323とに基づいて、撮影画像325に写っている物体のうち、作業支援と関連しない物体の視認性を低減することで、表示用画像326を生成する。そして、表示部317は、表示用画像326を画面上に表示する。これにより、作業支援と関連する物体の視認性が向上し、作業位置又は作業対象へ作業者を誘導する作業支援情報が、作業者に対して提示される。
例えば、画像生成部316は、空間モデル322内において、経路情報323が示す曲線から所定距離だけ離れた位置に、その曲線に沿って曲がる曲面を生成する。そして、画像生成部316は、位置情報324及び撮影画像325から、空間モデル322内における作業支援装置301の位置及び姿勢を推定する。推定された位置は、作業者の現在位置に対応する点を表し、推定された姿勢は、その点における撮像装置312の姿勢を表している。
次に、画像生成部316は、空間モデル322内において、推定された位置及び姿勢から観察される曲面を、撮影画像325に重ね合わせることで、表示用画像326を生成する。
図5は、図4の作業現場における移動経路及び曲面の例を示している。作業者421は、ドア402からサーバラック403まで移動経路501に沿って移動し、サーバラック403からサーバラック406まで移動経路502に沿って移動する。作業者421が移動経路502上を移動する際、サーバラック404、サーバラック405、及び物体407は、作業支援と関連しない物体であるため、必ずしも携帯端末装置422の画面上に表示する必要はない。
そこで、画像生成部316は、空間モデル322内において、移動経路502を示す曲線の両側に、その曲線に沿って曲がる曲面511及び曲面512をリアルタイムに生成する。そして、画像生成部316は、移動経路502上を移動する作業者421の現在位置に対応する点から観察される曲面511及び曲面512を、サーバルームを撮影した撮影画像325に重ね合わせることで、表示用画像326を生成する。
これにより、携帯端末装置422の画面上で、作業者421の現在位置から撮影された撮影画像325に、仮想的な壁面を示すAR情報として、曲面511及び曲面512が重ね合わせて表示される。曲面511及び曲面512によってサーバラック404、サーバラック405、及び物体407が隠蔽されるため、作業者421の認知負荷が低減され、作業者421は、次の作業対象であるサーバラック406を直ちに認知することができる。曲面511及び曲面512の表示色は、不透明であってもよく、半透明であってもよい。
このような作業支援処理によれば、作業位置又は作業対象へ作業者を誘導する情報とは無関係な視覚情報がフィルタリングされるため、作業環境に合わせて適切な作業支援情報を提示することができる。また、仮想的な壁面を示すAR情報が自動的に生成されるため、ARコンテンツのオーサリングにおける作業負荷が低減される。
図6は、空間モデル322の例を示している。図6の空間モデル322は、3次元座標系601を用いて記述され、壁を表す直方体611と床を表す平面612とを含む。空間モデル322には、直方体611及び平面612以外にも、ドアを表す平面、床上に設置された物体を表す直方体等が含まれることがある。
図7は、移動経路に対応する曲線を生成する第1の曲線生成処理の例を示している。図7(a)は、空間モデル322内で、床を表す平面に対応する2次元地図の例を示している。折れ線701及び折れ線702は、床に垂直な壁面等に対応する平面の投影線を表し、点711及び点712は、作業位置を表す。この場合、折れ線701と折れ線702との間の領域が、作業者の通路として用いられる。
図7(b)は、図7(a)の点711及び点712を結ぶ曲線の例を示している。経路生成部315は、2次元地図上でスプライン補間により点711及び点712を補間することで、移動経路に対応するスプライン曲線713を生成する。例えば、経路生成部315は、非特許文献5に記載された補間方法を用いて、スプライン曲線713を生成することができる。
図8は、空間モデル322内における曲面の例を示している。図8の空間モデル322は、3次元座標系801を用いて記述され、床を表す平面811と、床上に設置された物体を表す直方体812~直方体814を含む。これらの物体は、作業支援と関連しない物体であるため、必ずしも画面上に表示する必要はない。スプライン曲線822は、作業者821の移動経路を示す。
画像生成部316は、スプライン曲線822の両側において、スプライン曲線822から所定距離だけ離れた位置に、スプライン曲線822に沿って曲がる曲線831及び曲線832を生成する。そして、画像生成部316は、平面811と垂直な方向に曲線831及び曲線832を移動させることで、仮想的な壁面を表す曲面841及び曲面842を生成する。これにより、画面上で、曲面841及び曲面842によって、直方体812~直方体814が表す物体が隠蔽されるため、作業者821の認知負荷が低減される。
画像生成部316は、2次元地図上で、壁面等に対応する平面の投影線を特定し、複数の投影線の交点を制御点として用いて、非特許文献5に記載された補間方法により、スプライン曲線を生成することもできる。この場合、画像生成部316は、生成されたスプライン曲線を、床を表す平面と垂直な方向に移動させることで、仮想的な壁面を表す曲面を生成する。
図9は、移動経路に対応する曲線を生成する第2の曲線生成処理の例を示している。床を表す2次元地図上の折れ線901及び折れ線902は、壁面等に対応する平面の投影線を表す。この場合、折れ線901と折れ線902との間の領域が、作業者の通路として用いられる。経路生成部315は、折れ線901上の各点の2次元座標と、折れ線902上の各点の2次元座標との平均を計算することで、通路の中央を通る折れ線911を求める。折れ線911は、移動経路に対応する曲線であり、不図示の作業位置を表す点を通る。
画像生成部316は、所定の半径Rを有する円912の中心を、折れ線911に沿って移動させることで、円周上の点の軌跡を表す折れ線921及び折れ線922を求める。そして、画像生成部316は、2次元地図と垂直な方向に折れ線921及び折れ線922を移動させることで、仮想的な壁面を表す2枚の曲面を生成する。半径Rは調整パラメータであり、画像生成部316又はユーザによって設定される。
図10は、図3の作業支援装置301が行う経路生成処理の例を示すフローチャートである。まず、経路生成部315は、3次元空間を撮影した映像に含まれる各画像と、深度センサ314が出力する各画素の深度情報とを用いて、3次元空間内の複数の点に対応する点群を示す点群情報321を生成する(ステップ1001)。そして、経路生成部315は、点群情報321が示す点群に対する平面フィッティングを行うことで、複数の平面候補を抽出する(ステップ1002)。
次に、経路生成部315は、1枚の平面候補を選択し(ステップ1003)、選択された平面候補の面積が所定範囲内であるか否かをチェックする(ステップ1004)。経路生成部315は、平面候補の面積が所定の上限値よりも小さく、かつ、所定の下限値よりも大きい場合、面積が所定範囲内であると判定し、それ以外の場合、面積が所定範囲外であると判定する。上限値及び下限値は調整パラメータであり、経路生成部315又はユーザによって設定される。
平面候補の面積が所定範囲内である場合(ステップ1004,YES)、経路生成部315は、その平面候補を3次元空間内の平面として特定し(ステップ1005)、すべての平面候補を選択したか否かをチェックする(ステップ1006)。一方、平面候補の面積が所定範囲外である場合(ステップ1004,NO)、経路生成部315は、その平面候補を3次元空間内の平面として特定することなく、ステップ1006の処理を行う。
未選択の平面候補が残っている場合(ステップ1006,NO)、経路生成部315は、次の平面候補についてステップ1003以降の処理を繰り返す。一方、すべての平面候補が選択された場合(ステップ1006,YES)、経路生成部315は、特定された平面を含む空間モデル322を生成する(ステップ1007)。
次に、経路生成部315は、空間モデル322内においてユーザにより指定された複数の作業対象点を受け付け(ステップ1008)、それらの作業対象点を、床を表す平面上に投影する(ステップ1009)。そして、経路生成部315は、平面上に投影された複数の点を補間することで、移動経路に対応する曲線を生成し(ステップ1010)、生成された曲線を示す経路情報323を生成する(ステップ1011)。
ユーザにより指定された作業対象点が床を表す平面上に投影されるため、ユーザは、必ずしも床上の点を指定する必要がなく、床から離れた空中の点を作業対象点として指定することができる。これにより、経路情報323に作業位置を登録する操作が容易になる。
図11は、図3の作業支援装置301が行う作業支援処理の具体例を示すフローチャートである。まず、撮像装置312は、作業者の現在位置から観察される周囲の物体を撮影して、撮影画像325を出力し、画像生成部316は、撮影画像325を取得する(ステップ1111)。そして、位置センサ313は、作業者の現在位置を示す位置情報324を出力し、画像生成部316は、位置情報324を取得する(ステップ1112)。
次に、画像生成部316は、空間モデル322内において、経路情報323が示す曲線の両側において、その曲線から距離Dだけ離れた位置に、曲線に沿って曲がる長さTの曲線を生成する(ステップ1113)。そして、画像生成部316は、生成された2本の曲線を、床を表す平面と垂直な方向に距離Hだけ移動させることで、高さHの2枚の曲面を生成する(ステップ1114)。距離D、長さT、及び距離Hは調整パラメータであり、画像生成部316又はユーザによって設定される。
次に、画像生成部316は、空間モデル322内において、位置情報324に対応する点から観察される曲面を撮影画像325に重ね合わせることで、表示用画像326を生成する(ステップ1115)。そして、表示部317は、表示用画像326を画面上に表示する(ステップ1116)。
次に、画像生成部316は、位置情報324が移動経路上の目的地を示しているか否かをチェックする(ステップ1117)。例えば、目的地は、作業手順において最後に訪問される作業位置である。位置情報324が目的地を示していない場合(ステップ1117,NO)、作業支援装置301は、ステップ1111以降の処理を繰り返す。一方、位置情報324が目的地を示している場合(ステップ1117,YES)、作業支援装置301は、処理を終了する。
なお、画像生成部316は、仮想的な壁面を表す曲面を撮影画像325に重ね合わせる代わりに、撮影画像325に対して所定の画像補正処理を適用することで、作業支援と関連しない物体の視認性を低減することもできる。例えば、画像生成部316は、移動経路上の各作業位置から所定範囲内に存在する物体を特定し、撮影画像325内で、特定された物体が写っている領域以外の領域に対して、輝度を低減する処理、ぼかし処理等を適用する。これにより、作業位置から所定範囲内に存在しない物体の視認性が低減される。
図1の作業支援装置101及び図3の作業支援装置301の構成は一例に過ぎず、作業支援装置の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図3の作業支援装置301において、点群情報321、空間モデル322、及び経路情報323が外部の装置によって生成される場合は、深度センサ314及び経路生成部315を省略することができる。
作業支援装置301がオンプレミスのサーバ又はクラウド上のサーバである場合、作業支援装置301は、作業者の端末装置から、位置情報324及び撮影画像325を受信して、表示用画像326を端末装置へ返信する。この場合、撮像装置312、位置センサ313、深度センサ314、及び表示部317を省略することができる。
図2、図10、及び図11のフローチャートは一例に過ぎず、作業支援装置の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図3の作業支援装置301において、点群情報321、空間モデル322、及び経路情報323が外部の装置によって生成される場合は、図10の経路生成処理を省略することができる。
作業支援装置301がサーバである場合、作業支援装置301は、図11のステップ1111において、作業者の端末装置から撮影画像325を受信し、ステップ1112において、端末装置から位置情報324を受信する。また、作業支援装置301は、ステップ1116において、表示用画像326を端末装置へ送信する。
図4の作業現場は一例に過ぎず、作業現場は、作業者が行う作業の種類に応じて変化する。図5の移動経路及び曲面、図6の空間モデル、及び図8の曲面は一例に過ぎず、移動経路、曲面、及び空間モデルは、作業現場に応じて変化する。図7及び図9の曲線生成処理は一例に過ぎず、経路生成部315は、別の曲線生成処理によって、移動経路に対応する曲線を生成してもよい。
図12は、図1の作業支援装置101及び図3の作業支援装置301として用いられる情報処理装置(コンピュータ)の構成例を示している。図12の情報処理装置は、CPU(Central Processing Unit)1201、メモリ1202、入力装置1203、出力装置1204、補助記憶装置1205、媒体駆動装置1206、及びネットワーク接続装置1207を含む。これらの構成要素はバス1208により互いに接続されている。
図3の撮像装置312、位置センサ313、及び深度センサ314は、バス1208に接続されている。
メモリ1202は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。メモリ1202は、図1の記憶部111又は図3の記憶部311として用いることができる。
CPU1201(プロセッサ)は、例えば、メモリ1202を利用してプログラムを実行することにより、図1の画像生成部112として動作する。CPU1201は、メモリ1202を利用してプログラムを実行することにより、図3の経路生成部315及び画像生成部316としても動作する。
入力装置1203は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置1204は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、表示用画像326であってもよい。出力装置1204は、図3の表示部317として用いることができる。
補助記憶装置1205は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1205は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置は、補助記憶装置1205にプログラム及びデータを格納しておき、それらをメモリ1202にロードして使用することができる。補助記憶装置1205は、図1の記憶部111又は図3の記憶部311として用いることができる。
媒体駆動装置1206は、可搬型記録媒体1209を駆動し、その記録内容にアクセスする。可搬型記録媒体1209は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1209は、CD-ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体1209にプログラム及びデータを格納しておき、それらをメモリ1202にロードして使用することができる。
このように、処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1202、補助記憶装置1205、又は可搬型記録媒体1209のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置1207は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1207を介して受信し、それらをメモリ1202にロードして使用することができる。
なお、情報処理装置が図12のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、可搬型記録媒体1209又は通信ネットワークを使用しない場合は、媒体駆動装置1206又はネットワーク接続装置1207を省略してもよい。作業支援装置301がサーバである場合は、入力装置1203及び出力装置1204を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図1乃至図12を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
複数の作業位置を結ぶ移動経路を示す経路情報と、前記移動経路上を移動する作業者の位置から観察される物体を撮影した撮影画像とを記憶する記憶部と、
前記作業者の位置を示す位置情報と前記経路情報とに基づいて、前記撮影画像から、前記作業者の位置から観察される物体のうち作業支援と関連しない物体の視認性を低減した表示用画像を生成する画像生成部と、
を備えることを特徴とする作業支援装置。
(付記2)
前記経路情報は、前記複数の作業位置を含む3次元空間を示す空間モデル内において、前記移動経路に対応する曲線を示し、
前記画像生成部は、前記空間モデル内において、前記曲線から所定距離だけ離れた位置に、前記曲線に沿って曲がる曲面を生成し、前記作業者の位置に対応する点から観察される前記曲面を前記撮影画像に重ね合わせることで、前記表示用画像を生成することを特徴とする付記1記載の作業支援装置。
(付記3)
前記空間モデル内において、前記複数の作業位置それぞれに対応する点を補間することで、前記曲線を生成し、前記曲線に基づいて前記経路情報を生成する経路生成部をさらに備えることを特徴とする付記2記載の作業支援装置。
(付記4)
前記経路生成部は、前記3次元空間を撮影した画像から、前記3次元空間内の複数の点に対応する点群を生成し、前記点群を用いて平面を生成し、前記空間モデル内において指定された複数の点を前記平面上に投影することで、前記複数の作業位置それぞれに対応する点を生成することを特徴とする付記3記載の作業支援装置。
(付記5)
前記表示用画像を画面上に表示する表示部をさらに備えることを特徴とする付記1乃至4のいずれか1項に記載の作業支援装置。
(付記6)
コンピュータによって実行される作業支援方法であって、
前記コンピュータが、
複数の作業位置を結ぶ移動経路上を移動する作業者の位置から観察される物体を撮影した撮影画像を取得し、
前記作業者の位置を示す位置情報と前記移動経路を示す経路情報とに基づいて、前記撮影画像から、前記作業者の位置から観察される物体のうち作業支援と関連しない物体の視認性を低減した表示用画像を生成する、
ことを特徴とする作業支援方法。
(付記7)
前記経路情報は、前記複数の作業位置を含む3次元空間を示す空間モデル内において、前記移動経路に対応する曲線を示し、
前記コンピュータは、前記空間モデル内において、前記曲線から所定距離だけ離れた位置に、前記曲線に沿って曲がる曲面を生成し、前記作業者の位置に対応する点から観察される前記曲面を前記撮影画像に重ね合わせることで、前記表示用画像を生成することを特徴とする付記6記載の作業支援方法。
(付記8)
前記コンピュータは、前記空間モデル内において、前記複数の作業位置それぞれに対応する点を補間することで、前記曲線を生成し、前記曲線に基づいて前記経路情報を生成することを特徴とする付記7記載の作業支援方法。
(付記9)
前記経路生成部は、前記3次元空間を撮影した画像から、前記3次元空間内の複数の点に対応する点群を生成し、前記点群を用いて平面を生成し、前記空間モデル内において指定された複数の点を前記平面上に投影することで、前記複数の作業位置それぞれに対応する点を生成することを特徴とする付記8記載の作業支援方法。
(付記10)
前記コンピュータは、前記表示用画像を画面上に表示することを特徴とする付記6乃至9のいずれか1項に記載の作業支援方法。
101、301 作業支援装置
111、311 記憶部
112、316 画像生成部
121、323 経路情報
122、325 撮影画像
312 撮像装置
313 位置センサ
314 深度センサ
315 経路生成部
317 表示部
321 点群情報
322 空間モデル
324 位置情報
326 表示用画像
401 床
402 ドア
403~406 サーバラック
407 物体
421、821 作業者
422 携帯端末装置
411、412 作業位置
501、502 移動経路
511、512、841、842 曲面
601、801 3次元座標系
611、812~814 直方体
612、811 平面
701、702、901、902、911、921、922 折れ線
711、712 点
713、822 スプライン曲線
831、832 曲線
912 円
1201 CPU
1202 メモリ
1203 入力装置
1204 出力装置
1205 補助記憶装置
1206 媒体駆動装置
1207 ネットワーク接続装置
1208 バス
1209 可搬型記録媒体

Claims (5)

  1. 複数の作業位置を結ぶ移動経路を示す経路情報と、前記移動経路上を移動する作業者の位置から観察される物体を撮影した撮影画像とを記憶する記憶部と、
    前記作業者の位置を示す位置情報と前記経路情報とに基づいて第1処理及び第2処理の少なくともいずれかの処理を行うことで、前記撮影画像から表示用画像を生成する画像生成部と、
    を備え
    前記第1処理は、前記複数の作業位置を含む3次元空間を示す空間モデル内において、前記移動経路に対応する曲線から所定距離だけ離れた位置に、前記曲線に沿って曲がる曲面を生成し、前記作業者の位置に対応する点から観察される前記曲面を前記撮影画像に重ね合わせる処理であり、
    前記第2処理は、前記撮影画像内で、前記作業者の位置から所定範囲内に存在する物体が写っている領域以外の領域に対して、輝度を低減する処理又はぼかし処理を適用する処理であることを特徴とする作業支援装置
  2. 前記空間モデル内において、前記複数の作業位置それぞれに対応する点を補間することで、前記曲線を生成し、前記曲線に基づいて前記経路情報を生成する経路生成部をさらに備えることを特徴とする請求項記載の作業支援装置。
  3. 前記経路生成部は、前記3次元空間を撮影した画像から、前記3次元空間内の複数の点に対応する点群を生成し、前記点群を用いて平面を生成し、前記空間モデル内において指定された複数の点を前記平面上に投影することで、前記複数の作業位置それぞれに対応する点を生成することを特徴とする請求項記載の作業支援装置。
  4. 前記表示用画像を画面上に表示する表示部をさらに備えることを特徴とする請求項1乃至のいずれか1項に記載の作業支援装置。
  5. コンピュータによって実行される作業支援方法であって、
    前記コンピュータが、
    複数の作業位置を結ぶ移動経路上を移動する作業者の位置から観察される物体を撮影した撮影画像を取得し、
    前記作業者の位置を示す位置情報と前記移動経路を示す経路情報とに基づいて第1処理及び第2処理の少なくともいずれかの処理を行うことで、前記撮影画像から表示用画像を生成
    前記第1処理は、前記複数の作業位置を含む3次元空間を示す空間モデル内において、前記移動経路に対応する曲線から所定距離だけ離れた位置に、前記曲線に沿って曲がる曲面を生成し、前記作業者の位置に対応する点から観察される前記曲面を前記撮影画像に重ね合わせる処理であり、
    前記第2処理は、前記撮影画像内で、前記作業者の位置から所定範囲内に存在する物体が写っている領域以外の領域に対して、輝度を低減する処理又はぼかし処理を適用する処理であることを特徴とする作業支援方法。
JP2019085238A 2019-04-26 2019-04-26 作業支援装置及び作業支援方法 Active JP7334460B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019085238A JP7334460B2 (ja) 2019-04-26 2019-04-26 作業支援装置及び作業支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019085238A JP7334460B2 (ja) 2019-04-26 2019-04-26 作業支援装置及び作業支援方法

Publications (2)

Publication Number Publication Date
JP2020181456A JP2020181456A (ja) 2020-11-05
JP7334460B2 true JP7334460B2 (ja) 2023-08-29

Family

ID=73024126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019085238A Active JP7334460B2 (ja) 2019-04-26 2019-04-26 作業支援装置及び作業支援方法

Country Status (1)

Country Link
JP (1) JP7334460B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116468206A (zh) * 2022-01-11 2023-07-21 大金工业株式会社 设备的维护方法、装置及系统
WO2024034130A1 (ja) * 2022-08-12 2024-02-15 三菱電機ビルソリューションズ株式会社 作業支援システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248860A (ja) 2010-04-28 2011-12-08 Ns Solutions Corp 情報処理システム、情報処理方法及びプログラム
WO2013080310A1 (ja) 2011-11-29 2013-06-06 パイオニア株式会社 画像制御装置
JP2016188123A (ja) 2015-03-30 2016-11-04 オークラ輸送機株式会社 ピッキングシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019053423A (ja) * 2017-09-13 2019-04-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248860A (ja) 2010-04-28 2011-12-08 Ns Solutions Corp 情報処理システム、情報処理方法及びプログラム
WO2013080310A1 (ja) 2011-11-29 2013-06-06 パイオニア株式会社 画像制御装置
JP2016188123A (ja) 2015-03-30 2016-11-04 オークラ輸送機株式会社 ピッキングシステム

Also Published As

Publication number Publication date
JP2020181456A (ja) 2020-11-05

Similar Documents

Publication Publication Date Title
CA3016539C (en) Image processing method, display device, and inspection system
US9760987B2 (en) Guiding method and information processing apparatus
US10482659B2 (en) System and method for superimposing spatially correlated data over live real-world images
JP5538667B2 (ja) 位置姿勢計測装置及びその制御方法
JP2020535509A (ja) イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム
US20150062123A1 (en) Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
KR20170007098A (ko) 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
TW201715476A (zh) 運用擴增實境技術之導航系統
US20140192055A1 (en) Method and apparatus for displaying video on 3d map
GB2593335A (en) Method and apparatus for 3-D auto tagging
KR101991094B1 (ko) 거리 측정 방법, 거리 측정 장치, 컴퓨터 프로그램 및 기록매체
JP7051616B2 (ja) 画像表示システムおよび方法
JP6768123B2 (ja) 拡張現実方法及び装置
JP7334460B2 (ja) 作業支援装置及び作業支援方法
JP2010128799A (ja) 複合メディア合成装置及び複合メディア表示システム及び複合メディア合成方法及び複合メディア合成プログラム
CN112465907A (zh) 一种室内视觉导航方法及系统
JP6110780B2 (ja) 付加情報表示システム
CN113496503B (zh) 点云数据的生成及实时显示方法、装置、设备及介质
WO2023088127A1 (zh) 室内导航方法、服务器、装置和终端
JP5530391B2 (ja) カメラポーズ推定装置、カメラポーズ推定方法及びカメラポーズ推定プログラム
KR101082545B1 (ko) 영상 변환 기능을 구비한 이동통신 단말기
JP5300609B2 (ja) 交差点案内情報作成装置
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
JP6405539B2 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
Hensel et al. Experimental setup for neural networks and camera-based navigation of mobile systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R150 Certificate of patent or registration of utility model

Ref document number: 7334460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150