JP6105180B1 - 作業支援装置、作業支援方法及びプログラム - Google Patents

作業支援装置、作業支援方法及びプログラム Download PDF

Info

Publication number
JP6105180B1
JP6105180B1 JP2016567707A JP2016567707A JP6105180B1 JP 6105180 B1 JP6105180 B1 JP 6105180B1 JP 2016567707 A JP2016567707 A JP 2016567707A JP 2016567707 A JP2016567707 A JP 2016567707A JP 6105180 B1 JP6105180 B1 JP 6105180B1
Authority
JP
Japan
Prior art keywords
work
support image
support
worker
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016567707A
Other languages
English (en)
Other versions
JPWO2017033539A1 (ja
Inventor
和佳 井上
和佳 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NS Solutions Corp
Original Assignee
NS Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NS Solutions Corp filed Critical NS Solutions Corp
Application granted granted Critical
Publication of JP6105180B1 publication Critical patent/JP6105180B1/ja
Publication of JPWO2017033539A1 publication Critical patent/JPWO2017033539A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • General Factory Administration (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

作業者が装着する光透過型の表示装置が、作業者による作業の支援画像候補を現実空間に重畳して表示した場合の、作業者による作業の成功又は失敗の作業結果を受け付ける受付手段と、作業に対する複数の支援画像候補それぞれと、各支援画像を表示した場合の作業結果と、を対応付けて記憶手段に記録する記録手段と、作業結果に基づいて、複数の支援画像候補の中から作業の支援画像として設定する支援画像候補を選択する選択手段とを有する。

Description

本発明は、作業支援装置、作業支援方法及びプログラムに関する。
近年、拡張現実(Augmented Reality、以下AR)技術を利用した作業支援技術が知られている。作業支援の技術として、特許文献1には、作業者が装着する装着型AR表示装置に、現実空間に重畳して、障害復旧作業に係る情報を表示する技術が開示されている。
特開2011−248860号公報
しかしながら、従来技術においては、AR表示装置に表示された、作業支援情報が実際の作業の支援にどの程度貢献しているのか不明であり、必ずしも適切な情報が表示されているとは限らないという問題があった。
本発明はこのような問題点に鑑みなされたもので、AR表示を利用した作業の更なる効率化を図ることを目的とする。
そこで、本発明は、作業支援装置であって、作業者が装着する光透過型の表示装置が、作業者による作業の支援画像候補を現実空間に重畳して表示した場合の、作業者による作業の成功又は失敗の作業結果を受け付ける受付手段と、前記作業に対する複数の支援画像候補それぞれと、各支援画像を表示した場合の前記作業結果と、を対応付けて記憶手段に記録する記録手段と、前記作業結果に基づいて、前記複数の支援画像候補の中から前記作業の支援画像とする支援画像候補を決定する決定手段とを有する。
本発明によれば、AR表示を利用した作業の更なる効率化を図ることができる。
図1は、作業支援システムを示す図である。 図2は、AR表示装置を示す図である。 図3は、管理装置を示す図である。 図4は、作業テーブルの一例を示す図である。 図5は、支援画像テーブルの一例を示す図である。 図6Aは、支援画像候補の説明図である。 図6Bは、支援画像候補の説明図である。 図7は、支援画像候補の説明図である。 図8Aは、支援画像候補の説明図である。 図8Bは、支援画像候補の説明図である。 図8Cは、支援画像候補の説明図である。 図9は、作業者テーブルの一例を示す図である。 図10は、作業者属性テーブルの一例を示す図である。 図11は、作業支援システムの処理を示すフローチャートである。 図12は、作業結果テーブルの一例を示す図である。 図13は、支援画像設定処理を示すフローチャートである。 図14は、支援画像候補の平均作業時間と成功率の一例を示す図である。 図15は、生体情報テーブルの一例を示す図である。 図16は、第2の変更例に係る支援画像設定処理を示すフローチャートである。 図17は、第4の変更例の説明図である。 図18は、第6の変更例の説明図である。
以下、本発明の実施形態について図面に基づいて説明する。
図1は、本実施形態に係る作業支援システムを示す図である。作業支援システムは、拡張現実(Augmented Reality、以下ARと称する)表示装置300と、作業支援装置としての管理装置310とを有している。AR表示装置300は、眼鏡型のデバイスである。本実施形態においては、工場において、作業者がAR表示装置300を装着して作業を行うものとする。作業としては、例えば、機器320の操作が挙げられる。
AR表示装置300はまた、光透過型の表示装置であり、眼鏡のレンズ部分に相当する位置には、光透過型の表示部305が設けられている。AR表示装置300を装着した作業者は、AR表示装置300の表示部305を介して、現実空間において、視線の先に存在する物体を見ることができる。さらに、表示部305には任意の画像が表示されるので、AR表示装置300を装着した作業者は、表示部305を通して見ている現実空間に、任意の画像が重畳された状態、即ち拡張現実空間(AR空間)を認識することができる。AR表示装置300は、現実空間に重畳して画像を表示可能な表示装置である。本実施形態に係るAR表示装置300は、作業者による作業時に、表示部305に作業を支援するための支援画像等を表示する。
さらに、表示部305に隣接する位置に撮影部307が設けられている。撮影部307は、撮影方向がAR表示装置300の装着者の視線方向と、撮影部307の撮影方向とが一致する関係になるように設置されているものとする。これにより、撮影部307は、AR表示装置300を装着する作業者が見ている現実空間の画像を撮影することができる。なお、他の例としては、撮影部307は、撮影方向と装着者の視線方向とが一定の関係になるように設置されていてもよい。
管理装置310は、AR表示装置300が表示する情報を管理する。AR表示装置300は、ネットワークを介して管理装置310と通信可能であるものとする。管理装置310は、例えば、支援画像を記憶しており、支援装置をAR表示装置300に送信する。管理装置310はまた、支援画像の候補となる支援画像候補を記憶しており、支援画像候補を表示した場合の作業者による作業の成功又は失敗の作業結果に基づいて、支援画像候補の中から支援画像を選択し、これを作業に対する支援画像として設定する。
図2は、AR表示装置300を示す図である。AR表示装置300は、CPU301と、ROM302と、RAM303と、通信I/F304と、表示部305と、マイク306と、撮影部307と、を有している。CPU301は、ROM302に記憶された制御プログラムを読み出して各種処理を実行する。RAM303は、CPU301の主メモリ、ワークエリア等の一時記憶領域として用いられる。なお、後述するAR表示装置300の機能や処理は、CPU301がROM302に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
通信I/F304は、ネットワークを介して、管理装置310との通信処理を行う。表示部305は、各種情報を表示する。マイク306は、AR表示装置300を装着した作業者の発話等の音声を入力する。なお、音声は、CPU301に送られ、CPU301において音声認識処理が行われる。CPU301は、音声認識の結果から、ユーザによる各種指示を受け付けることができる。撮影部307は、現実空間の撮影を行う。
図3は、管理装置310を示す図である。管理装置310は、コンピュータの一例であり、CPU311と、ROM312と、RAM313と、通信I/F314と、表示部315と、入力部316と、HDD317と、を有している。CPU311、ROM312、RAM313及び通信I/F314は、それぞれCPU301、ROM302、RAM303及び通信I/F304と同様である。表示部315は、各種情報を表示する。入力部316は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。HDD317は、データや各種プログラム等を記憶する。後述する管理装置310の機能や処理は、CPU311がROM312又はHDD317に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
次に、管理装置310がHDD317等の記憶部に記憶している情報について説明する。図4は、作業テーブル330の一例を示す図である。作業テーブル330は、作業IDと、作業内容と、を対応付けて記憶している。ここで、作業内容とは、作業者が行う作業の内容を示す情報である。図4に示す例においては、機器操作、完成品組立、中間品組立、二次加工、検査・点検、洗浄・清掃が作業内容として記録されている。なお、作業IDは、作業内容の識別情報である。なお、図4に示す機器操作Aは、図1に示す機器320に対する操作を示すものとする。
図5は、支援画像テーブル331の一例を示す図である。支援画像テーブル331は、作業IDと、候補IDと、支援画像候補とを対応付けて記憶している。ここで、支援画像候補とは、作業時にAR表示装置300の表示部305に表示させる支援画像の候補画像である。候補IDは、支援画像候補の識別情報である。図5の例において、作業ID「T01」に対し、複数の支援画像が対応付けられている。このように支援画像テーブル331は、1つの作業に対し、1又は複数の支援画像候補を対応付けて記憶している。ここで、支援画像候補は、1又は2以上の画像を含むものとする。また、本実施形態においては、支援画像候補は、静止画であるものとするが、他の例としては、支援画像候補は、動画やアニメーション画像であってもよい。本実施形態においては、支援画像候補「A」、「B」は、1つの画像のみを含むのに対し支援画像候補「C」は、複数の画像を含んでいるものとする。
ここで、支援画像候補について説明する。図6Aは、「A」の支援画像候補400の一例を示す図である。支援画像候補400は、機器320の操作を支援するための画像であり、作業者が機器320の前に立った際に、表示部305に表示される。図6Aに示す支援画像候補は、支援内容を示す画像401を含んでいる。図6Bは、図6Aに示す支援画像候補400が現実空間に存在する機器320上に重畳されたAR空間410を示す図である。作業者は、図6Bに示すようなAR空間410を把握することができるので、視線を操作対象の機器320から移動させることなく、表示部305に表示された内容を参考に、操作(作業)を行うことができる。
図7は、「B」の支援画像候補420の表示例を示す図である。なお、図7は、支援画像候補420が、現実空間に存在する機器320上に重畳された状態を示している。支援画像候補420は、機器320に対して行う3つの作業それぞれの支援内容を示す3つの画像421,422,423を含んでいる。各画像421,422,423は、それぞれ、操作対象物に近い位置に表示されている。
図8A、図8B及び図8Cは、それぞれ「C」の支援画像候補に含まれる3つの画像430,440,450を示す図である。作業内容「機器操作A」が3つの作業を含んでおり、これに対応して、「C」の支援画像候補は、各作業に対応する3つの画像430,440,450を含んでいる。図8Aに示す画像430は、1番目の作業内容を示す2つの画像431,432を含んでいる。図8Bに示す画像440は、2番目の作業内容を示す2つの画像441,442を含んでいる。図8Cに示す画像450は、3番目の作業内容を示す2つの画像451,452を含んでいる。
なお、AR表示装置300のCPU301は、操作時の画像(動画又は静止画)を撮影し、撮影画像に対するジェスチャ認識等の処理により、各作業の完了を検知するものとする。そして、CPU301は、作業完了を検知したタイミングで、表示部305の表示を画像430から画像440へ、画像440から画像450へと、切り替えて表示する。以上のように、各支援画像候補は、互いに異なる方法、表示内容で作業を支援するための画像情報である。
なお、作業テーブル330及び支援画像テーブル331は、例えば、管理装置310の設計時等に設計者等により設定登録されるものとする。また、作業テーブル330及び支援画像テーブル331のレコードは、CPU311が、管理者等の操作に従い、適宜追加、変更、削除が可能であるものとする。
図9は、作業者テーブル332の一例を示す図である。作業者テーブル332は、作業者IDと、作業者情報と、を対応付けて記憶している。作業者情報は、作業者に関する情報である。本実施形態においては、作業者情報は、生年月日と、性別と、国籍と、作業開始年と含んでいる。作業開始年は、各作業を開始した年を示す情報である。図9に示す例では、「A01」の作業者は、「T01」の作業を2014年に開始し、「T02」の作業を2013年に開始したことを示している。なお、作業者テーブル332は、例えば、管理装置310の設計時等に設計者等により設定登録されるものとする。また、作業者テーブル332のレコードは、管理者等の操作により、適宜追加、変更、削除が可能であるものとする。例えば、作業者が新たな作業に従事するようになったとする。この場合、CPU311は、管理者等の操作に従い、作業者テーブル332において、作業者の作業者IDに対応付けて、新たに従事するようになった作業の作業IDと作業開始年とを対応付けて作業者テーブル332に登録する。
図10は、作業者属性テーブル333の一例を示す図である。作業者属性テーブル333は、作業者属性コードと、作業者属性と、を対応付けて記憶している。ここで、作業者属性は、作業者を、作業者の特徴に応じて分類するための種別である。本実施形態においては、作業者属性は、年齢層、性別、国籍及び経験年数を含むものとするが、作業者属性の具体的な内容は実施形態に限定されるものではない。管理装置310は、作業者テーブル332に登録されている作業者情報と、作業者属性テーブル333に登録されている作業者属性とを比較することにより、各作業者がいずれの作業者属性に属するかを特定することができる。
なお、作業者属性テーブル333は、例えば管理装置310の設計時等に、CPU311による、設計者等の操作に従った処理により、設定登録されるものとする。また、作業者属性テーブル333のレコードは、CPU311により、管理者等の操作に従い、適宜追加、変更、削除が可能であるものとする。
図11は、作業支援システムの処理を示すフローチャートである。AR表示装置300を装着した作業者が作業を行う機器320に近付くと、AR表示装置300のCPU301は、撮影部307により撮影された撮影画像から、機器320に付与された二次元コードを認識する。ここで、二次元コードには、機器320において行われる作業内容の作業IDが示されている。S200において、AR表示装置300のCPU301は、二次元コードに対応する作業IDを受け付ける。次に、S201において、AR表示装置300のCPU301は、作業IDと、作業者IDとを対応付けて、管理装置310に送信する。なお、作業者IDは、予めAR表示装置300のROM302等に格納されているものとする。
なお、AR表示装置300が作業IDを受け付けるための処理は、実施形態に限定されるものではない。他の例としては、CPU301は、作業者による発話により入力された作業IDを受け付けてもよい。
次に、S202において、管理装置310のCPU311は、支援画像テーブル331を参照し、受信した作業IDに対応付けられている複数の支援画像候補を特定する。そして、CPU311は、特定した複数の支援画像候補の中から1つの支援画像候補を選択する。次に、S203において、管理装置310のCPU311は、S202において選択した支援画像候補をAR表示装置300に送信する。CPU311は、例えば、作業ID「T01」を受信した場合には、図5に示す支援画像テーブル331において、作業ID「T01」に対応付けられた支援画像候補「A」〜「C」を特定する。そして、CPU311は、支援画像候補「A」〜「C」の中から1つの支援画像候補を選択する。なお、いずれの支援画像候補を選択するかについては後に説明する。
次に、S204において、AR表示装置300のCPU301は、受信した支援画像候補を、現実空間に存在する機器320に重畳して表示する。具体的には、CPU301は、撮影部307により撮影された撮影画像から画像認識により、作業対象物の画像を抽出し、作業対象物(機器320)の画像の撮影画像中の位置を特定する。そして、CPU301は、撮影方向と視線方向の関係に基づいて、支援画像候補を機器320に重畳して表示する。
次に、S205において、AR表示装置300のCPU301は、作業開始日時を特定する。より具体的には、CPU301は、作業者による「作業開始」等の作業開始を意味する予め定められた発話がマイク306に入力された場合に、この発話の入力タイミングを作業開始日時として特定する。次に、S206において、AR表示装置300のCPU301は、作業終了日時を特定する。より具体的には、CPU301は、作業者による「作業終了」等の作業終了を意味する予め定められた発話がマイク306に入力された場合に、この発話の入力タイミングを作業終了日時として特定する。
次に、S207において、AR表示装置300のCPU301は、作業者から入力された作業結果を受け付ける。ここで、作業結果は、作業の成功又は失敗を示す情報である。作業者は、作業が正常に完了した場合には、作業成功を入力し、作業が完了しなかった場合、誤った作業を行った場合等、作業が正常に完了しなかった場合には、作業失敗を入力するものとする。次に、S208において、AR表示装置300のCPU301は、作業情報を管理装置310に送信する。ここで、作業情報は、作業開始日時、作業終了日時及び作業結果を含むものとする。これに対応し、管理装置310のCPU311は、作業情報を受信する。すなわち、S208の処理は、作業結果を受け付ける受付処理の一例である。次に、S209において、管理装置310のCPU311は、作業結果を、作業IDに対応付けて作業結果テーブルに記録する。
なお、管理装置310は、作業情報をAR表示装置300以外の装置から受信してもよい。例えば、作業対象の機器320が作業開始日時及び作業終了日時を検知可能な場合には、管理装置310は、作業対象の機器320から作業開始日時及び作業終了日時を受信してもよい。また、作業者が作業対象の機器320に作業結果を入力し、管理装置310は、機器320から作業結果を受信してもよい。また、他の例としては、作業を統括する統括者が、PC等の装置に結果を入力し、管理装置310は、PC等の装置から作業結果を、作業開始又は作業終了時間に対応付けて受信してもよい。
図12は、作業結果テーブル334の一例を示す図である。作業結果テーブル334は、作業IDと、候補IDと、作業開始日時と、作業終了日時と、作業時間と、作業者属性コードと、作業結果と、を対応付けて記憶している。S209において、CPU301は、S201において受信した作業IDに対応付けて、候補ID、作業開始日時、作業終了日時、作業時間、作業者属性コード及び作業結果を記録する。すなわち、CPU301は、S202において特定した支援画像候補の候補IDを記録する。また、CPU301は、S208において受信した作業情報に含まれる、作業開始日時、作業終了日時及び作業結果を記録する。また、CPU301は、S201において受信した作業者IDに対応する作業者情報(図9)から作業者属性テーブル333を参照して、作業者属性IDを特定し、特定した作業者属性IDを記録する。また、CPU301は、作業開始日時と作業終了日時から作業時間を求め、求めた作業時間を記録する。
作業支援システムは、1又は2以上の作業者が機器320に対し、作業ID「T01」により特定される「機器操作A」の作業を行う度に、図11に示す処理を行う。これにより、図12に示すように、複数の支援画像それぞれに対応付けて、作業結果等の情報を記録することができる。
なお、管理装置310は、支援画像テーブルに記録されている各支援画像候補に対する作業結果を記録するために、例えば以下のような処理を行う。すなわち、管理装置310のCPU311は、例えば、任意の日を開始日として、S202において、1週目は支援画像候補「A」、2週目は支援画像候補「B」、3週目は支援画像候補「C」を選択するように設定しておくこととする。これにより、3週が経過した時点において、各支援画像候補に対する、1週間分の作業結果が記録された作業結果テーブルを得ることができる。ここで、S209の処理は、複数の支援画像候補それぞれと、各支援画像候補を表示した場合の作業結果と、を対応付けて記憶部に記録する記録処理の一例である。
なお、図12には、作業ID「T01」で識別される作業内容「機器操作A」に対する作業結果のみを示したが、他の作業が行われた場合には、作業結果テーブル334には、他の作業内容に対する作業結果についても同様に記録される。
図13は、管理装置310による支援画像設定処理を示すフローチャートである。管理装置310は、図11に示す処理において、作業結果テーブル334に作業結果が記録された後に、S210において、管理者等から解析指示の入力を受け付ける。次に、S310のCPU311は、作業結果を解析する解析処理として、S211,S212の処理を行う。すなわち、S211において、管理装置310のCPU311は、作業結果テーブル334に記録されている情報に基づいて、支援画像候補ごとの成功率を特定する(成功率特定処理)。ここで、成功率とは、支援画像候補を表示して行われた作業の総数に対する、支援画像候補を表示した場合の作業結果が成功であった作業の数の割合である。管理装置310のCPU311は、より具体的には、各候補IDに対応付けられているレコードの総数に対する、作業結果が成功の作業結果のレコードの数を成功率として算出する。
次に、S212において、管理装置310のCPU311は、作業結果テーブル334において、各候補IDに対応付けられている作業時間に基づいて、支援画像候補ごとの平均作業時間を算出する。図14は、作業ID「T01」の作業内容「機器操作A」に対応付けられている3つの支援画像候補(候補ID「I01」、「I02」、「I03」)それぞれに対して算出された、平均作業時間及び成功率の一例を示す図である。
次に、S213において、管理装置310のCPU311は、平均作業時間と成功率を参照し、1つの作業に対応付けられている複数の支援画像候補の中から、作業に対する支援画像として設定する支援画像候補を決定する(決定処理)。より具体的には、CPU311は、平均作業時間が短く、かつ高い成功率が得られた支援画像候補を、支援画像として決定するものとする。なお、CPU311は、作業結果及び作業時間に基づいて、支援画像を決定すればよく、そのための処理は実施形態に限定されるものではない。さらに、CPU311は、作業結果のみに基づいて、支援画像を決定してもよい。
S213において、CPU311は、さらに支援画像として決定した支援画像候補の候補IDを作業IDに対応付けて記録する。以上で支援画像設定処理が完了する。その後、管理装置310のCPU311は、AR表示装置300から作業IDを受信すると、作業IDに対応付けて記録された支援画像をAR表示装置300に送信する(送信処理)。これにより、AR表示装置300は、作業者による作業時に、作業に対して設定された適切な支援画像を表示することができる。
以上のように、本実施形態においては、AR表示装置300を装着した作業者に作業を行わせることとし、AR表示装置300は、作業時に支援画像候補を現実空間に重畳して表示する。そして、管理装置310は、作業画像候補を表示した場合の、作業結果に基づいて、適切な支援画像を作業に対して設定することができる。これにより、作業者は、適切な支援画像を見ながら、作業を行うことができるようになる。すなわち、本実施形態に係る作業支援システムは、AR表示を利用した作業の更なる効率化を図ることができる。
本実施形態の第1の変更例としては、管理装置310は、作業者の生体情報に基づいて、作業者の体調不良時の作業結果を除外した上で、解析処理(図13の成功率算出処理(S211)及び平均作業時間の算出(S212))を行うこととしてもよい。より具体的には、作業者は、AR表示装置300と共に、生体情報を検出する検出器(不図示)をさらに装着するものとする。本例においては、生体情報は、装着者の脈拍、最高血圧、最低血圧及び体温を含むものとするが、これらに限定されるものではない。
そして、管理装置310のCPU311は、検出器から、定期的に作業者IDと、検出日時と、装着者の生体情報を受信し、生体情報テーブル336に記録する。図15は、生体情報テーブル336の一例を示す図である。生体情報テーブル336は、作業者IDと、検知日時と、生体情報と、を対応付けて記憶している。また、管理装置310のHDD317等の記憶部には、生体情報に含まれる各値(脈拍、最高血圧、最低血圧及び体温)の正常範囲が予め設定されているものとする。管理装置310のCPU311は、正常範囲外の値を示す生体情報が得られた検知日時を特定する。そして、CPU311は、作業結果テーブル334を参照し、正常範囲外の値を示す生体情報が得られた検知日時を作業時間帯に含むレコードを除外レコードとして特定する。そして、管理装置310のCPU311は、S211及びS212において、除外レコード以外のレコードを処理対象として、成功率及び平均作業時間を算出する。
第2の変更例としては、管理装置310は、解析結果を表示部315に表示してもよい。さらに、管理装置310は、解析結果を確認したユーザからの入力に従い、作業の支援画像を設定してもよい。図16は、第2の変更例に係る管理装置310による支援画像設定処理を示すフローチャートである。なお、図16において、図13に示す処理と同じ処理には、同じ番号を付している。本例においては、管理装置310のCPU311は、S212の処理の後、処理をS220へ進める。S220において、管理装置310のCPU311は、解析結果を表示する(表示処理)。すなわち、CPU311は、候補IDと、平均作業時間と、成功率と、を対応付けて表示部315に表示する。次に、S221において、管理装置310のCPU311は、ユーザから支援画像候補の選択指示を受け付ける(受付処理)。次に、S222において、管理装置310のCPU311は、選択指示に係る支援画像候補を、作業の支援画像として設定する(設定処理)。
第3の変更例としては、管理装置310は、支援画像候補の中から選択され、設定された支援画像に対しても、S209の処理と同様に、作業結果を記録してもよい。そして、管理装置310は、支援画像に対する作業結果に対して、図16に示す、S210〜S212、S220の処理を実行し、解析結果を表示する。そして、管理装置310は、ユーザから支援画像に対する編集指示を受け付けると(受付処理)、編集指示に従い、支援画像を編集する(編集処理)。編集処理としては、例えば、支援画像中に示される作業を案内するテキストの文章を変更する処理や、支援画像中に示されるテキスト等の表示位置を変更する処理等が挙げられる。
第4の変更例としては、管理装置310は、作業結果テーブル334に含まれる作業時間帯、作業者属性コード等の作業属性ごとの作業結果に関する解析処理を行ってもよい。例えば、管理装置310のCPU311は、図17に示すように、時間帯ごとの成功率を算出してもよい。また、他の例としては、管理装置310のCPU311は、作業者属性コードごとの成功率を算出してもよい。さらに、CPU311は、これらの解析結果を表示部315に表示してもよい。
第5の変更例としては、AR表示装置300は、光学透過型の表示装置に限定されるものではない。他の例としては、ビデオ透過型の表示装置であってもよい。この場合、AR表示装置300のCPU301は、図11に示すAR表示処理(S204)において、撮影部307を制御して検査対象物の画像を撮影し、撮影画像としての、現実空間の映像を表示部305に表示する。そして、AR表示装置300のCPU301は、表示部305に表示中の、現実空間の検査対象物の映像に重畳して、支援画像候補を表示するものとする。また、AR表示装置300は、支援画像の表示時も同様に、撮影画像としての現実空間の映像に重畳して、支援画像を表示する。
また、第6の変更例としては、AR表示装置300は、作業結果に関する情報(作業時間、作業成否、歩留など)や解析結果(成功率、平均作業時間、平均歩留など)を画面に表示させるだけでなく、図18に示すように、帳票に出力したり、作業管理者等にメールで自動送信したりしてもよい。
これにより、作業の管理者は、これらの結果等を参照し、ARによる作業指示として適切な作業指示がどのようなものかを分析することができる。例えば、成功率の高い作業指示や作業時間が短い作業指示は、作業者にとって作業が行い易い作業指示であると判断できる。そして、作業管理者は、この分析に基づいて、ARによる作業指示の内容を見直すべきものをピックアップすることもできる。これにより、作業指示を適切に改善することができるようになるため、作業者の作業精度の向上につながる。
また、管理装置310のCPU311は、作業結果テーブルの作業属性コードに基づいて、作業者属性テーブルを参照することにより、作業者の属性ごとの作業結果について解析することができる。作業管理者は、作業者属性ごとの解析結果に基づいて、作業者属性ごとの分析を行うこともできる。
例えば、全ての作業者についての解析結果では、作業支援画像として、C(動作単位)がよい場合であっても、一定以上の作業経験年数を有するベテランの作業者についてのみ見た場合には、作業支援画像として、A(一括)のほうがよい結果の可能性もある。この結果に基づいて、作業経験年数ごとに作業支援画像を設定できる構成としてもよい。
以上、上述した各実施形態によれば、AR表示を利用した作業の更なる効率化を図ることができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。

Claims (17)

  1. 作業者が装着する光透過型の表示装置が、作業者による作業の支援画像候補を現実空間に重畳して表示した場合の、作業者による作業の成功又は失敗の作業結果を受け付ける受付手段と、
    前記作業に対する複数の支援画像候補それぞれと、各支援画像を表示した場合の前記作業結果と、を対応付けて記憶手段に記録する記録手段と、
    前記作業結果に基づいて、前記複数の支援画像候補の中から前記作業の支援画像とする支援画像候補を決定する決定手段と
    を有する作業支援装置。
  2. 前記作業結果に基づいて、前記支援画像候補ごとの作業の成功率を特定する特定手段をさらに有し、
    前記決定手段は、前記成功率に基づいて、前記支援画像候補を決定する請求項1に記載の作業支援装置。
  3. 前記記録手段は、前記支援画像候補に対応付けて、前記支援画像候補を表示した場合に作業に要した作業時間をさらに記録し、
    前記決定手段は、前記作業時間及び前記成功率に基づいて、前記支援画像候補を決定する請求項2に記載の作業支援装置。
  4. 前記決定手段により決定された前記支援画像を前記表示装置に送信する送信手段をさらに有する請求項1乃至3何れか1項に記載の作業支援装置。
  5. 作業者が装着する光透過型の表示装置が、作業者による作業の支援画像候補を現実空間に重畳して表示した場合の、作業者による作業の成功又は失敗の作業結果を受け付ける受付手段と、
    前記作業に対する複数の支援画像候補それぞれと、各支援画像候補を表示した場合の前記作業結果と、を記憶手段に記録する記録手段と、
    前記支援画像候補ごとの前記作業結果を解析する解析手段と、
    前記解析手段による解析結果を表示する表示手段と、
    を有する作業支援装置。
  6. 前記表示手段の表示に対応し、前記支援画像の選択指示を受け付ける受付手段と、
    前記選択指示に係る前記支援画像候補を、前記作業の支援画像として決定する決定手段と
    をさらに有する請求項5に記載の作業支援装置。
  7. 作業者が装着する光透過型の表示装置が、作業者による作業の支援画像を現実空間に重畳して表示した場合の、作業者による作業の成功又は失敗の作業結果を受け付ける受付手段と、
    作業属性と、前記作業結果と、を対応付けて記憶手段に記録する記録手段と、
    前記作業属性ごとの前記作業結果を解析する解析手段と、
    前記解析手段による解析結果を表示する表示手段と
    を有する作業支援装置。
  8. 前記表示手段の表示に対応し、前記支援画像の編集指示を受け付ける受付手段と、
    前記編集指示に従い、前記支援画像を編集する編集手段と
    をさらに有する請求項7に記載の作業支援装置。
  9. 作業者が装着する、現実空間の撮影画像に、他の画像を重畳して表示可能な表示装置が、作業者による作業の支援画像候補を現実空間の撮影画像に重畳して表示した場合の、作業者による作業の成功又は失敗の作業結果を受け付ける受付手段と、
    前記作業に対する複数の支援画像候補それぞれと、各支援画像を表示した場合の前記作業結果と、を対応付けて記憶手段に記録する記録手段と、
    前記作業結果に基づいて、前記複数の支援画像候補の中から前記作業の支援画像とする支援画像候補を決定する決定手段と
    を有する作業支援装置。
  10. 作業者が装着する、現実空間の撮影画像に、他の画像を重畳して表示可能な表示装置が、作業者による作業の支援画像候補を現実空間の撮影画像に重畳して表示した場合の、作業者による作業結果に関する情報を、前記作業に対する複数の支援画像候補それぞれを特定する情報と関連付けて記憶手段に記録する記録手段と、
    前記支援画像候補ごとの前記作業結果を解析する解析手段と、
    前記解析手段による解析結果を出力する出力手段と
    を有する作業支援装置。
  11. 作業者が装着する、現実空間の撮影画像に、他の画像を重畳して表示可能な表示装置が、作業者による作業の支援画像を現実空間の撮影画像に重畳して表示した場合の、作業者による作業の成功又は失敗の作業結果を受け付ける受付手段と、
    作業属性と、前記作業結果と、を対応付けて記憶手段に記録する記録手段と、
    前記作業属性ごとの前記作業結果を解析する解析手段と、
    前記解析手段による解析結果を表示する表示手段と
    を有する作業支援装置。
  12. 作業支援装置が実行する作業支援方法であって、
    作業者が装着する光透過型の表示装置が、作業者による作業の支援画像候補を現実空間に重畳して表示した場合の、作業者による作業の成功又は失敗の作業結果を受け付ける受付ステップと、
    前記作業に対する複数の支援画像候補それぞれと、各支援画像を表示した場合の前記作業結果と、を対応付けて記憶手段に記録する記録ステップと、
    前記作業結果に基づいて、前記複数の支援画像候補の中から前記作業の支援画像とする支援画像候補を決定する決定ステップと
    を含む作業支援方法。
  13. 作業支援装置が実行する作業支援方法であって、
    作業者が装着する、現実空間の撮影画像に、他の画像を重畳して表示可能な表示装置が、作業者による作業の支援画像候補を現実空間の撮影画像に重畳して表示した場合の、作業者による作業結果に関する情報を、前記作業に対する複数の支援画像候補それぞれを特定する情報と関連付けて記憶手段に記録する記録ステップと、
    前記支援画像候補ごとの前記作業結果を解析する解析ステップと、
    前記解析ステップによる解析結果を出力する出力ステップと
    を含む作業支援方法。
  14. 作業支援装置が実行する作業支援方法であって、
    作業者が装着する光透過型の表示装置が、作業者による作業の支援画像を現実空間に重畳して表示した場合の、作業者による作業の成功又は失敗の作業結果を受け付ける受付ステップと、
    作業属性と、前記作業結果と、を対応付けて記憶手段に記録する記録ステップと、
    前記作業属性ごとの前記作業結果を解析する解析ステップと、
    前記解析ステップで得られた解析結果を表示する表示ステップと
    を含む作業支援方法。
  15. コンピュータを、
    作業者が装着する光透過型の表示装置が、作業者による作業の支援画像候補を現実空間に重畳して表示した場合の、作業者による作業の成功又は失敗の作業結果を受け付ける受付手段と、
    前記作業に対する複数の支援画像候補それぞれと、各支援画像を表示した場合の前記作業結果と、を対応付けて記憶手段に記録する記録手段と、
    前記作業結果に基づいて、前記複数の支援画像候補の中から前記作業の支援画像とする支援画像候補を決定する決定手段と
    して機能させるためのプログラム。
  16. コンピュータを、
    作業者が装着する、現実空間の撮影画像に、他の画像を重畳して表示可能な表示装置が、作業者による作業の支援画像候補を現実空間の撮影画像に重畳して表示した場合の、作業者による作業結果に関する情報を、前記作業に対する複数の支援画像候補それぞれを特定する情報と関連付けて記憶手段に記録する記録と、
    前記支援画像候補ごとの前記作業結果を解析する解析手段と、
    前記解析手段による解析結果を出力する出力手段と
    して機能させるためのプログラム。
  17. コンピュータを、
    作業者が装着する光透過型の表示装置が、作業者による作業の支援画像を現実空間に重畳して表示した場合の、作業者による作業の成功又は失敗の作業結果を受け付ける受付手段と、
    作業属性と、前記作業結果と、を対応付けて記憶手段に記録する記録手段と、
    前記作業属性ごとの前記作業結果を解析する解析手段と、
    前記解析手段による解析結果を表示する表示手段と
    して機能させるためのプログラム。
JP2016567707A 2015-08-25 2016-06-16 作業支援装置、作業支援方法及びプログラム Active JP6105180B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015166259 2015-08-25
JP2015166259 2015-08-25
PCT/JP2016/067866 WO2017033539A1 (ja) 2015-08-25 2016-06-16 作業支援装置、作業支援方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6105180B1 true JP6105180B1 (ja) 2017-03-29
JPWO2017033539A1 JPWO2017033539A1 (ja) 2017-08-24

Family

ID=58099872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016567707A Active JP6105180B1 (ja) 2015-08-25 2016-06-16 作業支援装置、作業支援方法及びプログラム

Country Status (5)

Country Link
US (1) US10311617B2 (ja)
JP (1) JP6105180B1 (ja)
CN (1) CN107924585B (ja)
MY (1) MY190808A (ja)
WO (1) WO2017033539A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018194914A (ja) * 2017-05-12 2018-12-06 富士電機株式会社 システム、方法、及びプログラム
JP7106851B2 (ja) * 2017-12-12 2022-07-27 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP6856590B2 (ja) * 2018-08-31 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム
US11294472B2 (en) * 2019-01-11 2022-04-05 Microsoft Technology Licensing, Llc Augmented two-stage hand gesture input
JP2020149142A (ja) * 2019-03-11 2020-09-17 株式会社Nttファシリティーズ 作業支援システム、作業支援方法、及びプログラム
JP7078568B2 (ja) * 2019-03-19 2022-05-31 株式会社日立製作所 表示装置、表示制御方法、及び表示システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248860A (ja) * 2010-04-28 2011-12-08 Ns Solutions Corp 情報処理システム、情報処理方法及びプログラム
JP2012198644A (ja) * 2011-03-18 2012-10-18 Fujitsu Ltd 作業支援装置、および作業支援プログラム
JP2012234406A (ja) * 2011-05-02 2012-11-29 Kawasaki Heavy Ind Ltd 作業支援装置および作業支援方法
JP2014119786A (ja) * 2012-12-13 2014-06-30 Seiko Epson Corp 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、作業支援システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004184095A (ja) * 2002-11-29 2004-07-02 Mitsubishi Heavy Ind Ltd 検査支援装置
JP5355110B2 (ja) * 2009-01-27 2013-11-27 キヤノン株式会社 診断支援装置及び診断支援方法
JP5099182B2 (ja) * 2010-06-24 2012-12-12 日本電気株式会社 確認業務支援システム、サーバ装置、ヘッドマウントディスプレイ装置、ウェアラブル端末、確認業務支援方法およびプログラム
JP5445480B2 (ja) * 2011-01-31 2014-03-19 ブラザー工業株式会社 印刷装置
JP5722127B2 (ja) * 2011-06-07 2015-05-20 株式会社小松製作所 作業車両の周辺監視装置
JP5787099B2 (ja) * 2012-11-06 2015-09-30 コニカミノルタ株式会社 案内情報表示装置
US9448407B2 (en) 2012-12-13 2016-09-20 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and work supporting system
KR101354133B1 (ko) * 2013-12-12 2014-02-05 한라아이엠에스 주식회사 증강현실을 이용한 원격관리형 선박평형수 처리장치
JP6582626B2 (ja) * 2015-07-02 2019-10-02 富士通株式会社 送信制御方法、表示端末および送信制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248860A (ja) * 2010-04-28 2011-12-08 Ns Solutions Corp 情報処理システム、情報処理方法及びプログラム
JP2012198644A (ja) * 2011-03-18 2012-10-18 Fujitsu Ltd 作業支援装置、および作業支援プログラム
JP2012234406A (ja) * 2011-05-02 2012-11-29 Kawasaki Heavy Ind Ltd 作業支援装置および作業支援方法
JP2014119786A (ja) * 2012-12-13 2014-06-30 Seiko Epson Corp 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、作業支援システム

Also Published As

Publication number Publication date
MY190808A (en) 2022-05-12
WO2017033539A1 (ja) 2017-03-02
US20190012819A1 (en) 2019-01-10
US10311617B2 (en) 2019-06-04
JPWO2017033539A1 (ja) 2017-08-24
CN107924585A (zh) 2018-04-17
CN107924585B (zh) 2021-03-09

Similar Documents

Publication Publication Date Title
JP6105180B1 (ja) 作業支援装置、作業支援方法及びプログラム
JP6279131B2 (ja) 表示システム及び情報処理方法
JP6780767B2 (ja) 点検支援装置、点検支援方法およびプログラム
US20200296332A1 (en) System and method of video capture and search optimization
JP2021114700A (ja) 作業支援システム及び作業支援方法
US20160239712A1 (en) Information processing system
CN108364653B (zh) 语音数据处理方法及处理装置
JP2017162103A (ja) 点検作業支援システム、点検作業支援方法、点検作業支援プログラム
JP5954771B2 (ja) 医用情報処理システム及び医用情報処理装置
JP6710555B2 (ja) 画像表示システム、情報処理装置、画像表示方法及びコンピュータプログラム
JP6618349B2 (ja) 映像検索システム
WO2018158815A1 (ja) 点検支援装置、点検支援方法および記録媒体
JP2021043860A (ja) 調査支援端末および管理装置
US9767347B2 (en) Analysis processing system
JP2016218766A (ja) 情報処理装置及び情報処理プログラム
JP2020087091A (ja) 熟練度判定システム
JP7496226B2 (ja) 点検支援システム、点検支援装置及び点検支援方法
US10541006B2 (en) Information processor, information processing method, and program
JP7094759B2 (ja) システム、情報処理方法及びプログラム
JP2014042170A (ja) 撮影システム、撮影支援方法、撮影装置及びその制御方法、管理装置及びその制御方法、並びにプログラム
JP6283587B2 (ja) 確認装置及びプログラム
JP7327548B2 (ja) 点検支援装置、点検支援方法およびプログラム
JP2022085730A (ja) マッチングシステム、眼鏡型デバイス、マッチングサーバ及びプログラム

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170301

R150 Certificate of patent or registration of utility model

Ref document number: 6105180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250