JP7270154B2 - 遠隔作業支援システム - Google Patents

遠隔作業支援システム Download PDF

Info

Publication number
JP7270154B2
JP7270154B2 JP2020165496A JP2020165496A JP7270154B2 JP 7270154 B2 JP7270154 B2 JP 7270154B2 JP 2020165496 A JP2020165496 A JP 2020165496A JP 2020165496 A JP2020165496 A JP 2020165496A JP 7270154 B2 JP7270154 B2 JP 7270154B2
Authority
JP
Japan
Prior art keywords
supporter
worker
support system
work support
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020165496A
Other languages
English (en)
Other versions
JP2021083079A (ja
Inventor
悠子 黒田
アシシュ ブシィ
芳尚 稲葉
太郎 片岡
真人 藤野
雄一郎 竹▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fairy Devices Inc
Original Assignee
Fairy Devices Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fairy Devices Inc filed Critical Fairy Devices Inc
Publication of JP2021083079A publication Critical patent/JP2021083079A/ja
Priority to JP2022115125A priority Critical patent/JP2022145707A/ja
Application granted granted Critical
Publication of JP7270154B2 publication Critical patent/JP7270154B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/24Pc safety
    • G05B2219/24019Computer assisted maintenance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32226Computer assisted repair, maintenance of system components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • H04M11/10Telephonic communication systems specially adapted for combination with other electrical systems with dictation recording and playback systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/05Aspects of automatic or semi-automatic exchanges related to OAM&P
    • H04M2203/053Aspects of automatic or semi-automatic exchanges related to OAM&P remote terminal provisioning, e.g. of applets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/10Aspects of automatic or semi-automatic exchanges related to the purpose or context of the telephonic communication
    • H04M2203/1016Telecontrol

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Lifting Devices For Agricultural Implements (AREA)
  • Selective Calling Equipment (AREA)
  • Jib Cranes (AREA)

Description

作業現場にいる作業者を、遠隔地にいる支援者が支援するための遠隔作業支援システムに関する。
作業者にカメラ端末を装備させ、支援者が遠隔地から、カメラ端末を操作して、作業者を支援する遠隔作業支援システムが知られている。特許文献1(特開2018-207420号公報)は、作業者に表示デバイスが無くても、音声でのコミュニケーションで、作業対象物を確認することができる、作業支援システムを開示している。
ウエアラブルデバイスも様々なタイプが考案されている。めがね型デバイスではめがねのレンズに相当する部分またはその付近に情報を表示できる。作業者支援にめがね型デバイスを用いた場合に、支援者から送信された画像等をめがねレンズに表示すると、作業者の視界が狭くなり、作業の能率が低下し、危険が発生する事態も起こりうる。しかし、逆にディスプレイの無い作業者端末(ウエアラブルデバイス)では、支援者から送信する画像を作業者が確認することができないというジレンマがある。
第1観点の遠隔作業支援システムは、ウエアラブルデバイスと、携帯端末と、支援者端末とを備えている。ウエアラブルデバイスは、現場作業者に装着される。ウエアラブルデバイスは、撮像部と、音声入力部と、音声出力部とを有する。ウエアラブルデバイスは、画像を送信し、音声を送受信する。携帯端末は、ウエアラブルデバイスとは別に現場作業者に携帯される。携帯端末は、受信した画像を表示する表示部を有する。支援者端末は、現場作業者を遠隔支援する支援者により利用される。支援者端末は、音声入力部と、音声出力部と、表示部と、を有する。支援者端末は、ウエアラブルデバイスと音声を送受信し、ウエアラブルデバイスからの画像を受信し、携帯端末へ画像を送信する。
第1観点の遠隔作業支援システムにおいては、ウエアラブルデバイスはディスプレイを備えておらず、現場作業者は十分な視野を確保することができ、安全に作業をすることができる。一方、必要になったときには、携帯端末に画像を表示することができるので、遠隔支援者からの指示内容を表示部の画面で見ることもできる。
第2観点の遠隔作業支援システムは、第1観点のシステムであって、ウエアラブルデバイスは、首掛け式のデバイスである。
第2観点の遠隔作業支援システムにおいては、ウエアラブルデバイスは首掛け式のデバイスであるので、現場作業者はハンズフリーで作業することができる上に、視野の邪魔になることは無く効率的に作業できる。
第3観点の遠隔作業支援システムは、第1観点又は第2観点のシステムであって、支援者端末の表示部は、ウエアラブルデバイスの撮像部で撮影した動画および静止画を表示する。
第4観点の遠隔作業支援システムは、第1観点から第3観点のいずれかのシステムであって、ウエアラブルデバイスの撮像部で撮影された画像が、支援者端末において、選択、加工、または、情報付加されて携帯端末に送信され、携帯端末の表示部に表示される。
第4観点の遠隔作業支援システムの利用によって、現場作業者は、特に意識して撮像しなくても、現場の画像を加工し、情報付加された画像を利用してサポートを受けられるので、作業の効率を高められる。
第5観点の遠隔作業支援システムは、第1観点から第4観点のいずれかのシステムであって、現場作業者および支援者の発話は、音声認識され、テキスト情報として、支援者端末の表示部に表示される。
第5観点の遠隔作業支援システムにおいては、支援者は、現場作業者との通話をテキスト情報で確認しながら支援を行うことができるので、メモを取る必要もなく、効率的な作業が可能となる。
第6観点の遠隔作業支援システムは、第5観点のシステムであって、テキスト情報は、さらに、携帯端末の表示部に表示される、
る。
第6観点の遠隔作業支援システムにおいては、現場作業者は、支援者との通話をテキストで確認することができる。
第7観点の遠隔作業支援システムは、第1観点から第6観点のいずれかのシステムであって、第1回線と第2回線とを有する。第1回線は、支援者端末とウエアラブルデバイスとを結ぶ。第2回線は、支援者端末と携帯端末を結ぶ。第1回線は、現場作業者による作業の間、連続して用いられる。第2回線は、現場作業者による作業の間、必要に応じて接続される。
第7観点の遠隔作業支援システムは、第1回線と第2回線を使い分け、必要なときだけ第2回線を用いるので、現場作業者は、必要なときだけ第2回線を使えばよいので、無駄に携帯端末を操作する必要がない。
第8観点の遠隔作業支援システムは、第1観点から第7観点のいずれかのシステムであって、現場作業者による作業の作業進捗を、撮像部で撮像された画像、または/および、現場作業者および支援者の発話から自動抽出する。自動抽出した画像、発話から作業の進捗状況または作業の終了時間を推定する。推定した進捗状況または終了時間を支援者端末の表示部に表示する。
第8観点の遠隔作業支援システムは、支援者は、作業の進捗状況をモニターすることができる。
第9観点の遠隔作業支援システムは、第1観点から第8観点のいずれかのシステムであって、支援者端末は、現場作業支援情報を記憶するデータベースにアクセスし、現場作業支援情報を抽出、加工して、携帯端末に送信する。
第9観点の遠隔作業支援システムの利用によって、現場作業者は、現場作業支援情報を抽出、加工したものを受け取るので、効率的に作業を進めることができる。
第10観点の遠隔作業支援システムは、第1観点から第9観点のいずれかのシステムであって、支援者端末より現場作業者への支援は、音声による支援、加工された画像による支援、支援者端末に置いて入力されたテキストによる支援、支援者の発話がテキスト化された文字による支援、のいずれか、またはこれらの組み合わせによる支援を含む。
第11観点の遠隔作業支援システムは、第1観点から第10観点のいずれかのシステムであって、同一のサーバに接続可能な複数のデバイスを備える。複数のデバイスは、ウエアラブルデバイス、携帯端末、および、支援者端末を含む。サーバは、所定の条件に基づいて、複数のデバイスのうち少なくとも1つ以上のデバイスを指定し、指定に基づいて接続対象となるデバイスを呼び出す。
第12観点の遠隔作業支援システムは、第11観点のシステムであって、サーバは、現場作業者の作業現場の環境情報を取得する。サーバは、環境情報に基づいて、複数のデバイスのうち少なくとも1つ以上のデバイスを呼び出す。
第13観点の遠隔作業支援システムは、第11観点のシステムであって、サーバは、現場作業者による作業の進捗を管理する。サーバは、作業の進捗に基づいて、複数のデバイスのうち少なくとも1つ以上のデバイスを呼び出す。
第14観点の遠隔作業支援システムは、第11観点のシステムであって、サーバは、現場作業者および支援者の発話を音声認識する。音声認識よって取得したキーワードに基づいて、複数のデバイスのうち少なくとも1つ以上のデバイスを呼び出す。
第15観点の遠隔作業支援システムは、第11観点から第14観点のいずれかのシステムであって、サーバは、さらに、支援者端末から、現場作業者が利用する複数のデバイスのうち少なくとも1つ以上のデバイスの指定を受け付ける。
第16観点の遠隔作業支援システムは、第1観点から第15観点のいずれかのシステムであって、複数のデバイスはデバイス間で相互に通信可能である。
第17観点の支援者端末は、現場作業者を遠隔支援する支援者により利用される。支援者端末は、音声入力部と、音声出力部と、表示部と、を有する。支援者端末は、ウエアラブルデバイスと、音声を送受信し、ウエアラブルデバイスからの画像を受信する。ウエアラブルデバイスは、現場作業者に装着され、撮像部と、音声入力部と、音声出力部とを有する。ウエアラブルデバイスは、画像を送信し、音声を送受信する。支援者端末は、携帯端末に画像を送信する。携帯端末は、ウエアラブルデバイスとは別に現場作業者に携帯される。携帯端末は、画像受信部が受信した画像を表示する表示部を有する。
第18観点のサーバは、複数のデバイスと接続するサーバである。複数のデバイスは、ウエアラブルデバイス、携帯端末、支援者端末を含む。ウエアラブルデバイスは、現場作業者に装着され、撮像部と、音声入力部と、音声出力部とを有し、画像を送信し、音声を送受信する。携帯端末は、ウエアラブルデバイスとは別に現場作業者に携帯され、画像受信部が受信した画像を表示する表示部を有する。支援者端末は、現場作業者を遠隔支援する支援者により利用され、音声入力部と、音声出力部と、表示部と、を有する。サーバは、所定の条件に基づいて、複数のデバイスのうち、少なくとも1つ以上のデバイスを指定し、指定に基づいて通信対象となるデバイスを呼び出す。
第1実施形態のウエアラブルデバイス10の斜視図である。 第1実施形態の遠隔作業支援システム1の全体概略図である。 第1実施形態の支援者端末40の表示部43の表示画面の一例を示す図である。 第2実施形態の遠隔作業支援システムを模式的に示す図である。
<第1実施形態>
(1)全体構成
第1実施形態の遠隔作業支援システム1は、図2に示すように、ウエアラブルデバイス10と、携帯端末20と、サーバ30と、支援者端末40と、データベース50とを有している。ウエアラブルデバイス10と携帯端末20とは、現場作業者「AAA_aaa」、「BBB_bbb」および「CCC_ccc」がそれぞれ保持している。現場作業者は複数の現場に別々に派遣されている複数の作業者である。図2においては、3つの現場に3人の作業者が派遣されているが、現場の数、作業者の数はこれに限定されない。支援者端末40は、現場作業者から遠隔地にいる支援者が利用するように配置されている。
ウエアラブルデバイス10と、携帯端末20と、サーバ30と、支援者端末40と、データベース50とは、共通のネットワークに接続され、相互に通信可能である。
なお、本明細書において、現場作業者を作業者ということがあるが意味は同じである。
また、本明細書において、「作業」とは、機器の修理、保守メンテナンス作業、機器の設置のための現場調査、設置・据え付けのいずれかを意味する。
(2)詳細構成
(2-1)ウエアラブルデバイス10
ウエアラブルデバイス10は、図1に示すように首掛け式のデバイスである。ウエアラブルデバイス10は、環状であり、環の一部が開いた形をしている。その開いた部分を利用して首に挿入し、開いた部分が前にくるように装着する。
ウエアラブルデバイス10は、首掛け式なので、装着していてもハンズフリーで作業をすることができる。また、めがね型のように視界に影響することも無い。
ウエアラブルデバイス10は、本体19と、撮像部11と、音声入力部12と、音声出力部13と、ジェスチャーセンサ14と、制御部15と、通信部16と、電源スイッチ(図示せず)とを有している。
本体19の両端部には、撮像部11と、ジェスチャーセンサ14とが配置されている。
撮像部11は、カメラである。カメラは、作業者の作業中、連続して、作業者の前方を撮影し続ける。撮影した画像は、動画である。静止画であっても良い。撮影された画像は、通信部16によって、ネットワークを介して、サーバ30に送られる。サーバ30に送られた画像は、サーバ30の記憶部32に保存される。同時に、サーバ30に送られた画像は、支援者端末40の表示部43に表示される。
ジェスチャーセンサ14は、スイッチの機能を有している。ジェスチャーセンサの前で装着者(作業者)がサインを示すことによって、ウエアラブルデバイスの操作をすることができる。たとえば、撮像部11による撮像のオンオフなどである。また、作業者から支援者端末40を用いる支援者の呼び出しに用いてもよい。ウエアラブルデバイス10は、ジェスチャーセンサ14の代わりに、または、ジェスチャーセンサ14とともに、機械的または電子的なスイッチを有していても良い。
音声入力部12は、マイクである。マイクは指向性を有し、装着者の発生する音声を優先的に集音する。音声入力部12は、ジェスチャーセンサ14の代わりに、または、ジェスチャーセンサ14とともに、作業者から支援者端末40を用いる支援者の呼び出しに用いてもよい。たとえば、作業者が「ヘルプお願いします。」と発話することにより、発話は、サーバ30に達し、サーバ30で音声認識され、テキスト化される。サーバ30は、テキスト化された音声データから、作業者が支援を求めている事を識別し、支援者端末40の作業者識別情報112のその作業者の名前「AAA aaa」をブリンク(点滅)させる。これによって、支援者は、作業者「AAA aaa」が支援を求めている事を知る。
音声出力部13は、スピーカである。音声出力部13は、ウエアラブルデバイス10の装着者(作業者)の体の後ろ側に配置されている。
本実施形態のウエアラブルデバイス10は、音声入力部12と、音声出力部13と、音声の送受信を行う通信部16とを有している。したがって、ウエアラブルデバイス10を装着する作業者は、デバイスを電話として使って、支援者と通話することが可能である。
通信部16は、第1回線T1でネットワークに接続されている。音声入力部12で入力された音声、撮像部11で撮像した画像を電子データとして、ネットワークに送信することができる。また、ネットワークより、電子データとしての音声を受信する。
制御部15は、コンピュータである。制御部15は、プロセッサと記憶部とを有している。制御部15は、撮像部11と、音声入力部12と、音声出力部13と、ジェスチャーセンサ14と、通信部16とを制御する。制御部15は、ジェスチャーセンサ14に入力された制御指令を受け取り、実行する。制御部15は、サーバ30の指令、支援者が支援者端末40を操作して入力した指令を実行する。
(2-2)携帯端末20
携帯端末20は、作業者に携帯または保持される。携帯端末20は、スマートフォン、タブレット、PCなどであっても良い。携帯端末20は、表示部21と、通信部22と、制御部23とを有している。携帯端末20は、第2回線T2でネットワークに接続されている。
通信部22は、ネットワークより画像を受信する。画像は、動画であっても静止画であっても良い。
表示部21は、ディスプレイである。表示部21には、ネットワークより受信した画像が表示される。支援者端末40において支援者によって加工された画像がネットワークを経由して携帯端末20に送信され、表示部21に表示される。画像は、動画であっても静止画であっても良い。
制御部23は、コンピュータである。制御部23は、プロセッサと記憶部とを有している。制御部23は、表示部21と、通信部22とを制御する。
携帯端末20は、ウエアラブルデバイス10と異なり、作業者の作業中に、常時支援者端末40(またはサーバ30)と接続されている必要はない。支援者端末40より、画像(テキスト情報を含む)を携帯端末20に送るときだけ接続すればよい。
(2-3)サーバ30
サーバ30は、コンピュータである。サーバ30は、プロセッサ31と、記憶部32とを有している。記憶部32には、アプリケーションやデータが保存されている。本実施形態においては、記憶部32に記憶された遠隔作業支援システム1のアプリケーションがプロセッサ31に読み込まれ実行される。遠隔作業支援システム1のアプリケーションは、WEBアプリケーションである。支援者端末40と携帯端末20においてはブラウザを立ち上げ、ブラウザから遠隔作業支援システム1のアプリケーションにアクセスする。
作業者によってウエアラブルデバイス10が起動されると、ウエアラブルデバイス10はサーバ30に接続し、ウエアラブルデバイス10の撮像部11が撮像した画像をサーバ30に送信する。撮像された画像は、サーバ30の記憶部32に蓄積される。同時に撮像された画像は、支援者端末40のブラウザを起動することによって、支援者端末40の表示部43で閲覧可能になる。
また、遠隔作業支援システム1のアプリケーションは、作業者の作業中、ウエアラブルデバイス10からの接続要求、または、支援者端末40からの接続要求によって、作業者と支援者との双方向での通話を可能にする。
サーバ30は、ウエアラブルデバイス10から入手した音声、および、支援者端末40から入手した音声を、音声認識により、テキスト情報に変換する。テキスト情報は、作業ごとに、記憶部32に記憶される。また、支援者端末40に送信され、支援者端末40の表示部43に表示される。さらに、テキスト情報は、必要に応じて、携帯端末20にも送信され、携帯端末20の表示部21に表示される。
サーバ30は、全ての通信しているウエアラブルデバイス10の音声データを集め、テキスト情報にして記憶部32に保存している。現在、支援者端末40と接続はしているが、支援は受けていない作業者「BBB bbb」からの音声に支援を要請する文言が含まれていた場合には、サーバ30は、支援者端末40の作業者識別情報112のその作業者の名前「BBB bbb」をブリンク(点滅)させる。
サーバ30は、さらに自動翻訳機能を有していても良い。音声認識された音声データを他言語に翻訳する。たとえば、現場作業者が英語で話し、遠隔地の支援者が日本語を話す場合、現場作業者が話した英語を、支援者に日本語の音声で伝えても良い。あるいは、支援者端末40の表示部43の発話記録116に日本語で表示しても良い。英語と日本語とを併記して表示しても良い。
作業支援時に発生する画像やテキスト化された音声情報、支援者により加工された画像は、サーバ30の記憶部32に保存される。これらの情報は、他の場所に格納されても良い。たとえば、データベース50に保存しても良い。支援者端末40の記憶部に保存しても良い。
(2-4)データベース50
データベース50は、電子データを保存する記憶部を備えている。データベース50は、ネットワークに接続されている。本実施形態においては、データベース50は、機器の修理や保守メンテナンスで利用される現場作業支援情報を格納している。現場作業支援情報の格納は、データベース50に限定されない。サーバ30の記憶部32に格納しても良い。支援者端末40の記憶部に格納しても良い。
(2-5)支援者端末40
支援者端末40は、現場作業者を遠隔支援する支援者により利用される。支援者端末40は、PCであってもよい。支援者端末40は、音声入力部41と、音声出力部42と、表示部43と、通信部44と、制御部45と、を有している。
音声入力部41は、マイクである。音声出力部42は、スピーカである。本実施形態の支援者端末40は、音声入力部41と、音声出力部42と、音声の送受信を行う通信部44とを有している。したがって、支援者は、支援者端末40を電話として使って、現場作業者と通話することが可能である。
通信部44は、ネットワークに接続されている。ネットワークより、電子データとしての音声を受信する。通信部44は、さらに、サーバ30において音声認識されテキスト化されたテキスト情報を受信する。通信部44は、ウエアラブルデバイス10の撮像部11で撮像された画像を受信する。一方、通信部44は、音声入力部41で入力された音声、支援者によって支援者端末40において加工された画像を電子データとして、ネットワークに送信することができる。
表示部43はディスプレイである。
制御部45は、コンピュータである。制御部45は、プロセッサと記憶部とを有している。制御部45は、音声入力部41と、音声出力部42と、表示部43と、通信部44とを制御する。制御部45の記憶部には、ブラウザ(プログラム)が格納されている。制御部45は、ブラウザプログラムを読み込み実行する。サーバ30において、遠隔作業支援システム1のアプリケーションが実行されていれば、支援者端末40の制御部45においてブラウザを用いることにより、支援者端末40を利用した作業の支援が可能になる。
なお、本実施形態のウエアラブルデバイス10と、携帯端末20と、サーバ30と、支援者端末40等との間の通信に関して、複数の通信プロトコルを使い分けて用いてもよい。
本実施形態においては、動画および音声の通信プロトコルには、たとえば、WebRTCを用いる。WebRTCは、標準プロトコルであり、セキュアだが設計自由度が効かない(解像度等のパラメータくらいしか変更できない)との特徴を有している。静止画の通信プロトコルには、HTTPS、MQTT、または、WebSocketを用いてもよい。これらの通信プロトコルは、自由に設計可能であり、動画、テキスト、静止画など何にでも対応でき、サーバ側の設計度が上がる、との特徴がある。
(2-5-1)支援者端末40の表示部43の表示画面
遠隔作業支援システム1のアプリケーションが実行中のときの、支援者端末40の表示部43のブラウザの表示画面の一例を図3に示す。
表示部43の画面には、作業進捗111と、作業者識別情報112と、現場のライブ画像113と、支援者加工画像114と、参照文献リスト115と、発話記録116とが、表示されている。
作業進捗111とは、支援者端末を使用する支援者が、「今日」係わっている、作業の現場の個数(または、作業者の人数)をあらわしている。ここでは、「今日」既に終了した作業が2件である事を示している。
作業進捗111のところに、作業の進捗状況(%で示しても良い)や、作業の予想終了時刻を表示しても良い。このために、ウエアラブルデバイス10の撮像部11で撮像された画像、または/および、作業者および支援者の発話から自動抽出して、作業の進捗状況または作業の終了時間を、サーバ30が自動推定してもよい。
作業者識別情報112には、「現在オンライン新人」と記述されている。これは、現在、支援者端末40と接続されているウエアラブルデバイス10を利用している作業者を意味している。ここでは作業者のアイコン(写真)と、作業者の名前「AAA aaa」が表示されている。そして、作業者「AAA aaa」のアイコンの前には、「LIVE」と表示されている。ここで、「LIVE」の表示は、支援者端末40とウエアラブルデバイス10との接続がアクティブとなっている事を言う。アクティブとは、作業者「AAA aaa」のライブ画像113が画面に表示され、かつ、通話できるように音声が作業者「AAA aaa」と接続されている状態をいう。
なお、図3の作業者識別情報112では、5名の作業者が表示されているが、アクティブでない作業者の一部が隠れて表示され、スクロールすることによって表示できるようにしてもよい。また、アクティブな作業者を大きく表示して、それ以外の作業者の名前が一部または全部が隠れていても良い。
作業者識別情報112には、アイコン、作業者の名前に限らず、作業者のIDナンバー、現場の住所、作業中の機器(ここでは空気調和機)の型番やIDナンバー、作業のID、などを表示しても良い。作業者識別情報112は、支援者が作業者または作業を特定できる情報である。
また、アクティブな作業者の表示方法は、「LIVE」の表示に限らない。支援者端末40を利用する支援者が、アクティブな作業者を識別できれば良い。接続中の作業者識別情報を大きくしたり、点滅させたり、色を変更したり、ポップアップしたりしても良い。
ライブ画像113は、アクティブな作業者について、その作業者「AAA aaa」のウエアラブルデバイス10の撮像部11で撮影しているライブ映像を示している。図3では、空気調和機の室外ユニットの画像を示している。アクティブな状態では、作業者「AAA aaa」と音声が接続されているので、支援者は、音声で指示することにより、作業者を動かして、結果としてウエアラブルデバイス10の撮像部11の位置を動かし、画像を動かすことができる。
支援者加工画像114は、ライブ画像113から、画像を抽出し、加工したものである。図3の支援者加工画像114では、ファンの図の中央部に円状のマーキングがされ、「Open the fan from here」と指示が手書きで示されている。これは、支援者が支援者端末40上で文字や記号をタッチペン入力で記入したものである。支援者加工画像114を作業者の携帯端末20に送信し、表示部21に表示することにより、作業者を効率よく支援することができる。
参照文献リスト115は、支援者が支援するときに参考にする参照文献(現場作業支援情報)のリストである。現場作業支援情報は、現場調査確認項目、施工作業手順書、または、保守メンテ情報を含んでも良い。支援者は、データベース50に保存されている現場作業支援情報の中から、工事に必要な文献を抽出し、さらにその文献の中から必要な部分を抽出し、必要に応じてマーキングをした上で、作業者の携帯端末20に送信することができる。
発話記録116は、アクティブな作業者「AAA aaa」の発話のテキストと、支援者の発話のテキストとを区別して表示したものである。
(3)遠隔作業支援システム1を用いた現場作業者の支援の説明
次に、本実施形態の遠隔作業支援システム1を用いた作業者の支援の方法について説明する。
作業者は、機器の修理やメンテナンスのために、現場に到着し、作業を開始する。ここでは、機器として空気調和機を想定する。現場作業者は、作業開始時に、ウエアラブルデバイス10を身体に装着し、電源スイッチをオンにする。
最初に作業者は、ジェスチャーセンサ14の前でサインを送り、撮像部11を起動する。撮像部11は、撮像を開始する。また、ウエアラブルデバイス10は、サーバ30の遠隔作業支援システム1のアプリケーションに接続される。撮像された画像は、通信部16より、ネットワークを経由して、サーバ30に送られ、サーバ30の記憶部32に蓄積される。
支援者が支援を開始するときは、支援者端末40にて、ブラウザを起動し、サーバ30の遠隔作業支援システム1のアプリケーションに接続する。
ウエアラブルデバイス10の電源オンと、支援者端末40におけるサーバ30の遠隔作業支援システム1のアプリケーションへの接続は、同時でなくて良い。どちらが先であっても良い。ウエアラブルデバイス10の撮像部11が起動し、かつ、支援者端末40がブラウザ上でサーバ30の遠隔作業支援システム1のアプリケーションへ接続された状態で、両者は接続される。
支援者端末40を利用する支援者は、適宜作業者を選択して、支援を開始する。
作業者が支援者の支援を求めるときには、ジェスチャーセンサ14の前で、支援を受けたい旨のジェスチャーを示す。支援の要請は、音声など別の方法でも良い。作業者の支援要請は、支援者端末40の表示部43の画面において、作業者識別情報112の作業者の名前「AAA aaa」をブリンク(点滅)させる。支援者が作業者の支援要請を承認するときは、その名前「AAA aaa」をクリックすることにより、作業者「AAA aaa」との接続がアクティブになる。言い換えると、作業者識別情報112の作業者「AAA aaa」に「Live」の印が入り、ライブ画像113に、ウエアラブルデバイス10で撮像した画像がライブで表示され、作業者「AAA aaa」と、支援者の通話が可能となる。
支援者は、作業者「AAA aaa」と通話しながら、作業者「AAA aaa」のウエアラブルデバイス10から送信される動画を確認して、作業支援内容を検討する。
支援者側から作業者にアクセスする場合には、作業者識別情報112の作業者の名前「AAA aaa」をクリックすると、作業者「AAA aaa」との接続がアクティブになり、ライブ画像113に、ウエアラブルデバイス10で撮像した画像がライブで表示され、作業者「AAA aaa」と、支援者の通話が可能となる。
支援の方法として、最も簡単には、支援者は、作業者「AAA aaa」と通話しながら、作業者にアドバイスを行う。作業者と支援者の発話の内容は、サーバ30において音声認識され、テキスト化され、サーバ30の記憶部32に記憶される。同時に、支援者端末40の表示部43の発話記録116に表示される。支援者は、発話記録116で発話内容を確認しながら、支援内容を考察して、アドバイスしていく。また、支援者の発話あるいは通話内容をテキスト化したものを、作業者「AAA aaa」の携帯端末20に送信し、表示部21に表示させることによって、支援を行っても良い。
さらには、支援者は、ライブ画像113から、適宜画像を静止画(スナップショット)として選択し(切り取り)、その静止画を支援者加工画像114に表示する。支援者はさらに、その表示された画像を加工する。具体的には、必要な部分を切り取ったり、マーキングしたり、文字を書き込んだりする。支援者によって書き込まれた画像は、作業者「AAA aaa」の携帯端末20に送信される。作業者「AAA aaa」は、携帯端末20の表示部21を確認して、支援者によって送信された画像を確認する。このようにして、作業者は、支援者による支援を受けながら、作業を進めていく。
以上は、支援者が作成する支援者加工画像は、静止画である場合について説明したが、動画であっても良い。
支援者による支援情報は、上記ウエアラブルデバイス10で撮像され加工されたものだけでなく、参照文献(現場作業支援情報)から抽出、または、加工された画像または文字(スナップショット)であっても良い。現場作業支援情報は、画面の参照文献リスト115に表示されているものであっても良いし、参照文献リスト115のウインドウで検索して得られるものであっても良い。参照文献リスト115にて検索して得られるものは、データベース50に格納されているものである。たとえば、支援者は、支援のために、取扱説明書を確認する必要があると判断した場合、参照文献リスト115の取扱説明書をクリックする。そうすると、新たなウインドウがポップアップして、取扱説明書のページが表示される。支援者は、取扱説明書の所定のページを選択し、必要な部分を切り取り、切り取った画像(スナップショット)を支援者加工画像114に表示する。支援者は、ここで、取扱説明書の所定のページの画像(スナップショット)にマーキング、文字の記入などを行い加工する。加工された画像は、ウエアラブルデバイス10で撮像され、選択、加工された画像と同様に、支援者加工画像として、作業者の携帯端末20に送信される。作業者は、支援者加工画像を参考にして、作業を進めることができる。
また、以上は、現場作業支援情報は、データベース50に格納されている場合について説明した。現場作業支援情報は、サーバ30の記憶部32に保存されていても良い。または、支援者端末40の記憶部に保存されていても良い。現場作業支援情報は、その他のソースから得られるものであっても良い。たとえば、Webサイトの情報であってもよい。
以上説明したように、支援者は、作業者「AAA aaa」の支援作業を進めていく。作業者「AAA aaa」の支援の終了後、または支援中に、作業者「BBB bbb」より支援要請があった場合、支援者端末40のブラウザの表示画面の作業者識別情報112の作業者の名前「BBB bbb」がブリンク(点滅)する。これを見た支援者は、作業者「BBB bbb」の支援に着手できる場合には、作業者の名前「BBB bbb」をクリックする。そうすると、作業者「BBB bbb」との接続がアクティブになる。言い換えると、作業者識別情報112の作業者「BBB bbb」に「Live」の印が入り、ライブ画像113に、ウエアラブルデバイス10で撮像した画像がライブで表示され、作業者「BBB bbb」と、支援者の通話が可能となる。
以上のようにして、複数の作業者の作業支援が行われる。本実施形態の遠隔作業支援システム1を用いて作業を行うことにより、ウエアラブルデバイス10で撮像した画像、作業者と支援者の通話を含む音声、支援者が作成した支援者加工画像などが、サーバ30の記憶部32に蓄積されていく。これらは、作業ごとに記憶される。サーバ30は、記憶された情報を基にして、報告書を自動作成しても良い。
(4)特徴
(4-1)
本実施形態の遠隔作業支援システム1は、ウエアラブルデバイス10と、携帯端末20と、支援者端末40とを備えている。ウエアラブルデバイス10は、現場作業者が装着して用いる。ウエアラブルデバイス10は、撮像部11を備えており、支援者端末40に作業者周辺の撮像画像を送信することができる。また、ウエアラブルデバイス10と、支援者端末40とで、電話のように用いて通話が可能である。
ウエアラブルデバイス10は、表示部を備えていない。ウエアラブルデバイスが表示部を備えている場合、たとえばめがね型デバイスのように、作業者の視野が制限され、作業者に危険が発生することも起こりうる。表示部を備えていないと逆にそのような心配が少ないというメリットがある。
また、作業者は、携帯端末20を携帯しているので、必要に応じて、携帯端末20の表示部21に、支援者からの支援の情報を表示させることができる。
(4-2)
本実施形態のウエアラブルデバイス10は、首掛け式のデバイスである。したがって、作業者は、ハンズフリーに作業を行うことができる。
(4-3)
ウエアラブルデバイス10の撮像部11で撮影する画像は、動画または静止画である。
動画を撮像することにより、支援者端末40の表示部43に継続的にライブ画像113を表示することができる。
支援者が支援者加工画像を作成する際には、静止画を用いることによって、より簡便に作成できる。
(4-4)
ウエアラブルデバイス10の撮像部11で撮影された画像が、支援者端末40において、選択、加工、または、情報付加されて携帯端末20に送信され、携帯端末20の表示部21に表示される。
ウエアラブルデバイス10と携帯端末20を両方活用することによって、作業者は必要以上に支援者の支援情報を見る必要がなく、かつ、必要なときは携帯端末20で見ることができる。
(4-5)
作業者および支援者の発話は、音声認識され、テキスト情報として、支援者端末40の表示部43の発話記録116に表示される。
支援者端末40に発話記録がテキスト情報として表示されるので、支援者は通話内容の確認が容易であるし、また、それを利用して、作業者に支援もできる。さらに、発話内容のテキスト情報としての記録は、報告書の作成にも活用できる。
(4-6)
上記テキスト情報は、さらに、携帯端末20の表示部21に表示されてもよい。作業者においても、支援者との発話をテキストで表示部21で確認できるのは有用である。また、重要な発話内容テキストを支援者が抽出して作業者の携帯端末20に表示しても良い。
(4-7)
遠隔作業支援システム1は、支援者端末40とウエアラブルデバイス10とを結ぶ第1回線T1と、支援者端末40と携帯端末20を結ぶ第2回線T2とを有する。第1回線T1は、作業者による作業の間、連続して用いられ、第2回線T2は、作業者による作業の間、必要に応じて接続される。
このようにすることで、作業者は常に画面を見なくても作業を行うことができる。
(4-8)
遠隔作業支援システム1のサーバ30は、ウエアラブルデバイス10の撮像部11で撮像された画像をサーバ30の記憶部32に記憶する。また、作業者および支援者の発話を音声認識してテキスト化し、サーバ30の記憶部32に記憶する。サーバ30は、これらの画像、テキスト化された文字などから、作業の進捗状況、作業の終了時間を推定して、支援者端末40の表示部43に表示してもよい。作業の進捗状況は、○○%終了、などのように推定、表示しても良い。このように支援者は作業の進捗を知ることができる。
(4-9)
支援者端末40は、表示部43に参照文献リスト115を表示する。参照文献とは、現場作業支援情報である。現場作業支援情報は、ネットワーク上のデータベース50に保存されている。支援者は、参照文献リスト115より、現場作業支援情報の内容にアクセスできる。支援者は、現場作業支援情報の内容を、抽出、加工して、携帯端末20に送信する。
支援者がこのように現場作業支援情報を加工して作業者に送付することにより、作業者は、膨大な資料を大量に見る必要がなく、作業者の効率がアップする。
(4-10)
本実施形態の遠隔作業支援システム1による作業支援は、様々な手段による支援を含んでいる。言い換えると、音声による支援、加工された画像による支援、支援者端末に置いて入力された文字による支援、支援者の発話がテキスト化された文字による支援、のいずれか、またはこれらの組み合わせによる支援である。
音声による支援とは、電話による支援と同じである。
加工された画像による支援とは、ウエアラブルデバイス10により撮像された画像を利用したものと、現場作業支援情報を加工して用いるものとを含んでいる。
支援者端末40に置いて入力された文字による支援とは、支援者が支援者端末40において、文字を入力し、それが携帯端末20に送信され、表示部21に表示されることによって実現される支援である。
支援者の発話がテキスト化された文字による支援とは、支援者の発話がテキスト化され、テキスト化された情報を作業者の携帯端末20に送付する支援である。作業者は、支援者の発言を聞き逃すことも、忘れる事も起こりうる。そこで、重要な発話については、テキスト化して送信することにより、有効な支援に繋がる場合がある。
(5)変形例
(5-1)変形例1A
第1実施形態においては、図3に示すように、アクティブな作業者「AAA aaa」のライブ画像113のみが表示部43に表示されていた。変形例1Aにおいては、接続されている全ての作業者「AAA aaa」、「BBB bbb」、「CCC ccc」、「DDD ddd」、および、「EEE eee」のライブ画像がライブ画像113に表示されている。言い換えると、アクティブでない作業者のライブ映像もライブ画像113に同時に表示されている。ただし、アクティブな作業者「AAA aaa」は上に大きく表示され、アクティブでない作業者「BBB bbb」、「CCC ccc」、「DDD ddd」、および、「EEE eee」の映像は、下に小さく表示されている。このように変形例1Aの表示部43によって、支援者は、アクティブでない作業者、言い換えると、支援中で無い作業者のおおよその動きを知ることができる。支援者は、これを利用して、たとえば、作業者が好ましくない動きをしようとしているときは、作業者を注意することができる。
(5-2)変形例1B
第1実施形態では、音声を音声認識して、テキスト化するのは、サーバ30において実行していた。変形例1Bにおいては、音声認識およびテキスト化は、ウエアラブルデバイス10または支援者端末40にて行われる。したがって、ウエアラブルデバイス10または支援者端末40は、音声のオーディオデータと音声のテキストデータとを両方ともネットワークに発信する。さらに、音声認識機能だけでなく、ウエアラブルデバイス10または支援者端末40は、翻訳機能を有していても良い。
(5-3)変形例1C
第1実施形態では、ウエアラブルデバイス10は、首掛け式であった。ウエアラブルデバイス10は他の形式であっても良い。身体に装着して、ハンズフリーになるものが好ましい。変形例1Cのウエアラブルデバイス10は、頭部に装着するものである。具体的には、ヘルメット、帽子、または、ヘアバンド、のような形態のものである。
(5-4)変形例1D
第1実施形態の遠隔作業支援システム1では、現場作業者は、ウエアラブルデバイス10と、携帯端末20を保持し、使用していた。遠隔作業支援システム1は、さらに、別のデバイスを利用してもよい。別のデバイスは、支援者端末40にネットワークを介して接続されていてもよい。別のデバイスは、サーバ30に接続されていてもよい。
別のデバイスは、変形例1Dにおいては、現場作業者が利用するウエアラブルデバイス10の撮像部11とは別のネットワークカメラである。ネットワークカメラは、ウエアラブルデバイス10の撮像部11と別の場所の撮影画像や、同じ場所であっても別の角度からの撮像画像をネットワークを通じて支援者端末に送信する。
(5-5)変形例1E
第1実施形態においては、ウエアラブルデバイス10、携帯端末20は、それぞれ独立に第1回線(T1)または第2回線(T2)によって、ネットワークに接続されていた。変形例1Eにおいては、ウエアラブルデバイス10、携帯端末20は、互いにP2Pで接続されている。
変形例1Eにおいては、ウエアラブルデバイス10とネットワーク(または支援者端末40)との接続は、第1回線を介してもいいし、一旦ウエアラブルデバイス10と携帯端末20とがP2Pで通信し、次いで、携帯端末20とネットワークと第2回線で接続してもよい。
(5-6)変形例1F
別の通信デバイスがウエアラブルデバイス10に近距離無線通信技術で接続することができる。近距離無線通信技術は、Bluetooth(登録商標)、赤外線通信、Wi-Fiであってもよい。
(5-7)変形例1G
第1実施形態においては、支援者が発生する音声はウエアラブルデバイス10に、支援者端末40から送信する画像は、携帯端末20に送信された。
変形例1Gにおいては、現場作業者は、ウエアラブルデバイス10、スマートフォンである携帯端末20と、別のデバイスとしてPCを利用できる。
支援者は、支援者端末40から画像を送る際、携帯端末20またはPCを選択して送信してもよい。
あるいは、サーバ30は支援者端末40から作業者への画像の送信を制御し、支援者端末40は、画像を送信する作業者のデバイスを指定する指令を出し、サーバ30がその指令を受け付けるように構成されていてもよい。
(5-8)変形例1H
本実施形態の作業者支援システムは、他の用途、たとえば、研修目的での利用が可能である。
研修の内容は、機器の修理や保守メンテナンスなどの現場作業である。受講者は、作業者として参加する。受講者(作業者)は1名ないし2名であるのが好ましい。習熟する作業を行う最低限の人数で行うのが好ましい。
研修の講習者は、支援者である。講習者は、複数名で、各講習者は、異なる観点をもって、受講者を指導するのが好ましい。そのため講習者によって見たい場所や角度が異なる。たとえば、作業そのものに詳しい講習者は、受講者の手元を確認したい。設備に詳しいものは、受講者を含めた設備全体の状態を俯瞰したり、設備についているメーターなどの継続機器を合わせて確認したりしたい。
講習者(支援者)は、受講者(作業者)に対し、確認したい場所や視野を撮影できるウエアラブルデバイス10ないしスマートフォンなどの携帯端末20への切り替えや、それらのデバイスの追加を促す。それにより、受講者(作業者)は、講習者より、様々な観点・角度から、自身が実施する作業について支援・教育を受けることができる。
<第2実施形態>
(6)第2実施形態の遠隔作業支援システム
第2実施形態の遠隔作業支援システムを模式的に説明する図を図4に示す。
第2実施形態の遠隔作業支援システムは、第1実施形態の遠隔作業支援システム1の構成をほぼそのまま含んでいる。言い換えると、第2実施形態の遠隔作業支援システムは、ウエアラブルデバイス10と、携帯端末20と、サーバ30と、支援者端末40と、データベース50とを備えている。第1実施形態と同様に、遠隔作業支援システムは、作業支援を行い、その結果、ウエアラブルデバイス10の撮像した画像、作業者の発話、支援者の発話を音声認識し、テキスト化したもの、支援者が作成した支援画像、作業報告書等を蓄積していく。第2実施形態のサーバ30は、新たに発生した故障修理等の作業について、ウエアラブルデバイス10が撮像した画像等のデータを、過去に蓄積したデータと比較し、類似の機器の異常または故障が発生していることを自動判別する。このように、本実施形態の遠隔作業支援システム1は、機器の異常または故障の診断が可能である。
サーバ30は、機器の異常または故障の診断ができた場合、サーバ30は、支援者に、過去と同様の適切な支援方法を提案する。または、作業者に直接、過去と同様の適切な支援方法を提案する。
また、本実施形態の遠隔作業支援システムは、将来の機器の故障を予測する。
(7)変形例
(7-1)変形例2A
変形例2Aの構成は、第2実施形態とほぼ同様である。変形例2Aでは、サーバ30が作業支援データを蓄積していくことにより、機器の操作マニュアルや修理メンテナンス作業マニュアルの不適切な点を自動識別する場合が起こりうる。サーバ30は、このような場合には、操作マニュアルや修理メンテナンス作業マニュアルの修正、最適化を提案する。
<第3実施形態>
(8)第3実施形態の遠隔作業支援システム
第3実施形態の遠隔作業支援システム1の構成は、図2に示すように、第1実施形態の遠隔作業支援システム1の構成と同じである。遠隔作業支援システム1は、複数のデバイスを含む。複数のデバイスとは、ウエアラブルデバイス10、携帯端末20、および、支援者端末40を含む。複数のデバイスは、さらに別のデバイスを含んでもよい。別のデバイスとは、ウエアラブルデバイス10、携帯端末20以外に作業者が利用するデバイスであって、音声または画像の入力または出力を支援するデバイスであってもよい。具体的な別のデバイスの例としては、カメラ、スマートフォン、スマートウオッチ、スマートグラス、ヘッドセット、ウエアラブルデバイス、などであってもよい。変形例1Dと同様のウエブカメラや、変形例1Fと同様の通信デバイスであってもよい。
本実施形態においても、サーバ30は、複数のデバイスと接続されており、複数のデバイスの収集した情報はサーバに収集され、記憶部32に蓄積される。情報とは、たとえば、ウエアラブルデバイス10で撮像した画像であり、ウエアラブルデバイス10または支援者端末40で収集した音声である。
本実施形態においては、サーバ30は、所定の条件に基づいて、複数のデバイスのうち少なくとも1つ以上のデバイスを指定し、指定に基づいて接続対象となるデバイスを呼び出す。サーバ30の所定条件の判断には、AI技術を用いてもよい。
本実施形態においては、サーバ30は、現場作業者の作業現場の環境情報を取得し、記憶部32に蓄積する。ここで、環境情報とは、作業現場の照度や、騒音の度合い、気温、湿度、作業が高所作業か否か、といった情報である。サーバ30は、環境情報に応じて、作業者にデバイスの使用、選択を促し、選択されたデバイスを呼び出してもよい。
例えば、サーバ30は、ウエアラブルデバイス10から送信される音声情報によって、作業者が工場など騒音が大きい環境にいるという情報を取得する。この場合、サーバ30は、作業者にウエアラブルデバイス10以外の指向性マイクを備えたデバイスを使用するように促す。作業者が指向性マイクを備えたデバイスの電源を入れることにより、サーバ30は、指向性マイクを備えたデバイスを呼び出す。
別の例としては、サーバ30は、ウエアラブルデバイス10から送信される画像情報によって、作業者が暗いところにいるという情報を取得する。この場合、サーバ30は、作業者にウエアラブルデバイス10以外のライト付きカメラ(例えば携帯端末20や他のデジタルカメラ等)を使用するように促す。作業者がライト付きカメラの準備をし、サーバ30は、ライト付きカメラを呼び出す。
(9)変形例
(9-1)変形例3A
変形例3Aでは、サーバ30は、現場作業者による作業の進捗を管理し、記憶部32に記憶する。サーバ30は作業の進捗に応じて、前記複数のデバイスのうち少なくとも1つ以上のデバイスを呼び出す。
たとえば、作業者がスマートグラスを用いて作業を行っていたときに、サーバ30は、作業進捗から次の作業が高所作業と判断した場合に、視野が狭いスマートグラスを外すことを作業者に促す。
別の例としては、サーバ30が、作業進捗から2つ以上の視点での確認が必要な作業と判断した場合に、全体を撮影するカメラと、手元を移すカメラの2台にすることを促す。作業者が2台のカメラを使用できるようにすると、サーバ30は、2台のカメラを呼び出す。
(9-2)変形例3B
変形例3Bでは、サーバ30は、現場作業者および支援者の発話を音声認識する。サーバ30は、音声認識によって取得したキーワードに基づいて、複数のデバイスのうち少なくとも1つ以上のデバイスを呼び出す。
例えば、サーバ30は、作業者と支援者の会話の中に、「登って」、「脚立で」の語があったときは、作業者にヘッドセットの利用を促す。作業者がヘッドセットを装着すると、サーバ30は、ヘッドセットを呼び出す。
作業者と支援者の会話の中に、「聞こえない」、「声が小さい」の語があったときは、作業者に指向性マイクを装備したデバイスの利用を促す。作業者が指向性マイクを装備したデバイスを利用できるようにすると、サーバ30は、指向性マイクを装備したデバイスを呼び出す。
作業者と支援者の会話の中に、「よく見えない」、「拡大して」の語があったときは、作業者にスマートフォンやスマートグラスの利用を促す。作業者がスマートフォンやスマートグラスを利用できるようにすると、サーバ30は、スマートフォンやスマートグラスを呼び出す。
(9-3)変形例3C
変形例3Cは、変形例1Hと同様に研修目的での遠隔作業支援システム1の利用である。本実施形態は、変形例1Hにプラスして、さらに、サーバ30は、支援者端末40から、現場作業者が利用する複数のデバイスのうち少なくとも1つ以上のデバイスの指定を受け付ける。
以上、本開示の実施形態を説明したが、特許請求の範囲に記載された本開示の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
1 遠隔作業支援システム
10 ウエアラブルデバイス
11 撮像部
12 音声入力部
13 音声出力部
20 携帯端末
21 表示部
22 通信部
40 支援者端末
41 音声入力部
42 音声出力部
43 表示部
T1 第1回線
T2 第2回線
特開2018-207420号公報

Claims (19)

  1. 現場作業者に装着され、撮像部(11)と、音声入力部(12)と、音声出力部(13)と、ネットワークに第1回線(T1)で接続され、前記撮像部で撮像された画像を送信し、音声を送受信する通信部(16)を有し、画像表示部を有さない、ウエアラブルデバイス(10)と、
    前記ウエアラブルデバイスとは別に前記現場作業者に携帯され、ネットワークに前記第1回線と異なる第2回線(T2)で接続され、画像を受信する画像受信部(22)と、受信された画像を表示する表示部(21)を有する携帯端末(20)と、
    前記現場作業者を遠隔支援する支援者により利用され、音声入力部(41)と、音声出力部(42)と、表示部(43)と、を有し、前記第1回線(T1)を経由した通信により、前記ウエアラブルデバイスと音声を送受信し、かつ、前記ウエアラブルデバイスからの画像を受信し、前記第2回線(T2)を経由した通信により、前記携帯端末へ画像を送信する支援者端末(40)と、
    を備えた
    遠隔作業支援システム。
  2. 前記ウエアラブルデバイスは、さらに、前記撮像部で撮像された動画を含む画像を支援者端末に送信する前記通信部を制御する制御部(15)を有する
    請求項1に記載の遠隔作業支援システム。
  3. 前記ウエアラブルデバイスは、首掛け式のデバイスである、
    請求項1に記載の遠隔作業支援システム。
  4. 前記支援者端末の前記表示部は、前記ウエアラブルデバイスの前記撮像部で撮影した動画および静止画を表示する、
    請求項1~3のいずれか1項に記載の遠隔作業支援システム。
  5. 前記ウエアラブルデバイスの前記撮像部で撮影された画像が、前記支援者端末において、選択、加工、または、情報付加されて前記携帯端末に送信され、前記携帯端末の表示部に表示される、
    請求項1~のいずれか1項に記載の遠隔作業支援システム。
  6. 前記現場作業者および前記支援者の発話は、音声認識され、テキスト情報として、前記支援者端末の表示部に表示される、
    請求項1~のいずれか1項に記載の遠隔作業支援システム。
  7. 前記テキスト情報は、さらに、前記携帯端末の表示部に表示される、
    請求項に記載の遠隔作業支援システム。
  8. 前記第1回線は、前記現場作業者による作業の間、連続して用いられ、
    前記第2回線は、前記現場作業者による作業の間、必要に応じて接続される、
    請求項1~のいずれか1項に記載の遠隔作業支援システム。
  9. 前記現場作業者による作業の作業進捗を、前記撮像部で撮像された画像、または/および、前記現場作業者および前記支援者の発話から自動抽出し、作業の進捗状況または作業の終了時間を推定し、前記支援者端末の前記表示部に、前記進捗状況または前記終了時間を表示する、
    請求項1~のいずれか1項に記載の遠隔作業支援システム。
  10. 前記支援者端末は、現場作業支援情報を記憶するデータベース(50)にアクセスし、前記現場作業支援情報を抽出、加工して、前記携帯端末に送信する、
    請求項1~のいずれか1項に記載の遠隔作業支援システム。
  11. 前記支援者端末より前記現場作業者への支援は、音声による支援、加工された画像による支援、前記支援者端末に於いて入力された文字による支援、支援者の発話がテキスト化された文字による支援、のいずれか、またはこれらの組み合わせによる支援を含む、
    請求項1~10のいずれか1項に記載の遠隔作業支援システム。
  12. 前記遠隔作業支援システムは、同一のサーバに接続可能な複数のデバイスを備え、
    前記複数のデバイスは、前記ウエアラブルデバイス、前記携帯端末、および、前記支援者端末を含み、
    前記サーバは、所定の条件に基づいて、前記複数のデバイスのうち少なくとも1つ以上のデバイスを指定し、前記指定に基づいて接続対象となるデバイスを呼び出す、
    請求項1~11のいずれか1項に記載の遠隔作業支援システム。
  13. 前記サーバは、前記現場作業者の作業現場の環境情報を取得し、
    前記サーバは、前記環境情報に基づいて、前記複数のデバイスのうち少なくとも1つ以上のデバイスを呼び出す、
    請求項12に記載の遠隔作業支援システム。
  14. 前記サーバは、前記現場作業者による作業の進捗を管理し、
    前記サーバは、作業の進捗に基づいて、前記複数のデバイスのうち少なくとも1つ以上のデバイスを呼び出す、
    請求項12に記載の遠隔作業支援システム。
  15. 前記サーバは、前記現場作業者および前記支援者の発話を音声認識し、
    前記音声認識よって取得したキーワードに基づいて、前記複数のデバイスのうち少なくとも1つ以上のデバイスを呼び出す、
    請求項12に記載の遠隔作業支援システム。
  16. 前記サーバは、さらに、前記支援者端末から、前記現場作業者が利用する前記複数のデバイスのうち少なくとも1つ以上のデバイスの指定を受け付ける、
    請求項12~15のいずれか1項に記載の遠隔作業支援システム。
  17. 前記複数のデバイスはデバイス間で相互に通信可能である、
    請求項1~16のいずれか1項に記載の遠隔作業支援システム(1)。
  18. 現場作業者に装着され、撮像部(11)と、音声入力部(12)と、音声出力部(13)と、ネットワークに第1回線(T1)で接続され、前記撮像部で撮像された画像を送信し、音声を送受信する通信部(16)を有し、画像表示部を有さない、ウエアラブルデバイス(10)と、
    前記ウエアラブルデバイスとは別に現場作業者に携帯され、ネットワークに前記第1回線と異なる第2回線(T2)で接続され、画像を受信する画像受信部(22)と、受信された画像を表示する表示部(21)を有する携帯端末(20)と、
    現場作業者を遠隔支援する支援者により利用され、音声入力部(41)と、音声出力部(42)と、表示部(43)と、を有し、前記第1回線(T1)を経由した通信により、前記ウエアラブルデバイスと音声を送受信し、かつ、前記ウエアラブルデバイスからの画像を受信し、前記第2回線(T2)を経由した通信により、前記携帯端末へ画像を送信する支援者端末(40)とを含む、複数のデバイスと接続するサーバ(30)であって、
    所定の条件に基づいて、前記複数のデバイスのうち、少なくとも1つ以上のデバイスを指定し、前記指定に基づいて通信対象となるデバイスを呼び出す、サーバ。
  19. 前記ウエアラブルデバイスは、さらに、前記撮像部で撮像された動画を含む画像を支援者端末に送信する前記通信部を制御する制御部(15)を有する
    請求項18に記載のサーバ。
JP2020165496A 2019-11-20 2020-09-30 遠隔作業支援システム Active JP7270154B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022115125A JP2022145707A (ja) 2019-11-20 2022-07-19 遠隔作業支援システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019209987 2019-11-20
JP2019209987 2019-11-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022115125A Division JP2022145707A (ja) 2019-11-20 2022-07-19 遠隔作業支援システム

Publications (2)

Publication Number Publication Date
JP2021083079A JP2021083079A (ja) 2021-05-27
JP7270154B2 true JP7270154B2 (ja) 2023-05-10

Family

ID=75966362

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020165496A Active JP7270154B2 (ja) 2019-11-20 2020-09-30 遠隔作業支援システム
JP2022115125A Pending JP2022145707A (ja) 2019-11-20 2022-07-19 遠隔作業支援システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022115125A Pending JP2022145707A (ja) 2019-11-20 2022-07-19 遠隔作業支援システム

Country Status (6)

Country Link
US (1) US20220276701A1 (ja)
EP (1) EP4064694A4 (ja)
JP (2) JP7270154B2 (ja)
CN (1) CN114731389A (ja)
AU (1) AU2020385740B2 (ja)
WO (1) WO2021100331A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7382372B2 (ja) * 2021-09-27 2023-11-16 株式会社 日立産業制御ソリューションズ 作業支援装置、作業支援システム及び作業支援プログラム
WO2023068275A1 (ja) * 2021-10-18 2023-04-27 Fairy Devices株式会社 情報処理システム
WO2023188951A1 (ja) * 2022-03-28 2023-10-05 株式会社サンタ・プレゼンツ 遠隔指示システム
JP7482459B2 (ja) 2022-09-05 2024-05-14 ダイキン工業株式会社 システム、支援方法、サーバ装置及び通信プログラム
WO2024190673A1 (ja) * 2023-03-16 2024-09-19 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置、及び情報処理プログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004356743A (ja) 2003-05-27 2004-12-16 Tamura Seisakusho Co Ltd マイクセット
JP2008123366A (ja) 2006-11-14 2008-05-29 Nec Corp 遠隔作業支援システム、遠隔作業支援プログラム、及びサーバ
JP2015228009A (ja) 2014-06-03 2015-12-17 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報送受信システム、および、コンピュータープログラム
US20160031570A1 (en) 2014-07-29 2016-02-04 Airbus (S.A.S.) Monitoring of a maintenance intervention on an aircraft
WO2016063587A1 (ja) 2014-10-20 2016-04-28 ソニー株式会社 音声処理システム
JP2016181767A (ja) 2015-03-23 2016-10-13 パナソニックIpマネジメント株式会社 ウェアラブルカメラ及びウェアラブルカメラシステム
JP2018185570A (ja) 2017-04-24 2018-11-22 トーヨーカネツソリューションズ株式会社 遠隔支援システム
WO2019026597A1 (ja) 2017-07-31 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008096868A (ja) * 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP2011039996A (ja) * 2009-08-18 2011-02-24 Chugoku Electric Power Co Inc:The 作業支援システム
JP6540108B2 (ja) * 2015-03-09 2019-07-10 富士通株式会社 画像生成方法、システム、装置、及び端末
JP6585929B2 (ja) * 2015-06-02 2019-10-02 キヤノン株式会社 システム、システムの制御方法
JP2018067773A (ja) * 2016-10-18 2018-04-26 キヤノン株式会社 撮像装置とその制御方法、プログラム及び記憶媒体
JP2018092478A (ja) * 2016-12-06 2018-06-14 矢崎総業株式会社 作業指示システム
EP3333688B1 (en) * 2016-12-08 2020-09-02 LG Electronics Inc. Mobile terminal and method for controlling the same
JP2018207420A (ja) 2017-06-09 2018-12-27 キヤノン株式会社 遠隔作業支援システム
JP7080636B2 (ja) * 2017-12-28 2022-06-06 Dynabook株式会社 システム
US11326886B2 (en) * 2018-04-16 2022-05-10 Apprentice FS, Inc. Method for controlling dissemination of instructional content to operators performing procedures at equipment within a facility

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004356743A (ja) 2003-05-27 2004-12-16 Tamura Seisakusho Co Ltd マイクセット
JP2008123366A (ja) 2006-11-14 2008-05-29 Nec Corp 遠隔作業支援システム、遠隔作業支援プログラム、及びサーバ
JP2015228009A (ja) 2014-06-03 2015-12-17 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報送受信システム、および、コンピュータープログラム
US20160031570A1 (en) 2014-07-29 2016-02-04 Airbus (S.A.S.) Monitoring of a maintenance intervention on an aircraft
WO2016063587A1 (ja) 2014-10-20 2016-04-28 ソニー株式会社 音声処理システム
JP2016181767A (ja) 2015-03-23 2016-10-13 パナソニックIpマネジメント株式会社 ウェアラブルカメラ及びウェアラブルカメラシステム
JP2018185570A (ja) 2017-04-24 2018-11-22 トーヨーカネツソリューションズ株式会社 遠隔支援システム
WO2019026597A1 (ja) 2017-07-31 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
EP4064694A4 (en) 2023-01-11
CN114731389A (zh) 2022-07-08
JP2022145707A (ja) 2022-10-04
AU2020385740B2 (en) 2023-05-25
US20220276701A1 (en) 2022-09-01
AU2020385740A1 (en) 2022-07-07
WO2021100331A1 (ja) 2021-05-27
EP4064694A1 (en) 2022-09-28
JP2021083079A (ja) 2021-05-27

Similar Documents

Publication Publication Date Title
JP7270154B2 (ja) 遠隔作業支援システム
EP2842055B1 (en) Instant translation system
JP6439788B2 (ja) 情報処理装置、制御方法、プログラム、およびシステム
CN100358358C (zh) 视频电话手语翻译辅助装置及应用其的手语翻译系统
JP2003514294A (ja) 対象に指向してマーキングし情報を選択された技術的構成要素に対応付けるシステム及び方法
US20060125914A1 (en) Video input for conversation with sing language, video i/o device for conversation with sign language, and sign language interpretation system
CN114760555A (zh) 用户可配置的话音命令
WO2017154136A1 (ja) 携帯情報端末及びそれに用いる情報処理方法
JP2019036914A (ja) 連携表示システム
JPWO2020012955A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN114661026A (zh) 基于增强现实的交互式车辆远程诊断方法、系统及其存储介质
JP2004214895A (ja) 通信補助装置
JP7265667B2 (ja) 作業支援システムおよび作業支援方法
JP7074716B2 (ja) 警備システム及び監視表示装置
JP2018186366A (ja) 会議システム
JP2008217545A (ja) コンソール情報取得システム、コンソール情報取得方法及びコンソール情報取得プログラム
EP3123355B1 (en) System comprising an audio device and a mobile device for displaying information concerning the audio device
JP6826322B2 (ja) 故障部品交換支援方法
JP2014027459A (ja) 通信装置、通信方法及び通信プログラム
KR20140000570U (ko) 안경형 원격 제어 장치
CN109274929A (zh) 可穿戴设备和可穿戴设备的控制方法
US20150220506A1 (en) Remote Document Annotation
JP2015220684A (ja) 携帯端末装置および読唇処理プログラム
JP2022114111A (ja) 作業支援システム、作業支援制御装置、及び作業支援制御プログラム
CN203368454U (zh) 可视语音控制器、无线通讯系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210914

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220419

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220719

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220830

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221101

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221220

C30 Protocol of an oral hearing

Free format text: JAPANESE INTERMEDIATE CODE: C30

Effective date: 20230206

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20230210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230307

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230404

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230411

R150 Certificate of patent or registration of utility model

Ref document number: 7270154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150