JP2021010101A - 遠隔作業支援システム - Google Patents

遠隔作業支援システム Download PDF

Info

Publication number
JP2021010101A
JP2021010101A JP2019122778A JP2019122778A JP2021010101A JP 2021010101 A JP2021010101 A JP 2021010101A JP 2019122778 A JP2019122778 A JP 2019122778A JP 2019122778 A JP2019122778 A JP 2019122778A JP 2021010101 A JP2021010101 A JP 2021010101A
Authority
JP
Japan
Prior art keywords
unit
video data
sight
user
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019122778A
Other languages
English (en)
Other versions
JP7372061B2 (ja
Inventor
千代 大野
Chiyo Ono
千代 大野
直仁 池田
Naohito Ikeda
直仁 池田
利樹 石井
Toshiki Ishii
利樹 石井
大内 敏
Satoshi Ouchi
敏 大内
星沢 拓
Hiroshi Hoshisawa
拓 星沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019122778A priority Critical patent/JP7372061B2/ja
Priority to CN202010557906.9A priority patent/CN112188152A/zh
Priority to US16/910,746 priority patent/US11169764B2/en
Priority to DE102020116951.5A priority patent/DE102020116951A1/de
Publication of JP2021010101A publication Critical patent/JP2021010101A/ja
Priority to US17/490,239 priority patent/US11544030B2/en
Application granted granted Critical
Publication of JP7372061B2 publication Critical patent/JP7372061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Abstract

【課題】複数のユーザが適切に協働できる遠隔作業支援システムを提供する。【解決手段】作業現場W1において作業する第1のユーザ10に装着される第1の表示装置100と、作業現場W1に配置される周囲撮像装置200と、所定箇所C1に設けられ、第1の表示装置100および周囲撮像装置200と通信可能に構成され、第2のユーザ20によって操作される情報処理装置300と、を備え、第1の表示装置100は、情報処理装置300に対して第1の映像データV1を送信する第1の通信部を備え、周囲撮像装置200は、情報処理装置300に対して第2の映像データV2を送信する第2の通信部を備え、情報処理装置300は、第1および第2の映像データV1,V2を表示する第2の表示装置376,378と、データを入力する操作部と、操作部を介して第2のユーザ20が入力したデータを第1の表示装置100に送信する第3の通信部と、を備える。【選択図】図1

Description

本発明は、遠隔作業支援システムに関する。
近年、眼鏡型のヘッドマウント ディスプレイを用いて所定のAR(Argumented Reality)、MR(Mixed Reality)、またはVR(Virtual Reality)情報を表示する、いわゆるウェアラブル情報表示端末等が市場に登場し始めている。また、AR、MR、VR以外にも、音声、表示、振動、温度、臭い、味、電気信号、刺激等、人の五感に訴えるインタフェースを備えたウェアラブル端末も市場に登場し始めている。これに伴い、この種のウェアラブル端末においては、AR情報表示端末等の制御や各種活用に関する手法も種々提案されている。その一例として、下記特許文献1の明細書段落0118、0119には、『使用者Uの行動状態が、上述したような加速度センサ等からの検出結果により、「非歩行時」であると判断されたとき、自動的に詳細モードに切り替わる。さらに図17に示したテーブルに従って、「発信者」、「タイトル」、「発信時刻」、「Cc」、「本文」の表示フィールドから、そのアイテムが選択される。この結果、図16の(b)に示すように、詳細な文字情報が画面全体を使って表示される。』、『これに対して、使用者Uの行動状態が、加速度センサ等からの検出結果により、「歩行時」であると判断されたとき、自動的に要約モードに切り替わる。さらに図17に示したテーブルに従って、「アイコン」と「発信者」の表示フィールドから、そのアイテムが選択される。この結果、使用者Uは、図16の(a)に示すように、アイコンと発信者名のみが画面中央領域の一部を使って、しかも文字は詳細モードの時よりも大きな文字で表示される。』と記載されている。
特開2007−163634号公報
ところで、ウェアラブル端末を産業用途や、保守用途等に適用する場合、例えば現場の作業者がウェアラブル端末を装着することになる。それと同時に、例えば遠隔地に居る管理者等がウェアラブル端末から収集したデータをネットワーク経由で取得し、作業状況を確認したい、という要望がある。しかし、ウェアラブル端末から収集したデータを管理者等に送信するのみでは、作業者および管理者等が適切に協働できない場合がある。
この発明は上述した事情に鑑みてなされたものであり、複数のユーザが適切に協働できる遠隔作業支援システムを提供することを目的とする。
上記課題を解決するため本発明の遠隔作業支援システムは、作業現場において作業する第1のユーザに装着される第1の表示装置と、前記作業現場に配置される周囲撮像装置と、所定箇所に設けられ、前記第1の表示装置および前記周囲撮像装置と通信可能に構成され、第2のユーザによって操作される情報処理装置と、を備え、前記第1の表示装置は、前記第1のユーザに対して情報を表示する第1の表示部と、前記第1の表示装置の前方を撮影し、第1の映像データを出力する第1の撮像部と、前記情報処理装置に対して前記第1の映像データを送信する第1の通信部と、を備え、前記周囲撮像装置は、前記第1の映像データの撮像範囲とは異なる撮像範囲を含む第2の映像データを出力する第2の撮像部と、前記第2の映像データに対して、必要に応じて低解像度化または高解像度化を行う送信制御部と、前記情報処理装置に対して前記第2の映像データを送信する第2の通信部と、を備え、前記情報処理装置は、前記第1および第2の映像データを表示する第2の表示装置と、データを入力する操作部と、前記操作部を介して前記第2のユーザが入力したデータを前記第1の表示装置に送信する通信部と、を備えることを特徴とする。
本発明によれば、複数のユーザが適切に協働できる。
本発明の一実施形態による遠隔作業支援システムの全体構成図である。 ウェアラブル端末の構成の一例を示すブロック図である。 周囲カメラの構成の一例を示すブロック図である。 情報処理装置の構成の一例を示すブロック図である。 作業開始手順の一例を示すシーケンス図である。 作業開始手順においてディスプレイに表示される各種画面を示す図である。 管理者20が作業支援を行う環境を示す模式図である。 2台のディスプレイの表示例を示す図である。 拡大表示動作の説明図である。 2台のディスプレイの他の表示例を示す図である。 スクロール動作の説明図である。 2台のディスプレイの他の表示例を示す図である。 各種仮想画面の例を示す図である。 低解像度化処理を行う環境を示す模式図である。 低解像度化処理ルーチンのフローチャートである。 注目箇所通知ルーチンのフローチャートである。 各種仮想画面の他の例を示す図である。 詳細注目箇所通知ルーチンのフローチャートである。 レーザーポインタによる注目箇所通知動作を示す模式図である。 サーモグラフィ画像を重畳したディスプレイの表示例を示す図である。
〈実施形態の構成〉
(全体構成)
以下の実施の形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらは互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。
また、以下の実施の形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。
さらに、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。
同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。
また、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
図1は、本発明の一実施形態による遠隔作業支援システム1の全体構成図である。
図1において、遠隔作業支援システム1は、ウェアラブル端末100と、周囲カメラ200と、情報処理装置300と、視線検出センサ400と、測距センサ500(姿勢検出部)と、を備えている。ここで、作業現場W1に赴いている作業者10(第1のユーザ)は、ウェアラブル端末100を装着して各種作業を行う。ウェアラブル端末100は、略眼鏡状の形態を有しており、透過型HMD(ヘッドマウントディスプレイ)や、カメラ等を備えている(図示略)。特に、ウェアラブル端末100に装着されたカメラは、作業者10の視点における映像を撮影する。また、周囲カメラ200は、作業者10の近傍に配置されている。
また、管理センタC1(所定箇所)は、作業現場W1から離れた遠隔地に設けられている。管理センタC1には、熟練者である管理者20(第2のユーザ)が配置され、管理者20の周囲には、上述した情報処理装置300、視線検出センサ400、および測距センサ500が設置されている。
作業者10は、作業現場W1に到着すると、顔面にウェアラブル端末100(第1の表示装置)を装着し、周囲カメラ200(周囲撮像装置)を任意の場所に設置する。ここで、周囲カメラ200は、全天球カメラ、360度カメラ、180度カメラとも呼ばれているものであり、上下左右全方位の360度パノラマ画像・動画や半球にあたる180度パノラマ画像・動画を撮影するカメラを指す。周囲カメラ200は、持ち運び可能な形態であり、作業者10が作業現場を移動する毎に持ち運んで設置するものである。周囲カメラ200の設置位置は、例えば作業者10を俯瞰し、あたかも管理センタC1にいる管理者20が傍に立って作業状況を見ているかのように、作業者の傍に設置するとよい。
なお、他の作業現場W2,W3においても、作業現場W1と同様に作業者10、ウェアラブル端末100および周囲カメラ200が配置され(図示略)、管理者20は、情報処理装置300を介して、これら作業現場W1,W2,W3の状態を確認することができる。ウェアラブル端末100、周囲カメラ200および情報処理装置300は、通信ネットワーク600を介して双方向通信することが可能である。なお、通信ネットワーク600は、WAN(広域ネットワーク,Wide Area Network)、LAN(Local Area Network)、4G(LTE:Long Term Evolution)/5G等のネットワークの何れであってもよい。
例えば、情報処理装置300は、周囲カメラ200およびウェアラブル端末100から供給された映像を受信し、複数の(図示の例では2台の)ディスプレイ376,378(第2の表示装置)に、これら映像をそれぞれ表示する。管理者20は、これら映像を目視することによって、作業者10の作業状況と現場周囲の状況を同時に把握することができる。ここで、管理者20が高い臨場感で映像を見るために、ウェアラブル端末100からの映像を表示するディスプレイ376には小中型のディスプレイを適用するとよい。また、周囲カメラ200からの映像を表示するディスプレイ378には、ディスプレイ376よりも大型のディスプレイを適用するとよい。特に、大型のディスプレイ378は、フラットパネルディスプレイに限らず、全天球ディスプレイや半天球ディスプレイを適用してもよい。また、ウェアラブル端末100からの映像を出力する小中型のディスプレイ376は、管理者20の目前に設置し、その後方に大型のディスプレイ378を設置し、管理者20が直感的に何れの映像であるかを判断できるようにすると好ましい。
管理センタC1における視線検出センサ400および測距センサ500は、管理者20の各種の動作を検出する。例えば、視線検出センサ400は、管理者20がどのディスプレイに目視しているか、また、当該ディスプレイのどの箇所を目視しているかを検出し、ディスプレイ上の座標を取得することができる。このため、視線検出センサ400は、赤外線カメラ、近赤外線カメラ、可視光カメラ、光源等を備えており、管理者20の視線方向を検出する機能を有している。また、測距センサ500は、三次元センサとも呼ばれ、TOF(Time Of Flight)センサやステレオカメラ等を使用して、管理者20の体や頭、手、腕等の三次元位置情報を取得する機能を備えている。測距センサ500は、管理者20の体や頭、手、腕等の部位と自機との距離を検出することによって、管理者20の体や頭、手、腕等の動作を検出する。詳細は後述するが、情報処理装置300は、測距センサ500が検出した管理者20に動作に基づいて、ディスプレイ上に表示している周囲カメラ200の映像を非接触でスクロールすることができる。
クラウド30は、サーバ機等の複数の情報処理装置とストレージとを備えている。クラウド30は、通信ネットワーク600に接続され、ウェアラブル端末100や周囲カメラ200からの映像を蓄積する他、作業者10や管理者20に関する情報や、各作業現場W1,W2,W3のネットワーク構成情報を蓄積する。また、クラウド30は、ウェアラブル端末100に搭載した各種センサや作業現場に設置された各種センサのデータを分析し、管理者20にとって価値ある情報を変換した後、管理者20の情報処理装置300に送信する。例えば、クラウド30は、ウェアラブル端末100に搭載したバイタル計測部164(図2参照)で測定した作業者10のバイタルデータを分析し、作業者10の疲労度あるいはストレス度を数値化して、管理者20に通知することができる。また、クラウド30は、各作業現場W1,W2,W3の装置や端末等の管理・監視を行い、エラーが発生した場合に管理者20に通知する。
このように、図1に示した遠隔作業支援システム1によれば、管理者20は、小中型のディスプレイ376を介して、作業者10の視点の映像を確認することができる。さらに、管理者20は、大型のディスプレイ378を介して、現場周囲の映像を自分自身で操作して目視することができる。そして、あたまも管理者20自身が作業現場W1に居るかのように視点を動かすことができるため、作業者10を含む現場の状況を詳細に把握することができる。
(ウェアラブル端末100)
図2は、ウェアラブル端末100の構成の一例を示すブロック図である。なお、図示の例では、作業者10(図1参照)の頭部に装着する表示装置に操作機能と演算処理機能が一体となっている。
図2においてウェアラブル端末100は、通信部102(第1の通信部)と、電源部103と、光源部104と、制御部110と、操作部130と、センサ部160と、記憶部170と、表示部180と、を備えている。
通信部102は、制御部110の制御の下、通信ネットワーク600(図1参照)を介して、クラウド30、情報処理装置300等との間で各種データを送受信する。さらに、通信部102は、WiFi、Bluetooth(登録商標)、LPWA(Low-Power Wide Area)、USB(Universal Serial Bus)等の近距離通信のインタフェースも備えている。これにより、通信部102に追加の入出力装置(図示せず)を接続することができ、追加の入出力装置を介して操作コマンド等を入出力することもできる。
電源部103は、内蔵または外付けのバッテリ等を備えており、ウェアラブル端末100の各部に対して電源を供給する。光源部104は、センサ部160を利用する場合や、周囲環境が暗い場合等に、ウェアラブル端末100の前方およびその周辺を照明する一または複数の光源(図示せず)を備えている。特に、光源の照射範囲が狭い場合は、複数の光源を備えることが好ましい。また、光源部104を、ウェアラブル端末100の両端に設置することによって広い照射範囲を実現することができる。
ここで、操作部130は、入力操作部131と、音声入出力部132と、を備えている。入力操作部131は、作業者10(図1参照)によって各種データが入力できるように、ボタン、タッチパネル、スイッチ、ダイヤル、外付けのマウス、キーボード等の入力デバイス(図示せず)と、デバイス制御用のドライバ(図示せず)と、を備えている。また、音声入出力部132は、マイク、イヤホン、スピーカ等(図示せず)を備えている。作業者10はマイクを介して制御部110に音声データを入力することができ、制御部110は、イヤホン、スピーカ等を介して作業者10に音声データを出力することができる。
また、センサ部160は、撮像部161(第1の撮像部)と、慣性計測部162と、環境計測部163と、バイタル計測部164と、を備えている。撮像部161は、ユーザである作業者10の正面すなわち作業者10の視界を撮影対象とし、4k/8k解像度の静止画または動画を撮影し、映像データV1(第1の映像データ)を出力する。
慣性計測部162は、加速度センサ、ジャイロセンサ、地磁気センサ、GPS(Global Positioning System)装置等を備えている(図示せず)。これにより、慣性計測部162は、作業者10の視線方向や視線位置、姿勢、現在位置等を取得し、または推定する。環境計測部163は、照度計、温度計、湿度計、環境マイク等を備えており(図示せず)、作業者10の周囲環境に関する情報を取得し、または推定する。また、環境計測部163は、温度計等の計測結果に基づいて、サーモグラフィ画像612(図20参照)を生成する。バイタル計測部164は、心拍計、体温計、血圧計、脈拍計、脳波計等を備えている(図示せず)。これにより、バイタル計測部164は、作業者10の身体情報を取得し、作業者10の体調や感情を推定する。
また、記憶部170は、認証部171と、スキル管理部172と、通信先登録部173と、を備えている。より具体的には、記憶部170は、ROM、FROM(Flash ROM)等の不揮発性メモリを有し、ここに各種のパラメータ、プログラム等が格納されている。これらパラメータ、プログラム等によって、認証部171、スキル管理部172、通信先登録部173等の機能が実現されている。
認証部171は、ウェアラブル端末100と情報処理装置300またはクラウド30との間で通信を行う際、個人認証、機器認証、サービス認証等のアクセス制限を行う。スキル管理部172は、作業者10になり得る複数のユーザの氏名、所属、職種、職務経歴、経験年数、所有する資格等の静的情報を管理する。通信先登録部173は、通信部102を介して通信する端末やサービスのアドレス情報等を管理する。例えば、クラウド30のサービスを利用する場合は、「http://(クラウド30のIPアドレス):(ポート番号)/サービスID」等のURLを設定する。なお、記憶部170は、ウェアラブル端末100の外部に設けてもよい。例えば、ネットワークを介して接続されているクラウド30に記憶部170を設け、ウェアラブル端末100が必要に応じて記憶部170にアクセスしてもよい。
表示部180は、表示制御部182と、左表示部184(第1の表示部)と、右表示部186(第1の表示部)と、を備えている。上述したように、ウェアラブル端末100は、眼鏡型の形態を有しており、左表示部184および右表示部186は、左右のアイグラスに対応する位置に設けられている。表示制御部182は、左表示部184および右表示部186に表示する画面の位置やタイミングを制御する。これにより、左表示部184および右表示部186は、透過型HMDとして機能し、作業者10に対して仮想画面190を提示する。なお、図2には、1個の仮想画面190を示しているが、表示部180は、複数の仮想画面190を作業者10に提示することができる。
制御部110は、ウェアラブル端末100全体の制御処理、リアルタイム画像処理等を実行するものである。制御部110は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等、一般的なコンピュータとしてのハードウエアを備えており、ROMには、CPUによって実行される制御プログラム、DSPによって実行されるマイクロプログラムおよび各種データ等が格納されている。図2において、制御部110の内部は、制御プログラムおよびマイクロプログラム等によって実現される機能を、ブロックとして示している。
すなわち、制御部110は、送信制御部112と、仮想画面制御部114(画面制御部)と、を備えている。ここで、送信制御部112は、映像データV1を通信部102から送信するか否かを切り替え、また、送信する場合には、そのデータレートを設定する。また、仮想画面制御部114は、情報処理装置300(図1参照)から供給されたデータを、表示部180を介して仮想画面190に表示させる。
なお、ウェアラブル端末100は、作業者10に装着できるものであれば、眼鏡型でなくてもよい。また、制御部110は、センサ部160や操作部130等と一体に構成されていてもよい。
(周囲カメラ200)
図3は、周囲カメラ200の構成の一例を示すブロック図である。
周囲カメラ200は、通信部202(第2の通信部)と、電源部203と、光源部204と、表示部208と、歪曲補正・画像合成部209(第2の撮像部)と、制御部210と、操作部250と、センサ部260と、記憶部270と、レーザーポインタ222(方向表示部)と、を備えている。
ここで、通信部202、電源部203、光源部204、操作部250は、ウェアラブル端末100(図2参照)の通信部102、電源部103、光源部104、操作部130と同様に構成されている。
センサ部260は、撮像部261,262(第2の撮像部)と、慣性計測部263と、環境計測部264と、を備えている。撮像部261,262は、広角レンズ(図示せず)を備えている。そして、撮像部261,262は、全周囲を対象として高解像度な上下左右の360°パノラマ4k/8k解像度の静止画または動画を撮影し、各々映像データVX1,VX2を出力する。また、慣性計測部263および環境計測部264は、ウェアラブル端末100(図2参照)の慣性計測部162および環境計測部163と同様に構成されている。
歪曲補正・画像合成部209は、映像データVX1,VX2において発生する周辺部分の歪みを補正し、両者を合成して、静止画または動画であるパノラマ映像データV2(第2の映像データ)を出力する。
レーザーポインタ222は、作業者10に対して特定の場所を指し示す等の目的のため、制御部210によって指定された座標方向に向けてレーザを照射する。なお、レーザーポインタ222に代えて、周囲カメラ200の筐体表面に複数の光源(LED等)を配置し、該当する方向の光源を点灯するようにしてもよい。
表示部208は、例えばフラットパネルディスプレイであり、制御部210の制御の下、各種情報を表示する。
記憶部270は、ROM、FROM(Flash ROM)等の不揮発性メモリを有し、ここに各種のパラメータ、プログラム等が格納されている。記憶部270は、通信先登録部272を有しており、その内容は、上述したウェアラブル端末100(図2参照)の通信先登録部173と同様である。
制御部210は、CPU、DSP、GPU、RAM、ROM等、一般的なコンピュータとしてのハードウエアを備えており、ROMには、CPUによって実行される制御プログラム、DSPによって実行されるマイクロプログラムおよび各種データ等が格納されている。図3において、制御部210の内部は、制御プログラムおよびマイクロプログラム等によって実現される機能を、ブロックとして示している。すなわち、制御部210は、送信制御部212を備えている。ここで、送信制御部212は、パノラマ映像データV2を通信部202から送信するか否かを切り替え、また、送信する場合には、そのデータレートを設定する。
(情報処理装置300)
図4は、情報処理装置300の構成の一例を示すブロック図である。
情報処理装置300は、例えば一般的なパーソナルコンピュータやサーバ装置であり、通信部302(第3の通信部)と、電源部303と、光源部304と、制御部310と、操作部350と、記憶部360と、表示部370と、を備えている。また、制御部310には、視線検出センサ400と、測距センサ500と、が接続されている。視線検出センサ400は、管理者20(図1参照)の視線方向を表すデータを、視線方向データGDとして制御部310に供給する。また、測距センサ500は、管理者20の姿勢や動作を、姿勢・動作データPMとして制御部310に供給する。
ここで、通信部302、電源部303、光源部304、操作部350は、ウェアラブル端末100(図2参照)の通信部102、電源部103、光源部104、操作部130と同様に構成されている。
表示部370は、上述したディスプレイ376,378と、これらディスプレイを制御する表示制御部372,374と、を備えている。
記憶部360は、ROM、FROM(Flash ROM)等の不揮発性メモリを有し、ここに各種のパラメータ、プログラム等が格納されている。記憶部360は、認証部361およびスキル管理部362を備えており、これらの内容は、上述したウェアラブル端末100(図2参照)の認証部171およびスキル管理部172と同様である。
制御部310は、CPU、RAM、ROM、GPU、SSD等、一般的なコンピュータとしてのハードウエアを備えており、SSDには、OS(Operating System)、アプリケーションプログラム、各種データ等が格納されている。OSおよびアプリケーションプログラムは、RAMに展開され、CPUによって実行される。図4において、制御部310の内部は、アプリケーションプログラム等によって実現される機能を、ブロックとして示している。
すなわち、制御部310は、重畳制御部312と、スクロール制御部314と、視線対応制御部316と、目視映像判定部318と、を備えている。これらにより、制御部310は、ウェアラブル端末100、周囲カメラ200、クラウド30等から受信した映像や情報を、表示部370に出力する。
重畳制御部312は、映像データV1およびパノラマ映像データV2に対して、必要に応じて、他の情報を重畳させる。スクロール制御部314は、視線方向データGDまたは姿勢・動作データPMに基づいて、大型のディスプレイ378に表示されているパノラマ映像データV2を上下方向または左右方向にスクロールさせる。また、目視映像判定部318は、視線方向データGDに基づいて、管理者20が映像データV1またはパノラマ映像データV2のうち何れを目視しているかを判定し、目視している座標位置を検出する。
また、視線対応制御部316は、姿勢・動作データPMに基づいて、管理者20が所定の姿勢(例えば前屈みの姿勢)を取っているか否かを判定する。そして、視線対応制御部316は、管理者20が所定の姿勢を取っており、かつ、所定時間以上、ほぼ一定の座標位置を注目していた場合には、映像データV1またはパノラマ映像データV2のうち、その座標位置の周囲範囲を拡大表示させる。
〈実施形態の動作〉
(作業開始手順)
図5は、作業開始手順の一例を示すシーケンス図である。また、図6は、作業開始手順においてディスプレイ376,378に表示される各種画面を示す図である。
図5において、クラウド30が管理・監視する装置、端末の何れかでエラー発生を検知すると、情報処理装置300は、表示部370を介して、管理者20に対してエラー通知を行う(ステップS501)。例えば、情報処理装置300は、図6に示すエラー画面601を、小中型のディスプレイ376に表示する。
管理者20は、エラー画面601を操作することによって発生したエラーの詳細を確認し、対策として発生現場への作業者派遣が必要であると判断したとする。すると、管理者20は、任意の作業者10の携帯端末に出動要求を送信する(ステップS502)。その際、エラーの詳細と発生現場の情報も作業者10に送信するとよい。作業者10は、出動要求を受信し(ステップS503)、エラーの詳細と発生現場の情報を確認する。次に、作業者10は、ウェアラブル端末100と周囲カメラ200(図1参照)を携えて、エラー発生現場に移動する(ステップS504)。ここで、エラー発生現場は、例えば図1に示す作業現場W1であったとする。
作業者10は、エラー発生現場すなわち作業現場W1に到着すると、ウェアラブル端末100を装着し、電源部103(図2参照)を操作してオン状態にする(ステップS505)。電源がオン状態にされたウェアラブル端末100は、スキル管理部172(図2参照)に記憶されたユーザ情報(ユーザに関する情報)を取得する。また、ウェアラブル端末100は、慣性計測部162から現在位置情報を取得する。次に、ウェアラブル端末100の制御部110は、通信先登録部173に記憶されたクラウド30のアドレス情報や、管理者20が管理する情報処理装置300のアドレス情報を取得し、通信部102を介して、情報処理装置300にアクセスする。そして、ウェアラブル端末100は、取得したユーザ情報と現在位置情報を送信するとともに、撮像部161で撮像した映像データV1のライブストリーミング配信を開始する。
一方、管理者20は、情報処理装置300を介して、ウェアラブル端末100からの通知や映像を受信することで作業者10の出動を検知する(ステップS506)。その際、小中型のディスプレイ376には、例えば、図6に示す画面603,604が表示される。次に、作業者10は、作業現場W1の任意の場所に周囲カメラ200を設置し、その電源部203(図3参照)を操作してオン状態にする(ステップS507)。電源がオン状態にされた周囲カメラ200は、慣性計測部263(図3参照)から現在位置を取得する。周囲カメラ200の制御部210は、通信先登録部272に記憶されたクラウド30のアドレス情報や、管理者20が管理する情報処理装置300のアドレス情報を取得し、通信部202を介して、情報処理装置300にアクセスする。
そして、周囲カメラ200は、取得した現在位置情報を送信するとともに、パノラマ映像データV2のライブストリーミング配信を開始する。情報処理装置300は、大型のディスプレイ378(図4参照)を介して、これらの情報を表示する。これにより、管理者20は、ディスプレイ378を介して、周囲カメラ200からの通知や映像を視認し、周囲カメラ200が設置された旨を検知する(ステップS508)。その際、ディスプレイ378には、パノラマ映像データV2に基づいて、例えば、図6に示す画面605,606の何れかが表示される。
次に、管理者20は、作業者10が実行すべき手順書や図面を準備し、作業者10のウェアラブル端末100に送付する(ステップS509)。この際、管理者20は、情報処理装置300の音声入出力部352を介して、音声で実施内容を入力し、その音声内容をテキスト化したものを手順書としてもよい。手順書や図面を受信したウェアラブル端末100は、表示部180(図2参照)によって生成される仮想画面190に、それらを表示する。
作業者10は、表示された手順書や図面の内容を確認し、必要な作業準備を実行する(ステップS510)。次に、作業者10が音声入出力部132を用いて、「作業開始」という音声を入力すると、その内容が通信部102を介して情報処理装置300へ送信され、ディスプレイ376,378(図4参照)に表示される。管理者20は、ディスプレイ376,378に表示された映像を見ながら、作業者10への作業支援を開始する(ステップS511)。
(一部の拡大表示動作)
図7は、管理者20が作業支援を行う環境を示す模式図である。図示の例では、大型のディスプレイ378の下方に、小中型のディスプレイ376が配置されている。そして、上述のように、ディスプレイ378には、周囲カメラ200からのパノラマ映像データV2等が表示され、ディスプレイ376には、ウェアラブル端末100からの映像データV1等が表示される。管理者20は、これらディスプレイ376,378の映像を見ながら、作業現場W1の様子を把握することができる。
また、視線検出センサ400はディスプレイ376,378の下方に設置され、測距センサ500は管理者20の側方または上方に設置される。ここで、視線検出センサ400は、複数設置してもよく、例えばディスプレイ376の下方と、ディスプレイ378の下方とに設置してもよい。同様に、測距センサ500も複数設置してもよく、例えば、管理者20の側方と上方とにそれぞれ設置してもよい。
図8は、2台のディスプレイ376,378の表示例を示す図である。図示の例では、大型のディスプレイ378には、パノラマ映像データV2に基づいて、図6に示した画面606が表示されている。また、小中型のディスプレイ376には、映像データV1に基づいて、図6に示した画面604が表示されている。
図9は、拡大表示動作の説明図である。
図9に示す姿勢22は、管理者20の通常の姿勢である。また、姿勢24は、管理者20がディスプレイ376,378を前屈みで覗き込む姿勢である。管理者20は、姿勢22の状態でディスプレイ376,378の映像を目視している際、映像の特定部分を詳しく見たいと希望する場合がある。その場合、管理者20は、その特定部分を前屈みで覗き込むような姿勢24を取る。すると、測距センサ500がその姿勢24を検出し、情報処理装置300の制御部310(図4参照)にその旨を示す姿勢・動作データPMを出力する。
次に、目視映像判定部318は、視線方向データGDに基づいて、管理者20が映像データV1またはパノラマ映像データV2のうち何れを目視しているかを判定し、目視している座標位置を検出する。これにより、視線対応制御部316は、映像データV1またはパノラマ映像データV2のうち、その座標位置の周囲範囲を拡大表示させる。ここで、管理者20の姿勢が元の姿勢22(図9参照)に戻ると、測距センサ500がその姿勢を検出し、その旨を示す姿勢・動作データPMを情報処理装置300の制御部310に出力する。これに対して、制御部310は、映像データV1またはパノラマ映像データV2の表示状態を、元の状態(図8参照)に戻す。
図10は、2台のディスプレイ376,378の他の表示例を示す図である。一例として、ディスプレイ376,378において、図8に示した画面604,606が表示されていたとする。そして、管理者20が前屈みで覗き込むような姿勢24(図9参照)で画面606の中央付近を注目していたと仮定する。すると、図10に示すように、ディスプレイ378には、画面606の中央付近を拡大した画面608が表示される。なお、ディスプレイ376には、図8の場合と同様の画面604が表示されている。以上により、管理者20の自然な動作により、映像の拡大縮小表示が可能となる。
(スクロール動作#1)
図11は、スクロール動作の説明図である。
図示の姿勢22は、図7に示した管理者20の姿勢と同様である。ここで、管理者20が、大型のディスプレイ378に表示されているパノラマ映像データV2をスクロールしたい、と希望する場合がある。この場合、姿勢26に示すように、管理者20は、手または腕を、スクロール方向へ振る動作を実行する。測距センサ500は、この動作を検出し、対応する姿勢・動作データPMを情報処理装置300の制御部310に供給する。そして、制御部310におけるスクロール制御部314(図4参照)は、この姿勢・動作データPMに基づいて、管理者20が手または腕を振っている方向に、パノラマ映像データV2をスクロールする。なお、パノラマ映像データV2をスクロールする方向は、例えば左右方向または上下方向である。
図12は、2台のディスプレイ376,378の他の表示例を示す図である。一例として、ディスプレイ376,378において、図8に示した画面604,606が表示されていたとする。そして、図11の姿勢26に示すように、管理者20が手または腕を、スクロール方向へ振る動作を実行したと仮定する。すると、図12に示すように、ディスプレイ378には、画面606(図8参照)をスクロールした画面610が表示される。なお、ディスプレイ376には、図8の場合と同様の画面604が表示されている。
(スクロール動作#2)
また、ディスプレイ378のパノラマ映像データV2をスクロールするために、別の方法を採用することもできる。それは、「管理者20がスクロールしたい方向へ視線を所定の速度で動かす」というものである。視線検出センサ400は、管理者20の視線の動きを表す視線方向データGDを情報処理装置300の制御部310(図4参照)に供給する。すると、スクロール制御部314は、この視線方向データGDに基づいて、視線が動いた方向に、パノラマ映像データV2をスクロールする。以上により、管理者20の自然な動作により、非接触でパノラマ映像データV2をスクロールすることができる。
(作業者10に対する情報伝達)
図13は、各種仮想画面の例を示す図である。
管理者20は、情報処理装置300の操作部350(図4参照)を操作し、ウェアラブル端末100に対して各種情報を送信することができる。これにより、ウェアラブル端末100には、例えば、図13に示すような仮想画面1001〜1003が表示される。仮想画面1001は、管理者20が特定したエラー原因を示している。また、仮想画面1002は、管理者20が指定した、次に作業者10が実行すべき作業を表示している。また、仮想画面1003は、移動先の地図を示している。
(低解像度化処理)
図1において、通信ネットワーク600を介して情報処理装置300に供給される映像データV1およびパノラマ映像データV2は、通常は高解像度のデータである。しかし、通信ネットワーク600等に障害が生じ、通信状態が悪くなると、高解像度の映像データV1およびパノラマ映像データV2を伝送させると、映像が途切れる場合がある。そこで、本実施形態においては、映像データV1またはパノラマ映像データV2のうち何れかを低解像度化する処理、すなわち、データレートを下げる処理を行う。
図14は、低解像度化処理を行う環境を示す模式図である。
図14において、管理者20が大型のディスプレイ378を目視する際、その視線の範囲を「エリアQA」と呼ぶ。また、小中型のディスプレイ376を目視する際、その視線の範囲を「エリアQB」と呼ぶ。また、ディスプレイ376には映像データV1が表示され、ディスプレイ378にはパノラマ映像データV2が表示されていることとする。目視映像判定部318(図4参照)は、視線検出センサ400の視線方向データGDによって、管理者20の視線方向がエリアQA,QBの何れに属するかを判定する。
図15は、制御部310において実行される低解像度化処理ルーチンのフローチャートである。
図において処理がステップS1101に進むと、目視映像判定部318(図4参照)は、視線検出センサ400からの視線方向データGDを取得する。次に、処理がステップS1102に進むと、目視映像判定部318は、管理者20が見ている範囲がエリアQA,QBのうち何れであるかを判定する。次に、処理がステップS1103に進むと、目視映像判定部318は、管理者20が、エリアQA,QBのうち何れか一方を所定時間注視し続けているか否か(視線位置が停滞しているか否か)を判定する。
ステップS1103において「No」と判定されると、処理はステップS1101に戻り、上述した動作が繰り返される。一方、ステップS1103において「Yes」と判定されると、処理はステップS1104に進み、目視映像判定部318は、注視範囲はエリアQA(すなわちパノラマ映像データV2)であるか否かを判定する。ここで「Yes」と判定されると、処理はステップS1105に進む。ステップS1105においては、目視映像判定部318は、ウェアラブル端末100に対して、低解像度化を要求する信号を送信する。
この信号をウェアラブル端末100が受信すると、ウェアラブル端末100の送信制御部112(図2参照)は、映像データV1のデータレートを下げ、低解像度化する。例えば、元々の解像度が「4k/30fps」であったものを、「ハイビジョン/15fps」に低解像度化する。これにより、以降は、低解像度化された映像データV1が小中型のディスプレイ376に表示されるようになる。一方、注視範囲がエリアQB(すなわち映像データV1)であった場合、ステップS1104において「No」と判定され、処理はステップS1106に進む。
ステップS1106においては、目視映像判定部318は、周囲カメラ200に対して、低解像度化を要求する信号を送信する。この信号を周囲カメラ200が受信すると、周囲カメラ200の送信制御部212は、パノラマ映像データV2のデータレートを下げ、低解像度化する。これにより、以降は、低解像度化されたパノラマ映像データV2が、大型のディスプレイ378に表示されるようになる。
以上のように、本実施形態によれば、映像データV1またはパノラマ映像データV2のうち、管理者20が注視している映像を高画質化状態に保持し、注視していない映像は低画質化することで、通信ネットワーク600上のデータ量を削減することができる。なお、通信環境がさらに悪化した場合、送信制御部112,212は、映像データV1またはパノラマ映像データV2の送信を停止させてもよい。
(注目箇所通知処理#1)
次に、作業現場W1の作業者10が、管理者20の注目箇所を通知する処理を説明する。
図16は、注目箇所通知ルーチンのフローチャートである。図16においてステップS1201,S1202,S1203の処理は、図15におけるステップS1101,S1102,S1103と同様である。すなわち、ステップS1203において「Yes」と判定される場合とは、管理者20が、エリアQA,QBのうち何れか一方を所定時間注視し続けていた場合である。ステップS1203において「Yes」と判定されると、処理はステップS1204に進み、ウェアラブル端末100に対して、管理者20が見ている範囲を通知する。これにより、本ルーチンの処理が終了する。
図17は、各種仮想画面の他の例を示す図である。
上述したステップS1204による通知をウェアラブル端末100が受信すると、ウェアラブル端末100には、例えば、図17に示すような仮想画面1205,1206が表示される。
これにより、作業者10は管理者20が映像データV1またはパノラマ映像データV2のうち何れの画像を注目しているかを把握することができるため、間違いや状況変化に気付き易くなる。
(注目箇所通知処理#2)
図18は、詳細注目箇所通知ルーチンのフローチャートである。
本ルーチンは、管理者20がパノラマ映像データV2を注目している場合に、作業者10がそのさらに詳細な視線方向を把握できるようにしたものである。図18において、処理がステップS1301に進むと、目視映像判定部318(図4参照)は、視線検出センサ400からの視線方向データGDを取得する。次に、処理がステップS1302に進むと、目視映像判定部318は、管理者20が見ている範囲がエリアQAであるか否かを判定する。ここで、「No」と判定されると、処理がステップS1301に戻る。
一方、ステップS1302において「Yes」と判定されると、処理はステップS1303に進む。ここでは、目視映像判定部318は、管理者20が、エリアQAを所定時間注視し続けているか否かを判定する。ここで「No」と判定されると、処理はステップS1301に戻る。一方、「Yes」と判定されると、処理はステップS1304に進み、目視映像判定部318は、周囲カメラ200に対して、視線方向の座標位置を通知する。すなわち、目視映像判定部318は、管理者20の視線位置が360度パノラマ画像であるパノラマ映像データV2の何れの位置に該当するかを判定し、その座標位置を周囲カメラ200に対して通知する。以上により、本ルーチンの処理は終了する。
一方、周囲カメラ200の制御部210(図3参照)は、上述した座標位置を受信すると、この座標位置に対してレーザを照射するように、レーザーポインタ222を制御する。
図19は、レーザーポインタ222による注目箇所通知動作を示す模式図である。図示のように、レーザーポインタ222が、管理者20の注目箇所にレーザ光を照射することにより、作業者10は、管理者20の注目箇所を容易に把握できる。これにより、作業者10は、間違いや状況変化に気付き易くなり、管理者20が注視している部分を作業対象として正確に把握することができる。
なお、上述した処理では、レーザーポインタ222によって管理者20の注目箇所を表示したが、ウェアラブル端末100において注目箇所を通知してもよい。すなわち、大型のディスプレイ378において管理者20が注視している画像部分を切り出し、その画像部分をウェアラブル端末100に送信し、表示部180に表示させてもよい。
(サーモグラフィ表示処理)
上述したように、ウェアラブル端末100の環境計測部163(図2参照)は、撮像部161の視野に映る対象のサーモグラフィ画像を生成する。管理者20が小中型のディスプレイ376(図4参照)においてウェアラブル端末100からの映像データV1を目視していたとする。ここで、管理者20が操作部350において「サーモグラフィ表示」を指定する所定の操作を行うと、その旨が通信部302を介してウェアラブル端末100に通知される。
すると、それ以降、ウェアラブル端末100は、映像データV1とともに、サーモグラフィ画像を情報処理装置300に送信する。情報処理装置300が映像データV1とサーモグラフィ画像とを受信すると、重畳制御部312は両者を重畳してディスプレイ376に表示させる。
図20は、サーモグラフィ画像を重畳したディスプレイ376の表示例を示す図である。図示の例において、ディスプレイ376には、図12に示したものと同様の画面604に加えて、サーモグラフィ画像612が重畳されて表示されている。なお、図示の例においてサーモグラフィ画像612はディスプレイ376の中央部に表示されているが、重畳制御部312は、管理者20の指令に基づいて、サーモグラフィ画像612の表示位置を任意に調節することができる。
以上のように、本実施形態によれば、ウェアラブル端末100の環境計測部163を用いて作業現場W1のサーモグラフィ画像を取得することができ、作業者10のみならず、管理者20も現場対象を可視化することができるため、問題の早期発見が可能になる。
〈実施形態の効果〉
以上のように本実施形態の遠隔作業支援システム(1)は、第1の表示装置(100)は、第1のユーザ(10)に対して情報を表示する第1の表示部(184,186)と、第1の表示装置(100)の前方を撮影し、第1の映像データ(V1)を出力する第1の撮像部(161)と、情報処理装置(300)に対して第1の映像データ(V1)を送信する第1の通信部(102)と、を備え、
周囲撮像装置(200)は、第1の映像データ(V1)の撮像範囲とは異なる撮像範囲を含む第2の映像データ(V2)を出力する第2の撮像部(209,261,262)と、第2の映像データ(V2)に対して、必要に応じて低解像度化または高解像度化を行う送信制御部(201)と、情報処理装置(300)に対して第2の映像データ(V2)を送信する第2の通信部(202)と、を備え、
情報処理装置(300)は、第1および第2の映像データ(V1,V2)を表示する第2の表示装置(376,378)と、データを入力する操作部(350)と、操作部(350)を介して第2のユーザ(20)が入力したデータを第1の表示装置(100)に送信する第3の通信部(302)と、を備える。
これにより、第1および第2のユーザ(10,20)が適切に協働できる。
また、遠隔作業支援システム(1)は、第2のユーザ(20)の視線を検出する視線検出センサ(400)と、第2の表示装置(376,378)に対して、第2の映像データ(V2)のうち視線に対応する箇所を拡大表示させる視線対応制御部(316)と、をさらに備える。
これにより、第2のユーザ(20)が、視線を動かす事によって、所望の箇所を拡大表示させることができる。
また、遠隔作業支援システム(1)は、第2のユーザ(20)の視線が所定状態である場合に、第2の表示装置(376,378)に表示された第2の映像データ(V2)を、左右方向または上下方向にスクロールさせるスクロール制御部(314)をさらに備える。
これにより、第2のユーザ(20)は、視線を所定状態にすることによって、第2の映像データ(V2)をスクロールさせることができる。
また、遠隔作業支援システム(1)は、第2のユーザ(20)の姿勢を検出する姿勢検出部(500)をさらに備え、視線対応制御部(316)は、姿勢検出部(500)が第2のユーザ(20)の所定の姿勢を検出した場合に、第2の表示装置(376,378)に対して、第2の映像データ(V2)のうち視線に対応する箇所を拡大表示させる。
これにより、第2のユーザ(20)は、所定の姿勢を取ると、視線に対応する箇所を拡大表示させることができる。
また、スクロール制御部(314)は、姿勢検出部(500)が、第2のユーザ(20)の所定の運動状態を検出すると、第2の表示装置(376,378)に表示された第2の映像データ(V2)を、左右方向または上下方向にスクロールさせる機能をさらに備える。
これにより、第2のユーザ(20)は、所定の運動を行うことによって、第2の映像データ(V2)をスクロールさせることができる。
また、遠隔作業支援システム(1)は、第2のユーザ(20)の視線を検出する視線検出センサ(400)と、検出した視線に基づいて、第2のユーザ(20)が第1および第2の映像データ(V1,V2)のうち何れを目視しているか判定する目視映像判定部(318)と、目視映像判定部(318)の判定結果に基づいて、第1または第2の映像データ(V1,V2)のデータレートを制御し、または送信を停止させる送信制御部(112,212)と、をさらに備える。
これにより、例えば、通信環境が悪化した場合に、第1または第2の映像データ(V1,V2)のデータレートを下げ、または送信を停止させ、通信を続行させることができる。
また、遠隔作業支援システム(1)は、目視映像判定部(318)の判定結果を第1の表示部(184,186)を介して第1のユーザ(10)に通知する画面制御部(114)をさらに備える。
これにより、第1のユーザ(10)は、第2のユーザ(20)が着目している箇所を容易に把握することができる。
また、遠隔作業支援システム(1)は、周囲撮像装置(200)に装着され、座標位置に対応する方向を表示する方向表示部(222)をさらに備える。
これにより、第1のユーザ(10)は、方向表示部(222)の表示によって、第2のユーザ(20)が着目している箇所を容易に把握することができる。
〈変形例〉
本発明は上述した実施形態に限定されるものではなく、種々の変形が可能である。上述した実施形態は本発明を理解しやすく説明するために例示したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、上記実施形態の構成に他の構成を追加してもよく、構成の一部について他の構成に置換をすることも可能である。また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、製品上で必要な全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。上記実施形態に対して可能な変形は、例えば以下のようなものである。
(1)上記実施形態においては、「姿勢検出部」の具体例として測距センサ500を適用した例を説明した。しかし、管理者20の姿勢や動きを検出できるものであれば、それを測距センサ500に代えて適用することができる。例えば、管理者20の動画を撮影して管理者20の姿勢を検出するモーションキャプチャシステムを適用することができる。また、管理者20に、各部の関節の曲げ角度を検出するセンサを装着し、これによって管理者20の姿勢や動きを検出してもよい。
(2)上記実施形態における情報処理装置300のハードウエアは一般的なコンピュータによって実現できるため、図15,図16,図18に示したフローチャート、その他上述した各種処理を実行するプログラム等を記憶媒体に格納し、または伝送路を介して頒布してもよい。
(3)図15,図16,図18に示した処理、その他上述した各処理は、上記実施形態ではプログラムを用いたソフトウエア的な処理として説明したが、その一部または全部をASIC(Application Specific Integrated Circuit;特定用途向けIC)、あるいはFPGA(Field Programmable Gate Array)等を用いたハードウエア的な処理に置き換えてもよい。
10 作業者(第1のユーザ)
20 管理者(第2のユーザ)
100 ウェアラブル端末(第1の表示装置)
102 通信部(第1の通信部)
112 送信制御部
114 仮想画面制御部(画面制御部)
161 撮像部(第1の撮像部)
184 左表示部(第1の表示部)
186 右表示部(第1の表示部)
200 周囲カメラ(周囲撮像装置)
202 通信部(第2の通信部)
209 歪曲補正・画像合成部(第2の撮像部)
212 送信制御部
222 レーザーポインタ(方向表示部)
261,262 撮像部(第2の撮像部)
300 情報処理装置
302 通信部(第3の通信部)
314 スクロール制御部
316 視線対応制御部
318 目視映像判定部
350 操作部
376,378 ディスプレイ(第2の表示装置)
400 視線検出センサ
500 測距センサ(姿勢検出部)
C1 管理センタ(所定箇所)
V1 映像データ(第1の映像データ)
V2 パノラマ映像データ(第2の映像データ)
W1 作業現場

Claims (8)

  1. 作業現場において作業する第1のユーザに装着される第1の表示装置と、
    前記作業現場に配置される周囲撮像装置と、
    所定箇所に設けられ、前記第1の表示装置および前記周囲撮像装置と通信可能に構成され、第2のユーザによって操作される情報処理装置と、を備え、
    前記第1の表示装置は、
    前記第1のユーザに対して情報を表示する第1の表示部と、
    前記第1の表示装置の前方を撮影し、第1の映像データを出力する第1の撮像部と、
    前記情報処理装置に対して前記第1の映像データを送信する第1の通信部と、を備え、
    前記周囲撮像装置は、
    前記第1の映像データの撮像範囲とは異なる撮像範囲を含む第2の映像データを出力する第2の撮像部と、
    前記情報処理装置に対して前記第2の映像データを送信する第2の通信部と、を備え、
    前記情報処理装置は、
    前記第1および第2の映像データを表示する第2の表示装置と、
    データを入力する操作部と、
    前記操作部を介して前記第2のユーザが入力したデータを前記第1の表示装置に送信する第3の通信部と、を備える
    ことを特徴とする遠隔作業支援システム。
  2. 前記第2のユーザの視線を検出する視線検出センサと、
    前記第2の表示装置に対して、前記第2の映像データのうち前記視線に対応する箇所を拡大表示させる視線対応制御部と、をさらに備える
    ことを特徴とする請求項1に記載の遠隔作業支援システム。
  3. 前記第2のユーザの視線が所定状態である場合に、前記第2の表示装置に表示された前記第2の映像データを、左右方向または上下方向にスクロールさせるスクロール制御部をさらに備える
    ことを特徴とする請求項2に記載の遠隔作業支援システム。
  4. 前記第2のユーザの姿勢を検出する姿勢検出部をさらに備え、
    前記視線対応制御部は、前記姿勢検出部が前記第2のユーザの所定の姿勢を検出した場合に、前記第2の表示装置に対して、前記第2の映像データのうち前記視線に対応する箇所を拡大表示させる
    ことを特徴とする請求項2に記載の遠隔作業支援システム。
  5. 前記姿勢検出部が、前記第2のユーザの所定の運動状態を検出すると、前記第2の表示装置に表示された前記第2の映像データを、左右方向または上下方向にスクロールさせるスクロール制御部をさらに備える
    ことを特徴とする請求項4に記載の遠隔作業支援システム。
  6. 前記第2のユーザの視線を検出する視線検出センサと、
    検出した前記視線に基づいて、前記第2のユーザが前記第1および第2の映像データのうち何れを目視しているか判定する目視映像判定部と、
    前記目視映像判定部の判定結果に基づいて、前記第1または第2の映像データのデータレートを制御し、または送信を停止させる送信制御部と、をさらに備える
    ことを特徴とする請求項1に記載の遠隔作業支援システム。
  7. 前記第2のユーザの視線を検出する視線検出センサと、
    検出した前記視線に基づいて、前記第2のユーザが前記第1および第2の映像データのうち何れを目視しているか判定する目視映像判定部と、
    前記目視映像判定部の判定結果を前記第1の表示部を介して前記第1のユーザに通知する画面制御部と、をさらに備える
    ことを特徴とする請求項1に記載の遠隔作業支援システム。
  8. 前記第2のユーザの視線を検出する視線検出センサと、
    検出した前記視線に基づいて、前記第2のユーザが前記第1および第2の映像データのうち何れを目視しているかを判定し、前記第2の映像データを目視している場合に、目視している座標位置を検出する目視映像判定部と、
    前記周囲撮像装置に装着され、前記座標位置に対応する方向を表示する方向表示部と、をさらに備える
    ことを特徴とする請求項1に記載の遠隔作業支援システム。
JP2019122778A 2019-07-01 2019-07-01 遠隔作業支援システム Active JP7372061B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019122778A JP7372061B2 (ja) 2019-07-01 2019-07-01 遠隔作業支援システム
CN202010557906.9A CN112188152A (zh) 2019-07-01 2020-06-18 远程作业支援系统
US16/910,746 US11169764B2 (en) 2019-07-01 2020-06-24 Remote work-support system
DE102020116951.5A DE102020116951A1 (de) 2019-07-01 2020-06-26 System zur unterstützung von fernarbeit
US17/490,239 US11544030B2 (en) 2019-07-01 2021-09-30 Remote work-support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019122778A JP7372061B2 (ja) 2019-07-01 2019-07-01 遠隔作業支援システム

Publications (2)

Publication Number Publication Date
JP2021010101A true JP2021010101A (ja) 2021-01-28
JP7372061B2 JP7372061B2 (ja) 2023-10-31

Family

ID=73919147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019122778A Active JP7372061B2 (ja) 2019-07-01 2019-07-01 遠隔作業支援システム

Country Status (4)

Country Link
US (2) US11169764B2 (ja)
JP (1) JP7372061B2 (ja)
CN (1) CN112188152A (ja)
DE (1) DE102020116951A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022187214A (ja) * 2021-06-07 2022-12-19 Necフィールディング株式会社 作業スキル判定システム、作業スキル判定方法、及び作業スキル判定プログラム
KR20230146980A (ko) 2022-04-13 2023-10-20 가부시키가이샤 히타치세이사쿠쇼 작업 지원 시스템 및 방법
WO2024069997A1 (ja) * 2022-09-29 2024-04-04 株式会社日立製作所 仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ
JP7464933B2 (ja) 2021-10-08 2024-04-10 株式会社日本ブレーン 表示装置及び表示システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020114656A1 (de) * 2020-06-02 2021-12-02 Audi Aktiengesellschaft Informationsverarbeitungssystem und verfahren zur verarbeitung von information
EP4329293A1 (en) * 2022-08-25 2024-02-28 Artificialy SA Support system of the control of surveillance cameras

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07140967A (ja) * 1993-11-22 1995-06-02 Matsushita Electric Ind Co Ltd 画像表示装置
JP2006023953A (ja) * 2004-07-07 2006-01-26 Fuji Photo Film Co Ltd 情報表示システム
JP2011197736A (ja) * 2010-03-17 2011-10-06 Mitsubishi Electric Corp 視界支援装置
JP2012095229A (ja) * 2010-10-28 2012-05-17 Sharp Corp 画像表示装置及び画像表示装置用のコンピュータプログラム
JP2014182629A (ja) * 2013-03-19 2014-09-29 Nec Corp 確認支援情報生成装置、確認支援情報生成方法、及びプログラム
WO2016092941A1 (ja) * 2014-12-12 2016-06-16 オリンパス株式会社 カプセル内視鏡システム及びその撮像方法
JP2016171477A (ja) * 2015-03-13 2016-09-23 株式会社日立製作所 遠隔作業支援装置、モニタリングシステム、および、遠隔作業支援方法
WO2017002505A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017156665A (ja) * 2016-03-04 2017-09-07 Necディスプレイソリューションズ株式会社 映像表示装置、映像表示方法、及びプログラム
JP2017188739A (ja) * 2016-04-04 2017-10-12 株式会社Ihiエアロスペース 画像取得圧縮送信方法、移動体の遠隔操縦方法、画像取得圧縮送信装置、及び移動体の遠隔操縦システム
WO2017199495A1 (ja) * 2016-05-20 2017-11-23 株式会社ソニー・インタラクティブエンタテインメント 画像処理システム、画像処理装置、及びプログラム
JP2017219890A (ja) * 2016-06-02 2017-12-14 グローリー株式会社 貨幣処理システム
JP2018010653A (ja) * 2009-09-22 2018-01-18 フェイスブック,インク. コンピュータ装置の遠隔制御
JP2018018315A (ja) * 2016-07-28 2018-02-01 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム
JP2018182570A (ja) * 2017-04-14 2018-11-15 コニカミノルタ株式会社 視線情報共有方法および視線情報共有システム
JP2019046291A (ja) * 2017-09-05 2019-03-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像表示方法
JP2019101919A (ja) * 2017-12-06 2019-06-24 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラムおよび記憶媒体

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7843470B2 (en) 2005-01-31 2010-11-30 Canon Kabushiki Kaisha System, image processing apparatus, and information processing method
JP4677269B2 (ja) * 2005-04-08 2011-04-27 キヤノン株式会社 情報処理方法およびシステム
JP2006332733A (ja) * 2005-05-23 2006-12-07 Hitachi Electronics Service Co Ltd カメラ画像を利用した監視サービスサポートシステム
JP5036177B2 (ja) 2005-12-12 2012-09-26 オリンパス株式会社 情報表示装置
JP5067850B2 (ja) * 2007-08-02 2012-11-07 キヤノン株式会社 システム、頭部装着型表示装置、その制御方法
WO2011058707A1 (ja) * 2009-11-11 2011-05-19 コニカミノルタオプト株式会社 撮影装置および遠隔作業支援システム
JPWO2012081194A1 (ja) * 2010-12-17 2014-05-22 パナソニック株式会社 医療支援装置、医療支援方法および医療支援システム
JP6612865B2 (ja) * 2014-11-17 2019-11-27 ヤンマー株式会社 作業機の遠隔操作のための表示システム
JP6295995B2 (ja) * 2015-04-28 2018-03-20 京セラドキュメントソリューションズ株式会社 情報処理装置、画像処理装置へのジョブ指示方法
EP3113106A1 (en) * 2015-07-02 2017-01-04 Nokia Technologies Oy Determination of environmental augmentation allocation data
JP2018026692A (ja) * 2016-08-10 2018-02-15 株式会社日立製作所 作業支援システム、撮影装置、及び表示装置
JP2018107695A (ja) * 2016-12-27 2018-07-05 フォーブ インコーポレーテッド 推定システム、推定方法及び推定プログラム
WO2018125428A1 (en) * 2016-12-29 2018-07-05 Magic Leap, Inc. Automatic control of wearable display device based on external conditions
JP2019036132A (ja) * 2017-08-16 2019-03-07 オリンパス株式会社 作業支援システム,ウェアラブル装置,撮像装置,作業支援方法
US10977868B2 (en) * 2018-06-29 2021-04-13 Factualvr, Inc. Remote collaboration methods and systems

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07140967A (ja) * 1993-11-22 1995-06-02 Matsushita Electric Ind Co Ltd 画像表示装置
JP2006023953A (ja) * 2004-07-07 2006-01-26 Fuji Photo Film Co Ltd 情報表示システム
JP2018010653A (ja) * 2009-09-22 2018-01-18 フェイスブック,インク. コンピュータ装置の遠隔制御
JP2011197736A (ja) * 2010-03-17 2011-10-06 Mitsubishi Electric Corp 視界支援装置
JP2012095229A (ja) * 2010-10-28 2012-05-17 Sharp Corp 画像表示装置及び画像表示装置用のコンピュータプログラム
JP2014182629A (ja) * 2013-03-19 2014-09-29 Nec Corp 確認支援情報生成装置、確認支援情報生成方法、及びプログラム
WO2016092941A1 (ja) * 2014-12-12 2016-06-16 オリンパス株式会社 カプセル内視鏡システム及びその撮像方法
JP2016171477A (ja) * 2015-03-13 2016-09-23 株式会社日立製作所 遠隔作業支援装置、モニタリングシステム、および、遠隔作業支援方法
WO2017002505A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017156665A (ja) * 2016-03-04 2017-09-07 Necディスプレイソリューションズ株式会社 映像表示装置、映像表示方法、及びプログラム
JP2017188739A (ja) * 2016-04-04 2017-10-12 株式会社Ihiエアロスペース 画像取得圧縮送信方法、移動体の遠隔操縦方法、画像取得圧縮送信装置、及び移動体の遠隔操縦システム
WO2017199495A1 (ja) * 2016-05-20 2017-11-23 株式会社ソニー・インタラクティブエンタテインメント 画像処理システム、画像処理装置、及びプログラム
JP2017219890A (ja) * 2016-06-02 2017-12-14 グローリー株式会社 貨幣処理システム
JP2018018315A (ja) * 2016-07-28 2018-02-01 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム
JP2018182570A (ja) * 2017-04-14 2018-11-15 コニカミノルタ株式会社 視線情報共有方法および視線情報共有システム
JP2019046291A (ja) * 2017-09-05 2019-03-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像表示方法
JP2019101919A (ja) * 2017-12-06 2019-06-24 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラムおよび記憶媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022187214A (ja) * 2021-06-07 2022-12-19 Necフィールディング株式会社 作業スキル判定システム、作業スキル判定方法、及び作業スキル判定プログラム
JP7464933B2 (ja) 2021-10-08 2024-04-10 株式会社日本ブレーン 表示装置及び表示システム
KR20230146980A (ko) 2022-04-13 2023-10-20 가부시키가이샤 히타치세이사쿠쇼 작업 지원 시스템 및 방법
WO2024069997A1 (ja) * 2022-09-29 2024-04-04 株式会社日立製作所 仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ

Also Published As

Publication number Publication date
US20210004195A1 (en) 2021-01-07
DE102020116951A1 (de) 2021-01-07
US11169764B2 (en) 2021-11-09
CN112188152A (zh) 2021-01-05
US11544030B2 (en) 2023-01-03
JP7372061B2 (ja) 2023-10-31
US20220019399A1 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
JP7372061B2 (ja) 遠隔作業支援システム
CN107807732B (zh) 用于显示图像的方法、存储介质和电子装置
JP5966510B2 (ja) 情報処理システム
US10600253B2 (en) Information processing apparatus, information processing method, and program
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
US20160049011A1 (en) Display control device, display control method, and program
CN111630477A (zh) 提供增强现实服务的设备及其操作方法
US20120256950A1 (en) Medical support apparatus, medical support method, and medical support system
JP2013258614A (ja) 画像生成装置および画像生成方法
JP2015095802A (ja) 表示制御装置、表示制御方法、およびプログラム
JPWO2014016986A1 (ja) 3次元環境共有システム及び3次元環境共有方法
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
KR20160060582A (ko) 시각 데이터를 처리하는 장치 및 방법, 및 관련된 컴퓨터 프로그램 제품
KR102512855B1 (ko) 정보 처리 장치 및 정보 처리 방법
EP3264380B1 (en) System and method for immersive and collaborative video surveillance
JPWO2017064926A1 (ja) 情報処理装置及び情報処理方法
JP2017033294A (ja) 3次元描画システム及び3次元描画プログラム
KR20160118568A (ko) Hmd가 구비된 단말의 정보 제공 서비스 방법 및 장치
US11137600B2 (en) Display device, display control method, and display system
CN109845251A (zh) 用于显示图像的电子设备和方法
EP3591514A1 (en) Electronic device and screen image display method for electronic device
GB2582106A (en) Display device and display device control method
JP2016053935A (ja) 可視像表示方法、第1デバイス、プログラム、及び、視界変更方法、第1デバイス、プログラム
EP4295219A1 (en) Devices, methods, and graphical user interfaces for maps
WO2022091945A1 (ja) 眼科システム、眼科装置遠隔操作方法、眼科装置遠隔操作プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231019

R150 Certificate of patent or registration of utility model

Ref document number: 7372061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150