JP7776397B2 - 仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ - Google Patents

仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ

Info

Publication number
JP7776397B2
JP7776397B2 JP2022156516A JP2022156516A JP7776397B2 JP 7776397 B2 JP7776397 B2 JP 7776397B2 JP 2022156516 A JP2022156516 A JP 2022156516A JP 2022156516 A JP2022156516 A JP 2022156516A JP 7776397 B2 JP7776397 B2 JP 7776397B2
Authority
JP
Japan
Prior art keywords
virtual
dimensional space
sensor
user
space sharing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022156516A
Other languages
English (en)
Other versions
JP2024049970A (ja
JP2024049970A5 (ja
Inventor
悠介 中村
直仁 池田
良太 川俣
佳一 三谷
佑哉 大木
崇志 沼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2022156516A priority Critical patent/JP7776397B2/ja
Priority to US18/860,850 priority patent/US20250298571A1/en
Priority to PCT/JP2023/002119 priority patent/WO2024069997A1/ja
Publication of JP2024049970A publication Critical patent/JP2024049970A/ja
Publication of JP2024049970A5 publication Critical patent/JP2024049970A5/ja
Application granted granted Critical
Publication of JP7776397B2 publication Critical patent/JP7776397B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、仮想三次元空間共有システムに関する。
離れた場所にいる複数の者が情報を共有したい場面がある。例えば、現場の設備が故障した場合、当該現場がある地に熟練の保守員が出向いて、保守を指導することがある。現場がある遠隔地に熟練の保守員が出向くためには、日程の調整が必要で故障修理が遅延し、出張コストが発生する。一方、遠隔会議システムを用いて熟練の保守員の指導を受ける場合、口頭や画像共有では的確な指導が困難である問題がある。
一方で、仮想空間を用いて作業状況を把握するシステムとして、以下の先行技術がある。特許文献1(特開2021-47610号公報)には、MR-HMDを装着した作業者が工事現場である空間内の施工物を様々な位置から様々な方向に観察すると、MR-HMDにより撮影された画像から端末装置により施工物の三次元形状が測定される。端末装置は、施工物の三次元形状を表す三次元形状データを受信し、三次元形状データと検査者に装着されたVR-HMDの位置及び姿勢とに基づき定まる、空間と座標系が共通の仮想空間内の検査者から見える施工物の三次元形状に、施工物の工事に関する検査結果の入力欄を重畳した画像を生成し、その画像をVR-HMDに表示させる。検査者はVR-HMDに表示される施工物の三次元形状を見ながら行った検査の結果を入力欄に入力する状況把握支援システムが記載されている。
また、特許文献2(特開2006-349578号公報)には、3次元レーザスキャナを用いて出来型表面をスキャニングし、コンピュータ内に構築された仮想空間に出来型表面の3次元点群データを合成する。次いで、当該仮想空間内に作業所内で定義される通り芯に関する情報を合成し、それに鉛直な仮想面を構築して移動し、仮想躯体面を設定する。そして、設定された仮想躯体面の表側又は裏側で出来型表面等の表示形態を変えて画面表示する出来型確認システムが記載されている。
特開2021-47610公報 特開2006-349578公報
前述した特許文献1に記載された状況把握支援システムや、特許文献2に記載された出来型確認システムには、現場のリアルタイムの状況と離れた場所にいる複数者の動作をリアルタイムで共有する仕組みはなく、遠隔地から現場に対して適切な指導が困難である課題がある。
本発明は、現場のリアルタイムの状況と離れた場所にいる複数者の動作をリアルタイムで共有することを目的とする。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、仮想三次元空間共有システムであって、第1の場所において第1の利用者が視認可能な第1の表示装置と、前記第1の場所において形状及び位置の少なくとも一つが変化する動的物体であるオブジェクト及び前記第1の利用者を観測する第1のセンサと、前記第1の場所と異なる第2の場所において第2の利用者の動きを観測する第2のセンサと、前記第1のセンサ及び前記第2のセンサからデータを収集するサーバとを備え、前記サーバは、前記第1のセンサが観測した前記オブジェクト及び前記第1の利用者と、前記第2のセンサが観測した前記第2の利用者を仮想三次元空間にマッピングし、前記仮想三次元空間にマッピングされた前記動的物体であるオブジェクトに対する前記第2の利用者の動きと位置の情報をリアルタイムに前記第1の表示装置へ送信することを特徴とする。
本発明の一態様によれば、現場のリアルタイムの状況と離れた場所にいる複数者の動作をリアルタイムで共有できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
本発明の実施例の情報共有システムの構成を示す図である。 本実施例の情報共有システムに設けられるコンピュータの物理的な構成を示すブロック図である。 本実施例の情報共有システムの論理ブロック図である。 本実施例の現場側センシング処理の詳細を示す図である。 本実施例のデータベースの構成例を示す図である。 本実施例のMRグラスに表示される映像の例を示す図である。 本実施例の管理者端末に表示される俯瞰画像の例を示す図である。
図1は、本発明の実施例の情報共有システムの構成を示す図である。
本実施例の情報共有システムは、複数の三次元センサ10、三次元センサ10に接続されるエッジ処理装置20、三次元センサ10による観測結果を処理するMECサーバ40、エッジ処理装置20をMECサーバ40に接続するネットワーク30、MRグラス50、VRグラス60、VRグラス60の装着者を観測する三次元センサ61、及び三次元センサ61に接続されるエッジ処理装置62を有する。情報共有システムは、管理者端末70を有してもよい。
三次元センサ10は、仮想三次元空間(メタバース空間)100で共有すべき現場の状況を観測するセンサである。三次元センサ10は、三次元の点群データを取得できるものであるとよく、例えばRGBデータに画素ごとの距離Dが付された距離付き画像を出力するTOFカメラを使用できる。三次元センサ10は、作業者の作業範囲を含む現場の広い範囲をカバーするために複数設けられ、各三次元センサ10の観測範囲が重複するように設置されるとよい。三次元センサ10は、現場に設置された設備や部屋の構造物などの形状や位置が変化しない静的物体や、車両、建設機械、ロボット、作業者、工具、作業対象物などの形状や位置が変化する動的物体をオブジェクトとして観測する。三次元センサ10は、作業者の状況(例えば、遠隔者の動きと位置)を観測する。
エッジ処理装置20は、三次元センサ10が取得した点群データから複数の三次元モデルデータや人の骨格モデルを含む三次元情報を生成するコンピュータである。エッジ処理装置20が点群データから三次元情報を生成することによって、エッジ処理装置20とMECサーバ40との間の通信量を低減し、ネットワーク30の逼迫を抑制できる。なお、ネットワーク30の帯域に問題がない場合においては、点群データをそのままMECサーバ40に伝送した後に三次元情報を生成してもよい。
MECサーバ40は、ネットワーク30に設けられるエッジコンピューティングを実現するコンピュータであり、本実施例では1台又は複数台のエッジ処理装置20から収集した三次元情報から仮想三次元空間100を生成する。
ネットワーク30は、エッジ処理装置20とMECサーバ40を接続する、データ通信に適した無線ネットワークであり、例えば、高速かつ低遅延の5Gネットワークを使用できる。なお、エッジ処理装置20が固定的に設置される場合には、有線ネットワークを使用してもよい。
MRグラス50は、現場にいる作業者が視認可能な表示装置であり、仮想三次元空間100を共有するために作業者の頭部に装着される形態であるとよい。MRグラス50は、プログラムを実行するプロセッサ、プログラムやデータを格納するメモリ、MECサーバ40と通信するネットワークインターフェース、及びMECサーバ40から送信された画像(図6を参照して後述)を表示するディスプレイを有する。ディスプレイを透過型として、装着者がディスプレイを通して周辺の映像をMECサーバ40から送信された映像と重畳して視認できるとよい。また、MRグラス50は、装着者の正面を撮影するカメラを有し、該カメラが撮影した映像をMECサーバ40に送信してもよい。また、MRグラス50は、装着者の正面を撮影するカメラが撮影した映像をMECサーバ40から送信された映像と重畳して表示してもよい。また、MRグラス50は、装着者の目を撮影するカメラを有し、該カメラが撮影した映像から装着者の視線方向を検知してもよい。また、MRグラス50は、装着者が聞いている音を検知するマイクロフォンを有してもよい。
また、現場の作業者はウェアラブルセンサ(例えば触覚グローブ)を装着してもよい。触覚グローブは、作業者の触覚を検知し、MECサーバ40に送信する。また、ウェアラブルセンサが作業者の手指の動きを検知し、ウェアラブルセンサが検知した手指の動きから、作業者の骨格モデルを生成し、作業者の行動を検知してもよい。
VRグラス60は、現場から離れた遠隔地にいる者(以下、遠隔者と称する、例えば熟練者)が視認可能な表示装置であり、仮想三次元空間100を共有するために作業者の頭部に装着される形態であるとよい。VRグラス60は、プログラムを実行するプロセッサ、プログラムやデータを格納するメモリ、MECサーバ40と通信するネットワークインターフェース、及びMECサーバ40から送信された画像(図6を参照して後述)を表示するディスプレイを有する。また、VRグラス60は、装着者の正面を撮影するカメラを有し、該カメラが撮影した映像をMECサーバ40に送信してもよい。MECサーバ40が設けられるネットワーク外に、VRグラス60が設けられる場合、VRグラス60とMECサーバ40はインターネット80などの公衆ネットワークや他の専用ネットワークを介して接続されるとよい。VRグラス60は、骨格モデルによって表される現場の作業者の動き及び位置を含むモーションデータを、MECサーバ40から受信し、現場の作業者のアバターを含む仮想三次元空間100を表示する。VRグラス60が、MECサーバ40から受信する仮想三次元空間100の情報は、作業者のアバターの他、三次元センサ10が観測したオブジェクトの情報を含む。
三次元センサ61は、仮想三次元空間100で共有すべきVRグラス60を装着する、遠隔者の状況(例えば、遠隔者の動きと位置)を観測するセンサである。三次元センサ61は、三次元センサ10と同様に、三次元の点群データを取得できるものであるとよく、例えばRGBデータに画素ごとの距離Dが付された距離付き画像を出力するTOFカメラを使用できる。遠隔者が、手指の動きを検知するウェアラブルセンサを装着してもよい。ウェアラブルセンサは遠隔者の手指の動きを検知し、MECサーバ40に送信する。MECサーバ40は、ウェアラブルセンサが検知した手指の動きから、作業者の骨格モデルを生成し、作業者の行動を検知してもよい。
エッジ処理装置62は、三次元センサ61が取得した点群データから複数の三次元モデルデータ人の骨格モデルを含む三次元情報を生成するコンピュータである。エッジ処理装置62が点群データから三次元情報を生成することによって、エッジ処理装置62とMECサーバ40との間の通信量を低減できる。なお、通信量に問題がない場合においては、点群データをそのままMECサーバ40に伝送した後に三次元情報を生成してもよい。
管理者端末70は、情報共有システムを利用する現場の管理者が使用する計算機であり、仮想三次元空間100の情報(例えば俯瞰画像)を表示できる。
本実施例の情報共有システムは、複数のMECサーバ40から収集した三次元情報を共有するための大規模仮想三次元空間を形成するクラウド90を有してもよい。クラウド90に形成された大規模仮想三次元空間は、複数のMECサーバ40が形成した仮想三次元空間を統合したものとなり、広範囲で大規模な仮想三次元空間を形成できる。
MRグラス50、VRグラス60、及び管理者端末70からのMECサーバ40へのアクセスは、IDとパスワードにより認証したり、これらの機器の固有のアドレス(例えば、MACアドレス)で認証して、情報共有システムのセキュリティを確保するとよい。
図2は、本実施例の情報共有システムに設けられるコンピュータの物理的な構成を示すブロック図である。図2には、コンピュータの例としてMECサーバ40を示すが、エッジ処理装置20、62、管理者端末70も同じ構成でよい。
本実施例のMECサーバ40は、プロセッサ(CPU)1、メモリ2、補助記憶装置3及び通信インターフェース4を有する計算機によって構成される。MECサーバ40は、入力インターフェース5及び出力インターフェース8を有してもよい。
プロセッサ1は、メモリ2に格納されたプログラムを実行する演算装置である。プロセッサ1が各種プログラムを実行することによって、MECサーバ40の各機能部(例えば、メタバース解析機能400など)が実現される。なお、プロセッサ1がプログラムを実行して行う処理の一部を、他の演算装置(例えば、GPU、ASIC、FPGA等のハードウェア)で実行してもよい。
メモリ2は、不揮発性の記憶素子であるROM及び揮発性の記憶素子であるRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサ1が実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。
補助記憶装置3は、例えば、磁気記憶装置(HDD)、フラッシュメモリ(SSD)等の大容量かつ不揮発性の記憶装置である。また、補助記憶装置3は、プロセッサ1がプログラムの実行時に使用するデータ及びプロセッサ1が実行するプログラムを格納する。すなわち、プログラムは、補助記憶装置3から読み出されて、メモリ2にロードされて、プロセッサ1によって実行されることによって、MECサーバ40の各機能を実現する。
通信インターフェース4は、所定のプロトコルに従って、他の装置(例えば、エッジ処理装置20、クラウド90)との通信を制御するネットワークインターフェース装置である。
入力インターフェース5は、キーボード6やマウス7などの入力装置が接続され、オペレータからの入力を受けるインターフェースである。出力インターフェース8は、ディスプレイ装置9やプリンタ(図示省略)などの出力装置が接続され、プログラムの実行結果をユーザが視認可能な形式で出力するインターフェースである。なお、MECサーバ40にネットワークを介して接続されたユーザ端末が入力装置及び出力装置を提供してもよい。この場合、MECサーバ40がウェブサーバの機能を有し、ユーザ端末がMECサーバ40に所定のプロトコル(例えばhttp)でアクセスしてもよい。
プロセッサ1が実行するプログラムは、リムーバブルメディア(CD-ROM、フラッシュメモリなど)又はネットワークを介してMECサーバ40に提供され、非一時的記憶媒体である不揮発性の補助記憶装置3に格納される。このため、MECサーバ40は、リムーバブルメディアからデータを読み込むインターフェースを有するとよい。
MECサーバ40は、物理的に一つの計算機上で、又は、論理的又は物理的に構成された複数の計算機上で構成される計算機システムであり、複数の物理的計算機資源上に構築された仮想計算機上で動作してもよい。例えば、各機能部は、各々別個の物理的又は論理的計算機上で動作するものでも、複数が組み合わされて一つの物理的又は論理的計算機上で動作するものでもよい。
図3は、本実施例の情報共有システムの論理ブロック図である。
本実施例の情報共有システムによる処理は、現場側センシング機能200、遠隔側センシング機能300、メタバース解析機能400、及びフィードバック機能500によって実行される。
現場側センシング機能200では現場センシング・伝送処理210において、三次元センサ10が現場の状況を観測し、観測された点群データをエッジ処理装置20に伝送する。そして、三次元情報生成処理220において、エッジ処理装置20は、三次元センサ10が観測した点群データや三次元モデルデータを含む三次元情報を生成する。三次元センサ10が、現場側に設置された動的物体の映像を撮影し、エッジ処理装置20が、三次元センサ10が撮影した動的物体の映像のフレームより前時間のフレームとの差分データをMECサーバ40に送信してもよい。
現場側センシング機能200の詳細は、図4に示すように、エッジ処理装置20が、複数の三次元センサ10の位置及び観測方向の関係に基づいて、複数の三次元センサ10が観測した点群データを統合する(221)。点群データの統合の際、MRグラス50が撮影した装着者の正面の映像を統合してもよい。
その後、静的物体高速三次元モデル化処理を実行する(222)。例えば、隣接する点群の位置関係に基づいて面を生成するアルゴリズムを使用して、静的物体の外側面を構成できる。また、動的物体高速三次元モデル化処理を実行する(223)。例えば、点群データから形状や位置が変化する範囲を抽出し、骨格推定によって得られた骨格モデルを生成し、人をモデル化する。生成された骨格モデルは人(作業者)の位置を表し、骨格モデルの時系列変化は人の動きを表す。静的物体のモデル化と動的物体のモデル化は、順番に実行してもよく、その順番はいずれが先でもよい。
その後、構成された面の連続性や動的物体の範囲に従って、動的物体と静的物体の弁別や、物体として意味を成す範囲を決定することで三次元モデルをセグメント化する(224)。
また、エッジ処理装置20は、装着者の視線方向及び装着者が聞いている音をMRグラス50から収集し、MECサーバ40に送信する。MECサーバ40では、後述するメタバース解析機能400が、静的物体及び動的物体を認識して、仮想三次元空間100が生成される。
遠隔側センシング機能300ではモーションセンシング処理310において、三次元センサ61が、遠隔者の状況を観測し、観測された点群データをエッジ処理装置62に送信する。そして、エッジ処理装置62は、三次元センサ61が観測した点群データに動的物体高速三次元モデル化処理を実行する(310)。例えば、点群データから形状や位置が変化する範囲を抽出し、骨格推定によって得られた骨格モデルを生成し、人をモデル化する。生成された骨格モデルは人(作業者)の位置を表し、骨格モデルの時系列変化は人の動きを表す。三次元センサ61が、遠隔側で映像を撮影し、エッジ処理装置20が、三次元センサ61が撮影した映像のフレームより前時間のフレームとの差分データをMECサーバ40に送信してもよい。
その後、エッジ処理装置62は、生成された骨格モデルからアバターを生成する(320)。また、エッジ処理装置62は、装着者の視線方向及び装着者が聞いている音をVRグラス60から収集し、MECサーバ40に送信する。生成された骨格モデルは、MECサーバ40に送信され、遠隔者の行動Bとして取り扱われる。また、生成されたアバターは、VRグラス60の装着者が聞いている音データと共にMECサーバ40に送信され、仮想三次元空間100に組み込まれ、MRグラス50にフィードバックされる。生成されたアバターは、MRグラス50に直接フィードバックされてもよい。MRグラス50の装着者は、遠隔者の動きや位置で表される行動や感覚が組み込まれた仮想三次元空間100を遠隔者と共有でき、遠隔者の動作が分かり、遠隔者と会話も可能となる。
メタバース解析機能400では、MECサーバ40は、現場側センシング機能200認識した動的物体の骨格モデルから現場作業者のアバターを生成し、遠隔側センシング機能300が生成した遠隔者の骨格モデルから遠隔者のアバターを生成する。これらの生成されたアバター、及び現場側センシング機能200が認識した静的物体の三次元モデルデータをマッピングした仮想三次元空間100を生成する。
物体認識処理410において、MECサーバ40は、セグメント化された三次元モデルを認識し、物体を特定する。例えば、現場に設置された物体の画像を学習した機械学習モデルや、現場に設置された物体の三次元形状が記録されたモデルによって物体の種別を推定できる。
動作認識処理420において、MECサーバ40は、骨格モデルによって表される現場の作業者の動き及び位置を含むモーションデータから、作業者の行動A(行動の種別)を認識する。例えば、過去の作業者の骨格モデルの変化によるモーションデータと作業者の行動によって学習した機械学習モデルによって作業者の行動を推定できる。
熟練感知処理430において、MECサーバ40は、作業者の視線方向や作業者に聞こえる音によって、作業者の熟練度を検知する。例えば、作業中の作業者の視線方向や聞こえる音と作業者の熟練度によって学習した機械学習モデルによって作業者の熟練度を推定できる。また、当該作業者の作業時間と標準作業時間を比較して、作業者の熟練度を推定してもよい。例えば、作業時間標準作業時間より小さい場合は熟練度が高いと判定できる。
動作認識処理440において、MECサーバ40は、遠者の骨格モデルの変化から、遠隔者の行動B(行動の種別)を認識する。例えば、過去の遠隔者の骨格モデルの変化と遠隔者の行動によって学習した機械学習モデルによって遠隔者の行動を推定できる。動作認識処理420と動作認識処理440は、同じ推定モデルを使用してもよい。
作業認識処理450において、MECサーバ40は、物体認識処理410で特定された物体と、動作認識処理420で認識された作業者の行動Aから作業者の作業Aを認識する。例えば、物体と行動Aによって学習した機械学習モデルや、物体と行動を関連付けたナレッジグラフによって作業者の作業Aを推定できる。さらに、動作認識処理440で認識された遠隔者の行動Bを用いて、作業者の作業Aを認識してもよい。
構造化・蓄積処理460において、MECサーバ40は、作業認識処理450で認識された作業Aをデータベース470に記録する。データベース470には、作業Aを認識するために使用された物体と、行動Aと、行動Aにおける骨格モデルの変化によるモーションデータと、行動Bと、行動Bにおける骨格モデルによって表される現場の作業者の動き及び位置を含むモーションデータが関連情報として登録される。データベース470の構成例の詳細は図5を参照して説明する。
フィードバック機能500では、MECサーバ40は、認識された作業者の行動Aをキーとしてデータベース470を検索し、データベース470から取得したフィードバック情報をMRグラス50に送信する。MRグラス50にフィードバックされる情報は、以前に行われた同じ工程の同じ作業のモーションデータから生成されるアバターや、以前に行われた同じ作業の映像や、当該作業の次工程の作業指示である。特に、アバターや作業映像は、遠隔者が行った同じ作業のデータを提供するとよい。MRグラス50にフィードバックされる情報は、熟練感知処理430で推定される熟練度や作業者の属性に従って変えるとよい。例えば、低熟練者には詳細な情報を提供し、高熟練者には概要の情報を提供するとよい。フィードバック機能500によって、MRグラス50を装着した作業者は、自らの行動Aに関連する情報を自動的に取得できる。
フィードバック機能500は、MRグラス50へのフィードバック以外に、設備(例えば、ロボット、建設機械、車両)へのフィードバックとして、指令をしてもよい。これによって、仮想三次元空間内での変化が現実世界に反映でき、様々な機械を制御できる。
図5は、本実施例のデータベース470の構成例を示す図である。図5にはデータベース470をテーブル形式で示すが、他のデータ構造で構成してもよい。
データベース470は、予め記録される作業関連情報471と、作業者の行動に伴って取得される作業取得情報472を含む。
作業関連情報471は、作業ID、作業基準時間、作業マニュアル、作業映像コンテンツ、及び作業文字コンテンツを関連付けて記憶する。作業IDは、予め記録される作業の識別情報である。作業基準時間は、作業者が行う作業の標準的な時間である。作業マニュアルは、作業者が行う作業の指示書であり、指示書へアクセスするためのリンクの情報を記録してもよい。作業映像コンテンツは、作業者が行う作業を熟練者又は当該作業者が以前に行った作業の映像であり、当該映像へアクセスするためのリンクの情報を記録してもよい。作業文字コンテンツは、作業者が行う作業に関する文字情報であり、当該文字情報へアクセスするためのリンクの情報を記録してもよい。
作業取得情報472は、行動ID、実作業時間、環境オブジェクト、作業者モーション、作業者位置、作業者視点、作業者音場、作業者触覚、作業者バイタル、作業者熟練度、作業ID、及び作業ログを関連付けて記憶する。作業IDは、作業者の一連の動作である行動の識別情報である。実作業時間、作業者の行動に要した時間である。環境オブジェクトは、作業者の行動に関係して撮影されたオブジェクト(例えば、部屋、床、装置、道具、ネジ)である。作業者モーションは、作業者の骨格モデルの特徴点(指、腕などの関節点、頭部)の座標の時間変化である。作業者位置は、作業者の特徴点(頭部、左右の手など)の位置や、環境オブジェクトとの位置関係(距離、方向)である。作業者視点は、作業者の視線や、視線方向に存在するオブジェクトの表面と視線の交点である。作業者音場は、作業者に聞こえている音であり、音データへアクセスするためのリンクの情報を記録してもよい。作業者触覚は、触覚グローブで取得した作業者の触覚である。作業者バイタルは作業者の声、表情、血流変化から推定される脈拍などであり、作業者の感情や属性を推定するために使用される。作業者熟練度は、熟練感知処理430で検知された作業者の熟練度である。作業IDは、作業認識処理450で認識された作業者の作業である。作業ログは、作業の実施の結果であり、正常終了、再作業、異常終了などが記録される。
図6は、本実施例の情報共有システムで現場作業者にフィードバックされ、MRグラス50に表示される映像の例を示す図である。
作業者映像は、図6に示すように、遠隔者のVRグラス(頭の位置)601と手602が現実の風景に重畳するように表示される。図6では遠隔者のアバターをVRグラスと手で構成したが、遠隔者の全身を表すアバターを生成して表示してもよい。さらに、作業者映像には、作業者属性611と、作業マニュアル612と、作業指示613を表示してもよい。さらに、作業者映像には、現場に居る他者の骨格モデルから生成されたアバター(図示省略)を表示してもよい。
現場の作業者は、作業者映像によって、遠隔者の行動をアバターによって視認でき、遠隔地の熟練者から適切な作業の指導を受けられる。
図7は、本実施例の情報共有システムで管理者端末70に表示される俯瞰画像の例を示す図である。
管理者端末70に表示される俯瞰画像は、遠隔地の熟練者のVRグラス(頭の位置)701と手702と、現場作業員のアバター711と、環境オブジェクト(作業対象物)721が三次元空間の画像に重畳して表示される。
俯瞰画像によって、現場の管理者は、仮想三次元空間内の事象を監視して、作業者が熟練者から受ける指導を確認でき、作業者の作業を管理できる。
MECサーバ40は、フィードバック映像(図6)や俯瞰画像(図7)に必要範囲内の映像のみを含むように画像の範囲を調整するとよい。図7に示す俯瞰画像は、作業対象物と作業者のアバターと遠隔者のアバターと、それらの周囲の背景だけを表示し、他の背景を消した例である。例えば、セグメント化処理(224)で認識された静的物体及び動的物体のうち、当該作業に関係ない物体を含まない範囲でフィードバックする画像の範囲を調整したり、当該作業に関係ない物体を含まない範囲にモザイク処理を適用して、関係のない物体を秘匿化するとよい。工場などの現場で使う時、工場の空間、顧客情報の外部への流出を抑制できる。
以上に説明したように、本発明の実施例によれば、現場のリアルタイムの状況と離れた場所にいる複数者の動作をリアルタイムで共有し、遠隔地から現場に対して適切な指導を可能にできる。
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
1 プロセッサ
2 メモリ
3 補助記憶装置
4 通信インターフェース
5 入力インターフェース
6 キーボード
7 マウス
8 出力インターフェース
9 ディスプレイ装置
10 三次元センサ
20 エッジ処理装置
30 ネットワーク
40 MECサーバ
50 MRグラス
60 VRグラス
61 三次元センサ
62 エッジ処理装置
70 管理者端末
80 インターネット
90 クラウド
100 仮想三次元空間
200 現場側センシング機能
210 伝送処理
220 三次元情報生成処理
300 遠隔側センシング機能
310 モーションセンシング処理
400 メタバース解析機能
410 物体認識処理
420 動作認識処理
430 熟練感知処理
440 動作認識処理
450 作業認識処理
460 蓄積処理
470 データベース
471 作業関連情報
472 作業取得情報
500 フィードバック機能

Claims (16)

  1. 仮想三次元空間共有システムであって、
    第1の場所において第1の利用者が視認可能な第1の表示装置と、
    前記第1の場所において形状及び位置の少なくとも一つが変化する動的物体であるオブジェクト及び前記第1の利用者を観測する第1のセンサと、
    前記第1の場所と異なる第2の場所において第2の利用者の動きを観測する第2のセンサと、
    前記第1のセンサ及び前記第2のセンサからデータを収集するサーバとを備え、
    前記サーバは、
    前記第1のセンサが観測した前記オブジェクト及び前記第1の利用者と、前記第2のセンサが観測した前記第2の利用者を仮想三次元空間にマッピングし、
    前記仮想三次元空間にマッピングされた前記動的物体であるオブジェクトに対する前記第2の利用者の動きと位置の情報をリアルタイムに前記第1の表示装置へ送信することを特徴とする仮想三次元空間共有システム。
  2. 請求項1に記載の仮想三次元空間共有システムであって、
    前記第2の場所において前記第2の利用者が視認可能な第2の表示装置を備え、
    前記サーバは、前記仮想三次元空間にマッピングされた前記オブジェクト及び前記第1の利用者の動きと位置の情報を前記第2の表示装置へ送信することを特徴とする仮想三次元空間共有システム。
  3. 請求項1に記載の仮想三次元空間共有システムであって、
    前記第1の利用者が知覚する音、前記第1の利用者の視線、及び前記第1の利用者の触覚の少なくとも一つを検知する第3のセンサを備え、
    前記第3のセンサは、検知した情報を前記サーバに送信し、
    前記第1のセンサは、前記第1の利用者の動きを観測することを特徴とする仮想三次元空間共有システム。
  4. 請求項1に記載の仮想三次元空間共有システムであって、
    前記第1のセンサが接続される第1のエッジ装置を有し、
    前記第1のセンサは、前記第1の場所に設置された前記オブジェクトの映像を撮影し、
    前記第1のエッジ装置は、前記第1のセンサが撮影した前記オブジェクトの映像のフレームより前時間のフレームとの差分データを前記サーバに送信することを特徴とする仮想三次元空間共有システム。
  5. 請求項1に記載の仮想三次元空間共有システムであって、
    前記第1のセンサが接続される第1のエッジ装置を有し、
    前記第1のセンサは、前記第1の利用者の動きと位置の情報を取得し、
    前記第1のエッジ装置は、前記第1のセンサが取得した前記第1の利用者の動きと位置の情報から生成した骨格モデルを前記サーバに送信することを特徴とする仮想三次元空間共有システム。
  6. 請求項1に記載の仮想三次元空間共有システムであって、
    前記第2の利用者が知覚する音、前記第2の利用者の視線、及び前記第2の利用者の触覚の少なくとも一つを検知する第4のセンサを備え、
    前記第4のセンサは、検知した情報を前記サーバに送信することを特徴とする仮想三次元空間共有システム。
  7. 請求項1に記載の仮想三次元空間共有システムであって、
    前記第2のセンサが接続される第2のエッジ装置を有し、
    前記第2のセンサは、前記第2の場所の映像を撮影し、
    前記第2のエッジ装置は、前記第2のセンサが撮影した映像のフレームより前時間のフレームとの差分データを前記サーバに送信することを特徴とする仮想三次元空間共有システム。
  8. 請求項1に記載の仮想三次元空間共有システムであって、
    前記第2のセンサが接続される第2のエッジ装置を有し、
    前記第2のセンサは、前記第2の利用者の動きと位置の情報を取得し、
    前記第2のエッジ装置は、
    前記第2のセンサが取得した前記第2の利用者の動きと位置の情報から生成した骨格モデルを前記サーバに送信することを特徴とする仮想三次元空間共有システム。
  9. 請求項1に記載の仮想三次元空間共有システムであって、
    前記サーバは、前記第1の利用者及び前記第2の利用者の映像から生成された骨格モデルをデータベースに記録することを特徴とする仮想三次元空間共有システム。
  10. 請求項9に記載の仮想三次元空間共有システムであって、
    前記サーバは、
    前記第1のセンサが前記オブジェクトを観測した結果から、前記オブジェクトを認識し、
    前記第1の利用者の映像から生成した骨格モデルと、前記認識されたオブジェクトとの関係に基づいて、前記第1の利用者の作業を特定し、
    前記特定された作業を前記データベースに記録することを特徴とする仮想三次元空間共有システム。
  11. 請求項1に記載の仮想三次元空間共有システムであって、
    前記第1の利用者の声、血流、及び表情の少なくとも一つを検知する第5のセンサを備え、
    前記第5のセンサが検知した声、血流、及び表情の少なくとも一つから、前記第1の利用者の熟練度及び属性の少なくとも一つを推定することを特徴とする仮想三次元空間共有システム。
  12. 請求項11に記載の仮想三次元空間共有システムであって、
    前記サーバは、前記推定された熟練度及び属性の少なくとも一つに従って、前記第1の表示装置へ送信する情報を変えることを特徴とする仮想三次元空間共有システム。
  13. 請求項10に記載の仮想三次元空間共有システムであって、
    前記サーバは、前記特定された作業に関連する情報を前記データベースから取得し、
    前記データベースから取得した情報を前記第1の表示装置へ送信することを特徴とする仮想三次元空間共有システム。
  14. 請求項1に記載の仮想三次元空間共有システムであって、
    前記サーバに接続された端末を有し、
    前記サーバは、前記オブジェクト、前記第1の利用者、及び前記第2の利用者がマッピングされた前記仮想三次元空間のデータを前記端末に送信することを特徴とする仮想三次元空間共有システム。
  15. 計算機が実行する仮想三次元空間共有方法であって、
    前記計算機は、
    所定の演算処理を実行する演算装置と、前記演算装置がアクセス可能な記憶装置とを有し、
    第1の場所において第1の利用者が視認可能な第1の表示装置と、前記第1の場所に設置される第1のセンサと、前記第1の場所と異なる第2の場所に設置される第2のセンサとに接続され、
    前記仮想三次元空間共有方法は、
    前記演算装置が、前記第1のセンサが前記第1の場所において観測した形状及び位置の少なくとも一つが変化する動的物体であるオブジェクト及び前記第1の利用者のデータ、及び前記第2のセンサが前記第2の場所において観測した第2の利用者のデータを収集し、
    前記演算装置が、前記第1のセンサが観測したオブジェクト及び第1の利用者と、前記第2のセンサが観測した第2の利用者を仮想三次元空間にマッピングし、
    前記演算装置が、前記仮想三次元空間にマッピングされた前記動的物体であるオブジェクトに対する前記第2の利用者の動きと位置の情報をリアルタイムに前記第1の表示装置へ送信することを特徴とする仮想三次元空間共有方法。
  16. 仮想三次元空間共有サーバであって、
    所定の演算処理を実行する演算装置と、前記演算装置がアクセス可能な記憶装置とを備え、
    第1の場所において第1の利用者が視認可能な第1の表示装置と、前記第1の場所に設置される第1のセンサと、前記第1の場所と異なる第2の場所に設置される第2のセンサとに接続され、
    前記第1のセンサが前記第1の場所において観測した形状及び位置の少なくとも一つが変化する動的物体であるオブジェクト及び前記第1の利用者のデータ、及び前記第2のセンサが前記第2の場所において観測した第2の利用者のデータを収集し、
    前記第1のセンサが観測したオブジェクト及び第1の利用者と、前記第2のセンサが観測した第2の利用者を仮想三次元空間にマッピングし、
    前記仮想三次元空間にマッピングされた前記動的物体であるオブジェクトに対する前記第2の利用者の動きと位置の情報をリアルタイムに前記第1の表示装置へ送信することを特徴とする仮想三次元空間共有サーバ。
JP2022156516A 2022-09-29 2022-09-29 仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ Active JP7776397B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022156516A JP7776397B2 (ja) 2022-09-29 2022-09-29 仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ
US18/860,850 US20250298571A1 (en) 2022-09-29 2023-01-24 Virtual three-dimensional space sharing system, virtual three-dimensional space sharing method, and virtual three-dimensional space sharing server
PCT/JP2023/002119 WO2024069997A1 (ja) 2022-09-29 2023-01-24 仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022156516A JP7776397B2 (ja) 2022-09-29 2022-09-29 仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ

Publications (3)

Publication Number Publication Date
JP2024049970A JP2024049970A (ja) 2024-04-10
JP2024049970A5 JP2024049970A5 (ja) 2025-02-28
JP7776397B2 true JP7776397B2 (ja) 2025-11-26

Family

ID=90476765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022156516A Active JP7776397B2 (ja) 2022-09-29 2022-09-29 仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ

Country Status (3)

Country Link
US (1) US20250298571A1 (ja)
JP (1) JP7776397B2 (ja)
WO (1) WO2024069997A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7694759B1 (ja) 2024-04-23 2025-06-18 フジテック株式会社 表示装置、表示制御方法、および、表示制御プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014017776A (ja) 2012-07-11 2014-01-30 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
JP2015130151A (ja) 2013-12-31 2015-07-16 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド 感情および行動を認識するための方法およびシステム
JP2019522856A (ja) 2016-06-30 2019-08-15 株式会社ソニー・インタラクティブエンタテインメント バーチャルリアリティシーンに参加するための操作方法及びシステム
WO2020044854A1 (ja) 2018-08-30 2020-03-05 パナソニックIpマネジメント株式会社 生体計測装置、及び生体計測方法
JP2021010101A (ja) 2019-07-01 2021-01-28 株式会社日立製作所 遠隔作業支援システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014017776A (ja) 2012-07-11 2014-01-30 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
JP2015130151A (ja) 2013-12-31 2015-07-16 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド 感情および行動を認識するための方法およびシステム
JP2019522856A (ja) 2016-06-30 2019-08-15 株式会社ソニー・インタラクティブエンタテインメント バーチャルリアリティシーンに参加するための操作方法及びシステム
WO2020044854A1 (ja) 2018-08-30 2020-03-05 パナソニックIpマネジメント株式会社 生体計測装置、及び生体計測方法
JP2021010101A (ja) 2019-07-01 2021-01-28 株式会社日立製作所 遠隔作業支援システム

Also Published As

Publication number Publication date
WO2024069997A1 (ja) 2024-04-04
JP2024049970A (ja) 2024-04-10
US20250298571A1 (en) 2025-09-25

Similar Documents

Publication Publication Date Title
US11430189B2 (en) Cloud assisted generation of local map data using novel viewpoints
US10607320B2 (en) Filtering of real-time visual data transmitted to a remote recipient
JP7606576B2 (ja) 仮想現実および拡張現実のためのシステムおよび方法
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
Saputra et al. Indoor human tracking application using multiple depth-cameras
KR20130028878A (ko) 조합형 입체 카메라 및 입체 디스플레이 상호 작용
Pfeiffer et al. EyeSee3D 2.0: Model-based real-time analysis of mobile eye-tracking in static and dynamic three-dimensional scenes
JP6724582B2 (ja) 画像生成装置、画像生成プログラム及び画像生成方法
WO2017084319A1 (zh) 手势识别方法及虚拟现实显示输出设备
US10582190B2 (en) Virtual training system
JP7776397B2 (ja) 仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ
CN114299268A (zh) 三维模型的生成方法、装置、计算机设备及存储介质
JPWO2021030328A5 (ja)
JP2024049970A5 (ja)
KR20220124490A (ko) 동작 유사도 평가 장치 및 동작 유사도 평가 방법
JP2015184986A (ja) 複合現実感共有装置
TWI876608B (zh) 控制裝置、以及資訊提示方法
JP7742826B2 (ja) 三次元データ処理システム、及び三次元データ処理方法
KR20250063184A (ko) 제어 장치 및 정보 제시 방법
JP2007048232A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
TWM596380U (zh) 人工智慧擴增實境輔助系統
US12092448B2 (en) Depth estimation for augmented reality
JP7479978B2 (ja) 内視映像表示システム、内視映像表示装置及び内視映像表示方法
JP2025037725A (ja) 作業支援コンテンツ作成装置、作業支援システム、および、作業支援コンテンツ作成方法
KR20250120891A (ko) 행동 해석 시스템 및 행동 해석 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20251014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20251029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20251111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20251113