JP2018120264A - 情報表示システム - Google Patents

情報表示システム Download PDF

Info

Publication number
JP2018120264A
JP2018120264A JP2017009193A JP2017009193A JP2018120264A JP 2018120264 A JP2018120264 A JP 2018120264A JP 2017009193 A JP2017009193 A JP 2017009193A JP 2017009193 A JP2017009193 A JP 2017009193A JP 2018120264 A JP2018120264 A JP 2018120264A
Authority
JP
Japan
Prior art keywords
workpiece
model
unit
display system
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017009193A
Other languages
English (en)
Other versions
JP6470323B2 (ja
Inventor
孝平 栗原
Kohei Kuribara
孝平 栗原
健二 清水
Kenji Shimizu
健二 清水
和生 佐藤
Kazuo Sato
和生 佐藤
英朗 前田
Hideaki Maeda
英朗 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2017009193A priority Critical patent/JP6470323B2/ja
Priority to DE102018100802.3A priority patent/DE102018100802A1/de
Priority to CN201810054940.7A priority patent/CN108346182B/zh
Priority to US15/876,764 priority patent/US10540816B2/en
Publication of JP2018120264A publication Critical patent/JP2018120264A/ja
Application granted granted Critical
Publication of JP6470323B2 publication Critical patent/JP6470323B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/016Exploded view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ワークの視認性に応じて、補助的な情報を現実空間に重畳表示する情報表示システムを提供する。
【解決手段】情報表示システム100は、ワークを撮影してワークの形状を示すモデルデータを作成するマッピング部110、ワークの3Dモデルデータに基づいて少なくともワークの一部分の3Dモデル画像を生成し、ワークの不可視部分を3Dモデル画像で補完する補完部120、3Dモデル画像をワークの不可視部分に重畳して表示する表示部140を有する。
【選択図】図3

Description

本発明は情報表示システムに関し、特にワークの視認性に応じて、補助的な情報を現実空間に重畳表示する情報表示システムに関する。
現実空間に仮想空間の情報を重ね合わせて表示する、MixedReality(MR)技術や、動画像に他の画像等を合成するマッチムーブ技術が知られている。例えば特許文献1には、動画像中の人物顔の動きを自動トラッキングし、顔画像を所望の形状に変形させた画像を合成するシステムが記載されている。特許文献2には、トラッキング技術により広告映像と本編映像とを合成するシステムが記載されている。
特開2002−269546号公報 特開2012−019434号公報
一方、工作機械による加工の現場においては、切削油や、保護ドアの汚れたガラス窓等が遮蔽物となり、加工中のワークの様子を目視で確認しづらいという問題がある(図1参照)。例えば、ワークの加工の進行状況、エアーカット(工具の無駄な移動経路)の有無、取り代(工具が切削送りになってから実際にワークに当たるまでの区間)の大きさ、ワークと切粉の関係、工具の先端位置等をできれば目視で確認したいという要望があるが、上述の問題により、現在はこれらを加工中に確認することは困難である。よって、現在は、切削油を一時的に止めたり、保護ドアを僅かに開けて隙間から覗くなどの方法により確認を行っている。しかし、これらの方法では、切削油を止めてから視界が良くなるまでに時間を要することや、安全性がおろそかになることといった問題がある。
そこで、上述のMR技術やマッチムーブ技術等によりこのような問題を解決することが望まれるが、特許文献1及び特許文献2は具体的な解決手段を開示していない。
本発明はこのような問題点を解決するためになされたものであり、ワークの視認性に応じて、補助的な情報を現実空間に重畳表示する情報表示システムを提供することを目的とする。
本発明の一実施の形態にかかる情報表示システムは、ワークを撮影して前記ワークの形状を示すモデルデータを作成するマッピング部と、前記ワークの3Dモデルデータに基づいて少なくとも前記ワークの一部分の3Dモデル画像を生成し、前記ワークの不可視部分を前記3Dモデル画像で補完する補完部と、前記3Dモデル画像を前記ワークの不可視部分に重畳して表示する表示部と、を有することを特徴とする。
他の実施の形態にかかる情報表示システムでは、前記モデルデータと前記3Dモデル画像とのマッチムーブ処理を行うマッチムーブ部をさらに有することを特徴とする。
他の実施の形態にかかる情報表示システムでは、前記補完部は、前記モデルデータの特徴点と前記3Dモデルの特徴点とを照合することにより前記補完を行うことを特徴とする。
他の実施の形態にかかる情報表示システムでは、前記マッピング部は、前記ワーク及び前記ワークの周辺環境のモデルデータを作成し、前記補完部は、前記周辺環境のモデルデータを利用して前記補完を行うことを特徴とする。
本発明によれば、ワークの視認性に応じて、補助的な情報を現実空間に重畳表示する情報表示システムを提供することができる。
従来技術の問題点を示す図である。 情報表示システム100の一実施例を示す模式図である。 情報表示システム100の構成を示すブロック図である。 情報表示システム100の動作を示すフローチャートである。 情報表示システム100の動作例を示す模式図である。 情報表示システム100の動作例を示す模式図である。
以下、本発明の実施の形態を図面と共に説明する。
図3は、本発明の実施の形態にかかる情報表示システム100の構成を示すブロック図である。情報表示システム100は、マッピング部110、補完部120、マッチムーブ部130、表示部140を有する。情報表示システム100は、典型的には中央処理装置(CPU)、記憶装置、及び、撮像装置や表示装置等の入出力装置等を備えた情報処理装置であり、CPUが所定のプログラムを実行することにより上述の各種処理部を論理的に実現する。例えば、情報表示システム100は、表示部140として動作するディスプレイを備え、CPUや記憶装置を内蔵したスマートフォン、タブレット端末、ヘッドマウントディスプレイ(HMD)等であって良い。あるいは、情報表示システム100は、CPUや記憶装置を備えたコンピュータに、表示部140として動作するディスプレイやHMDを接続して構成されたものであっても良い。
マッピング部110は、現実世界に存在する物体等を撮影して画像を取得し、画像に含まれる物体のモデルデータ、すなわち物体の形状を示すデータを生成する処理を行う。本実施の形態では、加工中のワークの動画像を撮影して、動画像に含まれるワークのモデルデータを作成する。動画像は、例えばHMDに設けられたカメラを用いて撮影される。画像からのモデルデータの作成方法は公知であるため、ここでは詳細な説明を省略する。生成されるモデルデータは、典型的にはワイヤフレームモデルである。あるいは、単に画像から抽出される特徴点の集合であっても良い。
補完部120は、マッピング部110が生成したモデルデータを、ワークの3Dモデルで補完し、表示部140に表示させる処理を行う。すなわち、補完部120はワークの3Dモデルデータ(典型的にはCADデータやNCデータ)を図示しない記憶領域に予め保持しており、この3Dモデルデータを、現実のワークに基づいて作成されたモデルデータに重畳させる形でレンダリングする。本実施の形態では、切削油や保護ドア等が遮蔽物となってワークの一部が視認できなくなった場合に、視認できなくなった部分の3Dモデルをレンダリングする。
マッチムーブ部130は、マッピング部110が生成したモデルデータと、補完部120が表示する3Dモデルとを連動させる処理を行う。すなわち、モデルデータをトラッキングし、3Dモデルの表示位置や方向等を調整する。これにより、ワークを捉えるカメラが動いても、補完される3Dモデルもワークに追随するため、継続的にワークの状態等を観察することが可能となる。なお、マッチムーブ処理の具体的手順は公知であるため、ここでは詳細な説明を省略する。
表示部140は、現実のワークと、補完部120が生成する3Dモデルとを重畳して視認することができる表示装置である。例えば、表示部140はカメラを備えるHMDである(図2参照)。非透過型HMDこの場合、カメラで捉えた画像が投影面に表示される。透過型HMDの場合、カメラで捉えた画像に相当する視野を透明の投影面を通して視認できる。マッピング部110は、カメラで捉えた画像に基づいてモデルデータを作成するが、このモデルデータは表示部140に表示される必要はなく、所定の記憶領域に保持されて補完処理やマッチムーブ処理に利用される。一方、表示部140は、補完部120がレンダリングする3Dモデルは投影面に表示する。これにより、ユーザは、投影面上に投影され又は投影面を透過して視認される現実のワークと、投影面上に投影される3Dデータとを重畳させて視認することが可能となる。
図4は、情報表示システム100の動作を示すフローチャートである。
S1:マッピング処理(初期状態)
はじめに、マッピング部110は、カメラ等の撮像手段を用いて、加工前のワークの画像を取得する。このとき、ワーク全体の画像を取得することが好ましい。ワークの様々な部分の特徴点を数多く取得しておくことで、後段の補完処理及びマッチムーブ処理を精緻に実行することが可能となる。
更に好ましくは、ワークだけでなくワークの周辺環境、例えばワークを載せるテーブルや工作機械の筐体等の画像も取得すると良い。これにより、ワークが完全に視認できなくなったとしても、ワークの周辺環境が視認できていれば、後段の補完処理及びマッチムーブ処理を実行することが可能となる。一般に、上述のテーブルや工作機械の筐体等は、加工中にワークとの相対的な位置関係が変化しないため、撮影する周辺環境として好ましい。あるいは、ワークとの相対的な位置関係が変化するものであっても、その相対的な位置関係を特定できるものであれば、撮影する周辺環境として好ましい。例えば、工具は加工中に位置が動くが、ある時点における工具の位置は加工プログラム等に基づいて特定可能である。
マッピング部110は、撮影した画像中のワークを認識し、ワークのモデルデータを作成する。典型的には、マッピング部110は予め保持しているワークの3Dモデルと、撮影された画像とからそれぞれ3次元特徴点を抽出し、両者を照合する。そして、画像に含まれる特徴点のうち3Dモデルの特徴点に対応するもののみを抽出、保存する。好ましくは、マッピング部110は、ワークの周辺環境からも特徴点を抽出する。そして、ワークの特徴点と周辺環境の特徴点とを含むデータセットを保存する。
S2:マッピング処理(加工時)
次に、マッピング部110は、カメラ等の撮像手段を用いて、加工中のワークの画像を取得し、ステップS1と同様にして加工中のワークの特徴点を抽出する。好ましくは、マッピング部110は、ワークの周辺環境からも特徴点を抽出する。
S3:補完処理
補完部120は、ステップS2で取得したワークの特徴点と、予め保持しているワークの3Dモデルの特徴点とを比較する。比較の結果、ステップS2で取得したワークの特徴点に欠けている部分があるならば、その部分は遮蔽物による不可視部分であると言える。そこで補完部120は、3Dモデルのうち、ワークの不可視部分に相当する部分のみをレンダリングする。すなわち、画像側で欠けている特徴点に対応する3Dモデル側の特徴点を含む部分的な3Dモデル(部分3Dモデル)をレンダリングする。補完部120は、生成した部分3Dモデルを表示部140に表示させる。
ここで、補完部120は、ステップS1で取得したワークの特徴点に含まれるものの、ステップS2で取得したワークの特徴点には含まれない特徴点を特定する。これは、不可視部分に存在するはずであった特徴点である。補完部120は、この不可視部分に存在するはずであった特徴点と、先に作成した部分3Dモデルの特徴点とを比較し、両者の相対位置が0に近くなるように部分3Dモデルを配置する。これにより、部分3Dモデルは、表示部140上において、現実のワークの不可視部分を補完するようにして表示される(図5参照)。
図6は、ワークの視認性の良否、換言すればワークの不可視部分の大小に応じて、補完部120による3Dモデルの投影部分がどのように変化するかを示す図である。図の左側に示すように、ワークの視認性が良く不可視部分が無い場合は、3Dモデルは投影されない。図の中央に示すように、ワークの一部分が欠けるような場合には、かけた部分に対応する部分3Dモデルが投影される。図の右側に示すように、ワークのほぼ全てが不可視となる状況においては、3Dモデルの全体が投影される。
なお、図6の右側のように、ワークのほぼ全てが不可視である場合や、ワークの画像から抽出できる特徴点が部分3Dモデルを配置する位置を特定できないほど僅かであるような場合は、補完部120は、ワークの周辺環境の特徴点に基づいて3Dモデルの配置位置を決定することができる。すなわち、ステップS1において周辺環境を含むワークの画像を取得し、ワークと周辺環境との相対位置を特定できるようにしておく。そしてステップS2においても周辺環境を含む画像を取得して、ステップS1で取得した画像との特徴点の差分を取る。これにより、ワークの特徴点が存在すべき位置を特定できる。補完部120は、この位置に3Dモデルを配置する。
S4:マッチムーブ処理
マッチムーブ部130は、公知の手法により、画像中のワークの位置の変化に応じて、ステップS3でレンダリングした3Dモデルを追随させる処理を行う。
S5:一定時間ごとに繰り返し
好ましくは、情報表示システム100は、ステップS2乃至S4にかかる処理を一定時間ごとに繰り返す。これにより、ワークの視認性の変化にリアルタイムに追従し、適切な3Dモデルを重畳表示することができる。
本発明によれば、情報表示システム100は、切削油や保護ドア等の遮蔽物等により現実のワークの一部又は全部が不可視となった場合に、不可視部分に対応する部分的な3Dモデルを生成し、現実のワークの不可視部分に重畳させる形で生成した3Dモデルを表示する。これにより、ワークの加工の進行状況、エアーカット(工具の無駄な移動経路)の有無、取り代(工具が切削送りになってから実際にワークに当たるまでの区間)の大きさ、ワークと切粉の関係、工具の先端位置等を、目視確認が難しい状況下にあっても3Dモデルによって確認することができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。本発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
例えば、上述の実施の形態では、主にワークの不可視部分を3Dモデルに置き換えて表示する例を示したが、本発明の適用先はワークに限定されるものではない。例えば、工具(特に先端部)や、工作機械の一部分等についても3Dモデルを作成して重畳表示するよう構成することも可能である。
また、部分3Dモデルを現実のワークに重畳表示する場合には、図6の中央下図に見られるように、現実のワークとの境界に当たる部分の透過性を上げる処理を行っても良い。これにより、現実のワークと部分3Dモデルとをよりシームレスに重畳表示することが可能である。
また、上述の実施の形態では、補完部120はステップS3において、ステップS2で取得したワークの特徴点と、予め保持しているワークの3Dモデルの特徴点と、を比較することでワークの不可視部分を特定したが、ステップS2で取得したワークの特徴点と、ステップS1で取得したワークの特徴点と、を比較することでワークの不可視部分を特定することもできる。すなわち、ワーク全体の特徴点と、一部が見えない状態にあるワークの特徴点とを比較することができれば良い。
また、上述の実施の形態では、表示部140としてHMDを採用した例について主に説明したが、本発明はこれに限定されるものでなく、例えばカメラで撮像した動画像を表示可能なディスプレイや、ワークを直接視認でき、かつ3Dモデルを投影することも可能な透過型の保護カバー窓等を表示部140として用いても良い。
100 情報表示システム
110 マッピング部
120 補完部
130 マッチムーブ部
140 表示部

Claims (4)

  1. ワークを撮影して前記ワークの形状を示すモデルデータを作成するマッピング部と、
    前記ワークの3Dモデルデータに基づいて少なくとも前記ワークの一部分の3Dモデル画像を生成し、前記ワークの不可視部分を前記3Dモデル画像で補完する補完部と、
    前記3Dモデル画像を前記ワークの不可視部分に重畳して表示する表示部と、を有することを特徴とする
    情報表示システム。
  2. 前記モデルデータと前記3Dモデル画像とのマッチムーブ処理を行うマッチムーブ部をさらに有することを特徴とする
    請求項1記載の情報表示システム。
  3. 前記補完部は、前記モデルデータの特徴点と前記3Dモデルの特徴点とを照合することにより前記補完を行うことを特徴とする
    請求項1記載の情報表示システム。
  4. 前記マッピング部は、前記ワーク及び前記ワークの周辺環境のモデルデータを作成し、
    前記補完部は、前記周辺環境のモデルデータを利用して前記補完を行うことを特徴とする
    請求項1記載の情報表示システム。
JP2017009193A 2017-01-23 2017-01-23 情報表示システム Active JP6470323B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017009193A JP6470323B2 (ja) 2017-01-23 2017-01-23 情報表示システム
DE102018100802.3A DE102018100802A1 (de) 2017-01-23 2018-01-16 Informationsanzeigesystem
CN201810054940.7A CN108346182B (zh) 2017-01-23 2018-01-19 信息显示系统
US15/876,764 US10540816B2 (en) 2017-01-23 2018-01-22 Information display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017009193A JP6470323B2 (ja) 2017-01-23 2017-01-23 情報表示システム

Publications (2)

Publication Number Publication Date
JP2018120264A true JP2018120264A (ja) 2018-08-02
JP6470323B2 JP6470323B2 (ja) 2019-02-13

Family

ID=62812962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017009193A Active JP6470323B2 (ja) 2017-01-23 2017-01-23 情報表示システム

Country Status (4)

Country Link
US (1) US10540816B2 (ja)
JP (1) JP6470323B2 (ja)
CN (1) CN108346182B (ja)
DE (1) DE102018100802A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020149435A (ja) * 2019-03-14 2020-09-17 ファナック株式会社 加工シミュレート装置及び加工シミュレートプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10650609B2 (en) * 2018-02-23 2020-05-12 Sap Se Virtual prototyping and assembly validation
JP7011728B2 (ja) * 2018-09-28 2022-01-27 株式会社ソニー・インタラクティブエンタテインメント 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013149042A (ja) * 2012-01-18 2013-08-01 Hitachi Plant Technologies Ltd 設備保守管理システム
JP2013159042A (ja) * 2012-02-06 2013-08-19 Olympus Corp 溶融混練装置およびブレンド材料の製造方法
US20160260261A1 (en) * 2015-03-06 2016-09-08 Illinois Tool Works Inc. Sensor assisted head mounted displays for welding

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269546A (ja) 2001-03-14 2002-09-20 Atr Onsei Gengo Tsushin Kenkyusho:Kk 自動顔トラッキングシステムおよび自動顔トラッキング方法
JP4401727B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
US8253731B2 (en) * 2006-11-27 2012-08-28 Designin Corporation Systems, methods, and computer program products for home and landscape design
US8422825B1 (en) * 2008-11-05 2013-04-16 Hover Inc. Method and system for geometry extraction, 3D visualization and analysis using arbitrary oblique imagery
JP2012019434A (ja) 2010-07-09 2012-01-26 Hakuhodo Dy Media Partners Inc 広告の放送又は送信方法
US9507885B2 (en) * 2011-03-17 2016-11-29 Aditazz, Inc. System and method for realizing a building using automated building massing configuration generation
JP5724544B2 (ja) 2011-03-31 2015-05-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
EP2879098A4 (en) 2012-07-27 2016-03-16 Nec Solution Innovators Ltd SYSTEM AND METHOD FOR THE JOINT USE OF THREE-DIMENSIONAL ENVIRONMENTS
JP6344890B2 (ja) * 2013-05-22 2018-06-20 川崎重工業株式会社 部品組立作業支援システムおよび部品組立方法
US9501498B2 (en) * 2014-02-14 2016-11-22 Nant Holdings Ip, Llc Object ingestion through canonical shapes, systems and methods
JP6835536B2 (ja) 2016-03-09 2021-02-24 株式会社リコー 画像処理方法、表示装置および点検システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013149042A (ja) * 2012-01-18 2013-08-01 Hitachi Plant Technologies Ltd 設備保守管理システム
JP2013159042A (ja) * 2012-02-06 2013-08-19 Olympus Corp 溶融混練装置およびブレンド材料の製造方法
US20160260261A1 (en) * 2015-03-06 2016-09-08 Illinois Tool Works Inc. Sensor assisted head mounted displays for welding

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020149435A (ja) * 2019-03-14 2020-09-17 ファナック株式会社 加工シミュレート装置及び加工シミュレートプログラム
JP7057303B2 (ja) 2019-03-14 2022-04-19 ファナック株式会社 加工シミュレート装置及び加工シミュレートプログラム
US11656599B2 (en) 2019-03-14 2023-05-23 Fanuc Corporation Machining simulator and storage medium encoded with machining simulation program

Also Published As

Publication number Publication date
DE102018100802A1 (de) 2018-07-26
JP6470323B2 (ja) 2019-02-13
US10540816B2 (en) 2020-01-21
CN108346182A (zh) 2018-07-31
CN108346182B (zh) 2020-02-25
US20180211442A1 (en) 2018-07-26

Similar Documents

Publication Publication Date Title
US20160357491A1 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
JP6801263B2 (ja) 表示制御プログラム、表示制御方法および表示制御装置
JP6643170B2 (ja) 作業支援システム及び方法
JP2020535509A (ja) イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム
JP6470323B2 (ja) 情報表示システム
US10114364B2 (en) Numerical-control-program editing apparatus, numerical-control-program editing method, and program
Shah et al. Occlusion in augmented reality
JP2018092476A (ja) 拡張現実シミュレーション装置及び拡張現実シミュレーションプログラム
CN110573992B (zh) 使用增强现实和虚拟现实编辑增强现实体验
CN111880652A (zh) 用于移动ar对象位置的方法、装置及存储介质
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
GB2522855A (en) Three dimensional image generation
CN111448502B (zh) 可靠的眼镜式设备和方法
WO2023045254A1 (zh) 图像显示方法、装置及电子设备
CN111819603A (zh) 虚拟物体显示控制装置、虚拟物体显示系统、虚拟物体显示控制方法以及虚拟物体显示控制程序
WO2019106987A1 (ja) 作業支援システム、作業支援方法及びプログラム
JP6192454B2 (ja) 表示システム
Sommer et al. View-dependent Virtual and Augmented Reality for Machine Tools
Röhm et al. AR based assistance for the tool change of cyber-physical systems
Sagawa et al. [POSTER] Hands-Free AR Work Support System Monitoring Work Progress with Point-cloud Data Processing
JP7425178B2 (ja) 産業機械の操作システム
WO2024084555A1 (ja) 加工シミュレーション支援装置およびコンピュータが読み取り可能な記憶媒体
KR102409207B1 (ko) 제품 검사 보조 방법 및 장치
CN110825028B (zh) 三维模型生成装置
EP3511898B1 (en) A method and a system for displaying a reality view

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190117

R150 Certificate of patent or registration of utility model

Ref document number: 6470323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150