JP5403974B2 - 三次元cadシステム - Google Patents

三次元cadシステム Download PDF

Info

Publication number
JP5403974B2
JP5403974B2 JP2008231189A JP2008231189A JP5403974B2 JP 5403974 B2 JP5403974 B2 JP 5403974B2 JP 2008231189 A JP2008231189 A JP 2008231189A JP 2008231189 A JP2008231189 A JP 2008231189A JP 5403974 B2 JP5403974 B2 JP 5403974B2
Authority
JP
Japan
Prior art keywords
data
user
client
server
simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008231189A
Other languages
English (en)
Other versions
JP2010066898A (ja
Inventor
太一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008231189A priority Critical patent/JP5403974B2/ja
Priority to EP09169777.1A priority patent/EP2161692B1/en
Priority to US12/555,658 priority patent/US8643676B2/en
Publication of JP2010066898A publication Critical patent/JP2010066898A/ja
Priority to US14/092,690 priority patent/US9514572B2/en
Application granted granted Critical
Publication of JP5403974B2 publication Critical patent/JP5403974B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、サーバーと、当該サーバーとネットワークを介して接続された複数のクライアントとからなる三次元CAD(Computer−Aided Design)システムに関する。また、本発明は、三次元CADシステムにおけるサーバーシステム及び三次元CADシステムにおけるクライアントCADシステムに関する。さらに、仮想空間と現実空間を重畳して表示し体験者に複合現実感を提示するMR(Mixed Reallity)システムに関する。
従来、機械設計の分野では三次元CADシステムが用いられており、機構、及び機構の構成部品を立体的に表示しながら設計を行うことが可能となっている。
この種のシステムにおいては、例えばアクチュエーターやモーター等の能動部品やセンサー等の制御するための制御プログラムの開発を支援するため、機構を実際に組立することなく、各構成部品の動作をシミュレートする機能を有している。このようなシミュレーションの可能な三次元CADシステムは、例えば特許文献1に開示されている。
特開2006−195971号公報
しかしながら、特許文献1のようなCADシステムでは入力が2次元画面のGUI形式になるので、実際のユーザーが使用するような感覚でパラメータを入力することが難しい。また、その結果である三次元コンピュータグラフィックスの表示に関しても二次元のディスプレイでは結果を感覚的につかむのには物足りないことがある。
本発明は、上記従来技術の課題を解決するためになされたものである。具体的には、本発明は、他のCADシステムによって設計されたデータを利用した動作シミュレーションを行いながら設計を行うことを可能とし、さらに入出力に仮想空間と現実空間を融合するMRシステムを利用した三次元CADシステムを提供することを目的とする。
上記の課題を解決するために、本発明における三次元CADシステムはサーバと、前記サーバに接続された複数のクライアントを備える三次元CADシステムであって、前記サーバは、データを記憶するデータ記憶手段と、前記クライアントからの要求に応じて、前記データ記憶手段により記憶されるデータを読み出しあるいは書き込む手段と、前記読み出されたデータに基づいて、三次元モデルを生成し、該三次元モデルの動作シミュレーションのデータを生成する生成手段と、前記クライアントのうちの少なくとも1つを使用するユーザの所定の部位の位置情報の変化に基づいて、前記ユーザの動作を予測し、該予測されたユーザの動作が行われる前に、該予測された動作に応じた前記三次元モデルの動作シミュレーションの演算が開始されるように、前記動作シミュレーションの演算を開始するタイミングを制御する制御手段と、前記生成された動作シミュレーションのデータを、前記ネットワークを介して、前記クライアントへ送信する送信手段と、前記クライアントは、前記サーバから送信された前記動作シミュレーションのデータを受け取って表示する表示手段を備え、前記複数のクライアントのうちの少なくとも一つは、
前記クライアントを使用するユーザの所定の部位の位置に基づいた位置情報を計測する計測手段と、前記位置情報を、前記サーバに送信する送信手段と、前記サーバで生成した前記他のクライアントによる設計データと連動した動作シミュレーションを、現実空間の映像に重畳して表示する重畳手段とを備えることを特徴とする。
本発明によれば、他のCADシステムによって設計されたデータを利用した動作シミュレーションを行いながら設計を行うことを可能とし、さらに入出力に仮想空間と現実空間を融合するMRシステムを利用した三次元CADシステムを提供することが出来る。
[第一の実施形態]
以下、図面を参照して本発明の実施形態を説明する。
図1は、本実施形態における三次元CADシステムの基本構成を示す図である。同図において、100はシステムの中枢部を構成するサーバー、110は装置を構成する機構部の設計を行うクライアントとしてのメカCADである。120は装置の電気回路部の設計を行うためのクライアントとしての電気CADである。また、130は装置の機構部及び電気回路部の制御を行うプログラム(ファームウエア)の開発及び開発支援のためのクライアントとしてのファーム開発支援ツール、140はレンズユニット等の光学部品の設計を行う光学CAD、150は実写映像(現実空間の映像)にCGを合成し、表示する提示機能を有するMRシステムである。
これらのサーバー100と、メカCAD110、電気CAD120、ファーム開発支援ツール130、光学CAD140及びMRシステム150とからなる任意のクライアントとは、ネットワーク160を介して接続されている。そして、各クライアント110〜150とサーバー100間、複数のクライアント110〜150間でサーバー100を介して各種データの送受信が行われる。
サーバー100内には、演算部101とデータ蓄積部102が備えられている。演算部101は、各クライアント110〜150からの要求にしたがってデータ蓄積部102より必要なデータを取り出し、記憶し、演算処理を実行する。そして、設計対象である装置の三次元モデルの生成や、各種動作のシミュレーションのためのデータを生成し、データ蓄積部102に記憶あるいは各クライアント110〜150へダウンロードされる処理を実行する。
各クライアント110〜150の構成について説明すると、メカCAD110は、設計に用いる機構部品の形状及び動作データと、それら機構部品を組み合わせて機構部を設計するためのアプリケーション等により、機械設計環境を構成する。同様に、電気CAD120は、装置の電気回路に関する各種回路部品、回路構成、回路図、各種動作パラメータ等のデータと、それらのデータに基づいて回路設計を行うアプリケーション等により、回路設計環境を構成する。光学CAD140は、レンズ形状、光学特性、レンズユニットとしての光学的な構造に関するデータと、それらのデータに基づいてレンズユニット等の光学設計を行うアプリケーション等により、光学設計環境を構成する。
また、ファーム開発支援ツール130には、装置の機構部、電気回路、光学機構部の動作を制御するためのファームウエアすなわちプログラムが格納されている。そして、後述するように他のクライアント(メカCAD110、電気CAD120、光学CAD140)のそれぞれにおける最新のデータあるいは設計環境を共有して、リアルタイムで動作シミュレーションを行うことができるように構成される。MRシステム150は現実空間の映像とサーバー100内で形成される三次元モデルを重畳して表示する。
このようなシステムにより、各クライアント110〜150において実行される設計にしたがい、その設計に必要なデータがサーバー100のデータ蓄積部102から読み出されて各クライアントへと供給される。一方、各クライアント110〜150において行われる設計動作は、リアルタイムでサーバー100の演算部101へとアップロードされ、サーバー100内で装置(機構部)の三次元モデルが形成される。この三次元モデルのデータは、データ蓄積部102に記憶され、また各クライアント110〜150からの要求に応じて要求元のクライアントへとダウンロードされる。要求元クライアントでは、ダウンロードした三次元モデルを、必要に応じて自身の設計データを反映させた上で表示したり、三次元モデルを用いたシミュレーションを行ったりすることが可能となる。
図2は、本実施形態の三次元CADシステムに係る各クライアント110〜150のハードウエア構成例を示すブロック図である。
クライアント110〜150は、いずれも汎用的なコンピュータ200によって構成可能である。コンピュータ200は、その制御部としてのCPU201、コンピュータ200が起動する時にCPU201が実行するブートプログラムや、コンピュータ200のハードウエアに依存する各種のプログラムを格納したROM202を有する。RAM203は、CPU201が実行するプログラム及びCPU201が演算に使用するデータ等を格納する。通信インターフェース(I/F)204は、ネットワーク150を介してサーバー100と通信するためのインターフェースである。コンピュータ200は、さらに、ディスプレイ205、プリンタ206、マウス207、キーボード208、ハードディスクドライブ209、FDドライブ210、CD−ROMドライブ211を備えている。
クライアントをCADとして機能させるためのアプリケーションプログラムや、オペレーティングシステムなどは、ハードディスクドライブ209に記憶されているものとする。
CPU201は、ROM202やハードディスクドライブ209に格納されたプログラム(実行時にはRAM203に展開される)に基づいて動作し、コンピュータ200内の各部の制御を行う。通信I/F204は、ネットワーク150を介して他の装置(クライアント又はサーバー)等と通信を行う。ハードディスクドライブ209は、コンピュータ200がユーザーに提供する機能を実現するためのプログラム及びデータを格納し、RAM203を介してCPU201に提供する。FDドライブ210やCD−ROMドライブ211は、FD212やCD−ROM213等のリムーバブルメディアよりプログラムやデータを読み込み、RAM203へ供給する。内部バス214は、コンピュータ200内の各装置を接続するためのものである。
なお、サーバー100もまた、CPU201が実行するプログラムをサーバー100の機能を実現するものに変更することで、図2に示すコンピュータ200により実現可能である。
図3は、サーバー100の機能構成例を示すブロック図である。
サーバー100は、演算部101とデータ蓄積部102とで構成される。データ蓄積部102は、例えばハードディスクドライブ209のような記憶装置により実現される。そして、クライアントであるメカCAD110、電気CAD120、光学CAD140、ファーム開発支援ツール130、MRシステム150に対応したメカデータ301、電気データ303、光学データ304、ファームデータ302を記憶、蓄積する。
たとえば、メカCAD110に対応するメカデータ301には、機構設計に必要な各種機構部品や、アクチュエーター、モーター等の能動部品の構成、サイズ、形状、各種特性などのデータが格納される。さらに、クライアントのメカCAD110において設計された機構モデルデータが格納されている。そして、登録された部品やデータの形状・属性等を管理し、プロセッサー部309よりの要求に基づいて、演算部101に必要なデータを渡す。他の電気データ303、光学データ304、ファームデータ302についても同様である。すなわち、電気データ303には電気回路部品に関するデータと、電気CAD120で設計された電気回路データが格納される。光学データ304には、光学部品に関するデータと、光学CAD140で設計された光学設計データが、ファームデータ302にはファーム開発支援ツール130で作成したファームウエアデータがそれぞれ格納されている。
そして、例えばCPU201により実現される演算部101は、メカデータ用のデータ変換部305、ファームデータ用のデータ変換部306、電気データ用のデータ変換部307及び光学データ用のデータ変換部308を備える。また、プロセッサー部309は、データ変換部305〜308が変換したデータをプログラムに基づいて演算処理する。このデータ変換部305〜308は、データ蓄積部102から、メカデータ301、電気データ303、光学データ304、ファームデータ302を、クライアントからの指示に基づいて読み出す。そして、たとえば機構設計であれば、要求元クライアントの設計環境に応じて、メカデータを変換する。具体的には、メカデータ301から読み出した登録部品データについて、表示スケール、装置への取り付け位置、姿勢等を、予め登録されている、クライアントが取り扱い可能な特性、仕様にしたがってデータ変換する。なお、メカCAD110が要求元クライアントの場合など、要求元クライアントでデータ変換は必須ではない。これにより、異なるCADシステム間で設計データの相互利用が可能になる。変換後のデータは、プロセッサー部309へと渡し、要求元のクライアントへ提供される。
同様に、電気データ303は、クライアント110〜140からの指示にしたがって読み出される。そして、要求元クライアントが取り扱い可能な形式にデータ変換部307で変換され、プロセッサー部309を通じて要求元クライアントへと供給される。
他の光学データ304、ファームデータ302についても同様で、それぞれ要求のあったクライアントへと、その要求にしたがったデータ形式に変換した後、プロセッサー309を介してクライアントへと供給される。
すなわち、クライアントであるメカCAD110より出された要求信号は、ネットワーク150を介してサーバー100の演算部101内のプロセッサー部309へ供給される。プロセッサー部309は、要求信号と、RAM203及びハードディスク209に格納されたプログラムとに基づいて、必要なデータをデータ蓄積部102へ要求する。データ蓄積部102は、要求されたデータ301,302,303,304を読み出し、対応する其々のデータ変換部305,306,307,308へ渡す。
各々のデータ変換部305〜308は、RAM203やハードディスク209に記憶されたデータ変換プログラムに基づいてデータ変換を行い、プロセッサー部309へ提供する。プロセッサー部309は提供された変換データを用いてシミュレーション等の演算を行い、その演算結果をネットワーク160を介して要求元クライアントであるメカCAD110へ提供する。メカCAD110は、その演算結果をディスプレイ205へ表示したり、ファイルとしてハードディスク209へ格納したりする。これらの流れは、クライアント120、130、140共に同様である。
図4は、要求元クライアントとサーバー100との間のコマンド及びデータの流れを示した図である。
図4では、MRシステム150が要求元クライアントである場合を例として示している。図4には、実際にサーバー100とMRシステム150との間で双方向に行われる各種データの流れと、処理の内容を示している。また、メカ設計者(MRシステム150のユーザー)が、本実施形態における三次元CADシステムを使って機構部を設計する場合の各種操作及びデータの送受信の手順を示している。ここで、図4の上から下へと処理の流れが移行するが、各ステップの処理は並行して行うことが可能である。
ステップS400で、メカ設計者は、MRシステム150を起動し、メカCAD110において設計しているモデルを実写映像と重畳してMR空間上で観察する。図4の処理の詳細は、後述する。本実施形態では図5に示すようにそのモデルをカメラとする。
図5はMR空間を表した図である。カメラ501はメカCAD110によって描画されたメカ設計者の視点に基づくコンピュータグラフィックスである。カメラ501は、位置姿勢センサーが装備されたカメラを模した模型505の位置姿勢などの状態に表示位置姿勢が連動する。模型505の位置姿勢はHMD(ヘッドマウントディスプレイ)504に装備された物体位置姿勢計測部607によって計測される。カメラ501にはシャッターボタン502がついており、模型505のシャッターボタンに連動する。ユーザー503は504をかぶり、カメラ501を操作している。
図6はHMD504およびMRシステム150の構成を示したものである。MRシステム150は以下のものから構成される。現実画像入力部602、画像合成部603、複合現実感画像出力部604、カメラ位置姿勢計測部605、仮想物体入力部606、物体位置姿勢計測部607を備えている。
ヘッドマウンテッドディスプレイ(HMD)504は左カメラ632と右カメラ633と左現実画像出力部634と右現実画像出力部135と複合現実感画像入力部636と画像表示部637を備えている。
再び図5に戻り、ユーザー503の動作について説明する。ユーザー503の指には位置姿勢センサーが接続されている。ユーザー503は模型505を持ちカメラ501を操作している。ユーザー503はカメラ501のシャッターボタン502を押そうとする。ユーザー503の指はシャッターボタン502に徐々に近づいていく。本来はシャッターボタン502が押された位置にユーザー503の指が到達した時に、カメラ501のシャッターボタン502が押されたというシミュレーションが開始する。
しかし、実際に到達してからシミュレーションを始めるとシミュレーションに時間がかかり、ユーザー503が押した直後に押した結果のコンピュータグラフィックスが得られない場合がある。実際にユーザー503の指が到達する前に実際にシミュレーションを行いその結果を保存しておく。図4に戻り、以上の流れを図4のフローチャートを用いて説明する。
ステップ400でシステムが起動した後、ステップS401で位置姿勢センサーがユーザー503の指の位置を測定する。ステップS402で、MRシステムがユーザー503の指の位置がシャッターボタン502が押された位置にあるかどうか判定する。もし所定の位置にあればステップS406に進む。所定の位置になければステップS403に進む。
ステップS403では所定の位置まで到達していないが所定の位置にあとわずかで到達しそうか判定する。あとわずかで到達しそうだと判定されればステップS408へ進む。ステップS408ではユーザー503の指が所定の位置に到達した場合に対応するシミュレーションを行う。次にステップS409に進みステップS408のシミュレーション結果をデータ蓄積部102に保存する。
サーバー100はステップS406でデータ蓄積部102から先行シミュレーション結果を取り出す。次にステップS412に進んでメカCAD110用のデータに変換し、当該データをメカCAD110に配信する。次にサーバー100ではステップS407に、メカCAD110ではステップS410に進む。ステップS410ではサーバー100から先行シミュレーション結果を取得し表示する。次にMRシステム150でステップS404に進みス実写にステップS410で表示したコンピュータグラフィックスを重畳表示する。
サーバー100ではステップS407で本来のシミュレーションを行う。次にステップS413に進んでメカCAD110用のデータに変換し、当該データをメカCAD110に配信する。次にメカCAD110ではステップS411に進み、サーバー100から本来のシミュレーション結果を取得し表示する。次にMRシステム150でステップS405に進み実写にステップ411で表示したコンピュータグラフィックスを重畳表示する。
以上説明したように、ユーザー503の指の位置に応じて現実空間の環境を予測し、先行して行うシミュレーションを決定することにより、ユーザー503は遅延を感じずに、MR空間を体験することが出来る。
[第二の実施形態]
第二の実施形態の基本構成は第一の実施形態と同じである。違いはシミュレーション開始の条件である。第一の実施形態ではMRシステム150がサーバー100でのシミュレーションを開始した。本実施形態ではメカCAD110がサーバー100でのシミュレーションを開始する。
図7のフローチャートを説明する。MRシステム150はステップS700で操作を開始する。次にステップS714で模型505の位置姿勢計測を行い、その出力値をメカCAD110に送信する。
次にメカCAD110においてステップS701に進み、位置姿勢の計測値をMRシステム150から受信し、カメラ501の位置姿勢をその計測値に設定する。次にステップS702に進み、そのときにシミュレーションを行う条件であればサーバー100のステップS706へ進む。そうでなければステップS703に進む。先行してシミュレーションを行う条件(シミュレーションを行う順序)は、例えば、処理にかかる時間が最小になるように設定してもよい。
ステップS703では先行してシミュレーションする条件か判断する。先行してシミュレーションする条件であると判断された場合、サーバー100のステップS710に進む。そうでなければステップS701に進む。
サーバー100のステップS710では先行シミュレーションを行う。上記処理により、シミュレーションを行う順序が変更され、シミュレーション遅延を防止することが出来る。
次にステップS711において先行シミュレーションの結果をデータ蓄積部102に保存する。
サーバー100のステップS706では先行シミュレーションの結果をデータ蓄積部102から取り出す。次にステップS707に進んでそのデータをメカCAD110用に変換し、ステップS708に進む。また並行してメカCAD110のステップS712に進み、先行シミュレーションの結果を受信して表示する。次にMRシステム150のステップS704に進み、ステップS712で表示したコンピュータグラフィックスに実写画像を合成して表示する。
サーバー100のステップS708では現在の条件においてシミュレーションを実施する。次にステップS709に進んでメカCAD110用のデータに変換し、そのデータをメカCAD110に送信し、メカCAD110のステップS713に進む。メカCAD110のステップS713では先行シミュレーションの結果を受信して表示する。次にMRシステム150のステップS705に進み、ステップS713で表示したコンピュータグラフィックスに実写を合成して表示する。
[第三の実施形態]
基本構成は第一の実施形態と同じである。違いはシミュレーション遅延時の制御方法である。第一の実施形態および第二の実施形態ではシミュレーションの遅れを先行シミュレーションで解決したが、本実施形態では、高精度なシミュレーションを行うことはできないが、高速な処理が可能である遅延しない簡易なシミュレーション方法を用意して遅延を防ぐ。
図8のフローチャートにおいて説明する。MRシステム150はステップS800で操作を開始する。次にステップS801に進み、ユーザー503の動作を計測する。次にステップS802に進み、シミュレーションを行うか判断する。シミュレーションを行う場合はサーバー100のステップS807とステップS809へ進む。このステップは並行して動作する。ステップS809は本来のシミュレーションを行い、ステップS809では遅延しない簡易なシミュレーションを行う。次にステップS808へ進む。ステップS808ではステップS807の処理が終わっていればステップS807で処理した結果をデータ変換し、MRシステム150へ送信する。また、ステップS807の処理が終わっていなければステップS809の処理結果をデータ変換し、MRシステム150へ送信する。
MRシステム150のステップS806へ進み、シミュレーション結果を描画し、現実画像と合成表示する。次にステップS800へ進む。
このように、MR・機構・電気・ソフト・光学が統合された設計環境を実現でき、相互にシミュレーションを行うことができるので、試作品の組立が完成していない状況でも完成品としてのシミュレーションが可能となる。さらに、ユーザー503は視覚的にその動きを確認でき、開発設計環境が大幅に改善され、設計試作回数・台数の削減が行え、開発設計コストを大幅に改善することができる。
また、本発明によれば、サーバーとMRシステムと複数のクライアントからなる三次元CADシステムにおいて、各クライアントによってそれぞれ設計されたデータを互いに共有できる。たとえば機構・電気回路・ソフトウエア・光学部品等、それぞれ別個に設計される要素を統合したシミュレーションを行うことができる。そのため、試作品の組立が完成していない状況でも完成品としてのシミュレーションが可能となり、開発設計環境が大幅に改善され、設計試作回数・台数の削減が行え、開発設計コストを大幅に改善することができる。また、開発段階においても設計対象をシミュレートすることができ、また視覚的にその動きを三次元的に確認できるので、他の設計者との間での並行設計・共同検討・仕様ミスの軽減等を図ることが可能となる。
本実施形態における三次元CADシステムの基本構成を示す図である。 三次元CADシステムに係る各クライアントのハードウエア構成のブロック図である。 サーバーの構成を示すブロック図である。 第一の実施形態におけるクライアントのMRシステム、メカCADとサーバーとの間のコマンド及びデータの流れを示した図である。 ユーザーが仮想のカメラを操作しているところを示した図である。 MRシステムの詳細を表した図である。 第二の実施形態におけるクライアントのMRシステム、メカCADとサーバーとの間のコマンド及びデータの流れを示した図である。 第三の実施形態におけるクライアントのMRシステムとサーバーとの間のコマンド及びデータの流れを示した図である。
符号の説明
100 サーバー
110 メカCAD
120 電気CAD
130 ファーム開発支援ツール
140 光学ツール
150 MRシステム
160 ネットワーク

Claims (8)

  1. サーバと、前記サーバに接続されたクライアントを備える三次元CADシステムであって、
    前記サーバは、
    データを記憶するデータ記憶手段と、
    前記クライアントからの要求に応じて、前記データ記憶手段により記憶されるデータを読み出しあるいは書き込む手段と、
    前記読み出されたデータに基づいて、三次元モデルを生成し、該三次元モデルの動作シミュレーションのデータを生成する生成手段と、
    前記クライアントのうちの少なくとも1つを使用するユーザの所定の部位の位置情報の変化に基づいて、前記ユーザの動作を予測し、該予測されたユーザの動作が行われる前に、該予測された動作に応じた前記三次元モデルの動作シミュレーションの演算が開始されるように、前記動作シミュレーションの演算を開始するタイミングを制御する制御手段と、
    前記生成された動作シミュレーションのデータを、前記ネットワークを介して、前記クライアントへ送信する送信手段と、
    前記クライアントは、
    前記サーバから送信された前記動作シミュレーションのデータを受け取って表示する表示手段を備え、
    前記複数のクライアントのうちの少なくとも一つは、
    前記クライアントを使用するユーザの所定の部位の位置に基づいた位置情報を計測する計測手段と、
    前記位置情報を、前記サーバに送信する送信手段と、
    前記サーバで生成した前記他のクライアントによる設計データと連動した動作シミュレーションを、現実空間の映像に重畳して表示する重畳手段とを備えることを特徴とする三次元CADシステム。
  2. 前記制御手段は、前記クライアントのうちの少なくとも1つを使用するユーザの所定の部位の位置情報の変化に基づいて、前記ユーザの動作を予測し、該予測されたユーザの動作と前記三次元モデルの動作シミュレーションの結果を現実空間に重畳して出力するまでに要する時間とに基づいて、前記予測されたユーザの動作が行われる前に、前記予測された動作に応じた前記三次元モデルの動作シミュレーションの演算が開始されるように、前記三次元モデルの動作シミュレーションの演算を開始するタイミングを制御することを特徴とする請求項1に記載の三次元CADシステム。
  3. 前記計測手段は、前記クライアントを使用するユーザの所定の部位の位置に基づいた位置情報に加え、前記ユーザが観察している三次元モデルを模した模型の位置情報をも計測することを特徴とする請求項1または2のいずれかに記載の三次元CADシステム。
  4. 前記三次元モデルを模した模型の位置情報は、前記三次元モデルを模した模型に取り付けたセンサにより計測されることを特徴とする請求項3に記載の三次元CADシステム。
  5. 前記ユーザの所定の部位の位置情報は、前記ユーザに取り付けたセンサにより計測されることを特徴とする請求項1乃至4のいずれか1項に記載の三次元CADシステム。
  6. クライアントに接続されたサーバであって、
    データを蓄積するデータ蓄積手段と、
    前記クライアントからの要求に応じて、前記データ記憶手段により記憶されるデータを読み出しあるいは書き込む手段と、
    前記読み出されたデータに基づいて、三次元モデルを生成し、該三次元モデルの動作シミュレーションのデータを生成する生成手段と、
    前記クライアントを使用するユーザの所定の部位の位置情報の変化に基づいて、前記ユーザの動作を予測し、該予測されたユーザの動作が行われる前に、該予測された動作に応じた前記三次元モデルの動作シミュレーションの演算が開始されるように、該動作シミュレーションの演算を開始するタイミングを制御する制御手段とを備えるサーバ。
  7. 前記複数のクライアントのうちの少なくとも1つは、メカCAD、電気CAD、光学CAD、または前記三次元モデルの動作シミュレーションを制御するためのファームウエアを格納したファーム開発支援ツールのうちのいずれかであることを特徴とする請求項1乃至5のいずれか1項に記載の3次元CADシステム。
  8. 前記クライアントは、メカCAD、電気CAD、光学CAD、または前記三次元モデルの動作シミュレーションを制御するためのファームウエアを格納したファーム開発支援ツールのうちのいずれかであることを特徴とする請求項6に記載のサーバ。
JP2008231189A 2008-09-09 2008-09-09 三次元cadシステム Active JP5403974B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008231189A JP5403974B2 (ja) 2008-09-09 2008-09-09 三次元cadシステム
EP09169777.1A EP2161692B1 (en) 2008-09-09 2009-09-08 Mixed reality space image providing apparatus
US12/555,658 US8643676B2 (en) 2008-09-09 2009-09-08 Mixed reality space image providing apparatus
US14/092,690 US9514572B2 (en) 2008-09-09 2013-11-27 Mixed reality space image providing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008231189A JP5403974B2 (ja) 2008-09-09 2008-09-09 三次元cadシステム

Publications (2)

Publication Number Publication Date
JP2010066898A JP2010066898A (ja) 2010-03-25
JP5403974B2 true JP5403974B2 (ja) 2014-01-29

Family

ID=41395385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008231189A Active JP5403974B2 (ja) 2008-09-09 2008-09-09 三次元cadシステム

Country Status (3)

Country Link
US (2) US8643676B2 (ja)
EP (1) EP2161692B1 (ja)
JP (1) JP5403974B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10101727B2 (en) 2014-07-14 2018-10-16 Mitsubishi Electric Corporation Common parameter interface generation program and parameter reading program

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5451329B2 (ja) * 2009-11-17 2014-03-26 キヤノン株式会社 シミュレーション装置およびその制御方法
FR3008210B1 (fr) * 2013-07-03 2016-12-09 Snecma Procede et systeme de realite augmentee pour la supervision
US20150095792A1 (en) * 2013-10-01 2015-04-02 Canon Information And Imaging Solutions, Inc. System and method for integrating a mixed reality system
JP5824537B2 (ja) * 2014-01-16 2015-11-25 キヤノン株式会社 情報処理装置および情報処理方法
FR3022065B1 (fr) * 2014-06-04 2017-10-13 European Aeronautic Defence & Space Co Eads France Procede de generation d'une maquette numerique enrichie
CN104484522B (zh) * 2014-12-11 2017-10-27 西南科技大学 一种基于现实场景的机器人模拟演练系统的构建方法
US10037077B2 (en) 2016-06-21 2018-07-31 Disney Enterprises, Inc. Systems and methods of generating augmented reality experiences
WO2017222829A1 (en) * 2016-06-22 2017-12-28 Siemens Aktiengesellschaft Display of three-dimensional model information in virtual reality
US10133610B2 (en) 2016-08-16 2018-11-20 International Business Machines Corporation System, method and recording medium for temperature-aware task scheduling
US11210826B2 (en) 2018-02-02 2021-12-28 Disney Enterprises, Inc. Systems and methods to provide artificial intelligence experiences
JP7331088B2 (ja) * 2018-09-24 2023-08-22 マジック リープ, インコーポレイテッド 3次元モデル共有のための方法およびシステム
WO2024158191A1 (en) * 2023-01-25 2024-08-02 Samsung Electronics Co., Ltd. System and method for providing an interaction with real-world object via virtual session

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JP2000112334A (ja) * 1998-10-07 2000-04-21 Mitsubishi Heavy Ind Ltd 運転操作訓練装置
US20010047251A1 (en) * 2000-03-03 2001-11-29 Kemp William H. CAD system which designs 3-D models
JP3517639B2 (ja) * 2000-09-27 2004-04-12 キヤノン株式会社 複合現実感提示装置及びその方法並びに記憶媒体
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
US7171344B2 (en) * 2001-12-21 2007-01-30 Caterpillar Inc Method and system for providing end-user visualization
JP4054585B2 (ja) * 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
JP4068531B2 (ja) * 2003-08-20 2008-03-26 株式会社東芝 Opcを用いたパターン寸法の補正方法及び検証方法、マスクの作成方法及び半導体装置の製造方法、並びに該補正方法を実行するシステム及びプログラム
JP3991020B2 (ja) * 2003-09-30 2007-10-17 キヤノン株式会社 画像表示方法及び画像表示システム
US20060073455A1 (en) * 2004-09-30 2006-04-06 Cardiac Pacemakers, Inc. Virtual reality based prototyping system for medical devices
JP2006195971A (ja) * 2004-12-16 2006-07-27 Canon Inc 三次元cadシステム
WO2007028090A2 (en) * 2005-09-02 2007-03-08 Hntb Holdings Ltd System and method for collecting and modeling object simulation data
US20070066881A1 (en) * 2005-09-13 2007-03-22 Edwards Jerome R Apparatus and method for image guided accuracy verification
US8423333B2 (en) * 2006-01-16 2013-04-16 Sony Corporation System for managing objects of virtual space

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10101727B2 (en) 2014-07-14 2018-10-16 Mitsubishi Electric Corporation Common parameter interface generation program and parameter reading program

Also Published As

Publication number Publication date
EP2161692A2 (en) 2010-03-10
US9514572B2 (en) 2016-12-06
US20140085298A1 (en) 2014-03-27
JP2010066898A (ja) 2010-03-25
US20100066738A1 (en) 2010-03-18
EP2161692B1 (en) 2019-11-06
EP2161692A3 (en) 2017-07-12
US8643676B2 (en) 2014-02-04

Similar Documents

Publication Publication Date Title
JP5403974B2 (ja) 三次元cadシステム
JP2006195971A (ja) 三次元cadシステム
US8786613B2 (en) Method and system for interactive simulation of materials and models
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP4838079B2 (ja) パーツ識別画像作成装置およびプログラムおよびコンピュータ読み取り可能な記憶媒体
JP4914123B2 (ja) 画像処理装置及び方法
JP2004199496A (ja) 情報処理装置および方法、並びにプログラム
JP4809121B2 (ja) パーツカタログ作成方法およびパーツカタログ作成装置およびプログラム
US10614590B2 (en) Apparatus for determination of interference between virtual objects, control method of the apparatus, and storage medium
CN104102811B (zh) 创建人体工学人体模型的姿势以及使用自然用户界面控制计算机辅助设计环境
JP2009276996A (ja) 情報処理装置、情報処理方法
US10964104B2 (en) Remote monitoring and assistance techniques with volumetric three-dimensional imaging
JP2010257081A (ja) 画像処理方法及び画像処理装置
Kensek et al. Augmented reality: An application for architecture
JP2009087161A (ja) 画像処理装置、画像処理方法
Caruso et al. Interactive augmented reality system for product design review
JP2022181153A (ja) 情報処理システム、情報処理方法及びプログラム
JP5161544B2 (ja) 画像表示システム
JP2017134775A (ja) 画像処理装置、画像処理方法及びプログラム
JP2006018444A (ja) 画像処理システム及び付加情報指示装置
JP2017084215A (ja) 情報処理システム、その制御方法、及びプログラム
CN210109870U (zh) 一种基于ar的模型重构系统
JP6719168B1 (ja) 教師データとしてのデプス画像にラベルを付与するプログラム、装置及び方法
Saraiji et al. Virtual Telesar-designing and implementation of a modular based immersive virtual telexistence platform
JP2015121892A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131029

R151 Written notification of patent or utility model registration

Ref document number: 5403974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151