JP2016129922A - 表示制御装置及びその方法、プログラム - Google Patents
表示制御装置及びその方法、プログラム Download PDFInfo
- Publication number
- JP2016129922A JP2016129922A JP2015005287A JP2015005287A JP2016129922A JP 2016129922 A JP2016129922 A JP 2016129922A JP 2015005287 A JP2015005287 A JP 2015005287A JP 2015005287 A JP2015005287 A JP 2015005287A JP 2016129922 A JP2016129922 A JP 2016129922A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- information
- display
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37092—Display position actual and or target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39449—Pendant, pda displaying camera images overlayed with graphics, augmented reality
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40169—Display of actual situation at the remote site
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/09—Closed loop, sensor feedback controls arm movement
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
Abstract
【解決手段】 ロボット及びそのロボットが操作する対象の少なくとも一方を含む処理対象の計測情報を取得する。計測情報に基づく、観察者が観察可能な表示情報を生成する。表示情報に基づいて、処理対象の一部の特徴を強調した強調表示情報を生成する。強調表示情報と、表示情報中の強調表示情報以外の非強調表示情報とを整合して合成表示情報を生成する。合成表示情報を表示部に出力する。
【選択図】 図1
Description
ロボットの動作を表示する表示制御装置であって、
前記ロボット、及びそのロボットが操作する対象の少なくとも一方を含む処理対象の計測情報を取得する取得手段と、
前記計測情報に基づく、観察者が観察可能な表示情報を生成する生成手段と、
前記表示情報に基づいて、前記処理対象の一部の特徴を強調した強調表示情報を生成する強調手段と、
前記強調表示情報と、前記表示情報中の前記強調表示情報以外の非強調表示情報とを整合して合成表示情報を生成する整合手段と、
前記合成表示情報を出力する出力手段と
を備える。
以下では、ロボット(例えば、アーム型ロボット)の先端に装着された撮像装置(カメラ)からの撮像画像を用いて、教示時に必要な位置情報を強調した上で可視化(表示制御)するロボット情報表示システム(表示制御装置)について説明する。
実施形態2では、実施形態1における実際のロボットに関する情報を取得する代わりに、計算機で再現されたオフライン教示環境において、CG画像を用いて教示時に必要な位置情報を強調した上で可視化するロボット情報表示システムについて説明する。
実施形態3では、実施形態1と同様に、出力された合成画像を観察した上で、強調された位置ずれの強調度合いに応じてロボットの動作ゲインを変化させ、実際にロボットを操作することができるロボット情報表示システムについて説明する。
<複数個所と優先度を設定して強調>
実施形態1〜3における合成画像は、一か所の位置情報について強調を行っているが、これに限定されるものではない。例えば、対象物体を障害物に接触させずに、障害物付近を通過させる場合等、複数の接触する可能性のある部位の位置を拡大して強調してもよい。
実施形態1〜3における強調画像は、教示時に必要な位置情報を強調しているが、これに限定されるものではない。その他、角度、速度、加速度、作用力等の変位量あるいは変化量に対して、拡大、移動、変形によって強調が可能な情報であれば、どのようなものでもよい。例えば、対象部品と固定部品間の接触等の作用で生じた作用力を、ロボットに力センサを付加して計測し、これを可視化、強調してもよい。図16に、ロボットのフィンガ1601で把持した対象部品1602の固定部品1603上の嵌め込み位置1604への嵌め込み時、接触点1605上での接触によって発生した作用力fの強調前画像(図16(a))と、強調後画像(図16(b))を示す。
その他の例としては、対象部品と固定部品間で回転角度にずれが生じている場合、これを強調してもよい。図17に、ロボットのフィンガ1701で把持した矩形状の対象部品1702の固定部品1703への嵌め込み動作の教示時に生じた、角度ずれθの強調前画像(図17(a))と、強調後画像(図17(b))を示す。
その他の例としては、ロボットの移動速度や加速度が情報として重要な場合は、対象部品やロボットのフィンガ等の大きさを強調することで、これを可視化、強調してもよい。図18に、ロボットのフィンガ1801で対象部品1802を保持したまま、移動方向1803に速度vで移動する動作時における、移動速度の強調前画像(図18(a))と、強調後画像(図18(b))を示す。
実施形態3における合成画像の拡大率Mは、動的に(4)式を用いて自動的に設定しているが、これに限定されるものではない。拡大率Mを、自動もしくは手動で設定する構成であれば、どのようなものであってもよい。例えば、ロボット操作部に強調度調節部となるノブ等を増設して、観察者が拡大率を直接、操作できるようにしてもよい。これにより、操作は増えるものの、より観察者の意図する通りの強調を行うことができる。もちろん、実施形態3と同様に、手動で設定した拡大率Mに応じてロボットの動作ゲインGを変えてもよい。
実施形態2における合成画像は、S1202で生成したCG画像を用いて強調を行っているが、これに限定されるものではない。CADデータに基づいて最終的に合成画像をCGとして出力できれば、その他の強調を実現する構成を用いてもよい。例えば、S1203でCG画像を生成する代わりに計測情報取得部1109から取得した仮想対象部品1305、仮想固定部品1306のCADデータ中の三次元形状を保持しておき、S1204で仮想対象部品1305、仮想固定部品1306の強調対象領域に相当する部位のみを抽出し、三次元形状の段階で拡大して強調させる。S1205で強調対象領域周辺(強調対象領域を規定する位置(例えば、重心)を中心にした所定範囲内)の三次元形状の拡大率を変化させて整合性を取りながら、S1206で表示出力部1113がCG画像を生成させる形式としてもよい。
S1205では、表示整合部1105が整合性を取る処理で、強調対象領域周辺の三次元形状の拡大率を変化させているが、これに限定されるものではない。強調表示情報と非強調表示情報を違和感なく合成できる構成であれば、その他の整合性を取る処理を行ってもよい。例えば、拡大率を変化させる代わりに、強調対象領域周辺の三次元形状を並進、回転させてもよい。例えば、強調対象領域である仮想対象部品1305を把持する強調対象領域周辺の仮想フィンガ1303は、仮想対象部品1305が拡大されると、そのままでは図19(a)に示すように把持位置とのずれが生じた状態となる。ここで、仮想フィンガ1303が本来移動する並進方向1901でなく、図19(b)に示すように、根元の回転方向1902を回転させて把持位置に整合性を持たせる。
実施形態1〜3における表示整合部は、例えば、実施形態1のS206における整合性を取る処理で、強調表示情報と非強調表示情報の間に、整合領域を設定して整合性を取っているが、これに限定されるものではない。強調表示情報と非強調表示情報を違和感なく合成できる構成であれば、その他の整合性を取る処理を行ってもよい。例えば、強調表示情報の中心部に最大の拡大率Mを設定し、非強調表示情報に相当する領域へ近づくにつれて徐々に拡大率Mを減少させて整合性を取ってもよい。
実施形態1では、ロボット先端に装着されたカメラからの撮像画像を用いて、教示時に必要な位置情報を強調した上で可視化を行い、観察者に出力する。これにより、観察者はカメラによる撮像画像を用いた合成画像を観察することで、直感的かつ容易に位置ずれを確認できる。
計測情報取得部は、ロボット及びロボットが操作する対象の少なくとも一方を含む処理対象の位置、姿勢、速度、加速度、作用力のいずれか一つ以上の計測尺度(測定基準)による計測情報を保持するものであれば、どのようなものであってもよい。一例が、実施形態1〜3における計測情報取得部である。
Claims (17)
- ロボットの動作を表示する表示制御装置であって、
前記ロボット、及びそのロボットが操作する対象の少なくとも一方を含む処理対象の計測情報を取得する取得手段と、
前記計測情報に基づく、観察者が観察可能な表示情報を生成する生成手段と、
前記表示情報に基づいて、前記処理対象の一部の特徴を強調した強調表示情報を生成する強調手段と、
前記強調表示情報と、前記表示情報中の前記強調表示情報以外の非強調表示情報とを整合して合成表示情報を生成する整合手段と、
前記合成表示情報を表示部に出力する出力手段と
を備えることを特徴とする表示制御装置。 - 前記処理対象の画像を入力する入力手段を更に備え、
前記生成手段は、前記計測情報に基づいて、前記入力手段で入力した画像を加工することで、前記計測情報に基づく前記表示情報を生成する
ことを特徴とする請求項1に記載の表示制御装置。 - 前記処理対象を撮像する撮像手段を更に備え、
前記入力手段は、前記処理対象の画像として前記撮像手段で撮像した前記処理対象の画像を入力する
ことを特徴とする請求項2に記載の表示制御装置。 - 前記処理対象のCG画像を生成するCG生成手段を更に備え、
前記入力手段は、前記処理対象の画像として前記CG生成手段で生成した前記処理対象のCG画像を入力する
ことを特徴とする請求項2に記載の表示制御装置。 - 前記強調手段は、前記処理対象の計測情報が変化する位置において、その位置を中心にした所定範囲の前記処理対象の大きさを変化させることで、前記処理対象の一部の特徴を強調する
ことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。 - 前記強調手段は、前記処理対象の計測情報の変位量を実際よりも大きくすることで、前記処理対象の一部の特徴を強調する
ことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。 - 前記強調手段は、前記処理対象の速度もしくは加速度に応じて、前記処理対象の大きさを速度もしくは加速度の発生している方向に拡大することで、前記処理対象の一部の特徴を強調する
ことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。 - 前記強調手段は、前記処理対象の形状の大きさを作用力に応じて変形させることで、前記処理対象の一部の特徴を強調する
ことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。 - 前記強調手段の強調する処理対象の部位の複数の候補が存在する場合に、強調する部位を選択する選択手段を更に備える
ことを特徴とする請求項1乃至8のいずれか1項に記載の表示制御装置。 - 前記選択手段は、前記ロボットが目的とする所定のタスク内容、もしくは観察者の操作、もしくはその双方に基づいて、前記強調する部位を選択する
ことを特徴とする請求項9に記載の表示制御装置。 - 前記強調手段で強調する強調度合いを動的に変更する変更手段を更に備える
ことを特徴とする請求項1乃至10のいずれか1項に記載の表示制御装置。 - 前記変更手段は、前記処理対象の特徴が、所定の目標値と現在の値の差に基づいて前記強調度合いを動的に変更する
ことを特徴とする請求項11に記載の表示制御装置。 - 前記変更手段は、観察者からの操作によって前記強調度合いを動的に変更する
ことを特徴とする請求項11に記載の表示制御装置。 - 前記ロボットに、制御パラメータを送信してロボットの動作を制御する制御手段を更に備え、
前記制御パラメータは、前記強調手段によって強調された特徴の強調度合いによって、ロボットの動作ゲインを変化させる
ことを特徴とする請求項1乃至13のいずれか1項に記載の表示制御装置。 - 前記整合手段は、前記強調表示情報と前記非強調表示情報との間の強調度合いを連続的に変化させることで、前記強調表示情報と前記非強調表示情報とを整合する
ことを特徴とする請求項1乃至14のいずれか1項に記載の表示制御装置。 - ロボットの動作を表示する表示制御方法であって、
前記ロボット、及びそのロボットが操作する対象の少なくとも一方を含む処理対象の計測情報を取得する取得工程と、
前記計測情報に基づく、観察者が観察可能な表示情報を生成する生成工程と、
前記表示情報に基づいて、前記処理対象の一部の特徴を強調した強調表示情報を生成する強調工程と、
前記強調表示情報と、前記表示情報中の前記強調表示情報以外の非強調表示情報とを整合して合成表示情報を生成する整合工程と、
前記合成表示情報を表示部に出力する出力工程と
を備えることを特徴とする表示制御方法。 - コンピュータを、請求項1乃至15のいずれか1項に記載の表示制御装置の各手段として機能させるための、または請求項16に記載の表示制御方法をコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015005287A JP6576042B2 (ja) | 2015-01-14 | 2015-01-14 | 表示制御装置及びその方法、プログラム |
US14/991,220 US9884424B2 (en) | 2015-01-14 | 2016-01-08 | Display control apparatus and method for same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015005287A JP6576042B2 (ja) | 2015-01-14 | 2015-01-14 | 表示制御装置及びその方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016129922A true JP2016129922A (ja) | 2016-07-21 |
JP6576042B2 JP6576042B2 (ja) | 2019-09-18 |
Family
ID=56367966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015005287A Active JP6576042B2 (ja) | 2015-01-14 | 2015-01-14 | 表示制御装置及びその方法、プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9884424B2 (ja) |
JP (1) | JP6576042B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020188661A1 (ja) * | 2019-03-15 | 2021-10-14 | オムロン株式会社 | 設定支援装置、設定支援方法及びプログラム |
JP2022009733A (ja) * | 2017-03-30 | 2022-01-14 | ソフト ロボティクス, インコーポレイテッド | ユーザ支援ロボット制御システム |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018034243A (ja) * | 2016-08-31 | 2018-03-08 | セイコーエプソン株式会社 | ロボット、ロボット制御装置、及びロボットシステム |
JP6850639B2 (ja) * | 2017-03-09 | 2021-03-31 | 本田技研工業株式会社 | ロボット |
JP6881188B2 (ja) * | 2017-09-27 | 2021-06-02 | オムロン株式会社 | 位置検出装置およびプログラム |
JP6693981B2 (ja) * | 2018-02-19 | 2020-05-13 | ファナック株式会社 | ロボットの動作をシミュレーションするシミュレーション装置 |
CN118159399A (zh) * | 2021-10-18 | 2024-06-07 | 发那科株式会社 | 控制装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11239989A (ja) * | 1998-02-25 | 1999-09-07 | Fujitsu Ltd | ロボットシミュレーションにおけるキャリブレーション装置 |
JP2009195489A (ja) * | 2008-02-21 | 2009-09-03 | Olympus Medical Systems Corp | マニピュレータ操作システム |
US20090248036A1 (en) * | 2008-03-28 | 2009-10-01 | Intuitive Surgical, Inc. | Controlling a robotic surgical tool with a display monitor |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3539645B2 (ja) * | 1995-02-16 | 2004-07-07 | 株式会社日立製作所 | 遠隔手術支援装置 |
US5878151A (en) * | 1996-10-31 | 1999-03-02 | Combustion Engineering, Inc. | Moving object tracking |
US7233841B2 (en) * | 2002-04-19 | 2007-06-19 | Applied Materials, Inc. | Vision system |
JP2004298996A (ja) * | 2003-03-31 | 2004-10-28 | Canon Inc | 微小物操作装置 |
US8842217B2 (en) * | 2008-08-04 | 2014-09-23 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
US8600552B2 (en) * | 2009-10-30 | 2013-12-03 | Honda Motor Co., Ltd. | Information processing method, apparatus, and computer readable medium |
US9352466B2 (en) * | 2012-06-01 | 2016-05-31 | Taiwan Semiconductor Manufacturing Co., Ltd. | Robot positioning system for semiconductor tools |
JP6410022B2 (ja) * | 2013-09-06 | 2018-10-24 | パナソニックIpマネジメント株式会社 | マスタスレーブロボットの制御装置及び制御方法、ロボット、マスタスレーブロボットの制御プログラム、並びに、マスタスレーブロボットの制御用集積電子回路 |
JP6555248B2 (ja) * | 2014-02-28 | 2019-08-07 | ソニー株式会社 | 医療用アーム装置、キャリブレーション方法及びプログラム |
-
2015
- 2015-01-14 JP JP2015005287A patent/JP6576042B2/ja active Active
-
2016
- 2016-01-08 US US14/991,220 patent/US9884424B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11239989A (ja) * | 1998-02-25 | 1999-09-07 | Fujitsu Ltd | ロボットシミュレーションにおけるキャリブレーション装置 |
JP2009195489A (ja) * | 2008-02-21 | 2009-09-03 | Olympus Medical Systems Corp | マニピュレータ操作システム |
US20090248036A1 (en) * | 2008-03-28 | 2009-10-01 | Intuitive Surgical, Inc. | Controlling a robotic surgical tool with a display monitor |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022009733A (ja) * | 2017-03-30 | 2022-01-14 | ソフト ロボティクス, インコーポレイテッド | ユーザ支援ロボット制御システム |
JP7308553B2 (ja) | 2017-03-30 | 2023-07-14 | ソフト ロボティクス, インコーポレイテッド | ユーザ支援ロボット制御システム |
JPWO2020188661A1 (ja) * | 2019-03-15 | 2021-10-14 | オムロン株式会社 | 設定支援装置、設定支援方法及びプログラム |
JP7164012B2 (ja) | 2019-03-15 | 2022-11-01 | オムロン株式会社 | 設定支援装置、設定支援方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US9884424B2 (en) | 2018-02-06 |
JP6576042B2 (ja) | 2019-09-18 |
US20160203799A1 (en) | 2016-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6576042B2 (ja) | 表示制御装置及びその方法、プログラム | |
US11972530B2 (en) | Rendering virtual objects in 3D environments | |
US9541997B2 (en) | Three-dimensional user interface apparatus and three-dimensional operation method | |
JP5936155B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
US10076840B2 (en) | Information processing apparatus, information processing method, and program | |
JP6372487B2 (ja) | 情報処理装置、制御方法、プログラム、および記憶媒体 | |
EP2814000B1 (en) | Image processing apparatus, image processing method, and program | |
US20160018897A1 (en) | Three-dimensional user interface device and three-dimensional operation processing method | |
JP2020514909A (ja) | 多ソース仮想コンテンツ合成を伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法 | |
JP5709440B2 (ja) | 情報処理装置、情報処理方法 | |
JP2020515954A (ja) | 仮想コンテンツをワーピングすることを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法 | |
US20140002348A1 (en) | Measuring device and measuring method | |
CN104102811B (zh) | 创建人体工学人体模型的姿势以及使用自然用户界面控制计算机辅助设计环境 | |
WO2019163129A1 (ja) | 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム | |
JP2013214275A (ja) | 三次元位置指定方法 | |
JP2019046055A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2013008257A (ja) | 画像合成プログラム | |
WO2011027534A1 (ja) | 画像生成システム、画像生成方法、コンピュータプログラムおよびコンピュータプログラムを記録した記録媒体 | |
KR20190048810A (ko) | 증강현실용 컨텐츠 제공 장치 및 방법 | |
US20210263308A1 (en) | Apparatus configured to display shared information on plurality of display apparatuses and method thereof | |
JP6371547B2 (ja) | 画像処理装置、方法、および、プログラム | |
JP2019040357A (ja) | 画像処理装置、画像処理方法、コンピュータプログラム | |
US20240087255A1 (en) | Information processing apparatus, system, control method, and non-transitory computer storage medium | |
US20230368483A1 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
JP2021163179A (ja) | 情報処理装置及びその制御方法、プログラム、記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190722 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190820 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6576042 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |