JP2016024824A - 感覚表現の変換 - Google Patents
感覚表現の変換 Download PDFInfo
- Publication number
- JP2016024824A JP2016024824A JP2015140204A JP2015140204A JP2016024824A JP 2016024824 A JP2016024824 A JP 2016024824A JP 2015140204 A JP2015140204 A JP 2015140204A JP 2015140204 A JP2015140204 A JP 2015140204A JP 2016024824 A JP2016024824 A JP 2016024824A
- Authority
- JP
- Japan
- Prior art keywords
- entity
- sensory
- modified
- image
- representations
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Data Mining & Analysis (AREA)
- Game Theory and Decision Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Human Resources & Organizations (AREA)
- Tourism & Hospitality (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】存在物(108)を表す存在物の感覚表現(102)が、受信される。存在物の感覚表現(102)は、存在物(108)の部分である複数のアイテム(110)を表す複数の感覚表現(112)を含む。複数のアイテム(110)の各々は、一組の測定可能な関心要因(124)に対する一組の値(130)に関連する。一組の倍率(138)が、複数のアイテム(110)の各々に関連する一組の値(130)に基づいて、複数の感覚表現(112)の各々に対して計算される。複数の感覚表現(112)は一組の倍率を使用して修正される。これによって、一組の測定可能な関心要因(124)に関する複数の修正された感覚表現(132)によって表される複数のアイテム(110)間の相対的な関係性を規定する、複数の修正された感覚表現(132)が生成される。
【選択図】図1
Description
存在物(108)を表す存在物の画像(142)を受信するステップであって、存在物の画像(142)は、存在物(108)の部分である複数のアイテム(110)を表す複数の画像部分(144)を含む、ステップ、
複数のアイテム(110)の各々に対する一組の測定可能な関心要因(124)に対する一組の値(130)を特定するステップ、
複数のアイテム(110)の各々に関連する一組の値(130)に基づいて、複数の画像部分(144)の各々に対する一組の倍率(138)を計算するステップ、
複数の画像部分(144)の各々に対して特定された一組の倍率(138)を使用して、複数の画像部分(144)を修正し、複数の修正された画像部分(146)を生成するステップ、及び
全ディスプレイ領域に対して、複数の修正された画像部分(146)の相互の位置を調整して、変換された存在物の画像(148)するステップ有する。
ここで、変換された存在物の画像(148)は、一組の測定可能な関心要因(124)に関する複数の修正された画像部分(146)によって表される複数のアイテム(110)間の相対的な関係性を視覚的に規定する。
102 存在物の感覚表現
104 変換された存在物の感覚表現
106 コンピュータシステム
108 存在物
110 複数のアイテム
112 複数の感覚表現
114 視覚
116 聴覚
118 臭覚
120 触覚
122 味覚
124 一組の測定可能な関心要因
126 測定可能な関心要因
128 値
130 一組の値
132 複数の修正された感覚表現
134 感覚表現
136 一組のパラメータ
138 一組の倍率
140 修正された感覚表現
141 拡大縮小された一組のパラメータ
142 存在物の画像
144 複数の画像部分
146 複数の修正された画像部分
148 変換された存在物の画像
150 出力デバイス
152 ディスプレイデバイス
154 正規化された一組の拡大縮小可能なパラメータ
200 一組の存在物
202 一組の存在物の感覚表現
204 航空機
206 企業経営チーム
208 製造指示命令
210 警報システム
212 複数の航空機セクション
214 複数の従業員
216 複数のステップ
218 複数の警報
220 航空機の画像
222 ピクチャークラウド
224 録音
226 録音グループ
228 複数の画像部分
230 複数の従業員のピクチャー
232 複数の音声セクション
234 複数の録音
236 一組の寸法
238 一組の寸法
240 デシベルレベル
242 デシベルレベル
300 ディスプレイ
301 航空機の画像
302 胴体部
304 コックピット部
306 尾部
307 ラダー部
308 右翼部
310 左翼部
312 右エルロン部
314 左エルロン部
316 右エンジン部
318 左エンジン部
320 上境界
322 左境界
324 下境界
326 右境界
328 第1の角
330 第2の角
332 第3の角
334 第4の角
336 中心点
400 複数のディスプレイ領域
402 胴体ディスプレイ領域
404 コックピットディスプレイ領域
406 尾部ディスプレイ領域
407 ラダーディスプレイ領域
408 右翼ディスプレイ領域
410 左翼ディスプレイ領域
412 右エルロンディスプレイ領域
414 左エルロンディスプレイ領域
416 右エンジンディスプレイ領域
418 左エンジンディスプレイ領域
420 コックピット中心点
500 表
502〜504 列
506〜510 行
600 変換された航空機の画像
601 複数の修正された画像部分
602 修正された胴体部
604 修正されたコックピット部
606 修正された尾部
607 修正されたラダー部
608 修正された右翼部
610 修正された左翼部
612 修正された右エルロン部
614 修正された左エルロン部
616 修正された右エンジン部
618 修正された左エンジン部
700 ピクチャークラウド
702 複数のメンバーのピクチャー
704〜718 メンバーのピクチャー
800 表
802〜804 列
900 変換されたピクチャークラウド
902 複数の修正されたメンバーのピクチャー
904〜918 修正されたメンバーのピクチャー
1000 録音グループ
1002〜1018 録音
1100 表
1102〜1104 列
1200 変換された録音グループ
1202〜1218 修正された録音
1300 録音
1301 複数のセクション
1302〜1316 セクション
1400 表
1402〜1404 列
1500 変換された録音
1502 修正されたセクション
1504〜1516 修正されたセクション
1600〜2120 動作
2200 データ処理システム
2202 通信フレームワーク
2204 プロセッサユニット
2206 記憶デバイス
2208 通信ユニット
2210 入出力ユニット
2212 ディスプレイ
2214 メモリ
2216 固定記憶域
2218 プログラムコード
2220 コンピュータ可読媒体
2222 コンピュータプログラム製品
2224 コンピュータ可読記憶媒体
2226コンピュータ可読信号媒体
Claims (14)
- 存在物(108)を表す存在物の感覚表現(102)を受信するトランスフォーマー(100)を備え、
前記存在物の感覚表現(102)は、前記存在物(108)の部分である複数のアイテム(110)を表す複数の感覚表現(112)を備えており、
前記複数のアイテム(110)の各々が、一組の測定可能な関心要因(124)に対する一組の値(130)に関連しており、
前記トランスフォーマー(100)は、前記複数のアイテム(110)の各々に関連する前記一組の値(130)に基づいて、前記複数の感覚表現(112)の各々に対する、一組の倍率(138)を計算し、
前記トランスフォーマー(100)は、前記一組の倍率(138)を使用して前記複数の感覚表現(112)を修正することにより、複数の修正された感覚表現(132)を生成し、
前記複数の修正された感覚表現(132)が、前記一組の測定可能な関心要因(124)に関する前記複数の修正された感覚表現(132)によって表される前記複数のアイテム(110)間の相対的な関係性を規定する、装置。 - 前記トランスフォーマー(100)は、コンピュータシステム(106)を使用して実装される、請求項1に記載の装置。
- 前記トランスフォーマー(100)は、前記複数の修正された感覚表現(132)を使用して、変換された存在物の感覚表現(104)を生成する、請求項1に記載の装置。
- 更に出力デバイス(150)を備え、
前記出力デバイス(150)は、人間の感覚の少なくとも1つを使用して、前記一組の測定可能な関心要因(124)に関する前記複数の修正された感覚表現(132)によって表される前記複数のアイテム(110)間の相対的な関係性を規定する、前記変換された存在物の感覚表現(104)を出力する、請求項3に記載の装置。 - 前記複数の感覚表現(112)の各々の感覚表現は、一組のパラメータ(136)に関連し、
前記一組のパラメータ(136)の各々は拡大縮小可能であり、
前記トランスフォーマー(100)は、前記複数の感覚表現(112)の各々に対応する前記一組の倍率(138)を使用して、前記複数の感覚表現(112)の各々に対する前記一組のパラメータ(136)を調整することにより、前記複数の修正された感覚表現(132)を生成する、請求項1に記載の装置。 - 前記存在物の感覚表現(102)は、視覚(114)、聴覚(116)、臭覚(118)、触覚(120)、又は味覚(122)の少なくとも1つを使用して、前記存在物(108)を表す、請求項1に記載の装置。
- 前記存在物の感覚表現(102)は存在物の画像(142)であり、前記複数の感覚表現(112)は複数の画像部分(144)であり、
前記トランスフォーマー(100)は、前記一組の倍率(138)を使用して、前記複数の画像部分(144)を修正することにより、変換された存在物の画像(148)を生成し、
前記トランスフォーマー(100)は、前記変換された存在物の画像(148)を視覚的に提示するための全ディスプレイ領域を特定し、前記複数の画像部分(144)の各々に対する複数のディスプレイ領域(400)を特定し、前記複数の画像部分(144)に対して特定された前記一組の倍率(138)を使用して、前記複数の画像部分(144)の各々に対して前記複数のディスプレイ領域(400)を調整することにより、複数の修正されたディスプレイ領域を生成し、
前記トランスフォーマー(100)は、前記複数の修正されたディスプレイ領域を使用して、複数の修正された画像部分(146)を生成し、前記全ディスプレイ領域内での前記複数の修正された画像部分(146)の相互の位置を調整することにより、前記変換された存在物の画像(148)を生成する、請求項1に記載の装置。 - 前記変換された存在物の画像(148)のディスプレイを視覚的に提示するディスプレイデバイス(152)を更に備え、前記変換された存在物の画像(148)は、前記一組の測定可能な関心要因(124)に関する前記複数の修正された感覚表現(132)によって表される前記複数のアイテム(110)間の相対的な関係性を視覚的に規定する、請求項7に記載の装置。
- 存在物(108)を表す存在物の感覚表現(102)を修正するためのコンピュータで実施される方法であって、
前記存在物(108)を表す前記存在物の感覚表現(102)を受信すること(1600)を有しており、
前記存在物の感覚表現(102)は、前記存在物(108)の部分である複数のアイテム(110)を表す複数の感覚表現(112)を有しており、
前記複数のアイテム(110)の各々は、一組の測定可能な関心要因(124)に対する一組の値(130)に関連しており、
前記方法が、
前記複数のアイテム(110)の各々に関連する前記一組の値(130)に基づいて、前記複数の感覚表現(112)の各々に対する一組の倍率(138)を計算すること(1602)と、
前記一組の倍率(138)を使用して、前記複数の感覚表現(112)を修正することにより、複数の修正された感覚表現(132)を生成すること(1604)を有しており、
前記複数の修正された感覚表現(132)は、前記一組の測定可能な関心要因(124)に関する前記複数の修正された感覚表現(132)によって表される前記複数のアイテム(110)間の相対的な関係性を規定する、コンピュータで実施される方法。 - 前記存在物の感覚表現(102)を受信することは、
前記複数の感覚表現(112)を含む前記存在物の感覚表現(102)を受信することを有しており、
前記複数の感覚表現(112)の各々は、一組のパラメータ(136)に関連する、請求項9に記載のコンピュータで実施される方法。 - 前記複数の感覚表現(112)の各々に対する前記一組のパラメータ(136)を正規化することを更に有しており、
前記複数の感覚表現(112)を修正することは、
前記複数の感覚表現(112)の各々に対応する前記一組の倍率(138)を使用して、前記複数の感覚表現(112)の各々に対する前記一組のパラメータ(136)を調整することにより、前記複数の修正された感覚表現(132)を生成することを有する、請求項10に記載のコンピュータで実施される方法。 - 前記複数の修正された感覚表現(132)を使用して、変換された存在物の感覚表現(104)を生成すること(1904)と、
人間の感覚の少なくとも1つを使用して、前記一組の測定可能な関心要因(124)に関する前記複数の修正された感覚表現(132)によって表される前記複数のアイテム(110)間の相対的な関係性を規定する、前記変換された存在物の感覚表現(104)を出力すること(1906)を更に有する、請求項9に記載のコンピュータで実施される方法。 - 前記存在物の感覚表現(102)を受信することは、
複数の画像部分(144)を有する存在物の画像(142)を受信することを有しており、
前記複数の感覚表現(112)を修正することは、
前記複数の画像部分(144)の各々に対して特定された前記一組の倍率(138)を使用して、前記複数の画像部分(144)を修正することにより、変換された存在物の画像(148)を生成することを有する、請求項9に記載のコンピュータで実施される方法。 - 前記複数の画像部分(144)を修正することは、
前記変換された存在物の画像(148)を視覚的に提示するための全ディスプレイ領域を特定することと、
前記全ディスプレイ領域に対して、前記複数の画像部分(144)の各々に対する複数のディスプレイ領域(400)を特定することと、
前記複数の画像部分(144)に対して特定された前記一組の倍率(138)を使用して、前記複数の画像部分(144)の各々に対する前記複数のディスプレイ領域(400)を調整することにより、複数の修正されたディスプレイ領域を生成することと、
前記複数の修正されたディスプレイ領域を使用して、複数の修正された画像部分(146)を生成することと、
前記全ディスプレイ領域内での前記複数の修正された画像部分(146)の相互の位置を調整することにより、前記変換された存在物の画像(148)を生成することを有する、請求項13に記載のコンピュータで実施される方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/334,939 | 2014-07-18 | ||
US14/334,939 US9648091B2 (en) | 2014-07-18 | 2014-07-18 | Transforming sensory representations |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016024824A true JP2016024824A (ja) | 2016-02-08 |
JP2016024824A5 JP2016024824A5 (ja) | 2018-08-23 |
JP6594071B2 JP6594071B2 (ja) | 2019-10-23 |
Family
ID=53719648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015140204A Active JP6594071B2 (ja) | 2014-07-18 | 2015-07-14 | 感覚表現の変換 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9648091B2 (ja) |
EP (1) | EP2975579A3 (ja) |
JP (1) | JP6594071B2 (ja) |
CN (1) | CN105279559A (ja) |
AU (1) | AU2015202808B2 (ja) |
CA (2) | CA2904975A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10679306B2 (en) | 2017-11-21 | 2020-06-09 | International Business Machines Corporation | Focus-object-determined communities for augmented reality users |
US11216312B2 (en) * | 2018-08-03 | 2022-01-04 | Virtustream Ip Holding Company Llc | Management of unit-based virtual accelerator resources |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1083271A (ja) * | 1996-09-09 | 1998-03-31 | Toshiba Corp | ウィンドウシステム及び計算機システム並びにウインドウ表示方法 |
JP2002077313A (ja) * | 2000-09-05 | 2002-03-15 | Fujitsu Denso Ltd | 警報表示システム及び警報表示方法 |
JP2004272347A (ja) * | 2003-03-05 | 2004-09-30 | Hitachi Plant Eng & Constr Co Ltd | 工程計画支援システム |
JP2006302108A (ja) * | 2005-04-22 | 2006-11-02 | Toshiba Corp | 情報処理装置およびプログラム |
WO2008139551A1 (ja) * | 2007-05-01 | 2008-11-20 | Osaka Electro-Communication University | 情報提示装置及び情報提示方法 |
US20090190857A1 (en) * | 2008-01-28 | 2009-07-30 | Microsoft Corporation | Importance guided image transformation |
US20120274652A1 (en) * | 2011-04-29 | 2012-11-01 | Samsung Electronics Co. Ltd. | Method for displaying marker in a map service |
JP2013152713A (ja) * | 2011-12-21 | 2013-08-08 | Boeing Co:The | パノラマ的な視覚化ドキュメントレイアウト |
JP2013206271A (ja) * | 2012-03-29 | 2013-10-07 | Sony Corp | 情報処理装置、情報処理方法およびコンピュータプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003042766A1 (en) * | 2001-11-13 | 2003-05-22 | Thinking Machines, Llc | Method and system for orthogonalizing input signals |
US7841987B2 (en) * | 2004-03-30 | 2010-11-30 | Apneos Corporation | System and method for visualizing sleep-related information |
US20050254727A1 (en) * | 2004-05-14 | 2005-11-17 | Eastman Kodak Company | Method, apparatus and computer program product for determining image quality |
US9003280B2 (en) * | 2008-05-09 | 2015-04-07 | Vizio, Inc. | Displaying still and moving images of a constant size or images that occupy a specified percentage of a screen across different size display screens |
KR20100008775A (ko) * | 2008-07-16 | 2010-01-26 | 한국전자통신연구원 | 실감 효과 표현 방법 및 그 장치 및 사용자 환경 정보 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록 매체 |
CN101923427A (zh) * | 2009-06-16 | 2010-12-22 | 英业达股份有限公司 | 用户界面及其操作方法 |
CN102970215A (zh) * | 2012-11-30 | 2013-03-13 | 上海市共进通信技术有限公司 | 实现火灾报警功能的家庭网关设备及报警功能控制方法 |
US10003379B2 (en) * | 2014-05-06 | 2018-06-19 | Starkey Laboratories, Inc. | Wireless communication with probing bandwidth |
-
2014
- 2014-07-18 US US14/334,939 patent/US9648091B2/en active Active
-
2015
- 2015-05-25 AU AU2015202808A patent/AU2015202808B2/en active Active
- 2015-05-27 CA CA2904975A patent/CA2904975A1/en active Pending
- 2015-05-27 CA CA2893032A patent/CA2893032C/en active Active
- 2015-07-14 JP JP2015140204A patent/JP6594071B2/ja active Active
- 2015-07-15 EP EP15176797.7A patent/EP2975579A3/en active Pending
- 2015-07-17 CN CN201510421046.5A patent/CN105279559A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1083271A (ja) * | 1996-09-09 | 1998-03-31 | Toshiba Corp | ウィンドウシステム及び計算機システム並びにウインドウ表示方法 |
JP2002077313A (ja) * | 2000-09-05 | 2002-03-15 | Fujitsu Denso Ltd | 警報表示システム及び警報表示方法 |
JP2004272347A (ja) * | 2003-03-05 | 2004-09-30 | Hitachi Plant Eng & Constr Co Ltd | 工程計画支援システム |
JP2006302108A (ja) * | 2005-04-22 | 2006-11-02 | Toshiba Corp | 情報処理装置およびプログラム |
WO2008139551A1 (ja) * | 2007-05-01 | 2008-11-20 | Osaka Electro-Communication University | 情報提示装置及び情報提示方法 |
US20090190857A1 (en) * | 2008-01-28 | 2009-07-30 | Microsoft Corporation | Importance guided image transformation |
US20120274652A1 (en) * | 2011-04-29 | 2012-11-01 | Samsung Electronics Co. Ltd. | Method for displaying marker in a map service |
JP2012234175A (ja) * | 2011-04-29 | 2012-11-29 | Samsung Electronics Co Ltd | マップサービスにおけるマーカー表示方法 |
JP2013152713A (ja) * | 2011-12-21 | 2013-08-08 | Boeing Co:The | パノラマ的な視覚化ドキュメントレイアウト |
JP2013206271A (ja) * | 2012-03-29 | 2013-10-07 | Sony Corp | 情報処理装置、情報処理方法およびコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2975579A2 (en) | 2016-01-20 |
US20160019674A1 (en) | 2016-01-21 |
CA2893032C (en) | 2018-10-02 |
CA2893032A1 (en) | 2016-01-18 |
EP2975579A3 (en) | 2016-11-02 |
CN105279559A (zh) | 2016-01-27 |
JP6594071B2 (ja) | 2019-10-23 |
US9648091B2 (en) | 2017-05-09 |
AU2015202808A1 (en) | 2016-02-04 |
AU2015202808B2 (en) | 2020-04-16 |
CA2904975A1 (en) | 2016-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Al-Ahmari et al. | Development of a virtual manufacturing assembly simulation system | |
Biscio et al. | The accumulated persistence function, a new useful functional summary statistic for topological data analysis, with a view to brain artery trees and spatial point process applications | |
US10699453B2 (en) | Digital media environment for style-aware patching in a digital image | |
US8823710B2 (en) | Large scale data visualization with interactive chart | |
Akpan et al. | A comparative evaluation of the effectiveness of virtual reality, 3D visualization and 2D visual interactive simulation: an exploratory meta-analysis | |
Pini et al. | The interval testing procedure: a general framework for inference in functional data analysis | |
Hegarty | Cognition, metacognition, and the design of maps | |
Khan et al. | Evolving a psycho-physical distance metric for generative design exploration of diverse shapes | |
Sylcott et al. | The effect of product representation in visual conjoint analysis | |
Young et al. | Descriptive statistics, graphs, and visualisation | |
JP6594071B2 (ja) | 感覚表現の変換 | |
Wang et al. | Colormap optimization with data equality | |
US11775144B2 (en) | Place-based semantic similarity platform | |
Conesa-Pastor et al. | EVM: An Educational Virtual Reality Modeling Tool; Evaluation Study with Freshman Engineering Students | |
Duarte et al. | Approximating the evolution of rotating moving regions using Bezier curves | |
Thelin et al. | Difference modeling for design space exploration and comparison of three-dimensional structural simulation results | |
Ferrise et al. | Can interactive finite element analysis improve the learning of mechanical behavior of materials? A case study | |
Engel et al. | Neighborhood relation diagrams for local comparison of carbon footprints in urban planning | |
Arastehfar et al. | An evaluation methodology for design concept communication using digital prototypes | |
Vittorietti et al. | General framework for testing Poisson‐Voronoi assumption for real microstructures | |
Johansson et al. | Immersive Visual Interfaces–Assessing Usability by the Effects of Learning/Results from an Empirical Study | |
Setlur et al. | Semantic Resizing of Charts Through Generalization: A Case Study with Line Charts | |
Karatas et al. | Development of a convolutional autoencoder using deep neuronal networks for defect detection and generating ideal references for cutting edges | |
US20230170066A1 (en) | Digitized data input device and method | |
JP7117801B1 (ja) | スキル評価プログラム及びスキル評価装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180713 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180713 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190701 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190924 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6594071 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |