KR970700332A - 시간축 정보의 공간적 입력에 대한 방법 및 장치(method and system for spatial accessing of time-based information) - Google Patents

시간축 정보의 공간적 입력에 대한 방법 및 장치(method and system for spatial accessing of time-based information) Download PDF

Info

Publication number
KR970700332A
KR970700332A KR1019960703353A KR19960703353A KR970700332A KR 970700332 A KR970700332 A KR 970700332A KR 1019960703353 A KR1019960703353 A KR 1019960703353A KR 19960703353 A KR19960703353 A KR 19960703353A KR 970700332 A KR970700332 A KR 970700332A
Authority
KR
South Korea
Prior art keywords
information
time
input
spatial coordinates
spatially
Prior art date
Application number
KR1019960703353A
Other languages
English (en)
Inventor
왕 웨이지아
신 마이클 화이트
Original Assignee
티. 노엘 허스트
인터벌 리서치 코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 티. 노엘 허스트, 인터벌 리서치 코퍼레이션 filed Critical 티. 노엘 허스트
Publication of KR970700332A publication Critical patent/KR970700332A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S715/00Data processing: presentation processing of document, operator interface processing, and screen saver display processing
    • Y10S715/961Operator interface with visual structure or function dictated by intended use
    • Y10S715/965Operator interface with visual structure or function dictated by intended use for process control and configuration
    • Y10S715/97Instrumentation and component modelling, e.g. interactive control panel

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본발명은 사용자로부터 얻어진 공간좌표정보를 토대로 시간을 기반으로한 정보를 액세스하는 방법 및 장치에 관한 것이다. 시간을 기반으로한 정보는 시간을 기반으로한 정보의 타이밍을 공간좌표(10)에 맵하여 변환하므로서 공간표시에 맵이된다. 이러한 공간좌표는 1,2 또는 3차원일수 있다. 이 맵핑의 경우, 시간을 기관으로한 정보의 새그먼트가 공간물체의 부분, 공간표시 또는 공간운동의 상이한 부분과 연관될수 있다. 이 새그먼트는 사용자의 운동감각 및 또는 터치기억이 리액스정보에 의존하고 이 정보의 전체감지를 하게 된다.

Description

시간축 정보의 공간적 입력에 대한 방법 및 장치(METHOD AND SYSTEM FOR SPATIAL ACCESSNG OF TIME-BASED INFORMATION)
본 내용은 요부공개 건이므로 전문내용을 수록하지 않았음
제1도는 본발명의 방법의 실시예의 흐름도, 제2도는 본발명의 시스템의 실시예의 블록도, 제3도는 본 발명의 실시예에서 공간을 기반으로 한 정보를 시간을 기반으로한 정보로 변환시키는 흐름도,제4도는 본 발명의 실시예의 입력공간좌표에 해당하는 시간을 토대로한 정보를 액세스하는 흐름도, 제5도는 본 발명의 시스템의 또다른 실시예에 블럭도, 제6도는 2차원 터치(touch)감지 사용자 잇더 패이스 장치를 도시한 본 발명의 시스템의 실시예의 도면 제7도는 본 발명의 시스템의 실시예와 함께 사용하는 또다른 2차원사용자인 더 패이스장치의 도면, 제8a도-제8c도는 본발명의 시스템의 실시예와 사용되는 또다른 2차원사용자 인터패이스장치로 이용되는 스캐링 패던의 도면, 제9도는 본발명의 하나의 실시예와 이용되는 공보자중 페이지 구조의 도면, 본발명이 여터 실시예와 관련해서 설명했을 지라도, 본발명은 이들 실시예로 제한 하려는 것이 아니다. 이와는 달리, 본발명은 청구범위내 수정자 변경이 가능하다.

Claims (42)

  1. 사용자가 다수 요소를 갖는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법으로, (a)시간축정보의 다수 각 요소을 그리는 공간좌표들의 중 일치하는 하나로 그리는 단계; (b)첫 위치로 사용자의 몸의 일부의 움직임에 의해 발생되는 사용자의 첫 물리적 입력과 일치하는 입력공간 좌표를 결정하는 단계; (c)입력 공간 좌표에 일치하게 그리는 공간좌표에 해당하는 시간축정보의 첫 부분을 입력하는 단계; (d)그리고 시간축 정보의 입력된 첫 부분을 재생하는 단계를 구비하고; 사용자의 몸의 일부가 제2의위치로 옮긴 후 사용자의 인간적 공간 기억이 상기 몸의 일부를 상기 (b),(c), 그리고 (d)단계들의 반복에 의해 시간축 정보의 첫 부분을 재입력하고 재생하고 첫 위치로 되돌리는데 사용될 수 있는 단계를 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  2. 제 1항에 있어서, 상기 그리고 단계는 시간축정점들에 일치하는 순열을 시간측정 점들의 순열에 기초한 다수요소로 형성된 시간축 정보에 시간의 경과를 표시하는 시간축 정보로 할당하는 단계와, 시간 측정점들의 순열의 각각을 그리는 공간 좌표들의 중 하나와 일치하는 것으로 그리는 단계.
  3. 제1항에 있어서, 상기 시간축 정보의 첫 부분을 입력하는 단계는 상기 입력 공간좌표를 상기 입력 공가좌표에 일치하는 그려진 공간 좌표와 동일하게 한 그려진 공간 좌표들중 하나 이상과 비교하는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  4. 제1항에 있어서, 상기 시간축 정보의 첫 부분을 입력하는 단계가 일치하는 그려진 공간 좌표로 그려진 시간축정 점에 기초한 일치하게 그려진 공간 좌표와 일치하는 부분을 동일하게 하는 시간축 정보의 다수요소로 부터 첫 부분을 동일하게 하는 것을 더욱더 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  5. 제 2항에 있어서, 상기 시간축 정보가 시각적 정보를 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  6. 제2항에 있어서, 상기 시간축 정보가 청각적 정보를 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  7. 제6항에 있어서, 상기 청각적 정보가 음성을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  8. 제 7항에 있어서, 상기 시간측정 점들의 순열이 언어의 구조를 기초로 하여 결정되는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  9. 제 7항에 있어서, 상기 시간측정 점들의 순열은 시간에 대한 같은 간격으로 되는 것을 포함하는 시간축정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  10. 제 2항에 있어서, 상기 그려진 공간좌표들은 직각좌표계에 있는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  11. 제2항에 있어서, 상기 그려진 공간좌표들은 비 직각좌표계에 있는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  12. 제 2항에 있어서, 상기 그려진 공간좌표들은 2차원 공간에 있는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  13. 제2항에 있어서, 상기 그려진 공간좌표들은 3차원 공간에 있는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  14. 제12항에 있어서, 상기 시간측정 점들의 순열이 2차원의 다수로 그려진 공간좌표들로 그리는 단계는 시간측정 점들의 순열의 연속적인 부분집합을 근접공간좌표들로 무리를 이루게 하는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  15. 제 1항에 있어서, 상기 공간입력좌표를 결정하는 단계는 사용자의 몸의 일부의 방향을 잡는 것을 결정하는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  16. 제1항에 있어서, 상기 입력공간좌표를 결정하는 단계는 한 표면에 사용자의 몸의 일부로 발생하는 촉각압력좌표들을 감지하는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  17. 제1항에 있어서, 상기 입력공간좌표를 결정하는 단계는 사용자의 몸 일부의 속도를 감지하는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  18. 제 1항에 있어서, 상기 입력공간 좌표를 결정하는 상기 단계는 사용자의 몸 일부가 가속도를 감지하는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  19. 제 1항에 있어서, 상기 입력공간좌표를 결정하는 단계는 한 표면에 사용자 몸 일부로서 발생되는 운동 증가의 좌표들을 감지하는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  20. 제 1 항에 있어서, 상기 시간축 정보의 입력된 첫 부분을 재생하는 상기 단계는 시간축 정보의 원형형태를 에뮬레이트하는 방식으로 첫 부분을 감각적 출력을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  21. 제 14항에 있어서, 상기 시간축 정보의 입력된 첫 부분을 재생하는 상기 단계는 시간축 정보의 원형형태인 형상과 다른 방식으로 첫 부분의 감각 출력을 더욱이 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 방법.
  22. 사용자가 다수 요소를 갖는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치로, 시간축정보의 다수요소의 각각을 그려진 공간좌표들의 요소 중 하나에 일치하게 그리는 것에 대한 시간-공간 변화기와; 사용자와 몸의 일부를 첫 위치로 움직여서 나타나는 첫 물리적 입력에 일치하는 입력공간좌표를 결정하도록 하여 사용자와 관계된 사용자 입출력 장치; 입력 공간 좌표에 일치하는 그려진 공간 좌표에 대한 시간축 정보의 첫 부분을 입력하는 것에 대한 사용자입출력장치로서 통신함에 있어서 공간 입력장치; 공간입력 장치로 통신함에 있어서, 시간축 정보의 입력된 첫 부분을 재생하는 것에 대한 재생장치; 사용자의 몸의 위치가 제2위치로 옮긴 후, 사용자의 인간적인 공간 기억은 사용자의 몸의 위치를 시간축 정보의 첫 부분을 재 입력하는 첫 위치로 되돌리는데 사용할 수 있는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  23. 제22항에 있어서, 상기 시간-공간변환기는 시간측정 점들에 일치하는 순열을 시간측정 점들에 기초한 다수 요소를 형성하는 시간축 정보에 있어 시간의 변화를 나타내는 시간축 정보를 할당하는 것에 대한 수단과, 시간측정 점들의 순열의 각각을 그려진 공간 좌표들 중 하나에 일치하게 그리는 것에 대한 수단을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  24. 제22항에 있어서, 상기 공간입력장치는 입력공간좌표를 입력 공간좌표에 일치하는 그려진 공간좌표에 동일하게 하는 그려진 공간 좌표들 중 하나 이상과 비교하는 것에 대한 수단을 비교하는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  25. 제22항에 있어서, 상기 공간입력 장치는 일치하는 그려진 공간 좌표로 그려진 시간측정 점에 기초하는 일치하는 그려진 공간 좌표에 일치하는 부분을 동일하게 하는 시간축 정보의 요소의 다수로부터 첫 부분을 동일하게 하는 것에 대한 수단을 동일하게 하는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  26. 제24항에 있어서, 상기 시간축 정보는 시각적 정보를 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  27. 제24항에 있어서, 상기 시간축 정보는 청각적 정보를 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  28. 제25항에 있어서, 상기 청각적 정보는 언어를 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  29. 내용없음.
  30. 내용없음.
  31. 내용없음.
  32. 내용없음.
  33. 내용없음.
  34. 내용없음.
  35. 제33항에 있어서, 상기 시간측정 점들의 순열을 2차원으로 그려진 공간 좌표들의 다수로 그려지는 것은 시간측정 점들의 순열의 연속적인 부분집합을 근접한 그려진 공간좌표들로 무리를 이루게 하는 것을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  36. 제35항에 있어서, 상기 사용자 입출력 장치는 사용자의 몸의 일부의 방향을 결정하는 결정수단을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  37. 제16항에 있어서, 상기 사용장 입출력 장치는 한 표면에 대한 사용자 몸의 일부에 의해 발생되는 촉각압력의 좌표들을 감지하는 것에 대한 수단을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  38. 제22항에 있어서, 상기 사용자 입출력 장치는 사용자의 몸 일부의 속도를 감지하는 것에 대한 수단을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  39. 제22항에 있어서, 상기 사용자 입출력 장치는 사용자의 몸 일부의 가속도를 감지하는 것에 대한 수단을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  40. 제22항에 있어서, 상기 사용자 입출력 장치는 한 표면에 사용자 몸의 일부에 의해 발생되는 온도 증가의 좌표을 감지하는 것에 대한 수단을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  41. 제22항에 있어서, 상기 재생장치는 시간축 정보의 원형형태를 에뮬레이트하는 방식에 대한 첫 부분의 감각적 출력을 재생하는 것에 대한 수단을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
  42. 제22항에 있어서, 상기 재생 장치는 시간축 정보의 원형형태를 다르게 하는 방식에 대한 첫 부분의 감각적 출력을 재생하는것에 대한 수단을 포함하는 시간축 정보를 공간적으로 입력하고 재생하는 것에 대한 장치.
    ※ 참고사항 : 최초출원 내용에 의하여 공개하는 것임.
KR1019960703353A 1993-12-22 1994-12-19 시간축 정보의 공간적 입력에 대한 방법 및 장치(method and system for spatial accessing of time-based information) KR970700332A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/172,637 US5461711A (en) 1993-12-22 1993-12-22 Method and system for spatial accessing of time-based information
US172,637 1993-12-22
PCT/US1994/014622 WO1995017710A1 (en) 1993-12-22 1994-12-19 Method and system for spatial accessing of time-based information

Publications (1)

Publication Number Publication Date
KR970700332A true KR970700332A (ko) 1997-01-08

Family

ID=22628555

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960703353A KR970700332A (ko) 1993-12-22 1994-12-19 시간축 정보의 공간적 입력에 대한 방법 및 장치(method and system for spatial accessing of time-based information)

Country Status (6)

Country Link
US (2) US5461711A (ko)
EP (1) EP0736202A4 (ko)
JP (1) JP4225567B2 (ko)
KR (1) KR970700332A (ko)
AU (1) AU1374495A (ko)
WO (1) WO1995017710A1 (ko)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5889670A (en) 1991-10-24 1999-03-30 Immersion Corporation Method and apparatus for tactilely responsive user interface
US5629594A (en) * 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
US6681029B1 (en) 1993-11-18 2004-01-20 Digimarc Corporation Decoding steganographic messages embedded in media signals
US5914720A (en) * 1994-04-21 1999-06-22 Sandia Corporation Method of using multiple perceptual channels to increase user absorption of an N-dimensional presentation environment
US5592602A (en) * 1994-05-17 1997-01-07 Macromedia, Inc. User interface and method for controlling and displaying multimedia motion, visual, and sound effects of an object on a display
US5623582A (en) 1994-07-14 1997-04-22 Immersion Human Interface Corporation Computer interface or control input device for laparoscopic surgical instrument and other elongated mechanical objects
US5691898A (en) * 1995-09-27 1997-11-25 Immersion Human Interface Corp. Safe and low cost computer peripherals with force feedback for consumer applications
US6411725B1 (en) 1995-07-27 2002-06-25 Digimarc Corporation Watermark enabled video objects
US6408331B1 (en) 1995-07-27 2002-06-18 Digimarc Corporation Computer linking methods using encoded graphics
US5786814A (en) * 1995-11-03 1998-07-28 Xerox Corporation Computer controlled display system activities using correlated graphical and timeline interfaces for controlling replay of temporal data representing collaborative activities
US5717879A (en) * 1995-11-03 1998-02-10 Xerox Corporation System for the capture and replay of temporal data representing collaborative activities
US5717869A (en) * 1995-11-03 1998-02-10 Xerox Corporation Computer controlled display system using a timeline to control playback of temporal data representing collaborative activities
JP2000501033A (ja) 1995-11-30 2000-02-02 ヴァーチャル テクノロジーズ インコーポレイテッド 触覚をフィードバックする人間/機械インターフェース
US5808605A (en) * 1996-06-13 1998-09-15 International Business Machines Corporation Virtual pointing device for touchscreens
US6961700B2 (en) * 1996-09-24 2005-11-01 Allvoice Computing Plc Method and apparatus for processing the output of a speech recognition engine
US5963891A (en) * 1997-04-24 1999-10-05 Modern Cartoons, Ltd. System for tracking body movements in a virtual reality system
US6292170B1 (en) 1997-04-25 2001-09-18 Immersion Corporation Designing compound force sensations for computer applications
US6285351B1 (en) 1997-04-25 2001-09-04 Immersion Corporation Designing force sensations for computer applications including sounds
US5945986A (en) * 1997-05-19 1999-08-31 University Of Illinois At Urbana-Champaign Silent application state driven sound authoring system and method
US6518950B1 (en) 1997-10-07 2003-02-11 Interval Research Corporation Methods and systems for providing human/computer interfaces
US6256638B1 (en) 1998-04-14 2001-07-03 Interval Research Corporation Printable interfaces and digital linkmarks
AU9692098A (en) * 1997-10-10 1999-05-03 Interval Research Corporation Methods and systems for providing human/computer interfaces
US6160555A (en) * 1997-11-17 2000-12-12 Hewlett Packard Company Method for providing a cue in a computer system
US5977867A (en) * 1998-05-29 1999-11-02 Nortel Networks Corporation Touch pad panel with tactile feedback
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
WO2000033572A1 (fr) 1998-11-30 2000-06-08 Sony Corporation Dispositif et procede de delivrance d'information
US7174083B1 (en) 1998-12-30 2007-02-06 Xerox Corporation Systems and methods for using structured representations to index recordings of activity
US6859769B1 (en) * 1999-01-26 2005-02-22 Analytical Graphics, Inc. Method and apparatus for creating elements and systems for description of position and motion of bodies in three-dimensional space to support orbital maneuver analysis
US6529920B1 (en) * 1999-03-05 2003-03-04 Audiovelocity, Inc. Multimedia linking device and method
WO2000055712A1 (de) * 1999-03-17 2000-09-21 Siemens Aktiengesellschaft Verfahren und anordnung zur interaktion mit einem benutzer
US6757002B1 (en) * 1999-11-04 2004-06-29 Hewlett-Packard Development Company, L.P. Track pad pointing device with areas of specialized function
US6507349B1 (en) 2000-01-06 2003-01-14 Becomm Corporation Direct manipulation of displayed content
US6822635B2 (en) * 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US20020054026A1 (en) * 2000-04-17 2002-05-09 Bradley Stevenson Synchronized transmission of recorded writing data with audio
US7111168B2 (en) 2000-05-01 2006-09-19 Digimarc Corporation Digital watermarking systems
JP3949912B2 (ja) * 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
US20020026521A1 (en) * 2000-08-31 2002-02-28 Sharfman Joshua Dov Joseph System and method for managing and distributing associated assets in various formats
US6922702B1 (en) 2000-08-31 2005-07-26 Interactive Video Technologies, Inc. System and method for assembling discrete data files into an executable file and for processing the executable file
US6839059B1 (en) 2000-08-31 2005-01-04 Interactive Video Technologies, Inc. System and method for manipulation and interaction of time-based mixed media formats
US20020091840A1 (en) * 2000-11-28 2002-07-11 Gregory Pulier Real-time optimization of streaming media from a plurality of media sources
US8176425B2 (en) * 2001-02-02 2012-05-08 Ensequence, Inc. Animated screen object for annotation and selection of video sequences
US7567232B2 (en) 2001-03-09 2009-07-28 Immersion Corporation Method of using tactile feedback to deliver silent status information to a user of an electronic device
DE10117956B4 (de) * 2001-04-10 2004-04-08 Schott Glas Berührungsschalter mit einer Bedienfläche
US7202851B2 (en) 2001-05-04 2007-04-10 Immersion Medical Inc. Haptic interface for palpation simulation
US20050176665A1 (en) * 2001-05-18 2005-08-11 Sirna Therapeutics, Inc. RNA interference mediated inhibition of hairless (HR) gene expression using short interfering nucleic acid (siNA)
IL143255A (en) 2001-05-20 2015-09-24 Simbionix Ltd Endoscopic ultrasonography simulation
US6937033B2 (en) 2001-06-27 2005-08-30 Immersion Corporation Position sensor with resistive element
DE10133126A1 (de) * 2001-07-07 2003-01-16 Philips Corp Intellectual Pty Richtungssensitives Audioaufnahmesystem mit Anzeige von Aufnahmegebiet und/oder Störquelle
US7056123B2 (en) 2001-07-16 2006-06-06 Immersion Corporation Interface apparatus with cable-driven force feedback and grounded actuators
US7623114B2 (en) 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
KR20090082519A (ko) 2001-10-23 2009-07-30 임머숀 코퍼레이션 감촉 피드백을 사용하여 전자 디바이스의 사용자에게 사일런트 상태 정보를 전달하는 방법
EP1440414B1 (en) * 2001-10-30 2016-08-17 Immersion Corporation Methods and apparatus for providing haptic feedback in interacting with virtual pets
JP4149926B2 (ja) 2001-11-01 2008-09-17 イマージョン コーポレーション 触知感覚を与える方法及び装置
US7535454B2 (en) 2001-11-01 2009-05-19 Immersion Corporation Method and apparatus for providing haptic feedback
JP2003323256A (ja) * 2002-04-26 2003-11-14 Fuji Xerox Co Ltd 情報処理装置
AU2003285886A1 (en) 2002-10-15 2004-05-04 Immersion Corporation Products and processes for providing force sensations in a user interface
AU2003286504A1 (en) 2002-10-20 2004-05-13 Immersion Corporation System and method for providing rotational haptic feedback
GB2412989B (en) 2002-12-08 2007-02-14 Immersion Corp Methods and systems for providing a virtual touch haptic effect to handheld communication devices
US7769417B2 (en) 2002-12-08 2010-08-03 Immersion Corporation Method and apparatus for providing haptic feedback to off-activating area
US8830161B2 (en) 2002-12-08 2014-09-09 Immersion Corporation Methods and systems for providing a virtual touch haptic effect to handheld communication devices
US8059088B2 (en) 2002-12-08 2011-11-15 Immersion Corporation Methods and systems for providing haptic messaging to handheld communication devices
US7128577B2 (en) * 2003-02-26 2006-10-31 Patrice Renaud Method for providing data to be used by a therapist for analyzing a patient behavior in a virtual environment
US7850456B2 (en) 2003-07-15 2010-12-14 Simbionix Ltd. Surgical simulation device, system and method
US8164573B2 (en) 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
US20050131863A1 (en) * 2003-12-11 2005-06-16 W. Daniel Hillis Reception of spatial-to-temporal translated data
US20050132149A1 (en) * 2003-12-11 2005-06-16 W. Daniel Hillis Spatial-to-temporal data translation and scheduling and control
US7644183B2 (en) * 2003-12-11 2010-01-05 Searete, Llc Accelerated reception of spatial-to-temporal translated data
US20050132415A1 (en) * 2003-12-11 2005-06-16 Hillis W. D. Spatial-to-temporal data translation and transmission
US7742036B2 (en) 2003-12-22 2010-06-22 Immersion Corporation System and method for controlling haptic devices having multiple operational modes
US7765333B2 (en) * 2004-07-15 2010-07-27 Immersion Corporation System and method for ordering haptic effects
US20060161671A1 (en) * 2005-01-14 2006-07-20 Citrix Systems, Inc. Method and systems for capture and replay of remote presentation protocol data
US7996549B2 (en) * 2005-01-14 2011-08-09 Citrix Systems, Inc. Methods and systems for recording and real-time playback of presentation layer protocol data
US7831728B2 (en) * 2005-01-14 2010-11-09 Citrix Systems, Inc. Methods and systems for real-time seeking during real-time playback of a presentation layer protocol data stream
US8340130B2 (en) 2005-01-14 2012-12-25 Citrix Systems, Inc. Methods and systems for generating playback instructions for rendering of a recorded computer session
US8230096B2 (en) 2005-01-14 2012-07-24 Citrix Systems, Inc. Methods and systems for generating playback instructions for playback of a recorded computer session
US8296441B2 (en) 2005-01-14 2012-10-23 Citrix Systems, Inc. Methods and systems for joining a real-time session of presentation layer protocol data
US8935316B2 (en) 2005-01-14 2015-01-13 Citrix Systems, Inc. Methods and systems for in-session playback on a local machine of remotely-stored and real time presentation layer protocol data
US20060159432A1 (en) 2005-01-14 2006-07-20 Citrix Systems, Inc. System and methods for automatic time-warped playback in rendering a recorded computer session
US8145777B2 (en) 2005-01-14 2012-03-27 Citrix Systems, Inc. Method and system for real-time seeking during playback of remote presentation protocols
US8200828B2 (en) 2005-01-14 2012-06-12 Citrix Systems, Inc. Systems and methods for single stack shadowing
US8423673B2 (en) 2005-03-14 2013-04-16 Citrix Systems, Inc. Method and apparatus for updating a graphical display in a distributed processing environment using compression
US8171169B2 (en) 2005-03-14 2012-05-01 Citrix Systems, Inc. Method and apparatus for updating a graphical display in a distributed processing environment
US20070063982A1 (en) * 2005-09-19 2007-03-22 Tran Bao Q Integrated rendering of sound and image on a display
US8191008B2 (en) 2005-10-03 2012-05-29 Citrix Systems, Inc. Simulating multi-monitor functionality in a single monitor environment
US8700791B2 (en) 2005-10-19 2014-04-15 Immersion Corporation Synchronization of haptic effect data in a media transport stream
KR100583400B1 (ko) * 2005-12-28 2006-05-26 새한항업(주) 정적 지도의 동적 디스플레이 시스템
US20080163052A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Method and system for multi-modal fusion of physical and virtual information channels
US20080158223A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Method and system for dynamic adaptability of content and channels
US20080159328A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Method and system for in-context assembly of interactive actionable insights and modalities in physical spaces
GB2459225B (en) 2007-01-16 2011-07-20 Simbionix Ltd Preoperative surgical simulation
US8543338B2 (en) 2007-01-16 2013-09-24 Simbionix Ltd. System and method for performing computerized simulations for image-guided procedures using a patient specific model
JP5499030B2 (ja) * 2008-08-11 2014-05-21 イマージョン コーポレーション 音楽ゲームのための触覚的に使用可能にしたゲーム周辺機器
US8745494B2 (en) * 2009-05-27 2014-06-03 Zambala Lllp System and method for control of a simulated object that is associated with a physical location in the real world environment
US8303387B2 (en) * 2009-05-27 2012-11-06 Zambala Lllp System and method of simulated objects and applications thereof
US20100306825A1 (en) * 2009-05-27 2010-12-02 Lucid Ventures, Inc. System and method for facilitating user interaction with a simulated object associated with a physical location
US8615159B2 (en) 2011-09-20 2013-12-24 Citrix Systems, Inc. Methods and systems for cataloging text in a recorded session
US9582178B2 (en) 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
US20130297460A1 (en) 2012-05-01 2013-11-07 Zambala Lllp System and method for facilitating transactions of a physical product or real life service via an augmented reality environment
US9891709B2 (en) 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
US20140013192A1 (en) * 2012-07-09 2014-01-09 Sas Institute Inc. Techniques for touch-based digital document audio and user interface enhancement
US9904394B2 (en) 2013-03-13 2018-02-27 Immerson Corporation Method and devices for displaying graphical user interfaces based on user contact
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US9715279B2 (en) 2014-06-09 2017-07-25 Immersion Corporation Haptic devices and methods for providing haptic effects via audio tracks
US11062476B1 (en) * 2018-09-24 2021-07-13 Apple Inc. Generating body pose information
US11762530B2 (en) * 2020-02-05 2023-09-19 Legacy Productions, Inc. Interface for radial selection of time-based events

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4964004A (en) * 1983-12-02 1990-10-16 Lex Computer And Management Corporation Video composition method and apparatus employing visual and tactile feedback
US4943866A (en) * 1983-12-02 1990-07-24 Lex Computer And Management Corporation Video composition method and apparatus employing smooth scrolling
US4752836A (en) * 1984-09-07 1988-06-21 Ivex Corporation Method and apparatus for reproducing video images to simulate movement within a multi-dimensional space
JPH0778718B2 (ja) * 1985-10-16 1995-08-23 株式会社日立製作所 画像表示装置
US5174759A (en) * 1988-08-04 1992-12-29 Preston Frank S TV animation interactively controlled by the viewer through input above a book page
US5109482A (en) * 1989-01-11 1992-04-28 David Bohrman Interactive video control system for displaying user-selectable clips
US5202961A (en) * 1990-06-08 1993-04-13 Apple Computer, Inc. Sequential information controller
US5191320A (en) * 1990-12-15 1993-03-02 Sony Corporation Of America Variable scale input device
US5191645A (en) * 1991-02-28 1993-03-02 Sony Corporation Of America Digital signal processing system employing icon displays
US5381158A (en) * 1991-07-12 1995-01-10 Kabushiki Kaisha Toshiba Information retrieval apparatus
EP0526064B1 (en) * 1991-08-02 1997-09-10 The Grass Valley Group, Inc. Video editing system operator interface for visualization and interactive control of video material
US5404444A (en) * 1993-02-05 1995-04-04 Sight & Sound Incorporated Interactive audiovisual apparatus

Also Published As

Publication number Publication date
US5461711A (en) 1995-10-24
EP0736202A1 (en) 1996-10-09
AU1374495A (en) 1995-07-10
JP4225567B2 (ja) 2009-02-18
WO1995017710A1 (en) 1995-06-29
EP0736202A4 (en) 1999-03-03
JPH09510558A (ja) 1997-10-21
US5600777A (en) 1997-02-04

Similar Documents

Publication Publication Date Title
KR970700332A (ko) 시간축 정보의 공간적 입력에 대한 방법 및 장치(method and system for spatial accessing of time-based information)
Brooks Jr et al. Research directions in virtual environments
CN1192323C (zh) 检测数据输入
Blachowicz Analog representation beyond mental imagery
Zhao et al. Sonification of Geo-Referenced Data for Auditory Information Seeking: Design Principle and Pilot Study.
Bevilacqua et al. Gesture capture: Paradigms in interactive music/dance systems
D'Auria et al. A 3D audio augmented reality system for a cultural heritage management and fruition.
Heuten et al. Interactive 3D sonification for the exploration of city maps
Bergamasco et al. Haptics technologies and cultural heritage applications
Ducasse et al. Botmap: Non-visual panning and zooming with an actuated tabletop tangible interface
Tversky Spatial constructions
Johansen et al. Characterising soundscape research in human-computer interaction
CN1333323C (zh) 利用压力传感垫的虚拟现实系统移动接口
CN105684012A (zh) 提供情境信息
Ieronutti et al. A virtual human architecture that integrates kinematic, physical and behavioral aspects to control h-anim characters
Hsieh et al. Developing hand-worn input and haptic support for real-world target finding
Roberts et al. Virtual haptic exploratory visualization of line graphs and charts
KR970066971A (ko) 상호작용 오락 장치 및 포즈 선택 방법
Kimura et al. Collectively sharing human hearing in artful CollectiveEars
O'Sullivan et al. Audio tactile maps (atm) system for the exploration of digital heritage buildings by visually-impaired individuals-first prototype and preliminary evaluation
Kreimeier et al. Tabletop virtual haptics: Feasibility study for the exploration of 2.5 D virtual objects by blind and visually impaired with consumer data gloves
KR102045891B1 (ko) 재질감 제공 장치 및 방법
Nemirovsky et al. GuideShoes: Navigation based on musical patterns
De Jong Kinetic surface friction rendering for interactive sonification: an initial exploration
McLaughlin et al. Introduction to haptics

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application