KR101226405B1 - 이동 가상 및 증강된 현실 시스템 - Google Patents
이동 가상 및 증강된 현실 시스템 Download PDFInfo
- Publication number
- KR101226405B1 KR101226405B1 KR1020107023341A KR20107023341A KR101226405B1 KR 101226405 B1 KR101226405 B1 KR 101226405B1 KR 1020107023341 A KR1020107023341 A KR 1020107023341A KR 20107023341 A KR20107023341 A KR 20107023341A KR 101226405 B1 KR101226405 B1 KR 101226405B1
- Authority
- KR
- South Korea
- Prior art keywords
- virtual
- graffiti
- replacing
- doodle
- text
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
사용자는 특정한 디바이스가 증강된 현실 장면의 일부로서 보기 위해 남겨질 "가상 낙서(203)"를 생성할 수 있다. 그 가상 낙서는 특정한 물리적 위치 또는 움직일 수 있는 물체의 일부에 할당될 것이다. 가상 낙서는 그 후 그 위치 및 그 낙서를 증강된 현실 장면의 일부로서 볼 수 있는 사람들과 함께, 네트워크 서버(101)에 업로드된다. 그 낙서를 보는 것이 허용되는 디바이스가 그 위치의 근처에 있을 때, 그 낙서가 그 디바이스에 다운로드되어 증강된 현실 장면의 일부로서 디스플레이될 것이다. 사용자 경험을 더 강화시키기 위하여, 그 가상 낙서는 사용자의 선호에 기초하여 동적이고 변화할 수 있다.
Description
본 발명은 일반적으로 메시징에 관한 것으로, 특히, 이동 가상 및 증강된 현실 시스템 내에서의 메시징에 관한 것이다.
[관련출원들]
이 출원은 2007년 8월 24일에 출원된 MOBILE VIRTUAL AND AUGMENTED REALITY SYSTEM이라는 표제가 붙은 출원 일련 번호 11/844538, 2007년 9월 21일에 출원된 MOBILE VIRTUAL AND AUGMENTED REALITY SYSTEM이라는 표제가 붙은 출원 일련 번호 11/858997, 2007년 10월 31일에 출원된 MOBILE VIRTUAL AND AUGMENTED REALITY SYSTEM이라는 표제가 붙은 출원 일련 번호 11/930974, 및 2007년 12월 21일에 출원된 MOBILE VIRTUAL AND AUGMENTED REALITY SYSTEM이라는 표제가 붙은 출원 일련 번호 11/962139와 관련이 있다.
사용자들이 서로에게 메시지를 송신하게 하기 위해 수년 동안 메시징 시스템들이 이용되었다. 현재, 다른 사람에게 메시지를 송신하는 가장 간단한 방법들 중 하나는 그 사람의 휴대폰에 텍스트 메시지를 송신하는 것이다. 최근에, 네트워크의 사용자들에게 특정한 위치에서 특정한 메시지를 남기는 옵션이 주어질 수 있도록 메시징 시스템들의 능력들을 확장하는 것이 제안되었다. 예를 들면, US6681107B2, SYSTEM AND METHOD OF ACCESSING AND RECORDING MESSAGES AT COORDINATE WAY POINTS에서, 저자는 사용자가 단지 특정한 위치에서 버튼을 눌러 디바이스로 하여금 그 물리적 위치를 저장하게 할 수 있는 것을 제안한다. 그 후 그는 그가 그의 디바이스에 메시지를 말하는 것을 허용하는 "메시지 녹음"(record message) 버튼을 누를 수 있다. 이 메시지는 그 특정한 위치로부터 그 사용자의 집으로의 방향들 또는 임의의 다른 개인 메시지일 수 있다. 그 메시지는 그 후 네트워크에 업로드되고 네트워크에서 그것은 다른 네트워크 사용자들에게 이용 가능하게 된다. 메시지를 생성하는 사람은 그 메시지가 모든 사용자들에게 이용 가능한지, 그 사용자의 디바이스의 메모리에 저장된 사람들에게만 이용 가능한지, 메모리에 저장된 사람들의 일부(subset)에게 이용 가능한지, 또는 단 한 사람에게만 이용 가능한지를 지정할 수 있다.
상기 유형의 상황 인식(context-aware) 메시징 시스템에서의 사용자의 경험을 강화시키기 위하여, 사용자들에 제공되는 정보의 유형들은 단순 텍스트, 이미지, 및 비디오의 범위를 넘어서야 한다. 그러므로, 사용자의 경험을 강화시키는 상황 인식 메시징 시스템 내에서의 메시징을 위한 방법 및 장치에 대한 요구가 존재한다.
도 1은 상황 인식 메시징 시스템의 블록도이다.
도 2는 증강된 현실 장면(augmented reality scene)을 나타낸다.
도 3은 증강된 현실 장면을 나타낸다.
도 4는 도 1의 서버의 블록도이다.
도 5는 도 1의 사용자 디바이스의 블록도이다.
도 6은 도 1의 서버의 동작을 나타내는 순서도이다.
도 7은 낙서를 생성할 때의 도 1의 사용자 디바이스의 동작을 나타내는 순서도이다.
도 8은 낙서를 생성할 때의 도 1의 사용자 디바이스의 동작을 나타내는 순서도이다.
도 2는 증강된 현실 장면(augmented reality scene)을 나타낸다.
도 3은 증강된 현실 장면을 나타낸다.
도 4는 도 1의 서버의 블록도이다.
도 5는 도 1의 사용자 디바이스의 블록도이다.
도 6은 도 1의 서버의 동작을 나타내는 순서도이다.
도 7은 낙서를 생성할 때의 도 1의 사용자 디바이스의 동작을 나타내는 순서도이다.
도 8은 낙서를 생성할 때의 도 1의 사용자 디바이스의 동작을 나타내는 순서도이다.
위에 언급된 요구를 다루기 위하여, 이동 가상 및 증강된 현실 시스템 내에서의 메시징을 위한 방법 및 장치가 여기에 제공된다. 동작 동안에 사용자는 특정한 디바이스가 증강된 현실 장면의 일부로서 보기 위해 남겨질 "가상 낙서"(virtual graffiti)를 생성할 수 있다. 그 가상 낙서는 특정한 물리적 위치 또는 움직일 수 있는 물체의 일부에 할당될 것이다. 가상 낙서는 그 후 그 위치 및 그 낙서를 증강된 현실 장면의 일부로서 볼 수 있는 사람들과 함께, 네트워크 서버에 업로드된다.
그 낙서를 보는 것이 허용되는 디바이스가 그 위치의 근처에 있을 때, 그 낙서가 그 디바이스에 다운로드되어 증강된 현실 장면의 일부로서 디스플레이될 것이다. 사용자 경험을 더 강화시키기 위하여, 그 가상 낙서는 사용자의 선호에 기초하여 동적이고 변화할 수 있다. 예를 들면, 가상 개체들 및 그들의 관련된 콘텐트들은 각각의 보는 사람에 의해 상이하게 해석될 수 있다. 그렇게 하는 데 있어서, 각 사용자는 각 사용자에 의해 정의될 개인 선호들의 세트를 포함하는 프로파일을 가질 것이다. 이러한 프로파일들은 메시지들을 다운로드하여 그들의 외관들을 개인화(customize)하기 위해 처리할 때 프로파일 관리자에 의해 참고될 것이다. 만약 개인화가 필요하지 않다면, 프로파일 관리자는 수정되지 않은 낙서를 저장하고, 그렇지 않다면 프로파일 관리자는 최초의 가상 개체를 소망의 개인화된 개체로 변환하기 위해 필요한 매핑을 수행한다.
증강된 현실 시스템에서, 컴퓨터 생성된 이미지들, 즉 "가상 이미지들"이 사용자의 실세계 환경의 뷰(user's view of the real-world environment)에 삽입되거나 또는 그와 병합되어 사용자의 그 환경과의 작용들, 또는 그 환경에 대한 인식을 강화시킬 수 있다. 본 발명에서, 사용자의 증강된 현실 시스템은 임의의 가상 낙서 이미지들을 사용자의 실세계의 뷰와 병합한다.
예로서, 에드(Ed)는 바(bar)에서 그의 친구들인 톰(Tom)과 조(Joe)를 위해 그들이 칠리를 맛볼(try the chili) 것을 제안하는 메시지를 남길 수 있다. 에드는 그 메시지가 가상 맥주잔에 새겨지는 것을 지정할 수 있다. 그의 뷰(view)를 개인화하지 않은 톰은 맥주잔에 쓰인 메시지를 볼 것이지만 맥주보다 와인에 대한 그의 선호를 포함하는 프로파일을 갖는 조는 와인병에 새겨진 동일한 텍스트 메시지를 볼 것이다.
본 발명은 가상 낙서를 수신하고 증강된 현실 장면의 일부로서 디스플레이하는 방법을 포함한다. 상기 방법은 위치를 제공하는 단계, 상기 위치를 제공하는 단계에 응답하여 가상 낙서를 수신하는 단계, 사용자 선호들을 결정하는 단계, 및 상기 사용자 선호들에 기초하여 상기 가상 낙서를 수정하는 단계를 포함한다. 마지막으로 상기 수정된 가상 낙서는 증강된 현실 장면의 일부로서 디스플레이된다.
본 발명은 또한 디바이스에 가상 낙서를 제공하는 방법을 포함한다. 상기 방법은 제1 디바이스로부터 가상 낙서와 함께 상기 가상 낙서의 위치를 수신하는 단계, 제2 디바이스에 대한 선호들을 결정하는 단계, 상기 제2 디바이스의 선호들에 기초하여 상기 가상 낙서를 수정하는 단계를 포함한다. 상기 제2 디바이스의 위치가 수신되고 상기 제2 디바이스의 위치가 상기 가상 낙서의 위치의 근처에 있을 때 상기 제2 디바이스에 상기 수정된 가상 낙서가 제공된다.
본 발명은 또한 가상 낙서를 수신하고 증강된 현실 장면의 일부로서 디스플레이하는 장치를 포함한다. 상기 장치는 위치를 제공하는 송신기, 상기 위치를 제공하는 단계에 응답하여 가상 낙서를 수신하는 수신기, 사용자 선호들을 결정하고 상기 사용자 선호들에 기초하여 상기 가상 낙서를 수정하는 논리 회로, 및 상기 수정된 가상 낙서를 증강된 현실 장면의 일부로서 디스플레이하는 증강된 현실 시스템을 포함한다.
이제, 같은 번호들이 같은 컴포넌트들을 지시하는, 도면들을 참조하면, 도 1은 상황 인식 메시징 시스템(100)의 블록도이다. 시스템(100)은 가상 낙서 서버(101), 네트워크(103), 및 사용자 디바이스들(105-109)을 포함한다. 본 발명의 하나의 실시예에서, 네트워크(103)는 높은 데이터 전송 속도가 가능한, 차세대 셀룰러 네트워크를 포함한다. 그러한 시스템들은 3GPP 내의 강화된 EUTRA(Evolved Universal Terrestrial Radio Access) 또는 EUTRAN(Evolved Universal Terrestrial Radio Access Network)와 함께, (3GPP2 내의 'Phase 2', 및 IEEE 802.11, 802.16, 802.20, 및 802.22의 진화들과 같은) 다른 기술 명세 생성 조직들 내의 통신 시스템들의 진화들을 포함한다. 사용자 디바이스들(105-109)은 실세계 이미징이 가능하고 사용자에게 가상 낙서로 증강된 실세계 이미지를 제공하는 것이 가능한 디바이스들을 포함한다.
동작 중에, 사용자(예를 들면, 사용자 디바이스(105)를 조작하는 사용자)는 그가 증강된 현실 장면의 일부로서 가상 낙서를 다른 사용자에게 송신하기를 원한다고 결정한다. 사용자 디바이스(105)는 그 후 가상 낙서를 생성하고 그 가상 낙서를 위치와 관련시키기 위해 이용된다. 사용자는 또한 가상 낙서를 보는 것이 허용될 사용자(들)(예를 들면, 사용자(107))의 리스트를 디바이스(105)에 제공한다. 디바이스(105)는 그 후 네트워크(103)를 이용하여 이 정보를 가상 낙서 서버(101)에 제공한다.
서버(101)는 모든 디바이스들(105-109)의 위치들과 함께 그들의 ID들(identities)을 주기적으로 모니터하고, 특정한 디바이스가 가상 낙서를 제공받을 위치의 근처에 있을 때, 서버(101)는 네트워크(103)를 이용하여 이 정보를 그 디바이스에 제공한다. 특정한 디바이스가 가상 낙서가 보여질 수 있는(virtual graffiti is available for viewing) 위치의 근처에 있을 때, 그 디바이스는, 예를 들면, 비프음을 내는 것(beeping)에 의해 사용자에 통지할 것이다. 사용자는 그 후 그 디바이스를 이용하여 증강된 현실 장면의 일부로서 가상 낙서를 볼 수 있다. 특히, 가상 낙서는 사용자의 실세계의 뷰에 삽입되거나 그와 병합될 것이다. 대안적인 실시예들에서는, 사용자에게 어떤 통지도 보내지지 않는다는 점에 주목해야 한다. 그러면 그의 환경에서 임의의 가상 낙서를 찾는 것은 사용자의 몫일 것이다.
도 2는 증강된 현실 장면(augmented reality scene)을 나타낸다. 이 예에서, 사용자는 "Joe, try the porter"라고 말하는 가상 낙서(203)를 생성하였고 이 낙서를 문의 위치에 부착하였다. 도 2에 도시된 바와 같이, 실세계 문(201)은 그 위에 낙서가 존재하지 않는다. 그러나, 만약 어떤 사용자가 그 가상 낙서를 볼 권한을 갖고 있다면, 그들의 증강된 현실 뷰잉(augmented reality viewing) 시스템은 그 위에 낙서(203)가 있는 문(201)을 보여줄 것이다. 따라서, 가상 낙서는 시스템(100)의 모든 사용자들에게 이용 가능하지 않다. 그 낙서는 (바람직하게는 그 낙서를 생성한 사람에 의해) 그것을 볼 수 있다고 지정된 사람들에게만 이용 가능하다. 각 디바이스(105-109)는 고유의 증강된 현실 장면을 그들의 사용자에게 제공할 것이다. 예를 들면, 제1 사용자는 제1 증강된 현실 장면을 볼 수 있는 반면, 제2 사용자는 완전히 다른 증강된 현실 장면을 볼 수 있다. 이것은 도 2에서 낙서(203)와 다른 낙서(205)로 도시되어 있다. 따라서, 문(201)을 보는 제1 사용자는 낙서(203)를 볼 수 있는 반면, 동일한 문(201)을 보는 제2 사용자는 낙서(205)를 볼 수 있다.
비록 상기 예는 특정한 물체(즉, 문(201)) 위에 디스플레이된 가상 낙서(203)가 주어졌지만, 본 발명의 대안적인 실시예들에서는, 가상 낙서가 어떤 물체에도 부착되지 않은 채로 디스플레이될 수 있다. 예를 들면, 낙서는 공중에 떠도는 것으로서, 또는 단순히 사람의 시야의 앞에 디스플레이될 수 있다. 또한, 비록 도 2의 가상 낙서는 텍스트를 포함하지만, 가상 낙서는 또한 이미지, 오디오 및 비디오 클립 등과 같은 "가상 개체"(virtual object)를 포함할 수 있다.
위에 설명된 바와 같이, 사용자 경험을 더 강화시키기 위하여, 가상 낙서는 사용자의 선호들에 기초하여 동적이고 변화할 수 있다. 예를 들면, 가상 개체들 및 텍스트는 각각의 보는 사람에 의해 상이하게 해석될 수 있다. 그렇게 하는 데 있어서, 각 사용자는 각 사용자에 의해 정의될 개인 선호들의 세트를 포함하는 프로파일을 가질 것이다. 이러한 프로파일들은 메시지들을 다운로드하여 그들의 외관들을 개인화(customize)하기 위해 처리할 때 참고될 것이다. 만약 개인화가 필요하지 않다면, 가상 낙서는 생성된 대로 디스플레이되지만, 만약 개인화가 요구된다면, 가상 낙서는 개인화된다.
이것은 도 3에 도시되어 있다. 도 3에 도시된 바와 같이, 제1 사용자는 가상 낙서(303)를 생성한다. 가상 낙서는 적어도 2개의 부분들을 포함한다; 제1 가상 개체(300)(맥주 컵)와 함께 가상 텍스트(301)("try the chili"). 가상 낙서(303)는 문(302)에 부착되고 제2 및 제3 사용자가 보기 위해 남겨진다. 그의 뷰를 개인화하지 않은 제2 사용자는 제1 사용자에 의해 생성된 것과 동일한 가상 개체(300) 및 가상 텍스트(301)를 갖는 가상 낙서(303)를 볼 것이다. 그러나, 맥주보다 와인에 대한 그의 신호를 포함하는 프로파일을 갖는 제3 사용자는 그의 디바이스에게 모든 맥주 관련된 물체들을 와인 관련된 물체들로 변경하도록 지시하였다. 따라서 제3 사용자는 상이한 가상 개체(306)(예를 들면, 와인병)의 근처에 또는 그 위에 새겨진 동일한 텍스트(301)를 볼 것이다. 따라서, 제3 사용자의 디바이스는 최초의 가상 낙서의 일부분을 교체하였다.
명백한 바와 같이, 임의의 특정한 디바이스(105-109)가 특정한 "실제" 물체에 부착된 가상 낙서를 디스플레이할 수 있기 위해서는, 그 디바이스는 그 물체의 위치를 식별하고, 그 후 그 물체의 위치에서 그 낙서를 디스플레이할 수 있어야 한다. 이 작업을 달성하기 위한 몇 가지 방법들이 있다. 본 발명의 하나의 실시예에서, 최초에 생성된 가상 낙서를 사용자의 현재의 환경에 조화시키려고 하는 비전 인식(vision recognition)을 이용하여 증강된 현실 시스템에 의해 US2007/0024527, METHOD AND DEVICE FOR AUGMENTED REALITY MESSAGE HIDING AND REVEALING에서 설명된 기법을 통해 달성된다. 예를 들면, 사용자에 의해 생성된 가상 낙서는 그 낙서의 주위 환경(surroundings)의 이미지와 함께 서버(101)에 업로드될 수 있다. 낙서와 함께 낙서의 주위 환경의 이미지는 사용자의 증강된 현실 시스템에 다운로드될 수 있고, 사용자의 주위 환경이 낙서의 주위 환경의 이미지와 조화할 때, 낙서는 적절히 디스플레이될 것이다.
본 발명의 다른 실시예에서 가상 낙서를 물리적 물체에 부착하는 것은 그 물리적 물체의 물리적 좌표들(GPS인 것으로 추정되지만, 어떤 다른 시스템일 수 있다)을 가상 낙서에 할당하는 것에 의해 달성된다. 그 물리적 좌표들은 증강된 현실 장면을 생성할 3D 렌더링 시스템(하나의 그러한 3D 렌더링 시스템은 이동 디바이스들에서의 사용을 위해 특별히 설계된 API인, Java Mobile 3D Graphics, 즉 M3G이다)에 의해 이용되는 가상 좌표들로 변환되어야 한다. 좌표 변환을 달성하는 가장 편리한 방법은 가상 x 좌표를 경도로, 가상 y 좌표를 위도로, 가상 z 좌표를 고도로 설정하고 따라서 점 (0, 0, 0)이, 지구의 중심에 투사된, 적도와 본초 자오선(the prime meridian)이 교차하는 점에 대응하도록 지구의 중심에 가상 좌표 시스템의 원점을 배치함으로써 가상 세계에 물리적 세계를 복제하는 것이다. 이것은 또한 가상 낙서 메시지가 처리될 때마다 물리적 좌표들로부터 가상 좌표들로의 계산적으로 비용이 많이 드는 변환들을 수행할 필요를 편리하게 제거할 것이다.
위에 언급된 바와 같이, 물리적 좌표 시스템은 GPS인 것으로 추정되지만, GPS가 반드시 이용 가능하다고는 할 수 없다(예를 들면, 건물 내부). 그러한 경우에, 예를 들면, 와이파이(WiFi) 기반 실내 위치 시스템과 같은 임의의 다른 적당한 위치 시스템이 대용될 수 있다. 그러한 시스템은 그의 GPS 좌표들이 알려져 있는 고정된 기준점(xr, yr, zr)로부터의 위치 오프셋((xo, yo, zo)을 제공할 수 있다. 어떤 좌표 시스템이 선택되든지, 결과로서 생기는 좌표들은 항상 임의의 다른 좌표 시스템으로 변환 가능할 것이다.
가상 낙서의 가상 좌표들을 획득한 후에, 3D 렌더링 시스템이 가상 장면을 렌더링할 수 있기 위해서는 관점(viewpoint)이 설정되어야 한다. 관점은 또한 가상 좌표들에서 지정되어야 하고 디바이스의 물리적 위치 및 방위(즉, 뷰잉 방향)에 완전히 의존한다. 만약 관점이 가상 낙서로 향한다면, 사용자는 관점의 시각으로부터 가상 낙서를 볼 것이다. 만약 사용자가 가상 낙서 쪽으로 이동한다면, 가상 낙서는 크기가 증가하는 것으로 보일 것이다. 만약 사용자가 제자리에서 180도 회전하여 가상 낙서로부터 다른 곳으로 향하면, 가상 낙서는 더 이상 보이지 않을 것이고 디스플레이되지 않을 것이다. 모든 이러한 시각적 변화들은 관점에 기초하여 3D 렌더링 시스템에 의해 자동으로 처리된다.
(지정된 가상 좌표들에서의) 가상 낙서를 포함하는 가상 장면 및 관점이 주어지면, 3D 렌더링 시스템은 사용자에게 고유한 가상 장면의 뷰를 생성할 수 있다. 이 가상 장면은 증강된 실제 장면을 생성하기 위해 실제 세계의 뷰에 오버레이되어야 한다. 이동 디바이스의 카메라로부터의 실제 세계의 뷰에 가상 장면을 오버레이하는 하나의 방법은 그의 배경으로서 가상 장면의 뒤에 임의의 이미지가 배치되게 하는 M3G 배경 개체를 이용하는 것이다. M3G 배경을 이용하여, 카메라로부터의 연속적으로 업데이트된 프레임들이 가상 장면의 뒤에 배치될 수 있고, 따라서 그 장면이 카메라 출력에 오버레이되는 것으로 보이게 할 수 있다.
상기 정보가 주어지면, 디바이스의 위치가 결정되고 서버에 송신된다. 서버는, 만일 있다면, 어떤 메시지들이 디바이스에 근접해 있고 디바이스에 대하여 이용 가능한지를 결정한다. 이러한 메시지들은 그 후 디바이스에 의해 다운로드되어 처리된다. 처리는 가상 메시지들의 물리적 위치들을 가상 좌표들로 변환하는 것을 포함한다. 그 메시지들은 그 후 그 가상 좌표들에 배치된다. 동시에, 디바이스의 위치 및 그의 방위는 가상 세계로의 관점을 또한 가상 좌표들에서 정의하기 위해 이용된다. 만약 다운로드된 가상 메시지가 주어진 관점으로부터 보인다면, 그것은 이동 디바이스의 디스플레이에서 디바이스의 카메라로부터의 장면의 라이브 비디오의 위에 렌더링된다.
따라서, 만약 사용자가 물체의 위에 가상 메시지를 배치하기를 원한다면, 사용자는 메시지가 남겨질 물체의 위의 점의 위치를 식별해야 한다. 가장 간단한 예로, 사용자는 물체 위에 그의 디바이스를 배치하고 위치를 캡처할 수 있다. 그는 그 후 이 위치를 가상 개체 및 그의 관련된 콘텐트(예를 들면, 맥주컵과 그 컵의 남쪽으로 향하는 측면에 적용된 텍스트 메시지 "try the porter")와 함께 서버에 송신한다. 사용자는 또한 그 메시지가 특정한 사용자에 대하여 이용 가능하다는 것을 지정한다. 그 특정한 사용자가 바에 도착하고 그 메시지의 범위 내에 있을 때, 그들은 그들의 위치(따라서, 그들의 관점)로부터 그 메시지를 볼 것이다. 만약 그들이 메시지의 동쪽으로 향하는 측면을 향하여 보고 있다면, 그들은 컵을 볼 것이지만, 단지 남쪽의 측면에 어떤 텍스트 메시지가 있다는 것을 알 수 있을 것이다. 만약 사용자가 텍스트 메시지를 읽기를 원한다면, 그들은 그들의 디바이스(따라서 그들의 관점)를 그것이 컵의 남쪽 측면으로 향하도록 움직여야 할 것이다.
도 4는 도 1의 서버의 블록도이다. 명백한 바와 같이, 서버(101)는 글로벌 개체 관리자(401), 데이터베이스(403), 및 개인 개체 관리자(405)를 포함한다. 동작 중에, 글로벌 개체 관리자(401)는 서버(101)에 낙서를 저장하기를 원하는 임의의 디바이스(105-109)로부터 가상 낙서를 수신할 것이다. 이 정보는 바람직하게는 수신기(407)를 통하여 무선으로 수신된다. 글로벌 개체 관리자(401)는 시스템(100) 내에 존재하는 모든 가상 낙서를 저장하는 책임이 있다. 가상 낙서와 함께, 글로벌 개체 관리자(401)는 또한 낙서에 대한 위치와 함께 그 낙서를 디스플레이하도록 허용되는 디바이스들의 리스트를 수신할 수 있다. 다시, 이 정보는 바람직하게는 수신기(407)를 통하여 무선으로 수신된다. 만약 낙서가 특정한 항목(item)(움직이는 또는 움직이지 않는)에 부착될 것이라면, 그 가상 낙서를 물체에 부착하기 위해 필요한 정보도 수신될 것이다. 제1 실시예에서는, 움직이지 않는 항목의 주위 환경의 디지털 표현이 저장될 것이고; 제2 실시예에서는, 움직이는 또는 움직이지 않는 가상 낙서의 물리적 위치가 저장될 것이다. 상기 정보 모두는 데이터베이스(403)에 저장된다.
비록 도 4에는 하나의 개인 디지털 관리자(405)만이 도시되어 있지만, 각 사용자 디바이스가 그 자신의 개인 개체 관리자(405)를 가질 것이라는 것이 상상된다. 개인 개체 관리자(405)는 그의 대응하는 사용자 디바이스와 글로벌 개체 관리자(401) 사이의 매개자로서 기능하도록 의도되어 있다. 개인 개체 관리자(405)는 그의 대응하는 사용자 디바이스에 대한 위치를 주기적으로 수신할 것이다. 일단 개인 개체 관리자(405)가 디바이스의 위치를 결정하면, 개인 개체 관리자(405)는 그 디바이스의 위치에 또는 그의 근처에 그 특정한 장치에 대하여 임의의 가상 낙서가 존재하는지를 결정하기 위해 글로벌 개체 관리자(401)에 액세스할 것이다. 개인 개체 관리자(405)는 그 특정한 장치 및 그 장치의 위치에 관련된 가상 낙서만을 결정하기 위하여 모든 이용 가능한 가상 낙서를 필터링한다. 개인 개체 관리자(405)는 그 후 그 디바이스의 위치에 기초하여 가상 낙서를 디스플레이하기 위해 필요한 관련된 정보를 디바이스에 제공하고, 관련된 가상 낙서는 디바이스의 ID 및 위치에 기초하여 변한다. 이 정보는 그 정보를 디바이스에 송신하도록 송신기(409)에 지시하는 것에 의해 디바이스에 제공될 수 있다.
도 5는 도 1의 사용자 디바이스의 블록도이다. 도시된 바와 같이, 사용자 디바이스는 증강된 현실 시스템(515), 상황 인식 회로(509), 프로파일 데이터베이스(507), 낙서 데이터베이스(508), 논리 회로(505), 송신기(511), 수신기(513), 및 사용자 인터페이스(517)를 포함한다. 상황 인식 회로(509)는 사용자 디바이스에 대한 현재의 상황을 생성할 수 있는 임의의 디바이스를 포함할 수 있다. 예를 들면, 상황 인식 회로(509)는 사용자 디바이스의 위치를 결정할 수 있는 GPS 수신기를 포함할 수 있다. 다르게는, 회로(509)는 시계, 주위 온도를 결정할 수 있는 온도계, 심박동수 모니터와 같은 생체 측정 모니터, 가속도계, 기압계, ..., 등과 같은 것들을 포함할 수 있다.
동작 중에, 디바이스의 사용자는 사용자 인터페이스(517)를 통해 가상 낙서를 생성한다. 가상 낙서는 바람직하게는 적어도 2개의 부분들, 가상 개체 및 콘텐트를 포함하지만, 반드시 그런 것은 아니다. 가상 개체는 원시 다각형(primitive polygon) 또는 예를 들면 아바타를 나타내는 복잡한 다면체일 수 있는 3D 개체 모델이다. 콘텐트는 바람직하게는 텍스트, 클립 아트(clip art)와 같은 미리 저장된 이미지, 그림, 사진, 오디오 또는 비디오 클립, ..., 등이다. 가상 개체 및 그의 관련된 콘텐트는 낙서 데이터베이스(508)에 저장되는 가상 낙서를 포함한다. 본 발명의 하나의 실시예에서, 사용자 인터페이스(517)는 낙서 데이터베이스(508)로부터 가상 개체들을 획득하고 손으로 쓴 메시지들 및/또는 그림들을 생성할 수 있는 전자 태블릿을 포함한다.
일단 논리 회로(505)가 사용자 인터페이스(517) 또는 낙서 데이터베이스(508)로부터 가상 낙서를 수신하면, 논리 회로(505)는 상황 인식 회로(509)에 액세스하고 (움직이지 않는 낙서의 경우) 그 낙서가 생성된 위치 또는 (움직이는 낙서의 경우) 그 가상 낙서가 부착될 디바이스를 결정한다. 논리 회로(505)는 또한 낙서를 볼 권한들을 갖는 사용자들의 리스트를 수신한다. 이 리스트는 또한 사용자 인터페이스(517)를 통하여 논리 회로(505)에 제공된다.
본 발명의 하나의 실시예에서 가상 낙서는 물리적 물체와 관련된다. 이 경우, 논리 회로(505)는 또한 낙서를 물체에 부착하기 위해 필요한 정보를 수신할 것이다. 마지막으로, 가상 낙서는 그 가상 낙서, 위치, 그 낙서를 볼 수 있는 사용자들의 리스트, 및 만약 관련된다면, 낙서를 물체에 부착하기 위해 필요한 정보를 송신하도록 송신기(511)에 지시하는 논리 회로(505)에 의해 가상 낙서 서버(101)에 제공된다. 위에 설명된 바와 같이, 서버(101)는 모든 디바이스들(105-109)의 위치들과 함께 그들의 ID들을 주기적으로 모니터하고, 특정한 디바이스가 가상 낙서를 제공받을 위치의 근처에 있을 때, 서버(101)는 네트워크(103)를 이용하여 이 정보를 그 디바이스에 제공한다.
특정한 디바이스가 가상 낙서가 보여질 수 있는 위치의 근처에 있을 때, 그 디바이스는, 예를 들면, 비프음을 내도록 사용자 인터페이스(517)에 지시함으로써, 사용자에게 통지할 것이다. 사용자는 그 후 그 디바이스를 이용하여 증강된 현실 장면의 일부로서 가상 낙서를 볼 수 있다. 따라서, 도 5의 디바이스가 그것에 대하여 가상 낙서가 이용 가능한 위치의 근처에 있을 때, 수신기(513)는 서버(101)로부터 그 낙서 및 낙서의 위치를 수신할 것이다. 만약 관련된다면, 수신기(513)는 또한 낙서를 물리적 물체에 부착하기 위해 필요한 정보를 수신할 것이다. 이 정보는 논리 회로(505)에 전달될 것이다.
위에 설명된 바와 같이, 각 사용자 디바이스는 각 사용자에 의해 정의될 개인 선호들의 세트를 포함하는 프로파일 데이터베이스(507)를 포함한다. 개인 선호들은, 예를 들면, 다음과 같을 수 있다:
- 제1 유형의 물체를 제2 유형의 물체로 교체하는 것;
- 제1 크기의 물체를 제2 크기의 유사한 물체로 교체하는 것;
- 제1 색채 배합(color scheme)의 물체를 제2 색채 배합의 유사한 물체로 교체하는 것;
- 가독성(readability)을 위해 제1 크기의 텍스트를 제2 크기의 텍스트로 교체하는 것;
- 가독성을 위해 제1 폰트의 텍스트를 제2 폰트의 텍스트로 교체하는 것;
- 낮은 해상도의 이미지를 보다 높은 해상도의 이미지로 교체하는 것;
- 제1 포맷(예를 들면, mp3)의 오디오 파일을 제2 포맷(예를 들면, wav)의 오디오 파일로 교체하는 것.
개인 선호들은 가상 낙서를 다운로드하여 그 낙서의 외관들을 개인화하기 위하여 처리할 때 (프로파일 관리자로서 기능하는) 논리 회로(505)에 의해 액세스될 것이다. 임의의 개인화된 낙서는 낙서 데이터베이스(508) 내에 저장될 것이다. 만약 개인화가 필요하지 않다면, 논리 회로(505)는 단순히 낙서를 낙서 데이터베이스(508) 내에 저장한다.
논리 회로(505)는 상황 인식 회로(509)에 주기적으로 액세스하여 그의 위치에 대한 업데이트들을 획득하고 이러한 업데이트들을 서버(101)에 제공한다. 논리 회로(505)가 가상 낙서가 디스플레이되어야 한다고 결정할 때, 그것은 그 사실을 사용자에게 통지할 것이다. 사용자는 그 후 증강된 현실 시스템(515)을 이용하여 낙서를 디스플레이할 수 있다. 특히, 이미저(imager)(503)는 현재의 배경을 이미징하고 이것을 디스플레이(501)에 제공할 것이다. 디스플레이(501)는 또한 낙서 데이터베이스(508)로부터 가상 낙서를 수신하고 그 낙서가 적절히 배치된 현재의 배경의 이미지를 제공할 것이다. 따라서, 가상 낙서는 사용자의 실세계의 뷰에 삽입되거나 그와 병합될 것이다.
도 6은 도 1의 서브의 동작을 나타내는 순서도이다. 논리 흐름은 글로벌 개체 관리자(401)가 제1 디바이스로부터, 가상 낙서, 가상 낙서의 위치, 및 가상 낙서를 볼 수 있는 사용자들의 리스트를 나타내는 정보를 수신하는 단계(601)에서 시작한다. 단계(601)에서 수신된 정보는 기존의 정보에 대한 업데이트들일 수 있다는 점에 주목해야 한다. 예를 들면, 가상 낙서가 "움직이는" 것일 때, 글로벌 개체 관리자(401)는 낙서의 위치에 대한 주기적인 업데이트들을 수신할 수 있다. 또한, 가상 낙서가 변화하는 것(예를 들면, 심박동수)일 때, 글로벌 개체 관리자(401)는 낙서에 대한 주기적인 업데이트들을 수신할 수 있다.
도 6의 논리 흐름에서 계속하여, 정보는 그 후 데이터베이스(403)에 저장된다(단계(603)). 위에 설명된 바와 같이, 개인 개체 관리자(405)는 제1 디바이스를 포함하는 모든 디바이스들에 대한 위치들(예를 들면, 지리적 지역들)을 주기적으로 수신하고(단계(605)) 디바이스의 위치가 임의의 저장된 가상 낙서의 근처에 있는지를 결정할 것이다(단계(607)). 만약, 단계(607)에서, 개인 개체 관리자(405)가 그의 대응하는 디바이스(제2 디바이스)가 그것이 볼 수 있는 (제1 디바이스에 부착될 수 있는) 임의의 가상 낙서의 근처에 있다고 결정하면, 논리 흐름은 그 낙서 및 그 가상 낙서를 보기 위한 필요한 정보(예를 들면, 낙서의 위치)가 송신기(409)를 통해 제2 디바이스에 무선으로 송신되는 단계(609)로 계속된다.
도 7은 낙서를 생성할 때의 도 1의 사용자 디바이스의 동작을 나타내는 순서도이다. 특히, 도 7의 논리 흐름은 가상 낙서를 생성하고 다른 사람들이 보기 위해 그 낙서를 서버(101)에 저장하기 위해 필요한 단계들을 나타낸다. 논리 흐름은 사용자 인터페이스(517)가 사용자로부터 입력된 가상 낙서와 함께, 그 낙서를 보는 권한들을 갖는 디바이스들의 리스트를 수신하는 단계(701)에서 시작한다. 이 경우 가상 낙서는 사용자 인터페이스(517)를 통해 사용자로부터 입력될 수 있고, 또는 상황 인식 회로(509)로부터 획득된 낙서일 수 있다. 예를 들면, 상황 인식 회로가 심박동수 모니터를 포함하는 경우, 낙서는 회로(509)로부터 획득된 실제 심박동수일 수 있다.
이 정보는 논리 회로(505)에 전달된다(단계(703)). 단계(705)에서, 논리 회로(505)는 상황 인식 회로(509)에 액세스하고 가상 낙서에 대한 현재의 위치를 검색한다. 논리 흐름은 논리 회로(505)가 그 위치, 낙서의 디지털 표현(예를 들면, .jpeg 또는 .gif 이미지), 및 낙서를 보는 권한들을 갖는 사용자들의 리스트를 송신하도록 송신기(511)에 지시하는 단계(707)로 계속된다. 3D 가상 개체 경우에, 디지털 표현은 3D 모델들 및 콘텐트(예를 들면, 사진, 음악 파일 등)에의 URL들을 포함할 수 있다는 점에 주목해야 한다. 만약 가상 낙서가 외관이 변화하는 것이라면, 논리 흐름은 논리 회로(505)가 낙서를 주기적으로 업데이트하는 옵션의 단계(709)로 계속될 수 있다.
도 8은 도 1의 사용자 디바이스의 동작을 나타내는 순서도이다. 특히, 도 8의 논리 흐름은 가상 낙서를 디스플레이하기 위해 필요한 단계들을 나타낸다. 논리 흐름은 논리 회로(505)가 상황 인식 회로(509)에 주기적으로 액세스하고 서버(101)에 송신되도록 송신기(511)에 위치를 제공하는 단계(801)에서 시작한다. 위치를 제공하는 단계에 응답하여, 단계(803)에서, 수신기(513)는 가상 낙서를 보기 위해 필요한 정보를 수신한다. 위에 설명된 바와 같이, 이 정보는 단순히 가상 낙서의 대충의 위치(gross location)와 함께 가상 낙서의 표현을 포함할 수 있다. 다른 실시예들에서, 이 정보는 가상 낙서를 물체에 부착하기 위해 필요한 정보를 포함할 수 있다. 그러한 정보는 물리적 물체의 디지털 표현, 또는 가상 낙서의 정확한 위치를 포함할 수 있다.
단계(805)에서, (프로파일 관리자로서 기능하는) 논리 회로(505)는 가상 낙서를 분석한다. 그 후 사용자 선호들을 결정하기 위하여 프로파일 데이터베이스(507)에 액세스한다(단계(806)). 단계(807)에서, 논리 회로(505)는 낙서가 수정되어야 하는지를 결정하고, 만일 아니라면 논리 흐름은 단계(811)로 계속되고, 그렇지 않다면 논리 흐름은 단계(809)로 계속된다.
단계(809)에서 논리 회로(505)는 낙서의 일부분을 교체하거나 수정하는 것에 의해 사용자 선호들에 기초하여 가상 낙서를 적절히 수정한다. 단계(811)에서, 논리 회로(505)는 가상 낙서 데이터베이스(508)에 액세스하고 수정된 또는 수정되지 않은 가상 낙서와 함께 그 낙서를 디스플레이하기 위해 필요한 다른 정보(예를 들면, 낙서의 위치)를 저장한다. 3D 경우에, 이것은 관점을 지정하기 위한 디바이스의 방위를 포함할 것이다. 마지막으로, 단계(813)에서, (증강된 현실 시스템(515)의 일부로서) 디스플레이(501)는 사용자가 적절한 위치에 있을 때 증강된 현실 장면의 일부로서 그 수정된 또는 수정되지 않은 가상 낙서를 디스플레이한다.
본 발명은 특정한 실시예들에 관하여 상세히 도시되고 설명되었지만, 이 기술의 숙련자들은 본 발명의 범위 및 정신으로부터 일탈하지 않고 거기에 형태 및 상세의 다양한 변화들이 이루어질 수 있다는 것을 이해할 것이다. 예를 들면, 상기 설명에는 사용자 디바이스들 내에 존재하는 프로파일 데이터베이스(507)가 제공되었지만, 이 기술의 통상의 지식을 가진 자는 데이터베이스(507)가 서버(101) 내에 존재할 수 있고, 서버(101)는 임의의 사용자에게 낙서를 제공하기 전에 낙서의 필요한 수정을 수행한다는 것을 알 것이다. 이 세이시에이션(satiation) 동안에, 서버(101)는 제1 디바이스로부터 가상 낙서와 함께 가상 낙서의 위치를 수신하고 데이터베이스(507)에 액세스하여 제2 디바이스에 대한 선호들을 결정할 것이다. 가상 낙서는 그 후 제2 디바이스의 선호들에 기초하여 논리 회로에 의해 수정될 것이다. 제2 디바이스는 제2 디바이스의 위치가 가상 낙서의 위치의 근처에 있을 때 수정된 가상 낙서를 제공받을 것이다. 그러한 변화들은 다음에 오는 청구항들의 범위 내에 있는 것으로 의도된다.
Claims (18)
- 가상 낙서(virtual graffiti)를 수신하고 증강된 현실 장면(augmented reality scene)의 일부로서 디스플레이하는 방법으로서,
위치를 제공하는 단계;
상기 위치를 제공하는 단계에 응답하여 가상 낙서를 수신하는 단계;
사용자 선호들(user preferences)을 결정하는 단계;
상기 사용자 선호들에 기초하여 상기 가상 낙서를 수정하는 단계; 및
상기 수정된 가상 낙서를 증강된 현실 장면의 일부로서 디스플레이하는 단계 ― 상기 수정된 가상 낙서는 사용자의 실세계 환경의 뷰(user's view of a real-world environment)에 삽입(embed)되거나 그와 병합됨 ―
를 포함하는 디스플레이 방법. - 제1항에 있어서, 사용자 선호들을 결정하는 단계는 상기 사용자 선호들을 결정하기 위해 데이터베이스에 액세스하는 단계를 포함하는 디스플레이 방법.
- 제1항에 있어서, 상기 가상 낙서를 수정하는 단계는 상기 가상 낙서의 일부분을 교체하거나 수정하는 단계를 포함하는 디스플레이 방법.
- 제1항에 있어서, 상기 가상 낙서는 개체 및 콘텐트를 포함하는 디스플레이 방법.
- 제4항에 있어서, 상기 가상 낙서를 수정하는 단계는,
- 제1 유형의 물체를 제2 유형의 물체로 교체하는 것;
- 제1 크기의 물체를 제2 크기의 유사한 물체로 교체하는 것;
- 제1 색채 배합(color scheme)의 물체를 제2 색채 배합의 유사한 물체로 교체하는 것;
- 제1 크기의 텍스트를 제2 크기의 텍스트로 교체하는 것;
- 제1 폰트의 텍스트를 제2 폰트의 텍스트로 교체하는 것;
- 낮은 해상도의 이미지를 보다 높은 해상도의 이미지로 교체하는 것; 및
- 제1 포맷의 오디오 파일을 제2 포맷의 오디오 파일로 교체하는 것
중 하나를 포함하는 디스플레이 방법. - 제4항에 있어서, 상기 콘텐트는 텍스트, 이미지, 오디오, 또는 비디오 클립을 포함하는 디스플레이 방법.
- 디바이스에 가상 낙서를 제공하는 방법으로서,
제1 디바이스로부터 가상 낙서와 함께 상기 가상 낙서의 위치를 수신하는 단계;
제2 디바이스에 대한 선호들을 결정하는 단계;
상기 제2 디바이스의 상기 선호들에 기초하여 상기 가상 낙서를 수정하는 단계;
제2 디바이스의 위치를 수신하는 단계; 및
상기 제2 디바이스의 위치가 상기 가상 낙서의 위치의 근처에 있을 때 상기 제2 디바이스에 상기 수정된 가상 낙서를 제공하는 단계 ― 상기 수정된 가상 낙서는 상기 제2 디바이스에 의해 실세계 환경의 뷰(a view of a real-world environment)에 삽입(embed)되거나 그와 병합됨 ―
를 포함하는 가상 낙서 제공 방법. - 제7항에 있어서, 사용자 선호들을 결정하는 단계는 상기 사용자 선호들을 결정하기 위해 데이터베이스에 액세스하는 단계를 포함하는 가상 낙서 제공 방법.
- 제7항에 있어서, 상기 가상 낙서를 수정하는 단계는 상기 가상 낙서의 일부분을 교체하거나 수정하는 단계를 포함하는 가상 낙서 제공 방법.
- 제7항에 있어서, 상기 가상 낙서는 개체 및 콘텐트를 포함하는 가상 낙서 제공 방법.
- 제10항에 있어서, 상기 가상 낙서를 수정하는 단계는,
- 제1 유형의 물체를 제2 유형의 물체로 교체하는 것;
- 제1 크기의 물체를 제2 크기의 유사한 물체로 교체하는 것;
- 제1 색채 배합(color scheme)의 물체를 제2 색채 배합의 유사한 물체로 교체하는 것;
- 제1 크기의 텍스트를 제2 크기의 텍스트로 교체하는 것;
- 제1 폰트의 텍스트를 제2 폰트의 텍스트로 교체하는 것;
- 낮은 해상도의 이미지를 보다 높은 해상도의 이미지로 교체하는 것; 및
- 제1 포맷의 오디오 파일을 제2 포맷의 오디오 파일로 교체하는 것
중 하나를 포함하는 가상 낙서 제공 방법. - 제10항에 있어서, 상기 콘텐트는 텍스트, 이미지, 오디오, 또는 비디오 클립을 포함하는 가상 낙서 제공 방법.
- 가상 낙서(virtual graffiti)를 수신하고 증강된 현실 장면(augmented reality scene)의 일부로서 디스플레이하는 장치로서,
위치를 제공하는 송신기;
상기 위치를 제공하는 단계에 응답하여 가상 낙서를 수신하는 수신기;
사용자 선호들(user preferences)을 결정하고 상기 사용자 선호들에 기초하여 상기 가상 낙서를 수정하는 논리 회로; 및
상기 수정된 가상 낙서를 증강된 현실 장면의 일부로서 디스플레이하는 증강된 현실 시스템(augmented reality system) ― 상기 수정된 가상 낙서는 사용자의 실세계 환경의 뷰(user's view of a real-world environment)에 삽입(embed)되거나 그와 병합됨 ―
을 포함하는 디스플레이 장치. - 제13항에 있어서, 상기 사용자 선호들은 데이터베이스 내에 존재하는 디스플레이 장치.
- 제13항에 있어서, 상기 논리 회로는 상기 가상 낙서의 일부분을 교체하거나 수정하는 것에 의해 상기 가상 낙서를 수정하는 디스플레이 장치.
- 제13항에 있어서, 상기 가상 낙서는 개체 및 콘텐트를 포함하는 디스플레이 장치.
- 제16항에 있어서, 상기 논리 회로는,
- 제1 유형의 물체를 제2 유형의 물체로 교체하는 것;
- 제1 크기의 물체를 제2 크기의 유사한 물체로 교체하는 것;
- 제1 색채 배합(color scheme)의 물체를 제2 색채 배합의 유사한 물체로 교체하는 것;
- 제1 크기의 텍스트를 제2 크기의 텍스트로 교체하는 것;
- 제1 폰트의 텍스트를 제2 폰트의 텍스트로 교체하는 것;
- 낮은 해상도의 이미지를 보다 높은 해상도의 이미지로 교체하는 것; 및
- 제1 포맷의 오디오 파일을 제2 포맷의 오디오 파일로 교체하는 것
중 하나를 수행하는 것에 의해 상기 가상 낙서를 수정하는 디스플레이 장치. - 제16항에 있어서, 상기 콘텐트는 텍스트, 이미지, 오디오, 또는 비디오 클립을 포함하는 디스플레이 장치.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/051,969 | 2008-03-20 | ||
US12/051,969 US20090237328A1 (en) | 2008-03-20 | 2008-03-20 | Mobile virtual and augmented reality system |
PCT/US2009/037257 WO2009117350A2 (en) | 2008-03-20 | 2009-03-16 | Mobile virtual and augmented reality system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100139043A KR20100139043A (ko) | 2010-12-31 |
KR101226405B1 true KR101226405B1 (ko) | 2013-01-24 |
Family
ID=41088371
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020107023341A KR101226405B1 (ko) | 2008-03-20 | 2009-03-16 | 이동 가상 및 증강된 현실 시스템 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20090237328A1 (ko) |
EP (2) | EP2257927A4 (ko) |
KR (1) | KR101226405B1 (ko) |
CN (1) | CN102037485B (ko) |
BR (1) | BRPI0910260A2 (ko) |
DE (1) | DE202009019122U1 (ko) |
WO (1) | WO2009117350A2 (ko) |
Families Citing this family (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100214111A1 (en) * | 2007-12-21 | 2010-08-26 | Motorola, Inc. | Mobile virtual and augmented reality system |
US20090315766A1 (en) | 2008-06-19 | 2009-12-24 | Microsoft Corporation | Source switching for devices supporting dynamic direction information |
US20100009662A1 (en) | 2008-06-20 | 2010-01-14 | Microsoft Corporation | Delaying interaction with points of interest discovered based on directional device information |
US8350871B2 (en) * | 2009-02-04 | 2013-01-08 | Motorola Mobility Llc | Method and apparatus for creating virtual graffiti in a mobile virtual and augmented reality system |
US8872767B2 (en) * | 2009-07-07 | 2014-10-28 | Microsoft Corporation | System and method for converting gestures into digital graffiti |
US9424583B2 (en) | 2009-10-15 | 2016-08-23 | Empire Technology Development Llc | Differential trials in augmented reality |
US8566020B2 (en) * | 2009-12-01 | 2013-10-22 | Nokia Corporation | Method and apparatus for transforming three-dimensional map objects to present navigation information |
US9875671B2 (en) * | 2009-12-17 | 2018-01-23 | Google Llc | Cloud-based user interface augmentation |
JP5616622B2 (ja) * | 2009-12-18 | 2014-10-29 | アプリックスIpホールディングス株式会社 | 拡張現実感提供方法及び拡張現実感提供システム |
US20110225069A1 (en) * | 2010-03-12 | 2011-09-15 | Cramer Donald M | Purchase and Delivery of Goods and Services, and Payment Gateway in An Augmented Reality-Enabled Distribution Network |
US20110221771A1 (en) * | 2010-03-12 | 2011-09-15 | Cramer Donald M | Merging of Grouped Markers in An Augmented Reality-Enabled Distribution Network |
TWI439960B (zh) | 2010-04-07 | 2014-06-01 | Apple Inc | 虛擬使用者編輯環境 |
US9542038B2 (en) | 2010-04-07 | 2017-01-10 | Apple Inc. | Personalizing colors of user interfaces |
WO2011144793A1 (en) * | 2010-05-18 | 2011-11-24 | Teknologian Tutkimuskeskus Vtt | Mobile device, server arrangement and method for augmented reality applications |
US20110313779A1 (en) * | 2010-06-17 | 2011-12-22 | Microsoft Corporation | Augmentation and correction of location based data through user feedback |
US20110310260A1 (en) * | 2010-06-18 | 2011-12-22 | Minx, Inc. | Augmented Reality |
US20120105440A1 (en) * | 2010-06-25 | 2012-05-03 | Lieberman Stevan H | Augmented Reality System |
US20120256917A1 (en) * | 2010-06-25 | 2012-10-11 | Lieberman Stevan H | Augmented Reality System |
KR101479262B1 (ko) | 2010-09-02 | 2015-01-12 | 주식회사 팬택 | 증강현실 정보 이용 권한 부여 방법 및 장치 |
US8174931B2 (en) | 2010-10-08 | 2012-05-08 | HJ Laboratories, LLC | Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information |
WO2012099377A2 (ko) * | 2011-01-17 | 2012-07-26 | 엘지전자 주식회사 | 증강 현실 타겟(ar target) 업데이트 방법 및 이를 채용하는 단말 및 서버 |
US8743244B2 (en) | 2011-03-21 | 2014-06-03 | HJ Laboratories, LLC | Providing augmented reality based on third party information |
CN102810099B (zh) * | 2011-05-31 | 2018-04-27 | 中兴通讯股份有限公司 | 增强现实视图的存储方法和装置 |
US20130044912A1 (en) * | 2011-08-19 | 2013-02-21 | Qualcomm Incorporated | Use of association of an object detected in an image to obtain information to display to a user |
US9342610B2 (en) * | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
US9930128B2 (en) * | 2011-09-30 | 2018-03-27 | Nokia Technologies Oy | Method and apparatus for accessing a virtual object |
US9285871B2 (en) | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Personal audio/visual system for providing an adaptable augmented reality environment |
US9087403B2 (en) * | 2012-07-26 | 2015-07-21 | Qualcomm Incorporated | Maintaining continuity of augmentations |
US10180715B2 (en) | 2012-10-05 | 2019-01-15 | Elwha Llc | Correlating user reaction with at least an aspect associated with an augmentation of an augmented view |
US9077647B2 (en) | 2012-10-05 | 2015-07-07 | Elwha Llc | Correlating user reactions with augmentations displayed through augmented views |
US9141188B2 (en) * | 2012-10-05 | 2015-09-22 | Elwha Llc | Presenting an augmented view in response to acquisition of data inferring user activity |
US10269179B2 (en) | 2012-10-05 | 2019-04-23 | Elwha Llc | Displaying second augmentations that are based on registered first augmentations |
US8928695B2 (en) * | 2012-10-05 | 2015-01-06 | Elwha Llc | Formatting of one or more persistent augmentations in an augmented view in response to multiple input factors |
US10713846B2 (en) * | 2012-10-05 | 2020-07-14 | Elwha Llc | Systems and methods for sharing augmentation data |
US9111383B2 (en) | 2012-10-05 | 2015-08-18 | Elwha Llc | Systems and methods for obtaining and using augmentation data and for sharing usage data |
US9639964B2 (en) | 2013-03-15 | 2017-05-02 | Elwha Llc | Dynamically preserving scene elements in augmented reality systems |
US10109075B2 (en) | 2013-03-15 | 2018-10-23 | Elwha Llc | Temporal element restoration in augmented reality systems |
US9240075B2 (en) * | 2013-03-15 | 2016-01-19 | Daqri, Llc | Campaign optimization for experience content dataset |
US10025486B2 (en) | 2013-03-15 | 2018-07-17 | Elwha Llc | Cross-reality select, drag, and drop for augmented reality systems |
JP2014203406A (ja) * | 2013-04-09 | 2014-10-27 | 富士通株式会社 | 制御装置、制御方法および制御プログラム |
JP2014229104A (ja) * | 2013-05-23 | 2014-12-08 | ヤマハ株式会社 | サーバ装置、プログラム及び通信方法 |
WO2015048749A1 (en) * | 2013-09-30 | 2015-04-02 | Interdigital Patent Holdings, Inc. | Methods, apparatus, systems, devices, and computer program products for providing an augmented reality display and/or user interface |
CN103679204A (zh) * | 2013-12-23 | 2014-03-26 | 上海安琪艾可网络科技有限公司 | 基于智能移动设备平台的图像识别与创作应用系统及方法 |
US11854130B2 (en) | 2014-01-24 | 2023-12-26 | Interdigital Vc Holdings, Inc. | Methods, apparatus, systems, devices, and computer program products for augmenting reality in connection with real world places |
US10592929B2 (en) | 2014-02-19 | 2020-03-17 | VP Holdings, Inc. | Systems and methods for delivering content |
JP2016057814A (ja) * | 2014-09-09 | 2016-04-21 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム |
US9659381B2 (en) * | 2015-01-26 | 2017-05-23 | Daqri, Llc | Real time texture mapping for augmented reality system |
US11201981B1 (en) * | 2016-06-20 | 2021-12-14 | Pipbin, Inc. | System for notification of user accessibility of curated location-dependent content in an augmented estate |
US11785161B1 (en) | 2016-06-20 | 2023-10-10 | Pipbin, Inc. | System for user accessibility of tagged curated augmented reality content |
US11876941B1 (en) | 2016-06-20 | 2024-01-16 | Pipbin, Inc. | Clickable augmented reality content manager, system, and network |
EP3264783B1 (en) | 2016-06-29 | 2021-01-06 | Nokia Technologies Oy | Rendering of user-defined messages having 3d motion information |
TWI603227B (zh) | 2016-12-23 | 2017-10-21 | 李雨暹 | 移動物件的虛擬訊息遠距管理方法與應用系統 |
US10567321B2 (en) | 2018-01-02 | 2020-02-18 | Snap Inc. | Generating interactive messages with asynchronous media content |
US10523606B2 (en) | 2018-01-02 | 2019-12-31 | Snap Inc. | Generating interactive messages with asynchronous media content |
CN108415974A (zh) * | 2018-02-08 | 2018-08-17 | 上海爱优威软件开发有限公司 | 留言方法、留言信息获取方法、终端设备及云端系统 |
CN108776544B (zh) * | 2018-06-04 | 2021-10-26 | 网易(杭州)网络有限公司 | 增强现实中的交互方法及装置、存储介质、电子设备 |
US11063889B2 (en) | 2018-06-08 | 2021-07-13 | Snap Inc. | Generating interactive messages with entity assets |
US11087539B2 (en) | 2018-08-21 | 2021-08-10 | Mastercard International Incorporated | Systems and methods for generating augmented reality-based profiles |
US11012390B1 (en) | 2019-03-28 | 2021-05-18 | Snap Inc. | Media content response in a messaging system |
US10897564B1 (en) | 2019-06-17 | 2021-01-19 | Snap Inc. | Shared control of camera device by multiple devices |
US11340857B1 (en) | 2019-07-19 | 2022-05-24 | Snap Inc. | Shared control of a virtual object by multiple devices |
US11265274B1 (en) | 2020-02-28 | 2022-03-01 | Snap Inc. | Access and routing of interactive messages |
CN111476873B (zh) * | 2020-03-12 | 2023-11-10 | 浙江工业大学 | 一种基于增强现实的手机虚拟涂鸦方法 |
US12101360B2 (en) | 2020-03-25 | 2024-09-24 | Snap Inc. | Virtual interaction session to facilitate augmented reality based communication between multiple users |
US11985175B2 (en) | 2020-03-25 | 2024-05-14 | Snap Inc. | Virtual interaction session to facilitate time limited augmented reality based communication between multiple users |
US11593997B2 (en) * | 2020-03-31 | 2023-02-28 | Snap Inc. | Context based augmented reality communication |
KR102678394B1 (ko) * | 2022-11-22 | 2024-06-28 | (주)이엘온소프트 | 위치기반 증강현실 메모 광고 서비스 시스템 및 그 시스템의 광고 서비스 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060241859A1 (en) | 2005-04-21 | 2006-10-26 | Microsoft Corporation | Virtual earth real-time advertising |
US20080122871A1 (en) | 2006-11-27 | 2008-05-29 | Microsoft Corporation | Federated Virtual Graffiti |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6317127B1 (en) * | 1996-10-16 | 2001-11-13 | Hughes Electronics Corporation | Multi-user real-time augmented reality system and method |
US7073129B1 (en) * | 1998-12-18 | 2006-07-04 | Tangis Corporation | Automated selection of appropriate information based on a computer user's context |
US6825550B2 (en) * | 1999-09-02 | 2004-11-30 | Micron Technology, Inc. | Board-on-chip packages with conductive foil on the chip surface |
SE522917C2 (sv) * | 1999-09-10 | 2004-03-16 | Ericsson Telefon Ab L M | Mobilkommunikationssystem vilket möjliggör positionsassocierade medelanden |
US6377793B1 (en) * | 2000-12-06 | 2002-04-23 | Xybernaut Corporation | System and method of accessing and recording messages at coordinate way points |
US6681107B2 (en) * | 2000-12-06 | 2004-01-20 | Xybernaut Corporation | System and method of accessing and recording messages at coordinate way points |
ATE354224T1 (de) * | 2001-05-02 | 2007-03-15 | Symbian Ltd | Gruppenkommunikationsverfahren für ein funkkommunikationsgerät |
US7113618B2 (en) * | 2001-09-18 | 2006-09-26 | Intel Corporation | Portable virtual reality |
US6879835B2 (en) * | 2001-12-04 | 2005-04-12 | International Business Machines Corporation | Location-specific messaging system |
JP2003303356A (ja) * | 2002-04-09 | 2003-10-24 | Canon Inc | 展示装置 |
US6917370B2 (en) * | 2002-05-13 | 2005-07-12 | Charles Benton | Interacting augmented reality and virtual reality |
US7190960B2 (en) * | 2002-06-14 | 2007-03-13 | Cingular Wireless Ii, Llc | System for providing location-based services in a wireless network, such as modifying locating privileges among individuals and managing lists of individuals associated with such privileges |
US7042421B2 (en) * | 2002-07-18 | 2006-05-09 | Information Decision Technologies, Llc. | Method for advanced imaging in augmented reality |
US7050078B2 (en) * | 2002-12-19 | 2006-05-23 | Accenture Global Services Gmbh | Arbitrary object tracking augmented reality applications |
KR100593982B1 (ko) * | 2003-11-06 | 2006-06-30 | 삼성전자주식회사 | 가상 그래피티를 제공하는 장치 및 방법과 그에 따른기록매체 |
KR100593398B1 (ko) * | 2003-12-08 | 2006-06-28 | 한국전자통신연구원 | 증강현실을 이용한 휴대단말기 사용자의 위치정보제공시스템 및 방법 |
US20050131776A1 (en) * | 2003-12-15 | 2005-06-16 | Eastman Kodak Company | Virtual shopper device |
EP1581031B1 (en) * | 2004-03-25 | 2010-10-06 | FUJIFILM Corporation | Methods of forming a pattern and a conductive pattern |
US20050289590A1 (en) * | 2004-05-28 | 2005-12-29 | Cheok Adrian D | Marketing platform |
WO2006044939A2 (en) * | 2004-10-19 | 2006-04-27 | Rosen James S | System and method for location based social networking |
US7450954B2 (en) * | 2005-02-07 | 2008-11-11 | Lamoda, Inc. | System and method for location-based interactive content |
DE602005013752D1 (de) * | 2005-05-03 | 2009-05-20 | Seac02 S R L | Augmented-Reality-System mit Identifizierung der realen Markierung des Objekts |
US8933889B2 (en) * | 2005-07-29 | 2015-01-13 | Nokia Corporation | Method and device for augmented reality message hiding and revealing |
US20070032244A1 (en) * | 2005-08-08 | 2007-02-08 | Microsoft Corporation | Group-centric location tagging for mobile devices |
US20070043828A1 (en) * | 2005-08-16 | 2007-02-22 | Toshiba America Research, Inc. | Ghost messaging |
KR100836481B1 (ko) * | 2006-09-08 | 2008-06-09 | 주식회사 케이티 | 3d 가상지도상의 사용자의 아바타 객체의 위치 및 활동정보를 현실 세계로 광고하는 시스템 및 방법 |
US20080079751A1 (en) * | 2006-10-03 | 2008-04-03 | Nokia Corporation | Virtual graffiti |
US20080225779A1 (en) * | 2006-10-09 | 2008-09-18 | Paul Bragiel | Location-based networking system and method |
US20080154697A1 (en) * | 2006-12-22 | 2008-06-26 | Microsoft Corporation | Like-Minded People Proximity Detection and Interest Matching System |
US20080215974A1 (en) * | 2007-03-01 | 2008-09-04 | Phil Harrison | Interactive user controlled avatar animations |
US20090054084A1 (en) * | 2007-08-24 | 2009-02-26 | Motorola, Inc. | Mobile virtual and augmented reality system |
US7844229B2 (en) * | 2007-09-21 | 2010-11-30 | Motorola Mobility, Inc | Mobile virtual and augmented reality system |
US8350871B2 (en) * | 2009-02-04 | 2013-01-08 | Motorola Mobility Llc | Method and apparatus for creating virtual graffiti in a mobile virtual and augmented reality system |
-
2008
- 2008-03-20 US US12/051,969 patent/US20090237328A1/en not_active Abandoned
-
2009
- 2009-03-16 EP EP09723170A patent/EP2257927A4/en not_active Ceased
- 2009-03-16 EP EP20171180.1A patent/EP3702914B1/en active Active
- 2009-03-16 KR KR1020107023341A patent/KR101226405B1/ko active IP Right Grant
- 2009-03-16 DE DE202009019122.2U patent/DE202009019122U1/de not_active Expired - Lifetime
- 2009-03-16 CN CN2009801100663A patent/CN102037485B/zh active Active
- 2009-03-16 BR BRPI0910260A patent/BRPI0910260A2/pt not_active Application Discontinuation
- 2009-03-16 WO PCT/US2009/037257 patent/WO2009117350A2/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060241859A1 (en) | 2005-04-21 | 2006-10-26 | Microsoft Corporation | Virtual earth real-time advertising |
US20080122871A1 (en) | 2006-11-27 | 2008-05-29 | Microsoft Corporation | Federated Virtual Graffiti |
Non-Patent Citations (2)
Title |
---|
D. Lopez-de-Ipina et al. 'A Context-Aware Mobile Mash-up Platform for Ubiquitous Web', Intelligent Environments, 2007. IE 07. 3rd IET International Conference ('07.09.) * |
D. Lopez-de-Ipina et al. 'A Context-Aware Mobile Mash-up Platform for Ubiquitous Web', Intelligent Environments, 2007. IE 07. 3rd IET International Conference ('07.09.)* |
Also Published As
Publication number | Publication date |
---|---|
DE202009019122U1 (de) | 2016-11-23 |
EP3702914B1 (en) | 2024-05-01 |
WO2009117350A3 (en) | 2009-12-30 |
EP3702914A2 (en) | 2020-09-02 |
US20090237328A1 (en) | 2009-09-24 |
WO2009117350A2 (en) | 2009-09-24 |
CN102037485A (zh) | 2011-04-27 |
EP2257927A4 (en) | 2012-05-02 |
WO2009117350A4 (en) | 2010-04-15 |
EP3702914A3 (en) | 2020-09-30 |
EP2257927A2 (en) | 2010-12-08 |
CN102037485B (zh) | 2013-09-25 |
KR20100139043A (ko) | 2010-12-31 |
BRPI0910260A2 (pt) | 2017-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101226405B1 (ko) | 이동 가상 및 증강된 현실 시스템 | |
US7844229B2 (en) | Mobile virtual and augmented reality system | |
US20090054084A1 (en) | Mobile virtual and augmented reality system | |
US7853296B2 (en) | Mobile virtual and augmented reality system | |
EP2225896B1 (en) | Mobile virtual and augmented reality system | |
KR101277906B1 (ko) | 모바일 가상 및 증강 현실 시스템에서 가상 그래피티를 생성하기 위한 방법 및 장치 | |
US20100066750A1 (en) | Mobile virtual and augmented reality system | |
KR20220028000A (ko) | 3d 객체 카메라 커스터마이즈 시스템 | |
US9363360B1 (en) | Text message definition and control of multimedia | |
KR20210063442A (ko) | 표면 인식 렌즈 | |
EP1657682A2 (en) | Apparatus and method for providing a personalized 3D animation file in a mobile communication terminal | |
CN101669352A (zh) | 用于语音-文本和文本-面部动画转换的通信网络和设备 | |
WO2016125672A1 (ja) | 情報処理装置、画像処理方法及びプログラム | |
US7647076B1 (en) | Displaying customized images on a wireless device | |
US20020080167A1 (en) | System for storing and accessing information units | |
WO2023026546A1 (ja) | 情報処理装置 | |
US11983390B2 (en) | Interacting with visual codes within messaging system | |
CN113885983A (zh) | 名片展示方法、智能终端及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160108 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170111 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180105 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190108 Year of fee payment: 7 |