KR101491997B1 - 소프트웨어 애플리케이션을 실행하기 위한 액티브 리얼 오브젝트들의 결정 - Google Patents

소프트웨어 애플리케이션을 실행하기 위한 액티브 리얼 오브젝트들의 결정 Download PDF

Info

Publication number
KR101491997B1
KR101491997B1 KR1020137023608A KR20137023608A KR101491997B1 KR 101491997 B1 KR101491997 B1 KR 101491997B1 KR 1020137023608 A KR1020137023608 A KR 1020137023608A KR 20137023608 A KR20137023608 A KR 20137023608A KR 101491997 B1 KR101491997 B1 KR 101491997B1
Authority
KR
South Korea
Prior art keywords
real objects
application
communication terminal
active real
applications
Prior art date
Application number
KR1020137023608A
Other languages
English (en)
Other versions
KR20130129277A (ko
Inventor
알렝 패스터
세드릭 미비엘레
Original Assignee
알까뗄 루슨트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알까뗄 루슨트 filed Critical 알까뗄 루슨트
Publication of KR20130129277A publication Critical patent/KR20130129277A/ko
Application granted granted Critical
Publication of KR101491997B1 publication Critical patent/KR101491997B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • H04L67/025Protocols based on web technology, e.g. hypertext transfer protocol [HTTP] for remote control or remote monitoring of applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/51Discovery or management thereof, e.g. service location protocol [SLP] or web services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • H04W4/022Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences with dynamic range variability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/026Services making use of location information using location based information parameters using orientation information, e.g. compass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

소프트웨어 애플리케이션들을 사용할 수 있도록 설계된 프로세싱 수단(TRT)을 구비하고 통신 네트워크(N)와 통신하기 위한 인터페이스(INT)를 구비한 통신 단말(T)에 있어서, 상기 프로세싱 수단은 적어도: ● 통신 단말에 의해 공간에 그려진 커브에 기초하여 지리적 구역(ZG)의 범위를 정하도록 설계된 제 1 모듈(MZG)과, ● 이 구역 내에 위치되고 통신 네트워크와 인터페이스(Int1, Int2)를 갖는 액티브 리얼 오브젝트들(O1, O2)의 세트를 결정하도록 설계된 제 2 모듈(MOR)과, ● 액티브 리얼 오브젝트들과 관련하여 애플리케이션을 식별하도록 설계된 제 3 모듈(MIA)과, ● 애플리케이션을 사전 결정된 액티브 리얼 오브젝트들에 인터페이스하도록 설계된 제 4 모듈(MDA)을 포함한다.

Description

소프트웨어 애플리케이션을 실행하기 위한 액티브 리얼 오브젝트들의 결정{DETERMINING ACTIVE REAL OBJECTS FOR RUNNING A SOFTWARE APPLICATION}
본 발명은 통신 네트워크와 통신 인터페이스를 갖는 리얼 오브젝트들(real object)을 사용하는 소프트 애플리케이션의 식별에 관한 것이다.
이러한 것은 오브젝트 인터넷, 더 구체적으로, "오브젝트 웹(Object Web)"에 관한 것이다. 이러한 비교적 새로운 콘셉트들(concept)은 다양한 계획들의 주제가 되어왔다. Zurich 대학의 2명의 연구자들에 의해 시작된 사이트 www.webofthings.com 상에 설명된 연구가 예로서 인용될 수 있다.
"사물 웹(web of things)"은 2009년 스페인의 마드리드에서 열린 인터내셔널 WWW(World Wide Web) 회의의 회의록들의 D.Guinard 및 V.Trifa에 의한 논문, "Towards the Web of Things: Web Mashups for Embedded Devices"에 또한 설명되어 있다.
통신 네트워크들에 물리적 오브젝트들을 연결시키는 것으로 향하는 추세는 2010년 8월 19일 IMS 조사의 보도 자료 "Internet Connected Devices About to Pass the 5 Billion Milestone"에 또한 보고되어 있다. 이 보도 자료는 http://imsresearch.com/news-events/press-template.php?pr_id= 1 532&cat_id = 1 08에서 이용 가능하다.
예를 들어, Gellersen, Fischer, Guinard, Gostner, Kortuem, Kray, Rukzio 및 Streng에 의해 쓰여진 "Supporting Device Discovery and Spontaneous Interaction with Spatial References" 또는 Streng, Guinard 및 Gellerson에 의해 쓰여진 "Using Spatial Conditions for Proactive Computing and Interaction Metaphors" 또는 Trifa, Guinard, Bolliger 및 Wieland에 의해 쓰여진 "Design of a Web-based Distributed Location-aware Infrastructure for Mobile Devices"와 같은, 다른 논문들의 이러한 저자들로부터의 연구의 결과들을 찾을 수 있다.
사물 웹들에 관한 이러한 연구들은 발명을 통해 서로간에 잠재적으로 통신할 수 있는 웹 상에서 이용 가능한 자원들로 리얼 라이프 오브젝트들(real life object)을 변형하는 데 목적이 있고: 램프들, 텔레비전들, 통신 단말들, 소형 가정 기기들 등은 인터넷 및 인터넷을 통해 이용 가능한 소프트웨어 애플리케이션들과 인터페이스(interface)될 수 있고, 따라서 새로운 가능성을 열 수 있다.
그러나, 현재의 해결책들은 사용자가 그 또는 그녀 주위의 어느 리얼 오브젝트들이 인터넷에 연결되는지를 식별할 수 없게 하고, 따라서 리얼 오브젝트들이 소프트웨어 애플리케이션들을 실행하는 데 사용할 수 없게 한다.
따라서, 사용자가 그 또는 그녀가 어떤 소프트웨어 애플리케이션들을 사용할 수 있는지를 결정하는 것이 또한 가능하지 않다.
본 발명은 이 기술적 문제를 해결하는 데 목적이 있다.
게다가, 해결책이 사용자가 매우 많은 복수의 액티브 리얼 오브젝트들에 의해 둘러싸여 있을 때 사용자에게 정보를 감당 못할 정도로 주지 않는다는 것이 중요하다. 본 발명은 또한 이 추가의 문제를 고려한다.
발명의 제 1 목적은 적어도 하나의 리얼 오브젝트를 사용하여 통신 단말로부터 액세스할 수 있는 소프트웨어 애플리케이션을 실행하는 방법이고, 상기 방법은,
● 상기 통신 단말로 공간에 커브(C)를 그리는(describe) 단계와;
● 상기 커브에 기초하여 지리적 구역(ZG)을 식별하는 단계와;
● 통신 네트워크와 통신 인터페이스를 갖는 상기 지리적 구역 내에 위치된 액티브 리얼 오브젝트 세트를 결정하는 단계와;
● 상기 액티브 리얼 오브젝트들 중에서 애플리케이션을 식별하는 단계와;
● 상기 애플리케이션과 상기 이전에 결정된 액티브 리얼 오브젝트들을 인터페이스시키는 단계를 포함한다.
발명의 실시예들에 따르면, 범위 결정(delimitation) 단계는 위치 확인 디바이스(locating device)를 사용하여 상기 통신 단말의 위치를 자동으로 결정하는 단계 및 이 위치와 관련하여 상기 지리적 구역을 결정하는 단계로 구성된다.
상기 통신 단말은 실시간으로 스크린 상에 결정되는 상기 지리적 구역을 디스플레이할 수 있다.
상기 범위 결정 단계 및 결정 단계가 계속해서 동시에 실행될 수 있어, 상기 단말은 상기 스크린 상에 결정되는 상기 지리적 구역 내의 상기 액티브 리얼 오브젝트들을 디스플레이한다.
상기 결정 단계는 상기 리얼 오브젝트들과 지리적 위치들을 연관시키는 제 1 데이터베이스에 쿼리(querying)하는 단계 및 상기 데이터베이스 내의 연관된 지리적 위치들과 상기 지리적 구역을 비교하여 상기 액티브 리얼 오브젝트 세트를 결정하는 단계로 구성될 수 있다.
상기 단말은 스크린 상에 상기 지리적 구역의 적어도 일부를 디스플레이할 수 있고 증강 현실 메커니즘(augmented reality mechanism)을 사용하여 적어도 그 일부에 대응하는 상기 액티브 리얼 오브젝트 세트 중에서의 액티브 리얼 오브젝트들을 보여줄 수 있다.
상기 식별 단계는 요구된 조건들과 이용 가능한 애플리케이션들을 연관시키는 제 2 데이터베이스를 다시 쿼리(re-querying)하는 단계 및 연관된 요구된 조건들이 상기 세트 내의 리얼 오브젝트들에 의해 제공되는 어빌리티(abilities)에 대응하는 애플리케이션 세트를 결정하는 단계를 포함할 수 있다.
상기 오브젝트들의 어빌리티에 대응하는 상기 애플리케이션들 및 상기 요구된 조건들을 결정하도록 온톨로지(ontology)를 사용할 수 있다.
상기 애플리케이션 세트가 단말 사용자에게 제공될 수 있어, 상기 애플리케이션 세트 중에서 하나의 애플리케이션을 선택할 수 있다. 상기 애플리케이션 세트는 단말 스크린 상에 디스플레이될 수 있다.
상기 제 2 데이터베이스는 상기 단말에 실제로 설치된 소프트웨어 애플리케이션 세트로부터 생성될 수 있다.
또한 적어도 하나의 애플리케이션 서버로부터 이용 가능한 애플리케이션들을 포함할 수 있다.
상기 애플리케이션은 상기 액티브 리얼 오브젝트 세트의 서브세트(subset)를 사용하여 실행될 수 있고, 이 서브세트는 상기 통신 단말의 위치로부터의 거리 기준에 의해 결정된다.
상기 애플리케이션은 상기 액티브 리얼 오브젝트 세트의 서브세트를 사용하여 실행될 수 있고, 상기 서브세트는 상기 통신 단말의 사용자의 프로파일(profile)과 관련된 기준에 의해 결정된다.
상기 범위 결정 단계는 경로를 결정하여 실행될 수 있고, 이 때 상기 결정 단계, 상기 식별 단계 및 상기 인터페이스 단계는 이 경로를 따라 상기 통신 단말의 위치와 관계되어 실행될 수 있을 것이다.
본 발명의 목적은 소프트웨어 애플리케이션들을 사용할 수 있도록 설계된 프로세싱 수단을 구비하고 통신 네트워크와 통신하기 위한 인터페이스를 갖는 통신 단말을 갖는 것이고, 상기 프로세싱 수단은 적어도:
● 상기 통신 단말에 의해 공간에 그려진 커브에 기초하여 지리적 구역을 결정하도록 설계된 제 1 모듈과,
● 상기 지리적 구역 내에 위치된 액티브 리얼 오브젝트 세트를 결정하도록 설계되고 상기 통신 네트워크와 인터페이스를 갖는 제 2 모듈과,
● 상기 액티브 리얼 오브젝트들과 관련하여 애플리케이션을 식별하도록 설계된 제 3 모듈과,
● 상기 애플리케이션을 사전 결정된 액티브 리얼 오브젝트들에 인터페이스하도록 설계된 제 4 모듈을 포함한다.
본 발명의 제 3 목적은 상기 통신 단말에 의해 그려진 커브 및 상기 통신 단말의 위치로부터 결정되는 지리적 구역 내에 위치된 액티브 리얼 오브젝트 세트 내의 액티브 리얼 오브젝트들 상에서 실행될 수 있는 이용 가능한 애플리케이션들의 리스트를 디스플레이하는 수단을 갖는 스크린 및 사용자가 상기 리스트로부터 애플리케이션을 선택하고 상기 애플리케이션과 상기 사전 결정된 액티브 리얼 오브젝트들 사이의 인터페이스를 시작할 수 있도록 하는 인터랙트비(interactive) 수단을 포함하는, 통신 단말에 대한 인간 대 머신 인터페이스(man-machine interface)를 갖는 것이다.
본 발명과 그 이점들은 첨부된 도면들을 참조로 하여, 다음의 설명 내에서 좀 더 분명히 나타날 것이다.
도 1은 본 발명이 포함될 수 있는 일반적인 아키텍처(architecture)를 도시한 도면.
도 2는 사용자(U)가 외부에 위치되는 본 발명에 대한 하나의 구현을 도시한 도면.
도 3a 및 도 3b는 사용자(U)의 모바일 단말에 의한 공간에서의 커브의 설명을 도시한 도면들.
도 4는 사용자(U)가 그 또는 그녀의 경로를 규정하는 맵핑(mapping) 애플리케이션을 사용하는 구현을 도시한 도면.
도 1에 도시된 통신 단말(T)은 몇몇의 모듈들(MZG, MIA, MOR 및 MDA)을 포함하는 프로세싱 수단(TRT)을 갖는다. 전통적으로, 이 프로세싱 수단은 컴퓨터 코드를 구성하는 소프트웨어 모듈들을 실행하도록 설계된 작동 시스템 및 전자 회로들을 포함할 수 있다.
통신 단말은 또한 통신 네트워크(N)와 통신하기 위한 인터페이스(INT)를 갖는다. 통신 단말(T)은 바람직하게 모바일 단말이고 인터페이스는 무선 인터페이스이다.
통신 네트워크(N)는 전통적으로 복합 네트워크이다. 통신 네트워크(N)는 (2G/3G/4G, Wi-Fi 또는 다른 기술들을 사용하는) 무선 액세스 네트워크, 전용 유선 네트워크, 공중 네트워크 등일 수 있다. 본 발명은 사용되는 기술들 및 통신 네트워크의 아키텍처와 관계없이 적용될 수 있다.
리얼 오브젝트들(O1, O2 및 O3)은 통신 네트워크(N)에 연결되고 리얼 오브젝트들이 네트워크(N)와 통신할 수 있도록 적절한 인터페이스들(Int1, Int2 및 Int3)을 각각 갖는다. 이 통신은 리얼 오브젝트들 자체 내에 내장될 수 있거나 또는 리얼 오브젝트들과 통신 네트워크 사이의 게이트웨이(gateway)일 수 있는 어댑터(adapter)를 통해 잠재적으로 발생할 수 있다.
이 리얼 오브젝트들은 다양한 형태들로 구성될 수 있다. 리얼 오브젝트들은 개인 주택에서, 근무지(사무실, 공장, 작업장 등)에서, 공중 장소(길, 레스토랑 다이닝 룸, 바 등) 등에서 이용 가능한 리얼 오브젝트들일 수 있다. 리얼 오브젝트들은 램프, 텔레비전 스크린, 전화기, 스피커, 디지털 포토 프레임, 미디어 플레이어(DVD 등), 라디오, 시계 등일 수 있다.
몇몇은 많은 기능들(또는 어빌리티들)을 제공하는 복잡한 리얼 오브젝트들이고; 예를 들어, 텔레비전은 완전한 원격 제어(채널 변경, 밝기, 명암 설정, 볼륨 조정, 비디오 신호 개선 선택 등)를 가능하게 하는 통신 네트워크(N)와의 인터페이스 상에서 매우 큰 어빌리티들의 어레이를 제공할 수 있다.
다른 것들은 보다 간단하고 오직 매우 간단한 기능들을 제공할 수 있고: 예를 들어, 램프는 오직 램프를 키거나 끄는 것을 가능하게 하는 인터페이스를 제공할 수 있다.
지리적 구역의 범위 결정
본 발명의 방법은 지리적 구역(ZG)의 범위를 정하는 단계로 구성되는 제 1 단계를 포함한다. 이 단계는 통신 단말(T) 자체에 내장된 소프트웨어 모듈(MZG)에 의해 실행될 수 있다.
바람직하게, 통신 단말의 위치는 위치 확인 디바이스에 의해 자동적으로 결정된다. 이 위치 확인 디바이스는 단말 자체에 내장된 GPS(Global Positioning System) 시스템일 수 있지만, 다른 기술들이 또한 예상될 수 있다. 예를 들어, 소프트웨어 모듈은 또한 공지된 기지국들의 위치 및 삼각 측량 알고리즘(triangulation algorithm)으로부터 위치를 계산하도록 설계될 수 있다.
그리고 지리적 구역은 이 위치 및 통신 단말에 의해 그려진 커브와 관련하여 결정될 수 있다.
하나의 구현에 따라서, 사용자는 공간에 커브를 그리도록 그 또는 그녀의 모바일 단말을 사용한다. 지리적 구역은 이 커브에 의해 결정된다. 이러한 구현은 도 3a에 도시되어 있다. 사용자(U)는 그 또는 그녀의 단말(T)로 커브(C)를 그린다. 커브는 다양한 기술들을 사용하여 소프트웨어 모듈(MZG)에 의해 결정될 수 있다. 특히, 모바일 단말은 공간에서 실제로 그려진 커브의 양호한 추정을 결정하도록 동작(motion) 센서를 가질 수 있다.
실제 커브의 근사치(C)를 결정하도록 이동의 시작 및 마지막에 단말의 위치만을 고려하는 것이 또한 가능하다. 또한 이 커브(C)는 이 2개의 위치들을 연결하는 직선일 수 있거나 또는 잠재적으로 이 2개의 종점들(end point) 및 전형적인 손을 사용한 이동의 모델로부터 결정되는 커브(C)일 수 있다.
이 커브(C)로부터, 지리적 구역이 결정될 수 있다.
이 예에서, 지리적 구조(ZG)는 2개의 실린더형 섹션들 사이에 있는 볼륨이다. 2개의 실린더들(C1 및 C2)은 커브(C)의 중앙에 놓이게 된다. 내부 실린더(C1)의 직경은 커브(C)의 중앙과 모바일 단말(T)의 지리적 위치 사이에서 계산되거나 또는 추정되는 거리일 수 있다. 외부 실린더(C2)의 직경은 설정 가능할 수 있다.
다른 지리적 구역의 형태들도 물론 가능하고, 사용된 형태는 잠재적으로 사용자에 의해 선택될 수 있다.
제한된 공간에서의 사용을 위해, 지리적 구역(ZG)은 공간의 물리적인 제한 이외에 어떠한 다른 마커들(marker)도 갖지 않을 수 있다. 도 3a의 예에서, 지리적 구역(ZG)은 외부 실린더(C2)에 의해 제한되지 않을 수도 있지만 룸(room) 내의 공간에 의해 (말하자면, 사용자의 뒤에 있다고 추측할 수 있는 가구 또는 벽에 의해) 제한될 수 있다.
사용자가 지리적 구역을 캡처하는(capture) 것을 돕기 위해서, 모바일 단말은 실시간으로 스크린 상에 결정된 지리적 구역을 디스플레이할 수 있다. 따라서, 사용자는 그 또는 그녀가 이동하면서 그 또는 그녀가 공간의 어떤 부분을 캡처하는 지에 대해 정확히 알 수 있다. 도 3b는 도 3a의 통신 단말과 동일한 장면을 보여주는 스크린(E)을 구비한 통신 단말(T)을 도시한다. 이 장면은 단말(T) 내에 통합된 비디오 카메라를 사용하여 캡처하였다. 이 장면을 오버레이함(overlay)으로써, 지리적 구역(ZG)이 또한 보여지고, 예를 들어, 그레이-아웃된(greyed-out) 영역의 형태에서, 사용자가 지리적 구역(ZG)이 실제로 그 또는 그녀의 의도에 대응하는지를 보여줄 수 있다. 따라서 사용자는 사용자의 이동을 조정할 수 있고 이상적인 구역을 캡처하기 위해 언제 멈춰야 하는지를 알 수 있다.
지리적 구역(ZG)은 통신 단말(T) 또는 사용자(U)에 연결된 메모리 내에 기억될 수 있다. 이 방법으로, 단말 및/또는 사용자가 동일한 상황에 직면할 때 상기 단계들을 다시 실행할 필요 없이, 동일한 지리적 구역(ZG)을 재사용하는 것이 가능하다. 따라서 지리적 구역을 결정하는 단계는 현재 상황에 대응하는 상황에 대한 메모리를 검색하는 단계로 구성될 수 있다.
예를 들어, 사용자가 그 또는 그녀의 책상에 앉을 때, 그 또는 그녀 주위에 있는 보다 많은 또는 보다 적은 동일한 리얼 오브젝트들이 있는 항상 동일한 위치에서, 지리적 구역(ZG)은 사용자의 프로파일로부터 직접 리커버링(recover)될 수 있다.
지리적 구역들(ZG)이 통신 네트워크 상의 데이터베이스에서 나타날 수 있기 때문에, 지리적 구역들(ZG)은 통신 단말(따라서, 단말은 사용자가 그 또는 그녀의 책상에 있는지를 앎)의 위치에 의해 또는 사용자의 프로파일 내의 다른 정보에 의해, 특히 사용자의 상태에 의해 표시될(index) 수 있다.
리얼 오브젝트들에 대하여, 리얼 오브젝트들은 리얼 오브젝트들의 상태가 동일한 지리적 영역에 대한 2번의 방문들(visit) 사이에 변화될 수 있는 센스(sense)(턴 오프된 오브젝트들, 다 쓴 배터리 또는 가능하게는 새로운 오브젝트의 설치)로 재결정될 수 있다.
액티브 리얼 오브젝트 세트를 결정
이어서 발명의 방법은 사전 결정된 지리적 구역 내에 위치된 액티브 리얼 오브젝트 세트를 결정하는 단계로 구성되는 제 2 단계를 포함한다. 이 액티브 리얼 오브젝트들은 통신 네트워크와 통신 인터페이스를 갖는다.
이 제 2 단계는 단말(T) 자체에 내장된 소프트웨어 모듈(MOR)에 의해 실행될 수 있다.
여기서 "액티브" 오브젝트는 통신 네트워크와 실제로 통신할 수 있는 리얼 오브젝트이다. 이렇게 함으로써, 몇몇의 오브젝트들은 전원에 연결되고, 전원이 켜지거나 또는 적절하게 구성될 필요가 있을 수 있다.
액티브 리얼 오브젝트들을 결정하는 단계 및 지리적 구역의 범위를 정하는 단계는 계속해서 실행될 수 있다. 지리적 구역의 범위가 정해지기 때문에, 대응하는 액티브 오브젝트들이 결정되고 따라서 사용자에게 보일 수 있어, 그 또는 그녀는 지리적 구역의 범위에 따라 동적으로 행동할 수 있다. 충분한 수의 "캡처된" 리얼 오브젝트들이 있다면, 그 또는 그녀는 지리적 구역의 범위 결정을 종료할 수 있고 또는 충분한 수가 없다면, 그 또는 그녀는 만족스러운 결과가 달성될 때까지 범위 결정을 계속할 수 있다. 따라서 이 구현은 사용자가 반드시 그 또는 그녀의 모든 환경을 커버(cover)하기를 바라지 않지만, 오히려 특정한 적용들을 실행하도록 충분한 환경을 빠르게 얻기를 원하는, 상황에서 시간을 절약할 수 있다.
도 3a의 예에서, 그 또는 그녀는 액티브 리얼 오브젝트들의 충분한 수가 탐지될 때까지 커브(C)를 그릴 수 있다.
이 리얼 오브젝트들은 다양한 방법들로 사용자에게 보일 수 있다.
예를 들어, 리얼 오브젝트들은 (사용자에 의해 구성된 설명일 수 있는) 식별자, 타입, 잠재적으로 그래픽 아이콘 등을 보여주는 리스트의 형태로 보일 수 있다. 이 리스트는 모바일 단말(T)이 커브(C)를 따라 나아가기 때문에 동적으로 업데이트될 수 있다.
또한 증강 현실 메커니즘을 사용하는 이 부분의 액티브 오브젝트들을 나타내는, 단말(T)의 스크린(E) 상에 지리적 구역(ZG)의 적어도 일부를 디스플레이할 수 있다. 구체적으로, 도 3b의 예에서, 스크린(E)은 단말(T)에 통합된 비디오 카메라(또는 잠재적으로 디지털 카메라)에 의해 캡처되는 바와 같은 환경을 보여준다. 이 현실 뷰(view) 상의 오버레이처럼, 인간 대 머신 인터페이스는 지리적 구역(ZG)(또는 이 지리적 구역의 일부) 및 탐지된 액티브 리얼 오브젝트들의 위치들을 보여주는 지표 사인들(SI)을 보여줄 수 있다.
이 지표 사인들(SI)은 액티브 리얼 오브젝트가 있는지를 간단히 보여줄 수 있거나 또는 예를 들어 오브젝트의 유형을 나타냄으로써, 추가 의미의 정보를 제공할 수 있다. 이 지표 사인들(SI)은 아이콘들 또는 다른 그래픽 심볼들일 수 있다.
존재하는 액티브 리얼 오브젝트들을 결정하도록, 몇몇의 구현들이 가능하다.
데이터베이스(DB1)는 이용 가능한 리얼 오브젝트들에 참조사항을 달도록 제공될 수 있다. 이 데이터베이스는 리얼 오브젝트들과 리얼 오브젝트들의 지리적 위치를 연결할 수 있다. 예를 들어 리얼 오브젝트 식별자들과 특성들(제공되는 유형들, 어빌리티들 등), 상태들(액티브한 상태/액티브하지 않은 상태) 및 지리적 위치들을 연결하는 기록들을 포함할 수 있다.
지리적 위치는 경도/위도 쌍으로 구성될 수 있다. 지리적 위치는 또한 고도를 포함할 수 있다.
이어서, 지리적 구역(ZG)의 특성들을 포함하는 데이터베이스(DB1)에 대한 쿼리를 전송함으로써 액티브 리얼 오브젝트 세트를 결정할 수 있다. 검색 엔진(search engine)은 예를 들어 데이터베이스(DB1)에 존재하는 리얼 오브젝트들의 지리적 위치들과 지리적 구역(ZG)을 비교할 수 있다.
지리적 구역(ZG)이 단말(T)에 의해 트레이스된(traced) 커브(C)에 의해 결정된다면, 이러한 쿼리는 이동의 마지막이 탐지되고 지리적 구역(ZG)이 완전히 결정된 후에 전송될 수 있다. 대안적으로, 쿼리는 실시간으로 사용자에게 탐지된 리얼 오브젝트들을 보여주도록 각각의 시간 할당량(time quantum)으로 전송될 수 있다.
최적화를 위해서, 가능한 지리적 구역들의 슈퍼세트(superset)를 형성하는 광역(global) 지리적 구역에 기초하여 프로세스의 시작에서 일반적인 데이터베이스(DB1)의 제 1 쿼리를 실행하는 것이 또한 설계될 수 있다. 도 3a의 예의 경우에, 이 광역 구역은 커브(C)에 상관없이, 완전한 룸일 수 있고, 지리적 구역(ZG)은 룸의 범위들을 절대 초과할 수 없다. 그리고 검색 엔진은 이 제 1 쿼리의 결과들 상에서 오직 그 쿼리들을 실행할 수 있다. 이 구현은 탐지된 액티브 리얼 오브젝트들이 스크린(E) 상에 실시간으로 보일 때 특히 흥미롭다.
애플리케이션 식별
발명의 방법은 결정되었던 액티브 리얼 오브젝트들에 대한 애플리케이션을 식별하는 단계로 구성되는 제 3 단계를 포함한다. 이 단계는 통신 단말(T)에 내장된 제 3 모듈(MIA)에 의해 실행될 수 있다.
이 애플리케이션 식별 모듈(MIA)은 제 2 데이터베이스(DB2)에 쿼리할 수 있다. 이 데이터베이스는 이용 가능한 애플리케이션들과 요구된 조건들을 연결할 수 있다.
데이터베이스(DB2)는 오직 통신 단말(T) 상에 이미 설치된 소프트웨어 애플리케이션들을 커버할 수 있다. 이 구성에서, 데이터베이스(DB2)는 단말(T) 자체에 내장될 수 있다. 이 구현은 사용자가 그 또는 그녀가 주어진 시간에 그 또는 그녀 자신을 찾는 맥락에 따라 그 또는 그녀 자신의 잘 식별된 애플리케이션들을 구현할 수 있다.
대안적으로, 데이터베이스(DB2)는 통신 단말(T)로부터 분리될 수 있고 이용 가능한 소프트웨어 애플리케이션들의 더 큰 세트를 포함할 수 있다. 이는 도 1에 도시된 구현이다. 따라서 목적은 그 또는 그녀가 반드시 언제나 사용하지 못하지만 (그리고 그 또는 그녀가 알지 못할 수 있는) 탐지된 리얼 오브젝트들로 실행될 수 있는 소프트웨어 애플리케이션들을 사용자에게 제공하는 것이다.
더 구체적으로, 데이터베이스(DB2)는 소프트웨어 애플리케이션들의 설명들 및 특히 그것들이 요구하는 조건들을 포함할 수 있다.
하나의 실시예에서, 이 요구된 조건들은 2개의 유형들로 구성될 수 있다: 들어오는 정보 흐름을 요구하는 인터페이스 입력 포인트들 및 나가는 정보 흐름을 전송하는 어빌리티을 요구하는 인터페이스 출력 포인트들.
대안적으로, 요구된 조건들은 애플리케이션을 실행하도록 존재해야하는(또는 잠재적으로 옵션들로서) 오브젝트들의 유형들일 수 있다.
이 설명들은 애플리케이션들에 대한 다른 정보를 또한 포함할 수 있다. 이 정보의 몇몇은 사용자가 애플리케이션을 식별하는 것을 돕도록 또는 그것을 설치하거나 또는 선택하는지를 결정하기 위한 몇몇의 정보를 갖도록 사용자(U)에게 보이도록 설계될 수 있다.
설명들은 예를 들어 아래의 간소화한 예와 같이 XML 언어(Extensible Markup Language) 내에 있을 수 있다.
<application id="lift">
<attrs>
<attr name="state"><value>disable</value></attr>
<attr name="configured"><value>no</value></attr>
<attr name="name"><value>Lift Application</value></attr>
<attr name="image"><value>appli_lift.png</value></attr>
<attr name="description"><value>리프트 애플리케이션(Lift Application)은 당신이 발신자의 이름을 스크린을 통해 알고 당신의 전화기가 울릴 때 램프가 번쩍이도록 한다</value> </attr>
<attr name="creator"><value>Monique</value></attr>
<attr name="rate"><value>4.5</value></attr>
<attr name="price"><value>$2</value></attr>
<attr name="nbvo"><value>3</value></attr>
<attr name="vo_l_kind"><value>
<div class="rwobject"><span class
="kind">phone</span></div>
</value></attr>
<attr name="vo_2_kind"><value>
<div class="rwobject"><span class
= "kind">lamp</span></div>
</value></attr>
<attr name="vo_3_kind"><value>
<div class="rwobject">< span class
= "kind">screen</span></div>
</value></attr>
</attrs>
< application >
이 예는 걸려오는 전화 통화를 수신할 때 램프를 번쩍이게 하고 스크린 상에 발신자의 이름을 디스플레이하는 "Lift"로 지칭되는 애플리케이션의 설명이다.
그러므로, 이 애플리케이션은 최종 3개의 <attr> 특질들로 나타낼 수 있는 바와 같이, 3개의 리얼 오브젝트들을 활성화시킨다: 전화기("phone"), 램프("lamp") 및 스크린("screen"). 상기 특질들은 애플리케이션 이름, 그 제작자의 이름, 이미지 및 설명서(단말(T)의 스크린 상에 디스플레이되도록 설계된), 그 가격 등과 같은 다른 정보를 제공한다.
애플리케이션 설명서의 다른 구현들은 이 특허 출원을 참조로 하여 통합되는, 2011년 1월 10일 출원된 특허 출원 제 1150178호에 제공된다.
애플리케이션 식별 모듈(MIA)은 애플리케이션 또는 애플리케이션들을 결정하도록 3개의 설명서들을 사용할 수 있고 애플리케이션 또는 애플리케이션들의 요구된 조건들은 사전 결정된 리얼 오브젝트들에 의해 제공된 어빌리티들에 대응한다.
상기 예를 계속하도록, 전화기, 램프 및 스크린이 활성화되고 지리적 구역 내에 위치되는 것이 결정되었다면, "Lift" 애플리케이션은 사용자(U)에게 제시될 것이다.
이렇게 하도록, 애플리케이션 설명서들 내의 식별자들은 리얼 오브젝트들에 대한 어빌리티 식별자들(ability identifier)에 대해 맵핑될(mapped) 수 있다. 어빌리티 식별자들은 데이터베이스(DB1) 내에 저장될 수 있고 쿼리될 수 있다. 대안적으로, 탐지된 오브젝트들의 어빌리티들을 복귀하도록 적합한 인터페이스를 갖는 탐지된 오브젝트들을 직접 쿼리하는 것이 또한 가능하다.
맵핑(mapping)은 온톨로지들(ontology)을 사용하여 실행될 수 있다. 이 온톨로지들은 용어에서의 차이점들을 극복하는 것을 도울 수 있다. 언어, 제작자 등에 따라, 유사한 오브젝트들은 다른 설명서들을 가질 수 있고; 애플리케이션들은 또한 다른 용어들을 사용하여 그것들의 요구된 조건들을 나타낼 수 있다. 그러므로 애플리케이션들의 의미 가치에 따라 설명서들을 맵핑하는 것이 필요하다.
이 온톨로지들은 웹 상에서 이용할 수 있거나 또는 통신 단말(T)에 국소적으로 내장될 수 있다. 후자의 경우에, 업데이트들(update)은 업그레이드들(upgrade), 새로운 제작자들, 새로운 장비, 새로운 애플리케이션 등을 포함할 계획이 있을 수 있다.
온톨로지들은 다양한 모델들, 특히 RDF 스키마(schema) 또는 W3C(WWW Consortium)에 의한 작업에서 나오는 OWL에 따라, 다양한 방식들로 설명될 수 있다.
여기서 다시, 특허 출원 제 1150178호는 더 상세히 다양한 가능한 메커니즘들을 설명한다.
이 방식으로, 애플리케이션 식별 모듈은 애플리케이션 세트를 결정할 수 있고 애플리케이션들의 요구된 조건들은 탐지된 리얼 오브젝트들에 의해 제공된 어빌리티들에 대응한다.
이 세트는 사용자가 하나(또는 그 이상)의 애플리케이션(들)을 선택할 수 있도록 모바일 단말 사용자(U)에게 보일 수 있다. 이것들은 잠재적으로 아이콘 또는 그래픽 표시를 갖는, 애플리케이션 이름들을 보여주는 통신 단말(T)의 스크린(E) 상에 리스트의 형태로 보일 수 있다.
애플리케이션들은 인터넷 클라우드(internet cloud) 내의 애플리케이션들로부터 분리된 통신 단말(T) 상에 이미 설치된 애플리케이션들을 사용자에게 보여주도록 분류될 수 있다.
애플리케이션 인터페이싱( interfacing )
마지막으로, 발명의 방법은 소프트웨어 애플리케이션과 액티브 리얼 오브젝트들을 인터페이싱하는 단계로 구성된 제 4 단계를 포함한다.
이 단계는 모바일 단말(T) 상에서 프로세싱 수단(TRT) 내의 애플리케이션 인터페이싱 모듈(MDA)에 의해 부분적으로 구현될 수 있다.
선택된 애플리케이션(또는 선택된 애플리케이션들)은 선택된 애플리케이션(또는 선택된 애플리케이션들)과 탐지된 액티브 리얼 오브젝트 세트의 서브세트를 인터페이싱함으로써 구현될 수 있다. 사실상, 동일한 유형의 몇몇의 액티브 리얼 오브젝트들이 오직 하나가 발명을 구현하는 데 필수적인 한, 탐지될 수 있다는 것이 전적으로 가능하다. 상술된 "리프트(lift)" 애플리케이션을 사용하는 예에서, 예를 들어 애플리케이션이 오직 하나의 플래시(flash)를 만들 필요가 있는 한 이용 가능한 몇몇의 램프들이 있을 수 있다.
따라서 거리 기준을 사용하여 이 서브세트를 결정하는 것이 가능하다. 애플리케이션 인터페이싱 모듈(MDA)은 사실상 통신 단말(T) 및 탐지된 리얼 오브젝트들의 각각 사이의 거리를 계산할 수 있고 주어진 유형의 가장 가까운 리얼 오브젝트를 결정할 수 있다. 따라서 가장 가까운 오브젝트가 선호된다는 것을 결정하는 것이 가능하고, 이는 최대의 가시성 및 사용자(U)에 대한 선험적인(priori) 검색 어빌리티을 제공하는 선택이다.
사용자(U)의 프로파일에 연결된 기준을 사용하여 이 서브세트를 결정하는 것이 또한 가능하다. 애플리케이션 인터페이싱 모듈(MDA)은 사용자(U)의 선호도들을 조사하고 특히 그 또는 그녀의 가장 좋아하는 오브젝트들을 식별하도록 사용자 프로파일들의 데이터베이스에 쿼리할 수 있다. 이 가장 좋아하는 오브젝트들은 개인적으로 결정될 수 있다: 예를 들어, 집에 있을 때, 사용자(U)는 심지어 그것이 가장 가까운 것이 아닐지라도 특정한 램프, 항상 동일한 램프, 플래시를 갖는 것을 선호할 수 있다. 선호도는 또한 오브젝트들의 카테고리를 커버할(cover) 수 있다.
물론, 예를 들어, 가장 적은 에너지를 소비하는 오브젝트의 선택과 같은 다른 가능성들이 가능하다.
도 4는 사용자(U)가 맵핑 애플리케이션을 사용하는 구현을 도시한다.
따라서 지리적 구역의 범위 결정은 지도 상의 경로를 결정하는 것에 의해 실행될 수 있다. 이 결정은 단말(T)의 실제 이동 전에 실행될 수 있다.
이어서 액티브 리얼 오브젝트 세트를 결정하는 단계, 애플리케이션을 식별하는 단계 및 이 애플리케이션과 인터페이싱하는 단계가 이 경로를 따라 단말의 위치에 관하여 실행된다.
예를 들어, 이 단계들은 주기적으로 실행될 수 있다: 각각의 주기에서, 단말(T)의 위치는 다시 계산되고, 이 단계들의 시퀀스를 트리거링(trigger)한다.
가능성이 있는 것들 사이로부터의 애플리케이션이 사용될 액티브 리얼 오브젝트들의 선택에 대해, 가능하다면, 이미 사용된 액티브 리얼 오브젝트들을 절약하는 것이 흥미로울 수 있다. 따라서, 가장 가까운 오브젝트를 사용하기보다는, 오브젝트가 논의가 되고 있는 지리적 구역에서 더 이상 있지 않을 때까지 또는 오브젝트의 거리가 새로운 오브젝트에 관한 특정한 임계치를 초과할 때까지 전에 사용되었던 오브젝트를 사용할 수 있다. 이 구현은 오래된 오브젝트가 너무 멀리 떨어져 있을 때 새로운 오브젝트로 바꿀 수 있지만, 또한 하나의 오브젝트로부터 다른 오브젝트로 너무 자주 바꾸는 것을 회피한다는 점이 중요하다. 또한, 이동 방향은 사용자의 뒤보다는 오히려 사용자(U) 앞의 오브젝트의 선택을 선호한다는 것이 고려될 수 있다.

Claims (18)

  1. 적어도 하나의 리얼 오브젝트(O1, O2, O3, O4, O5, O6)를 사용하여 통신 단말(T)로부터 액세스할 수 있는 소프트웨어 애플리케이션을 실행하는 방법에 있어서,
    ● 상기 통신 단말로 공간에 커브(C)를 그리는(describe) 단계와,
    ● 상기 커브에 기초하여 지리적 구역(ZG)을 식별하는 단계와,
    ● 통신 네트워크와 통신 인터페이스(interface)를 갖는 상기 지리적 구역 내에 위치된 액티브 리얼 오브젝트 세트를 결정하는 단계와,
    ● 요구된 조건들과 이용 가능한 애플리케이션들을 연관시키는 제 2 데이터베이스에 쿼리(querying)하는 것에 의해 및 연관된 요구된 조건들이 상기 세트 내의 리얼 오브젝트들에 의해 제공되는 어빌리티들(abilities)에 대응하는 애플리케이션 세트의 결정에 의해, 상기 액티브 리얼 오브젝트들 중에서 애플리케이션을 식별하는 단계와,
    ● 상기 애플리케이션과 상기 액티브 리얼 오브젝트들을 인터페이스시키는 단계를 포함하는, 소프트웨어 애플리케이션 실행 방법.
  2. 제 1 항에 있어서,
    범위 결정(delimitation) 단계는 위치 확인 디바이스(locating device)를 사용하여 상기 통신 단말의 위치를 자동으로 결정하는 단계 및 상기 위치와 관련하여 상기 지리적 구역을 결정하는 단계로 구성되는, 소프트웨어 애플리케이션 실행 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 통신 단말은 실시간으로 스크린 상에 결정되는 상기 지리적 구역을 디스플레이할 수 있는, 소프트웨어 애플리케이션 실행 방법.
  4. 제 3 항에 있어서,
    상기 범위 결정 단계 및 결정 단계가 계속해서 동시에 실행되어, 상기 단말은 상기 스크린 상에 결정되는 상기 지리적 구역 내의 상기 액티브 리얼 오브젝트들을 디스플레이하는, 소프트웨어 애플리케이션 실행 방법.
  5. 제 1 항 또는 제 2 항에 있어서,
    상기 결정 단계는 상기 리얼 오브젝트들과 지리적 위치들을 연관시키는 제 1 데이터베이스에 쿼리(querying)하는 단계 및 상기 데이터베이스 내의 연관된 지리적 위치들과 상기 지리적 구역을 비교하여 상기 액티브 리얼 오브젝트 세트를 결정하는 단계로 구성되는, 소프트웨어 애플리케이션 실행 방법.
  6. 제 1 항 또는 제 2 항에 있어서,
    상기 단말은 스크린 상에 상기 지리적 구역의 적어도 일부를 디스플레이할 수 있고 증강 현실 메커니즘(augmented reality mechanism)을 사용하여 구역의 적어도 일부에 대응하는 상기 액티브 리얼 오브젝트 세트 중에서의 액티브 리얼 오브젝트들을 보여줄 수 있는, 소프트웨어 애플리케이션 실행 방법.
  7. 삭제
  8. 제 1 항에 있어서,
    상기 오브젝트들의 어빌리티들에 대응하는 상기 애플리케이션들에 대한 요구된 조건들을 결정하도록 온톨로지(ontology)를 사용하는 것이 가능한, 소프트웨어 애플리케이션 실행 방법.
  9. 제 1 항에 있어서,
    상기 애플리케이션 세트는 사용자가 상기 애플리케이션 세트 중에서 하나의 애플리케이션을 선택하는 것을 돕도록 상기 통신 단말의 사용자에게 제공되는, 소프트웨어 애플리케이션 실행 방법.
  10. 제 9 항에 있어서,
    상기 애플리케이션 세트는 상기 통신 단말의 스크린에 디스플레이되는, 소프트웨어 애플리케이션 실행 방법.
  11. 제 8 항에 있어서,
    상기 제 2 데이터베이스는 상기 통신 단말에 현재 설치된 애플리케이션 세트로부터 형성되는, 소프트웨어 애플리케이션 실행 방법.
  12. 제 8 항에 있어서,
    상기 제 2 데이터베이스는 적어도 하나의 애플리케이션 서버(server)에서 이용 가능한 애플리케이션들을 포함하는, 소프트웨어 애플리케이션 실행 방법.
  13. 제 1 항 또는 제 2 항에 있어서,
    상기 애플리케이션은 상기 액티브 리얼 오브젝트 세트의 서브세트(subset)를 사용하여 실행되고, 상기 서브세트는 상기 통신 단말의 위치로부터의 거리 기준에 의해 결정되는, 소프트웨어 애플리케이션 실행 방법.
  14. 제 1 항 또는 제 2 항에 있어서,
    상기 애플리케이션은 상기 액티브 리얼 오브젝트 세트의 서브세트를 사용하여 실행되고, 상기 서브세트는 상기 통신 단말의 사용자의 프로파일(profile)과 관련된 기준에 의해 결정되는, 소프트웨어 애플리케이션 실행 방법.
  15. 제 1 항 또는 제 2 항에 있어서,
    상기 범위 결정 단계는 경로를 결정하여 실행되고, 이 때 상기 결정 단계, 상기 식별 단계 및 상기 인터페이스 단계는 상기 경로를 따라 상기 통신 단말의 위치와 관계되어 실행되는, 소프트웨어 애플리케이션 실행 방법.
  16. 소프트웨어 애플리케이션들을 사용할 수 있도록 설계된 프로세싱 수단(TRT)을 구비하고 통신 네트워크(N)와 통신하기 위한 인터페이스(INT)를 구비한 통신 단말(T)에 있어서,
    상기 프로세싱 수단은 적어도:
    ● 상기 통신 단말에 의해 공간에 그려진 커브에 기초하여 지리적 구역(ZG)의 범위를 정하도록 설계된 제 1 모듈(MZG)과,
    ● 상기 지리적 구역 내에 위치된 액티브 리얼 오브젝트들(O1, O2)의 세트를 결정하도록 설계되고 상기 통신 네트워크와 통신 인터페이스(Int1, Int2)를 갖는 제 2 모듈(MOR)과,
    ● 요구된 조건들과 이용 가능한 애플리케이션들을 연관시키는 제 2 데이터베이스에 쿼리하는 것에 의해 및 연관된 요구된 조건들이 상기 세트 내의 리얼 오브젝트들에 의해 제공되는 어빌리티들에 대응하는 애플리케이션 세트의 결정에 의해, 상기 액티브 리얼 오브젝트들과 관련하여 애플리케이션을 식별하도록 설계된 제 3 모듈(MIA)과,
    ● 상기 애플리케이션을 사전 결정된 액티브 리얼 오브젝트들에 인터페이스하도록 설계된 제 4 모듈(MDA)을 포함하는, 통신 단말(T).
  17. 통신 단말(T)에 대한 인간 대 머신 인터페이스(man-machine interface)에 있어서,
    상기 통신 단말에 의해 공간에 그려진 커브 및 상기 통신 단말의 위치로부터 결정되는 지리적 구역 내에 위치된 액티브 리얼 오브젝트 세트 내의 액티브 리얼 오브젝트들 상에서 실행될 수 있는 이용 가능한 애플리케이션들의 리스트를 디스플레이하는 수단을 갖는 스크린(E) 및 사용자(U)가 상기 리스트로부터 애플리케이션을 선택하고 상기 애플리케이션과 상기 사전 결정된 액티브 리얼 오브젝트들 사이의 인터페이스를 시작할 수 있도록 하는 인터랙션(interaction) 수단을 포함하고, 상기 애플리케이션은 요구된 조건들과 이용 가능한 애플리케이션들을 연관시키는 제 2 데이터베이스에 쿼리하는 것에 의해 및 연관된 요구된 조건들이 상기 세트 내의 리얼 오브젝트들에 의해 제공되는 어빌리티들에 대응하는 애플리케이션 세트의 결정에 의해 식별되는, 인간 대 머신 인터페이스.
  18. 제 1 항 또는 제 2 항에 따른 방법을 구현하기 위한 적합한 소프트웨어 자원들을 포함하는, 컴퓨터 프로그램이 저장된, 컴퓨터-판독 가능 기록 매체.
KR1020137023608A 2011-02-11 2012-02-09 소프트웨어 애플리케이션을 실행하기 위한 액티브 리얼 오브젝트들의 결정 KR101491997B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1151105 2011-02-11
FR1151105A FR2971657A1 (fr) 2011-02-11 2011-02-11 Determination d'objets reels actifs pour mise en œuvre d'une application logicielle
PCT/EP2012/052200 WO2012107517A1 (en) 2011-02-11 2012-02-09 Determining active real objects for running a software application

Publications (2)

Publication Number Publication Date
KR20130129277A KR20130129277A (ko) 2013-11-27
KR101491997B1 true KR101491997B1 (ko) 2015-02-10

Family

ID=45688460

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137023608A KR101491997B1 (ko) 2011-02-11 2012-02-09 소프트웨어 애플리케이션을 실행하기 위한 액티브 리얼 오브젝트들의 결정

Country Status (7)

Country Link
US (1) US10372307B2 (ko)
EP (1) EP2673940B1 (ko)
JP (1) JP5814386B2 (ko)
KR (1) KR101491997B1 (ko)
CN (1) CN103370922B (ko)
FR (1) FR2971657A1 (ko)
WO (1) WO2012107517A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2820576A4 (en) * 2012-02-29 2015-11-18 Nokia Technologies Oy METHOD AND DEVICE FOR PRESENTING OBJECTS AT A USER INTERFACE
KR101558236B1 (ko) * 2012-10-16 2015-10-12 전자부품연구원 IoT 브라우징 방법 및 장치
US9924102B2 (en) * 2013-03-14 2018-03-20 Qualcomm Incorporated Image-based application launcher
US9400943B2 (en) * 2013-08-02 2016-07-26 Qualcomm Incorporated Identifying IoT devices/objects/people using out-of-band signaling/metadata in conjunction with optical images
FR3015711A1 (fr) * 2013-12-23 2015-06-26 Orange Procede d'interaction entre un premier objet numerique et au moins un deuxieme objet numerique et systeme d'interaction.
US9989942B2 (en) 2013-12-30 2018-06-05 Qualcomm Incorporated Preemptively triggering a device action in an Internet of Things (IoT) environment based on a motion-based prediction of a user initiating the device action
US10009311B2 (en) 2014-03-28 2018-06-26 Alcatel Lucent Chat-based support of multiple communication interaction types
KR102226820B1 (ko) * 2014-08-20 2021-03-11 삼성전자주식회사 데이터 공유 방법 및 그 전자 장치
KR20170055295A (ko) 2015-11-11 2017-05-19 엘지전자 주식회사 이동 단말기 및 그 이동 단말기의 제어 방법
US10757110B2 (en) * 2016-12-21 2020-08-25 Microsoft Technology Licensing, Llc Generation of application allowed lists for machines
US10325409B2 (en) 2017-06-16 2019-06-18 Microsoft Technology Licensing, Llc Object holographic augmentation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090319181A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Data services based on gesture and location information of device

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2900361A (en) 1955-04-06 1959-08-18 Dow Chemical Co Dibenzoyl resorcinol light stabilizer
US6868292B2 (en) * 2000-09-14 2005-03-15 The Directv Group, Inc. Device control via digitally stored program content
US7024256B2 (en) 2002-06-27 2006-04-04 Openpeak Inc. Method, system, and computer program product for automatically managing components within a controlled environment
AU2003280158A1 (en) * 2002-12-04 2004-06-23 Koninklijke Philips Electronics N.V. Recommendation of video content based on the user profile of users with similar viewing habits
JP4903054B2 (ja) 2003-12-31 2012-03-21 オープンピーク インコーポレイテッド 制御環境内のコンポーネントを自動的に管理するための方法、システムおよびコンピュータプログラム製品
US20090315766A1 (en) * 2008-06-19 2009-12-24 Microsoft Corporation Source switching for devices supporting dynamic direction information
FR2939996B1 (fr) * 2008-12-15 2016-12-30 Anyware Tech Plateforme de gestion d'une pluralite d'objets communicants, procede, produit programme d'ordinateur et moyen de stockage correspondants
CA2748024A1 (en) * 2008-12-22 2010-07-01 Intelligent Spatial Technologies, Inc. System and method for exploring 3d scenes by pointing at a reference object
US8554924B2 (en) * 2009-03-16 2013-10-08 Apple Inc. Connection to multiple accessories with multiple accessory-specific protocols
US8346847B2 (en) * 2009-06-03 2013-01-01 Apple Inc. Installing applications based on a seed application from a separate device
EP2441053B1 (en) * 2009-06-10 2018-08-08 Hexagon Technology Center GmbH Ontological filtering using spatial boundary of 3d objects
CN101854739A (zh) 2010-06-04 2010-10-06 武汉大吉软件技术有限公司 个人物联网系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090319181A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Data services based on gesture and location information of device

Also Published As

Publication number Publication date
FR2971657A1 (fr) 2012-08-17
CN103370922A (zh) 2013-10-23
KR20130129277A (ko) 2013-11-27
EP2673940A1 (en) 2013-12-18
US20140040829A1 (en) 2014-02-06
EP2673940B1 (en) 2018-06-27
JP5814386B2 (ja) 2015-11-17
JP2014511523A (ja) 2014-05-15
WO2012107517A1 (en) 2012-08-16
CN103370922B (zh) 2017-03-01
US10372307B2 (en) 2019-08-06

Similar Documents

Publication Publication Date Title
KR101491997B1 (ko) 소프트웨어 애플리케이션을 실행하기 위한 액티브 리얼 오브젝트들의 결정
US8571580B2 (en) Displaying the location of individuals on an interactive map display on a mobile communication device
US8909629B2 (en) Personalized location tags
JP6115919B2 (ja) デバイス制御方法及び装置、並びにコンピュータで読み取り可能な記録媒体
US20070282621A1 (en) Mobile dating system incorporating user location information
US20070281690A1 (en) Displaying and tagging places of interest on location-aware mobile communication devices in a local area network
US20070281716A1 (en) Message transmission system for users of location-aware mobile communication devices in a local area network
EP2763094A1 (en) Method of displaying user interface on device, and device
Mainetti et al. An IoT-based user-centric ecosystem for heterogeneous smart home environments
US10768796B2 (en) Method of displaying user interface on device, and device
CN103475933B (zh) 一种智能显示终端的频道搜索方法、装置和设备
Mainetti et al. A location-aware architecture for heterogeneous building automation systems
US20130019185A1 (en) Method, Devices and a System for Communication
JP6448901B2 (ja) トポロジーに基づいた周辺機器制御システム及び方法
US20140280516A1 (en) System of dynamic information relay using geolocational data
EP2637381B1 (en) Method of filtering applications
La Torre et al. A context-aware solution to improve web service discovery and user-service interaction
KR101653975B1 (ko) 맵 표현을 이용하는 소프트웨어 애플리케이션의 론칭
Foerster et al. Discovering the sensor web through mobile applications
Guo et al. iCROSS: toward a scalable infrastructure for cross-domain context management
JP2005078565A (ja) 電子検索プログラム、電子検索プログラムを利用した仮想電子世界システム及び電子検索プログラムを記憶した媒体並びに電子世界利用プログラム及びそのプログラムを記憶した媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180126

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190116

Year of fee payment: 5