KR20180110644A - Sensor information processing method and system between virtual world and real world - Google Patents
Sensor information processing method and system between virtual world and real world Download PDFInfo
- Publication number
- KR20180110644A KR20180110644A KR1020180036866A KR20180036866A KR20180110644A KR 20180110644 A KR20180110644 A KR 20180110644A KR 1020180036866 A KR1020180036866 A KR 1020180036866A KR 20180036866 A KR20180036866 A KR 20180036866A KR 20180110644 A KR20180110644 A KR 20180110644A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor
- type
- flag
- range
- camera
- Prior art date
Links
Images
Classifications
-
- H04L67/2823—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/565—Conversion or adaptation of application format or content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H04L67/2804—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/561—Adding application-functional data or data for application control, e.g. adding metadata
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/233—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/233—Processing of audio elementary streams
- H04N21/2335—Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/23614—Multiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2362—Generation or processing of Service Information [SI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2368—Multiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Library & Information Science (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 가상 세계와 현실 세계 간의 센서 정보 처리 방법 및 시스템에 관한 것으로, 보다 구체적으로는 현실 세계와 가상 세계를 위한 디바이스들 간의 센서 정보의 포맷을 정의하고, 센서 정보를 변환 및 제공하는 방법에 관한 것이다.The present invention relates to a sensor information processing method and system between a virtual world and a real world, and more particularly, to a method of defining a sensor information format between devices for a real world and a virtual world, and converting and providing sensor information .
객체와 같은 가상 세계의 구성 요소를 제어하기 위해, 현실 세계에 존재하는 다양한 센서들이 사용된다. 현실 세계에 존재하는 센서들의 종류는 매우 많기 때문에, 가상 세계에 적용할 때의 센서 정보를 정의하는 것이 필요하다. 그리고, 센서 정보를 획득하고자 하는 센서들의 능력을 파악함으로써, 보다 효과적으로 가상 세계에 센서 정보를 적용할 수 있는 방안이 요구된다.In order to control the components of a virtual world such as an object, various sensors existing in the real world are used. Since there are many types of sensors in the real world, it is necessary to define the sensor information when applied to a virtual world. In addition, by knowing the capabilities of the sensors to acquire the sensor information, it is required to implement the sensor information more effectively in the virtual world.
본 발명은 카메라 센서와 마이크로폰 센서를 통해 수집될 수 있는 다양한 센서 정보를 제안함으로써, 현실 세계와 가상 세계 간의 변환을 효율적으로 처리할 수 있도록 한다.The present invention proposes various sensor information that can be collected through a camera sensor and a microphone sensor, so that the conversion between the real world and the virtual world can be efficiently handled.
본 발명은 카메라 센서와 마이크로폰 센서 각각의 능력(capability)을 상세하게 제안함으로써 현실 세계와 가상 세계 간의 변환을 효율적으로 처리할 수 있도록 한다.The present invention proposes a capability of each of the camera sensor and the microphone sensor in detail, thereby efficiently converting the conversion between the real world and the virtual world.
본 발명의 일실시예에 따른 센서 정보 처리 방법은 현실 세계의 센서로부터 제1 센서 정보를 획득하는 단계; 상기 획득한 제1 센서 정보를 가상 세계에 적용되는 가상 세계 객체 특징(Virtual World Object Characteristics) 또는 가상 세계에 적용되는 제2 센서 정보로 변환하는 단계; 및 상기 변환된 가상 세계 객체 특징 또는 제2 센서 정보를 가상 세계에 적용하는 단계를 포함하고, 상기 현실 세계의 센서들은 센서 능력 명세에 대응하고, 상기 현실 세계의 환경에 의존하는 글로벌 좌표가 설정될 수 있다.According to an embodiment of the present invention, there is provided a sensor information processing method comprising: obtaining first sensor information from a sensor in a real world; Converting the acquired first sensor information into virtual world object characteristics applied to a virtual world or second sensor information applied to a virtual world; And applying the transformed virtual world object feature or second sensor information to a virtual world, wherein the real world sensors correspond to a sensor capability specification and global coordinates dependent on the environment of the real world are set .
상기 현실 세계의 센서는, 카메라 센서를 포함하고, 상기 카메라 센서는 카메라 센서 능력 타입이 설정될 수 있다.The real world sensor may include a camera sensor, and the camera sensor may be set to a camera sensor capability type.
상기 카메라 센서 능력 타입은, 지원 해상도 플래그, 지원 해상도, 해상도 리스트, 해상도 리스트 타입, 해상도 타입, 폭, 높이, 초점 길이 범위 플래그, 초점 길이 범위, 값 범위 타입, 조리개 범위 플래그, 조리개 범위, 셔터 스피드 범위 플래그, 셔터 스피드 범위, ISO 스피드 범위 플래그, ISO 스피드 범위, 노출값 범위 플래그, 노출값 범위, 비디오 플래그, 센서 타입, 컬러 필터 어레이 플래그, 컬러 필터 어레이 타입, 컬러 스페이스 플래그, 컬러 스페이스 타입, 비트 깊이 범위 플래그, 비트 깊이 범위, 스펙트럼 범위 플래그, 스펙트럼 범위, 열 범위 플래그, 열 범위, 화이트밸런스 온도 범위 플래그, 화이트밸런스 온도 범위, 화이트밸런스 틴트 플래그, 화이트밸런스 틴트 범위 중 적어도 하나를 포함할 수 있다. The camera sensor capability type includes at least one of a supported resolution flag, a supported resolution, a resolution list, a resolution list type, a resolution type, a width, a height, a focal length range flag, a focal length range, a value range type, A color filter array flag, a color filter array type, a color space flag, a color space type, a bit depth range, an aperture value range, a shutter speed range, an ISO speed range flag, an ISO speed range, May include at least one of a flag, a bit depth range, a spectrum range flag, a spectrum range, a column range flag, a column range, a white balance temperature range flag, a white balance temperature range, a white balance tint flag, and a white balance tint range.
상기 현실 세계의 센서는, 마이크로폰 센서를 포함하고, 상기 마이크로폰 센서는 마이크로폰 센서 능력 타입이 설정될 수 있다.The real world sensor may include a microphone sensor, and the microphone sensor may be set to a microphone sensor capability type.
상기 마이크로폰 센서 능력 타입은, 마이크로폰 타입, 트랜듀서 어레이 타입, 프루브 타입, 폴라 패턴, 주파수 범위, 응답 타입 플래그, 응답 주파수, 픽업 민감도 중 적어도 하나를 포함할 수 있다.The microphone sensor capability type may include at least one of a microphone type, a transducer array type, a probe type, a polar pattern, a frequency range, a response type flag, a response frequency, and a pickup sensitivity.
상기 카메라 센서는, 카메라 센서 타입(CameraSensorType)에 따라 특정되고,The camera sensor is specified according to a camera sensor type (CameraSensorType)
상기 카메라 센서 타입은, 카메라 방향(CameraOrientation), 카메라 위치(CameraLocation), 카메라 고도(CameraAltitude), 초점길이(FocalLength), 조리개(Aperture), 셔터스피드(ShutterSpeed), 필터(Filter), 카메라 방향 플래그, 카메라 위치 플래그, 카메라 고도 플래그, 초점 길이 플래그, 조리개 플래그, 셔터 스피드 플래그, 필터 플래그 중 적어도 하나를 포함할 수 있다.The camera sensor type includes at least one of a camera orientation, a camera position, a camera altitude, a focal length, an aperture, a shutter speed, a filter, a camera direction flag, A camera position flag, a camera height flag, a focal length flag, an aperture flag, a shutter speed flag, and a filter flag.
상기 마이크로폰 센서는, 마이크로폰 센서 타입(MicrophoneSensorType)에 따라 특정되고, 상기 마이크로폰 센서 타입은, 방향 플래그, 고도 플래그, 위치 플래그, 샘플레이트 플래그, 해상도 플래그, 방향, 고도, 위치, 샘플레이트 사이즈, 샘플레이트, 바이트 순서, 부호, 해상도, 빅인디언, 리틀 인디언, 로우 오디오 데이터 사이즈, 로우 오디오 데이터 사이즈 중 적어도 하나를 포함할 수 있다. The microphone sensor is specified in accordance with a microphone sensor type, and the microphone sensor type includes a direction flag, an altitude flag, a position flag, a sample rate flag, a resolution flag, a direction, an altitude, , Byte order, sign, resolution, big indian, little indian, low audio data size, and low audio data size.
본 발명의 일실시예에 따른 기록 매체는 가상 세계의 가상 객체에 센서 정보를 적용하기 위한 현실 세계의 센서의 센서 정보가 기록된 전자 장치에서 판독 가능하고, 상기 현실 세계의 센서는, 상기 현실 세계의 센서들은 센서 능력 명세에 대응하고, 상기 현실 세계의 환경에 의존하는 글로벌 좌표가 설정될 수 있다.The recording medium according to an embodiment of the present invention is readable in an electronic device in which sensor information of a sensor in a real world for applying sensor information to a virtual object in a virtual world is recorded, Sensors correspond to the sensor capability specification, and global coordinates that depend on the environment of the real world can be set.
상기 현실 세계의 센서는, 카메라 센서를 포함하고, 상기 카메라 센서는 카메라 센서 능력 타입이 설정될 수 있다.The real world sensor may include a camera sensor, and the camera sensor may be set to a camera sensor capability type.
상기 카메라 센서 능력 타입은, 지원 해상도 플래그, 지원 해상도, 해상도 리스트, 해상도 리스트 타입, 해상도 타입, 폭, 높이, 초점 길이 범위 플래그, 초점 길이 범위, 값 범위 타입, 조리개 범위 플래그, 조리개 범위, 셔터 스피드 범위 플래그, 셔터 스피드 범위, ISO 스피드 범위 플래그, ISO 스피드 범위, 노출값 범위 플래그, 노출값 범위, 비디오 플래그, 센서 타입, 컬러 필터 어레이 플래그, 컬러 필터 어레이 타입, 컬러 스페이스 플래그, 컬러 스페이스 타입, 비트 깊이 범위 플래그, 비트 깊이 범위, 스펙트럼 범위 플래그, 스펙트럼 범위, 열 범위 플래그, 열 범위, 화이트밸런스 온도 범위 플래그, 화이트밸런스 온도 범위, 화이트밸런스 틴트 플래그, 화이트밸런스 틴트 범위 중 적어도 하나를 포함할 수 있다. The camera sensor capability type includes at least one of a supported resolution flag, a supported resolution, a resolution list, a resolution list type, a resolution type, a width, a height, a focal length range flag, a focal length range, a value range type, A color filter array flag, a color filter array type, a color space flag, a color space type, a bit depth range, an aperture value range, a shutter speed range, an ISO speed range flag, an ISO speed range, May include at least one of a flag, a bit depth range, a spectrum range flag, a spectrum range, a column range flag, a column range, a white balance temperature range flag, a white balance temperature range, a white balance tint flag, and a white balance tint range.
상기 현실 세계의 센서는, 마이크로폰 센서를 포함하고, 상기 마이크로폰 센서는 마이크로폰 센서 능력 타입이 설정될 수 있다.The real world sensor may include a microphone sensor, and the microphone sensor may be set to a microphone sensor capability type.
상기 마이크로폰 센서 능력 타입은, 마이크로폰 타입, 트랜듀서 어레이 타입, 프루브 타입, 폴라 패턴, 주파수 범위, 응답 타입 플래그, 응답 주파수, 픽업 민감도 중 적어도 하나를 포함할 수 있다.The microphone sensor capability type may include at least one of a microphone type, a transducer array type, a probe type, a polar pattern, a frequency range, a response type flag, a response frequency, and a pickup sensitivity.
상기 카메라 센서는, 카메라 센서 타입(CameraSensorType)에 따라 특정되고,The camera sensor is specified according to a camera sensor type (CameraSensorType)
상기 카메라 센서 타입은, 카메라 방향(CameraOrientation), 카메라 위치(CameraLocation), 카메라 고도(CameraAltitude), 초점길이(FocalLength), 조리개(Aperture), 셔터스피드(ShutterSpeed), 필터(Filter), 카메라 방향 플래그, 카메라 위치 플래그, 카메라 고도 플래그, 초점 길이 플래그, 조리개 플래그, 셔터 스피드 플래그, 필터 플래그 중 적어도 하나를 포함할 수 있다.The camera sensor type includes at least one of a camera orientation, a camera position, a camera altitude, a focal length, an aperture, a shutter speed, a filter, a camera direction flag, A camera position flag, a camera height flag, a focal length flag, an aperture flag, a shutter speed flag, and a filter flag.
상기 마이크로폰 센서는, 마이크로폰 센서 타입(MicrophoneSensorType)에 따라 특정되고, 상기 마이크로폰 센서 타입은, 방향 플래그, 고도 플래그, 위치 플래그, 샘플레이트 플래그, 해상도 플래그, 방향, 고도, 위치, 샘플레이트 사이즈, 샘플레이트, 바이트 순서, 부호, 해상도, 빅인디언, 리틀 인디언, 로우 오디오 데이터 사이즈, 로우 오디오 데이터 사이즈 중 적어도 하나를 포함할 수 있다.The microphone sensor is specified in accordance with a microphone sensor type, and the microphone sensor type includes a direction flag, an altitude flag, a position flag, a sample rate flag, a resolution flag, a direction, an altitude, , Byte order, sign, resolution, big indian, little indian, low audio data size, and low audio data size.
본 발명의 일실시예에 따른 센서 정보 처리 시스템은 미디어 프로세서를 포함하고, 상기 미디어 프로세서는, 현실 세계의 센서로부터 제1 센서 정보를 획득하고, 상기 획득한 제1 센서 정보를 가상 세계에 적용되는 가상 세계 객체 특징(Virtual World Object Characteristics) 또는 가상 세계에 적용되는 제2 센서 정보로 변환하고, 상기 변환된 가상 세계 객체 특징 또는 제2 센서 정보를 가상 세계에 적용하며, 상기 현실 세계의 센서들은 센서 능력 명세에 대응하고, 상기 현실 세계의 환경에 의존하는 글로벌 좌표가 설정될 수 있다.A sensor information processing system according to an embodiment of the present invention includes a media processor, and the media processor acquires first sensor information from a sensor in the real world, and outputs the acquired first sensor information to a virtual world And converts the converted virtual world object characteristic or the second sensor information into a virtual world, wherein the real world sensors are connected to a sensor Global coordinates that correspond to the capability specification and depend on the environment of the real world can be set.
상기 현실 세계의 센서는, 카메라 센서를 포함하고, 상기 카메라 센서는 카메라 센서 능력 타입이 설정될 수 있다.The real world sensor may include a camera sensor, and the camera sensor may be set to a camera sensor capability type.
상기 현실 세계의 센서는, 마이크로폰 센서를 포함하고, 상기 마이크로폰 센서는 마이크로폰 센서 능력 타입이 설정될 수 있다.The real world sensor may include a microphone sensor, and the microphone sensor may be set to a microphone sensor capability type.
상기 카메라 센서는, 카메라 센서 타입(CameraSensorType)에 따라 특정될 수 있다.The camera sensor may be specified according to a camera sensor type (CameraSensorType).
상기 마이크로폰 센서는, 마이크로폰 센서 타입(MicrophoneSensorType)에 따라 특정될 수 있다.The microphone sensor may be specified according to a microphone sensor type (Microphone Sensor Type).
본 발명의 일실시예에 따르면, 카메라 센서와 마이크로폰 센서를 통해 수집될 수 있는 다양한 센서 정보를 제안함으로써, 현실 세계와 가상 세계 간의 변환을 효율적으로 처리할 수 있다.According to an embodiment of the present invention, various sensor information that can be collected through the camera sensor and the microphone sensor are proposed, thereby efficiently processing the conversion between the real world and the virtual world.
본 발명의 일실시예에 따르면, 카메라 센서와 마이크로폰 센서 각각의 능력(capability)을 상세하게 제안함으로써 현실 세계와 가상 세계 간의 변환을 효율적으로 처리할 수 있다.According to an embodiment of the present invention, the capability between each of the camera sensor and the microphone sensor is proposed in detail, so that the conversion between the real world and the virtual world can be efficiently handled.
도 1은 본 발명의 일실시예에 따른 가상 세계와 현실 세계 간의 센서 정보 처리 방법 및 시스템을 도시한다.
도 2는 본 발명의 일실시예에 따른 현실 세계의 카메라 센서와 마이크로폰 센서로부터 획득한 센서 정보를 가상 세계에 적용하는 미디어 프로세서를 도시한 도면이다.
도 3은 본 발명의 일실실시예에 따라 현실 세계와 가상 세계 간의 센서 정보를 변환하는 과정을 나타낸 플로우차트이다.FIG. 1 illustrates a sensor information processing method and system between a virtual world and a real world according to an embodiment of the present invention.
2 is a diagram illustrating a media processor for applying sensor information obtained from a camera sensor and a microphone sensor in a real world to a virtual world according to an embodiment of the present invention.
3 is a flowchart illustrating a process of converting sensor information between a real world and a virtual world according to an embodiment of the present invention.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 가상 세계와 현실 세계 간의 센서 정보 처리 방법 및 시스템을 도시한다.FIG. 1 illustrates a sensor information processing method and system between a virtual world and a real world according to an embodiment of the present invention.
본 발명의 일실시예에 따르면, 가상 세계의 디지털 컨텐츠 프로바이더, 게이밍, 시뮬레이션, DVD 등의 가상 세계와 센서, 액츄에이터, 비젼, 렌더링, 로보틱스, 독립 생활 (independent living), 소셜/복지 시스템, 뱅킹, 보험, 여행, 부동산, 권리 관리(right management)와 같은 현실 세계 간의 상호 호환성(interoperability)이 가능하도록 미디어 프로세서를 제공한다.According to an embodiment of the present invention, a virtual world of a digital world, such as digital contents provider, gaming, simulation, DVD, etc., and a sensor, actuator, vision, rendering, robotics, independent living, social / welfare system, , Interoperability between real world such as insurance, travel, real estate, and right management.
가상 세계는 인스턴트 메시징, 비디오, 3D, VR, AI, 채팅, 보이스 등 미디어 기술들을 통합한다.Virtual worlds integrate media technologies such as instant messaging, video, 3D, VR, AI, chat, and voice.
본 발명의 미디어 프로세서는 센서 효과 메타데이터(sensor effect metadata), 센서 디바이스 능력/명령들(sensor device capabilities/commands), 사용자 센서 선호 (user sensor preference), 다양한 전송 포맷 (delivery format)을 포함하는 제어 정보(control information)와 센서 정보(sensor information)를 지원한다.The media processor of the present invention may be implemented with a control including sensor effect metadata, sensor device capabilities / commands, user sensor preference, various delivery formats, It supports control information and sensor information.
본 발명의 일실시예에 따른 미디어 프로세서는 센서들과 액츄에이터를 위한 능력과 선호와 같은 제어 정보를 처리한다. 특히, 제어 정보는 디바이스 능력 명세(device capability description), 사용자 선호 정보(user preference information)을 포함할 수 있다.A media processor in accordance with an embodiment of the present invention processes control information such as capabilities and preferences for sensors and actuators. In particular, the control information may include a device capability description, user preference information, and the like.
또한, 본 발명의 일실시예에 따른 미디어 프로세서는 인터랙션 디바이스들을 위해 센서 정보를 교환한다. 구체적으로, 미디어 프로세서는 액츄에이터들을 제어하는 명령 포맷들과 센서들로부터 센서 정보를 수신하기 위한 데이터 포맷들을 지원한다.In addition, the media processor according to an embodiment of the present invention exchanges sensor information for interaction devices. Specifically, the media processor supports command formats that control actuators and data formats for receiving sensor information from sensors.
본 발명의 일실시예에 따르면, 미디어 프로세서는 어뎁테이션 엔진과 현실 세계의 액츄에이터들/센서들의 능력/선호 간의 통신(communication)을 위한 데이터 포맷을 지원한다. 제어 정보는 사용자 액츄에이터 선호 정보(user actuator preference information), 사용자 센서 선호 정보(user sensor preference information), 액츄에이터 능력 명세(actuator capability description), 센서 능력 명세(sensor capability description)를 포함한다. 제어 정보는 어뎁테이션 엔진에 외부 정보를 제공함으로써 가상 세계/현실 세계의 제어를 위한 센서 정보와 액츄에이터 명령을 튜닝하는데 이용될 수 있다.According to one embodiment of the present invention, the media processor supports a data format for communication between the adaptation engine and the capabilities / preferences of actuators / sensors in the real world. The control information includes user actuator preference information, user sensor preference information, an actuator capability description, and a sensor capability description. The control information may be used to tune sensor information and actuator commands for control of the virtual world / real world by providing external information to the adaptation engine.
본 발명의 일실시예에 따르면, 현실 세계 뿐만 아니라 가상 세계에서 디바이스들 (액츄에이터들, 및 센서들)을 제어하는 상호호환성(interoperability)를 제공하기 위해 요구되는 신택스와 시맨틱스가 제공된다.According to one embodiment of the present invention, the syntax and semantics required to provide interoperability to control devices (actuators, and sensors) in the real world as well as the virtual world are provided.
본 발명은 제어 정보의 기본 구조를 설명하기 위해 XML 스키마 기반의 언어로서 제어 정보 명세 언어(Control Information Description Language :CIDL)를 제공한다. 디바이스 능력 명세 어휘(Device Capability Description Vocabulary: DCDV)는 램프(lamp), 팬(fan), 바이브레이터(vibrator), 움직임 의자(motion chair), 향기 발생기 (scent generator) 등과 같은 액츄에이터들의 능력을 설명하기 위한 XML 리프리젠테이션을 특정한다. 예를 들어, 팬의 최대 풍속, 풍량 레벨 등은 DCDV의 명세에서 정의될 수 있다. The present invention provides a control information description language (CIDL) as an XML schema-based language to describe the basic structure of control information. The Device Capability Description Vocabulary (DCDV) is a term used to describe the capabilities of actuators such as lamps, fans, vibrators, motion chairs, scent generators, etc. Identify the XML representation. For example, the maximum wind speed, airflow level, etc. of a fan can be defined in the DCDV specification.
센서 능력 명세 어휘 (Sensor Capability Description Vocabulary: SCDV)는 광 센서(light sensor), 온도 센서(temperature sensor), 속도 센서(velocity sensor), 글로벌 위치 센서(global position sensor), 지능형 카메라 센서(intelligent camera sensor) 등과 같은 센서들의 능력을 설명하기 위한 인터페이스를 특정한다. 예를 들어, 글로벌 위치 센서의 능력들은 최대 동작 온도 영상 90도, 최소 동작 온도 영하 30도, 민감도 0.01도, 위치 정확도 0.01도 등을 의미하며, 이는 SCDV의 명세에서 정의될 수 있다.The Sensor Capability Description Vocabulary (SCDV) is a set of information that can be used for a variety of sensors including a light sensor, a temperature sensor, a velocity sensor, a global position sensor, an intelligent camera sensor ), And so on. For example, the capabilities of a global position sensor means a maximum operating temperature image of 90 degrees, a minimum operating temperature of minus 30 degrees, a sensitivity of 0.01 degrees, and a position accuracy of 0.01 degrees, which can be defined in the SCDV specification.
센서 효과 선호 명세(Sensory Effect Preference Vocabulary: SEPV)는 광, 바람, 향기, 진동과 같은 특정 센서 효과에 대한 사용자의 개인적인 선호를 설명하기 위한 인터페이스들을 특정한다. 예를 들어, SEPV의 명세에서, 진동 의자의 최대 강도는 600Hz로 정의될 수 있다. 센서 어뎁테이션 선호 어휘(Sensor Adaptation Preference Vocabulary: SAPV)는 개인의 센서 선호와 센서 정보의 개별적인 타입을 설명하기 위한 인터페이스들을 특정한다. 예를 들어, 광 센서 어뎁테이션은 최대 밝기 400lx에서 최소 밝기 10lux 간에 탐지됨으로써 달성된다.The Sensory Effect Preference Vocabulary (SEPV) specifies interfaces for describing a user's personal preferences for specific sensor effects such as light, wind, aroma, and vibration. For example, in the SEPV specification, the maximum intensity of a vibrating chair may be defined as 600 Hz. The Sensor Adaptation Preference Vocabulary (SAPV) specifies interfaces for describing individual sensor preferences and individual types of sensor information. For example, optical sensor adaptation is achieved by detecting between a minimum brightness of 10 lux and a maximum brightness of 400 lux.
다른 실시예에 의하면, 어뎁테이션 엔진과 현실 세계 또는 가상 세계 오브젝트에서 액츄에이터들/센서들 간의 통신을 위한 데이터 포맷을 제공한다. According to another embodiment, an adaptation engine and a data format for communication between actuators / sensors in a real world or virtual world object are provided.
본 발명의 일실시예에 따르면, 상호 정보 명세 언어 (Interaction Information Description Language: IIDL)로 명명된 XML 스키마 기반의 언어를 정의함으로써, 액츄에이터들 및 센서들을 인터페이싱하기 위한 포맷을 제공하여 디바이스들의 상호 작용을 위한 데이터 포맷의 신택스와 시맨틱스가 특정된다. IIDL은 다양한 액츄에이터들과 센서들과의 통신을 위한 공통 정보를 가지는 기본 구조를 제공한다. 디바이스 명령 어휘(Device Command Vocabulary: DCV)는 개별적인 액츄에이터들을 명령하기 위해 표준화된 포맷을 제공하고, 센서 정보 어휘(Sensed Information Vocabulary: SIV)는 현실 세계로부터 환경 정보를 얻거나 또는 IIDL에 기초하여 획득한 정보를 이용하여 가상 세계 객체들에 영향을 주는 것 중 어느 하나의 센서들로부터 정보를 홀딩하기 위한 포맷을 제공한다.According to an embodiment of the present invention, by defining an XML Schema-based language named Interaction Information Description Language (IIDL), a format for interfacing actuators and sensors is provided, The syntax and semantics of the data format for the data format are specified. IIDL provides a basic structure with common information for communication with various actuators and sensors. A Device Command Vocabulary (DCV) provides a standardized format for commanding individual actuators, and a Sensed Information Vocabulary (SIV) is used to obtain environmental information from the real world or to obtain Information is used to hold information from any one of the sensors affecting virtual world objects.
어뎁테이션 엔진은 현실 세계와 가상 세계 모두에서 디바이스들을 제어하기 위해 사용자 센서 선호 (user's sensory preferences (USP)), 센서 장치 능력 (sensory device capabilities (SDC)), 센서 능력들 (sensor capabilities (SC)) 및 센서 어뎁테이션 선호 (sensor adaptation preferences (SAP))를 이용한다.The adaptation engine includes user's sensory preferences (USP), sensory device capabilities (SDC), sensor capabilities (SC) to control devices in both the real world and the virtual world, And sensor adaptation preferences (SAP).
도 1을 참고하면, 미디어 프로세서는 가상 세계와 현실 세계 간에 센서 정보를 변환할 수 있다. 미디어 프로세서는 엔진으로도 표현될 수 있다. 미디어 프로세서는 현실 세계로부터 획득한 센서 정보를 가상 세계에 적용되는 센서 정보로 변환하거나, 또는 현실 세계로부터 획득한 센서 정보를 가상 세계의 가상 객체 특징으로 변환하는 제1 어뎁테이션을 수행할 수 있다. 그리고, 미디어 프로세서는 가상 세계의 센서 효과 데이터 또는 가상 객체 특징을 현실 세계에 적용되는 액츄에이터 명령으로 변환하는 제2 어뎁테이션을 수행할 수 있다. 여기서, 어뎁테이션은 엔진으로 표현될 수 있다.Referring to FIG. 1, a media processor can convert sensor information between a virtual world and a real world. The media processor can also be represented as an engine. The media processor can perform the first adaptation that converts the sensor information acquired from the real world into the sensor information applied to the virtual world or converts the sensor information acquired from the real world into the virtual object characteristic of the virtual world. The media processor may perform a second adaptation that converts the sensor effect data or the virtual object characteristic of the virtual world into an actuator command applied to the real world. Here, the adaptation can be expressed by an engine.
도 2는 본 발명의 일실시예에 따른 현실 세계의 카메라 센서와 마이크로폰 센서로부터 획득한 센서 정보를 가상 세계에 적용하는 미디어 프로세서를 도시한 도면이다.2 is a diagram illustrating a media processor for applying sensor information obtained from a camera sensor and a microphone sensor in a real world to a virtual world according to an embodiment of the present invention.
도 2를 참고하면, 현실 세계의 카메라 센서(202)와 현실 세계의 마이크로폰 센서(203)로부터 센서 정보를 수집하는 과정이 도시된다. 카메라 센서(202)는 획득한 센서 정보를 미디어 프로세서(201)에 제공할 수 있다. 마찬가지로, 마이크로폰 센서(203)는 획득한 센서 정보를 미디어 프로세서(201)에 제공할 수 있다. 카메라 센서(202)와 마이크로폰 센서(203)로부터 획득한 센서 정보는 미디어 프로세서(201)에서 수행되는 제1 어뎁테이션을 통해 처리될 수 있다. 여기서, 제1 어뎁테이션은 엔진으로 표현될 수 있다.Referring to FIG. 2, a process of collecting sensor information from a real
미디어 프로세서(201)는 카메라 센서(202)와 마이크로폰 센서(203)로부터 획득한 센서 정보를 제1 어뎁테이션을 통해 변환하여 가상 세계의 객체(204)에 적용할 수 있다.The
본 발명은 카메라 센서(202)와 마이크로폰 센서(203)으로부터 수집되거나 처리되는 센서 정보를 위한 포맷을 제공한다. 그리고, 본 발명은 카메라 센서(202)와 마이크로폰 센서(203)의 센서 능력을 위한 포맷을 제공한다.The present invention provides a format for sensor information that is collected or processed from the
도 3은 본 발명의 일실실시예에 따라 현실 세계와 가상 세계 간의 센서 정보를 변환하는 과정을 나타낸 플로우차트이다. 3 is a flowchart illustrating a process of converting sensor information between a real world and a virtual world according to an embodiment of the present invention.
단계(301)에서, 미디어 프로세서는 현실 세계의 센서로부터 제1 센서 정보를 획득할 수 있다. 본 발명에서 현실 세계의 센서는 이미지를 획득하는 카메라 센서와 오디오를 수집하는 마이크로폰 센서를 포함한다.In
단계(302)에서, 미디어 프로세서는 제1 센서 정보를 가상 세계에 적용되는 가상 세계 객체 특징 또는 가상 세계에 적용되는 제2 센서 정보로 변환한다.In
단계(303)에서, 미디어 프로세서는 가상 세계 객체 특징 또는 제2 센서 정보를 가상 세계에 적용한다.In
이하에서는, 본 발명에서 설명하는 센서 정보와 센서 능력에 대한 데이터 포맷과 상세 명세에 대해 구체적으로 설명하기로 한다. 아래에서는 제1 실시예와 제2 실시예로 구분해서 설명하기로 한다.Hereinafter, the data format and the detailed description of the sensor information and the sensor capability described in the present invention will be described in detail. Hereinafter, the first embodiment and the second embodiment will be described separately.
<제1 실시예>≪ Embodiment 1 >
(1) 미디어 오케스트레이션을 위한 추가적인 메타데이터(1) Additional metadata for media orchestration
어플리케이션에 따라, 센서 특징들, 센서 능력들, 캡쳐 이미지(비디오)의 특징은 다르다. 미디어 프로세서가 획득한 데이터를 성공적으로 처리(예를 들면, 그룹핑, 병합, 분리 등)할 수 있도록, 캡쳐 이미지의 기본 특징에 대한 좀더 상세한 메타데이터가 필요하다. Depending on the application, the characteristics of the sensor features, sensor capabilities, and captured image (video) are different. More detailed metadata about the basic features of the captured image is needed so that the media processor can successfully process (e.g., group, merge, split, etc.) the acquired data.
본 발명은 캡쳐 이미지(비디오)의 특징에 대해 미디어 프로세서를 위한 정보를 제공한다. The present invention provides information for a media processor for a feature of a captured image (video).
표 1은 신택스를 나타낸다.Table 1 shows the syntax.
표 2는 시맨틱스를 나타낸다Table 2 shows the semantics
만약 비디오 또는 이미지 스트림인 경우, 1임.'1' if video or image streaming
1 if it is a video or image stream.
필터가 적용된 경우, 1임'1' if any filter is applied
If the filter is applied, 1
비트 깊이(bitDepth)가 정의된 경우, 1임'1' if bitDepth is defined
If the bit depth (bitDepth) is defined,
캡쳐 이미지의 파장 범위(waveLenght range)가 정의된 경우, 1임'1' if waveLength range of captured image is defined
If the waveLenght range of the captured image is defined,
화재 탐지, 야간 경계(night watch) 등과 같은 감시 시스템(surveillance)의 특정 종류를 위해, 캡쳐 이미지의 특징은 다르다. 예를 들어, 화재 탐지를 위해 사용되는 열적 적외선 이미지(thermal IR images) 또는 공항에서 신체 열 탐지는 다른 특징들을 가진다. 그래서, 좀더 많은 메타데이터를 제공함으로써, 미디어 프로세서는 다른 소스들로부터 이미지(비디오)를 그룹핑, 병합, 분류를 할 수 있다.For certain types of surveillance, such as fire detection, night watch, etc., the features of the captured image are different. For example, thermal IR images used for fire detection or body heat detection at airports have other characteristics. Thus, by providing more metadata, the media processor can group, merge, and categorize images (video) from different sources.
표 3은 카메라 센서 타입에 대한 신택스를 나타낸다Table 3 shows the syntax for the camera sensor type
<!-- Camera Sensor Type
-->
<!-- ################################################
-->
<complexType name="CameraSensorType">
<complexContent>
<extension base="iidl:SensedInfoBaseType">
<sequence>
<element name="CameraGlobalPosition" type="siv:GlobalPositionSensorType" minOccurs="0"/>
<element name="CameraOrientation" type="siv:OrientationSensorType" minOccurs="0"/>
<element name="CameraAltitude" type="siv:AltitudeSensorType" minOccurs="0"/>
<element name="CameraLocalPosition" type="siv:PositionSensorType" minOccurs="0"/>
<attribute name="focalLength" type="float" use="optional"/>
<attribute name="aperture" type="float" use="optional"/>
<attribute name="shutterSpeed" type="float" use="optional"/>
<attribute name="filter" type="mpeg7:termReferenceType" use="optional"/>
<attribute name="ISOSpeed" type="float" use="optional"/>
<attribute name="ExposureValue" type="float" use="optional"/>
<attribute name="ColorFilter" type="siv:ColorFilterArrayListType" use="optional"/>
<attribute name="Video" type="boolean" use="optional"/>
<attribute name="SensorType" type="boolean" use="optional"/>
<attribute name="ColorSpaceType" type="string" use="optional"/>
<attribute name="BitDepth" type="unsigned8" use="optional"/>
<attribute name="SpectrumRange" type="siv:ValueRangeType" use="optional"/>
<attribute name="ThermalRange" type=" siv:ValueRangeType" use="optional"/>
<attribute name="WhiteBalanceTemp" type="float" use="optional"/>
<attribute name="WhiteBalanceTint" type="signed8" use="optional"/>
</sequence>
</extension>
</complexContent>
</complexType>
<complexType name="ValueRangeType">
<sequence>
<element name="MaxValue" type="float"/>
<element name="MinValue" type="float"/>
</sequence>
</complexType>
<simpleType name="ColorFilterArrayListType">
<restriction base="string">
<enumeration value="Bayer"/>
<enumeration value="RGBE"/>
<enumeration value="CYYM"/>
<enumeration value="CYGM"/>
<enumeration value="RGB Bayer"/>
<enumeration value="RGBW #1"/>
<enumeration value="RGBW #2"/>
<enumeration value="RGBW #3"/>
</restriction>
</simpleType>
<! - ##################################################### ## ->
<! - Camera Sensor Type ->
<! - ##################################################### ## ->
<complexType name = "CameraSensorType">
<complexContent>
<extension base = "iidl: SensedInfoBaseType">
<sequence>
<element name = "CameraGlobalPosition" type = "siv: GlobalPositionSensorType" minOccurs = "0"/>
<element name = "CameraOrientation" type = "siv: OrientationSensorType" minOccurs = "0"/>
<element name = "CameraAltitude" type = "siv: AltitudeSensorType" minOccurs = "0"/>
<element name = "CameraLocalPosition" type = "siv: PositionSensorType" minOccurs = "0"/>
<attribute name = "focalLength" type = "float" use = "optional"/>
<attribute name = "aperture" type = "float" use = "optional"/>
<attribute name = "shutterSpeed" type = "float" use = "optional"/>
<attribute name = "filter" type = "mpeg7: termReferenceType" use = "optional"/>
<attribute name = "ISOSpeed" type = "float" use = "optional"/>
<attribute name = "ExposureValue" type = "float" use = "optional"/>
<attribute name = "ColorFilter" type = "siv: ColorFilterArrayListType" use = "optional"/>
<attribute name = "Video" type = "boolean" use = "optional"/>
<attribute name = "SensorType" type = "boolean" use = "optional"/>
<attribute name = "ColorSpaceType" type = "string" use = "optional"/>
<attribute name = "BitDepth" type = "unsigned8" use = "optional"/>
<attribute name = "SpectrumRange" type = "siv: ValueRangeType" use = "optional"/>
<attribute name = "ThermalRange" type = "siv: ValueRangeType" use = "optional"/>
<attribute name = "WhiteBalanceTemp" type = "float" use = "optional"/>
<attribute name = "WhiteBalanceTint" type = "signed8" use = "optional"/>
</ sequence>
</ extension>
</ complexContent>
</ complexType>
<complexType name = "ValueRangeType">
<sequence>
<element name = "MaxValue" type = "float"/>
<element name = "MinValue" type = "float"/>
</ sequence>
</ complexType>
<simpleType name = "ColorFilterArrayListType">
<restriction base = "string">
<enumeration value = "Bayer"/>
<enumeration value = "RGBE"/>
<enumeration value = "CYYM"/>
<enumeration value = "CYGM"/>
<enumeration value = "RGB Bayer"/>
<enumeration value = "RGBW # 1"/>
<enumeration value = "RGBW # 2"/>
<enumeration value = "RGBW # 3"/>
</ restriction>
</ simpleType>
표 4는 카메라 센서 능력 타입(CameraSensorCapabilityType)의 시맨틱스를 나타낸다Table 4 shows the semantics of the camera sensor capability type (CameraSensorCapabilityType)
카메라 센서에 대해 센서 정보를 설명하기 위한 툴Tool for describing sensed information with respect to a camera sensor.
Tools for describing sensor information for camera sensors
카메라의 위치 정보에 기초한 글로벌 위치 센서를 정의함Defines global positioning sensor based position information of Camera
Defines a global position sensor based on camera position information
이 필드는 초점 길이 엘리먼트의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the FocalLength element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a focal length element and has a binary representation. If 1, this element exists, and if it is 0, this element does not exist
만약 mm단위에 대해 물체(subject)가 초점(focus)에 있는 경우, 렌즈들과 이미지 센서 사이의 거리를 설명함Describes the distance between the lens and the image sensor when the subject is in focus, in terms of millimeters (mm).
If the subject is in focus for mm units, the distance between the lenses and the image sensor is described.
이 필드는 조리개 엘리먼트의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음
This field, which is present in the binary representation, signals the presence of the Aperture element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of the aperture element and has a binary representation. If 1, this element exists, and if it is 0, this element does not exist
카메라의 조리개를 설명함. 이는 F2.8과 같이 F-stop으로 표현됨. 또는, 이는 f/2.8과 같이 f-number notation으로 표현됨.
Describes the aperture of a camera It is expressed as F-stop, eg F2.8. It may also be expressed as f-number notation such as f / 2.8.
Describes the iris of the camera. This is expressed as F-stop as F2.8. Or, this is expressed as f-number notation as f / 2.8.
This field, which is present in the binary representation, signals the presence of the ShutterSpeed element. This field signals the presence of a shutter speed element and has a binary representation. If 1, this element exists, and if it is 0, this element does not exist
수초 단위로 사진을 촬영할 때, 셔터가 열린 상태로 유지되는 시간을 설명함Describes the time the shutter remains open when taking a photograph in terms of seconds.
Describes how long the shutter stays open when taking pictures in seconds.
이 필드는 필터 속성(filter attribute)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 필터 속성이 사용되어야 하며, 0인 경우, 필터 속성이 사용되지 않음
This field, which is present in the binary representation, signals the presence of the filter attribute. A value of "1" means the attribute shall be used and 0 means the attribute shall not be bused.
This field signals the presence of a filter attribute and has a binary representation. 1, the filter attribute should be used; if 0, the filter attribute is not used
MPEG7을 이용하는 분류 스킴(classification scheme)을 참조하여, 카메라 필터의 종류를 설명함.
Describes kinds of camera filters as a reference to a classification scheme that uses the mpeg7: termReferenceType defined in 7.6 of ISO / IEC 15938-5: 2003. The CS may be used for this purpose, the CameraFilterTypeCS defined in A.2.12.6.
Describes the types of camera filters with reference to a classification scheme using MPEG7.
이 필드는 노출값 엘리먼트(ExposureValue element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우 이 엘리먼트는 존재하지 않음
This field, which is present in the binary representation, signals the presence of the ExposureValue element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of an ExposureValue element and has a binary representation. If 1, this element exists and if it is 0, this element does not exist
Describes the exposure value. Describes the exposure value.
이 필드는 컬러필터 어레이 타입 요소(ColorFilterArrayType element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음
This field, which is present in the binary representation, signals the presence of the ColorFilterArrayType element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a color filter array type element (ColorFilterArrayType element) and has a binary representation. If 1, this element exists, and if it is 0, this element does not exist
0001 Bayer
0010 RGBE
0011 CYYM
0100 CYGM
0101 RGBW Bayer
0110 RGBW #1
0111 RGBW #2
1000 RGBW #3
1001-1111 Reserved
카메라의 이미지 센서에 적용되는 컬러 필터 어레이를 설명함Describes the color filter array applied to the image sensor of a camera0000
0001 Bayer
0010]
0011 CYYM
0100 CYGM
0101 RGBW Bayer
0110 RGBW # 1
0111 RGBW # 2
1000 RGBW # 3
1001-1111 Reserved
Describes a color filter array applied to the image sensor of a camera.
이 필드는 컬러스페이스 엘리먼트의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트가 존재하고, 0인 경우 이 엘리먼트가 존재하지 않음This field, which is present in the binary representation, signals the presence of the ColorSpaceType element. A value of "1" means that this element is present and 0 means that this element is not prent.
This field signals the presence of a color space element and has a binary representation. 1, this element exists, and if it is 0, this element does not exist
적용된 컬러스페이스를 설명함Describes the color space applied.
Describes applied color space
이 필드는 비트깊이 엘리먼트의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트가 존재하고, 0인 경우 이 엘리먼트가 존재하지 않음
This field, which is present in the binary representation, signals the presence of the BitDepth element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a bit depth element and has a binary representation. 1, this element exists, and if it is 0, this element does not exist
Describes applied bit depth Describes applied bit depth
이 필드는 스펙트럼 범위 엘리먼트 (SpectrumRange element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트가 존재하고, 0인 경우 이 엘리먼트가 존재하지 않음This field, which is present in the binary representation, signals the presence of the SpectrumRange element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a Spectrum Range element and has a binary representation. 1, this element exists, and if it is 0, this element does not exist
valueRangeType에 대해 카메라 센서가 인지한 스펙트럼 범위를 설명함. 이것의 기본적인 단위는 나노미터임.
SensorCapabilityBaseType에서 최대값과 최소값은 카메라 센서에 사용되지 않음
Describes applied spectrum range that the camera perceived in terms of valueRangeType. Its default unit is nanometer (nm) .NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describe the spectral range perceived by the camera sensor for valueRangeType. The basic unit of this is the nanometer.
Maximum and minimum values in SensorCapabilityBaseType are not used for camera sensors
이 필드는 열적 범위 엘리먼트(ThermalRange element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트가 존재하고, 0인 경우 이 엘리먼트가 존재하지 않음
This field, which is present in the binary representation, signals the presence of the ThermalRange element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a ThermalRange element and has a binary representation. 1, this element exists, and if it is 0, this element does not exist
valueRangeType에 대해 카메라 센서가 인지한 열적 반응 범위를 설명함. 이것의 기본단위는 도씨(℃)임. SensorCapabilityBaseType에서 최소값과 최대값은 카메라 센서에서 사용되지 않음
Describes applied thermal response range that the camera perceived in terms of valueRangeType. Its default unit is Celsius (C) .NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describe the thermal response range recognized by the camera sensor for valueRangeType. The basic unit of this is the temperature (℃). The minimum and maximum values in SensorCapabilityBaseType are not used by the camera sensor
이 필드는 화이트밸런스온도 엘리먼트(WhiteBalanceTemp element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우 이 엘리먼트는 존재하지 않음
This field, which is present in the binary representation, signals the presence of the WhiteBalanceTemp element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a White Balance Temp element and has a binary representation. If 1, this element exists and if it is 0, this element does not exist
캘빈 단위에서 적용된 화이트 밸런스 온도를 설명함
Describes applied white balance temperature in Kelvin (K).
Describes the white balance temperature applied in Calvin units.
This field, which is present in the binary representation, signals the presence of the WhiteBalanceTint element. This field signals the presence of a white balance tint element and has a binary representation. If 1, this element exists and if it is 0, this element does not exist
<유즈 케이스>화재 탐지, 야간 경계(night watch) 등과 같은 감시 시스템(surveillance)의 특정 종류를 위해, 캡쳐 이미지의 특징은 다르다. 예를 들어, 화재 탐지를 위해 사용되는 열적 적외선 이미지(thermal IR images) 또는 공항에서 신체 열 탐지는 다른 특징들을 가진다. 그래서, 좀더 많은 메타데이터를 제공함으로써, 미디어 프로세서는 다른 소스들로부터 이미지(비디오)를 그룹핑, 병합, 분류를 할 수 있다.<Use Case> For certain types of surveillance such as fire detection, night watch, etc., the features of the captured image are different. For example, thermal IR images used for fire detection or body heat detection at airports have other characteristics. Thus, by providing more metadata, the media processor can group, merge, and categorize images (video) from different sources.
(2) IoMT&W의 응답(2) Response of IoMT & W
IoMT&W를 위해, 본 발명은 MThings에 의해 획득된 데이터를 설명하기에 충분한 메타데이터를 제공한다. 신택스와 시맨틱스는 이진 포맷으로 주어지며, IoMT&W 시스템 및 어플리케이션에 따라, XML 포맷으로 변환되거나 사용될 수 있다.For IoMT & W, the present invention provides sufficient metadata to describe the data obtained by MThings. Syntax and semantics are given in binary format and can be converted or used in XML format, depending on the IoMT & W system and application.
IoMT&W 디바이스/엔티티의 물리적인 특징을 설명하기 위해 많은 엘리먼트가 존재한다. 본 발명은 IoMT&W 디바이스/엔티티의 위치 메타데이터를 제공한다.There are many elements to describe the physical characteristics of IoMT & W devices / entities. The present invention provides location metadata of IoMT & W devices / entities.
(ㄱ) 지리적 위치(A) Geographical location
지리적 위치 메타데이터는 포컬 포인트를 획득할 때 경도 (longitude), 위도(latitude), 방향(orientation)을 포함한다. 지리적 위치 메타데이터는 오퍼레이터에 의해 미리 설정되거나, 적절한 센서들을 이용하여 획득될 수 있다.The geolocation metadata includes longitude, latitude, and orientation when acquiring a focal point. The geo-location metadata may be pre-set by the operator or may be obtained using appropriate sensors.
표 5는 신택스를 나타낸다.Table 5 shows the syntax.
(ㄴ) 상대적 위치절대적 데이터인 다른 지리적 위치, IoMT&W의 위치는 미리 설정된 시작점(point of origin)에 상대적으로 제공된다.(B) Relative position The position of another geographic location, IoMT & W, which is absolute data, is provided relative to a preset point of origin.
표 6은 신택스를 나타낸다.Table 6 shows the syntax.
(ㄷ) 데이터 획득 센서 특징 메타데이터절대적 데이터인 다른 지리적 위치, IoMT&W 위치는 미리 설정된 시작점(point of origin)에 상대적으로 제공된다.(C) Data Acquisition Sensor Feature Metadata Other geographic location, absolute data, IoMT & W location is provided relative to a preset point of origin.
이미지(비디오) 획득 메타데이터는 2개로 분류된다. 하나는 카메라 설정 메타데이터이고, 다른 하나는 획득 이미지 특징 파라미터이다.The image (video) acquisition metadata is classified into two. One is the camera configuration metadata, and the other is the acquired image feature parameter.
(i) 카메라 설정(i) Camera settings
표 7은 신택스를 나타낸다.Table 7 shows the syntax.
이미지를 획득할 때의 초점 길이Focal Length at the time of acquisition
Focal length when acquiring an image
(ii) 이미지 특징 Image characteristics(ii) Image characteristics Image characteristics
표 8은 신택스를 나타낸다.Table 8 shows the syntax.
만약 비디오 또는 이미지 스트림인 경우, 1임.'1' if video or image streaming
1 if it is a video or image stream.
필터가 적용된 경우, 1임'1' if any filter is applied
If the filter is applied, 1
비트 깊이(bitDepth)가 정의된 경우, 1임'1' if bitDepth is defined
If the bit depth (bitDepth) is defined,
캡쳐 이미지의 파장 범위(waveLenght range)가 정의된 경우, 1임'1' if waveLength range of captured image is defined
If the waveLenght range of the captured image is defined,
(iii) 사운드 Sound(iii) Sound Sound
아래는 음파 획득을 위해, 사운드 트랜듀서 (마이크로폰) 특징을 제공한다.The following provides a sound transducer (microphone) feature for acquiring sound waves.
표 9는 신택스를 나타낸다.Table 9 shows the syntax.
트랜듀서의 타입을 설명함
0000 Reserved
0001 Condenser
0010 Dynamic
0011 Ribbon
0100 Carbon
0101 Piezoelectric
0110 Fiber Optic
0111 Laser
1000 Liquid
1001 MEMS
1010-1111 ReservedDefines type of transducer
Describe the type of transducer
0000 Reserved
0001 Condenser
0010 Dynamic
0011 Ribbon
0100 Carbon
0101 Piezoelectric
0110 Fiber Optic
0111 Laser
1000 Liquid
1001 MEMS
1010-1111 Reserved
0000 Reserved
0001 single array
0010 linear array
0011 curvilinear
0100 phased
0101 annular
0110 matrix array
0111-1111 ReservedDefines array types of transducer probes Describes array types of transducer probes
0000 Reserved
0001 single array
0010 linear array
0011 curvilinear
0100 phased
0101 annular
0110 matrix array
0111-1111 Reserved
0000 Reserved
0001 linear probe
0010 sector probe
0011 convex probe
0100 trapezoid probe
0101-1111 ReservedDefines probing type of transducer Describes the probing type of a transducer
0000 Reserved
0001 linear probe
0010 sector probe
0011]
0100 trapezoid probe
0101-1111 Reserved
0000 Reserved
0001 Omnidirectional
0010 Bi-directional (or Figure of 8)
0011 Subcardioid
0100 Cardioid
0101 Hypercardioid
0110 Supercardioid
0111 Shotgun
1000-1111 ReservedDefines the polar pattern of a transducer transducer.
0000 Reserved
0001 Omnidirectional
Bi-directional (or Figure 8)
0011 Subcardioid
0100 Cardioid
0101 Hypercardioid
0110 Supercardioid
0111 Shotgun
1000-1111 Reserved
Hz 단위의 최소 픽업 주파수Minimum pickup frequency in Hz
Minimum pickup frequency in Hz
'1' if Tailored frequency response
0인 경우, 플랫 주파수 응답이고, 1인 경우 테일러드(tailored) 주파수 응답임'0' if Flat frequency response
'1' if Tailored frequency response
0, it is a flat frequency response, and when it is 1, it is a tailored frequency response.
Hz 단위의 최소 픽업 응답 주파수Minimum Pick response frequency in Hz
Minimum pickup response frequency in Hz
*카메라 능력* Camera ability
이미지(비디오) 획득 메타데이터는 2개로 분류된다. 하나는 카메라 셋팅 메타데이터이고, 다른 하나는 획득 이미지 특징 파라미터이다.The image (video) acquisition metadata is classified into two. One is the camera setting metadata, and the other is the acquired image feature parameter.
표 11은 신택스를 나타낸다.Table 11 shows the syntax.
<complexContent>
<extension base="cidl:SensorCapabilityBaseType">
<sequence>
<element name="SupportedResolutions" type="scdv:ResolutionListType" minOccurs="0"/>
<element name="FocalLengthRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ApertureRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ShutterSpeedRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ISOSpeedRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ExposureValueRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ColorFilterArrayType" type="scdv:ColorFilterArrayListType" minOccurs="0"/>
<element name="Video" type="boolean" minOccurs="0"/>
<element name="SensorType" type="boolean" minOccurs="0"/>
<element name="ColorSpaceType" type="string" minOccurs="0"/>
<element name="BitDepthRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="SpectrumRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ThermalRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="WhiteBalanceTempRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="WhiteBalanceTintRange" type="scdv:ValueRangeType" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType>
<complexType name="ResolutionListType">
<sequence>
<element name="Resolution" type="scdv:ResolutionType" maxOccurs="unbounded"/>
</sequence>
</complexType>
<complexType name="ResolutionType">
<sequence>
<element name="Width" type="nonNegativeInteger"/>
<element name="Height" type="nonNegativeInteger"/>
</sequence>
</complexType>
<complexType name="ValueRangeType">
<sequence>
<element name="MaxValue" type="float"/>
<element name="MinValue" type="float"/>
</sequence>
</complexType>
<simpleType name="ColorFilterArrayListType">
<restriction base="string">
<enumeration value="Bayer"/>
<enumeration value="RGBE"/>
<enumeration value="CYYM"/>
<enumeration value="CYGM"/>
<enumeration value="RGB Bayer"/>
<enumeration value="RGBW #1"/>
<enumeration value="RGBW #2"/>
<enumeration value="RGBW #3"/>
</restriction>
</simpleType>
<complexType name = "CameraSensorCapabilityType">
<complexContent>
<extension base = "cidl: SensorCapabilityBaseType">
<sequence>
<element name = "SupportedResolutions" type = "scdv: ResolutionListType" minOccurs = "0"/>
<element name = "FocalLengthRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ApertureRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ShutterSpeedRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ISOSpeedRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ExposureValueRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ColorFilterArrayType" type = "scdv: ColorFilterArrayListType" minOccurs = "0"/>
<element name = "Video" type = "boolean" minOccurs = "0"/>
<element name = "SensorType" type = "boolean" minOccurs = "0"/>
<element name = "ColorSpaceType" type = "string" minOccurs = "0"/>
<element name = "BitDepthRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "SpectrumRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ThermalRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "WhiteBalanceTempRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "WhiteBalanceTintRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
</ sequence>
</ extension>
</ complexContent>
</ complexType>
<complexType name = "ResolutionListType">
<sequence>
<element name = "Resolution" type = "scdv: ResolutionType" maxOccurs = "unbounded"/>
</ sequence>
</ complexType>
<complexType name = "ResolutionType">
<sequence>
<element name = "Width" type = "nonNegativeInteger"/>
<element name = "Height" type = "nonNegativeInteger"/>
</ sequence>
</ complexType>
<complexType name = "ValueRangeType">
<sequence>
<element name = "MaxValue" type = "float"/>
<element name = "MinValue" type = "float"/>
</ sequence>
</ complexType>
<simpleType name = "ColorFilterArrayListType">
<restriction base = "string">
<enumeration value = "Bayer"/>
<enumeration value = "RGBE"/>
<enumeration value = "CYYM"/>
<enumeration value = "CYGM"/>
<enumeration value = "RGB Bayer"/>
<enumeration value = "RGBW # 1"/>
<enumeration value = "RGBW # 2"/>
<enumeration value = "RGBW # 3"/>
</ restriction>
</ simpleType>
표 12은 신택스를 나타낸다.Table 12 shows the syntax.
표 13는 CameraSensorCapabilityType에 대한 시맨틱스를 나타낸다.Table 13 shows the semantics for CameraSensorCapabilityType.
카메라 센서 능력을 설명하기 위한 툴Tool for describing a camera sensor capability.
Tools for explaining camera sensor capabilities
이 필드는 지원 해상도 엘리먼트(SupportedResolutions element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트가 존재하고, 0인 경우 이 엘리먼트가 존재하지 않음This field, which is present in the binary representation, signals the presence of the SupportedResolutions element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a SupportedResolutions element and has a binary representation. 1, this element exists, and if it is 0, this element does not exist
만약 mm단위에 대해 물체(subject)가 초점(focus)에 있는 경우, 렌즈들과 이미지 센서 사이의 거리를 설명함
SensorCapabilityBaseType에서 최소값과 최대값은 카메라 센서에 사용되지 않음Describes the range of the focal length that the camera sensor can perceive in terms of ValueRangeType. Its default unit is millimeters (mm) .NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
If the subject is in focus for mm units, the distance between the lenses and the image sensor is described.
Minimum and maximum values in SensorCapabilityBaseType are not used for camera sensors
valueRangeType에 대해 카메라 센서가 인지할 수 있는 조리개의 범위를 설명함. SensorCapabilityBaseType에서 최소값과 최대값은 카메라 센서에서 사용되지 않음
Describes the range of the camera sensor that can be used in the sensor.
Describes the range of apertures that the camera sensor can perceive for valueRangeType. The minimum and maximum values in SensorCapabilityBaseType are not used by the camera sensor
이 필드는 셔터스피드 범위 엘리먼트(ShutterSpeedRange element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음
This field, which is present in the binary representation, signals the presence of the ShutterSpeedRange element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a ShutterSpeedRange element and has a binary representation. If 1, this element exists, and if it is 0, this element does not exist
valueRangeType에 대해 카메라 센서가 인지할 수 있는 셔터스피드의 범위를 설명함
SensorCapabilityBaseType에서 최소값과 최대값은 카메라 센서에서 사용되지 않음Describes the range of the shutter speed that the camera sensor can perceive in terms of valueRangeType. Its default unit is seconds (sec) .NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the range of shutter speeds that the camera sensor can perceive for valueRangeType
The minimum and maximum values in SensorCapabilityBaseType are not used by the camera sensor
ISO에 기초하여 ISO 스피드 범위를 설명함. SensorCapabilityBaseType에서 최소값과 최대값은 카메라 센서에서 사용되지 않음Describes the range of ISO Speed based on ISO 12232: 2006 that the camera sensor can perceive in terms of valueRangeType.NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes ISO speed range based on ISO. The minimum and maximum values in SensorCapabilityBaseType are not used by the camera sensor
이 필드는 노출값 범위 엘리먼트(ExposureValueRange element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우 이 엘리먼트는 존재하지 않음
This field, which is present in the binary representation, signals the presence of the ExposureValueRange element. A value of "1" means that this element is present and 0 means that this element does not present.
This field signals the presence of an ExposureValueRange element and has a binary representation. If 1, this element exists and if it is 0, this element does not exist
valueRangeType에서 카메라 센서가 인지할 수 있는 노출값의 범위를 설명함. SensorCapabilityBaseType에서 최소값과 최대값은 카메라 센서에서 사용되지 않음Describes the range of the exposure value that the camera sensor can perceive in terms of valueRangeType.NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
ValueRangeType describes the range of exposure values that the camera sensor can recognize. The minimum and maximum values in SensorCapabilityBaseType are not used by the camera sensor
카메라 센서가 오직 정지 이미지를 슈팅하는 경우, 0임. 카메라 센서가 비디오를 기록하는 경우, 1임A value of 0 means that this camera sensocan only shoot still image. A value of " 1 "
0 if the camera sensor shoots only the still image. If the camera sensor records video,
카메라 센서가 모노크롬 이미지를 인지할 수 있는 경우, 0임. 뻤씔? 컬러 이미지를 인식할 수 있는 경우, 1임A value of * j * means that this camera can only perceive monochrome image. A value of " 1 " means that the camera can perceive the color image.
0 if the camera sensor can recognize monochrome images. Happy? If the color image can be recognized,
이 필드는 컬러필터 어레이 타입 요소(ColorFilterArrayType element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the ColorFilterArrayType element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a color filter array type element (ColorFilterArrayType element) and has a binary representation. If 1, this element exists, and if it is 0, this element does not exist
0000 Reserved
0001 Bayer
0010 RGBE
0011 CYYM
0100 CYGM
0101 RGBW Bayer
0110 RGBW #1
0111 RGBW #2
1000 RGBW #3
1001-1111 ReservedDescribes the color filter array applied to the image sensor of the camera.
0000 Reserved
0001 Bayer
0010]
0011 CYYM
0100 CYGM
0101 RGBW Bayer
0110 RGBW # 1
0111 RGBW # 2
1000 RGBW # 3
1001-1111 Reserved
이 필드는 컬러스페이스 엘리먼트의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트가 존재하고, 0인 경우 이 엘리먼트가 존재하지 않음This field, which is present in the binary representation, signals the presence of the ColorSpaceType element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a color space element and has a binary representation. 1, this element exists, and if it is 0, this element does not exist
적용된 컬러스페이스를 설명함Describes the color space applied.
Describes applied color space
valueRangeType에 대해 카메라 센서가 인지할 수 있는 비트 깊이의 범위를 설명함
SensorCapabilityBaseType에서 최소값과 최대값은 카메라 센서에서 사용되지 않음Describes the range of the camera sensor in terms of value in the range of values. RangeType.NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the range of bit depths that the camera sensor can perceive for valueRangeType.
The minimum and maximum values in SensorCapabilityBaseType are not used by the camera sensor
이 필드는 스펙트럼 범위 엘리먼트 (SpectrumRange element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트가 존재하고, 0인 경우 이 엘리먼트가 존재하지 않음This field, which is present in the binary representation, signals the presence of the SpectrumRange element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a Spectrum Range element and has a binary representation. 1, this element exists, and if it is 0, this element does not exist
valueRangeType에 대해 카메라 센서가 인지한 스펙트럼 범위를 설명함. 이것의 기본적인 단위는 나노미터임.
SensorCapabilityBaseType에서 최대값과 최소값은 카메라 센서에 사용되지 않음
Describes the spectrum range that the camera sensor can perceive in terms of valueRangeType. Its default unit is nanometer (nm) .NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describe the spectral range perceived by the camera sensor for valueRangeType. The basic unit of this is the nanometer.
Maximum and minimum values in SensorCapabilityBaseType are not used for camera sensors
이 필드는 열적 범위 엘리먼트(ThermalRange element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트가 존재하고, 0인 경우 이 엘리먼트가 존재하지 않음
This field, which is present in the binary representation, signals the presence of the ThermalRange element. A value of " 1 " means that this element is present and 0 means that the elent is not present.
This field signals the presence of a ThermalRange element and has a binary representation. 1, this element exists, and if it is 0, this element does not exist
valueRangeType에 대해 카메라 센서가 인지한 열적 반응 범위를 설명함. 이것의 기본단위는 도씨(℃)임. SensorCapabilityBaseType에서 최소값과 최대값은 카메라 센서에서 사용되지 않음
Describes the thermal response range that the camera sensor can perceive in terms of valueRangeType. Its default unit is Celsius (C) .NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describe the thermal response range recognized by the camera sensor for valueRangeType. The basic unit of this is the temperature (℃). The minimum and maximum values in SensorCapabilityBaseType are not used by the camera sensor
이 필드는 화이트밸런스온도 엘리먼트(WhiteBalanceTemp element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우 이 엘리먼트는 존재하지 않음
This field, which is present in the binary representation, signals the presence of the WhiteBalanceTempRange element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a White Balance Temp element and has a binary representation. If 1, this element exists and if it is 0, this element does not exist
valueRangeType에 대해 카메라 센서가 인지할 수 있는 화이트밸런스 온도 범위를 설명함. 이는 캘빈이 기본 단위임. SensorCapabilityBaseType에서 최소값과 최대값은 사용되지 않음
Describes the white balance temperature range that the camera sensor can perceive in terms of valueRangeType. Its default unit is Kelvin (K) .NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the white balance temperature range that the camera sensor can perceive for valueRangeType. Calvin is the basic unit. Minimum and maximum values are not used in SensorCapabilityBaseType
이 필드는 화이트밸런스틴트 엘리먼트의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우 이 엘리먼트는 존재하지 않음
This field, which is present in the binary representation, signals the presence of the WhiteBalanceTintRange element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a white balance tint element and has a binary representation. If 1, this element exists and if it is 0, this element does not exist
valueRangeType에 대해 카메라 센서가 인지할 수 있는 화이트밸런스 틴트 값의 범위를 설명함. SensorCapabilityBaseType에서 최소값과 최대값은 카메라 센서에서 사용될 수 없음Describes the range of white balance tint values that the camera can perceive in terms of valueRangeType.NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the range of white balance tint values that the camera sensor can perceive for valueRangeType. Minimum and maximum values in SensorCapabilityBaseType can not be used in camera sensor
*사운드*sound
아래는 음파 획득을 위한 사운드 트랜듀서 특징(마이크로폰)를 제공한다.The following provides a sound transducer feature (microphone) for sound wave acquisition.
표 14은 시맨틱스를 나타낸다.Table 14 shows the semantics.
<complexContent>
<extension base="cidl:SensorCapabilityBaseType">
<sequence>
<element name="micorphoneType"
type="scdv:mcrophoneListType" minOccurs="0"/>
<element name="transcuderArrayType" type="scdv:transducerArrayListType" minOccurs="0"/>
<element name="probtType" type="scdv:probeListType" minOccurs="0"/>
<element name="polarPatternType" type="scdv:polarPatternListType" minOccurs="0"/>
<element name="frequencyRange" type="scdv:frequencyRangeType" minOccurs="0"/>
<element name="responseType" type="scdv:frequencyRangeType" minOccurs="0"/>
<element name="pickSensitivity" type="float" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType>
<simpleType name="microphoneListType">
<restriction base="string">
<enumeration value="condenser"/>
<enumeration value="dynamic"/>
<enumeration value="ribbon"/>
<enumeration value="carbon"/>
<enumeration value="piezoelectric"/>
<enumeration value="fiber optic"/>
<enumeration value="laser"/>
<enumeration value="liquied"/>
<enumeration value="MEMS"/>
</restriction>
</simpleType>
<simpleType name="transducerArrayListType">
<restriction base="string">
<enumeration value="single array"/>
<enumeration value="linear array"/>
<enumeration value="curvilinear"/>
<enumeration value="phased"/>
<enumeration value="annular"/>
<enumeration value="matrix array"/>
<enumeration value="MEMS"/>
</restriction>
</simpleType>
<simpleType name="probeListType">
<restriction base="string">
<enumeration value="linear"/>
<enumeration value="sector"/>
<enumeration value="convex"/>
<enumeration value="carbon"/>
<enumeration value="trapezoid"/>
</restriction>
</simpleType>
<simpleType name="polarPatternListType">
<restriction base="string">
<enumeration value="omnidirectional"/>
<enumeration value="bi-directional"/>
<enumeration value="subcardioid"/>
<enumeration value="cardioid"/>
<enumeration value="hypercardioid"/>
<enumeration value="supercardioid"/>
<enumeration value="shotgun"/>
</restriction>
</simpleType>
<complexType name="frequencyRangeType">
<sequence>
<element name="minFrequency" type="float"/>
<element name="maxFrequency" type="float"/>
</sequence>
</complexType>
<complexType name = "microphoneCapabilityType">
<complexContent>
<extension base = "cidl: SensorCapabilityBaseType">
<sequence>
<element name = "micorphoneType" type = "scdv: mcrophoneListType" minOccurs = "0"/>
<element name = "transcuderArrayType" type = "scdv: transducerArrayListType" minOccurs = "0"/>
<element name = "probtType" type = "scdv: probeListType" minOccurs = "0"/>
<element name = "polarPatternType" type = "scdv: polarPatternListType" minOccurs = "0"/>
<element name = "frequencyRange" type = "scdv: frequencyRangeType" minOccurs = "0"/>
<element name = "responseType" type = "scdv: frequencyRangeType" minOccurs = "0"/>
<element name = "pickSensitivity" type = "float" minOccurs = "0"/>
</ sequence>
</ extension>
</ complexContent>
</ complexType>
<simpleType name = "microphoneListType">
<restriction base = "string">
<enumeration value = "condenser"/>
<enumeration value = "dynamic"/>
<enumeration value = "ribbon"/>
<enumeration value = "carbon"/>
<enumeration value = "piezoelectric"/>
<enumeration value = "fiber optic"/>
<enumeration value = "laser"/>
<enumeration value = "liquied"/>
<enumeration value = "MEMS"/>
</ restriction>
</ simpleType>
<simpleType name = "transducerArrayListType">
<restriction base = "string">
<enumeration value = "single array"/>
<enumeration value = "linear array"/>
<enumeration value = "curvilinear"/>
<enumeration value = "phased"/>
<enumeration value = "annular"/>
<enumeration value = "matrix array"/>
<enumeration value = "MEMS"/>
</ restriction>
</ simpleType>
<simpleType name = "probeListType">
<restriction base = "string">
<enumeration value = "linear"/>
<enumeration value = "sector"/>
<enumeration value = "convex"/>
<enumeration value = "carbon"/>
<enumeration value = "trapezoid"/>
</ restriction>
</ simpleType>
<simpleType name = "polarPatternListType">
<restriction base = "string">
<enumeration value = "omnidirectional"/>
<enumeration value = "bi-directional"/>
<enumeration value = "subcardioid"/>
<enumeration value = "cardioid"/>
<enumeration value = "hypercardioid"/>
<enumeration value = "supercardioid"/>
<enumeration value = "shotgun"/>
</ restriction>
</ simpleType>
<complexType name = "frequencyRangeType">
<sequence>
<element name = "minFrequency" type = "float"/>
<element name = "maxFrequency" type = "float"/>
</ sequence>
</ complexType>
표 15 시맨틱스를 나타낸다.Table 15 shows the semantics.
마이크로폰의 타입을 설명함
0000 Reserved
0001 Condenser
0010 Dynamic
0011 Ribbon
0100 Carbon
0101 Piezoelectric
0110 Fiber Optic
0111 Laser
1000 Liquid
1001 MEMS
1010-1111 ReservedDefines type of microphone
Describe the type of microphone
0000 Reserved
0001 Condenser
0010 Dynamic
0011 Ribbon
0100 Carbon
0101 Piezoelectric
0110 Fiber Optic
0111 Laser
1000 Liquid
1001 MEMS
1010-1111 Reserved
0000 Reserved
0001 single array
0010 linear array
0011 curvilinear
0100 phased
0101 annular
0110 matrix array
0111-1111 ReservedDefines array types of transducer probes Describes array types of transducer probes
0000 Reserved
0001 single array
0010 linear array
0011 curvilinear
0100 phased
0101 annular
0110 matrix array
0111-1111 Reserved
0000 Reserved
0001 linear probe
0010 sector probe
0011 convex probe
0100 trapezoid probe
0101-1111 ReservedDefines probing type of transducer Describes the probing type of a transducer
0000 Reserved
0001 linear probe
0010 sector probe
0011]
0100 trapezoid probe
0101-1111 Reserved
0000 Reserved
0001 Omnidirectional
0010 Bi-directional (or Figure of 8)
0011 Subcardioid
0100 Cardioid
0101 Hypercardioid
0110 Supercardioid
0111 Shotgun
1000-1111 ReservedDefines the polar pattern of a transducer transducer.
0000 Reserved
0001 Omnidirectional
Bi-directional (or Figure 8)
0011 Subcardioid
0100 Cardioid
0101 Hypercardioid
0110 Supercardioid
0111 Shotgun
1000-1111 Reserved
Hz 단위의 픽업 주파수Pickup frequency range in Hz
Pickup frequency in Hz
'1' if Tailored frequency response
0인 경우, 플랫 주파수 응답이고, 1인 경우 테일러드(tailored) 주파수 응답임'0' if Flat frequency response
'1' if Tailored frequency response
0, it is a flat frequency response, and when it is 1, it is a tailored frequency response.
마이크로폰의 테일러드 주파수 응답에 대한 픽업 응답 주파수 범위Pick response frequency range for tailored frequency response
Pickup response frequency range for microphone tailored frequency response
Hz 단위의 최소 주파수Minimum frequency in Hz
Minimum frequency in Hz
아래의 시맨틱스에서 마이크로폰 능력이 설명된다. 마이크로폰은는 "MCID_001"의 ID를 가진다. 이것은 20Hz-8kHz 사이에 테일러드된 주파수 픽업 범위의 cardioid pattern이 20Hz-20kHz 인 콘덴서 마이크로폰이다.The following semantics describe the microphone capability. The microphone has an ID of " MCID_001 ". It is a condenser microphone with a cardioid pattern of 20Hz-20kHz with a tailored frequency pickup range between 20Hz-8kHz.
표 16는 신택스를 나타낸다.Table 16 shows the syntax.
<cidl:SensorDeviceCapability xsi:type="scdv:microphoneCapabilityType" id="MCID_001">
<microphoneType>"condenser"</microphoneType>
<polarPatternType>"cardioid"</polarPatternType>
<scdv:frequencyRange>
<scdv:minFrequency>20</scdv:minFrequency>
<scdv:maxFrequency>20000</scdv:maxFrequency>
</scdv:frequencyRange>
<scdv:responseType>
<scdv:minFrequency>20</scdv:minFrequency >
<scdv:maxFrequency >8000</scdv:maxFrequency >
</scdv:responseType>
</cidl:SensorDeviceCapability>
<cidl: SensorDeviceCapability xsi: type = "scdv: microphoneCapabilityType" id = "MCID_001">
<microphoneType>"condenser"</microphoneType>
<polarPatternType>"cardioid"</polarPatternType>
<scdv: frequencyRange>
<scdv: minFrequency> 20 </ scdv: minFrequency>
<scdv: maxFrequency> 20000 </ scdv: maxFrequency>
</ scdv: frequencyRange>
<scdv: responseType>
<scdv: minFrequency> 20 </ scdv: minFrequency>
<scdv: maxFrequency> 8000 </ scdv: maxFrequency>
</ scdv: responseType>
</ cidl: SensorDeviceCapability>
(3) 미디어 오케스트레이션을 위한 추가적인 사운드 메타데이터(3) Additional sound metadata for media orchestration
어플리케이션 또는 입력 사운드 트랜듀어 타입에 따라 캡쳐 사운드의 특징은 다르다. 미디어 프로세서가 획득한 데이터를 성공적으로 처리(예를 들면, 그룹핑, 병합, 분리 등)할 수 있도록, 트랜듀서의 특징에 대한 좀더 상세한 메타데이터가 필요하다.Depending on the type of application or input sound transducer, the characteristics of the capture sound are different. More detailed metadata about the characteristics of the transducer is needed so that the media processor can successfully process (e.g., group, merge, split, etc.) the acquired data.
본 발명은 입력 사운드 트랜듀서의 특징에 대해 미디어 프로세서를 위한 정보를 제공한다.The present invention provides information for the media processor with respect to the features of the input sound transducer.
표 17은 신택스를 나타낸다.Table 17 shows the syntax.
표 18은 시맨틱스를 나타낸다.Table 18 shows the semantics.
사운드 트랜듀서의 방향을 정의함Defines direction of sound transducer
Defines the direction of the sound transducer
0000 Reserved
0001 Condenser
0010 Dynamic
0011 Ribbon
0100 Carbon
0101 Piezoelectric
0110 Fiber Optic
0111 Laser
1000 Liquid
1001 MEMS
1010-1111 ReservedDefines the type of transducer transducer.
0000 Reserved
0001 Condenser
0010 Dynamic
0011 Ribbon
0100 Carbon
0101 Piezoelectric
0110 Fiber Optic
0111 Laser
1000 Liquid
1001 MEMS
1010-1111 Reserved
0000 Reserved
0001 single array
0010 linear array
0011 curvilinear
0100 phased
0101 annular
0110 matrix array
0111-1111 ReservedDefines array types of transducer probes Defines the array type of the transducer probe
0000 Reserved
0001 single array
0010 linear array
0011 curvilinear
0100 phased
0101 annular
0110 matrix array
0111-1111 Reserved
0000 Reserved
0001 linear probe
0010 sector probe
0011 convex probe
0100 trapezoid probe
0101-1111 ReservedDefines the probing type of the transducer transducer.
0000 Reserved
0001 linear probe
0010 sector probe
0011]
0100 trapezoid probe
0101-1111 Reserved
0000 Reserved
0001 Omnidirectional
0010 Bi-directional (or Figure of 8)
0011 Subcardioid
0100 Cardioid
0101 Hypercardioid
0110 Supercardioid
0111 Shotgun
1000-1111 ReservedDefines polar pattern of transducer Defines the polar pattern of the transducer
0000 Reserved
0001 Omnidirectional
Bi-directional (or Figure 8)
0011 Subcardioid
0100 Cardioid
0101 Hypercardioid
0110 Supercardioid
0111 Shotgun
1000-1111 Reserved
Hz 단위의 최소 픽업 주파수Minimum pickup frequency in Hz
Minimum pickup frequency in Hz
'1' if Tailored frequency response
0인 경우, 플랫 주파수 응답이고, 1인 경우 테일러드 주파수 응답임'0' if Flat frequency response
'1' if Tailored frequency response
If 0, it is a flat frequency response, and if it is 1, it is a tailored frequency response.
Hz 단위의 최소 픽업 응답 주파수Minimum Pick response frequency in Hz
Minimum pickup response frequency in Hz
mV/Pa 단위의 트랜듀서의 픽업 민감도Pick sensitivity of transducer in mV / Pa
Pickup sensitivity of the transducer in mV / Pa
트랜듀서의 특징에 의존하여, 미디어 프로세서는 획득한 음파의 목적을 식별하고, 적절하게 처리할 수 있다. 예를 들어, 만약 트랜듀서 타입이 주파수 범위의 cardioid pattern 이 2-8kHz 사이의 테일러드된 2-20kHz인 콘덴서인 경우, 트랜듀서(마이크로폰)는 라이브 보컬로 인지될 수 있다. 유사하게, 주파수 범위가 5MHz~10MHz인 경우, 트랜듀서는 진단용 초음파(diagnostics ultrasonic)를 위해 사용된다.Depending on the characteristics of the transducer, the media processor can identify the purpose of the acquired sound wave and properly process it. For example, if the transducer type is a condenser with a tailored 2-20 kHz cardioid pattern in the frequency range between 2-8 kHz, the transducer (microphone) can be recognized as a live vocal. Similarly, when the frequency range is 5 MHz to 10 MHz, the transducer is used for diagnostics ultrasonic.
표 19은 신택스 나타낸다.Table 19 shows the syntax.
표 20은 시맨틱스를 나타낸다.Table 20 shows semantics.
마이크로폰의 위치 정보에 기초한 글로벌 위치 센서를 정의함Defines global positioning sensor based position information of microphone
Define a global position sensor based on microphone position information
0000 Reserved
0001 Condenser
0010 Dynamic
0011 Ribbon
0100 Carbon
0101 Piezoelectric
0110 Fiber Optic
0111 Laser
1000 Liquid
1001 MEMS
1010-1111 ReservedDefines type of microphone Defines the type of microphone
0000 Reserved
0001 Condenser
0010 Dynamic
0011 Ribbon
0100 Carbon
0101 Piezoelectric
0110 Fiber Optic
0111 Laser
1000 Liquid
1001 MEMS
1010-1111 Reserved
0000 Reserved
0001 single array
0010 linear array
0011 curvilinear
0100 phased
0101 annular
0110 matrix array
0111-1111 ReservedDefines array types of transducer probes Defines array types of transducer probes
0000 Reserved
0001 single array
0010 linear array
0011 curvilinear
0100 phased
0101 annular
0110 matrix array
0111-1111 Reserved
0000 Reserved
0001 linear probe
0010 sector probe
0011 convex probe
0100 trapezoid probe
0101-1111 ReservedDefines probing type of transducer Defines transducer probing type
0000 Reserved
0001 linear probe
0010 sector probe
0011]
0100 trapezoid probe
0101-1111 Reserved
0000 Reserved
0001 Omnidirectional
0010 Bi-directional (or Figure of 8)
0011 Subcardioid
0100 Cardioid
0101 Hypercardioid
0110 Supercardioid
0111 Shotgun
1000-1111 ReservedDefines polar pattern of transducer Defines transducer polar pattern
0000 Reserved
0001 Omnidirectional
Bi-directional (or Figure 8)
0011 Subcardioid
0100 Cardioid
0101 Hypercardioid
0110 Supercardioid
0111 Shotgun
1000-1111 Reserved
Hz 단위의 픽업 주파수 범위Pickup frequency range in Hz
Pickup frequency range in Hz
'1' if Tailored frequency response
0인 경우, 플랫 주파수 응답이고, 1인 경우 테일러드 주파수 응답임'0' if Flat frequency response
'1' if Tailored frequency response
If 0, it is a flat frequency response, and if it is 1, it is a tailored frequency response.
테일러드된 주파수 응답 마이크로폰을를 위한 픽업 응답 주파수 범위Pick response frequency range for tailored frequency response
Pickup response frequency range for tailored frequency response microphones
Hz 단위의 최소 주파수Minimum frequency in Hz
Minimum frequency in Hz
아래의 시맨틱스에서 마이크로폰 능력이 설명된다. 마이크로폰은는 "MCID_001"의 ID를 가진다. 이것은 20Hz-8kHz 사이에 테일러드된 주파수 픽업 범위의 cardioid pattern이 20Hz-20kHz 인 콘덴서 마이크로폰이다.The following semantics describe the microphone capability. The microphone has an ID of " MCID_001 ". It is a condenser microphone with a cardioid pattern of 20Hz-20kHz with a tailored frequency pickup range between 20Hz-8kHz.
표 21은 시맨틱스를 나타낸다.Table 21 shows the semantics.
<cidl:SensorDeviceCapability xsi:type="scdv:microphoneCapabilityType" id="MCID_001">
<microphoneType>"condenser"</microphoneType>
<polarPatternType>"cardioid"</polarPatternType>
<scdv:frequencyRange>
<scdv:minFrequency>20</scdv:minFrequency>
<scdv:maxFrequency>20000</scdv:maxFrequency>
</scdv:frequencyRange>
<scdv:responseType>
<scdv:minFrequency>20</scdv:minFrequency >
<scdv:maxFrequency >8000</scdv:maxFrequency >
</scdv:responseType>
</cidl:SensorDeviceCapability>
<cidl: SensorDeviceCapability xsi: type = "scdv: microphoneCapabilityType" id = "MCID_001">
<microphoneType>"condenser"</microphoneType>
<polarPatternType>"cardioid"</polarPatternType>
<scdv: frequencyRange>
<scdv: minFrequency> 20 </ scdv: minFrequency>
<scdv: maxFrequency> 20000 </ scdv: maxFrequency>
</ scdv: frequencyRange>
<scdv: responseType>
<scdv: minFrequency> 20 </ scdv: minFrequency>
<scdv: maxFrequency> 8000 </ scdv: maxFrequency>
</ scdv: responseType>
</ cidl: SensorDeviceCapability>
<제2 실시예>≪ Embodiment 2 >
*센서 능력 명세 (Sensor Capability Description)* Sensor Capability Description
본 발명의 일실시예에 따르면, 각각의 센서들의 센서 능력을 설명한다. 센서들의 위치를 결정하기 위해, 사용자의 현실 세계 환경에 의존하는 센서를 위한 글로벌 좌표(global coordinate)가 정의된다. 각 디바이스의 센서 능력 명세는 센서 능력 기본 타입(SensorCapabilityBaseType)으로부터 도출된다.According to one embodiment of the present invention, the sensor capability of each sensor is described. In order to determine the position of the sensors, a global coordinate is defined for the sensor which depends on the user's real world environment. The sensor capability specification of each device is derived from the sensor capability basic type (SensorCapabilityBaseType).
센서를 위한 글로벌 좌표의 시작(origina)은 우측 좌표 시스템(right handed coordinate system)에서 사용자의 위치에 존재한다. Y축은 중력 방향을 나타내고, Z축은 스크린의 오른쪽 상단 코너의 방향이다. X축은 사용자의 위치와 반대 방향이다.The origin of the global coordinates for the sensor is at the user's location in the right handed coordinate system. The Y axis represents the direction of gravity and the Z axis is the direction of the upper right corner of the screen. The X axis is in the opposite direction to the user's position.
*센서 능력 기본 타입 (Sensor capability base type)* Sensor capability base type (Sensor capability base type)
표 22는 Sensor capability base type 에 대한 시맨틱스를 나타낸다.Table 22 shows the semantics for the Sensor capability base type.
<complexContent>
<extension base="dia:TerminalCapabilityBaseType">
<sequence>
<element name="Accuracy" type="cidl:AccuracyType" minOccurs="0"/>
</sequence>
<attributeGroup ref="cidl:sensorCapabilityBaseAttributes"/>
</extension>
</complexContent>
</complexType>
<complexType name="AccuracyType" abstract="true"/>
<complexType name="PercentAccuracy">
<complexContent>
<extension base="cidl:AccuracyType">
<attribute name="value" type="mpeg7:zeroToOneType"/>
</extension>
</complexContent>
</complexType>
<complexType name="ValueAccuracy">
<complexContent>
<extension base="cidl:AccuracyType">
<attribute name="value" type="float"/>
</extension>
</complexContent>
</complexType>
<complexType name = "SensorCapabilityBaseType" abstract = "true">
<complexContent>
<extension base = "dia: TerminalCapabilityBaseType">
<sequence>
<element name = "Accuracy" type = "cidl: AccuracyType" minOccurs = "0"/>
</ sequence>
<attributeGroup ref = "cidl: sensorCapabilityBaseAttributes"/>
</ extension>
</ complexContent>
</ complexType>
<complexType name = "AccuracyType" abstract = "true"/>
<complexType name = "PercentAccuracy">
<complexContent>
<extension base = "cidl: AccuracyType">
<attribute name = "value" type = "mpeg7: zeroToOneType"/>
</ extension>
</ complexContent>
</ complexType>
<complexType name = "ValueAccuracy">
<complexContent>
<extension base = "cidl: AccuracyType">
<attribute name = "value" type = "float"/>
</ extension>
</ complexContent>
</ complexType>
표 23은 시맨틱스를 나타낸다.Table 23 shows the semantics.
표 24는 SensorCapabilityBaseType에 대한 시맨틱스를 나타낸다.Table 24 shows the semantics for SensorCapabilityBaseType.
SensorCapabilityBaseTypeSensor capability basic type
SensorCapabilityBaseType
센서 능력 기본 타입은 터미널 능력 기본 타입(TeminalCapabilityBaseType)으로 확장되고, 센서 디바이스 능력 메타데이터 타입(sensor device capability metadata types)의 일부분으로 정의된 타입들의 부분 집합에 대해 기본 요약 타입(base abstract type)을 제공함SensorCapabilityBaseType shall extend dia: TeminalCapabilityBaseType as defined in ISO / IEC 21000-7 and provides a base abstract type for a subset of types of sensor device capability metadata types.
The sensor capability base type is extended to the terminal capability base type (TeminalCapabilityBaseType) and provides a base abstract type for a subset of the types defined as part of the sensor device capability metadata types.
AccuracyFlagAccuracy flag
AccuracyFlag
이 필드는 활성화 속성(activation attribute)의 존재를 시그널링하고, 이진 표현을 가짐. 1인 경우, 활성화 속성은 사용되고, 0인 경우, 활성화 속성은 사용되지 않음This field, which is present in the binary representation, signals the presence of the activation attribute. A value of "1" means the attribute shall be used and 0 means the attribute shall be used.
This field signals the presence of an activation attribute and has a binary representation. If 1, the activation attribute is used; if 0, the activation attribute is not used.
정확도 타입(accuracy type)에서 측정된 양(measured quantity)와 실제 값(actual value)의 근접도(degree of closeness)를 설명함Describes the degree of closeness of a quantity to its actual value in AccuracyType.
Describe the degree of closeness between the measured quantity and the actual value in the accuracy type.
sensorCapabilityBase AttributesSensor Capabilities Basic Properties
sensorCapabilityBase Attributes
센서 능력들을 위한 속성들의 그룹을 설명함Describes a group of attributes for the sensor capabilities.
Describe a group of attributes for sensor capabilities
표 25는 AccuracyType 에 대한 시맨틱스를 나타낸다.Table 25 shows the semantics for AccuracyType.
AccuracyType
Accuracy Type
AccuracyType
상대값 또는 절대값 중 어느 하나로 정확도를 설명하는 선택을 제공하는 부모 타입(parent type)이 될 수 있음Becomes a parent type providing a choice of accuracy in either relative value or absolute value.
It can be a parent type that provides a choice that describes the accuracy in either relative or absolute values.
AccuracySelectSelect Accuracy
AccuracySelect
이 필드는 정확도 스킴이 사용되는 것인지를 설명하며, 이진 표현을 가짐. 0인 경우, 퍼센트 정확도 타입(PercentAccuracy type)이 사용되고, 1인 경우, 값 정확도 타입 (ValueAccuracy type)이 사용됨.This field, which is present only in the binary representation, will be used with accuracy. * j * means that the PercentAccuracy type shall be used, and "1" means that the ValueAccuracy type shall be used.
This field describes whether an accuracy scheme is used and has a binary representation. If 0, the PercentAccuracy type is used; if 1, the ValueAccuracy type is used.
0에서 1.0 사이로 변화하는 값을 이용하여 상대적인 방법으로 측정된 양과 실제 값의 근접도를 설명함Describes the degree of closeness of a measured quantity to its actual value in a relative way using a value ranging from 0 to 1.0.
Describes the relative proximity of the measured value to the actual value using values ranging from 0 to 1.0.
정확도가 0%인 경우 0이고, 정확도가 100%인 경우 1의 값을 가지는 정확도를 위해 상대적인 방법으로 실제값을 제공함.Provides an actual value in a relative way for accuracy where 0 means 0% accuracy and value 1.0 means 100% accuracy. ISO / IEC 15938-5: 2003.
Provides the actual value in a relative manner for accuracy with a value of 1 for 0% accuracy and 100% accuracy.
주어진 단위의 절대값에 대해 측정된 양과 실제값 간의 근접도를 설명함Describes the degree of closeness of a quantity to its actual value in an absolute value of given unit.
Describes the proximity between the measured amount and the actual value for the absolute value of a given unit
Valuevalue
Value
주어진 단위의 (-value, +value)로서 가능한 에러 범위를 의미하는 값을 의미하며, 절대적인 방식으로 실제 값을 제공함Provides an actual value in an absolute way, where the value means the possible range of error as (-value, + value) of given unit.
A value of (-value, + value) for a given unit, meaning a range of possible errors, and provides the actual value in an absolute manner.
센서 능력 기본 타입(SensorCapabilityBaseType)을 이용하여, 개별적인 센서 디바이스 능력 타입들(sensor device capability types)이 제공된다.Using the sensor capability basic type (SensorCapabilityBaseType), individual sensor device capability types are provided.
*센서 능력 기본 속성 (Sensor capability base attributes)* Sensor capability base attributes
표 26는 Sensor capability base attributes 에 대한 신택스를 나타낸다.Table 26 shows the syntax for the Sensor capability base attributes.
<attribute name="unit" type="mpegvct:unitType" use="optional"/>
<attribute name="maxValue" type="float" use="optional"/>
<attribute name="minValue" type="float" use="optional"/>
<attribute name="offset" type="float" use="optional"/>
<attribute name="numOfLevels" type="nonNegativeInteger" use="optional"/>
<attribute name="sensitivity" type="float" use="optional"/>
<attribute name="SNR" type="float" use="optional"/>
</attributeGroup><attributeGroup name = "sensorCapabilityBaseAttributes">
<attribute name = "unit" type = "mpegvct: unitType" use = "optional"/>
<attribute name = "maxValue" type = "float" use = "optional"/>
<attribute name = "minValue" type = "float" use = "optional"/>
<attribute name = "offset" type = "float" use = "optional"/>
<attribute name = "numOfLevels" type = "nonNegativeInteger" use = "optional"/>
<attribute name = "sensitivity" type = "float" use = "optional"/>
<attribute name = "SNR" type = "float" use = "optional"/>
</ attributeGroup>
표 28은 SensorCapabilityBaseAttributes 에 대한 시맨틱스를 나타낸다.Table 28 shows the semantics for SensorCapabilityBaseAttributes.
sensorCapabilityBase AttributesSensor Capabilities Basic Properties
sensorCapabilityBase Attributes
센서 능력들을 위한 속성들의 그룹을 설명함Describes a group of attributes for the sensor capabilities.
Describe a group of attributes for sensor capabilities
unitFlagUnit flag
unitFlag
이 필드는 활성화 속성(activation attribute)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 활성화 속성이 사용되고, 0인 경우 활성화 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the activation attribute. A value of "1" means the attribute shall be used and 0 means the attribute shall not be bused.
This field signals the presence of an activation attribute and has a binary representation. If 1, the activation attribute is used; if 0, the activation attribute is not used.
이 필드는 활성화 속성(activation attribute)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 활성화 속성이 사용되고, 0인 경우 활성화 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the activation attribute. A value of "1" means the attribute shall be used and 0 means the attribute shall not be used.
This field signals the presence of an activation attribute and has a binary representation. If 1, the activation attribute is used; if 0, the activation attribute is not used.
이 필드는 활성화 속성(activation attribute)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 활성화 속성이 사용되고, 0인 경우 활성화 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the activation attribute. A value of "1" means the attribute shall be used and 0 means the attribute shall not be bused.
This field signals the presence of an activation attribute and has a binary representation. If 1, the activation attribute is used; if 0, the activation attribute is not used.
이 필드는 활성화 속성(activation attribute)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 활성화 속성이 사용되고, 0인 경우 활성화 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the activation attribute. A value of "1" means the attribute shall be used and 0 means the attribute shall not be bused.
This field signals the presence of an activation attribute and has a binary representation. If 1, the activation attribute is used; if 0, the activation attribute is not used.
이 필드는 활성화 속성(activation attribute)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 활성화 속성이 사용되고, 0인 경우 활성화 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the activation attribute. A value of "1" means the attribute shall be used and 0 means the attribute shall not be bused.
This field signals the presence of an activation attribute and has a binary representation. If 1, the activation attribute is used; if 0, the activation attribute is not used.
SNRFlagSNR flag
SNRFlag
이 필드는 활성화 속성(activation attribute)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 활성화 속성이 사용되고, 0인 경우 활성화 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the activation attribute. A value of "1" means the attribute shall be used and 0 means the attribute shall be used.
This field signals the presence of an activation attribute and has a binary representation. If 1, the activation attribute is used; if 0, the activation attribute is not used.
unitunit
unit
Specifies the unit of the sensor's measuring value as a reference to a classification scheme term provided by UnitTypeCS defined in A.2.1 of ISO/IEC 23005-6, if a unit other than the default unit specified in the semantics of the maxValue and minValue is used for the values of maxValue and minValue are used.
센서의 측정값의 단위를 설명하며, UnitTypeCS에 의해 제공되는 분류 스킴 용어를 참고하여 특정됨. 최대값과 최소값의 시맨틱스로 특정된 기본 단위가 아닌 다른 단위가 사용될 수 있음.Describes the unit of the sensor's measuring value.
The unit of the measurement is a reference to a classification scheme as provided in A.2.1 of ISO / IEC 23005-6, if a unit other than the default unit specified in the semantics of the maxValue and minValue is used for the values of maxValue and minValue are used.
Describes the unit of measurement of the sensor and is specified with reference to the classification scheme term provided by UnitTypeCS. Units other than the base unit specified by the semantics of the maximum and minimum values may be used.
센서가 인지할 수 있는 최대값을 설명함. 각각의 센서 타입에 따라 이것은 달라질 수 있음
Describes the maximum value that the sensor can perceive. The terms will be different according to the individual sensor type.
Describe the maximum value that the sensor can recognize. This can vary depending on each sensor type
센서가 인지할 수 있는 최소값을 설명함. 각각의 센서 타입에 따라 이것은 달라질 수 있음
Describes the minimum value that the sensor can perceive. The terms will be different according to the individual sensor type.
Describes the minimum value the sensor can recognize. This can vary depending on each sensor type
특정 절대값을 획득하기 위해, 기본값(base value)에 더해진 위치의 값을 설명함
Describes the number of value locations added to a base value in order to get a specific absolute value.
To obtain a specific absolute value, we describe the value of the position added to the base value.
EXAMPLE
The value 5 means the sensor can perceive 5 steps from minValue to maxValue.
최대값과 최소값 사이에서 센서가 인지할 수 있는 레벨의 값을 숫자로 설명한 것. 값이 5인 경우, 센서는 최소값으로부터 최대값까지 5단계로 인지할 수 있음Describes the number of values that the sensor can perceive in the maximum and minimum values.
EXAMPLE The value 5 means the sensor can perceive 5 steps from minValue to maxValue.
The numerical value of the level that the sensor can recognize between the maximum value and the minimum value. If the value is 5, the sensor can recognize from the minimum value to the maximum value in 5 steps.
주어진 단위에서 특정 출력 신호를 생성하기 위해 요구되는 입력 신호의 최소 진폭(minimum magnitude)을 설명함Describes the minimum magnitude of input signal required to produce a specified output signal in given unit.
Describes the minimum magnitude of the input signal required to produce a specific output signal in a given unit.
신호 파워와 신호에 왜곡을 주는 노이즈 파워의 비율을 설명함Describes the ratio of the signal power to the noise power.
Describe the signal power and the ratio of the noise power giving distortion to the signal
센서 능력 기본 속성들(SensorCapabilityBaseAttributes)은 다음과 같은 예시를 제공한다. any_specific_sensor_device_capability_type을 가지는 임의의 센서 디바이스는 ID가 "ans01"이며, 최대값 100, 최소값 10, 20레벨, 오프셋 -3, 민감도 0.8, SNR 99DB를 나타낸다. 특정 센서 디바이스의 측정 단위는 dB이다.Sensor Capabilities Basic properties (SensorCapabilityBaseAttributes) provide the following example. An arbitrary sensor device having any_specific_sensor_device_capability_type has an ID of "ans01" and indicates a maximum value of 100, a minimum value of 10, a level of 20, an offset of -3, a sensitivity of 0.8, and an SNR of 99DB. The measurement unit of a specific sensor device is dB.
표 29는 신택스를 나타낸다.Table 29 shows the syntax.
"cidl: SensorDeviceCapability xsi: type =" scdv: any_specific_sensor_device_capability_type "id =" ans01 "maxValue =" 100 "minValue =" 10 "numOfLevels =" 20 "offset =" -3 "sensitivity =" 0.8 "SNR = = "urn: mpeg: mpeg-v: 01-CI-UnitTypeCS-NS: dB"/>
*카메라 센서 능력 타입 (Camera Sensor Capability Type)* Camera Sensor Capability Type
이하에서는, 카메라 센서 능력에 대한 신택스와 시맨틱스를 제안한다. 카메라 센서 능력은 카메라 센서, 스펙트럼 카메라 센서, 컬러 카메라 센서, 깊이 카메라 센서, 스테레오 카메라 센서, 열적 카메라 센서의 능력을 지원한다.Hereinafter, a syntax and semantics for the camera sensor capability are proposed. The camera sensor capabilities support the capabilities of camera sensors, spectral camera sensors, color camera sensors, depth camera sensors, stereo camera sensors, and thermal camera sensors.
표 30 신택스를 나타낸다.Table 30 shows the syntax.
<complexContent>
<extension base="cidl:SensorCapabilityBaseType">
<sequence>
<element name="SupportedResolutions" type="scdv:ResolutionListType" minOccurs="0"/>
<element name="FocalLengthRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ApertureRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ShutterSpeedRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ISOSpeedRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ExposureValueRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ColorFilterArrayType" type="scdv:ColorFilterArrayListType" minOccurs="0"/>
<element name="Video" type="boolean" minOccurs="0"/>
<element name="SensorType" type="boolean" minOccurs="0"/>
<element name="ColorSpaceType" type="string" minOccurs="0"/>
<element name="BitDepthRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="SpectrumRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ThermalRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="WhiteBalanceTempRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="WhiteBalanceTintRange" type="scdv:ValueRangeType" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType>
<complexType name="ResolutionListType">
<sequence>
<element name="Resolution" type="scdv:ResolutionType" maxOccurs="unbounded"/>
</sequence>
</complexType>
<complexType name="ResolutionType">
<sequence>
<element name="Width" type="nonNegativeInteger"/>
<element name="Height" type="nonNegativeInteger"/>
</sequence>
</complexType>
<complexType name="ValueRangeType">
<sequence>
<element name="MaxValue" type="float"/>
<element name="MinValue" type="float"/>
</sequence>
</complexType>
<simpleType name="ColorFilterArrayListType">
<restriction base="string">
<enumeration value="Bayer"/>
<enumeration value="RGBE"/>
<enumeration value="CYYM"/>
<enumeration value="CYGM"/>
<enumeration value="RGB Bayer"/>
<enumeration value="RGBW #1"/>
<enumeration value="RGBW #2"/>
<enumeration value="RGBW #3"/>
</restriction>
</simpleType>
<complexType name = "CameraSensorCapabilityType">
<complexContent>
<extension base = "cidl: SensorCapabilityBaseType">
<sequence>
<element name = "SupportedResolutions" type = "scdv: ResolutionListType" minOccurs = "0"/>
<element name = "FocalLengthRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ApertureRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ShutterSpeedRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ISOSpeedRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ExposureValueRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ColorFilterArrayType" type = "scdv: ColorFilterArrayListType" minOccurs = "0"/>
<element name = "Video" type = "boolean" minOccurs = "0"/>
<element name = "SensorType" type = "boolean" minOccurs = "0"/>
<element name = "ColorSpaceType" type = "string" minOccurs = "0"/>
<element name = "BitDepthRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "SpectrumRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ThermalRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "WhiteBalanceTempRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "WhiteBalanceTintRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
</ sequence>
</ extension>
</ complexContent>
</ complexType>
<complexType name = "ResolutionListType">
<sequence>
<element name = "Resolution" type = "scdv: ResolutionType" maxOccurs = "unbounded"/>
</ sequence>
</ complexType>
<complexType name = "ResolutionType">
<sequence>
<element name = "Width" type = "nonNegativeInteger"/>
<element name = "Height" type = "nonNegativeInteger"/>
</ sequence>
</ complexType>
<complexType name = "ValueRangeType">
<sequence>
<element name = "MaxValue" type = "float"/>
<element name = "MinValue" type = "float"/>
</ sequence>
</ complexType>
<simpleType name = "ColorFilterArrayListType">
<restriction base = "string">
<enumeration value = "Bayer"/>
<enumeration value = "RGBE"/>
<enumeration value = "CYYM"/>
<enumeration value = "CYGM"/>
<enumeration value = "RGB Bayer"/>
<enumeration value = "RGBW # 1"/>
<enumeration value = "RGBW # 2"/>
<enumeration value = "RGBW # 3"/>
</ restriction>
</ simpleType>
표 31는 신택스를 나타낸다.Table 31 shows the syntax.
표 32은 CameraSensorCapabilityType에 대한 시맨틱스를 나타낸다.Table 32 shows the semantics for CameraSensorCapabilityType.
CameraSensorCapabilityTypeCamera sensor capability type
CameraSensorCapabilityType
카메라 센서 능력을 설명하기 위한 툴Tool for describing a camera sensor capability.
Tools for explaining camera sensor capabilities
SupportedResolutionsFlagSupported resolution flags
SupportedResolutionsFlag
카메라가 지원하는 해상도의 리스트를 설명함Describes the camera support.
Describes a list of resolutions supported by the camera.
해상도 타입 엘리먼트로 구성된 해상도 리스트의 타입을 설명함Describes a type of resolution list, which is composed of ResolutionType elements.
Describes the type of resolution list composed of resolution type elements
폭 엘리먼트와 높이 엘리먼트로 구성된 해상도의 타입을 설명함Describes a type of resolution which is composed of a Width element and a Height element.
Describes the type of resolution consisting of a width element and a height element.
카메라가 인지할 수 있는 해상도의 폭을 설명함Describes a width of resolution that the camera can perceive.
Describes the width of the resolution the camera can recognize
카메라가 인지할 수 있는 해상도의 높이를 설명함Describes a height of resolution that the camera can perceive
Describes the height of resolution the camera can recognize
이 필드는 초점 길이 범위 엘리먼트의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the FocalLengthRange element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a focal length range element and has a binary representation. If 1, this element exists, and if it is 0, this element does not exist
NOTE
The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
카메라 센서가 값 범위 타입(ValueRangeType)에 대해 인지할 수 있는 초점 길이의 범위를 설명함. 이것의 기본 단위는 mm임. 씔 능력 기본 타입(SensorCapabilityBaseType)에서 최대값과 최소값은 카메라 센서에서 사용되지 않음Describes the range of the focal length that the camera sensor can perceive in terms of ValueRangeType. Its default unit is millimeters (mm).
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the range of focal lengths that the camera sensor can recognize for the ValueRangeType. The basic unit of this is mm. 최대 Maximum and minimum values in the basic capability type (SensorCapabilityBaseType) are not used by the camera sensor
카메라 센서가 인지할 수 있는 값의 범위를 설명함Defines the range of the value that the sensor can perceive.
Describes the range of values that the camera sensor can recognize
카메라 센서가 인지할 수 있는 최대값을 설명함Describes the maximum value that the sensor can perceive.
Describes the maximum value that the camera sensor can recognize
카메라 센서가 인지할 수 있는 최소값을 설명함Describes the minimum value that the sensor can perceive.
Describes the minimum value that the camera sensor can perceive
이 플래그는 조리개 범위 엘리먼트 (ApertureRange element)의 존재를 시그널링하고, 이진 표현을 가짐. 이 엘리먼트가 존재하면, 1이고, 이 엘리먼트가 존재하지 않으면 0임This field, which is present in the binary representation, signals the presence of the ApertureRange element. A value of " 1 " means that this element is present and 0 means that the elent is not present.
This flag signals the presence of an ApertureRange element and has a binary representation. 1 if this element exists, 0 if this element does not exist
NOTE
The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
값 범위 타입(valueRangeType)에 대해 카메라 센서가 인지할 수 있는 조리개의 범위를 설명함
센서 능력 기본 타입(SensorCapabilityBaseType)에서 최소값과 최대값은 카메라 센서에서 사용되지 않음
Describes the range of the aperture that the camera can perceive in terms of valueRangeType.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the range of apertures that the camera sensor can recognize for the value range type (valueRangeType).
Sensor Capability The minimum and maximum values in the default type (SensorCapabilityBaseType) are not used by the camera sensor
이 필드는 셔터스피드 범위 엘리먼트(ShutterSpeedRange element)의 존재를 시그널링하고, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the ShutterSpeedRange element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a ShutterSpeedRange element and has a binary representation. If 1, this element exists, and if it is 0, this element does not exist
NOTE
The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
값 범위 타입(valueRangeType)에 대해 카메라 센서가 인지할 수 있는 셔터스피드의 범위를 설명함. 이것의 기본 단위는 초(sec)임.
센서 능력 기본 타입(SensorCapabilityBaseType)에서 최소값과 최대값은 카메라 센서에서 사용되지 않음
Describes the range of the shutter speed that the camera sensor can perceive in terms of valueRangeType. Its default unit is seconds (sec).
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the range of shutter speeds that the camera sensor can recognize for the value range type (valueRangeType). The basic unit of this is seconds.
Sensor Capability The minimum and maximum values in the default type (SensorCapabilityBaseType) are not used by the camera sensor
이 필드는 ISO스피드 범위 엘리먼트(ISOSpeedRange element)의 존재를 시그널링하고, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the ISOSpeedRange element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of an ISO speed range element (ISOSpeedRange element) and has a binary representation. If 1, this element exists, and if it is 0, this element does not exist
NOTE
The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
이 필드는 ISO에 기초한 ISO 스피드의 범위를 설명함. 센서 능력 기본 타입(SensorCapabilityBaseType)에서 최소값과 최대값은 카메라 센서에서 사용되지 않음Describes the range of ISO Speed based on ISO 12232: 2006 that the camera can perceive in terms of valueRangeType.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
This field describes the range of ISO speeds based on ISO. Sensor Capability The minimum and maximum values in the default type (SensorCapabilityBaseType) are not used by the camera sensor
이 필드는 노출값 범위 엘리먼트(ExposureValueRange element)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the ExposureValueRange element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of an ExposureValueRange element and has a binary representation. If 1, this element exists, and if it is 0, this element does not exist
NOTE
The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
값 범위 타입(valueRangeType)에 대해 카메라 센서가 인지할 수 있는 노출값의 범위를 설명함.
센서 능력 기본 타입(SensorCapabilityBaseType)에서 최소값과 최대값은 카메라 센서에서 사용되지 않음
Describes the range of exposure values that the camera sensor can perceive in terms of valueRangeType.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the range of exposure values that the camera sensor can perceive for the value range type (valueRangeType).
Sensor Capability The minimum and maximum values in the default type (SensorCapabilityBaseType) are not used by the camera sensor
0인 경우, 카메라 센서는 정지 영상을 슈팅하고, 1인 경우, 카메라 센서는 비디오를 기록할 수 있음A value of * j * means that this camera sensor can only shoot still image. A value of " 1 "
If 0, the camera sensor shoots the still image, and if 1, the camera sensor can record the video.
0인 경우, 카메라 센서는 모노크롬 이미지를 인지하고, 1인 경우, 카메라 센서는 컬러 이미지를 인식함A value of * j * means that this camera can only perceive monochrome image. A value of " 1 " means that the camera can perceive the color image.
0, the camera sensor recognizes the monochrome image, and if 1, the camera sensor recognizes the color image
1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the ColorFilterArrayType element. This field signals the presence of a color filter array type element (ColorFilterArrayType element) and has a binary representation.
If 1, this element exists, and if it is 0, this element does not exist
카메라의 이미지 센서에 적용되는 컬러 필터 어레이를 설명함
0000 Reserved
0001 Bayer
0010 RGBE
0011 CYYM
0100 CYGM
0101 RGBW Bayer
0110 RGBW #1
0111 RGBW #2
1000 RGBW #3
1001-1111 ReservedDescribes the color filter array to the image sensor of a camera
Describes a color filter array applied to the image sensor of a camera.
0000 Reserved
0001 Bayer
0010]
0011 CYYM
0100 CYGM
0101 RGBW Bayer
0110 RGBW # 1
0111 RGBW # 2
1000 RGBW # 3
1001-1111 Reserved
이 필드는 컬러 스페이스 타입 엘리먼트(ColorSpaceType element)의 존재를 시그널링하며, 이진 표현을 가짐.
1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the ColorSpaceType element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a color space type element (ColorSpaceType element) and has a binary representation.
If 1, this element exists, and if it is 0, this element does not exist
적용되는 컬러 스페이스를 설명함
Describes the color space applied.
Describes applied color space
이 필드는 비트 깊이 범위 엘리먼트 (BitDepthRange element )의 존재를 시그널링하며, 이진 표현을 가짐.
1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the BitDepthRange element. A value of "1" means that this element is present and 0 means that this element is nopresent.
This field signals the presence of a BitDepthRange element and has a binary representation.
If 1, this element exists, and if it is 0, this element does not exist
NOTE
The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
값 범위 타입(valueRangeType)에 대해 카메라 센서가 인지할 수 있는 비트 깊이의 범위를 설명함.
센서 능력 기본 타입(SensorCapabilityBaseType)에서 최소값과 최대값은 카메라 센서에서 사용되지 않음Describes the range of the bit depth that the camera can perceive in terms of valueRangeType.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the range of bit depths that the camera sensor can perceive for the value range type (valueRangeType).
Sensor Capability The minimum and maximum values in the default type (SensorCapabilityBaseType) are not used by the camera sensor
이 필드는 스펙트럼 범위 엘리먼트 (SpectrumRange element)의 존재를 시그널링하며, 이진 표현을 가짐.
1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the SpectrumRange element. A value of "1" means that this element is present and 0 means that this element is not present
This field signals the presence of a Spectrum Range element and has a binary representation.
If 1, this element exists, and if it is 0, this element does not exist
NOTE
The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
값 범위 타입(valueRangeType)에 대해 카메라 센서가 인지할 수 있는 스펙트럼 범위를 설명함.
센서 능력 기본 타입(SensorCapabilityBaseType)에서 최소값과 최대값은 카메라 센서에서 사용되지 않음Describes the spectrum range that the camera sensor can perceive in terms of valueRangeType. Its default unit is nanometer (nm).
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the spectral range that the camera sensor can perceive for the value range type (valueRangeType).
Sensor Capability The minimum and maximum values in the default type (SensorCapabilityBaseType) are not used by the camera sensor
이 필드는 열 범위 엘리먼트(ThermalRange element)의 존재를 시그널링하며, 이진 표현을 가짐.
1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the ThermalRange element. A value of "1" means that this element is present and * j * 0means that this element is not present.
This field signals the presence of a ThermalRange element and has a binary representation.
If 1, this element exists, and if it is 0, this element does not exist
NOTE
The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
값 범위 타입(valueRangeType)에 대해 카메라 센서가 인지할 수 있는 열 응답 (thermal response)을 설명함.
센서 능력 기본 타입(SensorCapabilityBaseType)에서 최소값과 최대값은 카메라 센서에서 사용되지 않음Describes the thermal response range that the camera sensor can perceive in terms of valueRangeType. Its default unit is Celsius (℃).
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the thermal response that a camera sensor can perceive for a value range type (valueRangeType).
Sensor Capability The minimum and maximum values in the default type (SensorCapabilityBaseType) are not used by the camera sensor
이 필드는 화이트밸런스 온도 범위 엘리먼트 (WhiteBalanceTempRange element) 의 존재를 시그널링하며, 이진 표현을 가짐.
1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the WhiteBalanceTempRange element. A value of "1" means that this element is present and 0 means that this element is not present
This field signals the presence of a WhiteBalanceTempRange element and has a binary representation.
If 1, this element exists, and if it is 0, this element does not exist
NOTE
The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
값 범위 타입(valueRangeType)에 대해 카메라 센서가 인지할 수 있는 화이트밸러스 온도 범위를 설명함.
센서 능력 기본 타입(SensorCapabilityBaseType)에서 최소값과 최대값은 카메라 센서에서 사용되지 않음Describes the white balance temperature range that the camera sensor can perceive in terms of valueRangeType. Its default unit is Kelvin (K).
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the white balance temperature range that the camera sensor can recognize for the value range type (valueRangeType).
Sensor Capability The minimum and maximum values in the default type (SensorCapabilityBaseType) are not used by the camera sensor
이 필드는 화이트밸런스 틴트 범위 엘리먼트(WhiteBalanceTintRange element)의 존재를 시그널링하며, 이진 표현을 가짐.
1인 경우, 이 엘리먼트는 존재하고, 0인 경우, 이 엘리먼트는 존재하지 않음This field, which is present in the binary representation, signals the presence of the WhiteBalanceTintRange element. A value of "1" means that this element is present and 0 means that this element is not present
This field signals the presence of a white balance tint range element and has a binary representation.
If 1, this element exists, and if it is 0, this element does not exist
NOTE
The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
값 범위 타입(valueRangeType)에 대해 카메라 센서가 인지할 수 있는 화이트밸런스 틴트값을 설명함.
센서 능력 기본 타입(SensorCapabilityBaseType)에서 최소값과 최대값은 카메라 센서에서 사용되지 않음Describes the range of white balance tint values that the camera can perceive in terms of valueRangeType.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the white balance tint value that the camera sensor can recognize for the value range type (valueRangeType).
Sensor Capability The minimum and maximum values in the default type (SensorCapabilityBaseType) are not used by the camera sensor
카메라 센싱 능력이 설명된다. 카메라 센서는 "CSCID_001"이라는 ID를 가질 수 있다. 이 카메라 센서는 지원 해상도가 1280 x 720 (width x height) 및 1920 x 1080인 리스트를 가진다. 이 카메라 센서의 최대 초점 길이는 100mm이고, 최소 초점 길이는 5mm이다. 이 카메라 센서의 최대 조리개는 F1.4이고, 최소 조리개는 F8이다. 이 카메라 센서의 최대 셔터 스피드는 1초이고, 최소 셔터 스피드는 0.001초이다.The camera sensing capability is described. The camera sensor may have an ID " CSCID_001 ". The camera sensor has a list of supported resolutions of 1280 x 720 (width x height) and 1920 x 1080. The maximum focal length of this camera sensor is 100mm, and the minimum focal length is 5mm. The maximum aperture of this camera sensor is F1.4, and the minimum aperture is F8. This camera sensor has a maximum shutter speed of 1 second and a minimum shutter speed of 0.001 seconds.
표 33은 시맨틱스를 나타낸다.Table 33 shows the semantics.
<scdv:SupportedResolutions>
<scdv:Resolution>
<scdv:Width>1280</scdv:Width>
<scdv:Height>720</scdv:Height>
</scdv:Resolution>
<scdv:Resolution>
<scdv:Width>1920</scdv:Width>
<scdv:Height>1080</scdv:Height>
</scdv:Resolution>
</scdv:SupportedResolutions>
<scdv:FocalLengthRange>
<scdv:MaxValue>100</scdv:MaxValue>
<scdv:MinValue>5</scdv:MinValue>
</scdv:FocalLengthRange>
<scdv:ApertureRange>
<scdv:MaxValue>1.4</scdv:MaxValue>
<scdv:MinValue>8</scdv:MinValue>
</scdv:ApertureRange>
<scdv:ShutterSpeedRange>
<scdv:MaxValue>1</scdv:MaxValue>
<scdv:MinValue>0.001</scdv:MinValue>
</scdv:ShutterSpeedRange>
</cidl:SensorDeviceCapability><cidl: SensorDeviceCapability xsi: type = "scdv: CameraSensorCapabilityType" id = "CSCID_001">
<scdv: SupportedResolutions>
<scdv: Resolution>
<scdv: Width> 1280 </ scdv: Width>
<scdv: Height> 720 </ scdv: Height>
</ scdv: Resolution>
<scdv: Resolution>
<scdv: Width> 1920 </ scdv: Width>
<scdv: Height> 1080 </ scdv: Height>
</ scdv: Resolution>
</ scdv: SupportedResolutions>
<scdv: FocalLengthRange>
<scdv: MaxValue> 100 </ scdv: MaxValue>
<scdv: MinValue> 5 </ scdv: MinValue>
</ scdv: FocalLengthRange>
<scdv: ApertureRange>
<scdv: MaxValue> 1.4 </ scdv: MaxValue>
<scdv: MinValue> 8 </ scdv: MinValue>
</ scdv: ApertureRange>
<scdv: ShutterSpeedRange>
<scdv: MaxValue> 1 </ scdv: MaxValue>
<scdv: MinValue> 0.001 </ scdv: MinValue>
</ scdv: ShutterSpeedRange>
</ cidl: SensorDeviceCapability>
*마이크로폰 센서 능력 타입* Microphone sensor capability type
이하에서는, 마이크로폰 센서의 능력 명세의 신택스와 시맨틱스가 특정된다.Hereinafter, the syntax and semantics of the capability specification of the microphone sensor are specified.
표 34은 MicrophoneSensorCapabilityType 에 대한 신택스를 나타낸다.Table 34 shows the syntax for MicrophoneSensorCapabilityType.
<complexContent>
<extension base="cidl:SensorCapabilityBaseType">
<sequence>
<element name="micorphoneType"
type="scdv:mcrophoneListType" minOccurs="0"/>
<element name="transcuderArrayType" type="scdv:transducerArrayListType" minOccurs="0"/>
<element name="probtType" type="scdv:probeListType" minOccurs="0"/>
<element name="polarPatternType" type="scdv:polarPatternListType" minOccurs="0"/>
<element name="frequencyRange" type="scdv:frequencyRangeType" minOccurs="0"/>
<element name="responseType" type="scdv:frequencyRangeType" minOccurs="0"/>
<element name="pickSensitivity" type="float" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType>
<simpleType name="microphoneListType">
<restriction base="string">
<enumeration value="condenser"/>
<enumeration value="dynamic"/>
<enumeration value="ribbon"/>
<enumeration value="carbon"/>
<enumeration value="piezoelectric"/>
<enumeration value="fiber optic"/>
<enumeration value="laser"/>
<enumeration value="liquied"/>
<enumeration value="MEMS"/>
</restriction>
</simpleType>
<simpleType name="transducerArrayListType">
<restriction base="string">
<enumeration value="single array"/>
<enumeration value="linear array"/>
<enumeration value="curvilinear"/>
<enumeration value="phased"/>
<enumeration value="annular"/>
<enumeration value="matrix array"/>
<enumeration value="MEMS"/>
</restriction>
</simpleType>
<simpleType name="probeListType">
<restriction base="string">
<enumeration value="linear"/>
<enumeration value="sector"/>
<enumeration value="convex"/>
<enumeration value="carbon"/>
<enumeration value="trapezoid"/>
</restriction>
</simpleType>
<simpleType name="polarPatternListType">
<restriction base="string">
<enumeration value="omnidirectional"/>
<enumeration value="bi-directional"/>
<enumeration value="subcardioid"/>
<enumeration value="cardioid"/>
<enumeration value="hypercardioid"/>
<enumeration value="supercardioid"/>
<enumeration value="shotgun"/>
</restriction>
</simpleType>
<complexType name="frequencyRangeType">
<sequence>
<element name="minFrequency" type="float"/>
<element name="maxFrequency" type="float"/>
</sequence>
</complexType><complexType name = "MicrophoneSensorCapabilityType">
<complexContent>
<extension base = "cidl: SensorCapabilityBaseType">
<sequence>
<element name = "micorphoneType" type = "scdv: mcrophoneListType" minOccurs = "0"/>
<element name = "transcuderArrayType" type = "scdv: transducerArrayListType" minOccurs = "0"/>
<element name = "probtType" type = "scdv: probeListType" minOccurs = "0"/>
<element name = "polarPatternType" type = "scdv: polarPatternListType" minOccurs = "0"/>
<element name = "frequencyRange" type = "scdv: frequencyRangeType" minOccurs = "0"/>
<element name = "responseType" type = "scdv: frequencyRangeType" minOccurs = "0"/>
<element name = "pickSensitivity" type = "float" minOccurs = "0"/>
</ sequence>
</ extension>
</ complexContent>
</ complexType>
<simpleType name = "microphoneListType">
<restriction base = "string">
<enumeration value = "condenser"/>
<enumeration value = "dynamic"/>
<enumeration value = "ribbon"/>
<enumeration value = "carbon"/>
<enumeration value = "piezoelectric"/>
<enumeration value = "fiber optic"/>
<enumeration value = "laser"/>
<enumeration value = "liquied"/>
<enumeration value = "MEMS"/>
</ restriction>
</ simpleType>
<simpleType name = "transducerArrayListType">
<restriction base = "string">
<enumeration value = "single array"/>
<enumeration value = "linear array"/>
<enumeration value = "curvilinear"/>
<enumeration value = "phased"/>
<enumeration value = "annular"/>
<enumeration value = "matrix array"/>
<enumeration value = "MEMS"/>
</ restriction>
</ simpleType>
<simpleType name = "probeListType">
<restriction base = "string">
<enumeration value = "linear"/>
<enumeration value = "sector"/>
<enumeration value = "convex"/>
<enumeration value = "carbon"/>
<enumeration value = "trapezoid"/>
</ restriction>
</ simpleType>
<simpleType name = "polarPatternListType">
<restriction base = "string">
<enumeration value = "omnidirectional"/>
<enumeration value = "bi-directional"/>
<enumeration value = "subcardioid"/>
<enumeration value = "cardioid"/>
<enumeration value = "hypercardioid"/>
<enumeration value = "supercardioid"/>
<enumeration value = "shotgun"/>
</ restriction>
</ simpleType>
<complexType name = "frequencyRangeType">
<sequence>
<element name = "minFrequency" type = "float"/>
<element name = "maxFrequency" type = "float"/>
</ sequence>
</ complexType>
표 35은 MicrophoneSensorCapabilityType에 대한 시맨틱스를 나타낸다.Table 35 shows the semantics for MicrophoneSensorCapabilityType.
microphoneTypeMicrophone type
microphoneType
마이크로폰의 타입을 정의함
0000 Reserved
0001 Condenser
0010 Dynamic
0011 Ribbon
0100 Carbon
0101 Piezoelectric
0110 Fiber Optic
0111 Laser
1000 Liquid
1001 MEMS
1010-1111 ReservedDefines type of microphone
Defines the type of microphone
0000 Reserved
0001 Condenser
0010 Dynamic
0011 Ribbon
0100 Carbon
0101 Piezoelectric
0110 Fiber Optic
0111 Laser
1000 Liquid
1001 MEMS
1010-1111 Reserved
트랜듀서 프루브들의 어레이 타입을 정의함
0000 Reserved
0001 single array
0010 linear array
0011 curvilinear
0100 phased
0101 annular
0110 matrix array
0111-1111 ReservedDefines array types of transducer probes
Defines the array type of the transducer probes.
0000 Reserved
0001 single array
0010 linear array
0011 curvilinear
0100 phased
0101 annular
0110 matrix array
0111-1111 Reserved
트랜듀서의 프루빙 타입을 정의함
0000 Reserved
0001 linear probe
0010 sector probe
0011 convex probe
0100 trapezoid probe
0101-1111 ReservedDefines probing type of transducer
Define the probing type of the transducer
0000 Reserved
0001 linear probe
0010 sector probe
0011]
0100 trapezoid probe
0101-1111 Reserved
트랜듀서의 폴라 패턴을 정의함
0000 Reserved
0001 Omnidirectional
0010 Bi-directional (or Figure of 8)
0011 Subcardioid
0100 Cardioid
0101 Hypercardioid
0110 Supercardioid
0111 Shotgun
1000-1111 ReservedDefines polar pattern of transducer
Define the polar pattern of the transducer
0000 Reserved
0001 Omnidirectional
Bi-directional (or Figure 8)
0011 Subcardioid
0100 Cardioid
0101 Hypercardioid
0110 Supercardioid
0111 Shotgun
1000-1111 Reserved
frequencyRangeFrequency range
frequencyRange
Hz 단위의 픽업 주파수 범위 (Pickup frequency range)Pickup frequency range in Hz
Pickup frequency range in Hz
responseTypeFlagResponse type flag
responseTypeFlag
'1' if Tailored frequency response
0인 경우, 플랫 주파수 응답(Flat frequency response)이고, 1인 경우, 테일러드 주파수 응답(Tailored frequency response)임'0' if Flat frequency response
'1' if Tailored frequency response
0, it is a flat frequency response. When it is 1, it is a tailored frequency response.
responseFrequencyResponse frequency
responseFrequency
테일러드 주파수 응답 마이크로폰을 위한 픽업 응답 주파수 범위임Pick response frequency range for tailored frequency response
Pickup response frequency range for tailored frequency response microphones
minFreqeuncyMinimum frequency
minFreqeuncy
Hz 단위의 최소 주파수Minimum frequency in Hz
Minimum frequency in Hz
Hz 단위의 최대 주파수Maximum frequency in Hz
Maximum frequency in Hz
mV/Pa 단위의 트랜듀서의 픽업 민감도Pick sensitivity of transducer in mV / Pa
Pickup sensitivity of the transducer in mV / Pa
아래 예시는 시맨틱스를 가지는 마이크로폰 능력의 명세서를 나타낸다. 마이크로폰의 ID는 "MCID_001"일 수 있다. 이 경우, 마이크로폰은 주파수 픽업 범위의 cardioid pattern이 20Hz-8kHz 사이에 테일러드된 20Hz-20kHz이다.The following example shows a specification of microphone capability with semantics. The ID of the microphone may be " MCID_001 ". In this case, the microphone is 20Hz-20kHz with the cardioid pattern of the frequency pickup range tailored between 20Hz-8kHz.
표 36는 신택스를 나타낸다.Table 36 shows the syntax.
<microphoneType>"condenser"</microphoneType>
<polarPatternType>"cardioid"</polarPatternType>
<scdv:frequencyRange>
<scdv:minFrequency>20</scdv:minFrequency>
<scdv:maxFrequency>20000</scdv:maxFrequency>
</scdv:frequencyRange>
<scdv:responseType>
<scdv:minFrequency>20</scdv:minFrequency >
<scdv:maxFrequency >8000</scdv:maxFrequency >
</scdv:responseType>
</cidl:SensorDeviceCapability><cidl: SensorDeviceCapability xsi: type = "scdv: microphoneCapabilityType" id = "MCID_001">
<microphoneType>"condenser"</microphoneType>
<polarPatternType>"cardioid"</polarPatternType>
<scdv: frequencyRange>
<scdv: minFrequency> 20 </ scdv: minFrequency>
<scdv: maxFrequency> 20000 </ scdv: maxFrequency>
</ scdv: frequencyRange>
<scdv: responseType>
<scdv: minFrequency> 20 </ scdv: minFrequency>
<scdv: maxFrequency> 8000 </ scdv: maxFrequency>
</ scdv: responseType>
</ cidl: SensorDeviceCapability>
*센서 정보 명세 툴(Sensor information description tool)* Sensor information description tool
센서 정보 명세 툴은 각각의 센서를 통해 획득한 정보를 설명한다. 센서 정보들은 센서들의 출력으로 생성될 수 있다. 센서 정보 기본 타입(SensedInfoBaseType )은 각각의 센서에 대한 센서 정보 타입을 유도한다.The sensor information specification tool describes information acquired through each sensor. Sensor information can be generated at the output of the sensors. The sensor information basic type (SensedInfoBaseType) derives the sensor information type for each sensor.
*센서들을 위한 글로벌 좌표 (Global coordinate for sensors)* Global coordinate for sensors.
센서들을 위한 참조 좌표(reference coordinate)는 오른쪽 좌표 시스템을 채택함으로써 정의된다. Y축은 중력 방향이다. Z축은 Y축에 수직으로, 사용자의 앞쪽 방향을 나타낸다. X축은 Y축과 Z축에 수직이며, 사용자의 오른쪽 방향을 의미한다. 센서들의 참조 좌표에서 디폴트 시작은 사용자의 위치이다. 좌표 시스템에서 시작은 센서의 타입에 따라 다르다.The reference coordinates for the sensors are defined by adopting the right coordinate system. The Y axis is the direction of gravity. The Z axis is perpendicular to the Y axis and represents the user's front direction. The X axis is perpendicular to the Y and Z axes and represents the right direction of the user. In the reference coordinates of the sensors, the default start is the user's position. The start in the coordinate system depends on the type of sensor.
표 37는 Sensed information base type에 대한 신택스를 나타낸다.Table 37 shows the syntax for the Sensed information base type.
<!-- Sensed information base type
-->
<!-- ################################################
-->
<complexType name="SensedInfoBaseType" abstract="true">
<sequence>
<element name="TimeStamp" type="mpegvct:TimeStampType" minOccurs="0"/>
</sequence>
<attributeGroup ref="iidl:sensedInfoBaseAttributes"/>
</complexType>
<! - ##################################################### ## ->
<! - Sensed information base type ->
<! - ##################################################### ## ->
<complexType name = "SensedInfoBaseType" abstract = "true">
<sequence>
<element name = "TimeStamp" type = "mpegvct: TimeStampType" minOccurs = "0"/>
</ sequence>
<attributeGroup ref = "iidl: sensedInfoBaseAttributes"/>
</ complexType>
표 38은 SensedInfoListType의 시맨틱스를 나타낸다.Table 38 shows the semantics of SensedInfoListType.
SensedInfoBaseTypeSensor information basic type
SensedInfoBaseType
각각의 센서 정보가 도출되는 기본 타입 계층의 topmost 타입을 제공함.Provides the topmost type of base type hierarchy.
Provides the topmost type of base type hierarchy from which each sensor information is derived.
센서 정보를 위한 속성들의 그룹을 설명함Describes a group of attributes for the sensed information.
Describe a group of attributes for sensor information
센서 정보가 획득될 때의 시간 정보를 제공함. 3개의 시간 스킴 중 하나가 선택되며, 3개의 시간 스킴은 절대 시간, 클락틱 타임, 클락 틱 타임의 델타를 포함함Provides the time information at which the sensed information is acquired. As defined in ISO / IEC 23005-6, there is a choice of three timing schemes, which are absolute time, clocktick time, and delta of clock tick time.
Provides time information when sensor information is acquired. One of the three time schemes is selected, and the three time schemes include the absolute time, the clock tick time, and the delta of the clock tick time.
TimeStampFlagTimestamp flag
TimeStampFlag
이 필드는 타임스탬프 엘리먼트의 존재를 시그널링하고, 이진 표현을 가짐. 1인 경우, 타임스탬프 엘리먼트가 사용되고, 0인 경우, 타임스탬프 엘리먼트가 사용되지 않음.This field, which is present in the binary representation, signals the presence of the TimeStamp element. A value of "1" means the element shall be used and 0 means the element shall not be used. "
This field signals the presence of a timestamp element and has a binary representation. If 1, the timestamp element is used; if 0, the timestamp element is not used.
*센서 정보 기본 속성 (Sensed information base attributes)* Sensed information base attributes
표 39은 Sensed information base attributes의 신택스를 나타낸다.Table 39 shows the syntax of Sensed information base attributes.
<!-- Definition of Sensed Information Base Attributes
-->
<!-- ###################################################
-->
<attributeGroup name="sensedInfoBaseAttributes">
<attribute name="id" type="ID" use="optional"/>
<attribute name="sensorIdRef" type="anyURI" use="optional"/>
<attribute name="linkedlist" type="anyURI" use="optional"/>
<attribute name="groupID" type="anyURI" use="optional"/>
<attribute name="activate" type="boolean" use="optional"/>
<attribute name="priority" type="nonNegativeInteger" use="optional" default="0"/>
</attributeGroup><! - ##################################################### ##### ->
<! - Definition of Sensed Information Base Attributes ->
<! - ##################################################### ##### ->
<attributeGroup name = "sensedInfoBaseAttributes">
<attribute name = "id" type = "ID" use = "optional"/>
<attribute name = "sensorIdRef" type = "anyURI" use = "optional"/>
<attribute name = "linkedlist" type = "anyURI" use = "optional"/>
<attribute name = "groupID" type = "anyURI" use = "optional"/>
<attribute name = "activate" type = "boolean" use = "optional"/>
<attribute name = "priority" type = "nonNegativeInteger" use = "optional" default = "0"/>
</ attributeGroup>
표 40는 Sensed information base attributes의 신택스를 나타낸다.Table 40 shows the syntax of Sensed information base attributes.
sensedInfoBase AttributesSensor information basic attributes
sensedInfoBase Attributes
명령에 대한 속성들의 그룹을 설명함
Describes a group of attributes for the commands.
Describe the group of attributes for the command
idID
id
개별적인 센서 정보를 식별하기 위한 고유 식별자임Unique identifier for identifying individual sensed information
A unique identifier for identifying individual sensor information.
특정 센서 정보에 포함된 정보를 생성하는 센서의 참조를 의미함References A sensor that has generated the information included in this specific sensed information.
A reference to a sensor that generates information contained in a specific sensor information.
각각의 기록을 다음 센서의 ID의 참조로 포함하는 방식을 통해, 센서들의 그룹을 포함하는 다중 센서 구조를 설명함
Describes the multi-sensor structure that consists of a group of sensors in a way that includes a reference to the ID of the next sensor.
Describe a multiple sensor structure that includes a group of sensors, by way of each record containing a reference to the ID of the next sensor
특정 센서가 속하는 그룹 다중 센서 구조를 위한 식별자를 설명함
Identifier for a group multi-sensor structure to which this specific sensor belongs.
Describe identifiers for groups of multiple sensor structures to which a particular sensor belongs.
In the binary representation, A value of "1" means the sensor shall be activated and 0 means the senr shall be deactivated
센서가 활성화되었는지 여부를 설명함. True인 경우, 세서는 활성화되고, false인 경우, 센서는 비활성화됨
이진 표현인 경우, 1이면 센서는 활성화되고, 0이면 센서는 비활성화됨.Describes whether the sensor is activated. A value of "true" means the sensor shall be activated and "false" means the sensor shall be deactivated.
In the binary representation, A value of "1" means the sensor shall be activated and 0 means the senr shall be deactivated
Describes whether the sensor is enabled. If true, the sensor is enabled; if false, the sensor is disabled.
If it is a binary representation, 1 means the sensor is active, 0 means the sensor is inactive.
센서 정보가 채택될 때, 특정 시간에서 동일 포인트를 공유하는 다른 센서 정보에 대한 센서 정보의 우선도를 설명함
1이면 가장 높은 우선 순위를 나타내고, 1보다 크면 좀더 낮은 우선 순위를 나타냄. 우선 순위의 기본값은 1임. 만약 동일한 우선 순위를 가지는 센서 정보가 하나 이상 존재하는 경우, 어뎁테이션 엔진에 의해 센서 정보의 처리 순서가 결정된다.
NOTE The priority might be used to apply the sensed information on the virtual world object characteristics - defined within a group of sensors - according to the capabilities of the adaptation VR.
우선 순위는 어뎁테이션 VR의 능력에 따라 센서들의 그룹 내부에 정의된 가상 세계 객체 특징에 센서 정보를 적용하기 위해 사용됨
EXAMPLE The adaptation RV processes the individual sensed information of a group of sensors according to their priority in descending order due to its limited capabilities. That is, the sensed information with the lower priority might get lost
어뎁테이션 RV는 제한된 능력 때문에, 내림차순으로 정렬된 그들의 우선 순위에 따라 센서들의 그룹의 개별적인 센서 정보를 처리함. 낮은 우선 순위를 가지는 센서 정보는 손실됨..Describes a sensed information that is sensed in relation to other sensed information. A value of one indicates the highest priority and a lower value indicates lower priorities. The default value of the priority is one. If there are more than one sensed information with the same priority, the order of process can be determined by the adaptation engine itself.
When sensor information is adopted, the priority of sensor information for other sensor information sharing the same point at a specific time is described
A value of 1 indicates the highest priority, and a value greater than 1 indicates a lower priority. The default value for priority is 1. If there is more than one sensor information having the same priority, processing order of the sensor information is determined by the adaptation engine.
NOTE The priority may be used to apply the sensed information to the virtual world.
Priority is used to apply sensor information to virtual world object features defined within the group of sensors according to the capabilities of the adaptation VR.
EXAMPLE The adaptation RV processes depend on the individual sensed information of a group of sensors due to their limited order due to its limited capabilities. That is, the sensed information with the lower priority might get lost
The adaptation RV processes the individual sensor information of a group of sensors according to their priorities sorted in descending order due to limited capability. Sensor information with low priority is lost.
SensedInfoBaseAttributesTypeSensor information basic attribute type
SensedInfoBaseAttributesType
센서 정보 기본 타입을 설명하는 툴임Tool for describing sensed information base attributes.
A tool that describes the basic type of sensor information
이 필드는 ID 속성의 존재를 시그널링하며, 이진 표현을 가짐, 1인 경우, ID 속성이 사용되고, 0인 경우 ID 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the ID attribute. A value of "1" means the attribute shall be used and 0 means thattribute shall not be used.
This field signals the presence of an ID attribute and has a binary representation. If 1, the ID attribute is used; if 0, the ID attribute is not used.
이 필드는 센서 ID 참조 속성의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 센서 ID 참조 속성이 사용되고, 0인 경우, 센서 ID 참조 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the sensor ID reference attribute. A value of "1" means the attribute shall be used and 0 means thattribute shall not be used.
This field signals the presence of a sensor ID reference attribute and has a binary representation. 1, the sensor ID reference attribute is used, and if 0, the sensor ID reference attribute is not used
이 필드는 링크드 리스트 속성(linked list attribute)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 링크드 리스트 속성이 사용되고, 0인 경우, 링크드 리스트 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the linked list attribute. A value of "1" means the attribute shall be used and 0 means thattribute shall not be used.
This field signals the existence of a linked list attribute and has a binary representation. 1, the linked list attribute is used, if 0, the linked list attribute is not used
이 필드는 그룹 ID 속성(group ID attribute)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 그룹ID 속성이 사용되고, 0인 경우, 그룹 ID 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the group ID attribute. A value of "1" means the attribute shall be used and 0 means thattribute shall not be used.
This field signals the presence of a group ID attribute and has a binary representation. If 1, the group ID attribute is used; if 0, the group ID attribute is not used.
이 필드는 우선순위 속성(priority attribute attribute)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 우선순위 속성이 사용되고, 0인 경우, 우선순위 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the priority attribute. A value of "1" means the attribute shall be used and 0 means thattribute shall not be used.
This field signals the presence of a priority attribute attribute and has a binary representation. If 1, the priority attribute is used; if 0, the priority attribute is not used
이 필드는 활성화 속성 activation attribute)의 존재를 시그널링하며, 이진 표현을 가짐. 1인 경우, 활성화 속성이 사용되고, 0인 경우, 활성화 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the activation attribute. A value of "1" means the attribute shall be used and 0 means thattribute shall not be used.
This field signals the presence of an activation attribute and has a binary representation. If 1, the activation attribute is used; if 0, the activation attribute is not used.
*카메라 센서 타입* Camera sensor type
이하에서는, 카메라로 센싱하는 기본적인 센서 타입이 설명된다. 카메라 센서 타입을 이용하여 적외선 카메라(infrared cameras) 또는 스펙트럼 카메라(spectrum cameras)와 같은 다양한 종류의 카메라가 특정된다.Hereinafter, a basic sensor type for sensing with a camera will be described. Various types of cameras, such as infrared cameras or spectrum cameras, are specified using a camera sensor type.
표 41는 Camera Sensor Type의 신택스를 나타낸다.Table 41 shows the syntax of the Camera Sensor Type.
<!-- Camera Sensor Type
-->
<!-- ################################################
-->
<complexType name="CameraSensorType">
<complexContent>
<extension base="iidl:SensedInfoBaseType">
<sequence>
<element name="CameraOrientation" type="siv:OrientationSensorType" minOccurs="0"/>
<element name="CameraLocation" type="siv:GlobalPositionSensorType" minOccurs="0"/>
<element name="CameraAltitude" type="siv:AltitudeSensorType" minOccurs="0"/>
</sequence>
<attribute name="focalLength" type="float" use="optional"/>
<attribute name="aperture" type="float" use="optional"/>
<attribute name="shutterSpeed" type="float" use="optional"/>
<attribute name="filter" type="mpeg7:termReferenceType" use="optional"/>
</extension>
</complexContent>
</complexType><! - ##################################################### ## ->
<! - Camera Sensor Type ->
<! - ##################################################### ## ->
<complexType name = "CameraSensorType">
<complexContent>
<extension base = "iidl: SensedInfoBaseType">
<sequence>
<element name = "CameraOrientation" type = "siv: OrientationSensorType" minOccurs = "0"/>
<element name = "CameraLocation" type = "siv: GlobalPositionSensorType" minOccurs = "0"/>
<element name = "CameraAltitude" type = "siv: AltitudeSensorType" minOccurs = "0"/>
</ sequence>
<attribute name = "focalLength" type = "float" use = "optional"/>
<attribute name = "aperture" type = "float" use = "optional"/>
<attribute name = "shutterSpeed" type = "float" use = "optional"/>
<attribute name = "filter" type = "mpeg7: termReferenceType" use = "optional"/>
</ extension>
</ complexContent>
</ complexType>
표 42은 CameraSensorType의 시맨틱스를 나타낸다.Table 42 shows the semantics of CameraSensorType.
CameraSensorTypeCamera sensor type
CameraSensorType
카메라 센서에 대해 센서 정보를 설명하는 툴임Tool for describing sensed information with respect to a camera sensor.
A tool that describes sensor information for camera sensors.
CameraLocationCamera location
CameraLocation
글로벌 위치 센서 타입(GlobalPositionSensorType)에 의해 정의된 구조를 이용하여 카메라의 위치를 설명함Describes the location of a camera using the structure defined by GlobalPositionSensorType.
Describe the location of the camera using the structure defined by the global position sensor type (GlobalPositionSensorType).
고도 센서 타입(AltitudeSensorType)에 의해 정의된 구조를 이용하여, 카메라의 고도를 설명함Describes the altitude of a camera using the structure defined by AltitudeSensorType.
Describes camera altitude using the structure defined by AltitudeSensorType.
방향 센서 타입(OrientationSensorType)에 의해 정의된 구조를 이용하여, 카메라의 방향을 설명함Describes the orientation of a camera using the structure defined by OrientationSensorType.
Describes the orientation of the camera, using the structure defined by the OrientationSensorType.
물체가 초점에 위치할 때, 렌즈와 이미지 센서 간의 길이(mm 단위)를 설명함Describes the distance between the lens and the image sensor when the subject is in focus, in terms of millimeters (mm).
Describes the length (in mm) between the lens and the image sensor when the object is in focus.
렌즈가 열렸을 때의 지름을 설명함. 조리개는 F2.8과 같이 F-stop으로 표현되거나, 또는 f/2.8과 같이 f-number notation으로 표현됨Describes the diameter of the lens opening. It is expressed as F-stop, eg F2.8. It may also be expressed as f-number notation such as f / 2.8.
Describes the diameter when the lens is open. The aperture is expressed as F-stop as in F2.8, or f-number notation as f / 2.8
사진을 촬영할 때, 셔터가 열린 상태로 있는 시간(초 단위)을 설명함Describes the time the shutter remains open when taking a photograph in terms of seconds.
Describes the time (in seconds) that the shutter stays open when you take a picture
Mpeg7을 이용하는 분류 스킴 용어(classification scheme term)를 참조함으로써 카메라 필터들의 종류를 설명함. 이러한 목적을 위해 사용되는 CS는 CameraFilterTypeCS로 표현됨Describes kinds of camera filters as a reference to a classification scheme that uses the mpeg7: termReferenceType defined in 7.6 of ISO / IEC 15938-5: 2003. The CS may be used for this purpose, the CameraFilterTypeCS defined in A.2.12.6.
Describe the types of camera filters by referring to the classification scheme term using Mpeg7. The CS used for this purpose is represented by the CameraFilterTypeCS.
이 필드는 카메라 방향 센서 정보가 사용가능한 경우 시그널링되며, 이진 표현을 가짐. 1인 경우, 카메라 방향 센서 정보가 포함되고, 0인 경우, 카메라 방향 센서 정보가 포함되지 않음This field, which is present in the binary representation, signals if the camera orientation is sensed information is available. A value of "1" indicates that the sensed information will be included and 0 indicates that the sensed information will not be included.
This field is signaled when camera direction sensor information is available and has a binary representation. 1, the camera direction sensor information is included, and when it is 0, the camera direction sensor information is not included
이 필드는 카메라 위치 센서 정보가 사용가능한 경우 시그널링되며, 이진 표현을 가짐.
1인 경우, 카메라 위치 센서 정보가 포함되고, 0인 경우, 카메라 위치 센서 정보가 포함되지 않음This field, which is present in the binary representation, A value of "1" indicates that the sensed information will be included and "j" indicates that the sensed information will not be included.
This field is signaled when camera position sensor information is available and has a binary representation.
1, the camera position sensor information is included, and when it is 0, the camera position sensor information is not included
이 필드는 카메라 고도 센서 정보가 사용가능한 경우 시그널링되며, 이진 표현을 가짐.
1인 경우, 카메라 고도 센서 정보가 포함되고, 0인 경우, 카메라 고도 센서 정보가 포함되지 않음This field, which is present in the binary representation, A value of "1" indicates that the sensed information will be included and 0 indicates that the sensed information will not be included.
This field is signaled when camera altitude sensor information is available and has a binary representation.
1, the camera altitude sensor information is included, and when it is 0, the camera altitude sensor information is not included
이 필드는 초점 길이 속성의 존재에 대해 시그널링하며, 이진 표현을 가짐. 1인 경우, 초점 길이 속성이 사용되며, 0인 경우, 초점 길이 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the focal length attribute. A value of "1" means the attribute shall be used and * j "means the attribute shall not be used.
This field signals the presence of a focal length attribute and has a binary representation. If 1, the focal length attribute is used; if 0, the focal length attribute is not used.
이 필드는 조리개 속성의 존재에 대해 시그널링하며, 이진 표현을 가짐.
1인 경우, 조리개 속성이 사용되며, 0인 경우, 조리개 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the aperture attribute. A value of "1" means the attribute shall be used and 0 means the attribute shall not be bused.
This field signals the presence of an aperture attribute and has a binary representation.
1, the iris property is used; if it is 0, the iris property is not used
이 필드는 셔터스피드 속성의 존재에 대해 시그널링하며, 이진 표현을 가짐.
1인 경우, 셔터스피드 속성이 사용되며, 0인 경우, 셔터스피드 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the shutter speed attribute. A value of "1" means the attribute shall be used and 0 means the attribute shall not be bused.
This field signals the presence of a shutter speed attribute and has a binary representation.
1, the shutter speed attribute is used; if it is 0, the shutter speed attribute is not used
이 필드는 필터 속성의 존재에 대해 시그널링하며, 이진 표현을 가짐.
1인 경우, 필터 속성이 사용되며, 0인 경우, 필터 속성이 사용되지 않음This field, which is present in the binary representation, signals the presence of the filter attribute. A value of "1" means the attribute shall be used and 0 means the attribute shall not be bused.
This field signals the presence of a filter attribute and has a binary representation.
If 1, the filter attribute is used; if 0, the filter attribute is not used.
이하의 시맨틱스는 카메라 센싱의 명세서를 나타낸다. 이 명세는 "CSID001"이라는 ID를 가진다. 그러면, 카메라 센서는 초당 100 클럭 틱스(clock ticks)가 있는 타임스탬프 60000에서 센싱한다. 그리고, 카메라 센서의 초점 길이는 50mm이고, 조리개는 F2.8이고, 셔터스피드는 1/250sec이며, UV 필터를 사용한다. 그리고, 카메라 센서의 위치 정보는 위도(latitude) 37.23N이고, 경도(longitude) 131.23E이다. 이 카메라 센서의 방향 정보는 Ox=2.0 (라디안), Oy=2.0 (라디안), Oz=1.0 (라디안)을 가진다.The following semantics represent the specification of camera sensing. This specification has an ID of " CSID001 ". The camera sensor then senses a time stamp of 60000 with 100 clock ticks per second. The focal length of the camera sensor is 50 mm, the aperture is F2.8, the shutter speed is 1/250 sec, and a UV filter is used. The location information of the camera sensor is latitude 37.23N and longitude 131.23E. The direction information of this camera sensor has Ox = 2.0 (radian), Oy = 2.0 (radian), and Oz = 1.0 (radian).
표 43은 신택스를 나타낸다.Table 43 shows the syntax.
<iidl:SensedInfoList>
<iidl:SensedInfo xsi:type="siv:CameraSensorType" id="CSID001" activate="true" focalLength="50" aperture="2.8" shutterSpeed="0.004" filter="urn:mpeg:mpeg-v:01-SI-CameraFilterTypeCS-NS:UV">
<iidl:TimeStamp xsi:type="mpegvct:ClockTickTimeType" timeScale="100" pts="60000"/>
<siv:CameraOrientation xsi:type="siv:OrientationSensorType" unit="radian">
<siv:Orientation>
<mpegvct:X>2.0</mpegvct:X>
<mpegvct:Y>-0.5</mpegvct:Y>
<mpegvct:Z>1.0</mpegvct:Z>
</siv:Orientation>
</siv:CameraOrientation>
<siv:CameraLocation xsi:type="siv:GlobalPositionSensorType" longitude="131.23" latitude="37.23"/>
</iidl:SensedInfo>
</iidl:SensedInfoList>
</iidl:InteractionInfo><iidl: InteractionInfo>
<iidl: SensedInfoList>
<iidl: SensedInfo xsi: type = "siv: CameraSensorType" id = "CSID001" activate = "true" focalLength = "50" aperture = "2.8" shutterSpeed = "0.004" filter = "urn: mpeg: mpeg-v: 01 -SI-CameraFilterTypeCS-NS: UV ">
<iidl: TimeStamp xsi: type = "mpegvct: ClockTickTimeType" timeScale = "100" pts = "60000"/>
<siv: CameraOrientation xsi: type = "siv: OrientationSensorType" unit = "radian">
<siv: Orientation>
<mpegvct: X> 2.0 </ mpegvct: X>
<mpegvct: Y> -0.5 </ mpegvct: Y>
<mpegvct: Z> 1.0 </ mpegvct: Z>
</ siv: Orientation>
</ siv: CameraOrientation>
<siv: CameraLocation xsi: type = "siv: GlobalPositionSensorType" longitude = "131.23" latitude = "37.23"/>
</ iidl: SensedInfo>
</ iidl: SensedInfoList>
</ iidl: InteractionInfo>
*마이크로폰 센서 타입* Microphone sensor type
마이크로폰 센서 타입은 오디오 정보를 센싱할 수 있는 장치를 특정한다. 마이크로폰 센서의 센싱 속성은 마이크로폰 센서 능력 타입 (microphone sensor capability type)에 의해 특정된다. 마이크로폰 센서 타입의 어플리케이션은 네비게이션 시스템 또는 홈 오토메이션 (지능형 시스템), AR 어플리케이션과 같은 음성 인식이 존재하는 곳에 포함될 수 있다.The microphone sensor type specifies a device capable of sensing audio information. The sensing attribute of the microphone sensor is specified by the microphone sensor capability type. The application of the microphone sensor type may be included in the navigation system or where there is voice recognition such as home automation (intelligent system), AR application.
표 44는 microphone sensor type의 신택스를 나타낸다.Table 44 shows the syntax of the microphone sensor type.
<!--Definition of microphone sensor type -->
<!--#################################### -->
<complexType name="MicrophoneSensorType">
<complexContent>
<extension base="iidl:SensedInfoBaseType">
<sequence>
<element name="Orientation" type="siv:OrientationSensorType" minOccurs="0"/>
<element name="Altitude" type="siv:AltitudeSensorType" minOccurs="0"/>
<element name="Location" type="siv:GlobalPositionSensorType" minOccurs="0"/>
<element name="AudioData" type="siv:RawAudioType"/>
</sequence>
</extension>
</complexContent>
</complexType>
<complexType name="RawAudioType">
<choice>
<element name="AudioData16" type="hexBinary"/>
<element name="AudioData64" type="base64Binary"/>
</choice>
<attribute name="sample_rate" type="unsignedint"/>
<attribute name="byte_order" type="ByteOrderType"/>
<attribute name="sign" type="SignType"/>
<attribute name="resolution" type="ResolutionType"/>
</complexType>
<simpleType name="ByteOrderType">
<restriction base="string">
<enumeration value="LittleEndian"/>
<enumeration value="BigEndian"/>
</restriction>
</simpleType>
<simpleType name="SignType">
<restriction base="string">
<enumeration value="Signed"/>
<enumeration value="Unsigned"/>
</restriction>
</simpleType>
<simpleType name="ResolutionType">
<restriction base="mpeg7:unsignedByte">
<enumeration value="4"/>
<enumeration value="8"/>
<enumeration value="12"/>
<enumeration value="16"/>
<enumeration value="20"/>
<enumeration value="24"/>
<enumeration value="32"/>
<enumeration value="48"/>
<enumeration value="64"/>
</restriction>
</simpleType><! - ################################## ->
<! - Definition of microphone sensor type ->
<! - ################################## ->
<complexType name = "MicrophoneSensorType">
<complexContent>
<extension base = "iidl: SensedInfoBaseType">
<sequence>
<element name = "Orientation" type = "siv: OrientationSensorType" minOccurs = "0"/>
<element name = "Altitude" type = "siv: AltitudeSensorType" minOccurs = "0"/>
<element name = "Location" type = "siv: GlobalPositionSensorType" minOccurs = "0"/>
<element name = "AudioData" type = "siv: RawAudioType"/>
</ sequence>
</ extension>
</ complexContent>
</ complexType>
<complexType name = "RawAudioType">
<choice>
< element name = " AudioData 16 " type = " hexBinary &
<element name = "AudioData64" type = "base64Binary"/>
</ choice>
<attribute name = "sample_rate" type = "unsignedint"/>
<attribute name = "byte_order" type = "ByteOrderType"/>
<attribute name = "sign" type = "SignType"/>
<attribute name = "resolution" type = "ResolutionType"/>
</ complexType>
<simpleType name = "ByteOrderType">
<restriction base = "string">
<enumeration value = "LittleEndian"/>
<enumeration value = "BigEndian"/>
</ restriction>
</ simpleType>
<simpleType name = "SignType">
<restriction base = "string">
<enumeration value = "Signed"/>
<enumeration value = "Unsigned"/>
</ restriction>
</ simpleType>
<simpleType name = "ResolutionType">
<restriction base = "mpeg7: unsignedByte">
<enumeration value = "4"/>
<enumeration value = "8"/>
<enumeration value = "12"/>
<enumeration value = "16"/>
<enumeration value = "20"/>
<enumeration value = "24"/>
<enumeration value = "32"/>
<enumeration value = "48"/>
<enumeration value = "64"/>
</ restriction>
</ simpleType>
표 45은 microphone sensor type의 신택스를 나타낸다.Table 45 shows the syntax of the microphone sensor type.
MicrophoneSensorTypeMicrophone sensor type
MicrophoneSensorType
마이크로폰 센서에 대한 센서 정보를 설명하는 툴임Tool for describing sensed information with respect to a microphone sensor.
A tool that describes sensor information for a microphone sensor.
이 필드는 방향 엘리먼트(Orientation element)의 존재를 시그널링하고, 이진 표현을 가짐. 1인 경우, 방향 엘리먼트는 이진 표현에 존재하고, 0인 경우 이진 표현에 존재하지 않음This field, which is present in the binary representation, signals the presence of the Orientation element. A value of "1" means that the orientation element exists in the binary representation and 0 means that the element does not exist in the binary reprentation.
This field signals the presence of an orientation element and has a binary representation. 1, the direction element is present in the binary representation, and if zero, it is not present in the binary representation
이 필드는 고도 엘리먼트(Altitude element)의 존재를 시그널링하고, 이진 표현을 가짐.
1인 경우, 고도 엘리먼트는 이진 표현에 존재하고, 0인 경우 이진 표현에 존재하지 않음This field, which is present in the binary representation, signals the presence of the Altitude element. A value of "1" means that the Altitude element exists in the binary representation and 0 means that the binary element does not exist in the binary reprentation.
This field signals the presence of an altitude element and has a binary representation.
1, then the altitude element is present in the binary representation, and if it is zero, it is not present in the binary representation
이 필드는 위치 엘리먼트(Location element)의 존재를 시그널링하고, 이진 표현을 가짐.
1인 경우, 위치 엘리먼트는 이진 표현에 존재하고, 0인 경우 이진 표현에 존재하지 않음This field, which is present in the binary representation, signals the presence of the Location element. A value of "1" means that the location element exists in the binary representation and 0 means that the location element does not exist in the binary reprentation.
This field signals the presence of a Location element and has a binary representation.
1, the location element is present in the binary representation, and if zero, it is not present in the binary representation.
이 필드는 오디오 데이터에 샘플레이트 속성 (sampleRate attribute)의 존재를 시그널링하고, 이진 표현을 가짐.
1인 경우, 샘플레이트 속성은 사용되고, 0인 경우, 사용되지 않음This field, which is present in the binary representation, signals the presence of sampleRate attribute in AudioData. A value of "1" means the attribute will be used and 0 means the attribute sll not be used.
This field signals the presence of a sample rate attribute (sampleRate attribute) in the audio data and has a binary representation.
1, the sample rate attribute is used, if 0, not used
이 필드는 오디오 데이터에 해상도 속성 (resolution attribute)의 존재를 시그널링하고, 이진 표현을 가짐.
1인 경우, 해상도 속성은 사용되고, 0인 경우, 사용되지 않음This field, which is present in the binary representation, signals the presence of resolution attribute in AudioData. A value of "1" means the attribute shall be used and 0 means the attribute shall not be bused.
This field signals the presence of a resolution attribute in the audio data and has a binary representation.
If 1, the resolution attribute is used; if 0, it is not used
방향 센서 타입(OrientationSensorType)에 의해 정의된 구조를 이용하여 마이크로폰의 방향을 설명함Describes the orientation of the microphone using the structure defined by OrientationSensorType.
Describe the orientation of the microphone using the structure defined by the OrientationSensorType.
고도 센서 타입(AltitudeSensorType)에 의해 정의된 구조를 이용하여 마이크로폰의 고도를 설명함Describes the altitude of the microphone using the structure defined by AltitudeSensorType.
Explain the altitude of the microphone using the structure defined by the altitude sensor type (AltitudeSensorType).
글로벌 위치 센서 타입(GlobalPositionSensorType)에 의해 정의되 구조를 이용하여 마이크로폰의 위치를 설명함Describes the location of the microphone using the structure defined by GlobalPositionSensorType.
Describe the location of the microphone using the structure defined by the global position sensor type (GlobalPositionSensorType).
베이스 16 포맷에 있는 텍스트 스트링으로 인코딩된 이진 오디오 데이터를 홀딩함Holds binary audio data encoded as a textual string in base-16 format.
Hold binary audio data encoded in a text string in base 16 format
베이스 64 포맷에 있는 텍스트 스트링으로 인코딩된 이진 오디오 데이터를 홀딩함Holds binary audio data encoded as a textual string in base-64 format.
Hold binary audio data encoded in a text string in base 64 format
이 필드는 비트들에 있는 샘플레이트 속성값의 인코딩된 이진 표현의 사이즈를 나타내며, 이진 표현을 가짐
This field is the binary representation of the binary representation of the binary value.
This field indicates the size of the encoded binary representation of the sample rate attribute value in the bits and has a binary representation
초당 전송된 오디오의 샘플 개수이며, Hz로 측정됨Sample rate is the number of samples carried out per second, measured in Hz.
The number of samples of audio transmitted per second, measured in Hz.
어떻게 데이터가 어느 하나의 끝이나 다른 쪽에 있는 MSB로 저장되는지를 설명함. PCM 샘플을 표현하기 위해 하나 이상의 바이트가 사용된 경우, 바이트 순서(big endian vs. little endian)가 반드시 알려져야 함. little-endian 인텔 CPU들의 광범위적인 사용 때문에 little-endian PCM은 최대 공통 바이트 방향(most common byte orientation)인 경향을 나타냄
The following table shall be used for binary representation, and this field should be specified in the binary representation.
Binary representation
(1 bit)ByteOrderType0LittleEndian1BigEndian
아래 테이블은 이진 표현을 위해 사용되며, 이 필드는 이진 표현을 특정하기 위한 것임Byte order byte_orderIt tells how the data is stored with the most significant byte on one end or the other. When more than one byte is used to represent a PCM sample, the byte order (big endian vs. little endian) must be known. Due to the widespread use of little-endian Intel CPUs, little-endian PCM tends to be the most common byte orientation.
Explain how data is stored at the end of one or the MSB at the other. If more than one byte is used to represent a PCM sample, the byte order (big endian vs. little endian) must be known. Because of the widespread use of little-endian Intel CPUs, little-endian PCMs tend to be the most common byte orientations.
The following table should be used for the binary representation, and this field should be specified in the binary representation.
Binary representation
(1 bit) ByteOrderType0LittleEndian1BigEndian
The following table is used for binary representations, and this field is for specifying binary representations.
예를 들어, 8비트 폭으로 PCM 샘플을 알기에는 충분하지 않음. 샘플이 부호로 표현된 것이지, 아니면 부호로 표현되지 않은 것인지를 범위를 이해하기 위해 필요하다. 만약 샘플이 부호로 표현되지 않으며, 샘플은 128의 중간 지점을 가지는 0~255의 범위를 나타낸다. 만약, 샘플이 부호로 표현된다면, 샘플은 0의 중간 지점을 가지는 -128~127의 범위를 나타낸다. 매우 예외적인 경우이지만, 부호로 표현되는 PCM 오디오는 부호/크기 부호화 숫자의 연속으로 표현된다.
This field should be present in binary representation and the following table shall be used for binary representation.
Binary representation
(1 bits)SignType0Signed1UnsignedIf the sample is unsigned, the sample range is 0 ... 255. If the sample is unsigned or unsigned, the sample is unsigned. with a center point of 128. If the sample is signed, the sample range is -128 ... 127 with a center point of 0. If a PCM type is signed, the sign encoding is almost always 2's complement. , signed PCM audio is represented as a series of sign / magnitude coded numbers.
For example, it is not enough to know PCM samples with 8 bit width. It is necessary to understand the range of whether the sample is expressed as a code or not as a code. If the sample is not represented by a sign, the sample represents a range of 0 to 255 with an intermediate point of 128. If the sample is represented by a sign, the sample represents a range of -128 to 127 with an intermediate point of zero. In a very exceptional case, the PCM audio represented by a sign is represented by a sequence of signed / size encoded digits.
This field should be present in binary representation and the following table shall be used for binary representation.
Binary representation
(1 bits) SignType0Signed1Unsigned
이 파라미터는 각각의 이산 진폭 샘플(discrete amplitude sample)을 표현하기 위해 사용되는 데이터량을 특정한다. 최대 공통값이 8비트(1바이트)인 경우, 256 진폭 단계의 범위가 제공되고, 최대 공통값이 16비트(2바이트)인 경우, 65536 진폭 단게의 범위가 제공된다. 경우에 따라서, 킹 사이즈 포맷 even이 샘플당 32비트 또는 64비트를 선택함This parameter specifies the amount of data used to represent each discrete amplitude sample. The most common values are 8 bits (1 byte), which gives a range of 256 amplitude steps, or 16 bits (2 bytes), which gives a range of 65536 amplitude steps. Other sizes, such as 12, 20, and 24 bits, are occasionally seen. Some king-sized formats even for opt for 32 and 64 bits per sample.
This parameter specifies the amount of data used to represent each discrete amplitude sample. When the maximum common value is 8 bits (1 byte), a range of 256 amplitude steps is provided, and if the maximum common value is 16 bits (2 bytes), a range of 65536 amplitude steps is provided. In some cases, the king size format even selects 32 bits or 64 bits per sample
마이크로폰 센서로부터 도출된 로우 오디오 데이터 부호로 표현된 숫자들로 저장되는지를 특정함Specifies the raw audio data coming from the microphone sensor as stored as signed numbers.
Specified by the number represented by the raw audio data code derived from the microphone sensor
마이크로폰 센서로부터 도출된 로우 오디오 데이터는 부호로 표현되지 않는 숫자들로 저장되는지를 특정함Specifies the raw audio data coming from the microphone sensor as stored as unsigned numbers.
Specifies whether the raw audio data derived from the microphone sensor is stored as numbers that are not represented by signs
이것은 오디오 데이터가 빅 인디언 포맷으로 저장되는지를 특정함. 가장 작은 주소에 워드의 MSB(most significant byte)가 저장되고, 가장 큰 주소에 워드의 LSB(least significant byte)가 저장됨It identifies that the audio data is stored in the Big Endian format: the most significant byte of a smallest address and the least significant byte is stored in the largest address.
This specifies whether the audio data is stored in the Big Indian format. The most significant byte (MSB) of the word is stored at the smallest address, and the LSB (least significant byte) of the word is stored at the largest address.
이것은 오디오 데이터가 리틀 인디언 포맷으로 저장되는지를 특정함. 워드의 LSB는 가장 작은 주소에 저장됨It identifies the audio data is stored in the Little Endian format: the least significant byte in the smallest address.
This specifies whether the audio data is stored in Little Indian format. The LSB of the word is stored in the smallest address
바이트에서 로우 오디오 데이터의 사이즈가 설명됨. 이 필드는 오직 이진 표현을 가짐Describes the size of the RawAudioData in bytes. This field is only present in binary representation.
The size of the raw audio data in bytes is described. This field only has a binary representation.
이진 로우 오디오 데이터를 위한 실제 데이터 홀더는 이진 표현을 가짐. 이 필드의 사이즈는 로우 오디오 데이터 사이즈 필드(RawAudioDataSize field)에 주어짐Actual data holder for binary raw audio data, only in binary representation. The size of this field is given in the RawAudioDataSize field.
The actual data holder for binary low audio data has a binary representation. The size of this field is given in the raw audio data size field (RawAudioDataSize field).
이 예시는 아래 시맨틱스에 따른 마이크로폰 센서의 명세를 나타낸다. 마이크로폰 센서는 (-10, 0, 25) 위치에 있고, (0.3, 0.6 0 0.2) 방향에 있다. 오디오 데이터 포맷은 샘플링 레이트가 8000Hz이고, 바이트 순서가 리틀 인디언이고, 값은 부호를 가지며, 16비트로 표현된다.This example shows the specification of the microphone sensor according to the following semantics. The microphone sensor is in the (-10, 0, 25) position and in the (0.3, 0.6 0 0.2) direction. The audio data format has a sampling rate of 8000 Hz, the byte order is Little Indians, the value has a sign and is represented by 16 bits.
표 46는 신택스를 나타낸다.은 microphone sensor type의 신택스를 나타낸다.Table 46 shows the syntax of the microphone sensor type.
xsi:type="scdv:MircophoneSensorType"
id="micsens01">
<Orientation>0.3 0.6 0 0.2</Orientation>
<Location>-10 0 25</Location>
<AudioData>
<sample_rate>8000</sample_rate>
<byte_order>LittleEndian</byte_order>
<sign>Signed</sign>
<resolution>16</resolution>
</AudioData>
</cidl:SensorDeviceCapability><cidl: SensorDeviceCapability
xsi: type = "scdv: MircophoneSensorType"
id = "micsens01">
<Orientation> 0.3 0.6 0 0.2 </ Orientation>
<Location> -10 0 25 </ Location>
<AudioData>
<sample_rate> 8000 </ sample_rate>
<byte_order> LittleEndian </ byte_order>
<sign> Signed </ sign>
<resolution> 16 </ resolution>
</ AudioData>
</ cidl: SensorDeviceCapability>
한편, 본 발명에 따른 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성되어 마그네틱 저장매체, 광학적 판독매체, 디지털 저장매체 등 다양한 기록 매체로도 구현될 수 있다.Meanwhile, the method according to the present invention may be embodied as a program that can be executed by a computer, and may be embodied as various recording media such as a magnetic storage medium, an optical reading medium, and a digital storage medium.
본 명세서에 설명된 각종 기술들의 구현들은 디지털 전자 회로조직으로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 그들의 조합들로 구현될 수 있다. 구현들은 데이터 처리 장치, 예를 들어 프로그램가능 프로세서, 컴퓨터, 또는 다수의 컴퓨터들의 동작에 의한 처리를 위해, 또는 이 동작을 제어하기 위해, 컴퓨터 프로그램 제품, 즉 정보 캐리어, 예를 들어 기계 판독가능 저장 장치(컴퓨터 판독가능 매체) 또는 전파 신호에서 유형적으로 구체화된 컴퓨터 프로그램으로서 구현될 수 있다. 상술한 컴퓨터 프로그램(들)과 같은 컴퓨터 프로그램은 컴파일된 또는 인터프리트된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있고, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서의 사용에 적절한 다른 유닛으로서 포함하는 임의의 형태로 전개될 수 있다. 컴퓨터 프로그램은 하나의 사이트에서 하나의 컴퓨터 또는 다수의 컴퓨터들 상에서 처리되도록 또는 다수의 사이트들에 걸쳐 분배되고 통신 네트워크에 의해 상호 연결되도록 전개될 수 있다.Implementations of the various techniques described herein may be implemented in digital electronic circuitry, or in computer hardware, firmware, software, or combinations thereof. Implementations may be implemented in a computer program product, such as an information carrier, e.g., a machine readable storage device, such as a computer readable storage medium, for example, for processing by a data processing apparatus, Apparatus (computer readable medium) or as a computer program tangibly embodied in a propagation signal. A computer program, such as the computer program (s) described above, may be written in any form of programming language, including compiled or interpreted languages, and may be stored as a stand-alone program or in a module, component, subroutine, As other units suitable for use in the present invention. A computer program may be deployed to be processed on one computer or multiple computers at one site or distributed across multiple sites and interconnected by a communications network.
컴퓨터 프로그램의 처리에 적절한 프로세서들은 예로서, 범용 및 특수 목적 마이크로폰로프로세서들 둘 다, 및 임의의 종류의 디지털 컴퓨터의 임의의 하나 이상의 프로세서들을 포함한다. 일반적으로, 프로세서는 판독 전용 메모리 또는 랜덤 액세스 메모리 또는 둘 다로부터 명령어들 및 데이터를 수신할 것이다. 컴퓨터의 요소들은 명령어들을 실행하는 적어도 하나의 프로세서 및 명령어들 및 데이터를 저장하는 하나 이상의 메모리 장치들을 포함할 수 있다. 일반적으로, 컴퓨터는 데이터를 저장하는 하나 이상의 대량 저장 장치들, 예를 들어 자기, 자기-광 디스크들, 또는 광 디스크들을 포함할 수 있거나, 이것들로부터 데이터를 수신하거나 이것들에 데이터를 송신하거나 또는 양쪽으로 되도록 결합될 수도 있다. 컴퓨터 프로그램 명령어들 및 데이터를 구체화하는데 적절한 정보 캐리어들은 예로서 반도체 메모리 장치들, 예를 들어, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 롬(ROM, Read Only Memory), 램(RAM, Random Access Memory), 플래시 메모리, EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 등을 포함한다. 프로세서 및 메모리는 특수 목적 논리 회로조직에 의해 보충되거나, 이에 포함될 수 있다.Processors suitable for processing a computer program include, by way of example, both general purpose and special purpose microphones, as well as any one or more processors of any kind of digital computer. Generally, a processor will receive instructions and data from a read-only memory or a random access memory or both. The elements of a computer may include at least one processor for executing instructions and one or more memory devices for storing instructions and data. Generally, a computer may include one or more mass storage devices for storing data, such as magnetic, magneto-optical disks, or optical disks, or may receive data from them, transmit data to them, . ≪ / RTI > Information carriers suitable for embodying computer program instructions and data include, for example, semiconductor memory devices, for example, magnetic media such as hard disks, floppy disks and magnetic tape, compact disk read only memory A magneto-optical medium such as a floppy disk, an optical disk such as a DVD (Digital Video Disk), a ROM (Read Only Memory), a RAM , Random Access Memory), a flash memory, an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and the like. The processor and memory may be supplemented or included by special purpose logic circuitry.
또한, 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용매체일 수 있고, 컴퓨터 저장매체 및 전송매체를 모두 포함할 수 있다.In addition, the computer-readable medium can be any available media that can be accessed by a computer, and can include both computer storage media and transmission media.
본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.While the specification contains a number of specific implementation details, it should be understood that they are not to be construed as limitations on the scope of any invention or claim, but rather on the description of features that may be specific to a particular embodiment of a particular invention Should be understood. Certain features described herein in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment may also be implemented in multiple embodiments, either individually or in any suitable subcombination. Further, although the features may operate in a particular combination and may be initially described as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, Or a variant of a subcombination.
마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 장치 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 장치들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.Likewise, although the operations are depicted in the drawings in a particular order, it should be understood that such operations must be performed in that particular order or sequential order shown to achieve the desired result, or that all illustrated operations should be performed. In certain cases, multitasking and parallel processing may be advantageous. Also, the separation of the various device components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and devices will generally be integrated together into a single software product or packaged into multiple software products It should be understood.
한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.It should be noted that the embodiments of the present invention disclosed in the present specification and drawings are only illustrative of specific examples for the purpose of understanding and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.
Claims (19)
상기 획득한 제1 센서 정보를 가상 세계에 적용되는 가상 세계 객체 특징(Virtual World Object Characteristics) 또는 가상 세계에 적용되는 제2 센서 정보로 변환하는 단계;
상기 변환된 가상 세계 객체 특징 또는 제2 센서 정보를 가상 세계에 적용하는 단계
를 포함하고,
상기 현실 세계의 센서들은 센서 능력 명세에 대응하고,
상기 현실 세계의 환경에 의존하는 글로벌 좌표가 설정되는 가상 세계와 현실 세계 간의 센서 정보 처리 방법.Obtaining first sensor information from a real-world sensor;
Converting the acquired first sensor information into virtual world object characteristics applied to a virtual world or second sensor information applied to a virtual world;
Applying the transformed virtual world object feature or second sensor information to a virtual world
Lt; / RTI >
The real world sensors correspond to the sensor capability specification,
Wherein the global coordinates are set in dependence on the environment of the real world.
상기 현실 세계의 센서는, 카메라 센서를 포함하고,
상기 카메라 센서는 카메라 센서 능력 타입이 설정되는 가상 세계와 현실 세계 간의 센서 정보 처리 방법.The method according to claim 1,
The real world sensor includes a camera sensor,
Wherein the camera sensor is a camera sensor capability type.
상기 카메라 센서 능력 타입은,
지원 해상도 플래그, 지원 해상도, 해상도 리스트, 해상도 리스트 타입, 해상도 타입, 폭, 높이, 초점 길이 범위 플래그, 초점 길이 범위, 값 범위 타입, 조리개 범위 플래그, 조리개 범위, 셔터 스피드 범위 플래그, 셔터 스피드 범위, ISO 스피드 범위 플래그, ISO 스피드 범위, 노출값 범위 플래그, 노출값 범위, 비디오 플래그, 센서 타입, 컬러 필터 어레이 플래그, 컬러 필터 어레이 타입, 컬러 스페이스 플래그, 컬러 스페이스 타입, 비트 깊이 범위 플래그, 비트 깊이 범위, 스펙트럼 범위 플래그, 스펙트럼 범위, 열 범위 플래그, 열 범위, 화이트밸런스 온도 범위 플래그, 화이트밸런스 온도 범위, 화이트밸런스 틴트 플래그, 화이트밸런스 틴트 범위 중 적어도 하나를 포함하는 가상 세계와 현실 세계 간의 센서 정보 처리 방법.The method according to claim 1,
The camera sensor capability type comprises:
A resolution range, a resolution list, a resolution list type, a resolution type, a width, a height, a focal length range flag, a focal length range, a value range type, an aperture range flag, an aperture range, a shutter speed range flag, ISO Speed Range Flag, ISO Speed Range, Exposure Value Range Flag, Exposure Value Range, Video Flag, Sensor Type, Color Filter Array Flag, Color Filter Array Type, Color Space Flag, Color Space Type, Bit Depth Range Flag, Bit Depth Range, Spectrum A method for processing sensor information between a virtual world and a real world including at least one of a range flag, a spectrum range, a column range flag, a column range, a white balance temperature range flag, a white balance temperature range, a white balance tint flag, and a white balance tint range.
상기 현실 세계의 센서는, 마이크로폰 센서를 포함하고,
상기 마이크로폰 센서는 마이크로폰 센서 능력 타입이 설정되는 가상 세계와 현실 세계 간의 센서 정보 처리 방법.The method according to claim 1,
The real world sensor includes a microphone sensor,
Wherein the microphone sensor is a microphone sensor capability type.
상기 마이크로폰 센서 능력 타입은,
마이크로폰 타입, 트랜듀서 어레이 타입, 프루브 타입, 폴라 패턴, 주파수 범위, 응답 타입 플래그, 응답 주파수, 픽업 민감도 중 적어도 하나를 포함하는 가상 세계와 현실 세계 간의 센서 정보 처리 방법.5. The method of claim 4,
The microphone sensor capability type comprises:
A method for processing sensor information between a virtual world and a real world including at least one of a microphone type, a transducer array type, a probe type, a polar pattern, a frequency range, a response type flag, a response frequency, and a pickup sensitivity.
상기 카메라 센서는, 카메라 센서 타입(CameraSensorType)에 따라 특정되고,
상기 카메라 센서 타입은, 카메라 방향(CameraOrientation), 카메라 위치(CameraLocation), 카메라 고도(CameraAltitude), 초점길이(FocalLength), 조리개(Aperture), 셔터스피드(ShutterSpeed), 필터(Filter), 카메라 방향 플래그, 카메라 위치 플래그, 카메라 고도 플래그, 초점 길이 플래그, 조리개 플래그, 셔터 스피드 플래그, 필터 플래그 중 적어도 하나를 포함하는 가상 세계와 현실 세계 간의 센서 정보 처리 방법.The method according to claim 1,
The camera sensor is specified according to a camera sensor type (CameraSensorType)
The camera sensor type includes at least one of a camera orientation, a camera position, a camera altitude, a focal length, an aperture, a shutter speed, a filter, a camera direction flag, Wherein the sensor information includes at least one of a camera position flag, a camera height flag, a focal length flag, an aperture flag, a shutter speed flag, and a filter flag.
상기 마이크로폰 센서는, 마이크로폰 센서 타입(MicrophoneSensorType)에 따라 특정되고,
상기 마이크로폰 센서 타입은, 방향 플래그, 고도 플래그, 위치 플래그, 샘플레이트 플래그, 해상도 플래그, 방향, 고도, 위치, 샘플레이트 사이즈, 샘플레이트, 바이트 순서, 부호, 해상도, 빅인디언, 리틀 인디언, 로우 오디오 데이터 사이즈, 로우 오디오 데이터 사이즈 중 적어도 하나를 포함하는 가상 세계와 현실 세계 간의 센서 정보 처리 방법.The method according to claim 1,
The microphone sensor is specified according to a microphone sensor type (MicrophoneSensorType)
The microphone sensor type includes a directional flag, an altitude flag, a position flag, a sample rate flag, a resolution flag, a direction, an altitude, a position, a sample rate size, a sample rate, a byte order, A data size, and a raw audio data size.
상기 현실 세계의 센서는,
상기 현실 세계의 센서들은 센서 능력 명세에 대응하고,
상기 현실 세계의 환경에 의존하는 글로벌 좌표가 설정되는 기록 매체.A recording medium readable by an electronic device in which sensor information of a sensor in a real world for applying sensor information to a virtual object in a virtual world is recorded,
In the real world sensor,
The real world sensors correspond to the sensor capability specification,
And global coordinates that depend on the environment of the real world are set.
상기 현실 세계의 센서는, 카메라 센서를 포함하고,
상기 카메라 센서는 카메라 센서 능력 타입이 설정되는 기록 매체.9. The method of claim 8,
The real world sensor includes a camera sensor,
Wherein the camera sensor capability type is set.
상기 카메라 센서 능력 타입은,
지원 해상도 플래그, 지원 해상도, 해상도 리스트, 해상도 리스트 타입, 해상도 타입, 폭, 높이, 초점 길이 범위 플래그, 초점 길이 범위, 값 범위 타입, 조리개 범위 플래그, 조리개 범위, 셔터 스피드 범위 플래그, 셔터 스피드 범위, ISO 스피드 범위 플래그, ISO 스피드 범위, 노출값 범위 플래그, 노출값 범위, 비디오 플래그, 센서 타입, 컬러 필터 어레이 플래그, 컬러 필터 어레이 타입, 컬러 스페이스 플래그, 컬러 스페이스 타입, 비트 깊이 범위 플래그, 비트 깊이 범위, 스펙트럼 범위 플래그, 스펙트럼 범위, 열 범위 플래그, 열 범위, 화이트밸런스 온도 범위 플래그, 화이트밸런스 온도 범위, 화이트밸런스 틴트 플래그, 화이트밸런스 틴트 범위 중 적어도 하나를 포함하는 기록 매체.10. The method of claim 9,
The camera sensor capability type comprises:
A resolution range, a resolution list, a resolution list type, a resolution type, a width, a height, a focal length range flag, a focal length range, a value range type, an aperture range flag, an aperture range, a shutter speed range flag, ISO Speed Range Flag, ISO Speed Range, Exposure Value Range Flag, Exposure Value Range, Video Flag, Sensor Type, Color Filter Array Flag, Color Filter Array Type, Color Space Flag, Color Space Type, Bit Depth Range Flag, Bit Depth Range, Spectrum A white balance temperature range flag, a white balance tint flag, and a white balance tint range, wherein the range of the white balance temperature range includes a range flag, a spectrum range, a column range flag, a column range, a white balance temperature range flag,
상기 현실 세계의 센서는, 마이크로폰 센서를 포함하고,
상기 마이크로폰 센서는 마이크로폰 센서 능력 타입이 설정되는 기록 매체.9. The method of claim 8,
The real world sensor includes a microphone sensor,
Wherein the microphone sensor type is set to a microphone sensor capability type.
상기 마이크로폰 센서 능력 타입은,
마이크로폰 타입, 트랜듀서 어레이 타입, 프루브 타입, 폴라 패턴, 주파수 범위, 응답 타입 플래그, 응답 주파수, 픽업 민감도 중 적어도 하나를 포함하는 기록 매체.12. The method of claim 11,
The microphone sensor capability type comprises:
Wherein the recording medium includes at least one of a microphone type, a transducer array type, a probe type, a polar pattern, a frequency range, a response type flag, a response frequency, and a pickup sensitivity.
상기 카메라 센서는, 카메라 센서 타입(CameraSensorType)에 따라 특정되고,
상기 카메라 센서 타입은, 카메라 방향(CameraOrientation), 카메라 위치(CameraLocation), 카메라 고도(CameraAltitude), 초점길이(FocalLength), 조리개(Aperture), 셔터스피드(ShutterSpeed), 필터(Filter), 카메라 방향 플래그, 카메라 위치 플래그, 카메라 고도 플래그, 초점 길이 플래그, 조리개 플래그, 셔터 스피드 플래그, 필터 플래그 중 적어도 하나를 포함하는 기록 매체.10. The method of claim 9,
The camera sensor is specified according to a camera sensor type (CameraSensorType)
The camera sensor type includes at least one of a camera orientation, a camera position, a camera altitude, a focal length, an aperture, a shutter speed, a filter, a camera direction flag, A camera position flag, a camera height flag, a focal length flag, an aperture flag, a shutter speed flag, and a filter flag.
상기 마이크로폰 센서는, 마이크로폰 센서 타입(MicrophoneSensorType)에 따라 특정되고,
상기 마이크로폰 센서 타입은, 방향 플래그, 고도 플래그, 위치 플래그, 샘플레이트 플래그, 해상도 플래그, 방향, 고도, 위치, 샘플레이트 사이즈, 샘플레이트, 바이트 순서, 부호, 해상도, 빅인디언, 리틀 인디언, 로우 오디오 데이터 사이즈, 로우 오디오 데이터 사이즈 중 적어도 하나를 포함하는 기록 매체.12. The method of claim 11,
The microphone sensor is specified according to a microphone sensor type (MicrophoneSensorType)
The microphone sensor type includes at least one of direction flags, altitude flags, position flags, sample rate flags, resolution flags, direction, altitude, position, sample rate size, sample rate, byte order, sign, resolution, A data size, and a low audio data size.
미디어 프로세서를 포함하고,
상기 미디어 프로세서는,
현실 세계의 센서로부터 제1 센서 정보를 획득하고,
상기 획득한 제1 센서 정보를 가상 세계에 적용되는 가상 세계 객체 특징(Virtual World Object Characteristics) 또는 가상 세계에 적용되는 제2 센서 정보로 변환하고,
상기 변환된 가상 세계 객체 특징 또는 제2 센서 정보를 가상 세계에 적용하며,
상기 현실 세계의 센서들은 센서 능력 명세에 대응하고,
상기 현실 세계의 환경에 의존하는 글로벌 좌표가 설정되는 센서 정보 처리 시스템.The sensor information processing system
Media processor,
The media processor comprising:
Acquiring first sensor information from a real-world sensor,
Converts the acquired first sensor information into virtual world object characteristics applied to the virtual world or second sensor information applied to the virtual world,
Applying the transformed virtual world object feature or second sensor information to a virtual world,
The real world sensors correspond to the sensor capability specification,
Wherein global coordinates dependent on the environment of the real world are set.
상기 현실 세계의 센서는, 카메라 센서를 포함하고,
상기 카메라 센서는 카메라 센서 능력 타입이 설정되는 센서 정보 처리 시스템.16. The method of claim 15,
The real world sensor includes a camera sensor,
Wherein the camera sensor capability type is set to the camera sensor capability type.
상기 현실 세계의 센서는, 마이크로폰 센서를 포함하고,
상기 마이크로폰 센서는 마이크로폰 센서 능력 타입이 설정되는 센서 정보 처리 시스템.16. The method of claim 15,
The real world sensor includes a microphone sensor,
Wherein the microphone sensor is set to a microphone sensor capability type.
상기 카메라 센서는, 카메라 센서 타입(CameraSensorType)에 따라 특정되는 센서 정보 처리 시스템.17. The method of claim 16,
Wherein the camera sensor is specified according to a camera sensor type (CameraSensorType).
상기 마이크로폰 센서는, 마이크로폰 센서 타입(MicrophoneSensorType)에 따라 특정되는 센서 정보 처리 시스템.18. The method of claim 17,
Wherein the microphone sensor is specified according to a microphone sensor type (Microphone Sensor Type).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/939,775 US20180285644A1 (en) | 2017-03-29 | 2018-03-29 | Sensor information processing method and system between virtual world and real world |
Applications Claiming Priority (12)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170040251 | 2017-03-29 | ||
KR20170040251 | 2017-03-29 | ||
KR1020170040250 | 2017-03-29 | ||
KR20170040250 | 2017-03-29 | ||
KR20170041542 | 2017-03-31 | ||
KR1020170041542 | 2017-03-31 | ||
KR20170045129 | 2017-04-07 | ||
KR1020170045128 | 2017-04-07 | ||
KR1020170045129 | 2017-04-07 | ||
KR20170045130 | 2017-04-07 | ||
KR20170045128 | 2017-04-07 | ||
KR1020170045130 | 2017-04-07 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180110644A true KR20180110644A (en) | 2018-10-10 |
Family
ID=63876103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180036866A KR20180110644A (en) | 2017-03-29 | 2018-03-29 | Sensor information processing method and system between virtual world and real world |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180110644A (en) |
-
2018
- 2018-03-29 KR KR1020180036866A patent/KR20180110644A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9940969B2 (en) | Audio/video methods and systems | |
CN111179435B (en) | Augmented reality processing method, device, system, storage medium and electronic equipment | |
JP2022527708A (en) | Image processing methods and head-mounted display devices | |
KR102499203B1 (en) | Electronic device and method for reliability-based ojbect recognition | |
CN106941631A (en) | Summarized radio production method and video data processing system | |
KR102565977B1 (en) | Method for detecting region of interest based on line of sight and electronic device thereof | |
JP2014090386A (en) | Information processing system, information processing device, and program | |
CN109788189A (en) | The five dimension video stabilization device and methods that camera and gyroscope are fused together | |
US11189102B2 (en) | Electronic device for displaying object for augmented reality and operation method therefor | |
US10728689B2 (en) | Soundfield modeling for efficient encoding and/or retrieval | |
KR20200117562A (en) | Electronic device, method, and computer readable medium for providing bokeh effect in video | |
JP2019220848A (en) | Data processing apparatus, data processing method and program | |
KR20200043818A (en) | Electronic device and method for obtaining images | |
JP2022075562A (en) | Integrated high-speed video sensor and operating method for the same | |
US20180285644A1 (en) | Sensor information processing method and system between virtual world and real world | |
KR20190014959A (en) | Electronic device for playing movie based on movment information and operating mehtod thereof | |
KR102418852B1 (en) | Electronic device and method for controlling an image display | |
JP2021121121A (en) | Imaging apparatus, imaging system, and reproducing unit | |
US11238622B2 (en) | Method of providing augmented reality contents and electronic device therefor | |
CN116208704A (en) | Sound processing method and device | |
KR20180110644A (en) | Sensor information processing method and system between virtual world and real world | |
KR20040068341A (en) | Description generation in the form of metadata | |
WO2023164814A1 (en) | Media apparatus and control method and device therefor, and target tracking method and device | |
CN112992127A (en) | Voice recognition method and device | |
US11665391B2 (en) | Signal processing device and signal processing system |