WO2014073926A1 - 원격 제어 장치, 디스플레이 장치 및 그 제어 방법 - Google Patents

원격 제어 장치, 디스플레이 장치 및 그 제어 방법 Download PDF

Info

Publication number
WO2014073926A1
WO2014073926A1 PCT/KR2013/010197 KR2013010197W WO2014073926A1 WO 2014073926 A1 WO2014073926 A1 WO 2014073926A1 KR 2013010197 W KR2013010197 W KR 2013010197W WO 2014073926 A1 WO2014073926 A1 WO 2014073926A1
Authority
WO
WIPO (PCT)
Prior art keywords
remote control
pointer
control device
reference point
unit
Prior art date
Application number
PCT/KR2013/010197
Other languages
English (en)
French (fr)
Inventor
최은석
문종보
유미라
최상언
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN201380070351.3A priority Critical patent/CN105190475A/zh
Priority to EP13853692.5A priority patent/EP2919481A4/en
Publication of WO2014073926A1 publication Critical patent/WO2014073926A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0334Ergonomic shaped mouse for vertical grip, whereby the hand controlling the mouse is resting or gripping it with an attitude almost vertical with respect of the working surface

Definitions

  • the present invention relates to a remote control device, a display device and a control method thereof, and more particularly, to a remote control device, a display device and a control method for controlling the display device.
  • the electronic device is controlled by using a button provided in the electronic device or a remote controller which is a device separate from the electronic device.
  • the user when using the pointer displayed on the screen to select specific content on the screen of the electronic device, the user alternately selects four direction buttons of the remote control several times to move the pointer to the corresponding content area, and on the content area.
  • the select button provided on the remote controller By pressing the select button provided on the remote controller, specific content could be selected.
  • the user may check the button provided on the remote controller several times and select the corresponding content by pressing and operating the button several times.
  • an object of the present invention is to provide a remote control device, a display device and a control method for controlling the display device according to the sensed movement.
  • a remote control apparatus providing a plurality of control modes according to an embodiment of the present invention for achieving the above object, the communication unit for communicating with a display device for providing a user interface screen, the movement of the remote control device And a sensing unit for sensing and a control unit for controlling a reference point position of a pointer provided on the user interface screen when movement information of the remote control apparatus detected by the sensing unit is mapped.
  • the controller may set angle information of the remote control apparatus detected by the sensing unit as a reference angle at the time when the event occurs, and control the pointer to be located at a reference point on the user interface screen.
  • the controller may control the pointer to be fixed to the reference point for a preset time after the pointer is positioned at the reference point on the user interface screen.
  • the event may be a predefined gesture of the remote control device.
  • the apparatus may further include a button unit, and the event may be a double tap operation or a rubbing operation on the button unit.
  • the button unit may be implemented in a form including at least one of a touch sensor and an optical joystick (OJ) sensor applying optical technology.
  • OJ optical joystick
  • the button unit may further include a physical button for receiving a user command for selecting an object on which the pointer is located in the pointing mode.
  • the sensing unit may include at least one of an acceleration sensor, a gyro sensor, and a geomagnetic sensor.
  • the pointer may be provided in an absolute pointing scheme for estimating absolute coordinates based on the movement of the remote control apparatus.
  • the display device controlled by the remote control device a communication unit for communicating with the remote control device, a display unit for displaying a pointer for performing an indicator function on the user interface screen And a controller configured to control the pointer to be positioned at a reference point on the user interface screen when a user command for setting a reference point of the pointer is received from the remote control apparatus.
  • control method of the remote control apparatus the step of performing communication with the display device providing a user interface screen, and, if a predetermined event occurs, the detected motion information of the remote control device and And controlling a reference point position of a pointer provided on the user interface screen to be mapped.
  • the controlling may include setting angle information of the remote control apparatus detected by the sensing unit as a reference angle at the time when the event occurs, and controlling the pointer to be located at a reference point on the user interface screen.
  • the controlling may include controlling the pointer to be fixed to the reference point for a predetermined time after the pointer is positioned at the reference point on the user interface screen.
  • the event may be a predefined gesture of the remote control device.
  • the event may be a double tap operation or a rubbing operation on the button unit provided in the remote control apparatus.
  • the button unit may be implemented in a form including at least one of a touch sensor and an optical joystick (OJ) sensor using optical technology.
  • OJ optical joystick
  • the button unit may further include a physical button for receiving a user command for selecting an object on which the pointer is located in the pointing mode.
  • the controlling may include detecting movement of the remote control apparatus using at least one of an acceleration sensor, a gyro sensor, and a geomagnetic sensor.
  • the pointer may be provided in an absolute pointing scheme for estimating absolute coordinates based on the movement of the remote control apparatus.
  • control method of the display apparatus controlled by the remote control apparatus displaying a pointer for performing an indicator function on the user interface screen, and the pointer from the remote control device If a user command for setting a reference point of the received is received, controlling the pointer to be located at the reference point on the user interface screen.
  • FIG. 1 is a schematic diagram showing the configuration of a display system according to an embodiment of the present invention.
  • FIG. 2 is a diagram for describing an operation according to an exemplary embodiment of the display system illustrated in FIG. 1.
  • FIG. 3 is a block diagram illustrating a configuration of a display apparatus according to an exemplary embodiment.
  • control unit 130 is a view for explaining the detailed configuration of the control unit 130 according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a software structure of the storage 140 for supporting the operation of the controller 130 according to the above-described various embodiments.
  • 6A to 6C are diagrams showing an implementation example of the remote control apparatus 200 according to an embodiment of the present invention.
  • FIGS. 7A to 7C are diagrams for describing a method of setting a reference point according to an embodiment of the present invention.
  • 8A and 8B are diagrams for describing a method for setting a reference point according to another exemplary embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating a control method of a remote control apparatus according to an embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating a control method of a display apparatus controlled by a remote control apparatus according to an exemplary embodiment.
  • FIG. 1 is a schematic diagram showing the configuration of a display system according to an embodiment of the present invention.
  • a display system includes a display apparatus 100 and a remote control apparatus 200.
  • the display apparatus 100 may be implemented as a digital TV as a device controlled by the remote control apparatus 200 that provides a plurality of control modes.
  • the remote control apparatus 200 is a device for remotely controlling the display apparatus 100, and may receive a user command and transmit a control signal corresponding to the input user command to the display apparatus 100.
  • the remote control device 200 may be a space mouse, a remote controller, a mobile phone, or the like.
  • the remote control apparatus 200 and the display apparatus 100 are illustrated in a wireless manner in FIG. 1, in some cases, the remote control apparatus 200 and the display apparatus 100 may be implemented in a wired manner.
  • the remote control apparatus 200 may detect a movement of the remote control apparatus 200 in the XYZ space and transmit a signal related to the detected three-dimensional movement to the display apparatus 100.
  • the 3D motion may correspond to a command for controlling the display apparatus 100. That is, the user may transmit a predetermined command to the display apparatus 100 by moving the remote control apparatus 200 in a space (for example, tilting in an up and down direction or rotating in a left and right direction).
  • a geomagnetic sensor, an angular velocity sensor, and an acceleration sensor is embedded in the remote control apparatus 200 to change the roll angle ⁇ , pitch angle ⁇ , and yaw angle ⁇ according to the user's motion. At least one piece of information is calculated and the calculated information is transmitted to the display apparatus 100.
  • the remote control apparatus 200 is a signal corresponding to the detected motion information (and the direction information for the geomagnetic (earth magnetic)) according to where the operation on the detected information is performed (hereinafter, the control signal Or a signal obtained by converting a signal corresponding to the detected motion information into a control command for controlling the display apparatus 100 (hereinafter, referred to as control information).
  • the remote control apparatus 200 may provide an absolute pointing method based on the absolute coordinate method. That is, the moving region of the remote control apparatus 200 and the screen of the display apparatus 100 may correspond to each other. Specifically, the movement trajectory of the remote control apparatus 200 that the user moves around the preset absolute reference point may be calculated. For example, when the remote control device 200 is tilted in the vertical direction or rotated in the horizontal direction, an angle that is changed according to the movement of the remote control device 200, that is, an absolute angle is calculated, and a pointer (for example, , The mouse cursor) may move from the (x1, y1) point to the (x2, y2) point according to the moving angle of the remote control apparatus 200 on the screen.
  • a pointer for example, , The mouse cursor
  • the display apparatus 100 and the remote control apparatus 200 may use various communication methods such as BT (BlueTooth), Zigbee, WI-FI (Wireless Fidelity), IR (Infrared), Serial Interace, and Universal Serial Bus (USB). Communication can be performed via For example, when the display apparatus 100 and the remote control apparatus 200 communicate with each other through BT (BlueTooth), the display apparatus 100 and the remote control apparatus 200 may interwork with each other through Bluetooth pairing. Detailed technology related to Bluetooth pairing is obvious to those skilled in the art, and thus detailed description thereof will be omitted.
  • FIG. 2 is a block diagram illustrating a configuration of a display apparatus according to an exemplary embodiment.
  • the display apparatus 100 includes a communicator 110, a display 120, and a controller 130.
  • the display apparatus 100 may be implemented as a digital TV, a PC, a laptop, or the like, but is not limited thereto.
  • the display apparatus 100 may be applied as long as the device has a display function and is capable of remote control.
  • the communicator 110 may perform communication with the remote control apparatus 200.
  • the communication unit 110 is a remote control device 200 through various communication methods such as BT (BlueTooth), Zigbee, WI-FI (Wireless Fidelity), IR (Infrared), Serial Interace, Universal Serial Bus (USB), etc. It can communicate with.
  • BT Bluetooth
  • Zigbee Zigbee
  • WI-FI Wireless Fidelity
  • IR Infrared
  • USB Universal Serial Bus
  • the communication unit 110 may receive a control signal corresponding to a user command input through the remote control apparatus 200.
  • the user command may be a gesture input, but a method such as a button input or a voice input may be additionally applied.
  • the remote controller 200 may receive a control signal corresponding to the gesture command sensed through the remote control apparatus 200.
  • the remote control apparatus 200 may receive the control information instead of the control signal according to the arithmetic processing capability.
  • the communication unit 110 may receive a control mode switching signal, a selection signal, and the like from the remote control apparatus 200.
  • the control mode switching signal, the selection signal, etc. may be input through the button unit provided in the remote control apparatus 200.
  • the communication unit 110 may receive a remote control signal including information on an operation mode and movement information of the remote control apparatus 100 from the remote control apparatus 200.
  • the information about the operation mode may be implemented in various forms as information about a user command for selecting one of the pointing mode and the gesture mode.
  • the mode information may be implemented in the form of a flag.
  • the flag In the pointing mode, the flag may indicate a value of '0', and in the gesture mode, the flag may represent a value of '1'. That is, the remote control apparatus 200 may generate flag information indicating a value of '0' or '1' according to a user command for mode change.
  • a user command for mode selection may be input through a first button unit (not shown) provided in the remote control apparatus 200.
  • the communication unit 110 may transmit information to the remote control apparatus 200 in some cases.
  • the remote control apparatus 200 may be automatically powered off by transmitting a power off signal to the remote control apparatus 200.
  • the display unit 120 may provide various display screens that can be provided through the display apparatus 100.
  • the display 120 may display various UI screens capable of a user interface.
  • the display 120 may display a GUI corresponding to the control mode of the remote control apparatus 200 under the control of the controller 130.
  • the display 120 may display a pointer such as a cursor, a mouse cursor, and a highlight display on the displayed UI screen.
  • the display unit 120 may move and display the position of the pointer according to the control signal received from the remote control apparatus 200 in the pointing mode.
  • the display unit 120 may include a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display. It may be implemented in various displays such as a display (3D display).
  • the controller 130 functions to control overall operations of the display apparatus 100.
  • the controller 130 may control the operation mode selection based on the information about the operation mode received from the remote control apparatus 200.
  • the controller 130 may control the selection of one of the pointing mode and the gesture mode based on information about a user command for selecting one of the pointing mode and the gesture mode.
  • the controller 130 determines an operation mode of the display apparatus 100 as a pointing mode while not receiving information about a pointing mode and a user command for selecting one of the gesture mode, and points a pointing mode and a gesture. While the information about the user command for selecting one of the modes is received, the operation mode of the display apparatus 100 may be determined as the gesture mode.
  • controller 130 converts the motion information received from the remote control apparatus 200 into a control signal for controlling the display apparatus 100 and controls the operation of the display apparatus 100 according to the converted control signal. Can be.
  • the controller 130 may convert the control signal received from the remote control apparatus 200 into control information for controlling the display apparatus 100 and control the display apparatus 100 according to the converted control information.
  • the controller 130 converts the received control signal into a form of control information applied to the function of the display apparatus 100 using the control information mapping table, and uses the converted control information to function as the function of the display apparatus 100. Can be controlled.
  • the controller 130 may control the pointer to be positioned at the reference point on the UI screen.
  • the reference point may be a screen center coordinate.
  • the controller 130 moves the position of the pointer according to the signal.
  • the pitch angle range according to the movement of the remote control apparatus 200 is ⁇ ⁇ limit
  • the yaw angle range is ⁇ ⁇ limit. Accordingly, the position of the pointer is adjusted within the range of ⁇ ⁇ limit and ⁇ ⁇ limit according to the pitch angle and yaw angle variation of the remote control apparatus 200. That is, the position of the pointer is moved from the screen center coordinates according to the motion of the remote control apparatus 200.
  • the communication unit 110 may receive a control signal generated based on the mode information input through the remote control apparatus 200 and the motion information of the remote control apparatus 200. That is, unlike the above-described embodiment, the communication unit 110 may receive a control signal having a form capable of controlling the display apparatus 100 from the remote control apparatus 200 without any operation.
  • FIG. 2B is a block diagram illustrating a detailed configuration of the display apparatus illustrated in FIG. 2A.
  • the display apparatus 100 ′ includes a communication unit 110, a display unit 120, a controller 130, a storage unit 140, an image receiving unit 150, and an image processing unit 160. ), A user interface unit 170, and a UI processing unit 180.
  • a communication unit 110 the display apparatus 100 shown in FIG. 2A is implemented as a digital TV.
  • a display apparatus 100 shown in FIG. 2A is implemented as a digital TV.
  • detailed descriptions of portions overlapping with the components illustrated in FIG. 2A among the components illustrated in FIG. 2B will be omitted.
  • the storage unit 140 is a storage medium that stores various data and programs necessary for operating the display apparatus 100 ′, and may be implemented as a memory, a hard disk drive (HDD), or the like.
  • HDD hard disk drive
  • the storage 140 may match and store a control command corresponding to a preset gesture of the remote control apparatus 200.
  • a reference point setting command may be matched and stored with respect to a gesture of drawing a circle of the remote control apparatus 200.
  • the image receiver 150 receives broadcast contents through an antenna, a cable, or the like, or receives image contents from an external device or an external communication network.
  • the image receiving unit 150 may receive various image contents through a network or air.
  • the content may be various types of content such as pre-made content such as VOD content and broadcast content.
  • the image receiver 150 may be implemented in various forms.
  • the image receiver 110 may be implemented as a set-top box, a tuner, an external input port, a network communication module, or the like.
  • the image processor 160 functions to process various signals received through the image receiver 150. Accordingly, the image processor 160 may include signal processing elements such as a demodulator, a decoder, an A / D converter, and a scaler.
  • signal processing elements such as a demodulator, a decoder, an A / D converter, and a scaler.
  • the user interface unit 170 receives a variety of user signals.
  • the user interface 170 may be implemented in various forms according to the type of device of the display apparatus 100.
  • the user interface 170 may be implemented as the above-described communication unit 110 for receiving a remote control signal.
  • the user interface unit 170 may be implemented as an input panel including a plurality of keys or a touch screen in which a display and a touch pad form a mutual layer structure.
  • the UI processing unit 180 functions to generate various UI elements overlapped with and displayed on the image output to the display unit 120 under the control of the controller 130.
  • the UI processor (not shown) may generate a UI element in 2D or 3D form.
  • the UI processor 180 may perform operations such as 2D / 3D switching, transparency, color, size, shape and position adjustment, highlight, and animation effect of the UI element under the control of the controller 130.
  • FIG. 3 is a block diagram showing the configuration of a remote control apparatus according to an embodiment of the present invention.
  • the remote control apparatus 200 includes a communication unit 210, a sensing unit 220, an input unit 230, and a control unit 240.
  • the communicator 210 communicates with the display apparatus 100, and transmits a sensing signal sensed through the detector 220, a signal corresponding to a user command input through the input unit 230, and the like to the display apparatus 100.
  • the communication unit 210 may use various communication methods such as BT (BlueTooth), Zigbee, WI-FI (Wireless Fidelity), IR (Infrared), Serial Interface, Universal Serial Bus (USB), Near Field Communication (NFC), and the like. Communication with the display apparatus 100 may be performed through the display apparatus 100.
  • the detector 220 detects a three-dimensional movement of the remote control apparatus 200.
  • the sensing unit 220 may include at least one of an acceleration sensor, a gyro sensor, and a geomagnetic sensor.
  • Various sensors included in the sensing unit 220 may detect a three-dimensional movement of the remote control apparatus 200 through one or two or more combinations.
  • the acceleration sensor is a sensor for measuring the spatial movement of the remote control device 200. That is, the acceleration sensor may detect at least one of a change in acceleration and a change in angular acceleration generated when the user moves the remote control apparatus 200.
  • the acceleration sensor may be implemented as a three-axis acceleration sensor for measuring the increase and decrease of the linear speed with respect to three axes orthogonal to each other. Accordingly, by using the acceleration sensor, the information related to the tilting may be obtained using the acceleration information related to the motion acceleration of the remote control apparatus 200 and the gravity acceleration component in the non-moving state.
  • the gyro sensor is an inertial sensor that measures the rotational angular velocity of the remote control apparatus 200. That is, it means a sensor that can know the direction and speed of rotation using the inertial force of the rotating object.
  • the gyro sensor may be implemented as a three-axis angular velocity sensor for measuring the increase and decrease of the rotation angle with respect to three axes orthogonal to each other.
  • Geomagnetic sensors are sensors that measure azimuth. That is, the geomagnetic sensor 106 refers to a sensor for measuring the azimuth angle by detecting a magnetic field formed in the north-south direction of the earth.
  • the geomagnetic sensor may be implemented as a three-axis geomagnetic sensor that measures the strength and direction of the magnetic with respect to three axes perpendicular to each other.
  • the north direction measured by the geomagnetic sensor may be magnetic north. However, even if the geomagnetic sensor measures the direction of magnetic north, it is of course possible to output the true north direction through internal calculation.
  • the sensing unit 220 may optionally further include a distance sensor.
  • the distance sensor is a sensor that measures the distance between the remote control device 200 and the display device 100. That is, the distance between the position at the moment when the user uses the remote control apparatus 200 and the display apparatus 100 may be sensed.
  • the input unit 230 functions to receive a user command.
  • the input unit 230 may be implemented to include at least one of a touch sensor and an optical joystick (OJ) sensor using optical technology.
  • the OJ can be used as a button by recognizing four directions based on the up / down / left / right movements of the finger touching the OJ.
  • the input unit 230 may be implemented to further include a physical button (eg, a Tact switch) that receives a user command for selecting an object on which the pointer is located in the pointing mode.
  • a user command for selecting an object may be input through a pressing operation on the Tact Switch. That is, when the pointer is implemented as a mouse cursor, a mouse click input may be performed by pressing a Tact switch.
  • the controller 240 functions to control the overall operation of the remote control apparatus 200.
  • the controller 240 may be implemented as a central processing unit (CPU) or a microcontroller unit (MCU).
  • CPU central processing unit
  • MCU microcontroller unit
  • the controller 240 may transmit the motion information detected according to the movement of the remote control apparatus 200 to the display apparatus 100.
  • the sensor value detected by the sensor unit 220 may be transmitted to the display apparatus 100.
  • an absolute coordinate value is calculated based on the sensor value received from the display apparatus 100, and the calculated absolute coordinates are calculated.
  • the value can also be used to control the movement of the pointer. Specifically, the user may grab the remote device 200 and incline in the vertical direction or take a motion to rotate in the left and right directions.
  • the geomagnetic sensor and the acceleration sensor are embedded in the remote control device 200 to calculate information such as pitch angle ⁇ and yaw angle ⁇ which are changed according to the user's motion, and the calculated information is displayed on the display device 100. To send). In addition, the roll angle ⁇ may be further detected.
  • the controller 240 controls the movement of the remote control device detected by the sensor 220 to be mapped to the reference point position of the pointer provided on the UI screen at the time when the event occurs. Can be.
  • control unit 240 may set the angle information of the remote control apparatus 200 of the sensing unit 220 as a reference angle at the time the event occurs, and control the pointer to be located at a reference point on the user interface screen.
  • the preset event may be an operation of double tapping the input unit 230 or a rubbing operation of rubbing the input unit 230 with a finger, but is not limited thereto.
  • the reference point may be a screen center coordinate, but is not limited thereto.
  • controller 240 may control the pointer to be fixed to the reference point for a predetermined time after the pointer is located at the reference point on the UI screen.
  • FIG. 4 is a block diagram illustrating a detailed configuration of a remote control apparatus shown in FIG. 3 according to an exemplary embodiment.
  • FIG. 4 illustrates an implementation example and according to the implementation, the illustrated configuration may be omitted or a new configuration may be added.
  • the communication unit 210 includes hardware according to various communication methods such as a Bluetooth chip, a Wi-Fi chip, an IR communication chip, and the like. These chips may be integrated into one chip and used as a separate chip, or may be used as separate chips as shown in FIG. 4.
  • the Bluetooth chip, the WiFi chip, and the IR communication chip communicate with each other via Bluetooth, WiFi, and IR.
  • various connection information may be transmitted and received first, and then various communication information may be transmitted and received using the same.
  • the communication unit 210 may communicate with various external devices including the display apparatus 100 by using the chips of various configurations. In particular, the above-described various control signals or control information may be transmitted to the display apparatus 100.
  • the sensing unit 220 is a component for sensing the movement of the remote control apparatus 200.
  • the sensing unit 220 may include various sensors such as an acceleration sensor 221, an angular velocity sensor 222, a geomagnetic sensor 223, and a touch sensor 224.
  • the acceleration sensor 221 is a sensor that can measure the acceleration and the direction of the acceleration when the movement occurs. Specifically, the acceleration sensor 221 outputs a sensing value corresponding to the negative acceleration of the remote control device 200 to which the sensor is attached and a sensing value corresponding to the gravitational acceleration that changes according to the slope.
  • the controller 240 may determine an inclination degree using the acceleration component of gravity in the state of the movement acceleration and the non-movement of the remote control apparatus 200 using the output value of the acceleration sensor 221.
  • the angular velocity sensor 222 is a sensor that detects the angular velocity by measuring the force of Coriolis acting in the velocity direction when a rotational movement occurs.
  • the controller 240 may detect the rotation of the remote control apparatus 200 using the measured value of the angular velocity sensor 222.
  • the geomagnetic sensor 223 is a sensor that detects the magnetism of the earth or magnetic components around the earth using a two-axis or three-axis fluxgate.
  • the controller 240 may measure the direction and the intensity of the magnetic field by using the geomagnetic value detected by the geomagnetic sensor 223, and calculate the azimuth angle based on the magnetic field value. Accordingly, it may be determined in which direction the remote control apparatus 200 is rotated.
  • the touch sensor 224 may detect a user's touch manipulation.
  • the touch sensor 224 may be implemented as capacitive or pressure sensitive.
  • the capacitive touch sensor uses a dielectric coated on the surface of the remote control device 200 to sense and touch fine electricity excited to the human body when a part of the user's body is touched on the surface of the remote control device 200. It means the sensor of the method of calculating the coordinates.
  • the pressure-sensitive touch sensor includes two electrode plates embedded in the remote control apparatus 200. When the user touches, the touch sensor detects that the upper and lower plates of the touched point are flowing and calculates touch coordinates. Means sensor.
  • an infrared sensing method, a surface ultrasonic conduction method, an integrated tension measuring method, a piezo effect method, and the like may be used to detect a touch manipulation, and a detailed description thereof will be omitted.
  • the OJ sensor 225 may be an image sensor that detects a user manipulation through the OJ.
  • the OJ sensor 225 operates as if the optical mouse is upside down. That is, when the user touches the OJ like a finger, the OJ sensor 225 may analyze the optical signal.
  • the controller 240 may perform various calculation operations according to various sensing signals provided from the sensing unit 220. For example, when the movement of the remote control apparatus 200 is detected by the acceleration sensor 221, the angular velocity sensor 222, the geomagnetic sensor 223, or the like, the corresponding detection signal is calculated according to a signal processing algorithm, and the calculated value is calculated. May be controlled to be transmitted to the display apparatus 100.
  • the input unit 230 includes a selection button unit 231, a four-way input unit 232, a touch input unit 233, and a power button unit 234.
  • this is according to an exemplary embodiment, and some configurations may be deleted or a new configuration may be added according to the implementation.
  • the selection button unit 231 may receive a selection command.
  • the selection button unit 231 may receive a user command for selecting an object on which the pointer displayed on the screen of the display apparatus 100 is located. That is, when the selection button unit 231 is pressed while the pointer displayed on the screen of the display apparatus 100 is located on a specific content, the corresponding object may be selected and a corresponding function may be executed. For example, when the corresponding content is an icon interface of a specific application, the corresponding application execution screen may be displayed.
  • the select button unit 231 may perform a function such as an enter key or a confirmation key according to the characteristics of the provided UI screen.
  • the four-way input unit 232 is disposed outside the selection button unit 231 and receives a user command for four-way operation.
  • the selection button unit 231 and the four-way input unit 232 may be implemented in a form including at least one of a touch sensor and an optical joystick (OJ) sensor using optical technology.
  • OJ optical joystick
  • the touch input unit 233 may be implemented to include a plurality of touch regions mapped with different functions.
  • the touch input unit 233 may include a plurality of touch regions mapped with different functions such as a channel switching function, a volume adjusting function, a menu function, and the like.
  • the power button unit 235 serves to receive a user command for power ON / OFF.
  • the remote control apparatus 200 may further include a mode switch button unit (not shown) that receives a user command for switching from the pointing mode to the gesture mode.
  • the gesture mode is a mode for controlling the display apparatus 100 according to a predefined gesture of the remote control apparatus 200.
  • the UI mode is switched for a control signal corresponding to a gesture of flicking from left to right.
  • the content zoom in / out may be performed on the control signal corresponding to the vertical movement gesture.
  • the remote control device 200 operates in the gesture mode while the mode switching button part (not shown) is pressed, and the remote control device 200 is released when the mode switching button part (not shown) is pressed. May operate in a pointing mode.
  • the mode switch button unit (not shown) may be implemented in the form of a hardware button.
  • controller 240 may be performed by a program stored in a storage unit (not shown).
  • the storage unit may include an operating system (O / S) software for driving the remote control apparatus 200 and a signal processing algorithm for performing an operation on a detection signal detected by the detector 220.
  • O / S operating system
  • Various data can be stored.
  • the controller 240 controls the overall operation of the remote control apparatus 200 using various programs stored in a storage unit (not shown).
  • the controller 240 includes a RAM 241, a ROM 242, a main CPU 243, first to n-interfaces 244-1 to 244-n, and a bus 245.
  • the RAM 241, the ROM 242, the main CPU 243, the first to nth interfaces 244-1 to 244-n, and the like are connected to each other via a bus 245 to transmit and receive various data or signals. Can be.
  • the first to n-interfaces 244-1 to 244-n are connected to not only various components shown in FIG. 4 but also other components so that the main CPU 243 can be accessed.
  • the main CPU 243 accesses a storage unit (not shown) and performs booting using an operating system stored in the storage unit (not shown). In addition, various operations are performed using various programs and data stored in a storage unit (not shown).
  • the ROM 242 stores a command set for system booting.
  • the main CPU 243 copies the O / S stored in the storage unit (not shown) to the RAM 241 according to the command stored in the ROM 242 and executes the O / S.
  • the main CPU 243 copies various programs stored in the storage unit (not shown) to the RAM 241 and executes the programs copied to the RAM 241 to perform various operations.
  • the controller 240 may copy and execute a program stored in a storage unit (not shown) to the RAM 241 to perform various operations.
  • FIG. 5 is a block diagram illustrating a data processing method according to an embodiment of the present invention.
  • the data processing method may be performed by the operations of the data input unit 610, the data processor 620, and the result processor 630.
  • the data input unit 610 includes a sensor unit 611, an OJ unit 612, and a button unit 613. This may be substantially implemented in the remote control autonomous 100.
  • the sensor unit 611 is a three-axis acceleration sensor for measuring the acceleration of linear movement with respect to three axes perpendicular to each other, a three-axis angular velocity sensor for measuring the speed of the rotation angle with respect to three orthogonal axes, three orthogonal to each other It consists of a three-axis geomagnetic sensor that measures the strength and direction of the magnetic force on two axes. In general, three-axis geomagnetic sensors are used to estimate the Earth's azimuth, which directly measures the Earth's magnetic field and then calculates the azimuth. Accelerometers, angular velocity sensors, and geomagnetic sensors can be configured so that one component can measure all three axes, or one component can only measure one or two axes.
  • acceleration sensors angular velocity sensors
  • geomagnetic sensors may be included in one component. Sensor signals measured by the acceleration sensor, the angular velocity sensor, and the geomagnetic sensor built in the remote control apparatus 200 are transmitted to the data processor.
  • the button unit 612 is composed of one or more buttons (or switches) to receive a user input.
  • the button may be a physical button or may be composed of components that are not physical, such as touch, but receive a user input.
  • the specific button of the button unit allows the user to set the initial reference position or reference angle.
  • the OJ unit 613 is composed of an optical joystick, and operates as if the optical mouse is turned upside down. That is, when the user touches the OJ like a finger, the image sensor in the OJ analyzes the optical signal and outputs motion data.
  • buttons unit 612 and the OJ unit 613 have been described as being separately provided, but the OJ unit 613 may be an implementation form of the button unit 612.
  • the data processor 620 may perform preprocessing block 1 621, posture estimation block 2 622, motion discrimination block 3 623, calibration execution block 4 624, OJ recognition block 5 625, and user intention analysis block. 6 626, gain function application block 7 627, and event generation block 8 628.
  • the operation of the data processor 620 may be performed by the remote control apparatus 200 or may be performed by the display apparatus 100. In some cases, some may be performed by the remote control apparatus 200 and others may be performed by the display apparatus 100. It may also be performed in the CPU or MCU described above.
  • Block 1 621 performs a preprocessing on the sensor value received from the sensor unit 611, and specifically performs a physical quantity conversion, a sensor axis conversion function, and a low pass filtering function on the sensor value. For example, the following operation may be performed.
  • the sensor value which is an analog signal, is converted into a digital value through an analog-to-digital converter (ADC) built in the sensor itself or MCU.
  • ADC analog-to-digital converter
  • the sensor values converted into digital values are converted into actual physical quantities so that they can be used during algorithm processing. This process of converting the actual physical quantity is not a necessary process, but the sensor value can be conveniently used when processing the algorithm.
  • the unit of physical quantity of acceleration sensor is m / sec2 or g (gravity)
  • the unit of angular velocity sensor is rad / sec or deg / sec
  • the unit of geomagnetic sensor is T (Tesla) or G (Gauss). to be.
  • the unit of the physical quantity can be changed according to the algorithm.
  • Sensor values converted to digital values are converted into actual physical quantities applicable to signal processing algorithms
  • Sensor axis transformation It is possible to convert the individual axes of acceleration, angular velocity and geomagnetic sensors into one defined axis.
  • the axes Xb-Yb-Zb displayed on the remote control apparatus 200 may be set as the reference axis.
  • Low Pass Filter eliminates sensor electrical noise and unintended high frequency movement. In this case, it can be used inside the sensor component or by implementing a digital filter in the MCU.
  • Block 2 622 estimates a pose or posture angle (Roll, Pitch, Yaw (heading)) from each sensor value, and in this case, an estimation method using a Kalman filter may be applied.
  • Block 3 is a block for distinguishing the motion state by using the sensor signal, it is possible to determine whether the remote control device 200 is not moving, moving slowly, moving fast.
  • Block 4 proceeds with the calibration operation, and if it is determined in block 3 (623) that the remote control device 200 is not moving, that is, determined to be Zero-Rate, then the average of the output value of the angular velocity sensor for a certain time After obtaining, we can subtract this value from the output value of the angular velocity sensor to compensate the offset value of the angular velocity sensor online.
  • Block 5 625 determines whether the operation is a predefined operation using the data output from the OJ unit 612. If the predefined operation is an operation for setting the reference point, then the pitch angle ⁇ and yaw angle ⁇ are set to the reference angles ⁇ r and ⁇ r, respectively. As described above, the operation for setting the reference point may be a double tap, an operation of rubbing OJ up / down or left / right.
  • Block 6 626 analyzes and distinguishes whether the user intends to move the remote control device 200, stops, predefined gestures, or clicks.
  • the unknown motion may be distinguished from the motion of moving the pointer.
  • the block 7 627 converts the pitch angle ⁇ and the yaw angle ⁇ output from the block 2 622 into X and Y coordinates of the display apparatus 100 using the following equation. Using the converted coordinates, the pointer, that is, the position of the mouse cursor can be designated.
  • Gx and Gy are gain values (Gain) for converting angles to positions, respectively, and r and r are pitch angles ( ⁇ ) and yaw angles ( ⁇ ) at the reference point setting, respectively, and Wd and Hd are the coordinates of the display device coordinates. Width and height.
  • the coordinates (X, Y) must satisfy the conditions of 0 ⁇ X ⁇ Wd and 0 ⁇ Y ⁇ Hd. The coordinates are then used to specify the location of the pointer. Thereafter, the coordinates of the pointer may be designated by mapping the X and Y coordinates output from the block 7 727 to the X and Y coordinates of the pointer on the UI screen of the display apparatus 100.
  • Block 8 serves to generate an event as a result of blocks 5, 6, and button unit 613.
  • the generated events include the event for the action of rubbing the OJ 612 from block 5 in the up / down / left / right direction, the event generated when the button 613 is pressed, and the Gesture recognition result from the block 6. Events according to.
  • the result processor 630 includes a cursor processor 631 and an event performer 632.
  • the cursor processor 631 maps the absolute coordinates received from the block 7 627 to the mouse cursor coordinates (X, Y) of the display device.
  • the event performer 632 performs the event received from block 8 628 on the display device.
  • FIG. 6 is a diagram illustrating an implementation example of the remote control apparatus 200 according to an embodiment of the present invention.
  • the select button unit 231 may be provided on the front surface of the remote control apparatus 200.
  • a four-way input unit 242, a touch input unit 243, a power button unit 234, and the like may be provided on the front surface.
  • the touch input unit 243 may include a plurality of touch regions in which different functions are mapped, such as a channel adjusting region, a volume adjusting region, and a menu region.
  • the mode switch button unit 235 may be further provided in an area where the user grips the rear of the remote control apparatus 200. Can be.
  • the user may select the pointing mode through an operation in which the mode switching button unit 235 is depressed.
  • a pointer having a pointing type as shown in the drawing may be displayed on the UI screen provided by the display apparatus 100.
  • the gesture mode may be selected through a grip operation of maintaining the pressed state of the mode switch button unit 235.
  • FIG. 7 is a view for explaining a method of setting a reference point according to an embodiment of the present invention.
  • a user may input a user command for setting a reference point through a user operation of double tapping an input unit of the remote control apparatus 200.
  • the above-described selection button unit 231 may be implemented, but is not limited thereto. That is, the input unit may be implemented to include at least one of a touch sensor and an optical joystick (OJ) sensor using optical technology as described above.
  • the input unit may be implemented to further include a physical button (eg, Tact Switch) that receives a user command for selecting an object on which the pointer is located in the pointing mode.
  • a physical button eg, Tact Switch
  • the user may input a user command for setting a reference point through a user operation of rubbing the input unit of the remote control apparatus 200.
  • the user may input a user command for setting the reference point through the button 236 for setting the reference point separately provided in the remote control apparatus 200.
  • the button 236 may be implemented in the form of a physical button (eg, Tact Switch).
  • FIG. 8 is a view for explaining a method of setting a reference point according to another embodiment of the present invention.
  • a user may input a user command for setting a reference point through a predefined gesture of the remote control apparatus 100.
  • a user command for setting a reference point may be input through a gesture of drawing a circle with the remote control apparatus 100.
  • the remote control apparatus 100 recognizes the corresponding gesture of drawing a circle and transmits a corresponding signal to the display apparatus 100.
  • a user command for setting a reference point may be input through a zigzag gesture to the remote control apparatus 100.
  • the embodiment illustrated in FIGS. 8A and 8B is merely an example, and a gesture for setting a reference point may be implemented in various forms.
  • FIG. 9 is a flowchart illustrating a control method of a remote control apparatus according to an embodiment of the present invention.
  • the controller 180 controls to map the movement information of the remote control device detected at the time when the event occurs and the reference point position of the pointer provided on the user interface screen (S930).
  • the angle information of the remote control apparatus detected by the sensing unit at the time of occurrence of the event may be set as the reference angle, and the pointer may be controlled to be positioned at the reference point on the user interface screen.
  • the pointer may be a pointer provided in an absolute pointing method based on the absolute coordinate method.
  • the pointer may be controlled to be fixed to the reference point for a predetermined time.
  • the predetermined event may be a predefined gesture of the remote control device.
  • the predetermined event may be a double tap operation or a rubbing operation on the button unit provided in the remote control apparatus.
  • the button unit may be implemented in a form including at least one of a touch sensor and an optical joystick (OJ) sensor using optical technology.
  • the button unit may further include a physical button for receiving a user command for selecting an object on which the pointer is located in the pointing mode.
  • the movement of the remote control apparatus may be detected using at least one of an acceleration sensor, a gyro sensor, and a geomagnetic sensor.
  • FIG. 10 is a flowchart illustrating a control method of a display apparatus controlled by a remote control apparatus according to an exemplary embodiment.
  • the display apparatus communicates with a remote control apparatus (S1010).
  • a pointer for performing an indicator function is displayed on the user interface screen (S1020).
  • the control is performed such that the pointer is positioned at the reference point on the user interface screen (S1030).
  • the pointer may be controlled to be positioned at the center coordinate on the UI screen.
  • the reference point of the pointer may be set in the absolute pointing method of estimating absolute coordinates using the sensed value according to the movement of the remote control apparatus.
  • a reference point of absolute coordinates can be set without an additional button in the absolute pointing method. Accordingly, the user's convenience is improved.
  • a non-transitory computer readable medium may be provided in which a program for sequentially performing a control method according to the present invention is stored.
  • the non-transitory readable medium refers to a medium that stores data semi-permanently and is readable by a device, not a medium storing data for a short time such as a register, a cache, a memory, and the like.
  • a non-transitory readable medium such as a CD, a DVD, a hard disk, a Blu-ray disk, a USB, a memory card, a ROM, or the like.
  • each device may further include a processor such as a CPU, a microprocessor, and the like for performing the above-described various steps.

Abstract

원격 제어 장치가 개시된다. 원격 제어 장치는, 사용자 인터페이스 화면을 제공하는 디스플레이 장치와 통신을 수행하는 통신부, 원격 제어 장치의 움직임을 감지하는 감지부 및, 기설정된 이벤트가 발생하면, 감지부에서 감지된 원격 제어 장치의 움직임 정보와 사용자 인터페이스 화면 상에 제공되는 포인터의 기준점 위치가 매핑되도록 제어하는 제어부를 포함한다.

Description

원격 제어 장치, 디스플레이 장치 및 그 제어 방법
본 발명은 원격 제어 장치, 디스플레이 장치 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 디스플레이 장치를 제어하는 원격 제어 장치, 디스플레이 장치 및 그 제어 방법에 관한 것이다.
전자 기술의 발달함에 따라, 다양한 방식으로 전자 장치를 제어하기 위한 방안이 개발되고 있다. 종래에는 전자 장치에 구비된 버튼이나 전자 장치와 별도의 장치인 리모트 컨트롤러를 이용하여 전자 장치를 제어하였다.
그러나, 종래와 같이, 전자 장치와 별도의 장치인 리모트 컨트롤러를 이용하여 전자 장치를 제어하는 경우, 사용자는 자신이 원하는 조작을 위하여 리모트 컨트롤러에 구비된 버튼을 일일이 확인하여 누름 조작을 하여야 한다는 문제점이 있었다.
예를 들어, 전자 장치 화면 상에서 특정 컨텐츠를 선택하기 위하여 화면 상에 디스플레이된 포인터를 이용하는 경우, 사용자는 리모컨의 네 방향 버튼을 수 차례 번갈아 선택하여 포인터를 해당 컨텐츠 영역까지 이동시키고, 해당 컨텐츠 영역 상에서 리모트 컨트롤러에 구비된 선택 버튼을 누름 조작하여 특정 컨텐츠를 선택할 수 있었다. 즉, 사용자는 리모트 컨트롤러에 구비된 버튼을 수차례 확인하고 수차례 누름 조작하는 동작을 통해 해당 컨텐츠를 선택할 수 있다는 불편함이 있었다.
이에 따라 사용자가 원거리에서 더욱 편리하게 전자 장치의 화면 상에 디스플레이된 정보를 탐색하기 위한 방안이 요구된다.
본 발명은 상술한 필요성에 따른 것으로, 본 발명의 목적은, 감지된 움직임에 따라 디스플레이 장치를 제어하는 원격 제어 장치, 디스플레이 장치 및 그 제어 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 복수의 제어 모드를 제공하는 원격 제어 장치는, 사용자 인터페이스 화면을 제공하는 디스플레이 장치와 통신을 수행하는 통신부, 상기 원격 제어 장치의 움직임을 감지하는 감지부 및, 기설정된 이벤트가 발생하면, 상기 감지부에서 감지된 원격 제어 장치의 움직임 정보와 상기 사용자 인터페이스 화면 상에 제공되는 포인터의 기준점 위치가 매핑되도록 제어하는 제어부를 포함한다.
또한, 상기 제어부는, 상기 이벤트가 발생한 시점에서 상기 감지부에서 감지된 상기 원격 제어 장치의 각도 정보를 기준 각도로 설정하고, 상기 포인터가 상기 사용자 인터페이스 화면 상의 기준점에 위치하도록 제어할 수 있다.
또한, 상기 제어부는, 상기 포인터가 상기 사용자 인터페이스 화면 상의 기준점에 위치한 후, 기설정된 시간 동안 상기 기준점에 고정되어 위치하도록 제어할 수 있다.
여기서, 상기 이벤트는, 상기 원격 제어 장치의 기 정의된 제스처가 될 수 있다.
또한, 버튼부;를 더 포함하며, 상기 이벤트는, 상기 버튼부에 대한 더블 탭(double tap) 조작 또는 러빙(rubbing) 조작이 될 수 있다.
이 경우, 상기 버튼부는, 터치 센서 및 광학 기술을 응용한 OJ(optical Joystick) 센서 중 적어도 하나를 포함하는 형태로 구현될 수 있다.
또한, 상기 버튼부는, 상기 포인팅 모드에서 상기 포인터가 위치된 오브젝트를 선택하기 위한 사용자 명령을 입력받는 물리적 버튼을 더 포함할 수 있다.
또한, 상기 감지부는, 가속도 센서, 자이로 센서 및 지자기 센서 중 적어도 하나를 포함할 수 있다.
이 경우, 상기 포인터는, 상기 원격 제어 장치의 움직임에 기초하여 절대 좌표를 추정하는 절대 포인팅 방식에서 제공될 수 있다.
또한,본 발명의 일 실시 예에 따른 원격 제어 장치에 의해 제어되는 디스플레이 장치는, 상기 원격 제어 장치와 통신을 수행하는 통신부, 사용자 인터페이스 화면 상에 인디케이팅 기능을 수행하는 포인터를 디스플레이하는 디스플레이부 및, 상기 원격 제어 장치로부터 상기 포인터의 기준점을 설정하기 위한 사용자 명령이 수신되면, 상기 포인터가 상기 사용자 인터페이스 화면 상의 기준점에 위치하도록 제어하는 제어부를 포함한다.
한편, 본 발명의 일 실시 예에 따른 원격 제어 장치의 제어 방법은, 사용자 인터페이스 화면을 제공하는 디스플레이 장치와 통신을 수행하는 단계 및, 기설정된 이벤트가 발생하면, 감지된 원격 제어 장치의 움직임 정보와 상기 사용자 인터페이스 화면 상에 제공되는 포인터의 기준점 위치가 매핑되도록 제어하는 단계를 포함한다.
또한, 상기 제어하는 단계는, 상기 이벤트가 발생한 시점에서 상기 감지부에서 감지된 상기 원격 제어 장치의 각도 정보를 기준 각도로 설정하고, 상기 포인터가 상기 사용자 인터페이스 화면 상의 기준점에 위치하도록 제어할 수 있다.
또한, 상기 제어하는 단계는, 상기 포인터가 상기 사용자 인터페이스 화면 상의 기준점에 위치한 후, 기설정된 시간 동안 상기 기준점에 고정되어 위치하도록 제어할 수 있다.
이 경우, 상기 이벤트는, 상기 원격 제어 장치의 기 정의된 제스처가 될 수 있다.
또는, 상기 이벤트는, 상기 원격 제어 장치에 마련된 버튼부에 대한 더블 탭(double tap) 조작 또는 러빙(rubbing) 조작이 될 수 있다.
또한, 상기 버튼부는, 터치 센서 및 광학 기술을 응용한 OJ(optical Joystick) 센서 중 적어도 하나를 포함하는 형태로 구현될 수 있다.
또한, 상기 버튼부는, 상기 포인팅 모드에서 상기 포인터가 위치된 오브젝트를 선택하기 위한 사용자 명령을 입력받는 물리적 버튼을 더 포함할 수 있다.
또한, 상기 제어하는 단계는, 가속도 센서, 자이로 센서 및 지자기 센서 중 적어도 하나를 이용하여 상기 원격 제어 장치의 움직임을 감지할 수 있다.
이 경우, 상기 포인터는, 상기 원격 제어 장치의 움직임에 기초하여 절대 좌표를 추정하는 절대 포인팅 방식에서 제공될 수 있다.
또한, 본 발명의 일 실시 예에 따른 원격 제어 장치에 의해 제어되는 디스플레이 장치의 제어 방법은, 사용자 인터페이스 화면 상에 인디케이팅 기능을 수행하는 포인터를 디스플레이하는 단계 및, 상기 원격 제어 장치로부터 상기 포인터의 기준점을 설정하기 위한 사용자 명령이 수신되면, 상기 포인터가 상기 사용자 인터페이스 화면 상의 기준점에 위치하도록 제어하는 단계를 포함한다.
이상 설명한 바와 같이 본 발명에 따르면, 터치 방식과 유사한 인터페이스 경험을 제공하는 직관적인 원격 제어 방법을 제공할 수 있게 된다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 시스템의 구성을 나타내는 모식도이다.
도 2는 도 1에 도시된 디스플레이 시스템의 일 실시 예에 따른 동작을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도이다.
도 4는 본 발명의 일 실시 예에 따른 제어부(130)의 세부 구성을 설명하기 위한 도면이다.
도 5는 상술한 다양한 실시 예에 따른 제어부(130)의 동작을 지원하기 위한 저장부(140)의 소프트웨어 구조를 나타내는 도면이다.
도 6a 내지 6c는 본 발명의 일 실시 예에 따른 원격 제어 장치(200)의 구현 예를 도시한 도면이다.
도 7a 내지 7c는 본 발명의 일 실시 예에 따른 기준점 설정 방법을 설명하기 위한 도면이다.
도 8a 및 도 8b는 본 발명의 다른 실시 예에 따른 기준점 설정 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 원격 제어 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명의 일 실시 예에 따른 원격 제어 장치에 의해 제어되는 디스플레이 장치의 제어 방법을 설명하기 위한 흐름도이다.
-
이하에서 첨부된 도면을 이용하여 본 발명에 대하여 구체적으로 설명한다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 시스템의 구성을 나타내는 모식도이다.
도 1에 도시된 바와 같이 본 발명의 일 실시 예에 따른 디스플레이 시스템은 디스플레이 장치(100) 및 원격 제어 장치(200)를 포함한다.
디스플레이 장치(100)는 복수의 제어 모드를 제공하는 원격 제어 장치(200)에 의해 제어되는 기기로 디지털 TV로 구현가능하지만, PC 모니터 등과 같이 원격 제어가 가능한 기기라면 한정되지 않고 적용가능하다.
원격 제어 장치(200)는 디스플레이 장치(100)를 원격으로 제어하기 위한 장치로써, 사용자 명령을 입력받고 입력된 사용자 명령에 대응되는 제어 신호를 디스플레이 장치(100)로 전송할 수 있다. 여기서, 원격 제어 장치(200)는 공간 마우스, 리모콘, 휴대폰 등이 될 수 있다. 한편, 도 1에서는 원격 제어 장치(200) 및 디스플레이 장치(100)가 무선형으로 도시되어 있으나, 경우에 따라서는 유선형으로 구현될 수도 있다.
원격 제어 장치(200)는 XYZ 공간 상에서 원격 제어 장치(200)의 움직임을 감지하고, 감지된 3차원 움직임에 관한 신호를 디스플레이 장치(100)로 전송할 수 있다. 여기서, 3차원 움직임은 디스플레이 장치(100)를 제어하기 위한 명령에 대응될 수 있다. 즉, 사용자는 원격 제어 장치(200)를 공간상에서 움직임(예를 들어, 상하 방향으로 기울이거나 좌우 방향으로 회전시킴)으로써 디스플레이 장치(100)에 기설정된 명령을 전달할 수 있게 된다. 예를 들어, 원격 제어 장치(200) 내부에는 지자기 센서, 각속도 센서, 가속도 센서 중 적어도 하나가 내장되어, 사용자의 모션에 따라 변화되는 롤각(φ), 피치각(θ), 요우각(ψ) 중 적어도 하나의 정보를 산출하고, 산출된 정보를 디스플레이 장치(100)로 전송한다.
이 경우, 원격 제어 장치(200)는 감지된 정보에 대한 연산이 어디에서 수행되는지 여부에 따라 감지된 움직임 정보(및 지자기(지구 자기)에 대한 방향 정보)에 대응되는 신호(이하에서, 제어 신호라 함)를 전송하거나, 감지된 움직임 정보에 대응되는 신호를 디스플레이 장치(100)를 제어하기 위한 제어 명령으로 변환한 신호(이하에서, 제어 정보라 함)를 전송할 수도 있다.
한편, 원격 제어 장치(200)는 절대 좌표 방식에 기초하는 절대 포인팅 방식을 제공할 수 있다. 즉, 원격 제어 장치(200)의 이동 영역과 디스플레이 장치(100)의 화면이 일치하는 형태가 될 수 있다. 구체적으로, 기 설정된 절대 기준점을 중심으로 사용자가 움직이는 원격 제어 장치(200)의 이동 궤적을 산출할 수 있다. 예를 들어, 원격 제어 장치(200)가 공간 상에서 상하 방향으로 기울어지거나 좌우 방향으로 회전되면, 원격 제어 장치(200)의 움직임에 따라 변화되는 각도 즉, 절대 각도가 산출되고, 포인터(예를 들어, 마우스 커서)는 화면 상에서 원격 제어 장치(200)의 이동 각도에 따라 (x1, y1) 지점에서 (x2, y2) 지점으로 이동할 수 있다.
한편, 디스플레이 장치(100) 및 원격 제어 장치(200)는 BT(BlueTooth), Zigbee, WI-FI(Wireless Fidelity), IR(Infrared), Serial Interace, USB(Universal Serial Bus) 등의 다양한 통신 방식을 통해 통신을 수행할 수 있다. 예를 들어, 디스플레이 장치(100) 및 원격 제어 장치(200)가 BT(BlueTooth)를 통해 통신을 수행하는 경우 블루투스 페어링을 통해 서로 연동될 수 있다. 블루투스 페어링과 관련된 상세 기술은 당업자에게 자명한 사항이므로 자세한 설명은 생략하도록 한다.
도 2는 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 나타내는 블럭도이다.
도 2(a)에 따르면, 디스플레이 장치(100)는 통신부(110), 디스플레이부(120) 및 제어부(130)를 포함한다.
디스플레이 장치(100)는 디지털 TV, PC, 노트북 등으로 구현가능하지만, 이에 한정되는 것은 아니며, 디스플레이 기능을 구비하며 원격 제어가 가능한 디바이스라면 한정되지 않고 적용될 수 있다.
통신부(110)는 원격 제어 장치(200)와 통신을 수행할 수 있다. 구체적으로, 통신부(110)는 BT(BlueTooth), Zigbee, WI-FI(Wireless Fidelity), IR(Infrared), Serial Interace, USB(Universal Serial Bus) 등과 같은 다양한 통신 방식을 통해 원격 제어 장치(200)와 통신을 수행할 수 있다.
구체적으로, 통신부(110)는 원격 제어 장치(200)를 통해 입력된 사용자 명령에 대응되는 제어 신호를 수신할 수 있다. 여기서, 사용자 명령은 제스처 입력이 될 수 있으나, 버튼 입력, 음성 입력 등과 같은 방식이 추가적으로 적용될 수 있다.
예를 들어, 원격 제어 장치(200)를 통해 감지된 제스처 명령에 대응되는 제어 신호를 수신할 수 있다. 다만, 상술한 바와 같이 경우에 따라서는 원격 제어 장치(200)에서 연산 처리 능력에 따라 제어 신호가 아닌 제어 정보를 수신하는 것도 가능하다.
또한, 통신부(110)는 원격 제어 장치(200)로부터 제어 모드 전환 신호, 선택 신호 등을 수신할 수도 있다. 이 경우, 제어 모드 전환 신호, 선택 신호 등은 원격 제어 장치(200)에 구비된 버튼부를 통해 입력될 수 있다.
구체적으로, 통신부(110)는 원격 제어 장치(200)로부터 동작 모드에 관한 정보 및 원격 제어 장치(100)의 움직임 정보를 포함하는 원격 제어 신호를 수신할 수 있다. 여기서, 동작 모드에 관한 정보는 포인팅 모드 또는 제스처 모드 중 하나를 선택하기 위한 사용자 명령에 관한 정보로서 다양한 형태로 구현될 수 있다. 예를 들어, 모드 정보는 플래그 형태로 구현될 수 있는데, 포인팅 모드인 경우 플래그는 ‘0’ 값을 나타내고, 제스처 모드인 경우 플래그는 ‘1’ 값을 나타낼 수 있다. 즉, 원격 제어 장치(200)는 모드 변경을 위한 사용자 명령에 따라 ‘0’ 또는 ‘1’ 값을 나타내는 플래그 정보를 생성할 수 있게 된다. 이 경우, 모드 선택을 위한 사용자 명령은 원격 제어 장치(200)에 구비된 제1 버튼부(미도시)를 통해 입력될 수 있다.
또한, 통신부(110)는 경우에 따라서는 원격 제어 장치(200)로 정보를 전송할 수도 있다. 예를 들어, 디스플레이 장치(100)가 파워 오프되는 경우, 원격 제어 장치(200)로 파워 오프 신호를 전송하여 원격 제어 장치(200)가 자동으로 파워오프되도록 할 수 있다.
디스플레이부(120)는 디스플레이 장치(100)을 통해 제공 가능한 다양한 디스플레이 화면을 제공할 수 있다.
특히, 디스플레이부(120)는 사용자 인터페이스가 가능한 다양한 UI 화면을 디스플레이할 수 있다.
또한, 디스플레이부(120)는 제어부(130)의 제어에 따라 원격 제어 장치(200)의 제어 모드에 대응되는 GUI를 디스플레이할 수 있다.
구체적으로, 디스플레이부(120)는 원격 제어 장치(200)가 포인팅 모드에 있는 경우, 디스플레이된 UI 화면에 커서, 마우스 커서, 하이라이트 표시와 같은 포인터를 디스플레이할 수 있다. 또한, 디스플레이부(120)는 포인팅 모드에서 원격 제어 장치(200)로부터 수신된 제어 신호에 따라 포인터의 위치를 이동시켜 디스플레이할 수 있다. 여기서, 디스플레이부(120)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등과 같은 다양한 디스플레이로 구현될 수 있다.
제어부(130)는 디스플레이 장치(100)의 전반적인 동작을 제어하는 기능을 한다.
제어부(130)는 원격 제어 장치(200)로부터 수신된 동작 모드에 관한 정보에 기초하여, 동작 모드 선택을 제어할 수 있다.
구체적으로, 제어부(130)는 포인팅 모드 및 제스처 모드 중 하나를 선택하기 위한 사용자 명령에 관한 정보에 기초하여 포인팅 모드 및 제스처 모드 중 하나의 선택을 제어할 수 있다.
구체적으로, 제어부(130)는 포인팅 모드 및 상기 제스처 모드 중 하나를 선택하기 위한 사용자 명령에 관한 정보를 수신되지 않는 동안, 디스플레이 장치(100)의 동작 모드를 포인팅 모드로 결정하고, 포인팅 모드 및 제스처 모드 중 하나를 선택하기 위한 상기 사용자 명령에 관한 정보가 수신되는 동안, 디스플레이 장치(100)의 동작 모드를 제스처 모드로 결정할 수 있다.
또한, 제어부(130)는 원격 제어 장치(200)로부터 수신된 움직임 정보를 디스플레이 장치(100)를 제어하기 위한 제어 신호로 변환하고, 변환된 제어 신호에 따라 디스플레이 장치(100)의 동작을 제어할 수 있다.
제어부(130)는 원격 제어 장치(200)로부터 수신된 제어 신호를 디스플레이 장치(100)를 제어하기 위한 제어 정보로 변환하고, 변환된 제어 정보에 따라 디스플레이 장치(100)를 제어할 수 있다. 구체적으로, 제어부(130)는 수신된 제어 신호를 제어 정보 매핑 테이블을 이용하여 디스플레이 장치(100)의 기능에 적용되는 제어 정보 형태로 변환하고 변환된 제어 정보를 이용하여 디스플레이 장치(100)의 기능을 제어할 수 있다.
특히, 제어부(130)는 원격 제어 장치로부터 포인터의 기준점을 설정하기 위한 사용자 명령이 수신되면, 포인터가 UI 화면 상의 기준점에 위치하도록 제어할 수 있다. 여기서, 기준점은 화면 중심 좌표가 될 수 있다.
또한, 제어부(130)는 화면 중심 좌표에 포인터가 위치한 상태에서 원격 제어 장치(200)의 움직임에 대응되는 신호가 수신되면, 해당 신호에 따라 포인터의 위치를 이동시킨다.
예를 들어, 화면 중심 좌표를 (0, 0)으로 두면, 원격 제어 장치(200)의 움직임에 따른 피치각 범위는 ±θlimit, 요우각 범위는 ±ψlimit가 된다. 이에 따라, 원격 제어 장치(200)의 피치각 및 요우각 변동에 따라 ±θlimit, ±ψlimit범위 내에서 포인터의 위치가 조정된다. 즉, 원격 제어 장치(200)의 모션에 따라서 화면 중심 좌표로부터 포인터의 위치가 이동된다.
한편, 본 발명의 다른 실시 예에 따르면 통신부(110)는 원격 제어 장치(200)를 통해 입력된 모드 정보 및 원격 제어 장치(200)의 움직임 정보에 기초하여 생성된 제어 신호를 수신할 수 있다. 즉, 상술한 실시 예와 달리 통신부(110)는 별다른 연산 없이 디스플레이 장치(100)를 제어할 수 있는 형태를 갖는 제어 신호를 원격 제어 장치(200)로부터 수신할 수도 있다.
도 2(b)는 도 2(a)에 도시된 디스플레이 장치의 세부 구성을 나타내는 블럭도이다.
도 2(b)에 도시된 바에 따르면, 디스플레이 장치(100')는 통신부(110), 디스플레이부(120), 제어부(130), 저장부(140), 영상 수신부(150), 영상 처리부(160), 사용자 인터페이스부(170) 및 UI 처리부(180)를 포함한다. 도 2(b)에서는 도 2(a)에 도시된 디스플레이 장치(100)가 디지털 TV로 구현되는 경우를 상정하여 설명하도록 한다. 또한, 도 2(b)에 도시된 구성 중 도 2(a)에 도시된 구성 요소와 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.
저장부(140)는 디스플레이 장치(100')을 동작시키기 위해 필요한 각종 데이터 및 프로그램 등이 저장되는 저장매체로서, 메모리, HDD(Hard Disk Drive) 등으로 구현가능하다.
예를 들어, 저장부(140)는 원격 제어 장치(200)의 기설정된 제스처에 대응되는 제어 명령을 매칭하여 저장할 수 있다. 예를 들어, 원격 제어 장치(200)의 원을 그리는 제스처에 대해 기준점 설정 명령을 매칭하여 저장할 수 있다.
영상 수신부(150)는 안테나, 케이블 등을 통해 방송 컨텐츠를 수신하거나, 외부기기나, 외부 통신망으로부터 영상 컨텐츠를 수신하는 기능을 한다.
구체적으로, 영상 수신부(150)는 네트워크(Network) 또는 공중파(Air)를 통해 다양한 영상 컨텐츠를 수신할 수 있다. 여기서, 컨텐츠는 VOD 컨텐츠와 같은 기제작된 컨텐츠, 방송 컨텐츠 등 다양한 종류의 컨텐츠가 될 수 있다.
이 경우, 영상 수신부(150)는 다양한 형태로 구현 가능하다. 예를 들어, 디스플레이 장치(100)가 디지털 TV로 구현되는 경우 영상 수신부(110)는 셋탑 박스(Set-top box), 튜너, 외부 입력 포트, 네트워크 통신 모듈 등으로 구현될 수 있다.
영상 처리부(160)는 영상 수신부(150)를 통해 수신된 다양한 신호를 신호 처리하는 기능을 한다. 이에 따라 영상 처리부(160)는 디모듈레이터, 디코더, A/D 컨버터, 스케일러 등의 신호 처리 요소를 포함할 수 있다.
사용자 인터페이스부(170)는 다양한 사용자 신호를 입력받는 기능을 한다.
여기서, 사용자 인터페이스부(170)는 디스플레이 장치(100)의 기기 종류에 따라 다양한 형태로 구현 가능하다. 예를 들어, 디스플레이 장치(100)가 디지털 TV로 구현되는 경우 사용자 인터페이스부(170)는 리모콘 신호를 수신하는 상술한 통신부(110)로 구현될 수도 있다.
또는, 사용자 인터페이스부(170)는 복수 개의 키를 포함하는 입력 패널 또는, 디스플레이와 터치 패드가 상호 레이어 구조를 이루는 터치 스크린 형태로 구현되는 것도 가능하다.
UI 처리부(180)는 제어부(130)의 제어에 따라 디스플레이부(120)에 출력되는 영상에 오버랩되어 표시되는 다양한 UI 요소를 생성하는 기능을 한다. 여기서, UI 처리부(미도시)는 2D 또는 3D 형태의 UI 요소를 생성할 수 있다.
또한, UI 처리부(180)는 제어부(130)의 제어에 따라 UI 요소의 2D/3D 전환, 투명도, 색상, 크기, 형태 및 위치 조정, 하이라이트, 애니메이션 효과 등의 작업을 수행할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 원격 제어 장치의 구성을 나타내는 블럭도이다.
도 3에 도시된 바에 따르면, 원격 제어 장치(200)는 통신부(210), 감지부(220), 입력부(230) 및 제어부(240)를 포함한다.
통신부(210)는 디스플레이 장치(100)와 통신을 수행하여, 감지부(220)를 통해 감지된 감지 신호, 입력부(230)를 통해 입력된 사용자 명령에 대응되는 신호 등을 디스플레이 장치(100)로 전송할 수 있다. 구체적으로, 통신부(210)는 BT(BlueTooth), Zigbee, WI-FI(Wireless Fidelity), IR(Infrared), Serial Interface, USB(Universal Serial Bus), NFC(Near Field Communication) 등과 같은 다양한 통신 방식을 통해 디스플레이 장치(100)와 통신을 수행할 수 있다.
감지부(220)는 원격 제어 장치(200)의 3차원 움직임을 감지한다. 구체적으로, 감지부(220)는 가속도 센서, 자이로 센서, 지자기 센서 중 적어도 하나 이상을 포함할 수 있다. 감지부(220)에 포함된 각종 센서는, 하나 또는 둘 이상의 조합을 통하여 원격 제어 장치(200)의 3차원 움직임을 감지할 수 있다.
가속도 센서는 원격 제어 장치(200)의 공간상 움직임을 측정하는 센서이다. 즉, 가속도 센서는 사용자가 원격 제어 장치(200)를 이동시킬 때 발생하는 가속도의 변화 및 각가속도의 변화 중 적어도 하나를 감지할 수 있다. 여기서, 가속도 센서는 서로 직교하는 3개의 축에 대하여 직선 속도의 증감분을 측정하는 3축 가속도 센서로 구현될 수 있다. 이에 따라 가속도 센서를 이용하여 원격 제어 장치(200)의 움직임 가속도 관련 정보와 움직이지 않는 상태에서 중력 가속도 성분을 이용하여 기울어짐과 관련된 정보를 획득할 수 있다.
자이로(gyro) 센서는 원격 제어 장치(200)의 회전 각속도를 측정하는 관성 센서이다. 즉, 회전하는 물체가 가진 관성력을 이용하여 회전하는 방향과 속도를 알 수 있는 센서를 의미한다. 자이로 센서는 서로 직교하는 3개의 축에 대하여 회전각의 증감분을 측정하는 3축 각속도 센서로 구현될 수 있다.
지자기 센서는 방위각(azimuth)을 측정하는 센서이다. 즉, 지자기 센서(106)는 지구의 남북 방향으로 형성되어 있는 자기장(magnetic field)을 감지하여 방위각을 측정하는 센서를 의미한다. 여기서, 지자기 센서는 서로 직교하는 3개의 축에 대하여 자기의 세기와 방향을 측정하는 3축 지자기 센서로 구현될 수 있다. 지자기 센서로 측정되는 북쪽 방향은 자북(magnetic north)일 수 있다. 다만, 지자기 센서가 자북의 방향을 측정한다고 하더라도, 내부적인 연산을 거쳐 진북(true north)의 방향을 출력할 수도 있음은 물론이다.
그 밖에 감지부(220)는 선택적으로 거리 센서를 더 포함할 수 있다. 여기서, 거리 센서는 원격 제어 장치(200)와 디스플레이 장치(100) 사이의 거리를 측정하는 센서이다. 즉, 사용자가 원격 제어 장치(200)를 사용하는 순간의 위치와 디스플레이 장치(100) 사이의 거리를 감지할 수 있다.
입력부(230)는 사용자 명령을 입력받는 기능을 한다.
구체적으로, 입력부(230)는 터치 센서 및 광학 기술을 응용한 OJ(optical Joystick) 센서 중 적어도 하나를 포함하도록 구현될 수 있다. 예를 들어, 손가락으로 OJ를 스치는 상/하/좌/우 움직임을 기반으로 4방향을 인식하여 OJ를 버튼처럼 이용할 수 있다. 또한, 입력부(230)는 포인팅 모드에서 포인터가 위치된 오브젝트를 선택하기 위한 사용자 명령을 입력받는 물리적 버튼(예를 들어, Tact Switch)을 더 포함하도록 구현될 수 있다. 예를 들어, Tact Switch에 대한 누름 동작을 통해 오브젝트를 선택하기 위한 사용자 명령을 입력받을 수 있다. 즉, 포인터가 마우스 커서로 구현되는 경우 Tact Switch에 대한 누름 동작을 통해 마우스 클릭 입력이 수행될 수 있다.
제어부(240)는 원격 제어 장치(200)의 전반적인 동작을 제어하는 기능을 한다. 예를 들어, 제어부(240)는 CPU(Central processing unit) 또는 MCU(Microcontroller unit) 등으로 구현 가능하다.
특히, 제어부(240)는 원격 제어 장치(200)의 움직임에 따라 검출되는 움직임 정보를 디스플레이 장치(100)로 전송할 수 있다.
예를 들어, 센서부(220)에서 감지된 센서값을 분석하여 포인터 위치 제어를 위한 절대 좌표 값을 산출하고, 산출된 절대 좌표 값을 디스플레이 장치(100)로 전송하여 포인터의 이동 상태를 제어하도록 할 수 있다. 또는, 센서부(220)에서 감지된 센서값 자체를 디스플레이 장치(100)로 전송할 수 있으며, 이 경우 디스플레이 장치(100)에서 수신된 센서값을 기초로 절대 좌표 값을 산출하고, 산출된 절대 좌표 값을 이용하여 포인터의 이동 상태를 제어할 수도 있다. 구체적으로는, 사용자는 원격 장치(200)를 잡고 상하 방향으로 기울이거나, 좌우 방향으로 회전시키는 모션을 취할 수 있다. 원격 제어 장치(200) 내부에는 지자기 센서 및 가속도 센서가 내장되어, 사용자의 모션에 따라 변화되는 피치각(θ), 요우각(ψ)과 같은 정보를 산출하고, 산출된 정보를 디스플레이 장치(100)로 전송한다. 추가적으로, 롤각(φ)이 더 검출될 수도 있다.
또한, 제어부(240)는 기설정된 이벤트가 발생하면, 이벤트가 발생한 시점에서 감지부(220)에서 감지된 원격 제어 장치의 움직임 정보와 사용자 인터페이스 화면 상에 제공되는 포인터의 기준점 위치가 매핑되도록 제어할 수 있다.
특히, 제어부(240)는 이벤트가 발생한 시점에서 감지부(220)된 원격 제어 장치(200)의 각도 정보를 기준 각도로 설정하고, 포인터가 사용자 인터페이스 화면 상의 기준점에 위치하도록 제어할 수 있다. 여기서, 기설정된 이벤트는 입력부(230)를 더블 탭(double tap)하는 조작 또는 입력부(230)를 손가락으로 문지르는 러빙(rubbing) 조작이 될 수 있으나, 이에 한정되는 것은 아니다. 또한, 여기서, 기준점은 화면 중심 좌표가 될 수 있으나, 이에 한정되는 것은 아니다.
또한, 제어부(240)는 포인터가 사용자 인터페이스 화면 상의 기준점에 위치한 후, 기설정된 시간 동안 기준점에 고정되어 위치하도록 제어할 수 있다.
도 4은 도 3에 도시된 원격 제어 장치의 일 구현 예에 따른 세부 구성을 나타내는 블럭도이다. 다만, 도 4는 일 구현 예를 나타낸 것으로 구현 예에 따라 도시된 구성이 생략되거나, 새로운 구성이 추가될 수 있다.
통신부(210)는 블루투스 칩, 와이파이 칩, IR 통신 칩 등과 같은 다양한 통신 방식에 따른 하드웨어를 포함한다. 이들 칩은 구현상 원 칩으로 집적화되어 사용될 수도 있고, 도 4에서와 같이 별개의 칩으로 사용될 수도 있다.
블루투스 칩, 와이파이 칩, IR 통신 칩은 각각 블루투스 방식, WiFi 방식, IR 방식으로 통신을 수행한다. 이 중 블루투스 칩이나 와이파이 칩을 이용하는 경우에는 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결을 수행한 후 각종 정보들을 송수신할 수 있다.
통신부(210)는 이러한 다양한 구성의 칩들을 이용하여 디스플레이 장치(100)를 비롯한 각종 외부 장치와 통신을 수행할 수 있다. 특히, 디스플레이 장치(100)에 상술한 다양한 제어 신호 또는 제어 정보를 전송할 수 있다.
감지부(220)는 원격 제어 장치(200)의 움직임을 센싱하기 위한 구성요소이다. 감지부(220)는 가속도 센서(221), 각속도 센서(222), 지자기 센서(223), 및 터치 센서(224) 등과 같은 다양한 센서를 포함할 수 있다.
가속도 센서(221)는 움직임 발생시 가속도 및 가속도의 방향을 측정할 수 있는 센서이다. 구체적으로는, 가속도 센서(221)는 그 센서가 부착된 원격 제어 장치(200)의 음직임 가속도에 대응되는 센싱 값과 기울기에 따라 변화되는 중력 가속도에 대응되는 센싱 값을 출력한다. 제어부(240)는 가속도 센서(221)의 출력값을 이용하여 원격 제어 장치(200)의 움직임 가속도와 움직이지 않는 상태에서 중력 가속도 성분을 이용하여 기울어진 정도를 판단할 수 있다.
각속도 센서(222)는 회전 운동이 일어나면, 그 속도 방향으로 작용하는 코리올리의 힘을 측정하여, 각속도를 검출하는 센서이다. 제어부(240)는 각속도 센서(222)의 측정 값을 이용하여서도 원격 제어 장치(200)의 회전을 검출할 수 있다.
지자기 센서(223)는 2축 또는 3축 플럭스게이트를 이용하여 지구의 자기나 주변 자성 성분 물체의 자기를 감지하는 센서이다. 제어부(240)는 지자기 센서(223)에서 감지된 지자기 값을 이용하여, 자기의 방향과 세기를 측정할 수 있으며, 이를 바탕으로 방위각을 산출할 수 있다. 이에 따라, 원격 제어 장치(200)가 어느 방향으로 회전하였는지 여부를 판단할 수 있다.
터치 센서(224)는 사용자의 터치 조작을 감지할 수 있다. 터치 센서(224)는 정전식 또는 감압식으로 구현될 수 있다. 정전식 터치 센서는 원격 제어 장치(200)의 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 원격 제어 장치(200)의 표면에 터치되었을 때 사용자의 인체로 여기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식의 센서를 의미한다. 감압식 터치 센서는 원격 제어 장치(200)에 내장된 두 개의 전극 판을 포함하여, 사용자가 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식의 터치 센서를 의미한다. 그 밖에 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력측정 방식, 피에조 효과 방식 등이 터치 조작을 감지하는데 이용될 수 있으며, 이에 대한 자세한 설명은 생략하도록 한다.
OJ 센서(225)는 OJ를 통한 사용자 조작을 감지하는 이미지 센서가 될 수 있다. OJ 센서(225)는 광마우스를 뒤집어 놓은 것 같이 동작하게 된다. 즉, 사용자가 OJ를 손가락으로 스치듯이 터치하면 OJ 센서(225)가 광학 신호를 분석할 수 있다.
제어부(240)는 감지부(220)로부터 제공되는 각종 센싱 신호에 따라 다양한 연산 동작을 수행할 수 있다. 예를 들어, 가속도 센서(221), 각속도 센서(222), 지자기 센서(223) 등에 의해 원격 제어 장치(200)의 움직임이 감지되면, 해당 감지 신호를 신호 처리 알고리즘에 따라 연산하고, 연산된 값을 디스플레이 장치(100)로 전송하도록 제어할 수 있다.
입력부(230)는 선택 버튼부(231), 4 방향 입력부(232), 터치 입력부(233) 및 전원 버튼부(234)를 포함한다. 다만 이는 일 실시 예에 따른 것이며, 구현 예에 따라 일부 구성이 삭제되거나, 새로운 구성이 추가될 수 있다.
선택 버튼부(231)는 선택 명령을 입력받을 수 있다.
특히, 선택 버튼부(231)는 디스플레이 장치(100)의 화면 상에 디스플레이된 포인터가 위치된 오브젝트를 선택하기 위한 사용자 명령을 입력받을 수 있다. 즉, 디스플레이 장치(100)의 화면 상에 디스플레이된 포인터가 특정 컨텐츠 상에 위치된 상태에서 선택 버튼부(231)가 누름 조작되면, 해당 오브젝트가 선택되어 대응되는 기능이 실행될 수 있다. 예를 들어, 해당 컨텐츠가 특정 어플리케이션의 아이콘 인터페이스인 경우 해당 어플리케이션 실행 화면이 디스플레이될 수 있다.
또한, 선택 버튼부(231)는 제공된 UI 화면의 특성에 따라 엔터 키, 확인 키 등의 기능을 수행할 수 있다.
4 방향 입력부(232)는 선택 버튼부(231)의 외곽에 배치되며, 4 방향 조작을 위한 사용자 명령을 입력받는 기능을 한다.
한편, 선택 버튼부(231) 및 4 방향 입력부(232)는 터치 센서 및 광학 기술을 응용한 OJ(optical Joystick) 센서 중 적어도 하나를 포함하는 형태로 구현될 수 있다.
터치 입력부(233)는 상이한 기능이 매핑된 복수의 터치 영역을 포함하는 형태로 구현될 수 있다. 구체적으로, 터치 입력부(233)는 채널 전환 기능, 볼륨 조정 기능, 메뉴 기능 등과 같은 상이한 기능이 매핑된 복수의 터치 영역을 포함할 수 있다.
전원 버튼부(235)는 전원 ON/OFF를 위한 사용자 명령을 입력받는 기능을 한다.
그 밖에 원격 제어 장치(200)가 포인팅 모드 및 제스처 모드의 두 가지 제어 모드를 제공하는 경우에는 포인팅 모드에서 제스처 모드로 전환하기 위한 사용자 명령을 입력받는 모드 전환 버튼부(미도시)를 더 구비할 수 있다. 여기서, 제스처 모드란 원격 제어 장치(200)의 기정의된 제스처에 따라 디스플레이 장치(100)를 제어하기 위한 모드로써, 예를 들어, 좌에서 우로 플릭하는 제스처에 대응되는 제어 신호에 대해서는 UI 화면 전환이, 상하 이동 제스처에 대응되는 제어 신호에 대해서는 컨텐츠 줌 인/아웃이 수행될 수 있다.
즉, 모드 전환 버튼부(미도시)의 누름 상태에 지속되는 동안 원격 제어 장치(200)는 제스처 모드로 동작하고, 모드 전환 버튼부(미도시)의 누름 상태가 해제되면 원격 제어 장치(200)는 포인팅 모드로 동작할 수 있다. 여기서, 모드 전환 버튼부(미도시)는 하드웨어 버튼 형태로 구현될 수 있다.
한편, 상술한 제어부(240)의 동작은 저장부(미도시)에 저장된 프로그램에 의해 이루어질 수 있다.
즉, 저장부(미도시)에는 원격 제어 장치(200)를 구동시키기 위한 O/S(Operating System) 소프트웨어, 감지부(220)에서 감지된 감지 신호에 대한 연산을 수행하기 위한 신호 처리 알고리즘 등과 같이 다양한 데이터가 저장될 수 있다. 제어부(240)는 저장부(미도시)에 저장된 각종 프로그램을 이용하여 원격 제어 장치(200)의 동작을 전반적으로 제어한다.
구체적으로는, 제어부(240)는 RAM(241), ROM(242), 메인 CPU(243), 제1 내지 n 인터페이스(244-1 ~ 244-n), 버스(245)를 포함한다.
RAM(241), ROM(242), 메인 CPU(243), 제1 내지 n 인터페이스(244-1 ~ 244-n) 등은 버스(245)를 통해 서로 연결되어, 각종 데이터나 신호 등을 송수신할 수 있다.
제1 내지 n 인터페이스(244-1 ~ 244-n)는 도 4에 도시된 각종 구성 요소들 뿐만 아니라, 그 밖의 구성 요소들과도 연결되어 메인 CPU(243)가 액세스할 수 있도록 한다.
메인 CPU(243)는 저장부(미도시)에 액세스하여, 저장부(미도시)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 저장부(미도시)에 저장된 각종 프로그램, 데이터 등을 이용하여 다양한 동작을 수행한다.
구체적으로는, ROM(242)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(243)는 ROM(242)에 저장된 명령어에 따라 저장부(미도시)에 저장된 O/S를 RAM(241)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(243)는 저장부(미도시)에 저장된 각종 프로그램을 RAM(241)에 복사하고, RAM(241)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다.
상술한 바와 같이 제어부(240)는 저장부(미도시)에 저장된 프로그램을 RAM(241)에 복사하고 실행시켜, 다양한 동작을 수행할 수 있다.
도 5는 본 발명의 일 실시 예에 따른 데이터 처리 방법을 설명하기 위한 블럭도이다.
도 5에 도시된 바와 같이 본 발명의 일 실시 예에 따른 데이터 처리 방법은 데이터 입력부(610), 데이터 처리부(620) 및 결과 처리부(630)의 동작에 의해 수행될 수 있다.
데이터 입력부(610)는 센서부(611), OJ부(612) 및 버튼부(613)을 포함한다. 이는 실질적으로 원격 제어 자치(100)에서 구현될 수 있다.
센서부(611)는 서로 직교하는 세 개의 축에 대하여 직선 움직임의 가속도를 측정하는 3축 가속도 센서, 서로 직교하는 세 개의 축에 대하여 회전각의 속도를 측정하는 3축 각속도 센서, 서로 직교하는 세 개의 축에 대하여 자기의 세기와 방향을 측정하는 3축 지자기 센서로 구성된다. 일반적으로 3축 지자기 센서는 지구의 방위각(Azimuth)을 추정하는데 이용하는데, 직접적으로는 지구의 자기장을 측정한 후에 방위각을 계산한다. 가속도 센서, 각속도 센서, 지자기 센서는 하나의 부품이 세 축을 모두 측정하도록 되어 있을 수도 있고, 하나의 부품이 하나 혹은 두 개의 축만 측정하도록 되어 있을 수도 있다. 또한 하나의 부품에 가속도 센서, 각속도 센서, 지자기 센서가 서로 다른 종류로 두개 이상 들어갈 수도 있다. 원격 제어 장치(200)에 내장된 가속도 센서, 각속도 센서, 지자기 센서에 의하여 측정된 센서 신호는 데이터 처리부로 전달된다.
버튼부(612)는 하나 이상의 버튼(혹은 스위치)으로 구성되어, 사용자의 입력을 받는다. 버튼은 물리적 버튼일 수도 있고, 터치와 같이 물리적은 아니지만 사용자의 입력을 받는 부품으로 구성될 수도 있다. 버튼부의 특정 버튼으로 인하여 사용자는 초기 기준 위치나 기준 각도를 설정할 수 있다.
OJ부(613)는 Optical Joystick으로 구성되며, 광마우스를 뒤집어 놓은 것 같이 동작을 하게 된다. 즉, 사용자가 OJ를 손가락으로 스치듯이 터치하면 OJ 안의 이미지 센서가 광학 신호를 분석해서 움직임 데이터가 출력된다.
다만, 상술한 실시 예에서는 버튼부(612) 및 OJ부(613)가 별도로 구비되는 것으로 설명하였지만, OJ부(613)는 버튼부(612)의 일 구현 형태가 될 수도 있다.
데이터 처리부(620)는 전처리 수행 블럭 1(621), 자세 추정 블럭 2(622), 움직임 구별 블럭 3(623), 캘리브레이션 수행 블럭 4(624), OJ 인식 블럭 5(625), 사용자 의도 분석 블럭 6(626), 게인 함수 적용 블럭 7(627) 및 이벤트 생성 블럭 8(628)을 포함한다. 데이터 처리부(620)의 동작은 원격 제어 장치(200)에서 수행되거나, 디스플레이 장치(100)에서 수행될 수 있다. 또한, 경우에 따라서는 일부는 원격 제어 장치(200)에서 수행되고, 나머지는 디스플레이 장치(100)에서 수행되는 것도 가능하다. 또한, 상술한 CPU 또는 MCU에서 수행될 수 있다.
블럭 1(621)는 센서부(611)에서 수신된 센서값에 대한 전처리를 수행하는 기능을 하며, 구체적으로 센서값에 대한 물리량 변환, 센서축 변환 기능 및 저역 통과 필터링 기능을 수행한다. 예를 들어, 아래와 같은 동작이 수행될 수 있다.
물리량 변환: 아날로그 신호인 센서 값은 센서 자체 혹은 MCU에 내장된 아날로그 디지털 변환기(ADC, Analog-Digital Converter)를 거쳐서 디지털 값으로 변환된다. 이렇게 디지털 값으로 변환된 센서 값은 알고리즘 처리 시에 사용이 가능하도록 실제 물리량으로 변환하는 과정을 거치게 된다. 이렇게 실제 물리량으로 변환을 거치는 과정은 필수 과정은 아니지만, 알고리즘 처리 시에 편리하게 센서값을 이용할 수 있다. 일반적으로 가속도 센서의 물리량의 단위는 m/sec2 혹은 g(gravity) 이고, 각속도 센서의 물리량의 단위는 rad/sec 혹은 deg/sec이며, 지자기 센서의 물리량 단위는 T(Tesla) 혹은 G(Gauss) 이다. 이러한 물리량의 단위는 알고리즘에 따라서 변경이 가능하다. 디지털 값으로 변환된 센서 값은 신호 처리 알고리즘에 적용가능한 실제 물리량으로 변환된다
센서축 변환: 가속도, 각속도, 지자기 센서의 개별 축을 하나의 정의된 축으로 변환하는 작업을 수행할 수 있다. 예를 들어, 도 1에 도시된 도면에서 원격 제어 장치(200)에 표시된 축(Xb - Yb - Zb)을 기준 축으로 설정할 수 있다.
저역 통과 필터: 저역 통과 필터링을 통해 센서의 전기적 잡음과 의도하지 않은 고주파 움직임을 제거할 수 있다. 이 경우 센서 부품 내부의 것을 이용하거나, MCU 내의 디지털 필터를 구현하여 사용할 수 있다.
블럭 2(622)는 각 센서 값으로부터 자세(Pose) 또는 자세각(Eular Angle(Roll, Pitch, Yaw(heading))을 추정한다. 이 경우, Kalman Filter에 의한 추정 방법이 적용될 수 있다.
블럭 3(623)는 센서 신호를 이용하여 움직임 상태를 구별하는 블럭으로, 원격 제어 장치(200)가 움직이지 않고 있는지, 천천히 움직이는지, 빨리 움직이는지 등을 판단할 수 있다.
블럭 4(624)는 캘리브레이션 작업을 진행하며, 블럭 3(623)에서 원격 제어 장치(200)가 움직이지 않는다고 판단되면 즉, Zero-Rate라고 판단되면, 이 때 일정 시간 동안 각속도 센서의 출력값의 평균을 구한 후에 이 값을 각속도 센서의 출력값에서 빼주어 각속도 센서의 오프셋(Offset) 값을 온라인으로 보상할 수 있다.
블럭 5(625)는 OJ부(612)로 부터 출력된 데이터를 이용하여 미리 정의된 동작인지를 판단한다. 미리 정의된 동작이 기준점 설정을 위한 동작이면 그때의 피치각(θ), 요우각(ψ)을 각각 기준 각도 θr 와 ψr 로 설정한다. 기준점 설정을 위한 동작은 상술한 바와 같이 더블 탭(Double Tap), OJ를 상/하 또는 좌/우로 왕복해서 문지르는 동작 등이 될 수 있다.
블럭 6(626)은 사용자가 원격 제어 장치(200)를 움직이려한 것인지, 멈추려고 한 것인지, 미리 정의된 제스처인지, 클릭하기 위한 것인지 등을 분석하여 구분하는 역할을 수행한다. 여기서, 미지 정의된 동작은 상술한 일반적으로 포인터를 움직이는 동작과 구분될 수 있다.
블럭 7(627)은 블럭 2(622)으로부터 출력된 피치각(θ), 요우각(ψ)을 각각 아래 수식을 이용하여 디스플레이 장치(100)의 X, Y 좌표로 변환한다. 이렇게 변환된 좌표를 이용하여 포인터, 즉, 마우스 커서의 위치를 지정할 수 있게 된다.
수학식 1
Figure PCTKR2013010197-appb-M000001
여기서 Gx 와 Gy 는 각각 각도를 위치로 변환하는 이득값(Gain)이며, r 와 r 는 각각 기준점 설정시의 피치각(θ), 요우각(ψ)이며, Wd 와 Hd 는 각각 디스플레이 장치 좌표의 폭(Width)과 높이(Height) 이다. 또한 좌표 (X,Y) 는 0≤X≤Wd, 0≤Y≤Hd 의 조건을 만족해야 된다. 이렇게 변환된 좌표를 이용하여 포인터의 위치를 지정하게 된다. 이 후, 블럭 7(727)로부터 출력된 X, Y 좌표를 디스플레이 장치(100)의 UI 화면에서 포인터의 X, Y 좌표에 매핑하여 포인터의 좌표를 지정할 수 있다.
블럭 8은 블럭 5, 블럭 6, 버튼부(613)으로부터 나온 결과로 이벤트를 생성하는 기능을 역할을 수행한다. 생성되는 이벤트로는 블럭 5로부터 나오는 OJ(612)를 상/하/좌/우 중 하나의 방향으로 문지르는 Action에 대한 이벤트, 버튼(613)을 눌렀을 때 발생하는 이벤트, 블럭 6로부터 나오는 Gesture 인식 결과에 따른 이벤트 등이 있다.
한편, 결과 처리부(630)는 커서 처리부(631) 및 이벤트 수행부(632)를 포함한다. 커서 처리부(631)는 블럭 7(627)로부터 수신한 절대 좌표를 디스플레이 장치의 마우스 커서 좌표(X,Y)에 매핑한다. 이벤트 수행부(632)는 블럭 8(628)로부터 수신한 이벤트를 디스플레이 장치에서 수행한다.
도 6은 본 발명의 일 실시 예에 따른 원격 제어 장치(200)의 구현 예를 도시한 도면이다.
도 6(a)에 도시된 바와 같이 선택 버튼부(231)는 원격 제어 장치(200) 전면에 구비될 수 있다. 그 밖에 전면에는 4방향 입력부(242), 터치 입력부(243) 및 전원 버튼부(234) 등이 구비될 수 있다. 또한, 터치 입력부(243)에는 채널 조정 영역, 볼륨 조정 영역, 메뉴 영역 등 상이한 기능이 매핑된 복수의 터치 영역이 포함될 수 있다. 또한, 원격 제어 장치(220)가 상술한 복수의 제어 모드를 제공하는 형태로 구현되는 경우, 원격 제어 장치(200) 후면의 사용자가 그립하게 되는 영역에 모드 전환 버튼부(235)가 더 구비될 수 있다.
도 6(b)에 도시된 바와 같이 사용자는 모드 전환 버튼부(235)의 누름 상태가 해제된 조작을 통해 포인팅 모드를 선택할 수 있다. 이와 같이 원격 제어 장치(200)가 포인팅 모드에 있는 경우 디스플레이 장치(100)에서 제공되는 UI 화면에는 도시된 바와 같은 포인팅(pointing) 형태의 포인터가 디스플레이 될 수 있다.
도 6(c)에 도시된 바와 같이 모드 전환 버튼부(235)의 누름 상태를 유지하는 그립 조작을 통해 제스처 모드를 선택할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 기준점 설정 방법을 설명하기 위한 도면이다.
도 7(a)에 도시된 바와 같이 사용자는 원격 제어 장치(200)의 입력부를 더블 탭하는 사용자 조작을 통해 기준점 설정을 위한 사용자 명령을 입력할 수 있다. 여기서, 상술한 선택 버튼부(231)로 구현될 수 있으나, 이에 한정되는 것은 아니다. 즉, 입력부는 상술한 바와 같이 터치 센서 및 광학 기술을 응용한 OJ(optical Joystick) 센서 중 적어도 하나를 포함하도록 구현될 수 있다. 또한, 입력부는 포인팅 모드에서 포인터가 위치된 오브젝트를 선택하기 위한 사용자 명령을 입력받는 물리적 버튼(예를 들어, Tact Switch)을 더 포함하도록 구현될 수 있다.
또는, 도 7(b)에 도시된 바와 같이 사용자는 원격 제어 장치(200)의 입력부를 문지르는 사용자 조작을 통해 기준점 설정을 위한 사용자 명령을 입력할 수 있다.
또는, 도 7(c)에 도시된 바와 같이 사용자는 원격 제어 장치(200)에 별도로 마련된 기준점 설정을 위한 버튼(236)을 통해 기준점 설정을 위한 사용자 명령을 입력할 수 있다. 여기서, 버튼(236)은 물리적 버튼(예를 들어, Tact Switch) 형태로 구현될 수 있다.
도 8은 본 발명의 다른 실시 예에 따른 기준점 설정 방법을 설명하기 위한 도면이다.
도 8(a) 및 도 8(b)에 도시된 바와 같이 사용자는 원격 제어 장치(100)의 기정의된 제스처를 통해 기준점 설정을 위한 사용자 명령을 입력할 수 있다.
예를 들어, 도 8(a)에 도시된 바와 같이 원격 제어 장치(100)로 원을 그리는 제스처를 통해 기준점 설정을 위한 사용자 명령을 입력할 수 있다. 이 경우, 원격 제어 장치(100)에서는 원을 그리는 해당 제스처를 인식하여 대응되는 신호를 디스플레이 장치(100)로 전송하게 된다.
또한, 도 8(b)에 도시된 바와 같이 원격 제어 장치(100)로 지그재그를 그리는 제스처를 통해 기준점 설정을 위한 사용자 명령을 입력할 수 있다. 다만, 도 8(a) 및 도 8(b)에 도시된 실시 예는 일 예에 불과하며, 기준점 설정을 위한 제스처는 다양한 형태로 구현될 수 있다.
도 9는 본 발명의 일 실시 예에 따른 원격 제어 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 9에 도시된 원격 제어 장치의 제어 방법에 따르면, 사용자 인터페이스 화면을 제공하는 디스플레이 장치와 통신을 수행한다(S910).
이어서, 기설정된 이벤트가 발생하면(S920), 이벤트가 발생한 시점에서 감지된 원격 제어 장치의 움직임 정보와 사용자 인터페이스 화면 상에 제공되는 포인터의 기준점 위치가 매핑되도록 제어한다(S930).
구체적으로, S930 단계에서는, 이벤트가 발생한 시점에서 감지부에서 감지된 원격 제어 장치의 각도 정보를 기준 각도로 설정하고, 포인터가 사용자 인터페이스 화면 상의 기준점에 위치하도록 제어할 수 있다. 여기서, 포인터는 절대 좌표 방식에 기초하는 절대 포인팅 방식에서 제공되는 포인터가 될 수 있다.
또한, S930 단계에서는, 포인터가 사용자 인터페이스 화면 상의 기준점에 위치한 후, 기설정된 시간 동안 기준점에 고정되어 위치하도록 제어할 수 있다.
여기서, 기설정된 이벤트는, 원격 제어 장치의 기 정의된 제스처가 될 수 있다.
또는, 기설정된 이벤트는, 원격 제어 장치에 마련된 버튼부에 대한 더블 탭(double tap) 조작 또는 러빙(rubbing) 조작이 될 수 있다. 이 경우, 버튼부는, 터치 센서 및 광학 기술을 응용한 OJ(optical Joystick) 센서 중 적어도 하나를 포함하는 형태로 구현될 수 있다.
또한, 버튼부는, 포인팅 모드에서 포인터가 위치된 오브젝트를 선택하기 위한 사용자 명령을 입력받는 물리적 버튼을 더 포함할 수 있다.
또한, S930 단계에서는, 가속도 센서, 자이로 센서 및 지자기 센서 중 적어도 하나를 이용하여 원격 제어 장치의 움직임을 감지할 수 있다.
도 10은 본 발명의 일 실시 예에 따른 원격 제어 장치에 의해 제어되는 디스플레이 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 10에 도시된 디스플레이 장치의 제어 방법에 따르면, 디스플레이 장치는 원격 제어 장치와 통신을 수행한다(S1010).
이어서, 사용자 인터페이스 화면 상에 인디케이팅 기능을 수행하는 포인터를 디스플레이한다(S1020).
이 후, 원격 제어 장치로부터 포인터의 기준점을 설정하기 위한 사용자 명령이 수신되면, 포인터가 사용자 인터페이스 화면 상의 기준점에 위치하도록 제어한다(S1030). 예를 들어, 포인터가 사용자 인터페이스 화면에서 중심 좌표에 위치하도록 제어할 수 있다. 이에 따라 원격 제어 장치의 움직임에 따라 센싱된 값을 이용하여 절대 좌표를 추정하는 절대 포인팅 방식에서 포인터의 기준점이 설정될 수 있다.
상술한 바와 같이 본 발명에 따르면, 절대 포인팅 방식에서 추가적인 버튼 없이 절대 좌표의 기준점을 설정할 수 있게 된다. 이에 따라 사용자의 편의성이 향상된다.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법들은, 기존 디스플레이 장치나 사용자 단말 장치에 대한 소프트웨어 업그레이드만으로도 구현될 수 있다.
또한, 본 발명에 따른 제어 방법을 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 디스플레이 장치 및 원격 제어 장치에 대해 도시한 상술한 블록도에서는 버스(bus)를 미도시하였으나, 디스플레이 장치 및 원격 제어 장치에서 각 구성요소 간의 통신은 버스를 통해 이루어질 수도 있다. 또한, 각 디바이스에는 상술한 다양한 단계를 수행하는 CPU, 마이크로 프로세서 등과 같은 프로세서가 더 포함될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (15)

  1. 원격 제어 장치에 있어서,
    사용자 인터페이스 화면을 제공하는 디스플레이 장치와 통신을 수행하는 통신부;
    상기 원격 제어 장치의 움직임을 감지하는 감지부; 및
    기설정된 이벤트가 발생하면, 상기 감지부에서 감지된 원격 제어 장치의 움직임 정보와 상기 사용자 인터페이스 화면 상에 제공되는 포인터의 기준점 위치가 매핑되도록 제어하는 제어부;를 포함하는 원격 제어 장치.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 이벤트가 발생한 시점에서 상기 감지부에서 감지된 상기 원격 제어 장치의 각도 정보를 기준 각도로 설정하고, 상기 포인터가 상기 사용자 인터페이스 화면 상의 기준점에 위치하도록 제어하는 것을 특징으로 하는 원격 제어 장치.
  3. 제2항에 있어서,
    상기 제어부는,
    상기 포인터가 상기 사용자 인터페이스 화면 상의 기준점에 위치한 후, 기설정된 시간 동안 상기 기준점에 고정되어 위치하도록 제어하는 것을 특징으로 하는 원격 제어 장치.
  4. 제1항에 있어서,
    상기 이벤트는,
    상기 원격 제어 장치의 기 정의된 제스처인 것을 특징으로 하는 원격 제어 장치.
  5. 제1항에 있어서,
    버튼부;를 더 포함하며,
    상기 이벤트는,
    상기 버튼부에 대한 더블 탭(double tap) 조작 또는 러빙(rubbing) 조작인 것을 특징으로 하는 원격 제어 장치.
  6. 제5항에 있어서,
    상기 버튼부는,
    터치 센서 및 광학 기술을 응용한 OJ(optical Joystick) 센서 중 적어도 하나를 포함하는 형태로 구현되는 것을 특징으로 하는 원격 제어 장치.
  7. 제6항에 있어서,
    상기 버튼부는,
    상기 포인팅 모드에서 상기 포인터가 위치된 오브젝트를 선택하기 위한 사용자 명령을 입력받는 물리적 버튼을 더 포함하는 것을 특징으로 하는 원격 제어 장치.
  8. 제1항에 있어서,
    상기 감지부는,
    가속도 센서, 자이로 센서 및 지자기 센서 중 적어도 하나를 포함하는 것을 특징으로 하는 원격 제어 장치.
  9. 제1항에 있어서,
    상기 포인터는,
    상기 원격 제어 장치의 움직임에 기초하여 절대 좌표를 추정하는 절대 포인팅 방식에서 제공되는 것을 특징으로 하는 원격 제어 장치.
  10. 원격 제어 장치에 의해 제어되는 디스플레이 장치에 있어서,
    상기 원격 제어 장치와 통신을 수행하는 통신부;
    사용자 인터페이스 화면 상에 인디케이팅 기능을 수행하는 포인터를 디스플레이하는 디스플레이부; 및
    상기 원격 제어 장치로부터 상기 포인터의 기준점을 설정하기 위한 사용자 명령이 수신되면, 상기 포인터가 상기 사용자 인터페이스 화면 상의 기준점에 위치하도록 제어하는 제어부;를 포함하는 디스플레이 장치.
  11. 원격 제어 장치의 제어 방법에 있어서,
    사용자 인터페이스 화면을 제공하는 디스플레이 장치와 통신을 수행하는 단계; 및
    기설정된 이벤트가 발생하면, 감지된 원격 제어 장치의 움직임 정보와 상기 사용자 인터페이스 화면 상에 제공되는 포인터의 기준점 위치가 매핑되도록 제어하는 단계;를 포함하는 제어 방법.
  12. 제11항에 있어서,
    상기 제어하는 단계는,
    상기 이벤트가 발생한 시점에서 상기 감지부에서 감지된 상기 원격 제어 장치의 각도 정보를 기준 각도로 설정하고, 상기 포인터가 상기 사용자 인터페이스 화면 상의 기준점에 위치하도록 제어하는 것을 특징으로 하는 제어 방법.
  13. 제12항에 있어서,
    상기 제어하는 단계는,
    상기 포인터가 상기 사용자 인터페이스 화면 상의 기준점에 위치한 후, 기설정된 시간 동안 상기 기준점에 고정되어 위치하도록 제어하는 것을 특징으로 하는 제어 방법.
  14. 제11항에 있어서,
    상기 이벤트는,
    상기 원격 제어 장치의 기 정의된 제스처인 것을 특징으로 하는 제어 방법.
  15. 원격 제어 장치에 의해 제어되는 디스플레이 장치의 제어 방법에 있어서,
    사용자 인터페이스 화면 상에 인디케이팅 기능을 수행하는 포인터를 디스플레이하는 단계; 및
    상기 원격 제어 장치로부터 상기 포인터의 기준점을 설정하기 위한 사용자 명령이 수신되면, 상기 포인터가 상기 사용자 인터페이스 화면 상의 기준점에 위치하도록 제어하는 단계;를 포함하는 제어 방법.
PCT/KR2013/010197 2012-11-12 2013-11-11 원격 제어 장치, 디스플레이 장치 및 그 제어 방법 WO2014073926A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201380070351.3A CN105190475A (zh) 2012-11-12 2013-11-11 遥控器、显示装置及其控制方法
EP13853692.5A EP2919481A4 (en) 2012-11-12 2013-11-11 REMOTE CONTROL DEVICE, DISPLAY DEVICE, AND ITS CONTROL METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0127610 2012-11-12
KR1020120127610A KR20140060818A (ko) 2012-11-12 2012-11-12 원격 제어 장치, 디스플레이 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
WO2014073926A1 true WO2014073926A1 (ko) 2014-05-15

Family

ID=50684939

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/010197 WO2014073926A1 (ko) 2012-11-12 2013-11-11 원격 제어 장치, 디스플레이 장치 및 그 제어 방법

Country Status (5)

Country Link
US (1) US9223422B2 (ko)
EP (1) EP2919481A4 (ko)
KR (1) KR20140060818A (ko)
CN (1) CN105190475A (ko)
WO (1) WO2014073926A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150145037A (ko) * 2014-06-18 2015-12-29 주식회사 테뷸라 지방흡입용 케뉼라장치
WO2016068645A1 (en) * 2014-10-31 2016-05-06 Samsung Electronics Co., Ltd. Display apparatus, system, and controlling method thereof
WO2017073856A1 (ko) * 2015-10-27 2017-05-04 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
WO2017177807A1 (zh) * 2016-04-12 2017-10-19 中兴通讯股份有限公司 可转动设备的调整系统、方法及装置、遥控器

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5857991B2 (ja) * 2013-03-19 2016-02-10 カシオ計算機株式会社 情報表示装置、方法及びプログラム
US10534447B2 (en) 2014-09-01 2020-01-14 Yinbo Li Multi-surface controller
US10444849B2 (en) * 2014-09-01 2019-10-15 Yinbo Li Multi-surface controller
JP6335733B2 (ja) * 2014-09-26 2018-05-30 京セラ株式会社 電子機器および電子機器システム
TWI567593B (zh) * 2014-12-18 2017-01-21 明基電通股份有限公司 能夠自動切換操作模式的多功能滑鼠裝置及其方法
CN107274750A (zh) 2017-06-13 2017-10-20 苏州佳世达电通有限公司 指标校正方法及指标校正系统
TWI638288B (zh) * 2017-06-15 2018-10-11 佳世達科技股份有限公司 指標校正方法及指標校正系統
USD828337S1 (en) 2017-06-20 2018-09-11 Yinbo Li Multi-surface controller
CN109559497A (zh) * 2017-09-27 2019-04-02 朗德万斯公司 利用遥控器控制电子装置的方法、遥控器和系统
CN211132974U (zh) * 2019-09-04 2020-07-31 富港电子(昆山)有限公司 游戏握把
CN111923009A (zh) * 2020-09-14 2020-11-13 天津滨电电力工程有限公司 基于imu的配电线路带电作业机器人控制装置及方法
CN112689174A (zh) * 2020-12-28 2021-04-20 当趣网络科技(杭州)有限公司 遥控器的控制方法、控制系统、遥控器和智能电视
WO2023157993A1 (ko) * 2022-02-18 2023-08-24 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
KR102634743B1 (ko) * 2022-11-29 2024-02-07 주식회사 오성전자 포인터 기능을 갖는 리모컨 및 이를 포함한 포인팅 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268297A (ja) * 2005-03-23 2006-10-05 Pioneer Electronic Corp ポインタ遠隔制御装置
KR20090030163A (ko) * 2007-09-19 2009-03-24 삼성전자주식회사 움직임을 감지하는 리모트 컨트롤러 및, 리모트 컨트롤러에의해 포인터를 제어하는 영상디스플레이장치 및 그들의제어방법
KR20100002465A (ko) * 2008-06-30 2010-01-07 엘지전자 주식회사 디스플레이 장치 및 그 동작 방법
KR20100091854A (ko) * 2009-02-11 2010-08-19 엘지전자 주식회사 입력 장치, 디스플레이 기기 및 리모트 컨트롤 시스템
KR20100100305A (ko) * 2009-03-06 2010-09-15 삼성전자주식회사 비주얼 코드를 이용한 원격 조작 방법 및 그 방법을 수행하는 장치

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100537518B1 (ko) * 2004-01-27 2005-12-19 삼성전자주식회사 공간에서 클릭 동작에 따른 포인팅 위치 조절 방법 및이를 위한 공간형 입력 장치
US9317108B2 (en) * 2004-11-02 2016-04-19 Pierre A. Touma Hand-held wireless electronic device with accelerometer for interacting with a display
JP4530419B2 (ja) * 2006-03-09 2010-08-25 任天堂株式会社 座標算出装置および座標算出プログラム
KR100827243B1 (ko) * 2006-12-18 2008-05-07 삼성전자주식회사 3차원 공간상에서 정보를 입력하는 정보 입력 장치 및 그방법
KR20080094235A (ko) * 2007-04-19 2008-10-23 삼성전자주식회사 Gui 제공방법 및 이를 적용한 전자장치
KR20100036217A (ko) * 2007-07-04 2010-04-07 소니 가부시끼가이샤 입력 장치, 제어 장치, 제어 방법 및 핸드헬드 장치
TW200921466A (en) * 2007-09-26 2009-05-16 Imu Solutions Inc Improved display cursor control device with enhanced multiple dimensional tilt angle operation
KR20090065040A (ko) * 2007-12-17 2009-06-22 삼성전자주식회사 동작과 터치를 이용한 이중 포인팅 장치 및 방법
JP5866199B2 (ja) * 2008-07-01 2016-02-17 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 3dポインタマッピング
KR101545490B1 (ko) * 2009-05-29 2015-08-21 엘지전자 주식회사 영상표시장치 및 그 동작방법
CN101739804A (zh) * 2009-11-27 2010-06-16 深圳创维-Rgb电子有限公司 一种电视机遥控系统
KR101788006B1 (ko) * 2011-07-18 2017-10-19 엘지전자 주식회사 원격제어장치 및 원격제어장치로 제어 가능한 영상표시장치
KR20130026234A (ko) * 2011-09-05 2013-03-13 엘지전자 주식회사 영상표시장치와 원격제어장치 및 그 동작 방법
TWI476641B (zh) * 2011-11-22 2015-03-11 Pixart Imaging Inc 遙控器及顯示系統
KR20130142824A (ko) * 2012-06-20 2013-12-30 삼성전자주식회사 원격 제어 장치 및 그 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268297A (ja) * 2005-03-23 2006-10-05 Pioneer Electronic Corp ポインタ遠隔制御装置
KR20090030163A (ko) * 2007-09-19 2009-03-24 삼성전자주식회사 움직임을 감지하는 리모트 컨트롤러 및, 리모트 컨트롤러에의해 포인터를 제어하는 영상디스플레이장치 및 그들의제어방법
KR20100002465A (ko) * 2008-06-30 2010-01-07 엘지전자 주식회사 디스플레이 장치 및 그 동작 방법
KR20100091854A (ko) * 2009-02-11 2010-08-19 엘지전자 주식회사 입력 장치, 디스플레이 기기 및 리모트 컨트롤 시스템
KR20100100305A (ko) * 2009-03-06 2010-09-15 삼성전자주식회사 비주얼 코드를 이용한 원격 조작 방법 및 그 방법을 수행하는 장치

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150145037A (ko) * 2014-06-18 2015-12-29 주식회사 테뷸라 지방흡입용 케뉼라장치
KR101647781B1 (ko) * 2014-06-18 2016-08-12 주식회사 테뷸라 지방흡입용 케뉼라장치
WO2016068645A1 (en) * 2014-10-31 2016-05-06 Samsung Electronics Co., Ltd. Display apparatus, system, and controlling method thereof
WO2017073856A1 (ko) * 2015-10-27 2017-05-04 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
US10742922B2 (en) 2015-10-27 2020-08-11 Lg Electronics Inc. Display device and operation method therefor
WO2017177807A1 (zh) * 2016-04-12 2017-10-19 中兴通讯股份有限公司 可转动设备的调整系统、方法及装置、遥控器

Also Published As

Publication number Publication date
EP2919481A1 (en) 2015-09-16
KR20140060818A (ko) 2014-05-21
EP2919481A4 (en) 2016-06-29
CN105190475A (zh) 2015-12-23
US20140139433A1 (en) 2014-05-22
US9223422B2 (en) 2015-12-29

Similar Documents

Publication Publication Date Title
WO2014073926A1 (ko) 원격 제어 장치, 디스플레이 장치 및 그 제어 방법
WO2015084111A1 (ko) 제한된 수의 자기장 센서를 이용한 사용자 입력 처리 장치
WO2013118941A1 (en) Portable device and method for controlling the same
WO2013191484A1 (en) Remote control apparatus and control method thereof
WO2013191351A1 (en) Display apparatus, remote controlling apparatus and control method thereof
WO2016036137A1 (en) Electronic device with bent display and method for controlling thereof
WO2014193101A1 (en) Method and apparatus for controlling screen display using environmental information
WO2010056024A2 (en) Method and device for inputting force intensity and rotation intensity based on motion sensing
WO2011087250A2 (en) Display device and control method thereof
WO2017119745A1 (en) Electronic device and control method thereof
WO2015002380A1 (en) Electronic device and method for controlling multi-windows in the electronic device
WO2016072823A2 (ko) 루프 형태의 택타일 멀티터치 입력장치, 제스처와 그 방법
WO2017091039A1 (ko) 사용자 입력을 획득하기 위한 방법 및 전자장치
WO2014017841A1 (en) User terminal apparatus and control method thereof cross-reference to related applications
WO2020159308A1 (en) Electronic device and method for mapping function to button input
WO2014189225A1 (en) User input using hovering input
WO2017065535A1 (ko) 전자 장치 및 그 제어 방법
WO2018004140A1 (ko) 전자 장치 및 그의 동작 방법
WO2015182811A1 (ko) 사용자 인터페이스 제공 장치 및 방법
WO2016060458A1 (en) Remote controller apparatus and control method thereof
WO2022035027A1 (ko) 모션 신호와 마우스 신호를 사용하여 호스트 장치를 제어하기 위한 전자 장치
WO2018124823A1 (en) Display apparatus and controlling method thereof
WO2016076568A1 (en) Display apparatus and control method thereof
WO2014104726A1 (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
WO2010008148A2 (ko) 움직임을 인식하는 장치 및 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201380070351.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13853692

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2013853692

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE