WO2017043690A1 - Display device in which input-allowed area is limited according to software displayed on screen, and control method therefor - Google Patents

Display device in which input-allowed area is limited according to software displayed on screen, and control method therefor Download PDF

Info

Publication number
WO2017043690A1
WO2017043690A1 PCT/KR2015/011311 KR2015011311W WO2017043690A1 WO 2017043690 A1 WO2017043690 A1 WO 2017043690A1 KR 2015011311 W KR2015011311 W KR 2015011311W WO 2017043690 A1 WO2017043690 A1 WO 2017043690A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen
touch
input
sensor
unit
Prior art date
Application number
PCT/KR2015/011311
Other languages
French (fr)
Korean (ko)
Inventor
정충윤
김용태
Original Assignee
주식회사 현대아이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 현대아이티 filed Critical 주식회사 현대아이티
Publication of WO2017043690A1 publication Critical patent/WO2017043690A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present disclosure relates to a display apparatus and a control method thereof, and more particularly, to a display apparatus and a control method in which an inputable region is limited according to software displayed on a screen.
  • the present invention has been made in view of the above-described prior art, and an object thereof is to provide a display apparatus and a control method in which an inputable area is limited according to software displayed on a screen.
  • a display apparatus including: an output unit configured to display a screen according to driving of software; A sensing unit configured to sense a user input on the screen; And a controller configured to control the output unit to display a screen corresponding to a user input received by the sensing unit, wherein the controller is configured to display a screen of a user through the sensing unit when preset software is displayed on the screen. Even if an input is received, the software may be controlled so that the input for the displayed area is not displayed on the screen.
  • the handwriting input restriction area may be set according to the intention of the user, thereby improving user convenience.
  • FIG. 1 is a block diagram schematically illustrating a configuration of a display apparatus according to an exemplary embodiment of the present specification.
  • FIG. 2 is an exemplary diagram in which an area where an input is restricted by software according to an embodiment of the present specification is set.
  • the display device described herein includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant, a portable multimedia player, a navigation, and a slate PC.
  • Tablet PC ultrabook
  • wearable device eg, smartwatch, glass glass, head mounted display
  • FIG. 1 is a block diagram schematically illustrating a configuration of a display apparatus according to an exemplary embodiment of the present specification.
  • the display apparatus 100 may include a communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a controller 180, and a power supply unit 190. And the like.
  • the components shown in FIG. 1 are not essential to implementing a display device, so that the display device described herein may have more or fewer components than those listed above.
  • the communication unit 110 of the components, between the display device 100 and the communication system, between the display device 100 and another display device 100, or between the display device 100 and an external server It may include one or more modules that enable wireless communication.
  • the communication unit 110 may include one or more modules for connecting the display apparatus 100 to one or more networks.
  • the communication unit 110 may include at least one of the broadcast receiving module 111, the mobile communication module 112, the wireless internet module 113, the short range communication module 114, and the location information module 115.
  • the input unit 120 may include a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, an audio input unit, or a user input unit 123 for receiving information from a user. , Touch keys, mechanical keys, and the like.
  • the voice data or the image data collected by the input unit 120 may be analyzed and processed as a control command of the user.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the display device, surrounding environment information surrounding the display device, and user information.
  • the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • Optical sensors e.g. cameras 121), microphones (see 122), battery gauges, environmental sensors (e.g.
  • the display device disclosed in the present specification may use a combination of information sensed by at least two or more of these sensors.
  • the output unit 150 is used to generate an output related to sight, hearing, or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a hap tip module 153, and an optical output unit 154. can do.
  • the display unit 151 forms a layer structure with or is integrally formed with the touch sensor, thereby implementing a touch screen.
  • the touch screen may function as a user input unit 123 that provides an input interface between the display apparatus 100 and the user, and may also provide an output interface between the display apparatus 100 and the user.
  • the interface unit 160 serves as a path to various types of external devices connected to the display apparatus 100.
  • the interface unit 160 connects a device equipped with a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, and an identification module. It may include at least one of a port, an audio input / output (I / O) port, a video input / output (I / O) port, and an earphone port.
  • I / O audio input / output
  • I / O video input / output
  • earphone port an earphone port
  • the memory 170 stores data supporting various functions of the display apparatus 100.
  • the memory 170 may store a plurality of application programs or applications that are driven by the display apparatus 100, data for operating the display apparatus 100, and instructions. At least some of these applications may be downloaded from an external server via wireless communication.
  • at least some of these application programs may exist on the display device 100 from the time of shipment for basic functions of the display device 100 (for example, a call forwarding, a calling function, a message receiving, and a calling function).
  • the application program may be stored in the memory 170 and installed on the display apparatus 100 to be driven by the controller 180 to perform an operation (or function) of the display apparatus.
  • the controller 180 In addition to the operation related to the application program, the controller 180 typically controls the overall operation of the display apparatus 100.
  • the controller 180 may provide or process information or a function appropriate to a user by processing signals, data, information, and the like, which are input or output through the above-described components, or by driving an application program stored in the memory 170.
  • controller 180 may control at least some of the components described with reference to FIG. 1 in order to drive an application program stored in the memory 170. In addition, the controller 180 may operate by combining at least two or more of the components included in the display apparatus 100 to drive the application program.
  • the power supply unit 190 receives power from an external power source or an internal power source under the control of the controller 180 to supply power to each component included in the display apparatus 100.
  • the power supply unit 190 includes a battery, which may be a built-in battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of the display apparatus according to various embodiments described below.
  • the operation, control, or control method of the display apparatus may be implemented on the display apparatus by driving at least one application program stored in the memory 170.
  • the sensing unit 140 senses at least one of information in the display device, surrounding environment information surrounding the display device, and user information, and generates a sensing signal corresponding thereto.
  • the controller 180 may control driving or operation of the display apparatus 100 or perform data processing, function, or operation related to an application program installed in the display apparatus 100, based on the sensing signal. Representative sensors among various sensors that may be included in the sensing unit 140 will be described in more detail.
  • the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays.
  • the proximity sensor 141 may be disposed at an inner region of the display device covered by the screen described above or near the touch screen.
  • the proximity sensor 141 examples include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the proximity sensor 141 may be configured to detect the proximity of the object by the change of the electric field according to the proximity of the conductive object.
  • the touch screen (or touch sensor) itself may be classified as a proximity sensor.
  • the proximity sensor 141 may detect a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). have.
  • the controller 180 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern detected through the proximity sensor 141 as described above, and further, provides visual information corresponding to the processed data. It can be output on the touch screen. Furthermore, the controller 180 may control the display apparatus 100 to process different operations or data (or information) according to whether the touch on the same point on the touch screen is a proximity touch or a touch touch. .
  • the touch sensor applies a touch (or touch input) applied to the touch screen (or the display unit 151) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. Detect.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the touch screen or capacitance generated at the specific portion into an electrical input signal.
  • the touch sensor may be configured to detect a position, an area, a pressure at the touch, a capacitance at the touch, and the like, when the touch object applying the touch on the touch screen is touched on the touch sensor.
  • the touch object is an object applying a touch to the touch sensor and may be, for example, a finger, a touch pen or a stylus pen, a pointer, or the like.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the controller 180.
  • the controller 180 can know which area of the display unit 151 is touched.
  • the touch controller may be a separate component from the controller 180 or may be the controller 180 itself.
  • the controller 180 may perform different control or perform the same control according to the type of touch object that touches the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different control or the same control according to the type of touch object may be determined according to the operation state of the display device 100 or an application program being executed.
  • the touch sensor and the proximity sensor described above may be independently or combined, and may be a short (or tap) touch, a long touch, a multi touch, a drag touch on a touch screen. ), Flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. A touch can be sensed.
  • the ultrasonic sensor may recognize location information of a sensing object using ultrasonic waves.
  • the controller 180 can calculate the position of the wave generation source through the information detected from the optical sensor and the plurality of ultrasonic sensors.
  • the position of the wave source can be calculated using the property that the light is much faster than the ultrasonic wave, that is, the time that the light reaches the optical sensor is much faster than the time when the ultrasonic wave reaches the ultrasonic sensor. More specifically, the position of the wave generation source may be calculated using a time difference from the time when the ultrasonic wave reaches the light as the reference signal.
  • the camera 121 which has been described as the configuration of the input unit 120, includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or image sensor), and a laser sensor.
  • a camera sensor eg, CCD, CMOS, etc.
  • a photo sensor or image sensor
  • a laser sensor e.g., a laser sensor
  • the camera 121 and the laser sensor may be combined with each other to detect a touch of a sensing object with respect to a 3D stereoscopic image.
  • the photo sensor may be stacked on the display element, which is configured to scan the movement of the sensing object in proximity to the touch screen. More specifically, the photo sensor mounts a photo diode and a transistor (TR) in a row / column and scans contents mounted on the photo sensor by using an electrical signal that varies according to the amount of light applied to the photo diode. That is, the photo sensor calculates coordinates of the sensing object according to the amount of light change, and thus, the position information of the sensing object can be obtained.
  • TR transistor
  • the display unit 151 displays (outputs) information processed by the display apparatus 100.
  • the display unit 151 may display execution screen information of an application program driven by the display apparatus 100, or UI (User Interface) or Graphic User Interface (GUI) information according to the execution screen information. .
  • UI User Interface
  • GUI Graphic User Interface
  • the display unit 151 may be configured as a stereoscopic display unit for displaying a stereoscopic image.
  • the stereoscopic display unit may be a three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (glasses-free method), a projection method (holographic method).
  • FIG. 2 is an exemplary diagram in which an area where an input is restricted by software according to an embodiment of the present specification is set.
  • the screens are divided in half each from side to side.
  • the web browser is displayed on the left side of the software, and the electronic blackboard software displaying the user's handwriting input is displayed on the right side.
  • the situation shown in FIG. 2 is a situation in which the user displays a web browser while the presentation is in progress, and the remaining part is to perform handwriting input as an electronic blackboard.
  • the user does not want to write the handwriting even when the user touches the displayed portion of the web browser.
  • the controller 180 may control the software not to display an input for the displayed area on the screen even if a user input is received through the sensing unit 140. Can be.
  • the type of the preset software may vary, and the type of software may be stored in the memory 170.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present specification discloses a display device in which an input-allowed area is limited according to software displayed on a screen, and a control method therefor. The display device according to the present specification comprises: an output unit for displaying a screen according to a driving of software; a sensing unit for sensing a user's input to the screen; and a control unit for controlling the output unit to display a screen corresponding to the user's input received by the sensing unit, wherein, when predetermined software has been displayed on a screen, the control unit may control the screen not to display, even though a user's input is received through the sensing unit, the input on an area in which the software has been displayed. According to the present invention, an area in which a handwriting input is limited may be configured according to an intention of a user, so that the convenience of the user can be improved.

Description

화면에 표시된 소프트웨어에 따라 입력가능영역이 제한되는 디스플레이 장치 및 제어 방법Display device and control method whose input area is limited according to the software displayed on the screen
본 명세서는 디스플레이 장치 및 그 제어 방법에 관한 것으로서, 보다 상세하게는 화면에 표시된 소프트웨어에 따라 입력가능영역이 제한되는 디스플레이 장치 및 제어 방법에 관한 것이다.The present disclosure relates to a display apparatus and a control method thereof, and more particularly, to a display apparatus and a control method in which an inputable region is limited according to software displayed on a screen.
대형 디스플레이 기술의 발전에 따라, 기존 칠판 또는 빔프로젝트 대신 전자칠판이 널리 사용되고 있다. 교육 환경에서는 전자칠판을 이용하여 효율적인 학습을 수행하고 있고 있으며, 사업현장에서는 프레젼테이션 등 다양한 콘텐츠를 표시하는 용도로 활용되고 있다.With the development of large display technology, electronic blackboards are widely used instead of existing blackboards or beam projects. In the educational environment, the electronic blackboard is used for efficient learning, and the business site is used for displaying various contents such as presentations.
상기와 같이 디스플레이를 사용하는 제품의 경우, 특정 소프트웨어를 화면에 띄운 다음에 상기 화면을 참조하여 다양한 화면입력을 할 경우가 생길 수 있다. 그러나 이 경우, 상기 소프트웨어에는 사용자의 입력이 필요하지 않을 수 있는 상황이 발생하기도 한다.In the case of a product using a display as described above, various screen inputs may be performed by referring to the screen after displaying a specific software on the screen. In this case, however, there may be situations in which the software may not require user input.
본 발명은 상기와 같은 종래 기술을 인식하여 안출된 것으로서, 화면에 표시된 소프트웨어에 따라 입력가능영역이 제한되는 디스플레이 장치 및 제어 방법을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above-described prior art, and an object thereof is to provide a display apparatus and a control method in which an inputable area is limited according to software displayed on a screen.
상기 기술적 과제를 달성하기 위한 본 발명에 따른 디스플레이 장치는, 소프트웨어의 구동에 따른 화면을 디스플레이하는 출력부; 상기 화면에 대한 사용자의 입력을 센싱하는 센싱부; 및 상기 센싱부에서 수신된 사용자의 입력에 대응하는 화면을 디스플레이하도록 상기 출력부를 제어하는 제어부;를 포함하는 디스플레이 장치로서, 상기 제어부는 미리 설정된 소프트웨어가 화면에 표시되었을 때, 상기 센싱부를 통해 사용자의 입력이 수신되어도 상기 소프트웨어가 표시된 영역에 대한 입력을 상기 화면에 표시하지 않도록 제어할 수 있다.According to an aspect of the present invention, there is provided a display apparatus including: an output unit configured to display a screen according to driving of software; A sensing unit configured to sense a user input on the screen; And a controller configured to control the output unit to display a screen corresponding to a user input received by the sensing unit, wherein the controller is configured to display a screen of a user through the sensing unit when preset software is displayed on the screen. Even if an input is received, the software may be controlled so that the input for the displayed area is not displayed on the screen.
본 발명에 따르면, 사용자의 의도에 따라 필기 입력 제한 영역이 설정될 수 있어서, 사용자의 편의를 향상시킬 수 있다.According to the present invention, the handwriting input restriction area may be set according to the intention of the user, thereby improving user convenience.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.The following drawings attached to this specification are illustrative of preferred embodiments of the present invention, and together with the detailed description of the invention to serve to further understand the technical spirit of the present invention, the present invention is a matter described in such drawings It should not be construed as limited to.
도 1은 본 명세서의 일 실시예에 따른 디스플레이 장치의 구성을 개략적으로 도시한 블럭도이다.1 is a block diagram schematically illustrating a configuration of a display apparatus according to an exemplary embodiment of the present specification.
도 2는 본 명세서의 일 실시예에 따른 소프트웨어에 의해 입력이 제한되는 영역이 설정된 예시도이다.2 is an exemplary diagram in which an area where an input is restricted by software according to an embodiment of the present specification is set.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. DETAILED DESCRIPTION Hereinafter, exemplary embodiments disclosed herein will be described in detail with reference to the accompanying drawings, and the same or similar components will be given the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted. In addition, in describing the embodiments disclosed herein, when it is determined that the detailed description of the related known technology may obscure the gist of the embodiments disclosed herein, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easily understanding the embodiments disclosed herein, the technical spirit disclosed in the specification by the accompanying drawings are not limited, and all changes included in the spirit and scope of the present invention. It should be understood to include equivalents and substitutes.
본 명세서에서 설명되는 디스플레이 장치는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.The display device described herein includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant, a portable multimedia player, a navigation, and a slate PC. , Tablet PC, ultrabook, wearable device (eg, smartwatch, glass glass, head mounted display) have.
도 1은 본 명세서의 일 실시예에 따른 디스플레이 장치의 구성을 개략적으로 도시한 블럭도이다.1 is a block diagram schematically illustrating a configuration of a display apparatus according to an exemplary embodiment of the present specification.
상기 디스플레이 장치(100)는 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 디스플레이 장치를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 디스플레이 장치는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The display apparatus 100 may include a communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a controller 180, and a power supply unit 190. And the like. The components shown in FIG. 1 are not essential to implementing a display device, so that the display device described herein may have more or fewer components than those listed above.
보다 구체적으로, 상기 구성요소들 중 통신부(110)는, 디스플레이 장치(100)와 통신 시스템 사이, 디스플레이 장치(100)와 다른 디스플레이 장치(100) 사이, 또는 디스플레이 장치(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 통신부(110)는, 디스플레이 장치(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, the communication unit 110 of the components, between the display device 100 and the communication system, between the display device 100 and another display device 100, or between the display device 100 and an external server It may include one or more modules that enable wireless communication. In addition, the communication unit 110 may include one or more modules for connecting the display apparatus 100 to one or more networks.
이러한 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The communication unit 110 may include at least one of the broadcast receiving module 111, the mobile communication module 112, the wireless internet module 113, the short range communication module 114, and the location information module 115.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 may include a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, an audio input unit, or a user input unit 123 for receiving information from a user. , Touch keys, mechanical keys, and the like. The voice data or the image data collected by the input unit 120 may be analyzed and processed as a control command of the user.
센싱부(140)는 디스플레이 장치 내 정보, 디스플레이 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 디스플레이 장치는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information in the display device, surrounding environment information surrounding the display device, and user information. For example, the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity. G-sensor, Gyroscope Sensor, Motion Sensor, RGB Sensor, Infrared Sensor, Infrared Sensor, Finger Scan Sensor, Ultrasonic Sensor Optical sensors (e.g. cameras 121), microphones (see 122), battery gauges, environmental sensors (e.g. barometers, hygrometers, thermometers, radiation detection sensors, Thermal sensors, gas sensors, etc.), chemical sensors (eg, electronic noses, healthcare sensors, biometric sensors, etc.). Meanwhile, the display device disclosed in the present specification may use a combination of information sensed by at least two or more of these sensors.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 디스플레이 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 디스플레이 장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is used to generate an output related to sight, hearing, or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a hap tip module 153, and an optical output unit 154. can do. The display unit 151 forms a layer structure with or is integrally formed with the touch sensor, thereby implementing a touch screen. The touch screen may function as a user input unit 123 that provides an input interface between the display apparatus 100 and the user, and may also provide an output interface between the display apparatus 100 and the user.
인터페이스부(160)는 디스플레이 장치(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 디스플레이 장치(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a path to various types of external devices connected to the display apparatus 100. The interface unit 160 connects a device equipped with a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, and an identification module. It may include at least one of a port, an audio input / output (I / O) port, a video input / output (I / O) port, and an earphone port. In the display apparatus 100, in response to an external device connected to the interface unit 160, appropriate control related to the connected external device may be performed.
또한, 메모리(170)는 디스플레이 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 디스플레이 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 디스플레이 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 디스플레이 장치(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 디스플레이 장치(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 디스플레이 장치(100) 상에 설치되어, 제어부(180)에 의하여 상기 디스플레이 장치의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory 170 stores data supporting various functions of the display apparatus 100. The memory 170 may store a plurality of application programs or applications that are driven by the display apparatus 100, data for operating the display apparatus 100, and instructions. At least some of these applications may be downloaded from an external server via wireless communication. In addition, at least some of these application programs may exist on the display device 100 from the time of shipment for basic functions of the display device 100 (for example, a call forwarding, a calling function, a message receiving, and a calling function). The application program may be stored in the memory 170 and installed on the display apparatus 100 to be driven by the controller 180 to perform an operation (or function) of the display apparatus.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 디스플레이 장치(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operation related to the application program, the controller 180 typically controls the overall operation of the display apparatus 100. The controller 180 may provide or process information or a function appropriate to a user by processing signals, data, information, and the like, which are input or output through the above-described components, or by driving an application program stored in the memory 170.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 디스플레이 장치(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the controller 180 may control at least some of the components described with reference to FIG. 1 in order to drive an application program stored in the memory 170. In addition, the controller 180 may operate by combining at least two or more of the components included in the display apparatus 100 to drive the application program.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 디스플레이 장치(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.The power supply unit 190 receives power from an external power source or an internal power source under the control of the controller 180 to supply power to each component included in the display apparatus 100. The power supply unit 190 includes a battery, which may be a built-in battery or a replaceable battery.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 디스플레이 장치의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 디스플레이 장치의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 디스플레이 장치 상에서 구현될 수 있다. At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of the display apparatus according to various embodiments described below. In addition, the operation, control, or control method of the display apparatus may be implemented on the display apparatus by driving at least one application program stored in the memory 170.
한편, 센싱부(140)는 디스플레이 장치 내 정보, 디스플레이 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 디스플레이 장치(100)의 구동 또는 동작을 제어하거나, 디스플레이 장치(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.The sensing unit 140 senses at least one of information in the display device, surrounding environment information surrounding the display device, and user information, and generates a sensing signal corresponding thereto. The controller 180 may control driving or operation of the display apparatus 100 or perform data processing, function, or operation related to an application program installed in the display apparatus 100, based on the sensing signal. Representative sensors among various sensors that may be included in the sensing unit 140 will be described in more detail.
먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 스크린에 의해 감싸지는 디스플레이 장치의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. First, the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays. The proximity sensor 141 may be disposed at an inner region of the display device covered by the screen described above or near the touch screen.
근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(141)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다. Examples of the proximity sensor 141 include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. In the case where the touch screen is capacitive, the proximity sensor 141 may be configured to detect the proximity of the object by the change of the electric field according to the proximity of the conductive object. In this case, the touch screen (or touch sensor) itself may be classified as a proximity sensor.
한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(180)는 위와 같이, 근접 센서(141)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어부(180)는, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 디스플레이 장치(100)를 제어할 수 있다.On the other hand, for convenience of explanation, an action of allowing the object to be recognized without being in contact with the touch screen so that the object is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching an object on a screen is called a "contact touch." The position at which the object is in close proximity touch on the touch screen means a position where the object is perpendicular to the touch screen when the object is in close proximity touch. The proximity sensor 141 may detect a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). have. Meanwhile, the controller 180 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern detected through the proximity sensor 141 as described above, and further, provides visual information corresponding to the processed data. It can be output on the touch screen. Furthermore, the controller 180 may control the display apparatus 100 to process different operations or data (or information) according to whether the touch on the same point on the touch screen is a proximity touch or a touch touch. .
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(151))에 가해지는 터치(또는 터치입력)을 감지한다.The touch sensor applies a touch (or touch input) applied to the touch screen (or the display unit 151) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. Detect.
일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다. As an example, the touch sensor may be configured to convert a change in pressure applied to a specific portion of the touch screen or capacitance generated at the specific portion into an electrical input signal. The touch sensor may be configured to detect a position, an area, a pressure at the touch, a capacitance at the touch, and the like, when the touch object applying the touch on the touch screen is touched on the touch sensor. Here, the touch object is an object applying a touch to the touch sensor and may be, for example, a finger, a touch pen or a stylus pen, a pointer, or the like.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(180)와 별도의 구성요소일 수 있고, 제어부(180) 자체일 수 있다. As such, when there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the controller 180. As a result, the controller 180 can know which area of the display unit 151 is touched. Here, the touch controller may be a separate component from the controller 180 or may be the controller 180 itself.
한편, 제어부(180)는, 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 디스플레이 장치(100)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다. Meanwhile, the controller 180 may perform different control or perform the same control according to the type of touch object that touches the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different control or the same control according to the type of touch object may be determined according to the operation state of the display device 100 or an application program being executed.
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.Meanwhile, the touch sensor and the proximity sensor described above may be independently or combined, and may be a short (or tap) touch, a long touch, a multi touch, a drag touch on a touch screen. ), Flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. A touch can be sensed.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(180)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.The ultrasonic sensor may recognize location information of a sensing object using ultrasonic waves. On the other hand, the controller 180 can calculate the position of the wave generation source through the information detected from the optical sensor and the plurality of ultrasonic sensors. The position of the wave source can be calculated using the property that the light is much faster than the ultrasonic wave, that is, the time that the light reaches the optical sensor is much faster than the time when the ultrasonic wave reaches the ultrasonic sensor. More specifically, the position of the wave generation source may be calculated using a time difference from the time when the ultrasonic wave reaches the light as the reference signal.
한편, 입력부(120)의 구성으로 살펴본, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.On the other hand, the camera 121, which has been described as the configuration of the input unit 120, includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or image sensor), and a laser sensor.
카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.The camera 121 and the laser sensor may be combined with each other to detect a touch of a sensing object with respect to a 3D stereoscopic image. The photo sensor may be stacked on the display element, which is configured to scan the movement of the sensing object in proximity to the touch screen. More specifically, the photo sensor mounts a photo diode and a transistor (TR) in a row / column and scans contents mounted on the photo sensor by using an electrical signal that varies according to the amount of light applied to the photo diode. That is, the photo sensor calculates coordinates of the sensing object according to the amount of light change, and thus, the position information of the sensing object can be obtained.
디스플레이부(151)는 디스플레이 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 디스플레이 장치(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. The display unit 151 displays (outputs) information processed by the display apparatus 100. For example, the display unit 151 may display execution screen information of an application program driven by the display apparatus 100, or UI (User Interface) or Graphic User Interface (GUI) information according to the execution screen information. .
또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다. 상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다. In addition, the display unit 151 may be configured as a stereoscopic display unit for displaying a stereoscopic image. The stereoscopic display unit may be a three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (glasses-free method), a projection method (holographic method).
도 2는 본 명세서의 일 실시예에 따른 소프트웨어에 의해 입력이 제한되는 영역이 설정된 예시도이다.2 is an exemplary diagram in which an area where an input is restricted by software according to an embodiment of the present specification is set.
도 2를 참조하면, 화면이 각각 좌우로 절반씩 나누어져 있는 것을 확인할 수 있다. 좌측에는 소프트웨어 중 웹 브라우져가 표시되어 있으면, 우측에는 사용자의 필기 입력을 표시해주는 전자칠판 소프트웨어가 표시되어 있다.Referring to FIG. 2, it can be seen that the screens are divided in half each from side to side. The web browser is displayed on the left side of the software, and the electronic blackboard software displaying the user's handwriting input is displayed on the right side.
도 2에 도시된 상황은 사용자가 프레젼테이션을 진행하는 도중에 웹 브라우져를 표시하고, 나머지 부분은 전자칠판으로서 필기입력을 하려는 상황이다. 상기 상황에서 사용자는 웹 브라우져가 표시된 부분을 터치하더라고 필기입력이 되지 않기를 원하고 있다.The situation shown in FIG. 2 is a situation in which the user displays a web browser while the presentation is in progress, and the remaining part is to perform handwriting input as an electronic blackboard. In the above situation, the user does not want to write the handwriting even when the user touches the displayed portion of the web browser.
본 명세서에 따른 제어부(180)는 미리 설정된 소프트웨어가 화면에 표시되었을 때, 상기 센싱부(140)를 통해 사용자의 입력이 수신되어도 상기 소프트웨어가 표시된 영역에 대한 입력을 상기 화면에 표시하지 않도록 제어할 수 있다.When the preset software is displayed on the screen, the controller 180 may control the software not to display an input for the displayed area on the screen even if a user input is received through the sensing unit 140. Can be.
상기 미리 설정된 소프트웨어의 종류는 다양할 수 있으며, 상기 소프트웨어의 종류는 상기 메모리(170)에 저장될 수 있다.The type of the preset software may vary, and the type of software may be stored in the memory 170.
본 명세서는 상기 구성들의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It will be apparent to those skilled in the art that the present specification may be embodied in other specific forms without departing from the spirit and essential features of the components. The above detailed description should not be construed as limiting in all respects but should be considered as illustrative. The scope of the present specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present specification are included in the scope of the present invention.
<부호의 설명><Description of the code>
100: 디스플레이 장치100: display device
110: 통신부110: communication unit
120: 입력부120: input unit
140: 센싱부140: sensing unit
150: 출력부150: output unit
160: 인터페이스부160: interface unit
170: 메모리170: memory
180: 제어부180: control unit
190: 전원공급부190: power supply
발명의 실시를 위한 형태는 전술한 바와 같이, 발명의 실시를 위한 최선의 형태로 상술되었다.Embodiments for carrying out the invention have been described above as best mode for carrying out the invention, as described above.
본 명세서에 따른 기술은 전자 장치 전반에서 이용 가능하다.The technology according to the present specification can be used throughout electronic devices.

Claims (1)

  1. 소프트웨어의 구동에 따른 화면을 디스플레이하는 출력부;An output unit which displays a screen according to the driving of the software;
    상기 화면에 대한 사용자의 입력을 센싱하는 센싱부; 및A sensing unit configured to sense a user input on the screen; And
    상기 센싱부에서 수신된 사용자의 입력에 대응하는 화면을 디스플레이하도록 상기 출력부를 제어하는 제어부;를 포함하는 디스플레이 장치에 있어서,And a control unit which controls the output unit to display a screen corresponding to a user input received by the sensing unit.
    상기 제어부는, 미리 설정된 소프트웨어가 화면에 표시되었을 때, 상기 센싱부를 통해 사용자의 입력이 수신되어도 상기 소프트웨어가 표시된 영역에 대한 입력을 상기 화면에 표시하지 않도록 제어하는 것을 특징으로 하는 디스플레이 장치.The control unit, when the preset software is displayed on the screen, even if a user input is received through the sensing unit, the display device, characterized in that the control does not display the input for the displayed area on the screen.
PCT/KR2015/011311 2015-09-11 2015-10-26 Display device in which input-allowed area is limited according to software displayed on screen, and control method therefor WO2017043690A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150128682A KR20170031332A (en) 2015-09-11 2015-09-11 Display apparatus having a input limited area accoding to the sftware displayed on the screen and control method thereof
KR10-2015-0128682 2015-09-11

Publications (1)

Publication Number Publication Date
WO2017043690A1 true WO2017043690A1 (en) 2017-03-16

Family

ID=58239969

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/011311 WO2017043690A1 (en) 2015-09-11 2015-10-26 Display device in which input-allowed area is limited according to software displayed on screen, and control method therefor

Country Status (2)

Country Link
KR (1) KR20170031332A (en)
WO (1) WO2017043690A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110109567A1 (en) * 2009-11-09 2011-05-12 Kim Hyun-Kook Mobile terminal and displaying device thereof
WO2013180369A1 (en) * 2012-05-28 2013-12-05 Cho Eunhyung Human interface apparatus having input unit for pointer location information and pointer command execution unit
US20140056523A1 (en) * 2012-08-27 2014-02-27 Samsung Electronics Co., Ltd. Mobile apparatus having hand writing function using multi-touch and control method thereof
KR20140098593A (en) * 2013-01-31 2014-08-08 엘지전자 주식회사 Mobile terminal and controlling method thereof
KR20140141305A (en) * 2013-05-31 2014-12-10 삼성전기주식회사 A mobile phone to separate screen and controlling method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110109567A1 (en) * 2009-11-09 2011-05-12 Kim Hyun-Kook Mobile terminal and displaying device thereof
WO2013180369A1 (en) * 2012-05-28 2013-12-05 Cho Eunhyung Human interface apparatus having input unit for pointer location information and pointer command execution unit
US20140056523A1 (en) * 2012-08-27 2014-02-27 Samsung Electronics Co., Ltd. Mobile apparatus having hand writing function using multi-touch and control method thereof
KR20140098593A (en) * 2013-01-31 2014-08-08 엘지전자 주식회사 Mobile terminal and controlling method thereof
KR20140141305A (en) * 2013-05-31 2014-12-10 삼성전기주식회사 A mobile phone to separate screen and controlling method thereof

Also Published As

Publication number Publication date
KR20170031332A (en) 2017-03-21

Similar Documents

Publication Publication Date Title
US20140210748A1 (en) Information processing apparatus, system and method
WO2017090449A1 (en) Tactile sense presentation device and tactile sense presentation method
KR20170126295A (en) Head mounted display device and method for controlling the same
KR20190076656A (en) Mobile terminal
KR102363707B1 (en) An electronic apparatus comprising a force sensor and a method for controlling electronic apparatus thereof
US10114501B2 (en) Wearable electronic device using a touch input and a hovering input and controlling method thereof
EP3933545B1 (en) Method and apparatus for detecting a bending state of electronic device, and storage medium
US20150193028A1 (en) Display device and method of erasing information input with pen
KR20190091126A (en) Mobile terminal and method for controlling the same
WO2017126709A1 (en) Mobile terminal and control method therefor
KR20160051080A (en) Mobile terminal and method of controlling the same
WO2022085940A1 (en) Method and apparatus for controlling display of plurality of objects on wearable display device
GB2517284A (en) Operation input device and input operation processing method
KR102227290B1 (en) Mobile terminal and method for controlling the same
WO2017043691A1 (en) Display apparatus on which gui is displayed through statistical processing of usage patterns and control method therefor
WO2016052801A1 (en) Curved display device enabling spatial touch input
WO2017043690A1 (en) Display device in which input-allowed area is limited according to software displayed on screen, and control method therefor
WO2017043689A1 (en) Display device in which toolbar capable of adjusting transparency is displayed, and control method therefor
KR101397812B1 (en) Input system of touch and drag type in remote
KR102353919B1 (en) Electronic device and method for performing predefined operations in response to pressure of touch
KR102258313B1 (en) Mobile terminal and method for controlling the same
KR102149481B1 (en) Mobile terminal and method for controlling the same
KR20150054451A (en) Set-top box system and Method for providing set-top box remote controller functions
KR102293303B1 (en) Mobile terminal and method for controlling the same
EP4310640A1 (en) Electronic device and control method for electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15903670

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 20.07.2018)

122 Ep: pct application non-entry in european phase

Ref document number: 15903670

Country of ref document: EP

Kind code of ref document: A1