WO2024106676A1 - 터치 패드 활성 영역 및 키보드를 구비하는 전자 기기 - Google Patents

터치 패드 활성 영역 및 키보드를 구비하는 전자 기기 Download PDF

Info

Publication number
WO2024106676A1
WO2024106676A1 PCT/KR2023/010377 KR2023010377W WO2024106676A1 WO 2024106676 A1 WO2024106676 A1 WO 2024106676A1 KR 2023010377 W KR2023010377 W KR 2023010377W WO 2024106676 A1 WO2024106676 A1 WO 2024106676A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
touch pad
light
input
touch
Prior art date
Application number
PCT/KR2023/010377
Other languages
English (en)
French (fr)
Inventor
장인귀
조바울
최지나
김유빈
인정근
박찬욱
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2024106676A1 publication Critical patent/WO2024106676A1/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V33/00Structural combinations of lighting devices with other articles, not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Definitions

  • the present invention relates to an electronic device having a touch pad active area and a keyboard. More specifically, it relates to an electronic device equipped with a display and a keyboard, and having a haptic and touch pad active area to which an optical module is applied.
  • Electronic devices can be divided into mobile/portable terminals and stationary terminals depending on whether they can be moved. Again, electronic devices can be divided into handheld terminals and vehicle mounted terminals depending on whether the user can carry them directly.
  • the functions of electronic devices are diversifying. For example, there are functions such as data and voice communication, photography and video shooting using a camera, voice recording, music file playback through a speaker system, and outputting images or videos to the display.
  • Some terminals add electronic game play functions or perform multimedia player functions.
  • recent mobile terminals can receive multicast signals that provide broadcasting and visual content such as video or television programs.
  • touch interfaces are provided in many electronic devices.
  • PDAs Personal Digital Assistants
  • PMPs Portable Multimedia Players
  • digital cameras Portable game consoles
  • MP3 players etc.
  • portable electronic devices not only portable electronic devices, but also electronic devices implemented as fixed terminals such as Automated Teller Machines (ATM), information retrieval machines, and unmanned ticket machines are equipped with a touch screen as a touch interface.
  • ATM Automated Teller Machines
  • information retrieval machines information retrieval machines
  • unmanned ticket machines are equipped with a touch screen as a touch interface.
  • haptic technology which provides a sense of touch to users as a way to enhance user experience
  • haptic technology which provides a sense of touch to users as a way to enhance user experience
  • haptic technology it is possible to provide users with various types of tactile sensations when they interact with digital objects, ultimately providing feedback that combines vision and tactile senses.
  • Electronic devices equipped with such haptic technology can provide users with a more realistic touch interface than existing electronic devices.
  • Such a touch interface may be provided in an electronic device implemented as a mobile terminal.
  • electronic devices implemented as mobile terminals laptop computers may be provided with a touch pad area in a separate area from the display. There is a need to intuitively provide the user with information as to whether the touch input to this touch pad area has been properly applied.
  • the purpose of this specification is to solve the above-described problems and other problems, and to provide an electronic device having a haptic and touch pad active area to which an optical module is applied.
  • Another purpose of this specification is to provide feedback as to whether a user input has been normally applied through light emission in a specific area by adding a light emitting element to a substrate disposed inside the touch pad area.
  • Another purpose of this specification is to provide feedback on whether a user input has been properly applied through light emission from a specific area of the glass disposed above the touch pad area.
  • Another purpose of this specification is to provide feedback on whether a user input has been properly applied through a haptic element disposed at the bottom of the touch pad area.
  • Another purpose of this specification is to feed back information to the user about the current state of the electronic device according to power on/off and execution of an application program.
  • an electronic device equipped with a keyboard includes: a display configured to display screen information; and a base portion operably coupled to the display, having a keyboard area, and configured to detect touch input.
  • the base unit includes a touch pad area that detects a touch input and includes at least one light source; and a lighting lens portion formed along both sides of the touch pad area. When a touch input is detected in the touch pad area, light may be emitted from at least one side of the touch pad area.
  • the electronic device may further include a processor that controls the color, brightness, or emission area of the emitted light according to the input pattern of the touch input.
  • the processor emits first color light, second color light, or third color light on both sides as a single touch input, double touch input, or triple touch input is input to the touch pad area. It can be controlled to emit light.
  • the processor changes the brightness of the light to the speed of the first tilt when a drag input is applied to the touch pad area and the movement speed of the drag input is less than or equal to the threshold speed, and the movement speed is less than or equal to the threshold speed. If the speed is exceeded, the change in brightness of the light may be changed to a change in speed of a second slope that is greater than the first slope.
  • the processor controls to emit light only on the left side or the right side. You can.
  • the processor may increase the brightness of the light as the detection point approaches the left side or the right side in a state where only the left side or the right side emits light.
  • the processor changes the color of the light when the detection point reaches the left side or the right side or approaches a second threshold distance or less while only the left side or the right side emits light, or
  • the light can be controlled to blink.
  • the processor detects the remaining battery capacity of the electronic device, and when the remaining battery capacity is less than or equal to a first threshold, the processor controls the light to be emitted at a first height in a slit area on the left side or right side of the touch pad area. can do.
  • the processor controls the light to be emitted at a second height in the slit area when the remaining battery charge is less than or equal to a second threshold, and to emit the light at a third height in the slit area when the remaining battery charge is greater than or equal to a third threshold. You can control it.
  • the second height may be set higher than the first height
  • the third height may be set higher than the second height.
  • the processor detects whether a first event in which a file download is completed, a second event in which a new email is received, or a third event in a preset pattern occurs, and at least one of the first to third events occurs.
  • the light can be controlled to emit and blink repeatedly in a slit area on the left or right side of the touch pad area, or an icon can be displayed in an area adjacent to the inside of the slit area.
  • the processor controls the brightness and color of the light emitted from the at least one side of the touch pad area in conjunction with a backlight of the keyboard area or in conjunction with a function key associated with brightness adjustment of the keyboard area. You can.
  • the processor detects that a keyboard input is applied to the keyboard area or a motion input to the keyboard area, and is disposed in the touch pad area so that the touch input is not recognized in the touch pad area upon detection. You can disable the touch recognition chip.
  • the processor may change the color of light emitted in a slit area on the left side or right side of the touch pad area while deactivating the touch recognition chip upon detection.
  • the processor detects whether an input device capable of applying another touch input separately from the touch input that can be applied to the touch pad area is connected, and when the input device is connected, the processor detects whether the touch pad area is connected to the touch pad area.
  • the touch recognition chip placed in can be disabled.
  • the processor detects whether an input device capable of applying another touch input separately from the touch input that can be applied to the touch pad area is connected or disconnected, and whether the input device is connected or connected.
  • the slit area on the left or right side of the touch pad area can be controlled to emit or blink, or the color or brightness of the emitted light can be changed.
  • the processor detects ambient brightness information based on at least one of a camera, an illumination sensor, or the current time, and brightens the slit area on the left side or right side of the touch pad area based on the ambient brightness information. You can control it.
  • the light emission state of one area of the touch pad area may be changed.
  • the light emission state of the other area of the touch pad area may change.
  • the base portion may include glass disposed in an upper area of the touch input area and configured to emit light through a specific area; a transparent layer disposed below the glass to transmit light from the light source; and an opaque layer disposed below the transparent layer to block the light.
  • the light may be emitted from the left side and right side of the touch pad area through the transparent layer corresponding to the slot area of the opaque layer.
  • the light source may be composed of a plurality of light-emitting devices.
  • the light emitting elements may be arranged in one axis direction of the substrate disposed in the touch pad area.
  • the optical lens unit may include a first portion formed to a first thickness in a lower area in a third axis direction of the light emitting device; and a second part formed at an end of the first part to have a second thickness greater than the first thickness and configured to allow light emitted from the light emitting device to pass through.
  • the optical lens unit may include a third part formed at an end of the second part to have a third thickness thicker than the second thickness and configured to radiate the light to a specific area.
  • the inner side of the third portion may be spaced apart from the side of the substrate.
  • the processor may detect a touched region (touched region) by one of the haptic sensors disposed on the substrate and pressure applied to the touched region.
  • the processor may control a haptic motor disposed on the substrate to cause the touched area to vibrate.
  • an electronic device having a haptic and touch pad active area to which an optical module is applied is provided, so that a user can intuitively provide information about the current state of the electronic device when using the electronic device.
  • a light emitting element is added to the substrate disposed inside the touch pad area to provide feedback as to whether the user input has been properly applied through light emission in a specific area, thereby forming a feedback area adjacent to the area where the user input was applied. You can.
  • a structural design and algorithm can be presented that can provide feedback on whether a user input has been properly applied through light emission in a specific area of the glass disposed on the upper part of the touch pad area.
  • an intuitive user interface can be provided to the user so that the touch input does not leave the touch pad area through light emission control in the slit area on the left side and/or right side corresponding to both sides of the touch pad area.
  • a haptic active area where haptic feedback related to touch input is provided can be provided to the user through an intuitive user interface.
  • a structural design and algorithm can be presented that can provide feedback on whether a user input has been properly applied through region-specific control of the light-emitting elements and haptic elements disposed below the touch pad area.
  • information on the current state of the electronic device is fed back to the user according to power on/off and execution of an application program, thereby improving intuitiveness and improving aesthetics by applying a gradation of the light emitting area.
  • FIG. 1A shows an electronic device that may include an integrated interface system with haptic and touch pad active areas to which an optical module according to the invention is applied.
  • 1B is a partially exploded view of an electronic device according to the present specification.
  • FIG. 2 shows a configuration diagram of an exemplary integrated interface system for an electronic device according to the present specification.
  • 3A shows a side perspective view and a rear perspective view of an electronic device having a touch pad area according to the present specification.
  • FIG. 3B shows an exploded perspective view of components constituting the touch pad area of FIG. 3A.
  • Figure 4a shows a stacked structure in which a transparent layer and an opaque layer are disposed on the bottom of the glass according to the present specification.
  • Figure 4b shows a structure in which a substrate and an optical lens structure are disposed below the glass according to the present specification.
  • Figure 5 is an enlarged view of the substrate disposed below the touch pad area according to the present specification and the optical lens unit surrounding the substrate.
  • Figure 6 shows a block diagram of an electronic device having a touch pad active area to which an optical module according to the present specification is applied.
  • Figure 7 shows a block diagram of an electronic device having a haptic and touch pad active area to which an optical module according to the present specification is applied.
  • Figures 8A to 8C show embodiments of controlling the light emission area of the optical lens unit based on the type of user input applied to the electronic device.
  • FIGS. 9A and 9B show embodiments of controlling the brightness of a light emitting area by detecting movement of a user input applied to an electronic device.
  • FIGS. 10A and 10B show embodiments in which the left side or right side of the touch pad area is controlled to emit light depending on the point at which a user input is detected in the touch pad area.
  • FIGS. 11A and 11B show embodiments in which the border area of the touch pad area blinks or changes color when a user input is detected in the border area of the touch pad area.
  • FIGS 12A to 12C show embodiments in which light emission control of the touch pad area is performed according to the remaining battery level of the electronic device.
  • Figures 13a and 13b show embodiments in which light emission control of the touch pad area is performed according to the occurrence of an event.
  • FIGS. 14A and 14B show embodiments in which light emission control of the touch pad area is performed according to the brightness of the surrounding area where the electronic device is being used.
  • Figure 15 shows a flowchart of a control method of an electronic device having a haptic and touch pad active area to which an optical module according to the present specification is applied.
  • Figure 16 shows a flowchart of a method for controlling an electronic device based on event detection according to the present specification.
  • Figure 17 shows a flowchart of a method of controlling an electronic device according to execution input and execution status of an application program according to the present specification.
  • Electronic devices described in this specification include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation, and slate PCs.
  • PDAs personal digital assistants
  • PMPs portable multimedia players
  • slate PCs slate PCs.
  • tablet PC ultrabook
  • wearable device e.g., smartwatch
  • glass-type terminal smart glass
  • HMD head mounted display
  • Embodiments described herein generally relate to portable electronic devices (e.g., portable computers, notebook computers, laptops) having the upper portion of the enclosure formed from a dielectric material such as plastic, ceramic, glass, composites, or combinations thereof. computers, etc.).
  • a component formed from a dielectric material can define a portion of the interior volume of an enclosure for housing various components of a portable device and can also define the input surface of an integrated interface system that allows for a wide variety of touch and keyboard inputs.
  • the integrated interface system can act as a trackpad, a keyboard, or provide both trackpad and keyboard functions
  • the dielectric component can define all or part of the keyboard and trackpad areas.
  • an integrated interface system may be integrated with multiple sensors, including touch and force sensors, that can detect various types of inputs applied to various regions of the input surface.
  • the touch and/or force sensors are a unitary structure configured to detect key inputs applied to a keyboard area (which may include mechanical and/or virtual keys) as well as touch inputs applied to a non-keyboard area. is formed by
  • the integrated interface system can also be used to detect gestures and multi-touch inputs applied to the keycaps of a mechanical keyboard, allowing the keycaps and keyboard area to function as a trackpad. can do.
  • the integrated interface system may also provide various types of output functionality, including visual outputs, haptic outputs, etc.
  • images of affordances e.g., keys, keyboards, buttons, sliders, dials, etc.
  • the top case of the integrated interface system may be configured to move or vibrate to provide tactile or haptic outputs in response to detection of touch or force inputs. Therefore, an integrated interface system can provide comprehensive input and output functions through integrated input/output surfaces.
  • the components defining the input surface of the integrated interface system may be formed from a continuous and/or seamless sheet of dielectric material such as glass, plastic, or ceramic (e.g., the component may be a single glass member). may be).
  • Sheets may have properties that enable the various input and output functions described herein. For example, a sheet can be strong, have high resistance to scratching, and provide a surface finish that has a superior appearance and/or feel compared to other materials or components.
  • the sheet may also be dielectric and/or substantially non-conductive, allowing touch and force inputs to be detected through the sheet and electromagnetic waves and/or fields (e.g., radio frequency signals, induced power, guided signals, and other wireless communications or electromagnetic energy transfer) to pass without substantial attenuation.
  • the sheets may be continuous or seamless, which can help prevent the entry of liquids or other foreign debris.
  • the sheet may also be light transmissive, allowing images or light to be seen through it.
  • light transparency can be used to refer to being transparent, translucent, or otherwise allowing light to propagate through it.
  • transparent materials or components introduce some diffusion, lensing effects, distortions, etc. (e.g., due to surface textures), while still allowing objects or images to be visible through the materials or components. can be allowed to be seen through them, and such deviations are understood to be within the scope of the meaning of transparency.
  • transparent materials can be coated, painted, or otherwise treated to create non-transparent (eg, opaque) components; In such cases, even though the material may be part of an opaque component, the material may still be referred to as transparent.
  • Translucent components can be formed by creating a textured or frosted surface on an otherwise transparent material (eg, clear glass). Translucent materials, such as translucent polymers, translucent ceramics, etc., can also be used.
  • FIG. 1A shows an electronic device that may include an integrated interface system with haptic and touch pad active areas to which an optical module according to the invention is applied.
  • the base portion 104 of the electronic device 100 may include a top case 112 that defines a portion of the enclosure and forms or is part of the integrated interface system described herein.
  • the electronic device 100 includes a display portion 102 and (e.g., such that the display portion 102 can be rotated, pivoted, bent, articulated, or otherwise moved relative to the base portion 104). It may be a portable computer, also known as a notebook or laptop computer, or similar, having a base portion 104 flexibly or pivotally coupled to a display portion 102.
  • Display portion 102 includes a display, also referred to as a primary display, that provides a primary means of conveying visual information to a user, such as by displaying graphical user interfaces.
  • Base portion 104 receives various types of user inputs, such as keyboard inputs (e.g., typing), touch inputs (e.g., gestures, multi-touch inputs, swipes, taps, etc.) It is configured to do so.
  • the base portion 104 may also provide outputs for conveying information to the user using, for example, indicator lights, haptic output devices, displays mounted on the base portion 104, etc.
  • providing various types of input and output through base portion 104 is facilitated or enabled by using a continuous top surface on base portion 104, as described herein. .
  • the display portion 102 and the base portion 104 may be coupled to each other such that they can be positioned in open and closed positions. In the open position, a user may be able to view information on the display portion 102 while simultaneously providing inputs to the electronic device 100 through the base portion 104 . In the closed position, the display portion 102 and the base portion 104 are folded relative to each other. More specifically, the display portion 102 and the base portion 104 are hinged together (e.g., via a pivot mechanism or hinge 103) to form a clamshell device that can be moved between an open and closed configuration. can be combined
  • Information and/or data may be transferred between display portion 102 and base portion 104.
  • display data such as data or signals that cause the display portion 102 to display images, user interfaces, application data, etc.
  • input data may be transmitted from display portion 102 to base portion 104.
  • Input data may include data regarding touch inputs applied to the touchscreen within display portion 102, sensor data (e.g., from sensors within display portion 102, such as light sensors, accelerometers, etc.), ( camera data (for example, from a camera within display portion 102), etc.
  • Electronic device 100 may include any suitable communication system for transferring data between display portion 102 and base portion 104, such as wired or wireless communication systems.
  • Wireless communication systems may include a first transmitter/receiver in display portion 102 and a second transmitter/receiver in base portion 104 in communication with the first transmitter/receiver.
  • the first and second transmitters/receivers may communicate in any suitable manner, using any suitable radio frequency or frequencies (e.g., 2.4 GHz, 60 GHz), communication protocol(s), etc.
  • the first and second transmitters/receivers may also communicate via an optical communication link.
  • Power may also be transferred between base portion 104 and display portion 102.
  • base portion 104 and display portion 102 may include batteries or other power sources. Power can be transferred from one part to another as needed based on the power demands and power supplies of each part.
  • base portion 104 and display portion 102 may include batteries as well as components that require power. Power can be distributed from any battery to any circuit or component requiring power, regardless of the location of the battery or circuit or component.
  • Power may be transferred between base portion 104 and display portion 102 using any suitable components and techniques. For example, a wired or physical power connection may couple display portion 102 to base portion 104. As another example, power may be transferred wirelessly, such as through inductive or capacitive power transfer systems.
  • base portion 104 may include top case 112.
  • Top case 112 may define or be part of an integrated interface system of electronic device 100.
  • top case 112 may define a top outer surface of base portion 104 and may be configured to receive touch inputs, force inputs, keyboard inputs, etc.
  • the entire top surface (or substantially all of the top surface) of top case 112 may be touch and/or force sensitive, with substantially any surface along its surface including the keyboard area as well as surrounding areas. Touch inputs can be detected in places. In cases where the entire top case 112 is touch and force sensitive, many types of inputs are enabled through the top case 112.
  • touch inputs including cursor-control gestures
  • touch inputs may be applied anywhere on the top case containing keys of a virtual or mechanical keyboard.
  • the addition of force sensing across the keyboard area as well as non-keyboard areas may allow the device to distinguish between a finger resting on a key and a finger actually tapping or pressing a key. This may facilitate detection of typing inputs when multiple fingers are placed on the virtual keyboard.
  • top case 112 may be configured to provide outputs to a user.
  • top case 112 may have a display that provides detectable outputs through top case 112 (e.g., at any or substantially any location along the top surface of top case 112). may include or be integrated with fields, light sources, haptic actuators, etc. More specifically, the display may be configured to generate an image on the top case 112, and the haptic actuator may be configured to move the top case 112 in a manner detectable by a user contacting the top case 112. You can.
  • the composition and configuration of top case 112 may facilitate and integrate these (and other) input and output functions.
  • a continuous non-conductive top case 112 (e.g., formed from a dielectric such as glass, plastic, ceramic, composites, or a combination of materials) allows inputs to be detected through the top case 112. While doing so, it can also provide an effective platform for haptic and visual outputs.
  • a dielectric such as glass, plastic, ceramic, composites, or a combination of materials
  • Top case 112 may define or include input areas such as keyboard area 114 and touch pad area 116.
  • Keyboard area 114 may correspond to or include a virtual keyboard or mechanical keyboard.
  • Top case 112 may define a continuous top surface of base portion 104, which may be a top exterior surface of base portion 104.
  • a continuous top surface (and more generally a continuous top case) may refer to a surface or member that does not have any seams, openings, through-holes, or other discontinuities.
  • a continuous top case or continuous top surface includes seams, openings, and through-holes within a portion of top case 112 that forms the outer top surface of base portion 104. , or there may be no other discontinuities. More specifically, the top case 112 may not have openings for keys, keyboards, trackpads, buttons, etc. Top case 112 may extend substantially to the outer edges of base portion 104.
  • the top case 112 can prevent or reduce the possibility of liquid, dust, other contaminants or debris entering the base portion 104 through the top surface of the top case 112. Additionally, the continuous surface provides a desirable aesthetic and touch-sensitive haptic and visual output surface that can utilize the entire exposed top surface of top case 112.
  • Top case 112 may be formed from or include a light-transmissive material such as glass, plastic, or light-transmissive ceramic.
  • top case 112 is a single piece, such as a single glass piece, a single plastic piece, or a single piece formed from or comprising any other suitable material.
  • top case 112 may be formed from multiple members, either of the same material or different materials, bonded, glued, bonded, or otherwise coupled together to define top case 112. You can.
  • top case 112 may be masked to form opaque areas.
  • Masking may be performed by any means, such as depositing an ink, dye, film, or otherwise placing an opaque material beneath the top case 112 (and over any other components or layers that are intended to remain hidden or blocked). It can be formed using suitable techniques.
  • the masking or other opaque material or layer can be any desired color.
  • top case 112 may be light-transmissive (eg, transparent), there may be fewer restrictions on achievable colors than with conventional devices. For example, certain colors, finishes, or other optical treatments may be difficult or impossible to achieve in uncoated opaque plastic material.
  • a light-transmissive or transparent top case 112 By using a light-transmissive or transparent top case 112, it may be possible to achieve devices with more available colors and/or finishes (e.g., mirror finishes, metal flake finishes, etc.) . In some examples, images, photos, paintings, or other graphic content may be viewed through the light-transmissive top case 112.
  • finishes e.g., mirror finishes, metal flake finishes, etc.
  • Touch pad area 116 may be configured to detect touch-based input and/or force-based input, and may include keyboard area 114, a trackpad area, a virtual key area, optional sidewalls of the top case, or the top. It may be or include any portion of top case 112, including substantially the entire top case 112, including any other portion of case 112. In some examples, substantially the entire top case 112 may define a touch-sensitive input area from edge to edge. In this manner, and as discussed herein, touch or trackpad inputs such as clicks, taps, gestures (e.g., swiping, pinching), and multi-touch inputs may occur within keyboard area 114. Can be detected on any part of the top case 112, including.
  • keyboard area 114 includes mechanical key mechanisms
  • touch pad area 116 allows touch inputs (e.g., gestures) applied directly to the keycaps rather than to top case 112. It can be detected.
  • a “key” refers to a mechanical key, a virtual key (e.g., a key displayed by an underlying display), or a key region (e.g., defined by a mask layer on the top case). , or any other suitable type of key described herein, as well as any associated mechanisms, keycaps, or support structures.
  • the electronic device 100 may also include or define output zones, such as visual-output zones and haptic-output zones.
  • Haptic-output zones include areas of the top case 112 that can be moved or otherwise induce tactile sensations to the user.
  • Visual-output zones include areas in which visual outputs are generated (e.g., to display virtual and/or dynamic keys), such as areas associated with lights or displays. Exemplary visual- and haptic-output zones as well as components for generating visual and haptic outputs are described herein.
  • electronic device 100 may include a top case that defines an integrated interface system that provides various input and output functions including keyboard inputs, touch inputs, visual outputs, and haptic outputs.
  • FIG. 1B is a partially exploded view of an electronic device according to the present specification.
  • the electronic device 100 forms part of an enclosure defining the base portion 104, the top of which can also act as an input surface for an integrated interface system for receiving user input. It includes a top case 112 that also defines an external surface.
  • base portion 104 may be pivotally coupled to display portion 102 to form a foldable or clamshell type notebook computer.
  • display portion 102 includes a display 204 coupled to display housing 108 .
  • Display 204 includes liquid crystal display (LCD) components, light source(s) (e.g., light emitting diodes (LEDs), organic LEDs (OLEDs)), filter layers, polarizers, light diffusers, covers (e.g. (e.g., glass or plastic cover sheets), etc. More specifically, in some examples, display 204 is disposed above a display stack (e.g., including an LCD, polarizing films, light diffusing films, and/or back or side light) and displays and a cover forming the external user-facing surface of 204. In other examples, display 204 includes a display stack as described above, but does not include a separate cover.
  • Display portion 102 may also include other components, such as structural components that support any of the components described above, batteries, wired or wireless communication components, processors, memory, etc.
  • Display portion 102 may include mechanisms 103 or portions thereof coupled to or integrally formed with display portion 102 .
  • display housing 108 may include hinges (or portions thereof) that are welded, soldered, glued, or otherwise attached to display housing 108 .
  • Display 204 and top case 112 include mechanisms 103 while allowing display 204 and top case 112 to define substantially the entire user interface surfaces of display portion 102 and base portion 104.
  • Base portion 104 may include bottom case 110 and top case 112 described above, which together define the interior volume of base portion 104.
  • Base portion 104 also has components 208 within its interior volume, such as processors, memory devices, circuit boards, input/output devices, haptic actuators, wired and/or wireless communication devices, communication ports. , disk drives, etc.
  • top case 112 prevents or limits the entry of liquid, debris, or other contaminants into the interior volume, thereby reducing the likelihood of damage to components 208 (e.g., It may be a continuous surface (without any holes or openings within the top surface).
  • the lower case 110 may include a lower member 111 and one or more side walls 113-1 to 113-4.
  • bottom case 110 has one, two, three, or four sidewalls. If the bottom case has three side walls, the side wall 113-3 may be omitted. If the bottom case has two side walls, the side walls 113-2 and 113-4 may be omitted. If the bottom case has one side wall, the only side wall may be side wall 113-1. Of course, other configurations of the side walls are also possible.
  • Bottom case 110 may be formed from or include any suitable material.
  • bottom case 110 may be formed from metal (e.g., steel, aluminum, titanium), glass, plastic, ceramic, composite, or any other suitable material or a combination of these or other materials. It can be included.
  • bottom case 110 is a single (eg, monolithic) component or member, such as a single sheet of glass, metal, plastic, etc.
  • bottom case 110 may be a single component formed from a single piece of metal and formed by stamping, drawing, machining, hydroforming, molding, or any other suitable process. You can. If bottom case 110 is a single component, bottom member 111 and side wall(s) 113 may be a one-piece structure (eg, a monolithic component).
  • Top case 112 may be coupled to bottom case 110 in any suitable manner.
  • Various examples of coupling between top case 112 and bottom case 110, as well as various configurations and shapes of top and bottom cases 112, 110 are described herein.
  • example configurations of display 204 and display housing 108 (and techniques for combining them) are described herein.
  • FIG. 2 shows a configuration diagram of an exemplary integrated interface system for an electronic device according to the present specification.
  • the functions of integrated interface system 118 are performed by any of the components and structures described herein, including touch sensors, force sensors, haptic actuators, displays, mechanical keys, light sources, etc. may be, examples of which are described herein.
  • the integrated interface system 118 may be configured to include a keyboard input module 120, a touch input module 121, a force input module 122, and an input and/or sensor module 123. .
  • the integrated interface system 118 may be configured to further include a display module 130, a haptic module 131, and a lighting module 132.
  • Processor 180 may be operably coupled with each module comprising integrated interface system 118.
  • Processor 180 may be operably coupled to keyboard input module 120, touch input module 121, force input module 122, and input and/or sensor module 123.
  • the processor 180 may be operably coupled to the display module 130, the haptic module 131, and the lighting module 132.
  • Integrated interface system 118 provides keyboard input module 120.
  • Keyboard input module 120 may include key-based or similar input including inputs typically provided via a keyboard (e.g., alphanumerical and/or symbolic character input, function key selections, arrow key selections). Includes detection of A device (e.g., electronic device 100) may use any suitable input mechanism(s), such as mechanical keys, touch sensors, force sensors, display, etc., to perform keyboard input module 120. there is. If the device includes mechanical keys or key mechanisms, keyboard input module 120 includes detection of physical movement of the key mechanisms. If the device includes virtual keys, keyboard input module 120 may include detection of touch or force inputs on the virtual keys. In either example, keyboard input module 120 may detect keyboard inputs via an input surface (such as top case 112 in FIG. 1A).
  • Integrated interface system 118 also provides a touch input module 121.
  • Touch input module 121 includes detection of touch-based inputs such as clicks, taps, gestures (e.g., swiping, pinching), multi-touch inputs, etc. These inputs may be similar to or include inputs conventionally detected by a trackpad. For example, such inputs may include gestural inputs that may be used to control a cursor or elements of a graphical user interface on the device's display.
  • a device e.g., electronic device 100
  • Such mechanisms may be associated with or cover substantially the entire user-facing portion of top case 112.
  • the touch input module 121 may be located on a portion of the top case (e.g., the mechanical or virtual keyboard, the trackpad area below the mechanical or virtual keyboard, and/or adjacent the lateral sides of the mechanical or virtual keyboard). Touch inputs applied anywhere on the upper case 112 (including ) can be detected.
  • Touch input module 121 may include detection of touch inputs received in a keyboard area of top case 112 (e.g., keyboard area 114 in FIG. 1A).
  • the keyboard zone may correspond to a keyless surface of the virtual keyboard, as described above, or it may correspond to a zone of the top case 112 containing mechanical keys.
  • touch input module 121 may include detection of touch inputs applied to the keyboard area, such as clicks, taps, gestures (e.g., swiping, pinching), and multi-touch inputs. there is. If mechanical keys or key mechanisms are used, touch input module 121 may include detection of touch inputs through the mechanical keys or mechanisms.
  • Touch input module 121 may also include detection of touch inputs applied to a non-key area of top case 112 .
  • any area of top case 112 that does not correspond to a keyboard area (non-keyboard area) may be configured to receive touch inputs, and the device may also detect touch inputs in these areas. .
  • Integrated interface system 118 also provides a force input module 122 that includes detection of force inputs and/or force component of a touch input.
  • a device e.g., electronic device 100
  • Force input module 122 may include detection of force inputs at any location on top case 112 .
  • substantially the entire top surface of top case 112 may be configured to receive and/or detect force inputs applied to substantially any location of the top surface of top case 112 .
  • top case 112 includes a dielectric surface or is formed from a dielectric sheet (e.g., glass, plastic, ceramic, etc.), the dielectric and/or mechanical properties (or other properties) of the dielectric material. may facilitate detection of force inputs at any suitable location on the top case (e.g., in the keyboard area 114, a non-keyboard area, or any other suitable location).
  • Integrated interface system 118 also provides a display module 130 that includes output of images or other visual information through top case 112.
  • a device e.g., electronic device 100
  • Displays may be used to generate images of keys (or other affordances) for keyboard area 114, for example.
  • Displays may also be used to define input zones, buttons, or other affordances or other graphical objects (e.g., to indicate the location and/or function of input) anywhere on the top case 112.
  • Top case 112 may be formed of glass or other transparent material. Accordingly, the top case 112 can operate as a screen even on opaque surfaces in an electronic device, such as a portion bordering a keyboard or a trackpad.
  • displays may be integrated with the top case 112 .
  • Integrated interface system 118 also provides a haptic module 131 that includes generation of haptic or tactile outputs in top case 112.
  • a device eg, electronic device 100
  • Haptic actuators may be coupled to top case 112, or otherwise cause top case 112 to be physically moved to generate haptic outputs in top case 112.
  • Haptic outputs may be used for various purposes, such as to indicate that a touch input (e.g., key selection or trackpad selection) has been detected by electronic device 100.
  • Integrated interface system 118 also provides an illumination module 132 that includes illumination of areas or elements of top case 112.
  • a device eg, electronic device 100
  • a glass, plastic, or otherwise light-transmissive top case e.g., top case 112
  • a glass or light-transmissive (e.g., transparent or translucent) top case 112 can direct light from a light source to other areas of the electronic device 100, such as under or around keycaps or other key mechanisms. It can act as a light guide to direct light.
  • top case 112 is completely transparent or has transparent portions, the transparent portions allow images from underlying displays to pass through top case 112, which is not possible with opaque top cases. won't Lighting module 132 may also provide backlighting or other lighting for the displays.
  • Integrated interface system 118 also provides one or more additional input and/or sensor modules 123.
  • a device e.g., electronic device 100
  • may receive inputs e.g., from a user or another computer, device, system, network, etc.
  • Any suitable components may be used to detect the environment, people or objects interacting with (or near the device), etc.
  • devices may include accelerometers, temperature sensors, position/orientation sensors, biometric sensors (e.g., fingerprint sensors, venous wave, blood-oxygen sensors, blood sugar sensors, etc.), eye-tracking, etc. It may include sensors, retinal scanners, humidity sensors, buttons, switches, lid-closure sensors, etc.
  • sensors and/or input devices may be located in any suitable part of the device or in any suitable location within the device.
  • sensors and/or input devices may be located in the display portion 102 or the base portion 104 (or it may include components in both the display portion 102 and the base portion 104 there is).
  • Input and/or sensor module 123 may receive commands, data, information, content (e.g., audio, video, images, web data, etc.) from other devices or systems to provide input and/or sensing functionality. networks and/or communication systems may be used to receive pages), etc.
  • touch interfaces are currently provided in many electronic devices.
  • PDAs Personal Digital Assistants
  • PMPs Portable Multimedia Players
  • digital cameras Portable game consoles
  • MP3 players etc.
  • portable electronic devices but also electronic devices implemented as fixed terminals such as Automated Teller Machines (ATM), information retrieval machines, and unmanned ticket machines are equipped with a touch screen as a touch interface.
  • ATM Automated Teller Machines
  • information retrieval machines information retrieval machines
  • unmanned ticket machines are equipped with a touch screen as a touch interface.
  • haptic technology which provides a sense of touch to users as a way to enhance user experience
  • haptic technology which provides a sense of touch to users as a way to enhance user experience
  • haptic technology it is possible to provide users with various types of tactile sensations when they interact with digital objects, ultimately providing feedback that combines vision and tactile senses.
  • Electronic devices equipped with such haptic technology can provide users with a more realistic touch interface than existing electronic devices.
  • Such a touch interface may be provided in an electronic device implemented as a mobile terminal.
  • electronic devices implemented as mobile terminals laptop computers may be provided with a touch pad area in a separate area from the display. There is a need to intuitively provide the user with information as to whether the touch input to this touch pad area has been properly applied.
  • the purpose of this specification is to solve the above-mentioned problems and other problems, and to provide an electronic device having a haptic and touch pad active area to which an optical module is applied. Another purpose of this specification is to provide feedback as to whether a user input has been normally applied through light emission in a specific area by adding a light emitting element to a substrate disposed inside the touch pad area. Another purpose of this specification is to provide feedback on whether a user input has been properly applied through light emission from a specific area of the glass disposed above the touch pad area. Another purpose of this specification is to provide feedback on whether a user input has been properly applied through a haptic element disposed at the bottom of the touch pad area.
  • FIG. 3a shows a side perspective view and a back perspective view of an electronic device having a touch pad area according to the present disclosure.
  • FIG. 3B shows an exploded perspective view of components constituting the touch pad area of FIG. 3A.
  • Figure 3a(a) shows a side perspective view of the electronic device 100 having a touch pad area according to the present specification.
  • Figure 3a(b) shows a rear perspective view of the electronic device 100 having a touch pad area according to the present specification.
  • the base portion 104 of the electronic device 100 may be configured to include an upper case 112 and a lower case 110.
  • the upper case 112 and the lower case 110 may be implemented as separate cases, and the upper case 112 and the lower case 110 may be configured to be combined.
  • the base portion 104 including the upper case 112 and the lower case 110 may be implemented as a single body (unibody).
  • the user input area of the base unit 104 may be configured to include a keyboard area 114 and a touch pad area 116.
  • FIG. 3B(a) is a front view of the glass 310, the touch pad area 116, and the lighting lens portion 320 sequentially stacked on the lower region of the base portion 104 of FIG. 3A(a). represents.
  • FIG. 3b(b) shows a rear view of the glass 310, the touch pad area 116, and the optical lens unit 320 sequentially stacked on the lower area of the base portion 104 of FIG. 3a(a).
  • the glass 310 may be made of a material that has transparent front and back surfaces.
  • the glass 310 may be formed to have a first length L1 and a first width W1 to cover the entire lower area of the base portion 104.
  • the touch pad area 116 may be configured with a second length L2 and a second width W2 to cover a portion of the lower area.
  • the touch pad area 116 is an area that can actually be touched by the user and may be referred to as a touch pad active area.
  • the substrate 340 may be disposed on the back of the touch pad area 116, and the front may be made of a touchable material. Accordingly, the touch pad area 116 may be implemented as a touch pad module including components capable of detecting touch input and a substrate 340 on which the components are disposed.
  • the second length L2 of the touch pad area 116 may be shorter than the first length L1.
  • the second width W2 of the touch pad area 116 may also be shorter than the first width W1. Accordingly, only a portion of the lower area of the base portion 104 may be formed as a touch pad (active) area 116 capable of touch input.
  • the optical lens unit 320 may be formed in a rectangular shape with an empty interior to surround the touch pad area 116.
  • the optical lens unit 320 may be formed as an open area (OA) with an empty interior.
  • the outer portion of the optical lens unit 320 may be formed to have a third length (L3) and a third width (W3).
  • the inner part of the optical lens unit 320 may be configured with a second length L2 and a second width W2 so that the touch pad area 116 can be inserted and coupled through the open area OA.
  • the inner part of the optical lens unit 320 is not limited to this and may be formed to be smaller than the second length L2 and the second width W2 in consideration of tolerances when combined.
  • the electronic device 100 may be configured to include a display 130 and a base portion (104).
  • the display 130 may be configured to display screen information.
  • Base portion 104 may be operably coupled to display 130 .
  • the base portion 104 may include a keyboard area 114 and a touch pad area 116.
  • the touch pad area 116 is an area where a user's touch input is detected and may be referred to as a touch input area.
  • the base portion 104 may be configured to include glass 310, a touch pad area 116, and a lighting lens portion 320.
  • the laminated structure of the base portion according to the present specification may be configured to emit light emitted from the light emitting elements.
  • Figure 4a shows a laminated structure in which a transparent layer and an opaque layer are disposed on the bottom of the glass according to the present disclosure.
  • Figure 4b shows a structure in which a substrate and an optical lens structure are disposed below the glass according to the present specification.
  • the base portion 104 may further include a transparent layer 311 and an opaque layer 312 formed below the glass 310 .
  • the transparent layer 311 may be disposed below the glass 310 to transmit light from the light source 330.
  • the transparent layer 311 may be attached to the back of the glass 310.
  • the opaque layer 312 may be disposed in a lower area of the transparent layer 311 to block light from the light source 330.
  • the transparent layer 311 may be printed on the back of the glass 310 and may be implemented in a transparent color, for example, white.
  • the opaque layer 312 may be printed on the transparent layer 311 and may be implemented in a non-transparent color, for example, black. Since the transparent layer 311 and the opaque layer 312 are sequentially attached to the back of the glass 310, the transparent layer 311 and the opaque layer 312 may be referred to as the first layer and the second layer, respectively. there is.
  • Light from the light source 330 may be emitted on a specific region 310R of the glass 310 in FIG. 4B through the transparent layer 311 corresponding to the slot region 312s of the opaque layer 312. .
  • the opaque layer 312 may be disposed on both sides of the lower part of the transparent layer 311. Accordingly, light from the light source 330 may be blocked in both areas where the opaque layer 312 is disposed. On the other hand, light from the light source may be transmitted through the central slot area 312s where the opaque layer 312 is not disposed.
  • the front surface of the glass 310 may be formed of a transparent material.
  • a substrate 340 may be disposed on the back of the glass 310 .
  • the optical lens unit 320 may be composed of a plurality of parts having different thicknesses.
  • the optical lens unit 320 may be configured to include a first part 321 and a second part 322.
  • the optical lens unit 320 may be configured to include a first part 321 to a third part 323.
  • the first portion 321 may be formed to have a first thickness t1 in a lower area in the third axis direction of the light emitting device 330.
  • the light emitting device 330 may be disposed adjacent to one end of the first portion 321.
  • the light emitting device 330 may emit light toward one end of the second part 322 connected to the other end of the first part 321.
  • the other end of the first part 321 may be connected to one end of the second part 322.
  • One end of the second portion 322 may form an inner side of the second portion 322 .
  • the second part 322 may be formed to have a second thickness t2 thicker than the first thickness t1 of the first part 321 .
  • the second portion 322 may be configured to allow light emitted from the light emitting device 330 to pass through.
  • a light guide structure in which light emitted from the light emitting device 330 is guided and concentrated through the optical lens unit 320 formed in a step structure having a first thickness t1 and a second thickness t2 may be presented. .
  • the other end of the second part 322 may be connected to one end of the third part 323.
  • the third part 323 may be formed at an end of the second part 323 to have a third thickness t3 thicker than the second thickness t2.
  • the third portion 323 may be configured to radiate light emitted from the light emitting device 330 to a specific area 310R.
  • the specific area 310R through which light is emitted may correspond to the slot area 312s of FIG. 4A through which light can be transmitted, but is not limited thereto and may be changed depending on application.
  • Light passing horizontally through the second part 322 may be refracted upward through the third part 323.
  • a refractive element may be disposed in the third portion 323 to refract light of a specific wavelength.
  • light may be scattered and refracted upward by the step structure formed in the third portion 323 even without a refractive element.
  • a light guide structure in which light emitted from the light emitting device 330 is guided and concentrated through the optical lens unit 320 formed in a step structure having a first thickness (t1) to a third thickness (t3) may be presented. .
  • One end of the third part 323 may form the inner side of the third part 323.
  • the inner side of the third portion 323 may be spaced apart to face the side of the substrate 340 .
  • the other end of the third part 323 may form the outer side of the third part 323.
  • a reflective sheet is attached to the outer side of the third portion 323 so that light emitted from the light emitting device 330 is reflected and refracted upward. Accordingly, light radiating along the side direction of the substrate 340 is radiated to the upper region of the optical lens unit 320, so that the specific region 310R can emit light.
  • the glass 310 may be placed in the touch input area 116 .
  • the glass 310 may be disposed in an upper area of the touch input area 116 to cover the touch input area 116 .
  • Glass 310 may be formed in the entire lower area below the keyboard area 114, including the touch pad area 116.
  • the touch pad area 116 may be arranged in the lower area of the glass 310 and configured to recognize a touch input.
  • the touch pad area 116 may include at least one light source 330.
  • Figure 5 is an enlarged view of the substrate disposed below the touch pad area according to the present specification and the optical lens unit surrounding the substrate.
  • a touch input area 116 may be formed in the center area of the glass 310 .
  • the optical lens unit 320 may be formed to surround the touch input area 116.
  • the optical lens unit 320 may be formed along the side area of the touch pad area 116.
  • the transparent layer 311 may be disposed below the glass 310 to transmit light from the light source 330.
  • the transparent layer 311 may be attached to the back of the glass 310.
  • the opaque layer 312 may be disposed in a lower area of the transparent layer 311 to block light from the light source 330.
  • the opaque layer 312 may be disposed on both sides of the lower part of the transparent layer 311. Accordingly, light from the light source 330 may be blocked in both areas where the opaque layer 312 is disposed. On the other hand, light from the light source 330 may be transmitted through the central slot area 312s where the opaque layer 312 is not disposed.
  • the optical lens unit 320 may be configured to include an upper area 320a, a lower area 320b, one side area 320c, and the other side area 320d.
  • the upper region 320a of the optical lens unit 320 may be coupled to the upper portion of the substrate 340.
  • the lower region 320b of the optical lens unit 320 may be coupled to the lower portion of the substrate 340.
  • One side area 320c of the optical lens unit 320 may be combined with one end of the substrate 340.
  • the other side area 320d of the optical lens unit 320 may be coupled to the other side end of the substrate 340.
  • the upper area 320a may be connected to one side area 320c and the other side area 320d.
  • the upper area 320a may be formed integrally with one side area 320c and the other side area 320d.
  • the lower area 320b may be connected to one side area 320c and the other side area 320d.
  • the lower area 320b may be formed integrally with one side area 320c and the other side area 320d.
  • At least one light source 330 may be configured to include a plurality of light emitting elements 331 to 336.
  • the light emitting elements 331 to 336 are disposed in the upper, lower, and central regions of the substrate 340 disposed in the touch pad area 116 on one side in the first axis direction and in the second axis direction on the other side. It can be.
  • the number of light emitting elements is not limited to six shown in FIG. 5 and can be changed depending on application.
  • the first and second light emitting elements 331 and 332 will be arranged in the upper left area and the lower left area, and the third and fourth light emitting elements 333 and 334 will be placed in the upper right area and the lower right area. You can.
  • Fifth and sixth light emitting elements 335 and 336 may be further disposed in the left central area and the right central area.
  • the first to fourth light emitting devices 331 to 334 are disposed, and light emitting devices (for example, fifth and sixth light emitting devices) are further disposed in the upper and lower regions of the substrate 340. It may be possible.
  • the haptic sensors 350 may be configured to include a first haptic sensor 351 to a fourth haptic sensor 354 disposed on the upper left, lower left, upper right, and lower right of the substrate 340.
  • the number of haptic sensors 350 is not limited to this and can be changed depending on application.
  • FIG. 6 shows a block diagram of an electronic device having a touch pad active area to which an optical module according to the present disclosure is applied.
  • the electronic device 100 may be configured to include a display 130, a base unit 104, and a processor 180.
  • the electronic device 100 may be configured to include a keyboard area 114, a touch pad area 116, and an optical lens unit 320 of the base unit 104.
  • the processor 180 may be operably coupled to the keyboard area 114, the touch pad area 116, and the optical lens unit 320. Accordingly, the processor 180 may detect a user input in the keyboard area 114 or the touch pad area 116.
  • the processor 180 may control the light emission of the optical lens unit 320 according to the user input in the keyboard area 114 or the touch pad area 116 and/or the state of the application program.
  • the base portion 104 may include a keyboard area 114 and a touch pad area 116.
  • the base portion 104 may be configured to include glass 310, a touch pad area 116, and a lighting lens portion (320).
  • the base portion 104 may further include a transparent layer 311 and an opaque layer 312 formed below the glass 310.
  • the processor 180 may detect that the power button provided on the base unit 104 is pressed or a touch input is applied to the touch pad area 116.
  • the processor 180 may be configured to control the light source 330 by detecting that the power button is pressed or a touch input is applied to the touch pad area 116.
  • the processor 180 can control the light source 330 to emit light through a specific area 310R of the glass 310.
  • the processor 180 may control the haptic sensors and haptic motors disposed on the substrate 340 when the touch pad area 116 is pressed.
  • Figure 7 shows a block diagram of an electronic device having haptic and touch pad active areas to which an optical module according to the present disclosure is applied.
  • the electronic device 100 may be configured to include a display 130, a base unit 104, and a processor 180.
  • the electronic device 100 may be configured to include a keyboard area 114, a touch pad area 116, and an optical lens unit 320 of the base unit 104.
  • the processor 180 may be operably coupled to the keyboard area 114, the touch pad area 116, and the optical lens unit 320.
  • a plurality of light emitting elements 331 to 336 may be disposed in the touch pad area 116 adjacent to the optical lens unit 320.
  • the first and second light emitting devices 331 and 332 may be disposed in the upper left area and lower left area of the touch pad area 116, as shown in FIG. 5 .
  • Third and fourth light emitting elements 333 and 334 may be disposed in the upper right area and lower right area of the touch pad area 116.
  • Fifth and sixth light emitting elements 335 and 336 may be further disposed in the left central area and right central area of the touch pad area 116.
  • the first and second light emitting devices 331 and 332 may be disposed in the upper left area and lower left area of the touch pad area 116, as shown in FIG. 7 .
  • Third and fourth light emitting elements 333 and 334 may be disposed in the upper right area and lower right area of the touch pad area 116.
  • the fifth and sixth light emitting elements 335 and 336 may be disposed in the upper and lower areas of the touch pad area 116.
  • one light emitting element may be disposed in the left and right areas of the touch pad area 116.
  • Two light emitting elements may be disposed in the upper and lower areas of the touch pad area 116.
  • a plurality of light emitting elements 331 to 333 may be disposed on an upper and lower portion of one side of the touch pad area 116.
  • a plurality of light emitting elements 334 to 336 may be disposed at the top, bottom, and center of the other side of the touch pad area 116.
  • the processor 180 may be configured to control the haptic sensors 350 and the haptic motor 360 disposed in the touch pad area 116.
  • a plurality of haptic sensors 350 may be disposed in different areas of the touch pad area 116.
  • a plurality of haptic sensors 351 and 352 may be disposed above and below one side of the touch pad area 116 .
  • a plurality of haptic sensors 353 and 354 may be disposed above and below the other side of the touch pad area 116.
  • processor 180 may be configured to detect user input in keyboard area 114 or touch pad area 116 and provide luminance control and haptic feedback.
  • the processor 180 may control the light emission of the optical lens unit 320 according to the user input in the keyboard area 114 or the touch pad area 116 and/or the state of the application program.
  • the processor 180 detects a touched region and a touched region of any one of the haptic sensors 350 disposed on the substrate 340.
  • the pressure applied to the area can be detected.
  • the haptic sensors 350 may be configured to include a first haptic sensor 351 to a fourth haptic sensor 354 disposed on the upper left, lower left, upper right, and lower right of the substrate 340.
  • the number of haptic sensors 350 is not limited to this and can be changed depending on application.
  • the processor 180 may control the haptic motor 360 disposed on the substrate 340 to vibrate the touched area.
  • the processor 180 may control the light emitting device 330 corresponding to the touched area to emit light to a specific area corresponding to the touched area.
  • the touched area may be recognized as one of the upper, middle, and lower areas of one side and the other side of the substrate 340. Accordingly, it is possible to determine which area among the upper, middle, and lower areas of one side and the other side of the touch pad area 116 has been touched, and control the optical lens unit 320 adjacent to the touched area to emit light.
  • the optical lens unit 320 may have an opening area formed therein as shown in FIG. 3B.
  • Figure 7 shows a structure of an optical lens unit that can be divided into a plurality of regions and a structure in which the optical lens unit and the substrate are combined.
  • the optical lens unit 320 has a first region 320a as an upper region, a second region 320b as a lower region, a third region 320c as one side region, and a fourth region as the other side region. It may be configured to include an area 320d.
  • the first area 320a of the optical lens unit 320 may be combined with the upper part of the touch pad area 116.
  • the second area 320b of the optical lens unit 320 may be combined with the lower part of the touch pad area 116.
  • the third area 320c of the optical lens unit 320 may be combined with one end of the touch pad area 116.
  • the third area 320d of the optical lens unit 320 may be combined with the other end of the touch pad area 116.
  • the first area 320a may be connected to the third area 320c and the fourth area 320d.
  • the first area 320a may be formed integrally with the third area 320c and the fourth area 320d.
  • the second area 320b may be connected to the third area 320c and the fourth area 320d.
  • the second area 320b may be formed integrally with the third area 320c and the fourth area 320d.
  • the optical lens unit 320 may have an opening area (OA) formed to surround the substrate 340 on which the haptic sensors 350 are disposed.
  • the substrate 340 may be fitted into the opening area OA of the optical lens unit 320.
  • the touch pad area 116 on which the substrate 340 is disposed may be configured to fit into the opening area OA of the optical lens unit 320.
  • the optical lens unit 320 may be configured to include an upper area 320a, a lower area 320b, one side area 320c, and the other side area 320d.
  • the processor can control the emission of each area of the optical lens unit 320.
  • FIGS. 8A to 8C show embodiments of controlling the light emission area of the optical lens unit based on the type of user input applied to the electronic device.
  • the light emitting area may be displayed in the first color (or first pattern).
  • a single touch input may be defined as a touch input being applied to the touch pad area 116 once.
  • one side area 320c and the other side area 320d of the optical lens unit 320 may be displayed with light of the first color (or first pattern), as shown in FIG. 8a(b). there is.
  • the processor 180 controls light of the first color to be emitted on both sides of the touch pad area 116 as a single touch input is applied to the touch pad area 116. can do.
  • one side area 320c and the other side area 320d of the optical lens unit 320 corresponding to both sides of the touch pad area 116 will emit light of the first color (or first pattern). You can.
  • the light emitting area may be displayed in a second color (or second pattern).
  • a double touch input may be defined as a touch input being applied twice to the touch pad area 116.
  • An application program corresponding to an icon displayed on the screen may be executed according to a double touch input, but is not limited to this.
  • one side area 320c and the other side area 320d of the optical lens unit 320 may be displayed with light of a second color (or second pattern), as shown in FIG. 8b(b). there is.
  • the second pattern is a different emission pattern from the first pattern, and may be, for example, a dot pattern, but is not limited thereto and may be changed depending on application.
  • the second pattern may be formed differently in at least one of the emission pattern of light, i.e., radiation form, color, or brightness.
  • the processor 180 displays a second color (or second pattern) on both sides of the touch pad area 116 as a double touch input is applied to the touch pad area 116.
  • the light can be controlled to be emitted.
  • one side area 320c and the other side area 320d of the optical lens unit 320 corresponding to both sides of the touch pad area 116 will emit light of the second color (or second pattern). You can.
  • the light emission control method according to the touch input according to the present specification may be considered as applying different inputs from the mouse input device as different types of touch inputs are applied to the touch pad area.
  • the left button of the mouse input device may be considered to have been clicked when a first input, such as a single touch input, is applied.
  • the first input corresponding to the left button of the mouse input device is one of a single touch input (single tap), a click on the left button at the top or bottom of the touch pad area 116, or a click input in the primary zone. It can be.
  • the primary zone of the touch pad area 116 may include a lower left area 116a, an upper left area 116c, and an upper right area 116d shown in FIG. 10A.
  • the primary zone of the touch pad area 116 may include a portion of the lower right area 116b that is spaced apart from the optical lens unit 320.
  • the right button of the mouse input device When a second input such as a double touch input is applied, the right button of the mouse input device may be considered to have been clicked.
  • the second input corresponding to the right button of the mouse input device may be one of a double touch input (double tap), a click on the right button at the top or bottom of the touch pad area 116, or a click input in the secondary zone. You can.
  • the secondary zone of the touch pad area 116 may be a portion of the lower right area 116b shown in FIG. 10A adjacent to the optical lens unit 320.
  • first input such as a single touch input (single tap)
  • second input such as a double touch input (double tap)
  • double tap double touch input
  • a first input such as a single touch input (single tap)
  • the light emitting state of one side area 320c (left area) of the touch pad area 116 may be changed.
  • the LED in one area 320c (left area) of the touch pad area 116 may blink.
  • the left button of the mouse input device is considered to have been clicked, and the icon in the state in which the left button of the mouse input device was clicked is selected or a screen change is performed according to application execution.
  • a second input such as a double touch input (double tap)
  • the light emitting state of the other area 320d (right area) of the touch pad area 116 may change.
  • the LED in the other area 320d (right area) of the touch pad area 116 may blink.
  • the right button of the mouse input device is considered to have been clicked, and the icon in the state in which the right button of the mouse input device was clicked is selected or a screen change is performed.
  • the light emission control method according to the touch input according to the present specification may be performed so that at least some areas are switched from the light emitting state to the blinking state.
  • at least some areas of the optical lens unit 320 in the light-emitting state may be switched to the blinking state depending on the type of touch input.
  • one side area 320c of the optical lens unit 320 may blink. Accordingly, as a single touch input is applied, the light emitting device in one side area 320c (left area) of the optical lens unit 320 may be turned off.
  • the other area 320d of the optical lens unit 320 may blink. Accordingly, as a double touch input is applied, the light emitting device in the other area 320d (right area) of the optical lens unit 320 may be turned off.
  • the touch pad area 116 when a single touch input is applied to the touch pad area 116 while both sides of the touch pad area 116 are emitting light, one side of the touch pad area 116 may blink. Meanwhile, when a double touch input is applied to the touch pad area 116 while both sides of the touch pad area 116 are emitting light, the other side of the touch pad area 116 may blink. In this regard, the first side of the touch pad area 116 may blink. If the difference between the first time of the touch input and the second time of the second touch input is greater than or equal to a threshold, the first touch input and the second touch input may be regarded as separate single touch inputs. Meanwhile, if the difference between the first time of the first touch input and the second time of the second touch input is less than the threshold, the first touch input and the second touch input may be regarded as a double touch input.
  • the first touch input may be regarded as a single touch input. Accordingly, as the first touch input is applied to the touch pad area 116, one side area 320c (left area) of the optical lens unit 320 may blink. Thereafter, if the second touch input is applied after the threshold time has elapsed, the second touch input may be regarded as another touch input. Accordingly, as the second touch input is applied to the touch pad area 116, one side area 320c (left area) of the optical lens unit 320 may emit light.
  • the other area 320d of the optical lens unit 320 blinks and only one side area 320c may emit light.
  • the light emitting area may be displayed in a third color (or third pattern).
  • Triple touch input may be defined as a touch input being applied to the touch pad area 116 three times.
  • one side area 320c and the other side area 320d of the optical lens unit 320 may be displayed with light of a third color (or third pattern), as shown in FIG. 8c(b). there is.
  • the first to third patterns of light emitted through the touch pad area 116 may be configured to be different in at least one of the light emission form, color, or brightness.
  • the processor 180 displays a third color (or third pattern) on both sides of the touch pad area 116 as a triple touch input is applied to the touch pad area 116.
  • the light can be controlled to be emitted.
  • one side area 320c and the other side area 320d of the optical lens unit 320 corresponding to both sides of the touch pad area 116 will emit light of the third color (or third pattern). You can.
  • the processor 180 may detect that any one of a single touch input, a double touch input, or a triple touch input is input to the touch pad area 116.
  • the processor 180 emits first color light, second color light, or third color light on both sides as a single touch input, double touch input, or triple touch input is input to the touch pad area 116. You can control it.
  • light emission control of the touch pad area 116 is not limited to one side area 320c and/or the other side area 320d.
  • Light emission control of the touch pad area 116 may be performed on the upper area 320a and/or the lower area 320b.
  • the light emission control of the touch pad area 116 allows the user to intuitively recognize the touchable area even in a structure in which the touch pad area 116 and the external area where touch is not recognized are not distinguished by steps, etc. You can.
  • FIGS. 9A and 9B show embodiments of controlling the brightness of a light emitting area by detecting movement of a user input applied to an electronic device.
  • the processor 180 when a drag input is applied to the touch pad area 116 and the movement speed of the drag input is less than the threshold speed, the processor 180 changes the brightness of the light at a first slope per unit time. It can be changed at a speed of . In this regard, the brightness of one side area 320c and the other side area 320d of the optical lens unit 320 corresponding to both sides of the touch pad area 116 becomes bright at the rate of the first slope per unit time. You can.
  • the processor 180 may change the brightness of the light to a change in the speed of the second slope that is greater than the first slope per unit time.
  • the brightness of one side area 320c and the other side area 320d of the optical lens unit 320 corresponding to both sides of the touch pad area 116 becomes brighter at a rate of the second slope per unit time. You can.
  • light emission control of the touch pad area may be performed by detecting the coordinates of a user input applied to the touch pad area.
  • the detection point of the user input can be detected and only one side of the touch pad area can be controlled to emit light.
  • FIGS. 10A and 10B show embodiments in which the left side or right side of the touch pad area is controlled to emit light depending on the point at which a user input is detected in the touch pad area.
  • Figure 10a(a) shows a configuration in which only one side of the touch pad area 116 emits light when a user input is detected adjacent to one side of the touch pad area 116.
  • Figure 10a(b) shows a light emission pattern in which only one side area 320c of the optical lens unit 320 formed to correspond to one side area of the touch pad area 116 emits light.
  • the detection point of the user input in the touch pad area 116 approaches the left side 320c, which is one side of the touch pad area 116, by less than a first threshold distance, only the left side 320c is displayed. It can emit light. In this regard, even if the first touch input is applied to the touch pad area 116, the touch pad area 116 may be set not to emit light. If a drag input is applied to the left after the initial touch input and the drag input point approaches the left side 320c, only the left side 320c may emit light. When only the left side 320c emits light and the drag input approaches the left side 320c, the brightness of the light may be increased.
  • Figure 10b(a) shows a configuration in which only the other side of the touch pad area 116 emits light when a user input is detected adjacent to the other side of the touch pad area 116.
  • Figure 10b(b) shows a light emission pattern in which only the other side area 320d of the optical lens unit 320 formed to correspond to the other side area of the touch pad area 116 emits light.
  • the detection point of the user input in the touch pad area 116 is close to the right side 320d, which is the other area of the touch pad area 116, by less than the first threshold distance, only the right side 320d is displayed. It can emit light. In this regard, even if the first touch input is applied to the touch pad area 116, the touch pad area 116 may be set not to emit light. If a drag input is applied to the right after the initial touch input and the drag input point approaches the right side 320d, only the right side 320d may emit light. When only the right side 320d emits light and the drag input approaches the right side 320d, the brightness of the light may be increased.
  • the processor 180 determines that the detection point of the drag input in the touch pad area 116 is the left side 320c or the right side 320d of the touch pad area 116. ) can be detected whether it is closer to the first threshold distance or less. When the detection point approaches the left side 320c or right side 320d of the touch pad area 116 by less than or equal to the first threshold distance, the processor 180 causes only the left side 320c or right side 320d to emit light. You can control it.
  • the processor 180 may increase the brightness of the light as the detection point of the user input approaches the left side 320c or the right side 320d in a state where only the left side 320c or the right side 320d is illuminated. .
  • the processor 180 may reduce the brightness of the light when the detection point of the user input moves away from the left side 320c or the right side 320d while only the left side 320c or right side 320d is illuminated.
  • FIGS. 11A and 11B show embodiments in which the border area of the touch pad area blinks or changes color when a user input is detected in the border area of the touch pad area.
  • Figure 11a(a) shows a configuration in which the slit area of the touch pad area 116 where light emission control is performed blinks when a user input is detected adjacent to the border area of the touch pad area 116.
  • Figure 11a(b) shows a light emission pattern in which the right side 320d of the optical lens unit 320 formed to correspond to the boundary area of the touch pad area 116 blinks.
  • the right side 320d when a user input is detected on the right side 320d, which is the border area of the touch pad area 116, the right side 320d may blink.
  • the detection point of the user input reaches the right side 320d or approaches the second threshold distance or less, the right side 320d may blink.
  • the blinking control of the touch pad area 116 is not limited to the right side 320d of the touch pad area 116 and may be performed based on the left side 320c.
  • Figure 11b(a) shows a configuration in which the color of the slit area of the touch pad area 116 where light emission control is performed changes when a user input is detected adjacent to the border area of the touch pad area 116.
  • FIG. 11b(b) shows a light emission pattern in which the color (or pattern) of the right side 320d of the optical lens unit 320 formed to correspond to the border area of the touch pad area 116 is changed.
  • the color (or pattern) in which the right side 320d emits light may change.
  • the detection point of the user input reaches the right side 320d or approaches the second threshold distance or less
  • the color (or pattern) in which the right side 320d emits light may change.
  • changing the light emission color/pattern of the touch pad area 116 is not limited to the right side 320d of the touch pad area 116 and may be performed based on the left side 320c.
  • the processor 180 may change or flash the light emitting color/pattern when the detection point of the user input reaches the boundary area or approaches the second threshold distance or less. there is.
  • the processor 180 determines whether the detection point of the drag input reaches the left side 320c or the right side 320d or approaches the second threshold distance or less with only the left side 320c or right side 320d emitting light. It can be detected.
  • the second critical distance may be set shorter than the first critical distance in which only the left side 320c or the right side 320d is set to emit light.
  • the processor 180 may change the color of the light or control the light to blink.
  • FIGS. 12A to 12C show embodiments in which light emission control of the touch pad area is performed according to the remaining battery level of the electronic device.
  • Figure 12a(a) shows a structure in which when the remaining battery capacity is at the first level, both areas of the touch pad area 116 emit light to the first height in proportion to the first level.
  • Figure 12a(b) shows a light emission pattern in which the left side 320c and the right side 320d of the optical lens unit 320 formed to correspond to the boundary area of the touch pad area 116 emit light as much as the first height.
  • light may be emitted at a first height in the slit area of the left side 320c or right side 320d of the touch pad area 116.
  • Figure 12b(a) shows a structure in which when the remaining battery capacity is at the second level, both areas of the touch pad area 116 emit light to a second height in proportion to the second level.
  • Figure 12b(b) shows a light emission pattern in which the left side 320c and the right side 320d of the optical lens unit 320 formed to correspond to the boundary area of the touch pad area 116 emit light as much as the second height.
  • the remaining battery capacity is greater than or equal to the first threshold and less than or equal to the second threshold, light may be emitted at a second height in the slit area of the left side 320c or right side 320d of the touch pad area 116. there is.
  • FIG. 12c(a) shows a structure in which when the remaining battery capacity is at the third level, both areas of the touch pad area 116 emit light to a third height in proportion to the third level.
  • Figure 12b(b) shows a light emission pattern in which the left side 320c and the right side 320d of the optical lens unit 320 formed to correspond to the boundary area of the touch pad area 116 emit light as much as the third height.
  • the remaining battery capacity is greater than or equal to the third threshold, light may be emitted at a third height in the slit area of the left side 320c or right side 320d of the touch pad area 116.
  • the processor 180 may detect the remaining battery capacity of the electronic device and perform light emission area control according to the remaining battery capacity. If the remaining battery charge is below the first threshold, the processor 180 may control light to be emitted at a first height in the slit area of the left side 320c or right side 320d of the touch pad area 116. If the remaining battery capacity is less than or equal to the second threshold, the processor 180 may control light to be emitted at a second height in the slit area. If the remaining battery capacity is greater than or equal to the third threshold, the processor 180 may control light to be emitted at a third height in the slit area.
  • the second threshold may be set higher than the first threshold
  • the third threshold may be set higher than the second threshold.
  • the third threshold may be set to the remaining battery capacity when the battery is fully charged, but is not limited to this and may be set to an arbitrary value higher than the second threshold.
  • Control of the light emitting area according to the remaining battery capacity can be performed by controlling the plurality of light emitting elements 331 to 336 of FIG. 5.
  • the processor 180 may control the lower second and fifth light emitting elements 332 and 335 to emit light. If the remaining battery capacity is above the first threshold and below the second threshold, the processor 180 causes the second and fifth light-emitting elements 332 and 335 at the bottom and the third and sixth light-emitting elements 333 and 336 at the center to emit light. You can control it. If the remaining battery capacity is greater than or equal to the third threshold, the processor 180 may control all of the first to sixth light emitting devices 331 to 336 to emit light.
  • FIGS. 13A and 13B show embodiments in which light emission control of the touch pad area is performed according to the occurrence of an event.
  • FIG. 13a(a) shows a structure in which an icon is displayed in an area adjacent to the inside of the slit area, which is the border area of the touch pad area 116, according to the first event in which file download is completed.
  • FIG. 13A(b) shows a user interface in which an icon is displayed in an area adjacent to the inside of the slit area on the left side 320c or the right side 320d of the touch pad area 116.
  • an icon may be displayed in an area adjacent to the inside of the slit area on the left side 320c or right side 320d of the touch pad area 116. there is.
  • FIG. 13b(a) shows a blink control structure in which the border area of the touch pad area 116 repeatedly emits light and blinks according to a second event in which a new email is received.
  • Figure 13b(b) shows a light emission pattern in which light is repeatedly emitted and blinked in the slit area of the left side 320c or right side 320d.
  • a second event of receiving a new email when a second event of receiving a new email is detected, light is repeatedly emitted and blinked in the slit area on the left side 320c or right side 320d of the touch pad area 116 to alert the user.
  • the detection of the second event may be notified to the user.
  • Blink type light emission control in which light is repeatedly emitted and blinked in the slit area of the left side 320c or right side 320d of the touch pad area 116 may be performed.
  • the processor 180 determines whether a first event in which file download is completed, a second event in which a new email is received, or a third event in a preset pattern occurs. It can be detected. When at least one of the first to third events is detected, the processor 180 controls the slit area of the left side 320c or the right side 320d of the touch pad area 116 to repeatedly emit light and blink. can do. When at least one of the first to third events is detected, the processor 180 controls the icon to be displayed in an area adjacent to the inside of the slit area on the left side 320c or the right side 320d of the touch pad area 116. can do.
  • FIGS. 14A and 14B show embodiments in which light emission control of the touch pad area is performed according to the brightness of the surrounding area where the electronic device is being used.
  • Figure 14a(a) shows a structure in which light emission is controlled so that the slit area of the touch pad area 116 becomes bright in a bright environment such as natural light.
  • Figure 14a(b) shows a light emission pattern in which the brightness of the slit area on the left side 320c or right side 320d of the touch pad area 116 increases.
  • the slit area of the touch pad area 116 can be controlled to become bright in a bright environment such as natural light. Specifically, if the ambient brightness value is greater than or equal to the first threshold, the brightness of the slit area on the left side 320c or right side 320d of the touch pad area 116 may be increased.
  • Figure 14a(b) shows a structure in which light emission is controlled so that the slit area of the touch pad area 116 is darker in a dark environment than in a bright environment.
  • Figure 14a(b) shows a light emission pattern in which the brightness of the slit area on the left side 320c or right side 320d of the touch pad area 116 is reduced.
  • the slit area of the touch pad area 116 can be controlled to be darker than in a bright environment. If the ambient brightness value is less than the second threshold value, which is lower than the first threshold value, the brightness of the slit area on the left side 320c or the right side 320d of the touch pad area 116 may be reduced.
  • the processor 180 may detect ambient brightness information based on at least one of a camera, an illumination sensor, or the current time.
  • the processor 180 may control the brightness of the slit area on the left side 320c or right side 320d of the touch pad area 116 based on ambient brightness information.
  • the electronic device 100 may be configured to include a display 204 and a base unit 104.
  • Display 204 may be configured to display screen information.
  • Base portion 104 may be operably coupled to display 204 .
  • the base portion 104 has a keyboard area 114 and may be configured to detect touch input.
  • the base portion 104 configured to sense a touch input may be configured to include a touch pad area 116 and an optical lens portion 320.
  • the touch pad area 116 may be disposed in a lower area of the glass 310 and configured to detect a touch input.
  • the touch pad area 116 may include at least one light source 321 to 326.
  • the optical lens unit 320 may be formed along both sides of the touch pad area 116.
  • the processor 180 may control at least one of the left side 320c or the right side 320d of the touch pad area 116 to emit light.
  • the processor 180 may control the color, brightness, or light-emitting area of the light emitted according to the input pattern of the touch input.
  • the base portion 104 may be configured to include glass 310, a transparent layer 311, and an opaque layer 312.
  • the glass 310 may be disposed in the upper area of the touch input area 116 and configured to emit light through a specific area 310R.
  • a transparent layer 311 may be disposed below the glass 310 .
  • the transparent layer 311 may be formed to transmit light from a light source.
  • An opaque layer 312 may be disposed below the transparent layer 311.
  • the opaque layer 312 may be formed in some areas to block light from the light source. Light from the light source will be emitted from the left side 320c and right side 320d of the touch pad area 116 through the transparent layer 311 corresponding to the slot area 312s of the opaque layer 312. You can.
  • the light source may be composed of a plurality of light emitting elements 331 to 336 disposed on the left side 320c and the right side 320d of the touch pad area 116, respectively.
  • the light emitting elements 331 to 336 may be arranged in one axis direction of the substrate 340 disposed in the touch pad area 116.
  • the optical lens unit 320 may be configured to include a first part 321 and a second part 322.
  • the optical lens unit 320 may be configured to include a first part 321 to a third part 323.
  • the first portion 321 may be formed to a first thickness in the lower region of the light emitting device 330.
  • the second part 322 may be formed at an end of the first part 321 to have a second thickness greater than the first thickness.
  • the second portion 322 may be configured to allow light emitted from the light emitting device 330 to pass through.
  • the third part 323 may be formed at an end of the second part 322 to have a third thickness that is thicker than the second thickness.
  • the third portion 323 may be configured to radiate light emitted from the light emitting device 330 to a specific area 310R.
  • the inner side of the third portion 323 may be spaced apart to face the side of the substrate 340 .
  • the touch pad area of the electronic device may be configured to sense pressure of user input.
  • the touch pad area 116 of the electronic device may be configured to sense pressure of user input in a specific application program.
  • any one of the haptic sensors 351 to 354 disposed on the substrate 240 detects a touched region and a signal applied to the touched region.
  • the processor 180 may control the haptic motor 360 disposed on the substrate 340 to vibrate the touched area.
  • an electronic device equipped with a keyboard can control light emission of the touch pad area in conjunction with the light emission pattern and/or function keys of the keyboard.
  • the display portion 102 and the base portion 104 may be integrated into one piece or may be physically separated.
  • a backlight 114 may be disposed below the keyboard area 114 of the base portion 104.
  • the processor 180 may be operably coupled to a backlight 114b disposed below the keyboard area 114.
  • the processor 180 may be linked to the backlight 114b of the keyboard area 114.
  • the processor 180 may be linked to a function key associated with adjusting the brightness of the keyboard area 114.
  • the processor 180 may control the brightness and color of light emitted from at least one side of the touch pad area 116 in conjunction with the backlight 114b or with function keys associated with brightness control.
  • the processor 180 causes the left side 320c or right side 320d of the touch pad area 116 to light up or blink in conjunction with the backlight 114b of the keyboard area 114. You can control it.
  • the processor 180 may control the brightness of the left side 320c or the right side 320d of the touch pad area 116 based on brightness information detected according to a function key input of the keyboard area 114.
  • the processor 180 controls the color of the left side 320c or the right side 320d of the touch pad area 116 based on color information or pattern information detected according to the function key input of the keyboard area 114 and emits light. You can control the pattern.
  • an electronic device equipped with a keyboard may be controlled so that touch pad recognition is disabled while the user is performing keyboard input.
  • the processor 180 may detect a keyboard input applied to the keyboard area 114 or a user's motion input to the keyboard area 114 .
  • the processor 180 may control the touch pad area 116 not to recognize the touch input.
  • the processor 180 may deactivate the touch recognition chip disposed in the touch pad area 116 and/or the touch input module 121 including the same.
  • an electronic device equipped with a keyboard may deactivate the touch pad area when inputting a keyboard and change the color of the touch pad area so that the user can recognize it.
  • the processor 180 disables the touch recognition chip and emits light in the slit area of the left side 320c or right side 320d of the touch pad area 116. You can change the color of light.
  • an electronic device equipped with a touch pad area may be combined with a separate input device so that it can operate in a wired or wireless manner.
  • the base portion 104 on which the keyboard area 114 of the electronic device is formed may be integrally formed with the display portion 102 or may be physically separated and operably coupled to the display portion 102 .
  • the electronic device may be operable combined with the keyboard area 114 and the touch pad area 116 and a separate input device, such as a mouse, in a wired or wireless manner.
  • the processor 180 may detect whether an input device capable of applying another touch input separately from the touch input that can be applied to the touch pad area 116 is connected. When an input device is connected, the processor 180 may deactivate the touch recognition chip disposed in the touch pad area 116 and/or the touch input module 121 including the same.
  • the processor 180 can detect whether an input device capable of applying another touch input separately from the touch input that can be applied to the touch pad area 116 is connected or disconnected. there is. When the input device is connected or disconnected, the processor 180 can control the slit area on the left side 320c or right side 320d of the touch pad area 116 to emit light and blink. When the input device is connected or disconnected, the processor 180 can change the color or brightness of light emitted from the slit area on the left side 320c or right side 320d of the touch pad area 116.
  • Figure 15 shows a flowchart of a control method of an electronic device having a haptic and touch pad active area to which an optical module according to the present specification is applied.
  • the control method may be configured to include a touch input reception process (S110a), a multi-touch input reception process (S110b), a light emission area control process (S120), and a light emission pattern control process (S130).
  • the touch input reception process (S110a), it is possible to detect which area among the divided sub-areas of the touch pad area the touch input was received.
  • FIGS. 10A and 10B it is possible to detect which region of the left region and the lower region of the touch pad area 116 a touch input has been applied. Determination of the left area and the lower area of the touch pad area 116 may correspond to which area among the one side area 320c and the other side area 320d of the optical lens unit 320 is adjacent. More specifically, as shown in FIGS. 10A and 10B, touching any of the lower left area 116a, lower right area 116b, upper right area 116c, and upper left area 116d of the touch pad area 116 It is possible to detect whether input has been accepted.
  • the light emitting area control process (S120) may be configured to include a light emitting area control process (S120a) according to a single touch input and a light emitting area control process (S120b) according to a multi-touch input.
  • the corresponding area of the lens unit can be controlled to emit light corresponding to the area.
  • FIG. 10A when a touch input is applied to the lower left area 116a or the upper left area 116c of the touch pad area 116, one area 320c of the optical lens unit 320 emits light. It can be.
  • FIG. 10b when a touch input is applied to the lower right area 116b or the upper right area 116d of the touch pad area 116, the lower area 320b and the other side area of the optical lens unit 320 ( 320d) can emit light.
  • a specific area corresponding to the area to which the multi-touch input or triple-touch input of the optical lens unit is applied can be controlled to emit light in the light-emitting area control process (S120b). You can.
  • the light emission pattern control process (S130) may be performed until the application program is executed by multi-touch input and the initial screen is displayed.
  • the optical lens unit may be controlled to emit light in a second or third color that is different from the first color.
  • the optical lens unit may be controlled to emit light in a second or third pattern that is different from the first pattern.
  • control method may include a drag input determination process (S150), a drag speed determination process (S155), and a light emission brightness control process (S160).
  • S150 a drag input determination process
  • S155 a drag speed determination process
  • S160 a light emission brightness control process
  • the drag input determination process (S150), after the touch input is applied, it can be determined whether the drag input is applied in a certain direction. If the drag input is not applied and the touch input is applied, the following processes may be performed after the light emitting area control process (S120).
  • the first brightness control process (S160a) may be performed. In the first brightness control process (S160a), the speed of change in brightness of light in one area 320c and the other area 320d of the optical lens unit 320 may be adjusted to a first speed.
  • the second brightness control process (S160b) may be performed.
  • the speed of change in brightness of light in one area 320c and the other area 320d of the optical lens unit 320 may be adjusted to a second speed that is faster than the first speed.
  • the light emission area of the optical lens unit can be controlled to change in response to the end point of the drag input.
  • the second area of the optical lens unit may be controlled to emit light according to the end point of the drag input.
  • the light emission pattern control process (S180) may be performed for a certain period of time after the drag input is released. In the light emission pattern control process (S180), light can be controlled to be changed to a different pattern and radiated through the light emitting area.
  • an electronic device having a haptic and touch pad active area to which an optical module according to the present specification is applied can perform light emission control according to power on/off and execution of an application program.
  • Figure 16 shows a flowchart of a control method for an electronic device based on event detection according to the present specification.
  • Figure 17 shows a flowchart of a method of controlling an electronic device according to execution input and execution status of an application program according to the present specification.
  • the control method includes a first event detection process (S210), a first light emission control process to increase the light emission amount (S220), a second event detection process (S410), and a second light emission control to decrease the light emission amount. It may include a process (S420).
  • the first event detection process it may be detected whether a first event that can increase the amount of light emission has occurred.
  • the first event that can increase the amount of light emission may include various events described herein in addition to turning on the power button. Detection of a fully charged battery level as shown in FIG. 12C, an event such as receiving an email as shown in FIG. 13A, or an ambient brightness value greater than a first threshold value as shown in FIG. 14A may be detected as the first event.
  • the amount of light emission in the touch pad area can be controlled to increase for a certain period of time.
  • the second event detection process (S410), it may be detected whether a second event that can reduce the amount of light emission has occurred.
  • the second event that can reduce the amount of light emission may include various events described herein in addition to turning off the power button. Detection of a battery level below a threshold level as shown in FIG. 12A, user confirmation input after detecting an event such as receiving an email as shown in FIG. 13A, or an ambient brightness value below a second threshold value as shown in FIG. 14B may be detected as a second event. .
  • the light emission amount of the touch pad area can be controlled to decrease for a certain period of time. For example, when a power-off input for terminating the system is applied on the screen, the light emission amount of the touch pad area can be controlled to decrease until the actual power is turned off in the second light emission control process (S420).
  • the control method includes an execution input reception process (S310), a first emission pattern control process (S320), a first emission control process (S325), an execution state determination process (S330), and a second emission pattern control process. (S340) may be included.
  • the control method can perform light emission control by determining whether a low power mode is entered.
  • the control method may include a low power mode entry determination process (S350), a screen display process (S355), a light emission area control process (S360), and a second light emission control process (S365).
  • the amount of light emission can be controlled to increase in the first light emission control process (S325), and the amount of light emission can be controlled to decrease in the second light emission control process (S365).
  • execution input for the application program may be received.
  • light can be controlled to be emitted in a first pattern through a specific area in the first light emission pattern control process (S320).
  • the first light emission control process (S325) the light emission amount of the touch pad area can be controlled to increase from the first time when the execution input for the application program is applied to the second time when the application program is in the execution state.
  • execution state determination process it can be determined whether the application program has entered the execution state.
  • the application program is in an execution state, light can be controlled to be emitted in a second pattern different from the first pattern in the second light emission pattern control process (S340). If the application program is not in an execution state, the processes below the execution input reception process (S310) may be repeated.
  • the low-power mode entry determination process (S350) it may be determined whether the operation mode will enter the low-power mode based on the remaining battery power or the standby state while the application program is running. If there is no need to enter the low power mode, the processes below the execution input reception process (S310) may be repeatedly executed. If it is necessary to enter the low-power mode, a screen requesting user input related to whether the operation mode will enter the low-power mode may be displayed on the display in the screen display process (S355).
  • the light emitting area control process (S360) can control a specific area of the touch pad to emit light at a third time when a user input is applied.
  • the second light emission control process (S365) may control the amount of light emission to be reduced for a certain period of time from the fourth time or the fourth time when the operation mode enters the low power mode.
  • an electronic device having a haptic and touch pad active area to which an optical module is applied is provided, so that a user can intuitively provide information about the current state of the electronic device when using the electronic device.
  • a light emitting element is added to the substrate disposed inside the touch pad area to provide feedback as to whether the user input has been properly applied through light emission in a specific area, thereby forming a feedback area adjacent to the area where the user input was applied. You can.
  • an intuitive user interface can be provided to the user so that the touch input does not leave the touch pad area through light emission control in the slit area on the left side and/or right side corresponding to both sides of the touch pad area.
  • a haptic active area where haptic feedback related to touch input is provided can be provided to the user through an intuitive user interface.
  • a structural design and algorithm can be presented that can provide feedback on whether a user input has been properly applied through light emission in a specific area of the glass disposed on the upper part of the touch pad area.
  • a structural design and algorithm can be presented that can provide feedback on whether a user input has been properly applied through region-specific control of the light-emitting elements and haptic elements disposed below the touch pad area.
  • information on the current state of the electronic device is fed back to the user according to power on/off and execution of an application program, thereby improving intuitiveness and improving aesthetics by applying a gradation of the light emitting area.
  • Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. It also includes those implemented in the form of carrier waves (e.g., transmission via the Internet). Additionally, the computer may include a terminal control unit 180.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

키보드를 구비하는 전자 기기는 화면 정보를 표시하도록 구성된 디스플레이; 및 상기 디스플레이와 동작 가능하게 결합되고, 키보드 영역을 구비하고 터치 입력을 감지하도록 구성된 베이스 부를 포함한다. 상기 베이스 부는 터치 입력을 감지하고, 적어도 하나의 광원을 구비하는 터치 패드 영역; 및 상기 터치 패드 영역의 양 측을 따라 형성된 광 렌즈 부(lighting lens portion)를 포함할 수 있다. 상기 터치 패드 영역에 터치 입력이 감지되면 상기 터치 패드 영역의 적어도 일 측으로 광이 발광될 수 있다.

Description

터치 패드 활성 영역 및 키보드를 구비하는 전자 기기
본 발명은 터치 패드 활성 영역 및 키보드를 구비하는 전자 기기에 관한 것이다. 보다 상세하게는, 디스플레이 및 키보드를 구비하고, 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기에 관한 것이다.
전자기기(electronic devices)는 이동 가능여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 전자기기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mounted terminal)로 나뉠 수 있다.
전자기기의 기능은 다양화되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이부에 이미지나 비디오를 출력하는 기능이 있다. 일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히 최근의 이동 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다.
현재 많은 전자 기기에서 터치 인터페이스가 제공되고 있다. 예를 들어, 휴대폰, 스마트 폰(smart phone), 태블릿 컴퓨터(tablet computer), 랩탑 컴퓨터(laptop computer), PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), 디지털 카메라, 휴대용 게임기, MP3 플레이어 등과 같은 휴대용 전자 기기는 물론 현금 자동입출금기(Automated Teller Machine, ATM), 정보 검색기, 무인 티켓 발매기 등과 같은 고정 단말기로 구현되는 전자 기기에도 터치 스크린(touch screen)이 터치 인터페이스로 구비되어 있다.
이러한 터치 인터페이스와 연동하여, 최근에는 사용자 경험을 증강시키기 위한 방법으로 사용자에게 촉감을 제공하는 촉각 기술(haptic technology. 이하 햅틱 기술)이 주목받고 있다. 햅틱 기술을 이용하면, 사용자가 디지털 객체와 상호작용할 때 다양한 형태의 촉각을 사용자에게 제공함으로써, 궁극적으로 시각과 촉각이 융합된 피드백을 제공할 수 있다. 이러한 햅틱 기술이 적용된 전자 기기는 기존의 전자 기기에 비하여 보다 실감나는 터치 인터페이스를 사용자에게 제공하는 것이 가능하다.
한편, 이러한 터치 인터페이스는 이동 단말기로 구현되는 전자 기기에 구비될 수 있다. 이동 단말기로 구현되는 전자 기기 중 랩탑 컴퓨터는 디스플레이와 별도의 영역에 터치 패드 영역이 제공될 수 있다. 이러한 터치 패드 영역에 대한 터치 입력이 정상적으로 인가되었는지를 사용자에게 직관적으로 제공할 필요가 있다.
본 명세서는 전술한 문제 및 다른 문제를 해결하기 위한 것으로, 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기를 제공하는 것에 그 목적이 있다.
본 명세서는 터치 패드 영역의 내부에 배치되는 기판에 발광 소자를 추가하여 특정 영역의 발광을 통해 사용자 입력이 정상적으로 인가되었는지를 피드백 하는 데에 또 다른 목적이 있다.
본 명세서는 터치 패드 영역의 상부에 배치된 글래스의 특정 영역의 발광을 통해 사용자 입력이 정상적으로 인가되었는지를 피드백 하는 데에 또 다른 목적이 있다.
본 명세서는 터치 패드 영역의 하부에 배치된 햅틱 소자를 통해 사용자 입력이 정상적으로 인가되었는지를 피드백 하는 데에 또 다른 목적이 있다.
본 명세서는 전원 온/오프, 어플리케이션 프로그램의 실행에 따라 전자 기기의 현재 상태에 대한 정보를 사용자에게 피드백 하는 데에 또 다른 목적이 있다.
상기 또는 다른 목적을 달성하기 위해 본 명세서에 따른 키보드를 구비하는 전자 기기는 화면 정보를 표시하도록 구성된 디스플레이; 및 상기 디스플레이와 동작 가능하게 결합되고, 키보드 영역을 구비하고 터치 입력을 감지하도록 구성된 베이스 부를 포함한다. 상기 베이스 부는 터치 입력을 감지하고, 적어도 하나의 광원을 구비하는 터치 패드 영역; 및 상기 터치 패드 영역의 양 측을 따라 형성된 광 렌즈 부(lighting lens portion)를 포함할 수 있다. 상기 터치 패드 영역에 터치 입력이 감지되면 상기 터치 패드 영역의 적어도 일 측으로 광이 발광될 수 있다.
실시 예에 따르면, 상기 전자 기기는 상기 터치 입력의 입력 패턴에 따라 상기 발광되는 광의 색상, 밝기 또는 발광 영역을 제어하는 프로세서를 더 포함할 수 있다.
실시 예에 따르면, 상기 프로세서는 상기 터치 패드 영역에 단일 터치 입력, 더블 터치 입력 또는 트리플 터치 입력이 입력됨에 따라 상기 양 측에 제1 색상의 광, 제2 색상의 광 또는 제3 색상의 광이 발광되게 제어할 수 있다.
실시 예에 따르면, 상기 프로세서는 상기 터치 패드 영역에 드래그 입력이 인가되고, 상기 드래그 입력의 이동 속도가 임계 속도 이하이면 상기 광의 밝기 변화를 제1 기울기의 속도로 변경하고, 상기 이동 속도가 상기 임계 속도를 초과하면, 상기 광의 밝기 변화를 상기 제1 기울기보다 큰 제2 기울기의 속도 변화로 변경할 수 있다.
실시 예에 따르면, 상기 프로세서는 상기 터치 패드 영역에 드래그 입력의 검출 지점이 상기 터치 패드 영역의 좌측 변 또는 우측 변에 제1 임계 거리 이하로 근접하면, 상기 좌측 변 또는 상기 우측 변만 발광되게 제어할 수 있다.
실시 예에 따르면, 상기 프로세서는 상기 좌측 변 또는 상기 우측 변만 발광된 상태에서 상기 검출 지점이 상기 좌측 변 또는 상기 우측 변에 근접할수록 상기 광의 밝기를 증가시킬 수 있다.
실시 예에 따르면, 상기 프로세서는 상기 좌측 변 또는 상기 우측 변만 발광된 상태에서 상기 검출 지점이 상기 좌측 변 또는 상기 우측 변에 도달하거나 또는 제2 임계 거리 이하로 근접하면, 상기 광의 색상을 변경하거나 또는 상기 광이 점멸되게 제어할 수 있다.
실시 예에 따르면, 상기 프로세서는 상기 전자 기기의 배터리 잔량을 검출하고, 상기 배터리 잔량이 제1 임계치 이하이면 상기 터치 패드 영역의 좌측 변 또는 우측 변의 슬릿 영역에 제1 높이로 상기 광이 발광되게 제어할 수 있다. 상기 프로세서는 상기 배터리 잔량이 제2 임계치 이하이면 상기 슬릿 영역에 제2 높이로 상기 광이 발광되게 제어하고, 상기 배터리 잔량이 제3 임계치 이상이면 상기 슬릿 영역에 제3 높이로 상기 광이 발광되게 제어할 수 있다. 상기 제1 높이보다 상기 제2 높이가 더 높고, 상기 제2 높이보다 제3 높이가 더 높게 설정될 수 있다.
실시 예에 따르면, 상기 프로세서는 파일 다운로드가 완료되는 제1 이벤트, 새로운 이메일이 수신되는 제2 이벤트 또는 기 설정된 패턴의 제3 이벤트가 발생하는지 여부를 검출하고, 상기 제1 내지 제3 이벤트 중 적어도 하나가 검출되면, 상기 터치 패드 영역의 좌측 변 또는 우측 변의 슬릿 영역에 상기 광의 발광 및 점멸이 반복적으로 수행되거나 또는 상기 슬릿 영역의 내측으로 인접한 영역에 아이콘이 표시되도록 제어할 수 있다.
실시 예에 따르면, 상기 프로세서는 상기 키보드 영역의 백라이트와 연동하거나 또는 상기 키보드 영역의 밝기 조절과 연관된 기능 키와 연동하여 상기 터치 패드 영역의 상기 적어도 일 측에 발광되는 상기 광의 밝기 및 색상을 제어할 수 있다.
실시 예에 따르면, 상기 프로세서는 상기 키보드 영역에 키보드 입력이 인가되거나 또는 상기 키보드 영역으로 모션 입력을 검출하고, 상기 검출 시 상기 터치 패드 영역에 상기 터치 입력이 인식되지 않도록 상기 터치 패드 영역에 배치된 터치 인식 칩을 비활성화할 수 있다.
실시 예에 따르면, 상기 프로세서는 상기 검출 시 상기 터치 인식 칩을 비활성화하면서 상기 터치 패드 영역의 좌측 변 또는 우측 변의 슬릿 영역에 발광되는 광의 색상을 변경할 수 있다.
실시 예에 따르면, 상기 프로세서는 상기 터치 패드 영역에 인가될 수 있는 터치 입력과 별도로 다른 터치 입력이 인가될 수 있는 입력 장치가 연결되는지 여부를 감지하고, 상기 입력 장치가 연결되면, 상기 터치 패드 영역에 배치된 터치 인식 칩을 비활성화할 수 있다.
실시 예에 따르면, 상기 프로세서는 상기 터치 패드 영역에 인가될 수 있는 터치 입력과 별도로 다른 터치 입력이 인가될 수 있는 입력 장치가 연결되었거나 연결 해제되었는지 여부를 감지하고, 상기 입력 장치가 연결되거나 또는 연결 해제되면, 상기 터치 패드 영역의 좌측 변 또는 우측 변의 슬릿 영역을 발광 및 점멸을 제어하거나 또는 발광되는 광의 색상 또는 밝기를 변경할 수 있다.
실시 예에 따르면, 상기 프로세서는 카메라, 조도 센서 또는 현재 시간 중 적어도 하나에 기초하여 주변 밝기 정보를 검출하고, 상기 주변 밝기 정보에 기초하여 상기 터치 패드 영역의 좌측 변 또는 우측 변의 슬릿 영역을 밝기를 제어할 수 있다.
실시 예에 따르면, 상기 터치 패드 영역에 단일 탭 입력이 인가되면 상기 터치 패드 영역의 일 측 영역의 발광 상태가 변경될 수 있다. 상기 터치 패드 영역에 더블 탭 입력이 인가되면 상기 터치 패드 영역의 타 측 영역의 발광 상태가 변경될 수 있다.
실시 예에 따르면, 상기 베이스 부는 상기 터치 입력 영역의 상부 영역에 배치되고, 특정 영역을 통해 광(light)이 방출되도록 구성된 글래스; 상기 글래스의 하부에 배치되어 상기 광원으로부터의 광을 투과하도록 형성된 투명 레이어; 및 상기 투명 레이어 하부에 배치되어 상기 광이 차단되도록 형성되는 불투명 레이어를 포함할 수 있다. 상기 광은 상기 불투명 레이어의 슬롯 영역에 대응되는 상기 투명 레이어를 통해 상기 터치 패드 영역의 좌측 변 및 우측 변에서 방사(emit)될 수 있다.
실시 예에 따르면, 실시 예에 따르면, 상기 광원은 복수의 발광 소자들로 구성될 수 있다. 상기 발광 소자들은 상기 터치 패드 영역에 배치된 기판(substrate)의 일 축 방향으로 배치될 수 있다.
실시 예에 따르면, 상기 광 렌즈 부는 상기 발광 소자의 제3 축 방향으로 하부 영역에 제1 두께로 형성되는 제1 부분; 및 상기 제1 부분의 단부에서 상기 제1 두께보다 두꺼운 제2 두께로 형성되고, 상기 발광 소자로부터 방사된 광이 통과되도록 구성된 제2 부분을 포함할 수 있다.
실시 예에 따르면, 상기 광 렌즈 부는 상기 제2 부분의 단부에서 상기 제2 두께보다 두꺼운 제3 두께로 형성되고 상기 광이 특정 영역으로 방사되도록 구성된 제3 부분을 포함할 수 있다. 상기 제3 부분의 내 측면은 상기 기판의 측면과 마주보게 이격되어 배치될 수 있다.
실시 예에 따르면, 상기 프로세서는 상기 터치 패드 영역이 눌려지면 상기 기판에 배치되는 햅틱 센서들 중 어느 하나가 터치된 영역(touched region) 및 상기 터치된 영역에 인가된 압력을 감지할 수 있다. 상기 프로세서는 상기 터치된 영역이 진동(vibrate)되도록 상기 기판에 배치된 햅틱 모터를 제어할 수 있다.
본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기의 기술적 효과에 대해 설명하면 다음과 같다.
본 명세서에 따르면, 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기를 제공하여 사용자가 전자 기기 사용시 전자 기기의 현재 상태에 대한 정보를 직관적으로 제공할 수 있다.
본 명세서에 따르면, 터치 패드 영역의 내부에 배치되는 기판에 발광 소자를 추가하여 특정 영역의 발광을 통해 사용자 입력이 정상적으로 인가되었는지를 피드백 하여, 사용자 입력이 인가된 영역에 인접하게 피드백 영역을 형성할 수 있다.
본 명세서에 따르면, 터치 패드 영역의 상부에 배치된 글래스의 특정 영역의 발광을 통해 사용자 입력이 정상적으로 인가되었는지를 피드백 할 수 있는 구조 설계 및 알고리즘을 제시할 수 있다.
본 명세서에 따르면, 터치 패드 영역의 양 측에 해당하는 좌측 변 및/또는 우측 변의 슬릿 영역의 발광 제어를 통해 터치 입력이 터치 패드 영역을 벗어나지 않도록 사용자에게 직관적인 유저 인터페이스를 제공할 수 있다.
본 명세서에 따르면, 터치 입력과 연관된 햅틱 피드백이 제공되는 햅틱 활성화 영역(haptic active area)을 사용자에게 직관적인 유저 인터페이스를 통해 제공할 수 있다.
본 명세서에 따르면, 터치 패드 영역의 하부에 배치된 발광 소자들과 햅틱 소자들의 영역 별 제어를 통해 사용자 입력이 정상적으로 인가되었는지를 피드백 할 수 있는 구조 설계 및 알고리즘을 제시할 수 있다.
본 명세서에 따르면, 전원 온/오프, 어플리케이션 프로그램의 실행에 따라 전자 기기의 현재 상태에 대한 정보를 사용자에게 피드백 하여 직관성의 향상과 함께 발광 영역의 그라데이션을 적용하여 심미성을 향상시킬 수도 있다.
도 1a는 본 발명에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 통합형 인터페이스 시스템을 포함할 수 있는 전자 기기를 나타낸다.
도 1b는 본 명세서에 따른 전자 기기의 부분 분해도이다.
도 2는 본 명세서에 따른 전자 기기의 예시적인 통합형 인터페이스 시스템의 구성도를 나타낸다.
도 3a은 본 명세서에 따른 터치 패드 영역을 갖는 전자 기기의 측면 사시도 및 배면 사시도를 나타낸다.
도 3b는 도 3a의 터치 패드 영역을 구성하는 구성부의 분해 사시도를 나타낸다.
도 4a는 본 명세서에 따른 글래스의 하부에 투명 층과 불투명 층이 배치된 적층 구조를 나타낸다.
도 4b는 본 명세서에 따른 글래스의 하부에 기판과 광 렌즈 구조가 배치된 구조를 나타낸다.
도 5는 본 명세서에 따른 터치 패드 영역의 하부에 배치되는 기판과 기판을 둘러싸고 있는 광 렌즈 부를 확대한 도면이다.
도 6은 본 명세서에 따른 광 모듈이 적용된 터치 패드 활성 영역을 갖는 전자 기기의 블록도를 나타낸다.
도 7은 본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기의 블록도를 나타낸다.
도 8a 내지 도 8c는 전자 기기에 인가되는 사용자 입력의 타입에 기초하여 광 렌즈 부의 발광 영역 제어를 수행하는 실시 예들을 나타낸다.
도 9a 및 도 9b는 전자 기기에 인가되는 사용자 입력의 이동을 감지하여 발광 영역의 밝기 제어를 수행하는 실시 예들을 나타낸다.
도 10a 및 도 10b는 터치 패드 영역에 사용자 입력이 검출된 지점에 따라 터치 패드 영역의 좌측 변 또는 우측 변이 발광되게 제어하는 실시예들을 나타낸다.
도 11a 및 도 11b는 터치 패드 영역의 경계 영역에 사용자 입력이 검출되면 터치 패드 영역의 경계 영역이 점멸되거나 색상이 변경되는 실시 예들을 나타낸다.
도 12a 내지 도 12c는 전자 기기의 배터리 잔량에 따라 터치 패드 영역의 발광 제어가 수행되는 실시 예들을 나타낸다.
도 13a 및 도 13b는 이벤트 발생에 따라 터치 패드 영역의 발광 제어가 수행되는 실시예들을 나타낸다.
도 14a 및 도 14b는 전자 기기를 사용하고 있는 주변 영역의 밝기에 따라 터치 패드 영역의 발광 제어가 수행되는 실시예들을 나타낸다.
도 15는 본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기의 제어 방법의 흐름도를 나타낸다.
도 16은 본 명세서에 따른 이벤트 검출에 기반한 전자 기기의 제어 방법의 흐름도를 나타낸다.
도 17은 본 명세서에 따른 어플리케이션 프로그램의 실행 입력 및 실행 상태에 따른 전자 기기의 제어 방법의 흐름도를 나타낸다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 설명되는 전자 기기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
본 명세서에 설명되는 실시예들은 일반적으로 플라스틱, 세라믹, 유리, 복합재들 또는 이들의 조합들과 같은 유전체 재료로부터 형성된 인클로저의 상부 부분을 갖는 휴대용 전자 기기(예를 들어, 휴대용 컴퓨터, 노트북 컴퓨터, 랩톱 컴퓨터 등)에 관한 것이다. 유전체 재료로부터 형성된 컴포넌트는 휴대용 디바이스의 다양한 컴포넌트들을 하우징하기 위한 인클로저의 내부 체적의 일부를 한정할 수 있고, 또한 매우 다양한 터치 및 키보드 입력들을 허용하는 통합형 인터페이스 시스템의 입력 표면을 한정할 수 있다. 특히, 통합형 인터페이스 시스템은 트랙패드, 키보드의 역할을 할 수 있거나, 또는 트랙패드 및 키보드 기능들 둘 모두를 제공할 수 있고, 유전체 컴포넌트는 키보드 및 트랙패드 구역들의 전부 또는 일부를 한정할 수 있다.
본 명세서에 설명되는 일부 실시예들에서, 통합형 인터페이스 시스템은 입력 표면의 다양한 구역들에 인가된 다양한 유형들의 입력들을 검출할 수 있는, 터치 및 힘 센서들을 포함하는 다수의 센서들과 통합될 수 있다. 일부 예시들에서, 터치 및/또는 힘 센서들은 비-키보드 구역에 인가된 터치 입력들 뿐만 아니라 (기계식 및/또는 가상 키들을 포함할 수 있는) 키보드 구역에 인가된 키 입력들을 검출하도록 구성된 단일형 구조로 형성된다. 본 명세서에 설명되는 실시예들에 따르면, 통합형 인터페이스 시스템은 또한 기계식 키보드의 키캡들에 인가된 제스처들 및 멀티-터치 입력들을 검출하는 데 사용되어, 키캡들 및 키보드 구역이 트랙패드로서 기능하게 허용할 수 있다.
통합형 인터페이스 시스템은 또한 시각적 출력들, 햅틱 출력들 등을 포함하는 다양한 유형들의 출력 기능을 제공할 수 있다. 예를 들어, 터치 또는 힘 입력이 제공될 수 있는 곳을 표시하기 위해 어포던스들의 이미지들(예를 들어, 키들, 키보드들, 버튼들, 슬라이더들, 다이얼들 등)이 (예를 들어, 디스플레이 디바이스를 이용하여) 상단 케이스 상에 디스플레이될 수 있다. 다른 예로서, 통합형 인터페이스 시스템의 상단 케이스는 터치 또는 힘 입력들의 검출에 응답하여 촉각 또는 햅틱 출력들을 제공하기 위해 이동 또는 진동하도록 구성될 수 있다. 따라서, 통합형 인터페이스 시스템은 통합형 입력/출력 표면을 통해 포괄적인 입력 및 출력 기능을 제공할 수 있다.
위에서 언급된 바와 같이, 통합형 인터페이스 시스템의 입력 표면을 한정하는 컴포넌트는 유리, 플라스틱, 또는 세라믹과 같은 유전체 재료의 연속 및/또는 이음매 없는 시트로부터 형성될 수 있다(예를 들어, 컴포넌트는 단일 유리 부재일 수 있다). 시트는 본 명세서에 설명된 다양한 입력 및 출력 기능들을 가능하게 하는 속성들을 가질 수 있다. 예를 들어, 시트는 강할 수 있고, 스크래칭에 대한 높은 저항성을 가질 수 있으며, 다른 재료들 또는 컴포넌트들과 비교하여 우수한 외관 및/또는 촉감을 갖는 표면 마감을 제공할 수 있다. 시트는 또한 유전체 및/또는 실질적으로 비전도성이어서, 터치 및 힘 입력들이 시트를 통해 검출되게 허용하고, 전자기파들 및/또는 전자기장들(예를 들어, 무선 주파수 신호들, 유도 전력, 유도 신호들, 및 다른 무선 통신들 또는 전자기 에너지 전달)이 실질적인 감쇠 없이 통과되게 허용할 수 있다. 시트는 연속적이거나 이음매 없을 수 있으며, 이는 액체 또는 다른 외부 부스러기의 유입을 방지하는 것을 도울 수 있다. 시트는 또한 광 투과성이어서, 이미지들 또는 광이 그를 통해 보이게 허용할 수 있다. 본 명세서에서 사용되는 바와 같이, 광 투과성은 투명하거나 반투명한 것이거나, 또는 그렇지 않으면 광이 그를 통해 전파되게 허용하는 것을 지칭하는 데 사용될 수 있다. 일부 예시들에서, 투명 재료들 또는 컴포넌트들은 (예를 들어, 표면 텍스처(texture)들로 인해) 일부 확산, 렌즈화 효과들, 왜곡들 등을 도입하면서, 여전히 물체들 또는 이미지들이 재료들 또는 컴포넌트들을 통해 보여지게 허용할 수 있으며, 그러한 편차들은 투명의 의미의 범주 내에 있는 것으로 이해된다. 또한, 투명한 재료들은, 비-투명(예를 들어, 불투명) 컴포넌트를 생성하도록 코팅, 페인팅, 또는 달리 처리될 수 있으며; 그러한 경우들에서, 재료가 불투명 컴포넌트의 일부일 수 있더라도, 재료는 여전히 투명으로 지칭될 수 있다. 반투명 컴포넌트들은 달리 투명한 재료(예를 들어, 투명 유리) 상에 텍스처 형성된(textured) 또는 프로스테드(frosted) 표면을 생성함으로써 형성될 수 있다. 반투명 재료들, 이를테면 반투명 중합체들, 반투명 세라믹들 등이 또한 사용될 수 있다.
도 1a는 본 발명에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 통합형 인터페이스 시스템을 포함할 수 있는 전자 기기를 나타낸다. 특히, 전자 기기(100)의 베이스 부(104)는, 인클로저의 일부분을 한정하고 또한, 본 명세서에 설명된 통합형 인터페이스 시스템을 형성하거나 또는 그의 일부인 상단 케이스(112)를 포함할 수 있다.
전자 기기(100)는 디스플레이 부분(102) 및 (예를 들어, 디스플레이 부분(102)이 베이스 부(104)에 대해 회전되거나, 피봇되거나, 구부러지거나, 관절운동하거나, 또는 달리 이동될 수 있도록) 디스플레이 부분(102)에 유연하게 또는 피봇식으로 커플링된 베이스 부(104)을 갖는, 노트북 또는 랩톱 컴퓨터로 또한 알려진 휴대용 컴퓨터일 수 있거나 또는 그와 유사할 수 있다. 디스플레이 부분(102)은, 이를테면 그래픽 사용자 인터페이스들을 디스플레이함으로써 사용자에게 시각적 정보를 전달하는 주요 수단을 제공하는, 1차 디스플레이로 또한 지칭되는 디스플레이를 포함한다. 베이스 부(104)는 키보드 입력들(예를 들어, 타이핑), 터치 입력들(예를 들어, 제스처들, 멀티-터치 입력들, 스와이프들, 탭들 등) 등과 같은 다양한 유형들의 사용자 입력들을 수신하도록 구성된다. 베이스 부(104)는 또한, 이를테면 표시등(indicator light)들, 햅틱 출력 디바이스들, 베이스 부(104)에 장착된 디스플레이들 등을 이용하여 사용자에게 정보를 전달하기 위한 출력들을 제공할 수 있다. 일부 예시들에서, 베이스 부(104)을 통해 다양한 유형들의 입력 및 출력을 제공하는 것은 본 명세서에 설명되는 바와 같이, 베이스 부(104) 상의 연속적인 상단 표면을 사용함으로써 용이하게 되거나 또는 가능하게 된다.
디스플레이 부분(102) 및 베이스 부(104)는, 그들이 개방 위치 및 폐쇄 위치에 위치될 수 있도록 서로 커플링될 수 있다. 개방 위치에서, 사용자는 베이스 부(104)을 통해 전자 기기(100)에 입력들을 제공하면서 동시에 디스플레이 부분(102) 상에서 정보를 보는 것이 가능할 수 있다. 폐쇄 위치에서, 디스플레이 부분(102) 및 베이스 부(104)는 서로에 대해 접힌다. 보다 구체적으로, 디스플레이 부분(102) 및 베이스 부(104)는 개방 구성과 폐쇄 구성 사이에서 이동될 수 있는 클램셸 디바이스를 형성하도록 (예를 들어, 피봇 메커니즘 또는 힌지(103)를 통해) 함께 힌지결합될 수 있다.
정보 및/또는 데이터는 디스플레이 부분(102)과 베이스 부(104) 사이에서 전달될 수 있다. 예를 들어, 디스플레이 부분(102)으로 하여금 이미지들, 사용자 인터페이스들, 애플리케이션 데이터 등을 디스플레이하게 하는 데이터 또는 신호들과 같은 디스플레이 데이터가 베이스 부(104)으로부터 디스플레이 부분(102)으로 전송될 수 있다. 유사하게, 입력 데이터는 디스플레이 부분(102)으로부터 베이스 부(104)으로 전송될 수 있다. 입력 데이터는 디스플레이 부분(102) 내의 터치스크린에 인가된 터치 입력들에 관한 데이터, (예를 들어, 디스플레이 부분(102) 내의 센서들, 이를테면 광 센서들, 가속도계들 등으로부터의) 센서 데이터, (예를 들어, 디스플레이 부분(102) 내의 카메라로부터의) 카메라 데이터 등을 포함할 수 있다. 전자 기기(100)는 디스플레이 부분(102)과 베이스 부(104) 사이에서 데이터를 전달하기 위한 임의의 적절한 통신 시스템, 이를테면 유선 또는 무선 통신 시스템들을 포함할 수 있다. 무선 통신 시스템들은 디스플레이 부분(102)에 제1 송신기/수신기, 및 베이스 부(104)에 제1 송신기/수신기와 통신하는 제2 송신기/수신기를 포함할 수 있다. 제1 및 제2 송신기/수신기는 임의의 적합한 방식으로 통신하며, 임의의 적합한 무선 주파수 또는 주파수들(예를 들어, 2.4 ㎓, 60 ㎓), 통신 프로토콜(들) 등을 사용할 수 있다. 제1 및 제2 송신기/수신기는 또한 광 통신 링크를 통해 통신할 수 있다.
전력은 또한 베이스 부(104)과 디스플레이 부분(102) 사이에서 전달될 수 있다. 예를 들어, 베이스 부(104) 및 디스플레이 부분(102) 중 어느 하나 또는 둘 모두는 배터리들 또는 다른 전원들을 포함할 수 있다. 각각의 부분의 전력 수요들 및 전력 공급들에 기초하여 필요에 따라 하나의 부분으로부터 다른 부분으로 전력이 전송될 수 있다. 예를 들어, 베이스 부(104) 및 디스플레이 부분(102)은 배터리들 뿐만 아니라 전력을 요구하는 컴포넌트들을 포함할 수 있다. 전력은, 배터리 또는 회로 또는 컴포넌트의 위치에 관계없이 임의의 배터리로부터, 전력을 요구하는 임의의 회로 또는 컴포넌트에 분배될 수 있다. 임의의 적합한 컴포넌트들 및 기법들을 사용하여 베이스 부(104)과 디스플레이 부분(102) 사이에서 전력이 전달될 수 있다. 예를 들어, 유선 또는 물리적 전력 연결은 디스플레이 부분(102)을 베이스 부(104)에 커플링시킬 수 있다. 다른 예로서, 전력은, 이를테면 유도성 또는 용량성 전력 전달 시스템들을 통해 무선으로 전달될 수 있다.
위에서 언급된 바와 같이, 베이스 부(104)는 상단 케이스(112)를 포함할 수 있다. 상단 케이스(112)는 전자 기기(100)의 통합형 인터페이스 시스템을 한정하거나 또는 그의 일부일 수 있다. 예를 들어, 상단 케이스(112)는 베이스 부(104)의 상단 외부 표면을 한정할 수 있으며, 터치 입력들, 힘 입력들, 키보드 입력들 등을 수신하도록 구성될 수 있다. 일부 예시들에서, 상단 케이스(112)의 전체 상단 표면(또는 상단 표면의 실질적으로 전부)은 터치 및/또는 힘 감응성일 수 있으며, 키보드 구역 뿐만 아니라 주변 구역들을 포함하는 그의 표면을 따라 실질적으로 임의의 곳에서 터치 입력들을 검출할 수 있다. 전체 상단 케이스(112)가 터치 및 힘 감응성인 경우들에서, 많은 유형들의 입력들이 상단 케이스(112)를 통해 인에이블된다. 예를 들어, 본 명세서에 설명되는 바와 같이, 커서-제어 제스처들을 포함하는 터치 입력들은 가상 또는 기계식 키보드의 키들을 포함하는 상단 케이스 상의 임의의 곳에 인가될 수 있다. 다른 예로서, 힘 감지 시스템들이 디바이스가 키 상에 놓여 있는 손가락과 실제로 키를 탭핑하거나 또는 누르는 손가락 사이를 구별하게 허용할 수 있으므로, 키보드 구역 뿐만 아니라 비-키보드 구역들에 걸친 힘 감지의 부가는 다수의 손가락들이 가상 키보드 상에 놓여 있을 때 타이핑 입력들의 검출을 용이하게 할 수 있다.
입력들을 수신하거나 또는 검출하는 것에 부가하여, 상단 케이스(112)는 사용자에게 출력들을 제공하도록 구성될 수 있다. 예를 들어, 상단 케이스(112)는 (예를 들어, 상단 케이스(112)의 상단 표면을 따른 임의의 위치 또는 실질적으로 임의의 위치에서) 상단 케이스(112)를 통해 검출가능한 출력들을 제공하는 디스플레이들, 광원들, 햅틱 액추에이터들 등을 포함하거나 그와 통합될 수 있다. 보다 구체적으로, 디스플레이는 상단 케이스(112) 상에서 이미지를 생성하도록 구성될 수 있고, 햅틱 액추에이터는 상단 케이스(112)와 접촉하는 사용자에 의해 검출가능한 방식으로 상단 케이스(112)를 이동시키도록 구성될 수 있다. 상단 케이스(112)의 조성 및 구성은 이들(및 다른) 입력 및 출력 기능들을 용이하게 하고 통합할 수 있다. 예를 들어, (예를 들어, 유리, 플라스틱, 세라믹, 복합재들, 또는 재료들의 조합과 같은 유전체로부터 형성된) 연속적인 비전도성 상단 케이스(112)는 입력들이 상단 케이스(112)를 통해 검출되게 허용하면서, 햅틱 및 시각적 출력들을 위한 효과적인 플랫폼을 또한 제공할 수 있다.
상단 케이스(112)는 키보드 영역(114) 및 터치 패드 영역(116)과 같은 입력 구역들을 한정하거나 또는 포함할 수 있다. 키보드 영역(114)은 가상 키보드 또는 기계식 키보드에 대응하거나 또는 이를 포함할 수 있다.
상단 케이스(112)는, 베이스 부(104)의 상단 외부 표면일 수 있는 베이스 부(104)의 연속적인 상단 표면을 한정할 수 있다. 연속적인 상단 표면(및 보다 일반적으로는 연속적인 상단 케이스)은 어떠한 이음매들, 개구들, 관통-홀들, 또는 다른 불연속부들도 갖지 않는 표면 또는 부재를 지칭할 수 있다. 따라서, 상단 케이스(112)의 맥락에서, 연속적인 상단 케이스 또는 연속적인 상단 표면에는 베이스 부(104)의 외부 상단 표면을 형성하는 상단 케이스(112)의 일부분 내에 이음매들, 개구들, 관통-홀들, 또는 다른 불연속부들이 없을 수 있다. 보다 구체적으로, 상단 케이스(112)에는 키들, 키보드들, 트랙패드들, 버튼들 등을 위한 개구들이 없을 수 있다. 상단 케이스(112)는 베이스 부(104)의 외측 에지들로 실질적으로 연장될 수 있다. 따라서, 상단 케이스(112)는, 액체, 먼지, 다른 오염물들 또는 부스러기들이 상단 케이스(112)의 상단 표면을 통해 베이스 부(104)에 진입하는 가능성을 방지하거나 또는 감소시킬 수 있다. 또한, 연속적인 표면은 상단 케이스(112)의 노출된 전체 상단 표면을 이용할 수 있는 바람직한 미적 및 터치 감응성 햅틱 및 시각적 출력 표면을 제공한다.
상단 케이스(112)는 유리, 플라스틱, 또는 광-투과성 세라믹과 같은 광-투과성 재료로부터 형성되거나 또는 이를 포함할 수 있다. 일부 예시들에서, 상단 케이스(112)는 단일 유리 부재, 단일 플라스틱 부재, 또는 임의의 다른 적합한 재료로부터 형성되거나 또는 이를 포함하는 단일 부재와 같은 단일 부재이다. 다른예시들에서, 상단 케이스(112)는 상단 케이스(112)를 한정하기 위해 함께 접합, 접착, 결합, 또는 달리 커플링되는, 동일한 재료 또는 상이한 재료들 중 어느 하나인 다수의 부재들로 형성될 수 있다.
일부 예시들에서, 상단 케이스(112)의 전부 또는 일부가 마스킹되어 불투명 구역들을 형성할 수 있다. 마스킹은 잉크, 염료, 필름을 증착시키는 것 또는 그렇지 않으면 상단 케이스(112) 아래에 (그리고 숨겨지거나 또는 막혀지게 유지되도록 의도되는 임의의 다른 컴포넌트들 또는 층들 위에) 불투명 재료를 위치시키는 것과 같은 임의의 적합한 기술을 사용하여 형성될 수 있다. 마스킹 또는 다른 불투명 재료 또는 층은 임의의 원하는 색상일 수 있다. 실제로, 상단 케이스(112)가 광-투과성(예를 들어, 투명)일 수 있기 때문에, 종래의 디바이스들보다 달성가능한 색상들에 대한 더 적은 제한이 존재할 수 있다. 예를 들어, 소정의 색상들, 마감재(finish)들, 또는 다른 광학 처리들은 코팅되지 않은 불투명 플라스틱 재료에서 달성하기 어렵거나 또는 불가능할 수 있다. 광-투과성 또는 투명 상단 케이스(112)를 사용함으로써, 더 많은 이용가능한 색상들 및/또는 마감재들(예를 들어, 미러 마감재들, 금속 박편 마감재들 등)을 갖는 디바이스들을 달성하는 것이 가능할 수 있다. 일부 예시들에서, 이미지들, 사진들, 페인팅들, 또는 다른 그래픽 콘텐츠는 광-투과성 상단 케이스(112)를 통해 보일 수 있다.
터치 패드 영역(116)은 터치-기반 입력 및/또는 힘-기반 입력을 검출하도록 구성될 수 있으며, 키보드 영역(114), 트랙패드 구역, 가상 키 구역, 상단 케이스의 선택적인 측벽들, 또는 상단 케이스(112)의 임의의 다른 부분을 포함하는 실질적으로 전체 상단 케이스(112)를 포함하는 상단 케이스(112)의 임의의 부분일 수 있거나 또는 이를 포함할 수 있다. 일부 예시들에서, 실질적으로 전체 상단 케이스(112)는 에지로부터 에지까지 터치 감응성 입력 구역을 한정할 수 있다. 이러한 방식으로 그리고 본 명세서에서 논의되는 바와 같이, 클릭들, 탭들, 제스처들(예를 들어, 스와이핑, 핀칭), 및 멀티-터치 입력들과 같은 터치 또는 트랙패드 입력들은 키보드 영역(114) 내를 포함하여 상단 케이스(112)의 임의의 부분 상에서 검출될 수 있다. 또한, 키보드 영역(114)이 기계식 키 메커니즘들을 포함하는 경우에도, 터치 패드 영역(116)은, 상단 케이스(112)가 아니라 키캡들에 직접 인가된 터치 입력들(예를 들어, 제스처들)을 검출할 수 있다. 본 명세서에서 사용되는 바와 같이, "키"는 기계식 키, 가상 키(예를 들어, 아래에 놓인 디스플레이에 의해 디스플레이된 키), (예를 들어, 상단 케이스 상의 마스크 층에 의해 정의되는) 키 구역, 또는 본 명세서에 설명된 임의의 다른 적합한 유형의 키 뿐만 아니라, 임의의 연관된 메커니즘들, 키캡들, 또는 지지 구조체들을 지칭할 수 있다.
전자 기기(100), 특히 상단 케이스(112)는 또한 시각적-출력 구역들 및 햅틱-출력 구역들과 같은 출력 구역들을 포함하거나 또는 한정할 수 있다. 햅틱-출력 구역들은, 이동되거나 또는 그렇지 않으면 사용자에게 촉감들을 유도할 수 있는 상단 케이스(112)의 구역들을 포함한다. 시각적-출력 구역들은 (예를 들어, 가상 및/또는 동적 키들을 디스플레이하기 위해) 시각적 출력들이 생성되는 구역들, 이를테면 광들 또는 디스플레이들과 연관된 구역들을 포함한다. 예시적인 시각적- 및 햅틱-출력 구역들뿐만 아니라 시각적 및 햅틱 출력들을 생성하기 위한 컴포넌트들이 본 명세서에 설명된다.
따라서, 전자 기기(100)는, 키보드 입력들, 터치 입력들, 시각적 출력들, 및 햅틱 출력들을 포함하는 다양한 입력 및 출력 기능들을 제공하는 통합형 인터페이스 시스템을 한정하는 상단 케이스를 포함할 수 있다.
도 1b는 본 명세서에 따른 전자 기기의 부분 분해도이다. 전술한 바와 같이, 전자 기기(100)는 베이스 부(104)을 한정하는 인클로저의 일부를 형성하며, 사용자 입력을 수신하기 위한 통합형 인터페이스 시스템의 입력 표면으로서 또한 작용할 수 있는 베이스 부(104)의 상단 외부 표면을 또한 한정하는 상단 케이스(112)를 포함한다. 도 1b에 도시된 바와 같이, 베이스 부(104)는 접힘가능한 또는 클램셸 유형의 노트북 컴퓨터를 형성하도록 디스플레이 부분(102)에 피봇식으로 커플링될 수 있다.
도 1b에 도시된 바와 같이, 디스플레이 부분(102)은 디스플레이 하우징(108)에 커플링된 디스플레이(204)를 포함한다. 디스플레이(204)는 액정 디스플레이(LCD) 컴포넌트, 광원(들)(예를 들어, 발광 다이오드(LED)들, 유기 LED(OLED)들), 필터 층들, 편광기들, 광 확산기들, 커버들(예를 들어, 유리 또는 플라스틱 커버 시트들) 등과 같은 다양한 디스플레이 컴포넌트들을 포함할 수 있다. 보다 구체적으로, 일부 예시들에서, 디스플레이(204)는 (예를 들어, LCD, 편광 필름들, 광 확산 필름들, 및/또는 후방 또는 측부 광을 포함하는) 디스플레이 스택 및 디스플레이 스택 위에 배치되고 디스플레이(204)의 외부 사용자-대면 표면을 형성하는 커버를 포함한다. 다른예시들에서, 디스플레이(204)는 위에서 설명된 바와 같은 디스플레이 스택을 포함하지만, 별개의 커버를 포함하지 않는다. 그러한 경우들에서, 디스플레이 스택의 LCD 패널의 측부 또는 표면은 디스플레이(204)의 외부 사용자-대면 표면을 형성할 수 있다. 디스플레이 부분(102)은 또한, 전술된 컴포넌트들, 배터리들, 유선 또는 무선 통신 컴포넌트들, 프로세서들, 메모리 등 중 임의의 것을 지지하는 구조적 컴포넌트들과 같은 다른 컴포넌트들을 포함할 수 있다.
디스플레이 부분(102)은 디스플레이 부분(102)에 커플링되거나 또는 그와 일체로 형성되는 메커니즘들(103) 또는 그의 일부분들을 포함할 수 있다. 예를 들어, 디스플레이 하우징(108)은 디스플레이 하우징(108)에 용접되거나, 납땜되거나, 접착되거나, 또는 달리 부착되는 힌지들(또는 그의 일부분들)을 포함할 수 있다. 디스플레이(204) 및 상단 케이스(112)는, 디스플레이(204) 및 상단 케이스(112)가 디스플레이 부분(102) 및 베이스 부(104)의 실질적으로 전체 사용자 인터페이스 표면들을 한정하게 허용하면서 메커니즘들(103)의 배치를 허용하기 위해 (도 1b에 도시된 노치들과 같은) 특징부들(206)을 포함할 수 있다.
베이스 부(104)는 위에서 설명된 하단 케이스(110) 및 상단 케이스(112)를 포함할 수 있으며, 이들은 베이스 부(104)의 내부 체적을 함께 한정한다. 베이스 부(104)는 또한 내부 체적 내에 컴포넌트들(208), 이를테면 프로세서들, 메모리 디바이스들, 회로 보드들, 입력/출력 디바이스들, 햅틱 액추에이터들, 유선 및/또는 무선 통신 디바이스들, 통신 포트들, 디스크 드라이브들 등을 포함할 수 있다. 위에서 설명된 바와 같이, 상단 케이스(112)는 내부 체적 내로의 액체, 부스러기, 또는 다른 오염물들의 유입을 방지 또는 제한하여 컴포넌트들(208)에 대한 손상의 가능성을 감소시키는 (예를 들어, 자신의 상단 표면 내에 어떠한 홀들 또는 개구들도 갖지 않는) 연속적인 표면일 수 있다.
하단 케이스(110)는 하단 부재(111) 및 하나 이상의 측벽들(113-1 내지 113-4)을 포함할 수 있다. 일부 예시들에서, 하단 케이스(110)는 1개, 2개, 3개, 또는 4개의 측벽들을 갖는다. 하단 케이스가 3개의 측벽들을 갖는 경우, 측벽(113-3)이 생략될 수 있다. 하단 케이스가 2개의 측벽들을 갖는 경우, 측벽들(113-2, 113-4)이 생략될 수 있다. 하단 케이스가 하나의 측벽을 갖는 경우, 유일한 측벽은 측벽(113-1)일 수 있다. 물론, 측벽들의 다른 구성들이 또한 가능하다.
하단 케이스(110)는 임의의 적절한 재료로부터 형성되거나 또는 이를 포함할 수 있다. 예를 들어, 하단 케이스(110)는 금속(예를 들어, 강철, 알루미늄, 티타늄), 유리, 플라스틱, 세라믹, 복합재, 또는 임의의 다른 적합한 다른 재료 또는 이들 또는 다른 재료들의 조합으로부터 형성되거나 또는 이를 포함할 수 있다. 일부 예시들에서, 하단 케이스(110)는 단일(예를 들어, 모놀리식) 컴포넌트 또는 부재, 이를테면 유리, 금속, 플라스틱 등의 단일 시트이다. 예를 들어, 하단 케이스(110)는 단일 편부의 금속으로부터 형성된 단일 컴포넌트일 수 있고, 스탬핑, 드로잉(drawing), 기계가공, 하이드로포밍(hydroforming), 몰딩, 또는 임의의 다른 적합한 프로세스에 의해 형성될 수 있다. 하단 케이스(110)가 단일 컴포넌트인 경우, 하단 부재(111) 및 측벽(들)(113)은 일체형 구조(예를 들어, 모놀리식 컴포넌트)일 수 있다.
상단 케이스(112)는 임의의 적합한 방식으로 하단 케이스(110)에 커플링될 수 있다. 상단 케이스(112)와 하단 케이스(110) 사이의 커플링의 다양한 예들뿐만 아니라, 상단 및 하단 케이스들(112, 110)의 다양한 구성들 및 형상들이 본 명세서에 설명된다. 유사하게, 디스플레이(204) 및 디스플레이 하우징(108)의 예시적인 구성들 (및 그들을 결합하기 위한 기법들)이 본 명세서에 설명된다.
한편, 도 2는 본 명세서에 따른 전자 기기의 예시적인 통합형 인터페이스 시스템의 구성도를 나타낸다. 통합형 인터페이스 시스템(118)의 기능들은 터치 센서들, 힘 센서들, 햅틱 액추에이터들, 디스플레이들, 기계식 키들, 광원들 등을 포함하는, 본 명세서에 설명된 컴포넌트들 및 구조들 중 임의의 것에 의해 수행될 수 있으며, 이들의 예들이 본 명세서에 설명된다.
도 2를 참조하면, 통합형 인터페이스 시스템(118)은 키보드 입력 모듈(120), 터치 입력 모듈(121), 힘 입력 모듈(122) 및 입력 및/또는 센서 모듈(123)을 포함하도록 구성될 수 있다. 통합형 인터페이스 시스템(118)은 디스플레이 모듈(130), 햅틱 모듈(131) 및 조명 모듈(132)을 더 포함하도록 구성될 수 있다. 프로세서(180)는 통합형 인터페이스 시스템(118)을 구성하는 각 모듈과 동작 가능하게 결합될 수 있다. 프로세서(180)는 키보드 입력 모듈(120), 터치 입력 모듈(121), 힘 입력 모듈(122) 및 입력 및/또는 센서 모듈(123)과 동작 가능하게 결합될 수 있다. 프로세서(180)는 디스플레이 모듈(130), 햅틱 모듈(131) 및 조명 모듈(132)과 동작 가능하게 결합될 수 있다.
통합형 인터페이스 시스템(118)은 키보드 입력 모듈(120)을 제공한다. 키보드 입력 모듈(120)은 키보드를 통해 전형적으로 제공되는 입력들(예를 들어, 문자 숫자식 및/또는 기호 문자 입력, 기능 키 선택들, 화살표 키 선택들)을 포함하는 키-기반 또는 유사한 입력들의 검출을 포함한다. 디바이스(예를 들어, 전자 기기(100))는 키보드 입력 모듈(120)을 수행하기 위해 임의의 적합한 입력 메커니즘(들), 이를테면, 기계식 키들, 터치 센서들, 힘 센서들, 디스플레이 등을 사용할 수 있다. 디바이스가 기계식 키들 또는 키 메커니즘들을 포함하는 경우, 키보드 입력 모듈(120)은 키 메커니즘들의 물리적 움직임의 검출을 포함한다. 디바이스가 가상 키들을 포함하는 경우, 키보드 입력 모듈(120)은 가상 키들 상에서의 터치 또는 힘 입력들의 검출을 포함할 수 있다. 어느 예시이든, 키보드 입력 모듈(120)은 (도 1a의 상단 케이스(112)와 같은) 입력 표면을 통해 키보드 입력들을 검출할 수 있다.
통합형 인터페이스 시스템(118)은 또한 터치 입력 모듈(121)을 제공한다. 터치 입력 모듈(121)은 클릭들, 탭들, 제스처들(예를 들어, 스와이핑, 핀칭), 멀티-터치 입력들 등과 같은 터치-기반 입력들의 검출을 포함한다. 이들 입력들은 트랙패드에 의해 종래에 검출되는 입력들과 유사하거나 또는 이들을 포함할 수 있다. 예를 들어, 이러한 입력들은 디바이스의 디스플레이 상의 그래픽 사용자 인터페이스의 커서 또는 요소를 제어하는 데 사용될 수 있는 제스처 입력들을 포함할 수 있다. 디바이스(예를 들어, 전자 기기(100))는 터치 입력 모듈(121)을 수행하기 위해 용량성 터치 센서들, 저항성 터치 센서들, 음파 센서들 등과 같은 임의의 적합한 입력 메커니즘(들)을 사용할 수 있다. 그러한 메커니즘들은 상단 케이스(112)의 실질적으로 전체 사용자-대면 부분과 연관되거나 또는 그 부분을 덮을 수 있다. 이러한 방식으로, 터치 입력 모듈(121)은 (예를 들어, 기계식 또는 가상 키보드, 기계식 또는 가상 키보드 아래의 트랙패드 구역, 그리고/또는 기계식 또는 가상 키보드의 측방향 측부들에 인접한 상단 케이스의 일부분들을 포함하는) 상단 케이스(112) 상의 임의의 곳에 인가된 터치 입력들을 검출할 수 있다.
터치 입력 모듈(121)은 상단 케이스(112)의 키보드 구역(예를 들어, 도 1a의 키보드 영역(114))에서 수신되는 터치 입력들의 검출을 포함할 수 있다. 키보드 구역은 위에서 설명된 바와 같이, 가상 키보드의 키없는(keyless) 표면에 대응할 수 있거나, 또는 그것은 기계식 키들을 포함하는 상단 케이스(112)의 구역에 대응할 수 있다. 어느 예시이든, 터치 입력 모듈(121)은 키보드 구역에 인가된 터치 입력들, 이를테면 클릭들, 탭들, 제스처들(예를 들어, 스와이핑, 핀칭), 및 멀티-터치 입력들의 검출을 포함할 수 있다. 기계식 키들 또는 키 메커니즘들이 사용되는 경우, 터치 입력 모듈(121)은 기계식 키들 또는 메커니즘들을 통한 터치 입력들의 검출을 포함할 수 있다.
터치 입력 모듈(121)은 또한 상단 케이스(112)의 비-키 구역에 인가된 터치 입력들의 검출을 포함할 수 있다. 예를 들어, 키보드 구역(비-키보드 구역)에 대응하지 않는 상단 케이스(112)의 임의의 구역은 터치 입력들을 수신하도록 구성될 수 있으며, 디바이스는 또한 이들 구역들에서 터치 입력들을 검출할 수 있다.
통합형 인터페이스 시스템(118)은 또한 힘 입력들 및/또는 터치 입력의 힘 컴포넌트의 검출을 포함하는 힘 입력 모듈(122)을 제공한다. 디바이스(예를 들어, 전자 기기(100))는 힘 입력 모듈(122)을 제공하기 위해 임의의 적합한 힘 센서들을 사용할 수 있다. 힘 입력 모듈(122)은 상단 케이스(112) 상의 임의의 위치에서의 힘 입력들의 검출을 포함할 수 있다. 예를 들어, 상단 케이스(112)의 실질적으로 전체 상단 표면은 상단 케이스(112)의 상단 표면의 실질적으로 임의의 위치에 인가된 힘 입력들을 수신 및/또는 검출하도록 구성될 수 있다. 추가로, 상단 케이스(112)가 유전체 표면을 포함하거나 또는 유전체 시트(예를 들어, 유리, 플라스틱, 세라믹 등)로부터 형성되는 경우, 유전체 재료의 유전 및/또는 기계적 속성들(또는 다른 속성들)은 상단 케이스 상의 임의의 적합한 위치에서의(예를 들어, 키보드 영역(114), 비-키보드 구역, 또는 임의의 다른 적합한 위치에서의) 힘 입력들의 검출을 용이하게 할 수 있다.
통합형 인터페이스 시스템(118)은 또한 상단 케이스(112)를 통해 이미지들 또는 다른 시각적 정보의 출력을 포함하는 디스플레이 모듈(130)을 제공한다. 예를 들어, 디바이스(예를 들어, 전자 기기(100))는, 전자 기기(100) 내에 있고 상단 케이스(112) 상에서 볼 수 있는 이미지들을 생성하는 디스플레이들을 포함하거나 또는 그들과 통신할 수 있으며, 그에 의해 디스플레이 모듈(130)을 제공한다. 디스플레이들은, 예를 들어, 키보드 영역(114)에 대한 키들의 이미지들(또는 다른 어포던스들)을 생성하는 데 사용될 수 있다. 디스플레이들은 또한 (예를 들어, 입력의 위치 및/또는 기능을 표시하기 위해) 상단 케이스(112) 상의 임의의 위치에서 입력 구역들, 버튼들, 또는 다른 어포던스들을 한정하는 데 또는 다른 그래픽 객체들(예를 들어, 이미지들, 비디오들, 텍스트, 사용자 인터페이스들 등)을 디스플레이하는 데 사용될 수 있다. 상단 케이스(112)가 유리 또는 다른 투명 재료로 형성될 수 있다. 따라서, 전자 기기에서 불투명한 표면들, 이를테면 키보드와 경계를 이루는 부분 또는 트랙패드 상에서도 상단 케이스(112)가 스크린으로 동작할 수 있다. 이를 위해, 디스플레이들은 상단 케이스(112)와 통합될 수 있다.
통합형 인터페이스 시스템(118)은 또한 상단 케이스(112)에서 햅틱 또는 촉각 출력들의 생성을 포함하는 햅틱 모듈(131)을 제공한다. 디바이스(예를 들어, 전자 기기(100))는 햅틱 모듈(131)을 수행하기 위해 햅틱 액추에이터들을 사용할 수 있다. 햅틱 액추에이터들은 상단 케이스(112)에 커플링되거나, 또는 그렇지 않으면 상단 케이스(112)로 하여금 상단 케이스(112)에서 햅틱 출력들을 생성하도록 물리적으로 이동되게 할 수 있다. 햅틱 출력들은 다양한 목적들을 위해, 이를테면 터치 입력(예를 들어, 키 선택 또는 트랙패드 선택)이 전자 기기(100)에 의해 검출되었다는 것을 표시하기 위해 사용될 수 있다.
통합형 인터페이스 시스템(118)은 또한 상단 케이스(112)의 구역들 또는 요소들의 조명을 포함하는 조명 모듈(132)을 제공한다. 디바이스(예를 들어, 전자 기기(100))는 조명 기능을 제공하기 위해 광원들을 사용할 수 있다. 예를 들어, 유리, 플라스틱, 또는 그렇지 않으면 광-투과성 상단 케이스(예를 들어, 상단 케이스(112))는 도광체로서 작용할 수 있다. 예를 들어, 유리 또는 광-투과성(예를 들어, 투명 또는 반투명) 상단 케이스(112)는 광원으로부터 전자 기기(100)의 다른 구역들로, 이를테면 키캡들 또는 다른 키 메커니즘들 아래 또는 그 주위로 광을 지향시키기 위해 도광체로서 작용할 수 있다. 또한, 상단 케이스(112)가 완전히 투명하거나 또는 투명 부분들을 갖는 경우, 투명 부분들은 아래에 놓인 디스플레이들로부터의 이미지들이 상단 케이스(112)를 통과하게 허용하며, 이는 불투명한 상단 케이스들에서는 가능하지 않을 것이다. 조명 모듈(132)은 또한 디스플레이들에 대한 백라이팅 또는 다른 조명을 제공할 수 있다.
통합형 인터페이스 시스템(118)은 또한 하나 이상의 부가적인 입력 및/또는 센서 모듈(123)을 제공한다. 디바이스(예를 들어, 전자 기기(100))는 (예를 들어, 사용자 또는 다른 컴퓨터, 디바이스, 시스템, 네트워크, 등으로부터) 입력들을 수신하거나 또는 디바이스의 임의의 적합한 속성 또는 파라미터, 디바이스를 둘러싸는 환경, 디바이스와 상호작용하는 (또는 디바이스 근처의) 사람들 또는 물건들 등을 검출하기 위해 임의의 적합한 컴포넌트들을 사용할 수 있다. 예를 들어, 디바이스는 가속도계들, 온도 센서들, 위치/배향 센서들, 생체인식 센서들(예를 들어, 지문 센서들, 정맥파, 혈액-산소 센서들, 혈당 센서들 등), 눈-추적 센서들, 망막 스캐너들, 습도 센서들, 버튼들, 스위치들, 두껑-폐쇄(lid-closure) 센서들 등을 포함할 수 있다. 그러한 센서들 및/또는 입력 디바이스들은 디바이스의 임의의 적합한 부분 또는 디바이스 내의 임의의 적합한 위치에 위치될 수 있다. 예를 들어, 센서들 및/또는 입력 디바이스들은 디스플레이 부분(102) 또는 베이스 부(104)에 위치될 수 있다(또는 그것은 디스플레이 부분(102) 및 베이스 부(104) 둘 모두에 컴포넌트들을 포함할 수 있다). 입력 및/또는 센서 모듈(123)은 입력 및/또는 감지 기능을 제공하기 위해, 이를테면 다른 디바이스들 또는 시스템들로부터 커맨드들, 데이터, 정보, 콘텐츠(예를 들어, 오디오, 비디오, 이미지들, 웹페이지들) 등을 수신하기 위해 네트워크 및/또는 통신 시스템들을 사용할 수 있다.
이하, 본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기에 대해 설명한다. 이와 관련하여, 현재 많은 전자 기기에서 터치 인터페이스가 제공되고 있다. 예를 들어, 휴대폰, 스마트 폰(smart phone), 태블릿 컴퓨터(tablet computer), 랩탑 컴퓨터(laptop computer), PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), 디지털 카메라, 휴대용 게임기, MP3 플레이어 등과 같은 휴대용 전자 기기는 물론 현금 자동입출금기(Automated Teller Machine, ATM), 정보 검색기, 무인 티켓 발매기 등과 같은 고정 단말기로 구현되는 전자 기기에도 터치 스크린(touch screen)이 터치 인터페이스로 구비되어 있다.
이러한 터치 인터페이스와 연동하여, 최근에는 사용자 경험을 증강시키기 위한 방법으로 사용자에게 촉감을 제공하는 촉각 기술(haptic technology. 이하 햅틱 기술)이 주목받고 있다. 햅틱 기술을 이용하면, 사용자가 디지털 객체와 상호작용할 때 다양한 형태의 촉각을 사용자에게 제공함으로써, 궁극적으로 시각과 촉각이 융합된 피드백을 제공할 수 있다. 이러한 햅틱 기술이 적용된 전자 기기는 기존의 전자 기기에 비하여 보다 실감나는 터치 인터페이스를 사용자에게 제공하는 것이 가능하다.
한편, 이러한 터치 인터페이스는 이동 단말기로 구현되는 전자 기기에 구비될 수 있다. 이동 단말기로 구현되는 전자 기기 중 랩탑 컴퓨터는 디스플레이와 별도의 영역에 터치 패드 영역이 제공될 수 있다. 이러한 터치 패드 영역에 대한 터치 입력이 정상적으로 인가되었는지를 사용자에게 직관적으로 제공할 필요가 있다.
본 명세서는 전술한 문제 및 다른 문제를 해결하기 위한 것으로, 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기를 제공하는 것에 그 목적이 있다. 본 명세서는 터치 패드 영역의 내부에 배치되는 기판에 발광 소자를 추가하여 특정 영역의 발광을 통해 사용자 입력이 정상적으로 인가되었는지를 피드백 하는 데에 또 다른 목적이 있다. 본 명세서는 터치 패드 영역의 상부에 배치된 글래스의 특정 영역의 발광을 통해 사용자 입력이 정상적으로 인가되었는지를 피드백 하는 데에 또 다른 목적이 있다. 본 명세서는 터치 패드 영역의 하부에 배치된 햅틱 소자를 통해 사용자 입력이 정상적으로 인가되었는지를 피드백 하는 데에 또 다른 목적이 있다.
전술한 목적들을 달성하기 위한 본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기에 대해 도면을 참조하여 상세하게 설명한다. 이와 관련하여, 도 3a은 본 명세서에 따른 터치 패드 영역을 갖는 전자 기기의 측면 사시도 및 배면 사시도를 나타낸다. 도 3b는 도 3a의 터치 패드 영역을 구성하는 구성부의 분해 사시도를 나타낸다.
도 3a(a)는 본 명세서에 따른 터치 패드 영역을 갖는 전자 기기(100)의 측면 사시도를 나타낸다. 도 3a(b)는 본 명세서에 따른 터치 패드 영역을 갖는 전자 기기(100)의 배면사시도를 나타낸다. 도 3a(a) 및 도 3a(b)를 참조하면, 전자 기기(100)의 베이스 부(104)는 상단 케이스(112) 및 하단 케이스(110)를 포함하도록 구성될 수 있다. 상단 케이스(112) 및 하단 케이스(110)가 별도의 케이스로 구현되고, 상단 케이스(112) 및 하단 케이스(110)가 결합되도록 구성될 수 있다. 다른 예로, 상단 케이스(112) 및 하단 케이스(110)를 포함하는 베이스 부(104)가 단일 바디(unibody)로 구현될 수도 있다. 도 3a(b)를 참조하면, 베이스 부(104)의 사용자 입력 영역은 키보드 영역(114)과 터치 패드 영역(116)을 포함하도록 구성될 수 있다.
도 3b(a)는 도 3a(a)의 베이스 부(104)의 하부 영역에 순차적으로 적층되는 글래스(310), 터치 패드 영역(116), 광 렌즈 부(lighting lens portion, 320)의 전면도를 나타낸다. 도 3b(b)는 도 3a(a)의 베이스 부(104)의 하부 영역에 순차적으로 적층되는 글래스(310), 터치 패드 영역(116), 광 렌즈 부(320)의 배면도를 나타낸다. 글래스(310)는 전면과 배면이 투명한 재질로 형성될 수 있다. 글래스(310)는 베이스 부(104)의 하부 영역의 전체 영역을 커버하도록 제1 길이(L1) 및 제1 너비(W1)로 형성될 수 있다.
터치 패드 영역(116)은 하부 영역의 일부 영역을 커버하도록 제2 길이(L2) 및 제2 너비(W2)로 구성될 수 있다. 터치 패드 영역(116)은 사용자에 의해 실제로 터치가 가능한 영역으로 터치 패드 활성 영역으로 지칭될 수 있다. 터치 패드 영역(116)의 배면에 기판(340)이 배치되고 전면은 터치 가능한 재질로 형성될 수 있다. 이에 따라, 터치 패드 영역(116)은 터치 입력을 감지할 수 있는 부품과 부품이 배치된 기판(340)을 포함하는 터치 패드 모듈로 구현될 수 있다.
터치 패드 영역(116)의 제2 길이(L2)는 제1 길이(L1)보다 짧게 형성될 수 있다. 터치 패드 영역(116)의 제2 너비(W2)도 제1 너비(W1)보다 짧게 형성될 수 있다. 이에 따라, 베이스 부(104)의 하부 영역 중 일부 영역만 터치 입력이 가능한 터치 패드 (활성) 영역(116)으로 형성될 수 있다.
광 렌즈 부(320)는 터치 패드 영역(116)을 둘러싸도록 내부가 빈 직사각형 형상으로 형성될 수 있다. 광 렌즈 부(320)는 내부가 빈 개방 영역(opening area, OA)으로 형성될 수 있다. 광 렌즈 부(320)의 외측 부는 제3 길이(L3) 및 제3 너비(W3)로 형성될 수 있다. 광 렌즈 부(320)의 내측 부는 개방 영역(OA)을 통해 터치 패드 영역(116)이 삽입되어 결합될 수 있도록 제2 길이(L2) 및 제2 너비(W2)로 구성될 수 있다. 하지만, 광 렌즈 부(320)의 내측 부는 이에 한정되는 것은 아니고 결합 시 공차를 고려하여 제2 길이(L2) 및 제2 너비(W2)보다 작게 형성될 수 있다.
이하, 도 1a 내지 도 3b를 참조하면, 본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기에 대해 상세하게 설명한다. 전자 기기(100)는 디스플레이(130) 및 베이스 부(base portion, 104)를 포함하도록 구성될 수 있다.
디스플레이(130)는 화면 정보를 표시하도록 구성될 수 있다. 베이스 부(104)는 디스플레이(130)와 동작 가능하게 결합될 수 있다. 베이스 부(104)는 키보드 영역(114)과 터치 패드 영역(116)을 구비할 수 있다. 터치 패드 영역(116)은 사용자의 터치 입력이 감지되는 영역으로 터치 입력 영역으로 지칭될 수 있다. 전술한 바와 같이, 베이스 부(104)는 글래스(310), 터치 패드 영역(116), 광 렌즈 부(lighting lens portion, 320)를 포함하도록 구성될 수 있다.
한편, 본 명세서에 따른 베이스 부의 적층 구조는 발광 소자들로부터 방사(emit)된 광이 발광되게 구성될 수 있다. 이와 관련하여, 도 4a는 본 명세서에 따른 글래스의 하부에 투명 층과 불투명 층이 배치된 적층 구조를 나타낸다. 도 4b는 본 명세서에 따른 글래스의 하부에 기판과 광 렌즈 구조가 배치된 구조를 나타낸다.
도 1a 내지 도 4a를 참조하면, 베이스 부(104)는 글래스(310)의 하부에 형성되는 투명 레이어(transparent layer, 311) 및 불투명 레이어(opaque layer, 312)를 더 포함할 수 있다. 투명 레이어(311)는 글래스(310)의 하부에 배치되어 광원(330)으로부터의 광을 투과하도록 형성될 수 있다. 투명 레이어(311)는 글래스(310)의 배면에 부착될 수 있다. 불투명 레이어(312)는 투명 레이어(311)의 하부 영역에 배치되어 광원(330)으로부터의 광을 차단하도록 형성될 수 있다.
투명 레이어(311)는 글래스(310)의 배면에 인쇄(print)된 형태로 투명 색상, 예를 들어 흰 색으로 구현될 수 있다. 불투명 레이어(312)는 투명 레이어(311)에 인쇄된 형태로 불 투명 색상, 예를 들어 검은 색으로 구현될 수 있다. 투명 레이어(311)와 불투명 레이어(312)가 순차적으로 글래스(310)의 배면에 부착되어 형성되므로, 투명 레이어(311)와 불투명 레이어(312)를 각각 제1 레이어 및 제2 레이어로 지칭할 수 있다. 광원(330)으로부터의 광은 불투명 레이어(312)의 슬롯 영역(312s)에 대응되는 투명 레이어(311)를 통해 도 4b의 글래스(310)의 특정 영역(310R) 상에서 방사(emit)될 수 있다.
불투명 레이어(312)는 투명 레이어(311)의 하부의 양 측에 배치될 수 있다. 이에 따라, 불투명 레이어(312)가 배치된 양 측 영역에서는 광원(330)으로부터의 광이 차단될 수 있다. 반면에, 불투명 레이어(312)가 배치되지 않은 중심부의 슬롯 영역(312s)에 광원으로부터의 광이 투과될 수 있다.
도 4b를 참조하면, 글래스(310)의 전면은 투명한 재질로 형성될 수 있다. 글래스(310)의 배면에 기판(340)이 배치될 수 있다. 도 4b에 도시된 바와 같이, 광 렌즈 부(320)는 서로 다른 두께를 갖는 복수의 부분들로 구성될 수 있다. 광 렌즈 부(320)는 제1 부분(321) 및 제2 부분(322)을 포함하도록 구성될 수 있다. 광 렌즈 부(320)는 제1 부분(321) 내지 제3 부분(323)을 포함하도록 구성될 수 있다.
제1 부분(321)은 발광 소자(330)의 제3 축 방향으로 하부 영역에 제1 두께(t1)로 형성될 수 있다. 제1 부분(321)의 일 단부에 인접한 위치에 발광 소자(330)가 배치될 수 있다. 발광 소자(330)는 제1 부분(321)의 타 단부와 연결된 제2 부분(322)의 일 단부를 향해 광이 방사될 수 있다.
제1 부분(321)의 타 단부가 제2 부분(322)의 일 단부와 연결될 수 있다. 제2 부분(322)의 일 단부는 제2 부분(322)의 내 측면을 형성할 수 있다. 제2 부분(322)은 제1 부분(321)의 제1 두께(t1)보다 두꺼운 제2 두께(t2)로 형성될 수 있다. 제2 부분(322)은 발광 소자(330)로부터 방사된 광이 통과되도록 구성될 수 있다. 발광 소자(330)로부터 방사되는 광이 제1 두께(t1) 및 제2 두께(t2)를 갖는 계단 구조로 형성되는 광 렌즈 부(320)를 통해 가이드 되어 집중되는 광 가이드 구조가 제시될 수 있다.
제2 부분(322)의 타 단부가 제3 부분(323)의 일 단부와 연결될 수 있다. 제3 부분(323)은 제2 부분(323)의 단부에서 제2 두께(t2)보다 두꺼운 제3 두께(t3)로 형성될 수 있다. 제3 부분(323)은 발광 소자(330)로부터 방사된 광이 특정 영역(310R)으로 방사되도록 구성될 수 있다. 광이 방사되는 특정 영역(310R)은 광이 투과될 수 있는 도 4a의 슬롯 영역(312s)에 대응될 수 있지만, 이에 한정되는 것은 아니고 응용에 따라 변경 가능하다.
제2 부분(322)을 통해 수평 방향으로 통과된 광은 제3 부분(323)을 통해 상부 방향으로 굴절되게 형성될 수 있다. 일 예로, 제3 부분(323)에 특정 파장의 광이 굴절되도록 굴절 소자가 배치될 수도 있다. 다른 예로, 굴절 소자 없이도 제3 부분(323)에 형성된 단차 구조에 의해 광이 산란되어 상부 방향으로 굴절될 수 있다. 발광 소자(330)로부터 방사되는 광이 제1 두께(t1) 내지 제3 두께(t3)를 갖는 계단 구조로 형성되는 광 렌즈 부(320)를 통해 가이드 되어 집중되는 광 가이드 구조가 제시될 수 있다.
제3 부분(323)의 일 단부는 제3 부분(323)의 내 측면을 형성할 수 있다. 제3 부분(323)의 내 측면은 기판(340)의 측면과 마주보게 이격될 수 있다. 제3 부분(323)의 타 단부는 제3 부분(323)의 외 측면을 형성할 수 있다. 제3 부분(323)의 외 측면에 반사 시트가 부착되어 발광 소자(330)로부터 방사되는 광이 반사되고, 다시 상부 방향으로 굴절될 수 있다. 이에 따라, 기판(340)의 측면 방향을 따라 방사되는 광이 광 렌즈 부(320)의 상부 영역으로 방사되어 특정 영역(310R)이 발광 될 수 있다.
도 1 내지 도 4b를 참조하면, 글래스(310)는 터치 입력 영역(116)에 배치될 수 있다. 글래스(310)는 터치 입력 영역(116)의 상부 영역에 터치 입력 영역(116)을 커버하도록 배치될 수 있다. 글래스(310)는 터치 패드 영역(116)을 포함하여 키보드 영역(114) 하부의 하부 영역 전체에 형성될 수 있다. 터치 패드 영역(116)은 글래스(310)의 하부 영역에 배치되어 터치 입력을 인식하도록 구성될 수 있다. 터치 패드 영역(116)은 적어도 하나의 광원(330)을 구비할 수 있다.
이와 관련하여, 도 5는 본 명세서에 따른 터치 패드 영역의 하부에 배치되는 기판과 기판을 둘러싸고 있는 광 렌즈 부를 확대한 도면이다.
도 1a 내지 도 5를 참조하면, 글래스(310)의 중심 영역에 터치 입력 영역(116)이 형성될 수 있다. 터치 입력 영역(116)을 둘러싸도록 광 렌즈 부(320)가 형성될 수 있다. 광 렌즈 부(320)는 터치 패드 영역(116)의 측면 영역을 따라 형성될 수 있다.
전술한 바와 같이, 투명 레이어(311)는 글래스(310)의 하부에 배치되어 광원(330)으로부터의 광을 투과하도록 형성될 수 있다. 투명 레이어(311)는 글래스(310)의 배면에 부착될 수 있다. 불투명 레이어(312)는 투명 레이어(311)의 하부 영역에 배치되어 광원(330)으로부터의 광을 차단하도록 형성될 수 있다. 불투명 레이어(312)는 투명 레이어(311)의 하부의 양 측에 배치될 수 있다. 이에 따라, 불투명 레이어(312)가 배치된 양 측 영역에서는 광원(330)으로부터의 광이 차단될 수 있다. 반면에, 불투명 레이어(312)가 배치되지 않은 중심부의 슬롯 영역(312s)에서는 광원(330)으로부터의 광이 투과될 수 있다.
광 렌즈 부(320)는 상부 영역(320a), 하부 영역(320b), 일 측 영역(320c) 및 타 측 영역(320d)을 포함하도록 구성될 수 있다. 광 렌즈 부(320)의 상부 영역(320a)은 기판(340)의 상단 부와 결합될 수 있다. 광 렌즈 부(320)의 하부 영역(320b)은 기판(340)의 하단 부와 결합될 수 있다. 광 렌즈 부(320)의 일 측 영역(320c)은 기판(340)의 일 측 단부와 결합될 수 있다. 광 렌즈 부(320)의 타 측 영역(320d)은 기판(340)의 타 측 단부와 결합될 수 있다.
상부 영역(320a)은 일 측 영역(320c) 및 타 측 영역(320d)과 연결되게 구성될 수 있다. 상부 영역(320a)은 일 측 영역(320c) 및 타 측 영역(320d)과 연결되게 일체로 형성될 수 있다. 하부 영역(320b)은 일 측 영역(320c) 및 타 측 영역(320d)과 연결되게 구성될 수 있다. 하부 영역(320b)은 일 측 영역(320c) 및 타 측 영역(320d)과 연결되게 일체로 형성될 수 있다.
적어도 하나의 광원(330)은 복수의 발광 소자들(331 내지 336)을 포함하도록 구성될 수 있다. 발광 소자들(331 내지 336)은 터치 패드 영역(116)에 배치된 기판(substrate)(340)의 제1 축 방향으로 일 측 및 타 측의 제2 축 방향으로 상부, 하부 및 중앙 영역에 배치될 수 있다.
복수의 발광 소자들의 개수는 도 5에 도시된 6개에 한정되는 것은 아니고 응용에 따라 변경 가능하다. 일 예시로, 좌측 상부 영역 및 좌측 하부 영역에 제1 및 제2 발광 소자(331, 332)가 배치되고 우측 상부 영역 및 우측 하부 영역에 제3 및 제4 발광 소자(333, 334)가 배치될 수 있다. 좌측 중앙 영역과 우측 중앙 영역에 제5 및 제6 발광 소자(335, 336)이 더 배치될 수도 있다. 다른 예시로, 제1 내지 제4 발광 소자(331 내지 334)가 배치되고 기판(340)의 상부 영역 및 하부 영역에 발광 소자들 (예를 들어, 제5 및 제6 발광 소자)이 더 배치될 수도 있다.
햅틱 센서들(350)은 기판(340)의 좌측 상부, 좌측 하부, 우측 상부 및 우측 하부에 배치되는 제1 햅틱 센서(351) 내지 제4 햅틱 센서(354)를 포함하도록 구성될 수 있다. 햅틱 센서들(350)의 개수는 이에 한정되는 것은 아니고 응용에 따라 변경 가능하다.
한편, 본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기에서 전원 버튼 또는 터치 패드 영역에 사용자 입력이 인가됨에 따라 광이 방사되도록 제어할 수 있다. 이와 관련하여, 도 6은 본 명세서에 따른 광 모듈이 적용된 터치 패드 활성 영역을 갖는 전자 기기의 블록도를 나타낸다.
도 6을 참조하면, 전자 기기(100)는 디스플레이(130), 베이스 부(104) 및 프로세서(180)를 포함하도록 구성될 수 있다. 전자 기기(100)는 베이스 부(104)의 키보드 영역(114), 터치 패드 영역(116) 및 광 렌즈 부(320)를 포함하도록 구성될 수 있다. 프로세서(180)는 키보드 영역(114), 터치 패드 영역(116), 광 렌즈 부(320)와 동작 가능하게 결합될 수 있다. 이에 따라, 프로세서(180)는 키보드 영역(114) 또는 터치 패드 영역(116)에서의 사용자 입력을 감지할 수 있다. 프로세서(180)는 키보드 영역(114) 또는 터치 패드 영역(116)에서의 사용자 입력 및/또는 어플리케이션 프로그램의 상태에 따라 광 렌즈 부(320)의 발광 제어를 수행할 수 있다.
도 1a 내지 도 6을 참조하면, 베이스 부(104)는 키보드 영역(114)과 터치 패드 영역(116)을 구비할 수 있다. 베이스 부(104)는 글래스(310), 터치 패드 영역(116), 광 렌즈 부(lighting lens portion, 320)를 포함하도록 구성될 수 있다. 베이스 부(104)는 글래스(310)의 하부에 형성되는 투명 레이어(311) 및 불투명 레이어(312)를 더 포함할 수 있다.
도 1a 내지 도 6을 참조하면, 프로세서(180)는 베이스 부(104)에 구비된 전원 버튼이 눌려지거나 또는 터치 패드 영역(116)에 터치 입력이 인가되는 것을 감지할 수 있다. 프로세서(180)는 전원 버튼이 눌려지거나 또는 터치 패드 영역(116)에 터치 입력을 감지하여 광원(330)을 제어하도록 구성될 수 있다. 프로세서(180)는 전원 버튼이 눌려지거나 또는 터치 입력이 인가되는 것이 감지되면, 광원(330)이 발광되어 글래스(310)의 특정 영역(310R)을 통해 광이 방사되도록 제어할 수 있다.
프로세서(180)는 터치 패드 영역(116)이 눌려지면 기판(340)에 배치되는 햅틱 센서들 및 햅틱 모터를 제어할 수 있다. 이와 관련하여, 도 7은 본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기의 블록도를 나타낸다. 도 7을 참조하면, 전자 기기(100)는 디스플레이(130), 베이스 부(104) 및 프로세서(180)를 포함하도록 구성될 수 있다. 전자 기기(100)는 베이스 부(104)의 키보드 영역(114), 터치 패드 영역(116) 및 광 렌즈 부(320)를 포함하도록 구성될 수 있다. 프로세서(180)는 키보드 영역(114), 터치 패드 영역(116), 광 렌즈 부(320)와 동작 가능하게 결합될 수 있다.
광 렌즈 부(320)에 인접하게 복수의 발광 소자들(331 내지 336)이 터치 패드 영역(116)에 배치될 수 있다. 일 예시로, 도 5와 같이 터치 패드 영역(116)의 좌측 상부 영역 및 좌측 하부 영역에 제1 및 제2 발광 소자(331, 332)가 배치될 수 있다. 터치 패드 영역(116)의 우측 상부 영역 및 우측 하부 영역에 제3 및 제4 발광 소자(333, 334)가 배치될 수 있다. 터치 패드 영역(116)의 좌측 중앙 영역과 우측 중앙 영역에 제5 및 제6 발광 소자(335, 336)이 더 배치될 수도 있다. 다른 예시로, 도 7과 같이 터치 패드 영역(116)의 좌측 상부 영역 및 좌측 하부 영역에 제1 및 제2 발광 소자(331, 332)가 배치될 수 있다. 터치 패드 영역(116)의 우측 상부 영역 및 우측 하부 영역에 제3 및 제4 발광 소자(333, 334)가 배치될 수 있다. 터치 패드 영역(116)의 상부 영역 및 하부 영역에 제5 및 제6 발광 소자(335, 336)가 배치될 수도 있다. 이와 관련하여, 터치 패드 영역(116)의 좌측 영역 및 우측 영역에 1개의 발광 소자가 배치될 수도 있다. 터치 패드 영역(116)의 상부 영역 및 하부 영역에 2개의 발광 소자들이 배치될 수도 있다.
터치 패드 영역(116)의 일 측 영역의 상부, 및 하부에 복수의 발광 소자들(331 내지 333)이 배치될 수 있다. 터치 패드 영역(116)의 타 측 영역의 상부, 하부 및 중앙에 복수의 발광 소자들(334 내지 336)이 배치될 수 있다. 프로세서(180)는 터치 패드 영역(116)에 배치되는 햅틱 센서들(350) 및 햅틱 모터(360)을 제어하도록 구성될 수 있다.
터치 패드 영역(116)의 서로 다른 영역에 복수의 햅틱 센서들(350)이 배치될 수 있다. 터치 패드 영역(116)의 일 측 영역의 상부 및 하부에 복수의 햅틱 센서들(351, 352)이 배치될 수 있다. 터치 패드 영역(116)의 타 측 영역의 상부 및 하부에 복수의 햅틱 센서들(353, 354)이 배치될 수 있다.
이와 관련하여, 프로세서(180)는 키보드 영역(114) 또는 터치 패드 영역(116)에서의 사용자 입력을 감지하고 발광 제어와 햅틱 피드백을 제공하도록 구성될 수 있다. 프로세서(180)는 키보드 영역(114) 또는 터치 패드 영역(116)에서의 사용자 입력 및/또는 어플리케이션 프로그램의 상태에 따라 광 렌즈 부(320)의 발광 제어를 수행할 수 있다.
도 5 내지 도 7을 참조하면, 프로세서(180)는 터치 패드 영역(116)이 눌려지면 기판(340)에 배치되는 햅틱 센서들(350) 중 어느 하나가 터치된 영역(touched region) 및 터치된 영역에 인가된 압력을 감지할 수 있다. 햅틱 센서들(350)은 기판(340)의 좌측 상부, 좌측 하부, 우측 상부 및 우측 하부에 배치되는 제1 햅틱 센서(351) 내지 제4 햅틱 센서(354)를 포함하도록 구성될 수 있다. 햅틱 센서들(350)의 개수는 이에 한정되는 것은 아니고 응용에 따라 변경 가능하다.
프로세서(180)는 터치된 영역이 진동(vibrate)되도록 기판(340)에 배치된 햅틱 모터(360)를 제어할 수 있다. 프로세서(180)는 터치된 영역에 대응하는 발광 소자(330)가 터치된 영역에 대응되는 특정 영역에 광원이 방사되도록 제어할 수 있다. 터치된 영역은 기판(340)의 일 측 및 타 측의 상부, 중앙 및 하부 영역 중 하나로 인식될 수 있다. 이에 따라, 터치 패드 영역(116)의 일 측 및 타 측의 상부, 중앙 및 하부 영역 중 어느 영역이 터치 되었는지 판단하여 터치된 영역에 인접한 광 렌즈 부(320)가 발광되게 제어할 수 있다.
터치된 영역에 인접한 광 렌즈 부(320)가 발광되게 제어하는 특징과 관련하여, 광 렌즈 부(320)는 도 3b에 도시된 바와 같이 내부에 개구 영역이 형성될 수 있다. 이와 관련하여, 도 7은 복수의 영역들로 구획될 수 있는 광 렌즈 부의 구조와 광 렌즈 부와 기판이 결합되는 구조를 나타낸다.
도 7을 참조하면, 광 렌즈 부(320)는 상부 영역인 제1 영역(320a), 하부 영역인 제2 영역(320b), 일 측 영역인 제3 영역(320c) 및 타 측 영역인 제4 영역(320d)을 포함하도록 구성될 수 있다. 광 렌즈 부(320)의 제1 영역(320a)은 터치 패드 영역(116)의 상단 부와 결합될 수 있다. 광 렌즈 부(320)의 제2 영역(320b)은 터치 패드 영역(116)의 하단 부와 결합될 수 있다. 광 렌즈 부(320)의 제3 영역(320c)은 터치 패드 영역(116)의 일 측 단부와 결합될 수 있다. 광 렌즈 부(320)의 제3 영역(320d)은 터치 패드 영역(116)의 타 측 단부와 결합될 수 있다.
제1 영역(320a)은 제3 영역(320c) 및 제4 영역(320d)과 연결되게 구성될 수 있다. 제1 영역(320a)은 제3 영역(320c) 및 제4 영역(320d)과 연결되게 일체로 형성될 수 있다. 제2 영역(320b)은 제3 영역(320c) 및 제4 영역(320d)과 연결되게 구성될 수 있다. 제2 영역(320b)은 제3 영역(320c) 및 제4 영역(320d)과 연결되게 일체로 형성될 수 있다.
도 3b, 도 5 및 도 7을 참조하면, 광 렌즈 부(320)는 햅틱 센서들(350)이 배치된 기판(340)을 둘러싸도록 개구 영역(opening area, OA)이 형성될 수 있다. 광 렌즈 부(320)의 개구 영역(OA)에 기판(340)이 끼워지도록 구성될 수 있다. 광 렌즈 부(320)의 개구 영역(OA)에 기판(340)이 배치된 터치 패드 영역(116)이 끼워지도록 구성될 수 있다.
전술한 바와 같이, 광 렌즈 부(320)는 상부 영역(320a), 하부 영역(320b), 일 측 영역(320c) 및 타 측 영역(320d)을 포함하도록 구성될 수 있다. 전자 기기에 인가되는 사용자 입력에 기초하여 프로세서는 이러한 광 렌즈 부(320)의 각 영역들의 발광 제어를 수행할 수 있다. 이와 관련하여, 도 8a 내지 도 8c는 전자 기기에 인가되는 사용자 입력의 타입에 기초하여 광 렌즈 부의 발광 영역 제어를 수행하는 실시 예들을 나타낸다.
도 8a(a)를 참조하면, 터치 패드 영역(116)에 단일 터치 입력이 인가됨에 따라, 발광 영역이 제1 색상 (또는 제1 패턴)으로 표시될 수 있다. 단일 터치 입력은 터치 패드 영역(116)에 터치 입력이 1번 인가된 것으로 정의될 수 있다. 단일 터치 입력이 인가됨에 따라 도 8a(b)와 같이 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d)이 제1 색상 (또는 제1 패턴)의 광으로 표시될 수 있다.
도 5, 도 6 및 도 8a를 참조하면, 프로세서(180)는 터치 패드 영역(116)에 단일 터치 입력이 인가됨에 따라 터치 패드 영역(116)의 양 측에 제1 색상의 광이 발광되게 제어할 수 있다. 이를 위해, 터치 패드 영역(116)의 양 측에 대응하는 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d)이 제1 색상 (또는 제1 패턴)의 광으로 발광될 수 있다.
도 8b(a)를 참조하면, 터치 패드 영역(116)에 더블 터치 입력이 인가됨에 따라, 발광 영역이 제2 색상 (또는 제2 패턴)으로 표시될 수 있다. 더블 터치 입력은 터치 패드 영역(116)에 터치 입력이 2번 인가된 것으로 정의될 수 있다. 더블 터치 입력에 따라 화면에 표시된 아이콘에 대응하는 어플리케이션 프로그램이 실행될 수 있지만, 이에 한정되는 것은 아니다. 더블 터치 입력이 인가됨에 따라 도 8b(b)와 같이 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d)이 제2 색상 (또는 제2 패턴)의 광으로 표시될 수 있다.
제2 패턴은 제1 패턴과 다른 발광 패턴으로, 예컨대 도트 패턴(dot pattern)일 수 있지만 이에 한정되는 것은 아니고 응용에 따라 변경 가능하다. 이와 관련하여, 제2 패턴은 광의 발광 패턴인 방사 형태, 색상 또는 밝기 중 적어도 하나가 상이하게 형성될 수 있다.
도 5, 도 6 및 도 8b를 참조하면, 프로세서(180)는 터치 패드 영역(116)에 더블 터치 입력이 인가됨에 따라 터치 패드 영역(116)의 양 측에 제2 색상 (또는 제2 패턴)의 광이 발광되게 제어할 수 있다. 이를 위해, 터치 패드 영역(116)의 양 측에 대응하는 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d)이 제2 색상 (또는 제2 패턴)의 광으로 발광될 수 있다.
한편, 본 명세서에 따른 터치 입력에 따른 발광 제어 방법은 터치 패드 영역에 서로 다른 타입의 터치 입력이 인가됨에 따라 마우스 입력 장치의 서로 다른 입력이 인가된 것으로 간주될 수 있다.
이와 관련하여, 단일 터치 입력과 같은 제1 입력이 인가 시 마우스 입력 장치의 좌측 버튼이 클릭된 것으로 간주될 수 있다. 마우스 입력 장치의 좌측 버튼에 대응하는 제1 입력은 단일 터치 입력 (단일 탭), 터치 패드 영역(116)의 상단 또는 하단의 좌측 버튼 클릭, 또는 프라이머리 존(primary zone)의 클릭 입력 중 어느 하나일 수 있다. 터치 패드 영역(116)의 프라이머리 존은 도 10a에 도시되는 좌측 하부 영역(116a), 좌측 상부 영역(116c) 및 우측 상부 영역(116d)을 포함할 수 있다. 터치 패드 영역(116)의 프라이머리 존은 우측 하부 영역(116b) 중 광 렌즈 부(320)로부터 이격된 일부 영역을 포함할 수 있다.
더블 터치 입력과 같은 제2 입력이 인가 시 마우스 입력 장치의 우측 버튼이 클릭된 것으로 간주될 수 있다. 마우스 입력 장치의 우측 버튼에 대응하는 제2 입력은 더블 터치 입력 (더블 탭), 터치 패드 영역(116)의 상단 또는 하단의 우측 버튼 클릭, 또는 세컨더리 존(secondar zone)의 클릭 입력 중 어느 하나일 수 있다. 터치 패드 영역(116)의 세컨더리 존은 도 10a에 도시되는 우측 하부 영역(116b) 중 광 렌즈 부(320)에 인접한 일부 영역일 수 있다.
제1 입력 또는 제2 입력이 인가됨에 따라 입력 수단에 서로 다른 입력이 인가된 것으로 간주될 수 있다. 이와 관련하여, 터치 패드 영역(116)에 단일 터치 입력 (단일 탭)과 같은 제1 입력이 인가되면 마우스 입력 장치의 좌측 버튼이 클릭된 것으로 간주되어 좌측 LED가 점멸될 수 있다. 터치 패드 영역(116)에 더블 터치 입력 (더블 탭)과 같은 제2 입력이 인가되면 마우스 입력 장치의 우측 버튼이 클릭된 것으로 간주되어 우측 LED가 점멸될 수 있다.
터치 패드 영역(116)에 단일 터치 입력 (단일 탭)과 같은 제1 입력이 인가되면 터치 패드 영역(116)의 일 측 영역(320c) (좌측 영역)이 발광 상태가 변경될 수 있다. 터치 패드 영역(116)에 단일 탭 입력이 인가되면 터치 패드 영역(116)의 일 측 영역(320c) (좌측 영역)의 LED가 점멸될 수 있다. 이와 관련하여, 마우스 입력 장치의 좌측 버튼이 클릭된 것으로 간주되어, 마우스 입력 장치의 좌측 버튼이 클릭된 상태의 아이콘이 선택되거나 또는 어플리케이션 실행에 따른 화면 전환이 수행된다.
터치 패드 영역(116)에 더블 터치 입력 (더블 탭)과 같은 제2 입력이 인가되면 터치 패드 영역(116)의 타 측 영역(320d) (우측 영역)이 발광 상태가 변경될 수 있다. 터치 패드 영역(116)에 더블 탭 입력이 인가되면 터치 패드 영역(116)의 타 측 영역(320d) (우측 영역)의 LED가 점멸될 수 있다. 이와 관련하여, 마우스 입력 장치의 우측 버튼이 클릭된 것으로 간주되어, 마우스 입력 장치의 우측 버튼이 클릭된 상태의 아이콘이 선택되거나 또는 화면 전환이 수행된다.
한편, 본 명세서에 따른 터치 입력에 따른 발광 제어 방법은 발광 상태에서 적어도 일부 영역에서 점멸 상태로 전환되도록 수행될 수 있다. 이와 관련하여, 터치 입력의 타입에 따라 발광 상태의 광 렌즈 부(320)의 적어도 일부 영역이 점멸 상태로 전환될 수 있다.
도 8a를 참조하면, 제1 색상 (또는 제1 패턴)의 광이 발광된 상태에서 터치 패드 영역(116)에 단일 터치 입력이 인가됨에 따라 광 렌즈 부(320)의 일 측 영역(320c) (좌측 영역)이 점멸될 수 있다. 따라서, 단일 터치 입력이 인가됨에 따라 광 렌즈 부(320)의 일 측 영역(320c) (좌측 영역)의 발광 소자가 턴 오프될 수 있다.
도 8b를 참조하면, 제2 색상 (또는 제2 패턴)의 광이 발광된 상태에서 터치 패드 영역(116)에 더블 터치 입력이 인가됨에 따라 광 렌즈 부(320)의 타 측 영역(320d) (우측 영역)이 점멸될 수 있다. 따라서, 더블 터치 입력이 인가됨에 따라 광 렌즈 부(320)의 타 측 영역(320d) (우측 영역)의 발광 소자가 턴 오프될 수 있다.
따라서, 터치 패드 영역(116)의 양 측이 발광된 상태에서 터치 패드 영역(116)에 단일 터치 입력이 인가되면 터치 패드 영역(116)의 일 측이 점멸될 수 있다. 한편, 터치 패드 영역(116)의 양 측이 발광된 상태에서 터치 패드 영역(116)에 더블 터치 입력이 인가되면 터치 패드 영역(116)의 타 측이 점멸될 수 있다.이와 관련하여, 제1 터치 입력의 제1 시간과 제2 터치 입력의 제2 시간의 차이가 임계치 이상이면 제1 터치 입력과 제2 터치 입력이 각각 별개의 단일 터치 입력으로 간주될 수 있다. 한편, 제1 터치 입력의 제1 시간과 제2 터치 입력의 제2 시간의 차이가 임계치보다 작으면 제1 터치 입력과 제2 터치 입력이 더블 터치 입력으로 간주될 수 있다.
특정 색상 (또는 패턴)의 광이 발광된 상태에서 제1 터치 입력 이후에 임계치의 시간까지 제2 터치 입력이 없으면 제1 터치 입력은 단일 터치 입력으로 간주될 수 있다. 따라서, 터치 패드 영역(116)에 제1 터치 입력이 인가됨에 따라 광 렌즈 부(320)의 일 측 영역(320c) (좌측 영역)이 점멸될 수 있다. 이후, 임계치의 시간 경과 후에 제2 터치 입력이 인가되면 제2 터치 입력을 다른 터치 입력으로 간주할 수 있다. 이에 따라, 터치 패드 영역(116)에 제2 터치 입력이 인가됨에 따라 광 렌즈 부(320)의 일 측 영역(320c) (좌측 영역)이 발광될 수 있다.
특정 색상 (또는 패턴)의 광이 발광된 상태에서 제1 터치 입력의 제1 시간과 제2 터치 입력의 제2 시간의 차이가 임계치보다 작으면 광 렌즈 부(320)의 타 측 영역(320d)이 점멸되고 일 측 영역(320c)만 발광될 수 있다.
도 8c(a)를 참조하면, 터치 패드 영역(116)에 트리플 터치 입력이 인가됨에 따라, 발광 영역이 제3 색상 (또는 제3 패턴)으로 표시될 수 있다. 트리플 터치 입력은 터치 패드 영역(116)에 터치 입력이 3번 인가된 것으로 정의될 수 있다. 트리플 터치 입력이 인가됨에 따라 도 8c(b)와 같이 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d)이 제3 색상 (또는 제3 패턴)의 광으로 표시될 수 있다.
터치 패드 영역(116)을 통해 발광되는 광의 제1 패턴 내지 제3 패턴은 광의 방사 형태, 색상 또는 밝기 중 적어도 하나가 상이하게 구성될 수 있다.
도 5, 도 6 및 도 8c를 참조하면, 프로세서(180)는 터치 패드 영역(116)에 트리플 터치 입력이 인가됨에 따라 터치 패드 영역(116)의 양 측에 제3 색상 (또는 제3 패턴)의 광이 발광되게 제어할 수 있다. 이를 위해, 터치 패드 영역(116)의 양 측에 대응하는 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d)이 제3 색상 (또는 제3 패턴)의 광으로 발광될 수 있다.
도 5, 도 6, 도 8a 내지 도 8c를 참조하면, 프로세서(180)는 터치 패드 영역(116)에 단일 터치 입력, 더블 터치 입력 또는 트리플 터치 입력 중 어느 하나가 입력됨을 감지할 수 있다. 프로세서(180)는 터치 패드 영역(116)에 단일 터치 입력, 더블 터치 입력 또는 트리플 터치 입력이 입력됨에 따라 양 측에 제1 색상의 광, 제2 색상의 광 또는 제3 색상의 광이 발광되게 제어할 수 있다.
본 명세서에 따른 발광 제어와 관련하여, 터치 패드 영역(116)의 발광 제어는 일 측 영역(320c) 및/또는 타 측 영역(320d)에 한정되는 것은 아니다. 터치 패드 영역(116)의 발광 제어는 상부 영역(320a) 및/또는 하부 영역(320b)에 대해 수행될 수도 있다. 한편, 터치 패드 영역(116)의 상부 경계 및 하부 경계보다는 좌측 경계 및 우측 경계를 사용자가 직관적으로 인식하여 사용자 입력이 양측 경계를 벗어나지 않도록 구현할 필요가 있다. 따라서, 본 명세서에 따른 터치 패드 영역(116)의 발광 제어는 터치 패드 영역(116)과 터치 인식이 되지 않는 외부 영역이 단차 등으로 구별되지 않는 구조에서도 사용자에게 터치 가능 영역을 직관적으로 인식하도록 할 수 있다.
한편, 터치 패드 영역에 인가되는 터치 입력의 이동을 감지하여 터치 패드 영역의 발광 제어를 수행할 수도 있다. 이와 관련하여, 도 9a 및 도 9b는 전자 기기에 인가되는 사용자 입력의 이동을 감지하여 발광 영역의 밝기 제어를 수행하는 실시 예들을 나타낸다.
도 9a(a)를 참조하면, 터치 패드 영역(116)에 드래그 입력이 인가되고 이동 속도가 임계 속도 이하이면 발광 영역이 천천히 밝아지도록 발광 제어가 수행될 수 있다. 도 9a(b)를 참조하면, 터치 패드 영역(116)에 드래그 입력이 인가되고 이동 속도가 임계 속도 이하이면 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d)의 광의 밝기 변화 속도를 제1 속도로 조절할 수 있다.
도 5, 도 6 및 도 9a를 참조하면, 프로세서(180)는 터치 패드 영역(116)에 드래그 입력이 인가되고, 드래그 입력의 이동 속도가 임계 속도 이하이면 광의 밝기 변화를 단위 시간 당 제1 기울기의 속도로 변경할 수 있다. 이와 관련하여, 터치 패드 영역(116)의 양 측에 대응하는 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d)의 밝기가 단위 시간 당 제1 기울기의 속도로 밝아질 수 있다.
도 9b(a)를 참조하면, 터치 패드 영역(116)에 드래그 입력이 인가되고 이동 속도가 임계 속도를 초과하면 발광 영역이 빨리 밝아지도록 발광 제어가 수행될 수 있다. 도 9a(b)를 참조하면, 터치 패드 영역(116)에 드래그 입력이 인가되고 이동 속도가 임계 속도 이하이면 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d)의 광의 밝기 변화 속도를 제1 속도보다 빠른 제2 속도로 조절할 수 있다.
도 5, 도 6 및 도 9b를 참조하면, 프로세서(180)는 드래그 입력의 이동 속도가 임계 속도를 초과하면, 광의 밝기 변화를 단위 시간 당 제1 기울기보다 큰 제2 기울기의 속도 변화로 변경할 수 있다. 이와 관련하여, 터치 패드 영역(116)의 양 측에 대응하는 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d)의 밝기가 단위 시간 당 제2 기울기의 속도로 밝아질 수 있다.
한편, 터치 패드 영역에 인가되는 사용자 입력의 좌표를 감지하여 터치 패드 영역의 발광 제어를 수행할 수도 있다. 이와 관련하여, 사용자 입력의 검출 지점을 검출하여 터치 패드 영역의 일 측만 발광되게 제어할 수 있다. 이와 관련하여, 도 10a 및 도 10b는 터치 패드 영역에 사용자 입력이 검출된 지점에 따라 터치 패드 영역의 좌측 변 또는 우측 변이 발광되게 제어하는 실시예들을 나타낸다.
도 10a(a)는 터치 패드 영역(116)의 일 측 영역에 인접하게 사용자 입력이 검출되면 터치 패드 영역(116)의 일 측 영역만 발광되는 구성을 나타낸다. 도 10a(b)는 터치 패드 영역(116)의 일 측 영역에 대응되게 형성된 광 렌즈 부(320)의 일 측 영역(320c)만 발광되는 발광 패턴을 나타낸다.
도 10a를 참조하면, 터치 패드 영역(116)에 사용자 입력의 검출 지점이 터치 패드 영역(116)의 일 측 영역인 좌측 변(320c)에 제1 임계 거리 이하로 근접하면 좌측 변(320c)만 발광될 수 있다. 이와 관련하여, 터치 패드 영역(116)에 최초 터치 입력이 인가되더라도 터치 패드 영역(116)이 발광되지 않게 설정될 수 있다. 최초 터치 입력 후 좌측으로 드래그 입력이 인가되어 드래그 입력 지점이 좌측 변(320c)에 근접하면 좌측 변(320c)만 발광될 수 있다. 좌측 변(320c)만 발광된 상태에서 드래그 입력이 좌측 변(320c)에 더 근접하면 광의 밝기를 증가시킬 수도 있다.
도 10b(a)는 터치 패드 영역(116)의 타 측 영역에 인접하게 사용자 입력이 검출되면 터치 패드 영역(116)의 타 측 영역만 발광되는 구성을 나타낸다. 도 10b(b)는 터치 패드 영역(116)의 타 측 영역에 대응되게 형성된 광 렌즈 부(320)의 타 측 영역(320d)만 발광되는 발광 패턴을 나타낸다.
도 10b를 참조하면, 터치 패드 영역(116)에 사용자 입력의 검출 지점이 터치 패드 영역(116)의 타 측 영역인 우측 변(320d)에 제1 임계 거리 이하로 근접하면 우측 변(320d)만 발광될 수 있다. 이와 관련하여, 터치 패드 영역(116)에 최초 터치 입력이 인가되더라도 터치 패드 영역(116)이 발광되지 않게 설정될 수 있다. 최초 터치 입력 후 우측으로 드래그 입력이 인가되어 드래그 입력 지점이 우측 변(320d)에 근접하면 우측 변(320d)만 발광될 수 있다. 우측 변(320d)만 발광된 상태에서 드래그 입력이 우측 변(320d)에 더 근접하면 광의 밝기를 증가시킬 수도 있다.
도 5, 도 6, 도 10a 및 도 10b를 참조하면, 프로세서(180)는 터치 패드 영역(116)에 드래그 입력의 검출 지점이 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)에 제1 임계 거리 이하로 근접하는지를 검출할 수 있다. 검출 지점이 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)에 제1 임계 거리 이하로 근접하면, 프로세서(180)는 좌측 변(320c) 또는 우측 변(320d)만 발광되게 제어할 수 있다.
또한, 프로세서(180)는 좌측 변(320c) 또는 우측 변(320d)만 발광된 상태에서 사용자 입력의 검출 지점이 좌측 변(320c) 또는 우측 변(320d)에 근접할수록 광의 밝기를 증가시킬 수 있다. 프로세서(180)는 좌측 변(320c) 또는 우측 변(320d)만 발광된 상태에서 사용자 입력의 검출 지점이 좌측 변(320c) 또는 우측 변(320d)에서 멀어지면 광의 밝기를 감소시킬 수도 있다.
한편, 터치 패드 영역에 인가되는 사용자 입력이 터치 패드 영역을 벗어나지 않도록 발광 제어를 수행하여 사용자 입력 영역을 가이드하도록 구성될 수 있다. 이와 관련하여, 도 11a 및 도 11b는 터치 패드 영역의 경계 영역에 사용자 입력이 검출되면 터치 패드 영역의 경계 영역이 점멸되거나 색상이 변경되는 실시 예들을 나타낸다.
도 11a(a)는 터치 패드 영역(116)의 경계 영역에 인접하게 사용자 입력이 검출되면 발광 제어가 수행되는 터치 패드 영역(116)의 슬릿 영역이 점멸되는 구성을 나타낸다. 도 11a(b)는 터치 패드 영역(116)의 경계 영역에 대응되게 형성된 광 렌즈 부(320)의 우측 변(320d)이 점멸되는 발광 패턴을 나타낸다.
도 11a를 참조하면, 터치 패드 영역(116)의 경계 영역인 우측 변(320d)에 사용자 입력이 검출되면 우측 변(320d)이 점멸될 수 있다. 이와 관련하여, 사용자 입력의 검출 지점이 우측 변(320d)에 도달하거나 또는 제2 임계 거리 이하로 근접하면 우측 변(320d)이 점멸될 수 있다. 한편, 터치 패드 영역(116)의 점멸 제어는 터치 패드 영역(116)의 우측 변(320d)에 한정되는 것은 아니라 좌측 변(320c)을 기준으로 수행될 수 있다.
도 11b(a)는 터치 패드 영역(116)의 경계 영역에 인접하게 사용자 입력이 검출되면 발광 제어가 수행되는 터치 패드 영역(116)의 슬릿 영역의 색상이 변경되는 구성을 나타낸다. 도 11b(b)는 터치 패드 영역(116)의 경계 영역에 대응되게 형성된 광 렌즈 부(320)의 우측 변(320d)의 색상 (또는 패턴)이 변경되는 발광 패턴을 나타낸다.
도 11b를 참조하면, 터치 패드 영역(116)의 경계 영역인 우측 변(320d)에 사용자 입력이 검출되면 우측 변(320d)이 발광되는 색상 (또는 패턴)이 변경될 수 있다. 이와 관련하여, 사용자 입력의 검출 지점이 우측 변(320d)에 도달하거나 또는 제2 임계 거리 이하로 근접하면 우측 변(320d)이 발광되는 색상 (또는 패턴)이 변경될 수 있다. 한편, 터치 패드 영역(116)의 발광 색상/패턴 변경은 터치 패드 영역(116)의 우측 변(320d)에 한정되는 것은 아니라 좌측 변(320c)을 기준으로 수행될 수 있다.
도 5, 도 6, 도 11a 및 도 11b를 참조하면, 프로세서(180)는 사용자 입력의 검출 지점이 경계 영역에 도달하거나 제2 임계 거리 이하로 근접하면 발광 색상/패턴 변경 또는 점멸을 수행할 수 있다. 프로세서(180)는 좌측 변(320c) 또는 우측 변(320d)만 발광된 상태에서 드래그 입력의 검출 지점이 좌측 변(320c) 또는 우측 변(320d)에 도달하거나 또는 제2 임계 거리 이하로 근접하는지를 검출할 수 있다. 이와 관련하여, 제2 임계 거리는 좌측 변(320c) 또는 우측 변(320d)만 발광되게 설정된 제1 임계거리보다 짧게 설정될 수 있다. 드래그 입력의 검출 지점이 좌측 변(320c) 또는 우측 변(320d)에 도달하거나 또는 제2 임계 거리 이하로 근접하면, 프로세서(180)는 광의 색상을 변경하거나 또는 광이 점멸되게 제어할 수 있다.
한편, 전자 기기의 상태를 검출하여 터치 패드 영역의 발광 제어를 수행하도록 구성될 수 있다. 이와 관련하여, 도 12a 내지 도 12c는 전자 기기의 배터리 잔량에 따라 터치 패드 영역의 발광 제어가 수행되는 실시 예들을 나타낸다.
도 12a(a)는 배터리 잔량이 제1 수준이면 터치 패드 영역(116)의 양 측 영역이 제1 수준에 비례하여 제1 높이만큼 발광되는 구조를 나타낸다. 도 12a(b)는 터치 패드 영역(116)의 경계 영역에 대응되게 형성된 광 렌즈 부(320)의 좌측 변(320c) 및 우측 변(320d)이 제1 높이만큼 발광되는 발광 패턴을 나타낸다. 도 12a를 참조하면, 배터리 잔량이 제1 임계치 이하이면 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역에 제1 높이로 광이 발광될 수 있다.
도 12b(a)는 배터리 잔량이 제2 수준이면 터치 패드 영역(116)의 양 측 영역이 제2 수준에 비례하여 제2 높이만큼 발광되는 구조를 나타낸다. 도 12b(b)는 터치 패드 영역(116)의 경계 영역에 대응되게 형성된 광 렌즈 부(320)의 좌측 변(320c) 및 우측 변(320d)이 제2 높이만큼 발광되는 발광 패턴을 나타낸다. 도 12b를 참조하면, 배터리 잔량이 제1 임계치 이상이고 제2 임계치 이하이면 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역에 제2 높이로 광이 발광될 수 있다.
도 12c(a)는 배터리 잔량이 제3 수준이면 터치 패드 영역(116)의 양 측 영역이 제3 수준에 비례하여 제3 높이만큼 발광되는 구조를 나타낸다. 도 12b(b)는 터치 패드 영역(116)의 경계 영역에 대응되게 형성된 광 렌즈 부(320)의 좌측 변(320c) 및 우측 변(320d)이 제3 높이만큼 발광되는 발광 패턴을 나타낸다. 도 12c를 참조하면, 배터리 잔량이 제3 임계치 이상이면 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역에 제3 높이로 광이 발광될 수 있다.
도 5, 도 6, 도 12a 내지 도 12c를 참조하면, 프로세서(180)는 전자 기기의 배터리 잔량을 검출하고, 배터리 잔량에 따라 발광 영역 제어를 수행할 수 있다. 배터리 잔량이 제1 임계치 이하이면 프로세서(180)는 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역에 제1 높이로 광이 발광되게 제어할 수 있다. 배터리 잔량이 제2 임계치 이하이면 프로세서(180)는 슬릿 영역에 제2 높이로 광이 발광되게 제어할 수 있다. 배터리 잔량이 제3 임계치 이상이면 프로세서(180)는 슬릿 영역에 제3 높이로 광이 발광되게 제어할 수 있다. 이와 관련하여, 제1 임계치보다 제2 임계치가 더 높고, 제2 임계치보다 제3 임계치가 더 높게 설정될 수 있다. 제3 임계치는 배터리가 완전히 충전된 상태인 배터리 잔량으로 설정될 수 있지만, 이에 한정되는 것은 아니고 제2 임계치보다 높은 임의의 값으로 설정될 수도 있다.
배터리 잔량에 따른 발광 영역 제어는 도 5의 복수의 발광 소자들(331 내지 336)을 제어하여 수행될 수 있다. 도 5, 도 6, 도 12a 내지 도 12c를 참조하면, 배터리 잔량이 제1 임계치 이하이면 프로세서(180)는 하부의 제2 및 제5 발광 소자(332, 335)가 발광되게 제어할 수 있다. 배터리 잔량이 제1 임계치 이상이고 제2 임계치 이하이면 프로세서(180)는 하부의 제2 및 제5 발광 소자(332, 335)와 중심부의 제3 및 제6 발광 소자(333, 336)가 발광되게 제어할 수 있다. 배터리 잔량이 제3 임계치 이상이면 프로세서(180)는 제1 내지 제6 발광 소자(331 내지 336)가 모두 발광되게 제어할 수 있다.
한편, 전자 기기에서 수신 또는 발생된 이벤트를 검출하여 터치 패드 영역의 발광 제어를 수행하도록 구성될 수 있다. 이와 관련하여, 도 13a 및 도 13b는 이벤트 발생에 따라 터치 패드 영역의 발광 제어가 수행되는 실시예들을 나타낸다.
도 13a(a)는 파일 다운로드가 완료되는 제1 이벤트에 따라 터치 패드 영역(116)의 경계 영역인 슬릿 영역의 내측으로 인접한 영역에 아이콘이 표시되는 구조를 나타낸다. 도 13a(b)는 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역의 내측으로 인접한 영역에 아이콘이 표시되는 사용자 인터페이스를 나타낸다.
도 13a를 참조하면, 파일 다운로드가 완료되는 제1 이벤트가 검출되면, 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역의 내측으로 인접한 영역에 아이콘이 표시될 수 있다.
도 13b(a)는 새로운 이메일이 수신되는 제2 이벤트에 따라 터치 패드 영역(116)의 경계 영역이 발광 및 점멸이 반복되는 브링크(blink) 제어되는 구조를 나타낸다. 도 13b(b)는 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역에 광의 발광 및 점멸이 반복적으로 수행되는 발광 패턴을 나타낸다.
도 13b를 참조하면, 새로운 이메일이 수신되는 제2 이벤트가 검출되면, 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역에 광의 발광 및 점멸이 반복적으로 수행되어 사용자에게 제2 이벤트 검출을 알릴 수 있다. 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역에 광의 발광 및 점멸이 반복적으로 수행되는 블링크(blink) 타입의 발광 제어가 수행될 수 있다.
도 5, 도 6, 도 13a 및 도 13b를 참조하면, 프로세서(180)는 파일 다운로드가 완료되는 제1 이벤트, 새로운 이메일이 수신되는 제2 이벤트 또는 기 설정된 패턴의 제3 이벤트가 발생하는지 여부를 검출할 수 있다. 제1 내지 제3 이벤트 중 적어도 하나가 검출되면, 프로세서(180)는 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역에 광의 발광 및 점멸이 반복적으로 수행되도록 제어할 수 있다. 제1 내지 제3 이벤트 중 적어도 하나가 검출되면, 프로세서(180)는 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역의 내측으로 인접한 영역에 아이콘이 표시되도록 제어할 수 있다.
한편, 전자 기기를 사용하고 있는 주변 영역의 밝기에 따라 터치 패드 영역의 발광 제어가 수행될 수도 있다. 이와 관련하여, 도 14a 및 도 14b는 전자 기기를 사용하고 있는 주변 영역의 밝기에 따라 터치 패드 영역의 발광 제어가 수행되는 실시예들을 나타낸다.
도 14a(a)는 자연광 등의 밝은 환경에서 터치패드 영역(116)의 슬릿 영역이 밝아지도록 발광 제어되는 구조를 나타낸다. 도 14a(b)는 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역의 밝기가 증가되는 발광 패턴을 나타낸다.
도 14a를 참조하면, 자연광 등의 밝은 환경에서 터치패드 영역(116)의 슬릿 영역이 밝아지도록 제어할 수 있다. 구체적으로, 주변 밝기 값이 제1 임계 값 이상이면 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역의 밝기를 증가시킬 수 있다.
도 14a(b)는 어두운 환경에서 터치패드 영역(116)의 슬릿 영역이 밝은 환경보다 어두워지게 발광 제어되는 구조를 나타낸다. 도 14a(b)는 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역의 밝기가 감소되는 발광 패턴을 나타낸다.
도 14b를 참조하면, 어두운 환경에서 눈부심 방지 및 전력절약을 위해 터치패드 영역(116)의 슬릿 영역이 밝은 환경보다 어두워지게 제어할 수 있다. 주변 밝기 값이 제1 임계 값보다 낮은 제2 임계 값 이하이면 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역의 밝기를 감소시킬 수 있다.
도 5, 도 6, 도 14a 및 도 14b를 참조하면, 프로세서(180)는 카메라, 조도 센서 또는 현재 시간 중 적어도 하나에 기초하여 주변 밝기 정보를 검출할 수 있다. 프로세서(180)는 주변 밝기 정보에 기초하여 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역을 밝기를 제어할 수 있다.
한편, 도 1a 내지 도 14b를 참조하여 본 명세서에 따른 키보드를 구비한 전자 기기(100)의 구조에 대해 설명한다. 전자 기기(100)는 디스플레이(204) 및 베이스 부(104)를 포함하도록 구성될 수 있다. 디스플레이(204)는 화면 정보를 표시하도록 구성될 수 있다. 베이스 부(104)는 디스플레이(204)와 동작 가능하게 결합될 수 있다. 베이스 부(104)는 키보드 영역(114)을 구비하고 터치 입력을 감지하도록 구성될 수 있다.
터치 입력을 감지하도록 구성된 베이스 부(104)는 터치 패드 영역(116) 및 광 렌즈 부(320)를 포함하도록 구성될 수 있다. 터치 패드 영역(116)은 글래스(310)의 하부 영역에 배치되어 터치 입력을 감지하도록 구성될 수 있다. 터치 패드 영역(116)은 적어도 하나의 광원(321 내지 326)을 구비할 수 있다. 광 렌즈 부(320)는 터치 패드 영역(116)의 양 측을 따라 형성될 수 있다.
터치 패드 영역(116)에 터치 입력이 감지되면 터치 패드 영역(116)의 적어도 일 측으로 광이 발광될 수 있다. 이와 관련하여, 프로세서(180)는 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d) 중 적어도 하나가 발광되게 제어할 수 있다. 프로세서(180)는 터치 입력의 입력 패턴에 따라 발광되는 광의 색상, 밝기 또는 발광 영역을 제어할 수 있다.
베이스 부(104)는 글래스(310), 투명 레이어(311) 및 불투명 레이어(312)를 포함하도록 구성될 수 있다. 글래스(310)는 터치 입력 영역(116)의 상부 영역에 배치되고, 특정 영역(310R)을 통해 광(light)이 방출되도록 구성될 수 있다. 글래스(310)의 하부에 투명 레이어(311)가 배치될 수 있다. 투명 레이어(311)는 광원으로부터의 광을 투과하도록 형성될 수 있다. 투명 레이어(311)의 하부에 불투명 레이어(312)가 배치될 수 있다. 불투명 레이어(312)는 광원으로부터의 광이 차단되도록 일부 영역에 형성될 수 있다. 광원으로부터의 광은 불투명 레이어(312)의 슬롯 영역(312s)에 대응되는 투명 레이어(311)를 통해 터치 패드 영역(116)의 좌측 변(320c) 및 우측 변(320d)에서 방사(emit)될 수 있다.
광원은 터치 패드 영역(116)의 좌측 변(320c) 및 우측 변(320d)에 각각 복수 개로 배치되는 복수의 발광 소자들(331 내지 336)로 구성될 수 있다. 발광 소자들(331 내지 336)은 터치 패드 영역(116)에 배치된 기판(substrate)(340)의 일 축 방향으로 배치될 수 있다.
광 렌즈 부(320)는 제1 부분(321) 및 제2 부분(322)을 포함하도록 구성될 수 있다. 광 렌즈 부(320)는 제1 부분(321) 내지 제3 부분(323)을 포함하도록 구성될 수 있다. 제1 부분(321)은 발광 소자(330)의 하부 영역에 제1 두께로 형성될 수 있다. 제2 부분(322)은 제1 부분(321)의 단부에서 제1 두께보다 두꺼운 제2 두께로 형성될 수 있다. 제2 부분(322)은 발광 소자(330)로부터 방사된 광이 통과되도록 구성될 수 있다.
제3 부분(323)은 제2 부분(322)의 단부에서 제2 두께보다 두꺼운 제3 두께로 형성될 수 있다. 제3 부분(323)은 발광 소자(330)로부터 방사된 광이 특정 영역(310R)으로 방사되도록 구성될 수 있다. 제3 부분(323)의 내 측면은 기판(340)의 측면과 마주보게 이격될 수 있다.
한편, 전자 기기의 터치 패드 영역은 사용자 입력의 압력을 감지하도록 구성될 수 있다. 이와 관련하여, 특정 어플리케이션 프로그램에서 전자 기기의 터치 패드 영역(116)은 사용자 입력의 압력을 감지하도록 구성될 수 있다. 이를 위해, 프로세서(180)는 터치 패드 영역(116)이 눌려지면 기판(240)에 배치되는 햅틱 센서들(351 내지 354) 중 어느 하나가 터치된 영역(touched region) 및 터치된 영역에 인가된 압력을 감지할 수 있다. 프로세서(180)는 터치된 영역이 진동(vibrate)되도록 기판(340)에 배치된 햅틱 모터(360)를 제어할 수 있다.
한편, 키보드를 구비한 전자 기기는 키보드의 발광 패턴 및/또는 기능키와 연동하여 터치 패드 영역의 발광 제어를 수행할 수 있다. 도 1b를 참조하면, 디스플레이 부분(102)과 베이스 부(104)가 상호 결합되어 일체로 구성되거나 또는 물리적으로 분리되게 구성될 수도 있다. 베이스 부(104)의 키보드 영역(114)의 하부에 백라이트(114)가 배치될 수 있다.
도 1a 내지 도 6을 참조하면, 프로세서(180)는 키보드 영역(114)의 하부에 배치되는 백라이트(114b)와 동작 가능하게 결합될 수 있다. 프로세서(180)는 키보드 영역(114)의 백라이트(114b)와 연동될 수 있다. 프로세서(180)는 키보드 영역(114)의 밝기 조절과 연관된 기능 키(function key)와 연동될 수 있다. 프로세서(180)는 백라이트(114b)와 연동하거나 또는 밝기 조절과 연관된 기능 키와 연동하여, 터치 패드 영역(116)의 적어도 일 측에 발광되는 광의 밝기 및 색상을 제어할 수 있다.
전자 기기의 전원 온 또는 오프에 따라 프로세서(180)는 키보드 영역(114)의 백라이트(114b)와 연동하여 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)이 발광 또는 점멸되게 제어할 수 있다. 프로세서(180)는 키보드 영역(114)의 기능 키 입력에 따라 검출된 밝기 정보에 기초하여 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 밝기를 제어할 수 있다. 프로세서(180)는 키보드 영역(114)의 기능 키 입력에 따라 검출된 색상 정보 또는 패턴 정보에 기초하여 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 색상을 제어하고 발광 패턴을 제어할 수 있다.
한편, 키보드를 구비한 전자 기기는 사용자가 키보드 입력을 수행하고 있는 동안 터치 패드 인식이 비활성화되게 제어될 수 있다. 이와 관련하여, 도 1a 내지 도 6을 참조하면, 프로세서(180)는 키보드 영역(114)에 키보드 입력이 인가되거나 또는 키보드 영역(114)으로의 사용자의 모션 입력을 검출할 수 있다. 키보드 영역(114)에 키보드 입력 또는 사용자의 모션 검출 시, 프로세서(180)는 터치 패드 영역(116)에 터치 입력이 인식되지 않도록 제어할 수 있다. 프로세서(180)는 터치 패드 영역(116)에 배치된 터치 인식 칩 및/또는 이를 구비한 터치 입력 모듈(121)을 비활성화할 수 있다.
또한, 키보드를 구비한 전자 기기는 키보드 입력 시 터치 패드 영역을 비활성화하면서 사용자가 이를 인식할 수 있도록 터치 패드 영역의 색상을 변경할 수도 있다. 키보드 영역(114)에 키보드 입력 또는 사용자의 모션 검출 시, 프로세서(180)는 터치 인식 칩을 비활성화하면서 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역에 발광되는 광의 색상을 변경할 수 있다.
한편, 터치 패드 영역을 구비한 전자 기기는 별도 입력 장치가 유선 또는 무선 방식으로 동작 가능하게 결합될 수 있다. 도 1a 내지 도 6을 참조하면, 전자 기기의 키보드 영역(114)이 형성된 베이스 부(104)는 디스플레이 부분(102)과 일체로 형성되거나 또는 물리적으로 분리되면서 동작 가능하게 결합될 수 있다. 또한, 전자 기기는 키보드 영역(114) 및 터치 패드 영역(116)과 별도의 입력 장치, 예컨대 마우스 등이 유선 또는 무선 방식으로 동작 가능하게 결합될 수 있다.
프로세서(180)는 터치 패드 영역(116)에 인가될 수 있는 터치 입력과 별도로 다른 터치 입력이 인가될 수 있는 입력 장치가 연결되는지 여부를 감지할 수 있다. 입력 장치가 연결되면, 프로세서(180)는 터치 패드 영역(116)에 배치된 터치 인식 칩 및/또는 이를 구비한 터치 입력 모듈(121)을 비활성화할 수 있다.
또한, 터치 패드 영역을 구비한 전자 기기는 별도 입력 장치가 연결 해제되면 발광 영역의 점멸 제어 또는 색상/밝기 제어가 수행될 수 있다. 도 1a 내지 도 6를 참조하면, 프로세서(180)는 터치 패드 영역(116)에 인가될 수 있는 터치 입력과 별도로 다른 터치 입력이 인가될 수 있는 입력 장치가 연결되었거나 연결 해제되었는지 여부를 감지할 수 있다. 입력 장치가 연결되거나 또는 연결 해제되면, 프로세서(180)는 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역을 발광 및 점멸을 제어할 수 있다. 입력 장치가 연결되거나 또는 연결 해제되면, 프로세서(180)는 터치 패드 영역(116)의 좌측 변(320c) 또는 우측 변(320d)의 슬릿 영역에서 발광되는 광의 색상 또는 밝기를 변경할 수 있다.
이상에서는 본 명세서의 일 양상에 따른 키보드를 구비하는 전자 기기에 대해 설명하였다. 이하에서는 본 명세서의 다른 양상에 따른 키보드를 구비하는 전자 기기의 제어 방법에 대해 설명한다. 이와 관련하여, 도 15는 본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기의 제어 방법의 흐름도를 나타낸다. 도 15을 참조하면, 제어 방법은 터치 입력 수신 과정(S110a), 멀티 터치 입력 수신 과정(S110b), 발광 영역 제어 과정(S120) 및 발광 패턴 제어 과정(S130)을 포함하도록 구성될 수 있다.
터치 입력 수신 과정(S110a)에서 터치 패드 영역의 분할된 서브 영역들 중 어느 영역에 터치 입력이 수신되었는지를 감지할 수 있다. 이와 관련하여, 도 10a 및 도 10b와 같이 터치 패드 영역(116)의 좌측 영역 및 하부 영역 중 어느 영역에 터치 입력이 인가되었는지를 감지할 수 있다. 터치 패드 영역(116)의 좌측 영역 및 하부 영역에 대한 판단은 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d) 중 어느 영역에 인접한 지 여부에 대응될 수 있다. 보다 구체적으로, 도 10a 및 도 10b와 같이 터치 패드 영역(116)의 좌측 하부 영역(116a), 우측 하부 영역(116b), 우측 상부 영역(116c) 및 좌측 상부 영역(116d) 중 어느 영역에 터치 입력이 인가되었는지를 감지할 수 있다.
멀티 터치 입력 수신 과정(S110b)에서 터치 패드 영역에 멀티 터치 입력이 수신되었는지를 감지할 수 있다. 단일 터치 입력과 달리 멀티 터치 입력에 따라 어플리케이션 프로그램이 실행될 수 있다. 발광 영역 제어 과정(S120)은 단일 터치 입력에 따른 발광 영역 제어 과정(S120a) 및 멀티 터치 입력에 따른 발광 영역 제어 과정(S120b)을 포함하도록 구성될 수 있다.
발광 영역 제어 과정(S120a)은 터치 패드 영역의 일 축 중심 선 및 타 축 중심 선을 기준으로 어느 영역에 터치 입력이 인가되면, 상기 영역에 대응되게 렌즈 부의 해당 영역이 발광되게 제어할 수 있다. 예를 들어, 도 10a와 같이 터치 패드 영역(116)의 좌측 하부 영역(116a) 또는 좌측 상부 영역(116c)에 터치 입력이 인가되면, 광 렌즈 부(320)의 일 측 영역(320c)이 발광 될 수 있다. 한편, 도 10b와 같이 터치 패드 영역(116)의 우측 하부 영역(116b) 또는 우측 상부 영역(116d)에 터치 입력이 인가되면, 광 렌즈 부(320)의 하부 영역(320b)과 타 측 영역(320d)이 발광 될 수 있다.
터치 패드 영역에 멀티 터치 입력 또는 트리플 터치 입력이 인가(S110b)되면, 발광 영역 제어 과정(S120b)에서 광 렌즈 부의 멀티 터치 입력 또는 트리플 터치 입력이 인가된 영역에 대응하는 특정 영역이 발광되게 제어할 수 있다. 멀티 터치 입력에 의해 어플리케이션 프로그램이 실행되어 초기 화면이 표시될 때까지, 발광 패턴 제어 과정(S130)이 수행될 수 있다. 발광 패턴 제어 과정(S130)에서 광 렌즈 부가 제1 색상과 상이한 제2 색상 또는 제3 색상으로 발광되게 제어할 수 있다. 발광 패턴 제어 과정(S130)에서 광 렌즈 부가 제1 패턴과 상이한 제2 패턴 또는 제3 패턴으로 발광되게 제어할 수 있다.
도 15를 참조하면, 제어 방법은 드래그 입력 판단 과정(S150), 드래그 속도 판단 과정(S155), 발광 밝기 제어 과정(S160)을 포함할 수 있다.
드래그 입력 판단 과정(S150)에서 터치 입력이 인가된 후 일정 방향으로 드래그 입력이 인가되었는지를 판단할 수 있다. 드래그 입력이 인가되지 않고 터치 입력이 인가된 경우 발광 영역 제어 과정(S120) 이하의 과정이 수행될 수 있다.
드래그 입력이 인가되면, 드래그 속도 판단 과정(S155)에서 드래그 속도가 임계 속도 이하인지 여부를 판단한다. 드래그 속도가 임계 속도보다 낮으면 제1 밝기 제어 과정(S160a)이 수행될 수 있다. 제1 밝기 제어 과정(S160a)에서 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d)의 광의 밝기 변화 속도를 제1 속도로 조절할 수 있다.
드래그 속도가 임계 속도 이상이면 제2 밝기 제어 과정(S160b)이 수행될 수 있다. 제2 밝기 제어 과정(S160b)에서 광 렌즈 부(320)의 일 측 영역(320c) 및 타 측 영역(320d)의 광의 밝기 변화 속도를 제1 속도보다 빠른 제2 속도로 조절할 수 있다.
발광 영역 제어 과정(S170)에서 드래그 입력의 종점에 대응하여 광 렌즈 부의 발광 영역이 변경되게 제어할 수 있다. 이와 관련하여, 발광 영역 제어 과정(S120)에서 단일 터치 입력에 따라 광 렌즈 부의 제1 영역이 발광 된 상태에서 드래그 입력의 종점에 따라 광 렌즈 부의 제2 영역이 발광되게 제어할 수 있다. 드래그 입력이 해제된 후 일정 시간 동안 발광 패턴 제어 과정(S180)이 수행될 수 있다. 발광 패턴 제어 과정(S180)에서 발광 영역을 통해 광이 다른 패턴으로 변경되어 방사되게 제어할 수 있다.
한편, 본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기는 전원 온/오프 및 어플리케이션 프로그램의 실행에 따라 발광 제어를 수행할 수 있다. 이와 관련하여, 도 16은 본 명세서에 따른 이벤트 검출에 기반한 전자 기기의 제어 방법의 흐름도를 나타낸다. 도 17은 본 명세서에 따른 어플리케이션 프로그램의 실행 입력 및 실행 상태에 따른 전자 기기의 제어 방법의 흐름도를 나타낸다.
도 16을 참조하면, 제어 방법은 제1 이벤트 검출 과정(S210), 발광 량을 증가시키는 제1 발광 제어 과정(S220), 제2 이벤트 검출 과정(S410) 및 발광 량을 감소시키는 제2 발광 제어 과정(S420)을 포함할 수 있다.
제1 이벤트 검출 과정(S210)에서 발광 량을 증가시킬 수 있는 제1 이벤트가 발생하였는지 여부가 검출될 수 있다. 발광 량을 증가시킬 수 있는 제1 이벤트는 전원 버튼 온(on) 이외에 본 명세서에서 설명된 다양한 이벤트들이 포함될 수 있다. 도 12c와 같이 완충 상태의 배터리 수준의 검출, 도 13a와 같이 메일 수신과 같은 이벤트 또는 도 14a와 같이 제1 임계 값 이상의 주변 밝기 값이 제1 이벤트로서 검출될 수 있다.
제1 발광 제어 과정(S220)에서 제1 이벤트가 검출되면, 일정 시간 동안 터치 패드 영역의 발광 량이 증가되도록 제어할 수 있다.
제2 이벤트 검출 과정(S410)에서 발광 량을 감소시킬 수 있는 제2 이벤트가 발생하였는지 여부가 검출될 수 있다. 발광 량을 감소시킬 수 있는 제2 이벤트는 전원 버튼 오프(off) 이외에 본 명세서에서 설명된 다양한 이벤트들이 포함될 수 있다. 도 12a와 같이 임계 수준 이하의 배터리 수준의 검출, 도 13a와 같은 메일 수신과 같은 이벤트 검출 후 사용자 확인 입력 또는 도 14b와 같이 제2 임계 값 이하의 주변 밝기 값이 제2 이벤트로서 검출될 수 있다.
제2 발광 제어 과정(S220)에서 제2 이벤트가 검출되면, 일정 시간 동안 터치 패드 영역의 발광 량이 감소되도록 제어할 수 있다. 예를 들어, 화면 상에 시스템 종료를 위한 전원 오프 입력이 인가되면, 제2 발광 제어 과정(S420)에서 실제 전원이 오프 될 때까지 터치 패드 영역의 발광 량이 감소되게 제어할 수 있다.
도 17을 참조하면, 제어 방법은 실행 입력 수신 과정(S310), 제1 발광 패턴 제어 과정(S320), 제1 발광 제어 과정(S325), 실행 상태 판단 과정(S330) 및 제2 발광 패턴 제어 과정(S340)을 포함할 수 있다. 제어 방법은 저전력 모드의 진입 여부를 판단하여 발광 제어를 수행할 수 있다. 제어 방법은 저전력 모드 진입 판단 과정(S350), 화면 표시 과정(S355), 발광 영역 제어 과정(S360), 제2 발광 제어 과정(S365)를 포함할 수 있다. 제1 발광 제어 과정(S325)에서 발광 량이 증가되게 제어할 수 있고, 제2 발광 제어 과정(S365)에서 발광 량이 감소되게 제어할 수 있다.
실행 입력 수신 과정(S310)에서 어플리케이션 프로그램에 대한 실행 입력을 수신할 수 있다. 어플리케이션 프로그램에 대한 실행 입력이 인가되면 제1 발광 패턴 제어 과정(S320)에서 광이 특정 영역을 통해 제1 패턴으로 방사되게 제어할 수 있다. 제1 발광 제어 과정(S325)에서 어플리케이션 프로그램에 대한 실행 입력이 인가된 제1 시점에서 실행 상태가 된 제2 시점까지 터치 패드 영역의 발광 량이 증가되게 제어할 수 있다.
실행 상태 판단 과정(S330)에서 어플리케이션 프로그램이 실행 상태로 진입하였는지를 판단할 수 있다. 어플리케이션 프로그램이 실행 상태가 되면, 제2 발광 패턴 제어 과정(S340)에서 광이 제1 패턴과 다른 제2 패턴으로 방사되게 제어할 수 있다. 어플리케이션 프로그램이 실행 상태가 아니면, 실행 입력 수신 과정(S310) 이하의 과정이 반복되도록 진행될 수 있다.
저전력 모드 진입 판단 과정(S350)에서 상기 어플리케이션 프로그램이 실행된 상태에서 배터리 잔량 또는 대기 상태 여부에 기초하여 동작 모드가 저전력 모드로 진입할 지 여부를 판단할 수 있다. 저전력 모드로 진입할 필요가 없다면 실행 입력 수신 과정(S310) 이하의 과정이 반복적으로 실행될 수 있다. 저전력 모드로 진입할 필요가 있다면 화면 표시 과정(S355)에서 동작 모드가 저전력 모드로 진입할 지와 연관된 사용자 입력을 요구하는 화면을 디스플레이에 표시할 수 있다.
발광 영역 제어 과정(S360)은 사용자 입력이 인가된 제3 시점에서 터치 패드의 특정 영역이 발광되게 제어할 수 있다. 제2 발광 제어 과정(S365)은 동작 모드가 저전력 모드로 진입한 제4 시점 또는 제4 시점에서 일정 시간까지 발광 량이 감소되게 제어할 수 있다.
이상에서는 본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기와 이의 제어 방법에 대해 설명하였다. 한편, 본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기와 이의 제어 방법의 기술적 효과에 대해 설명하면 다음과 같다.
본 명세서에 따른 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기의 기술적 효과에 대해 설명하면 다음과 같다.
본 명세서에 따르면, 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기를 제공하여 사용자가 전자 기기 사용시 전자 기기의 현재 상태에 대한 정보를 직관적으로 제공할 수 있다.
본 명세서에 따르면, 터치 패드 영역의 내부에 배치되는 기판에 발광 소자를 추가하여 특정 영역의 발광을 통해 사용자 입력이 정상적으로 인가되었는지를 피드백 하여, 사용자 입력이 인가된 영역에 인접하게 피드백 영역을 형성할 수 있다.
본 명세서에 따르면, 터치 패드 영역의 양 측에 해당하는 좌측 변 및/또는 우측 변의 슬릿 영역의 발광 제어를 통해 터치 입력이 터치 패드 영역을 벗어나지 않도록 사용자에게 직관적인 유저 인터페이스를 제공할 수 있다.
본 명세서에 따르면, 터치 입력과 연관된 햅틱 피드백이 제공되는 햅틱 활성화 영역(haptic active area)을 사용자에게 직관적인 유저 인터페이스를 통해 제공할 수 있다.
본 명세서에 따르면, 터치 패드 영역의 상부에 배치된 글래스의 특정 영역의 발광을 통해 사용자 입력이 정상적으로 인가되었는지를 피드백 할 수 있는 구조 설계 및 알고리즘을 제시할 수 있다.
본 명세서에 따르면, 터치 패드 영역의 하부에 배치된 발광 소자들과 햅틱 소자들의 영역 별 제어를 통해 사용자 입력이 정상적으로 인가되었는지를 피드백 할 수 있는 구조 설계 및 알고리즘을 제시할 수 있다.
본 명세서에 따르면, 전원 온/오프, 어플리케이션 프로그램의 실행에 따라 전자 기기의 현재 상태에 대한 정보를 사용자에게 피드백 하여 직관성의 향상과 함께 발광 영역의 그라데이션을 적용하여 심미성을 향상시킬 수도 있다.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
전술한 본 발명과 관련하여, 광 모듈이 적용된 햅틱 및 터치 패드 활성 영역을 갖는 전자 기기에서 제어부를 포함한 특정 컴포넌트의 설계 및 이의 구동은 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 키보드를 구비하는 전자 기기에 있어서,
    화면 정보를 표시하도록 구성된 디스플레이; 및
    상기 디스플레이와 동작 가능하게 결합되고, 키보드 영역을 구비하고 터치 입력을 감지하도록 구성된 베이스 부를 포함하고,
    상기 베이스 부는,
    터치 입력을 감지하고, 적어도 하나의 광원을 구비하는 터치 패드 영역; 및
    상기 터치 패드 영역의 양 측을 따라 형성된 광 렌즈 부(lighting lens portion)를 포함하고,
    상기 터치 패드 영역에 터치 입력이 감지되면 상기 터치 패드 영역의 적어도 일 측으로 광이 발광되는 것을 특징으로 하는, 전자 기기.
  2. 제1 항에 있어서,
    상기 터치 입력의 입력 패턴에 따라 상기 발광되는 광의 색상, 밝기 또는 발광 영역을 제어하는 프로세서를 더 포함하는 되는 것을 특징으로 하는, 전자 기기.
  3. 제2 항에 있어서,
    상기 프로세서는,
    상기 터치 패드 영역에 단일 터치 입력, 더블 터치 입력 또는 트리플 터치 입력이 입력됨에 따라 상기 양 측에 제1 색상의 광, 제2 색상의 광 또는 제3 색상의 광이 발광되게 제어하는, 전자 기기.
  4. 제2 항에 있어서,
    상기 프로세서는,
    상기 터치 패드 영역에 드래그 입력이 인가되고, 상기 드래그 입력의 이동 속도가 임계 속도 이하이면 상기 광의 밝기 변화를 제1 기울기의 속도로 변경하고,
    상기 이동 속도가 상기 임계 속도를 초과하면, 상기 광의 밝기 변화를 상기 제1 기울기보다 큰 제2 기울기의 속도 변화로 변경하는, 전자 기기.
  5. 제2 항에 있어서,
    상기 프로세서는,
    상기 터치 패드 영역에 드래그 입력의 검출 지점이 상기 터치 패드 영역의 좌측 변 또는 우측 변에 제1 임계 거리 이하로 근접하면, 상기 좌측 변 또는 상기 우측 변만 발광되게 제어하는, 전자 기기.
  6. 제2 항에 있어서,
    상기 프로세서는,
    상기 좌측 변 또는 상기 우측 변만 발광된 상태에서 상기 검출 지점이 상기 좌측 변 또는 상기 우측 변에 근접할수록 상기 광의 밝기를 증가시키는, 전자 기기.
  7. 제5 항에 있어서,
    상기 프로세서는,
    상기 좌측 변 또는 상기 우측 변만 발광된 상태에서 상기 검출 지점이 상기 좌측 변 또는 상기 우측 변에 도달하거나 또는 제2 임계 거리 이하로 근접하면, 상기 광의 색상을 변경하거나 또는 상기 광이 점멸되게 제어하고,
    상기 제2 임계 거리는 상기 제1 임계거리보다 짧은, 전자 기기.
  8. 제2 항에 있어서,
    상기 프로세서는,
    상기 전자 기기의 배터리 잔량을 검출하고,
    상기 배터리 잔량이 제1 임계치 이하이면 상기 터치 패드 영역의 좌측 변 또는 우측 변의 슬릿 영역에 제1 높이로 상기 광이 발광되게 제어하고,
    상기 배터리 잔량이 제2 임계치 이하이면 상기 슬릿 영역에 제2 높이로 상기 광이 발광되게 제어하고,
    상기 배터리 잔량이 제3 임계치 이상이면 상기 슬릿 영역에 제3 높이로 상기 광이 발광되게 제어하고,
    상기 제1 높이보다 상기 제2 높이가 더 높고, 상기 제2 높이보다 제3 높이가 더 높은, 전자 기기.
  9. 제2 항에 있어서,
    상기 프로세서는,
    파일 다운로드가 완료되는 제1 이벤트, 새로운 이메일이 수신되는 제2 이벤트 또는 기 설정된 패턴의 제3 이벤트가 발생하는지 여부를 검출하고,
    상기 제1 내지 제3 이벤트 중 적어도 하나가 검출되면, 상기 터치 패드 영역의 좌측 변 또는 우측 변의 슬릿 영역에 상기 광의 발광 및 점멸이 반복적으로 수행되거나 또는 상기 슬릿 영역의 내측으로 인접한 영역에 아이콘이 표시되도록 제어하는, 전자 기기.
  10. 제2 항에 있어서,
    상기 프로세서는,
    상기 키보드 영역의 백라이트와 연동하거나 또는 상기 키보드 영역의 밝기 조절과 연관된 기능 키와 연동하여 상기 터치 패드 영역의 상기 적어도 일 측에 발광되는 상기 광의 밝기 및 색상을 제어하는, 전자 기기.
  11. 제2 항에 있어서,
    상기 프로세서는,
    상기 키보드 영역에 키보드 입력이 인가되거나 또는 상기 키보드 영역으로 모션 입력을 검출하고,
    상기 검출 시 상기 터치 패드 영역에 상기 터치 입력이 인식되지 않도록 상기 터치 패드 영역에 배치된 터치 인식 칩을 비활성화하는, 전자 기기.
  12. 제11 항에 있어서,
    상기 프로세서는
    상기 검출 시 상기 터치 인식 칩을 비활성화하면서 상기 터치 패드 영역의 좌측 변 또는 우측 변의 슬릿 영역에 발광되는 광의 색상을 변경하는, 전자 기기
  13. 제2 항에 있어서,
    상기 프로세서는,
    상기 터치 패드 영역에 인가될 수 있는 터치 입력과 별도로 다른 터치 입력이 인가될 수 있는 입력 장치가 연결되는지 여부를 감지하고,
    상기 입력 장치가 연결되면, 상기 터치 패드 영역에 배치된 터치 인식 칩을 비활성화하는, 전자 기기.
  14. 제2 항에 있어서,
    상기 프로세서는,
    상기 터치 패드 영역에 인가될 수 있는 터치 입력과 별도로 다른 터치 입력이 인가될 수 있는 입력 장치가 연결되었거나 연결 해제되었는지 여부를 감지하고,
    상기 입력 장치가 연결되거나 또는 연결 해제되면, 상기 터치 패드 영역의 좌측 변 또는 우측 변의 슬릿 영역을 발광 및 점멸을 제어하거나 또는 발광되는 광의 색상 또는 밝기를 변경하는, 전자 기기
  15. 제2 항에 있어서,
    상기 프로세서는,
    카메라, 조도 센서 또는 현재 시간 중 적어도 하나에 기초하여 주변 밝기 정보를 검출하고,
    상기 주변 밝기 정보에 기초하여 상기 터치 패드 영역의 좌측 변 또는 우측 변의 슬릿 영역을 밝기를 제어하는, 전자 기기.
  16. 제3 항에 있어서,
    상기 터치 패드 영역에 단일 탭 입력이 인가되면 상기 터치 패드 영역의 일 측 영역의 발광 상태가 변경되고,
    상기 터치 패드 영역에 더블 탭 입력이 인가되면 상기 터치 패드 영역의 타 측 영역의 발광 상태가 변경되는, 전자 기기.
  17. 제1 항에 있어서,
    상기 베이스 부는,
    터치 입력 영역의 상부 영역에 배치되고, 특정 영역을 통해 광(light)이 방출되도록 구성된 글래스;
    상기 글래스의 하부에 배치되어 상기 광원으로부터의 광을 투과하도록 형성된 투명 레이어; 및
    상기 투명 레이어 하부에 배치되어 상기 광이 차단되도록 형성되는 불투명 레이어를 포함하고,
    상기 광은 상기 불투명 레이어의 슬롯 영역에 대응되는 상기 투명 레이어를 통해 상기 터치 패드 영역의 좌측 변 및 우측 변에서 방사(emit)되고,
    상기 광원은 상기 터치 패드 영역의 좌측 변 또는 우측 변에 각각 복수 개로 배치되는 복수의 발광 소자들로 구성되고,
    상기 발광 소자들은 상기 터치 패드 영역에 배치된 기판(substrate)의 일 축 방향으로 배치되는, 전자 기기.
  18. 제17 항에 있어서,
    상기 광 렌즈 부는,
    상기 발광 소자의 하부 영역에 제1 두께로 형성되는 제1 부분; 및
    상기 제1 부분의 단부에서 상기 제1 두께보다 두꺼운 제2 두께로 형성되고, 상기 발광 소자로부터 방사된 광이 통과되도록 구성된 제2 부분을 포함하는, 전자 기기.
  19. 제17 항에 있어서,
    상기 광 렌즈 부는,
    상기 제2 부분의 단부에서 상기 제2 두께보다 두꺼운 제3 두께로 형성되고 상기 광이 특정 영역으로 방사되도록 구성된 제3 부분을 포함하고,
    상기 제3 부분의 내 측면은 상기 기판의 측면과 마주보게 이격되는, 전자 기기.
  20. 제17 항에 있어서,
    상기 프로세서는,
    상기 터치 패드 영역이 눌려지면 상기 기판에 배치되는 햅틱 센서들 중 어느 하나가 터치된 영역(touched region) 및 상기 터치된 영역에 인가된 압력을 감지하고,
    상기 터치된 영역이 진동(vibrate)되도록 상기 기판에 배치된 햅틱 모터를 제어하는, 전자 기기.
PCT/KR2023/010377 2022-11-15 2023-07-19 터치 패드 활성 영역 및 키보드를 구비하는 전자 기기 WO2024106676A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0152606 2022-11-15
KR20220152606 2022-11-15
KR20220180859 2022-12-21
KR10-2022-0180859 2022-12-21

Publications (1)

Publication Number Publication Date
WO2024106676A1 true WO2024106676A1 (ko) 2024-05-23

Family

ID=91085045

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/010377 WO2024106676A1 (ko) 2022-11-15 2023-07-19 터치 패드 활성 영역 및 키보드를 구비하는 전자 기기

Country Status (1)

Country Link
WO (1) WO2024106676A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100089720A (ko) * 2009-02-04 2010-08-12 기가 바이트 테크놀러지 컴퍼니 리미티드 노트북 컴퓨터
KR20110019070A (ko) * 2009-08-19 2011-02-25 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20110122092A1 (en) * 2009-11-20 2011-05-26 Micro-Star Internationa'l Co., Ltd. Electronic device with optical touch module
KR20130040010A (ko) * 2011-10-13 2013-04-23 엘지전자 주식회사 입력 장치 및 이를 포함하는 영상표시장치
KR20190009942A (ko) * 2017-07-20 2019-01-30 박철민 노트북 터치패드의 입력 오류 방지 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100089720A (ko) * 2009-02-04 2010-08-12 기가 바이트 테크놀러지 컴퍼니 리미티드 노트북 컴퓨터
KR20110019070A (ko) * 2009-08-19 2011-02-25 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20110122092A1 (en) * 2009-11-20 2011-05-26 Micro-Star Internationa'l Co., Ltd. Electronic device with optical touch module
KR20130040010A (ko) * 2011-10-13 2013-04-23 엘지전자 주식회사 입력 장치 및 이를 포함하는 영상표시장치
KR20190009942A (ko) * 2017-07-20 2019-01-30 박철민 노트북 터치패드의 입력 오류 방지 장치

Similar Documents

Publication Publication Date Title
WO2019240519A2 (en) Electronic device including flexible display capable of changing size of display area and method for controlling same
WO2017213347A2 (en) Mobile device with touch screens and method of controlling the same
WO2017065494A1 (en) Portable device and screen display method of portable device
WO2015012463A1 (ko) 이동 단말기
AU2015368103B2 (en) Window cover and display apparatus having the same and method of manufacturing display apparatus
WO2016175493A1 (en) Cover and electronic device including the same
WO2018030594A1 (en) Mobile terminal and method for controlling the same
WO2015037932A1 (en) Display apparatus and method for performing function of the same
WO2015020284A1 (ko) 이동 단말기 및 그것의 제어방법
WO2015088166A1 (ko) 이동 단말기 및 그의 후면 입력부 운용방법
WO2011111906A1 (ko) 터치 패널
WO2016114444A1 (ko) 이동 단말기 및 이의 제어방법
WO2022080617A1 (en) Electronic device including flexible display and method for operating screen of electronic device
WO2015199280A1 (en) Mobile terminal and method of controlling the same
WO2017175942A1 (en) Mobile terminal and method for controlling the same
WO2014046492A2 (en) Flexible apparatus and control method thereof
WO2015126012A1 (ko) 이동단말기 및 그 제어방법
WO2022025450A1 (ko) 슬라이딩 가능한 전자 장치 및 이의 제어 방법
WO2018038288A1 (ko) 이동 단말기
WO2016200005A1 (en) Mobile terminal and display operating method thereof
WO2015093666A1 (ko) 전자기기 및 전자기기의 제어방법
WO2017034111A1 (en) Display apparatus and input method of display apparatus
WO2022103174A1 (ko) 표시 영역이 가변되는 디스플레이를 포함하는 전자 장치 및 앱 아이콘을 이용하여 화면 비율을 가변적으로 운용하는 방법
WO2016068645A1 (en) Display apparatus, system, and controlling method thereof
WO2013070019A1 (ko) 전자 기기