WO2021107200A1 - Mobile terminal and mobile terminal control method - Google Patents

Mobile terminal and mobile terminal control method Download PDF

Info

Publication number
WO2021107200A1
WO2021107200A1 PCT/KR2019/016632 KR2019016632W WO2021107200A1 WO 2021107200 A1 WO2021107200 A1 WO 2021107200A1 KR 2019016632 W KR2019016632 W KR 2019016632W WO 2021107200 A1 WO2021107200 A1 WO 2021107200A1
Authority
WO
WIPO (PCT)
Prior art keywords
application
mobile terminal
cloud server
splash
image
Prior art date
Application number
PCT/KR2019/016632
Other languages
French (fr)
Korean (ko)
Inventor
전성배
이준석
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2021107200A1 publication Critical patent/WO2021107200A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/06Details of telephonic subscriber devices including a wireless LAN interface

Definitions

  • the terminal may be divided into a mobile/portable terminal and a stationary terminal according to whether the terminal can be moved.
  • the mobile terminal can be divided into a handheld terminal and a vehicle mounted terminal depending on whether the user can carry it directly.
  • mobile terminals are diversifying. For example, there are functions for data and voice communication, photo and video shooting through a camera, voice recording, music file playback through a speaker system, and image or video output to the display. Some terminals add an electronic game play function or perform a multimedia player function. In particular, recent mobile terminals can receive multicast signals that provide broadcast and visual content such as video or television programs.
  • a user interface for controlling a device by detecting a motion or gesture of a user based on 3D vision technology is also developing.
  • the three-dimensional vision-based UO can be applied to various applications by supplementing the existing two-dimensional touch-based UI.
  • an object can be controlled in three dimensions, even when the device is in a location that the user cannot touch, and the user's hand is contaminated or wearing gloves. It allows you to control the device even when it is difficult to touch, such as when there is one. Accordingly, a three-dimensional vision-based gesture recognition technology is in the spotlight.
  • AR augmented reality
  • the mobile terminal overcomes the capacity limit of local storage through the cloud environment, and users can easily share files on multiple devices through the cloud environment.
  • An object of the present invention is to shorten the time when a splash image of an application installed on a cloud server is output to a mobile terminal.
  • the mobile terminal may include a display unit, a communication unit communicating with a cloud server in which an application is installed, a local storage including a splash image of the application, and a request to execute the application to the cloud.
  • the cloud server executes the application
  • the splash image may include a first splash image fixed in response to the application or a second splash image corresponding to a screen at a time when the execution of the application is stopped.
  • the processor when the executed application is terminated, receives the first splash image from the cloud server, and updates the storage image stored in the local storage to the first splash image.
  • the processor receives the first splash image from the cloud server, and updates the storage image stored in the local storage to the first splash image.
  • the processor when the executed application is stopped, receives the second splash image from the cloud server, and updates the storage image stored in the local storage to the second splash image.
  • the processor receives the second splash image from the cloud server, and updates the storage image stored in the local storage to the second splash image.
  • the storage image when the application is first executed, the storage image may be received from the cloud server in response to the application execution request and stored in the local storage.
  • the method for controlling a mobile terminal includes the steps of receiving an application execution request, transmitting the execution request to a cloud server in which the application is installed, and splashing the application stored in local storage It may include outputting an image to a display unit, receiving screen information configured by the application executed from the cloud server, and outputting a screen corresponding to the received screen information to the display unit.
  • the cloud server may include an application code for executing the application.
  • the splash image may include a first splash image that is fixed in response to the application or a second splash image that corresponds to a screen when the execution of the application is stopped.
  • receiving the first splash image from the cloud server, and updating the splash image stored in the local storage to the first splash image may further include.
  • receiving the second splash image from the cloud server, and updating the splash image stored in the local storage to the second splash image may include more.
  • the storage image when the application is first executed, the storage image may be received from the cloud server in response to the application execution request and stored in the local storage.
  • the mobile terminal may prevent delay in outputting a splash image when an application installed on a cloud server is executed.
  • 1A is a block diagram of a mobile terminal according to an embodiment.
  • FIGS. 1B and 1C are conceptual views of a mobile terminal viewed from different directions according to an exemplary embodiment.
  • FIG. 2 illustrates a cloud system according to an embodiment.
  • FIG. 3 is a block diagram of a mobile terminal according to an embodiment.
  • FIG. 4 illustrates a processor executing an application in a mobile terminal according to an embodiment.
  • FIG. 5 illustrates a processor executing an application in a mobile terminal according to an embodiment.
  • FIG. 6 illustrates a main splash window according to an embodiment.
  • FIG. 7 illustrates a previous screen splash window according to an embodiment.
  • FIG. 8 illustrates a processor executing an application in a mobile terminal according to an embodiment.
  • FIG. 9 illustrates a processor executing an application in a mobile terminal according to an embodiment.
  • FIG. 10 illustrates a processor executing an application in a mobile terminal according to an embodiment.
  • FIG. 11 illustrates a processor executing an application in a mobile terminal according to an embodiment.
  • FIG. 12 illustrates a processor for acquiring a splash image stored in a local storage of a mobile terminal according to an embodiment.
  • the mobile terminal described in this specification includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation system, and a slate PC.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • slate PC slate PC
  • tablet PCs ultrabooks
  • wearable devices for example, watch-type terminals (smartwatch), glass-type terminals (smart glass), HMD (head mounted display), etc. may be included. have.
  • FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention
  • FIGS. 1B and 1C are conceptual views of an example of the mobile terminal related to the present invention viewed from different directions.
  • the mobile terminal 100 includes a wireless communication unit 110 , an input unit 120 , a sensing unit 140 , an output unit 150 , an interface unit 160 , a memory 170 , a control unit 180 , and a power supply unit 190 . ) and the like.
  • the components shown in FIG. 1A are not essential for implementing the mobile terminal, so the mobile terminal described in this specification may have more or fewer components than those listed above.
  • the wireless communication unit 110 is between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or between the mobile terminal 100 and an external server. It may include one or more modules that enable wireless communication between them. In addition, the wireless communication unit 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of a broadcast reception module 111 , a mobile communication module 112 , a wireless Internet module 113 , a short-range communication module 114 , and a location information module 115 . .
  • the input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 or an audio input unit for inputting an audio signal, and a user input unit 123 for receiving information from a user, for example, , a touch key, a push key, etc.).
  • the voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information.
  • the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • G-sensor gyroscope sensor
  • motion sensor RGB sensor
  • infrared sensor IR sensor: infrared sensor
  • fingerprint sensor fingerprint sensor
  • ultrasonic sensor ultrasonic sensor
  • optical sensors eg, cameras (see 121)
  • microphones see 122
  • battery gauges environmental sensors (eg, barometers, hygrometers, thermometers, radiation detection sensors, It may include at least one of a thermal sensor, a gas sensor, etc.) and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
  • the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
  • the output unit 150 is for generating an output related to visual, auditory or tactile sense, and may include at least one of a display 151 , a sound output unit 152 , a haptip module 153 , and an optical output unit.
  • the display 151 may implement a touch screen by forming a layer structure with the touch sensor or being integrally formed therewith. Such a touch screen may function as the user input unit 123 providing an input interface between the mobile terminal 100 and the user, and may provide an output interface between the mobile terminal 100 and the user.
  • the interface unit 160 serves as a passage with various types of external devices connected to the mobile terminal 100 .
  • Such an interface unit 160 a wired / wireless headset port (port), an external charger port (port), a wired / wireless data port (port), a memory card (memory card) port, for connecting a device equipped with an identification module It may include at least one of a port, an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port.
  • the mobile terminal 100 may perform appropriate control related to the connected external device.
  • the memory 170 stores data supporting various functions of the mobile terminal 100 .
  • the memory 170 may store a plurality of application programs (or applications) driven in the mobile terminal 100 , data for operation of the mobile terminal 100 , and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of shipment for basic functions (eg, incoming calls, outgoing functions, message reception, and outgoing functions) of the mobile terminal 100 . Meanwhile, the application program may be stored in the memory 170 , installed on the mobile terminal 100 , and driven to perform an operation (or function) of the mobile terminal by the controller 180 .
  • the controller 180 In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the mobile terminal 100 .
  • the controller 180 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170 .
  • controller 180 may control at least some of the components discussed with reference to FIG. 1A in order to drive an application program stored in the memory 170 . Furthermore, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 with each other.
  • the power supply unit 190 receives external power and internal power under the control of the controller 180 to supply power to each component included in the mobile terminal 100 .
  • the power supply 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • At least some of the respective components may operate cooperatively with each other to implement an operation, control, or control method of a mobile terminal according to various embodiments to be described below.
  • the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170 .
  • FIG. 1B and 1C illustrate basic features of a foldable mobile terminal in an unfolded state.
  • the mobile terminal 100 includes a display 151 , first and second sound output units 152a and 152b , a proximity sensor 141 , an illuminance sensor 142 , a light output unit 154 , and first and second cameras. (121a, 121b), the first and second operation units (123a, 123b), a microphone 122, the interface unit 160, etc. may be provided.
  • the camera 121a and the first operation unit 123a are disposed, the second operation unit 123b, the microphone 122 and the interface unit 160 are disposed on the side of the terminal body, and the first operation unit 123b is disposed on the rear surface of the terminal body. 2
  • the mobile terminal 100 in which the sound output unit 152b and the second camera 121b are disposed will be described as an example.
  • first operation unit 123a may not be provided on the front surface of the terminal body
  • second sound output unit 152b may be provided on the side surface of the terminal body instead of the rear surface of the terminal body.
  • the display 151 displays (outputs) information processed by the mobile terminal 100 .
  • the display 151 may display execution screen information of an application program driven in the mobile terminal 100 or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information.
  • UI User Interface
  • GUI Graphic User Interface
  • the display 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • a flexible display e.g., a three-dimensional display (3D display), may include at least one of an e-ink display (e-ink display).
  • two or more displays 151 may exist according to an implementation form of the mobile terminal 100 .
  • a plurality of displays may be spaced apart or disposed integrally on one surface, or may be respectively disposed on different surfaces.
  • the display 151 may include a touch sensor for sensing a touch on the display 151 so as to receive a control command input by a touch method. Using this, when a touch is made on the display 151 , the touch sensor detects the touch, and the controller 180 may generate a control command corresponding to the touch based thereon.
  • the content input by the touch method may be letters or numbers, or menu items that can be instructed or designated in various modes.
  • the touch sensor is configured in the form of a film having a touch pattern and is disposed between the window 151a covering the display 151 and a plurality of layers constituting the display 151 or directly on the back surface of the window 151a. It can also be a patterned metal wire. Alternatively, the touch sensor may be integrally formed with the display. For example, the touch sensor may be disposed on a substrate of the display or provided inside the display.
  • the display 151 may form a touch screen together with the touch sensor, and in this case, the touch screen may function as the user input unit 123 (refer to FIG. 1A ). In some cases, the touch screen may replace at least some functions of the first operation unit 123a.
  • the first sound output unit 152a may be implemented as a receiver that transmits a call sound to the user's ear, and the second sound output unit 152b is a loudspeaker that outputs various alarm sounds or multimedia reproduction sounds. ) can be implemented in the form of
  • a sound hole for emitting sound generated from the first sound output unit 152a may be formed in the window 151a of the display 151 .
  • the present invention is not limited thereto, and the sound may be configured to be emitted along an assembly gap between structures (eg, a gap between the window 151a and the front case 101). In this case, the appearance of the mobile terminal 100 may be simpler because the holes formed independently for sound output are not visible or hidden.
  • the light output unit is configured to output light to notify the occurrence of an event.
  • Examples of the event may include a message reception, a call signal reception, a missed call, an alarm, a schedule notification, an email reception, and information reception through an application.
  • the controller 180 may control the light output unit to end the light output.
  • the first camera 121a processes an image frame of a still image or a moving image obtained by an image sensor in a shooting mode or a video call mode.
  • the processed image frame may be displayed on the display 151 and stored in the memory 170 .
  • the first and second manipulation units 123a and 123b are an example of the user input unit 123 operated to receive a command for controlling the operation of the mobile terminal 100, and may be collectively referred to as a manipulating portion. have.
  • the first and second operation units 123a and 123b may be adopted in any manner as long as they are operated in a tactile manner such as touch, push, scroll, etc. by the user while receiving a tactile feeling.
  • the first and second manipulation units 123a and 123b may be operated in a manner in which the user is operated without a tactile feeling through a proximity touch, a hovering touch, or the like.
  • the first operation unit 123a is illustrated as a touch key, but the present invention is not limited thereto.
  • the first operation unit 123a may be a push key (mechanical key) or may be configured as a combination of a touch key and a push key.
  • the contents input by the first and second operation units 123a and 123b may be variously set.
  • the first operation unit 123a receives commands such as menu, home key, cancel, search, etc.
  • the second operation unit 123b is output from the first or second sound output units 152a and 152b. It is possible to receive a command such as adjusting the volume of the sound and switching to the touch recognition mode of the display 151 .
  • a rear input unit (not shown) may be provided on the rear surface of the terminal body.
  • the rear input unit is manipulated to receive a command for controlling the operation of the mobile terminal 100 , and input contents may be variously set. For example, a command such as power on/off, start, end, scroll, etc., adjustment of the sound output from the first and second sound output units 152a and 152b, and the display 151 to a touch recognition mode. Commands such as switching can be input.
  • the rear input unit may be implemented in a form capable of input by a touch input, a push input, or a combination thereof.
  • the rear input unit may be disposed to overlap the display 151 on the front side in the thickness direction of the terminal body.
  • the rear input unit may be disposed on the upper rear portion of the terminal body so that the user can easily manipulate the terminal body by using the index finger when holding the terminal body with one hand.
  • the present invention is not necessarily limited thereto, and the position of the rear input unit may be changed.
  • the rear input unit when the rear input unit is provided on the rear surface of the terminal body, a new type of user interface using the same can be implemented.
  • the aforementioned touch screen or rear input unit replaces at least some functions of the first operation unit 123a provided on the front surface of the terminal body, the first operation unit 123a is not disposed on the front surface of the terminal body,
  • the display 151 may be configured with a larger screen.
  • the mobile terminal 100 may be provided with a fingerprint recognition sensor 143 for recognizing a user's fingerprint, and the controller 180 may use fingerprint information detected through the fingerprint recognition sensor 143 as an authentication means.
  • the fingerprint recognition sensor may be built into the display 151 or the user input unit 123, or may be provided at a separate location.
  • the microphone 122 is configured to receive a user's voice, other sounds, and the like.
  • the microphone 122 may be provided at a plurality of locations and configured to receive stereo sound.
  • the interface unit 160 serves as a passage through which the mobile terminal 100 can be connected to an external device.
  • the interface unit 160 is a connection terminal for connection with another device (eg, earphone, external speaker), a port for short-range communication (eg, infrared port (IrDA Port), Bluetooth port (Bluetooth) Port), a wireless LAN port, etc.], or at least one of a power supply terminal for supplying power to the mobile terminal 100 .
  • the interface unit 160 may be implemented in the form of a socket for accommodating an external card such as a subscriber identification module (SIM), a user identity module (UIM), or a memory card for information storage.
  • SIM subscriber identification module
  • UIM user identity module
  • memory card for information storage.
  • a second camera 121b may be disposed on the rear side of the terminal body.
  • the second camera 121b has a photographing direction substantially opposite to that of the first camera 121a.
  • the second camera 121b may include a plurality of lenses arranged along at least one line.
  • the plurality of lenses may be arranged in a matrix form.
  • Such a camera may be referred to as an 'array camera'.
  • an image may be captured in various ways using a plurality of lenses, and an image of better quality may be obtained.
  • the flash 124 may be disposed adjacent to the second camera 121b.
  • the flash 124 illuminates light toward the subject when the subject is photographed by the second camera 121b.
  • a second sound output unit 152b may be additionally disposed on the terminal body.
  • the second sound output unit 152b may implement a stereo function together with the first sound output unit 152a, and may be used to implement a speakerphone mode during a call.
  • At least one antenna for wireless communication may be provided in the terminal body.
  • the antenna may be built into the terminal body or formed in the case.
  • an antenna forming a part of the broadcast reception module 111 (refer to FIG. 1A ) may be configured to be withdrawable from the terminal body.
  • the antenna may be formed in a film type and attached to the inner surface of the rear cover 103 , or a case including a conductive material may be configured to function as an antenna.
  • the terminal body is provided with a power supply unit 190 (refer to FIG. 1A ) for supplying power to the mobile terminal 100 .
  • the power supply unit 190 may include a battery 191 that is built into the terminal body or is detachably configured from the outside of the terminal body.
  • the battery 191 may be configured to receive power through a power cable connected to the interface unit 160 .
  • the battery 191 may be configured to be wirelessly charged through a wireless charging device.
  • the wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).
  • the rear cover 103 is coupled to the rear case 102 to cover the battery 191 to limit the detachment of the battery 191 and to protect the battery 191 from external shocks and foreign substances. is foreshadowing
  • the rear cover 103 may be detachably coupled to the rear case 102 .
  • the camera (the camera 121 shown in FIG. 1 and the camera 121a shown in FIG. 1A) applied to the present invention is located around the touch screen of the mobile device. Accordingly, it is possible to detect depth information on an object (eg, a user's finger) within a predetermined distance from the touch screen of the mobile device. Such a camera may be referred to as a depth camera.
  • the first method is a method of using a multi-camera (or lens), which captures visible light using two or more cameras, and generates a 3D image using depth information.
  • the second method is a method of mounting a separate sensor for depth sensing in a camera module, and more specifically, structured light (SL) and time of flight (ToF) methods are applied.
  • SL structured light
  • TOF time of flight
  • SL method After irradiating a laser of a specific pattern, such as a straight line or a grid pattern, to an object to be photographed, information in which the pattern is deformed according to the shape of the object surface is analyzed. Furthermore, after calculating the depth information, a 3D-based shooting result is derived by synthesizing it with a picture taken by an image sensor. To implement this, a laser infrared (IR) projector that emits a specific pattern, an infrared depth sensor, an image sensor, and a 3D processor may be used.
  • IR laser infrared
  • depth information is calculated by measuring the time it takes for a laser to go to a photographing target and then reflected back, and then synthesized with a photograph taken by an image sensor to derive 3D-based photographing results.
  • a laser infrared (IR) projector a receiving sensor, an image sensor, a 3D processor, and the like may be used.
  • FIG. 2 illustrates a cloud system according to an embodiment.
  • the cloud system may include a mobile terminal 200 , a communication network 300 , and a cloud server 400 .
  • the mobile terminal 200 is a device capable of communicating with the cloud server 400 and may be a cloud terminal.
  • the cloud terminal is a terminal in which most of the services provided by the cloud server 400 are processed unlike the application execution process in the terminal, and the terminal itself may serve as an input/output device.
  • the cloud terminal may be a terminal that executes an application installed in a virtual file system (VFS)-based cloud server through an operating system (OS).
  • VFS virtual file system
  • OS operating system
  • the VFS may be an abstraction layer above the actual file system.
  • the purpose of VFS is to allow applications to access multiple file systems in the same way. For example, with VFS, applications can directly access local storage and cloud servers, so they may not notice the difference between local storage and cloud servers. In addition, it is possible to access the file system without feeling the difference beyond the OS difference.
  • the communication network 300 may be a single or complex network that enables communication by connecting the mobile terminal 200 and the cloud server 400 through wired, wireless and/or the Internet.
  • the cloud server 400 is a storage device on the communication network 300 , and may be a storage device that the mobile terminal 200 can access through the communication network 300 at any time and anywhere.
  • FIG. 3 is a block diagram of a mobile terminal 200 according to an embodiment. Specifically, the mobile terminal 200 of FIG. 3 may represent the controller 180 of FIG. 1 .
  • the mobile terminal 200 may include an Operating System (OS) 210 , a Virtual File System (VFS) 220 , a cloud file manager 230 , and a cloud file cache 240 .
  • OS Operating System
  • VFS Virtual File System
  • cloud file manager 230 a cloud file manager 230
  • cloud file cache 240 a cloud file cache 240
  • the OS 210 is an operating system installed in the mobile terminal 200 and may include an Android-based OS.
  • the VFS 220 may be used to mediate communication between the OS 210 and the cloud file manager 230 while defining an interface or standard between the kernel and the actual file system.
  • the cloud file manager 230 may be for mediating communication with the OS when the mobile terminal 200 executes an application installed on the cloud server 400 on the communication network 300 .
  • the cloud file cache 240 may represent an internal cache area of the cloud file manager 230 .
  • the cloud file manager 230 may store a file downloaded from the cloud server 400 as a cache file in the cloud file cache 240 .
  • the cloud file manager 230 may request the cloud server 400 to execute an application through the mobile terminal 200 .
  • the cloud file manager 230 may temporarily or semi-permanently store the file received from the cloud server 400 in the cloud file cache 240 .
  • the file stored in the cloud file cache 240 may include a screen image (hereinafter, referred to as a splash window) output during the time required to execute the application.
  • FIG. 4 illustrates a processor executing an application in the mobile terminal 200 according to an embodiment. Specifically, FIG. 4 shows a processor executing an application stored in the local storage of the mobile terminal 200 .
  • the mobile terminal 200 may receive a request to execute an application from the user through the input device (S301).
  • the input device may include at least one of a touch signal, a motion signal, and a voice signal applied to the touch panel.
  • the mobile terminal 200 may identify the application requested to be executed and read the application code from the local storage (S302).
  • the mobile terminal 200 may read the splash window corresponding to the application executed through the application code from the local storage and output the splash window to the display (S303).
  • a time required to output the splash window after the application execution request may be defined as the first time t1.
  • the first time t1 may be a time required for the first screen of the application to be output to the application execution request.
  • the mobile terminal 200 may output a splash window and initialize data (S304).
  • the step of initializing the data may include the step of initializing the application code.
  • the mobile terminal 200 may configure the first screen of application execution (S305) and output the configured first screen to the display (S306).
  • a time required to output the first screen after the application execution request may be defined as a second time t2.
  • the second time t2 may be a time required for the application to respond to the application execution request.
  • FIG. 5 illustrates a processor executing an application in the mobile terminal 200 according to an embodiment. Specifically, FIG. 5 shows a processor executing an application stored in the local storage of the mobile terminal 200 .
  • the mobile terminal 200 may receive a request to execute an application from the user through the input device (S401).
  • the input device may include at least one of a touch signal, a motion signal, and a voice signal applied to the touch panel.
  • the mobile terminal 200 may identify the application requested to be executed and read the application code from the local storage (S402).
  • the mobile terminal 200 may determine whether the application requested to be executed is in the running state (S403). The mobile terminal 200 may discriminate whether the application requested to be executed is in the running state through the application code or separately stored data.
  • the mobile terminal 200 may output a main splash window when the application requested to be executed is not in the running state (S403, No) (S404).
  • the main splash window may be a representative image provided when the application is first started.
  • the main splash window may refer to FIG. 6 .
  • the mobile terminal 200 may output a main splash window and initialize data (S405).
  • the step of initializing the data may include the step of initializing the application code.
  • the mobile terminal 200 may configure the first screen of application execution (S406) and output the configured first screen to the display (S407).
  • the mobile terminal 200 may output a previous screen splash window when the execution-requested application is in the running state (S403, No) (S408).
  • the previous screen splash window may be an image corresponding to the execution screen of the application when execution is stopped.
  • the previous screen splash window may refer to FIG. 7 .
  • the previous screen splash window may be stored in local storage.
  • the previous screen splash window may be updated correspondingly if the application is running.
  • the mobile terminal 200 may output the previous screen splash window and re-read the data (S409).
  • the step of re-reading the data may include detecting a point where the application code stops while executing.
  • the mobile terminal 200 may configure the previous screen stopped during application execution (S410), and output the configured previous screen to the display (S411).
  • FIG. 6 illustrates a main splash window according to an embodiment.
  • FIG. 6( a ) illustrates an embodiment in which a main splash window output when a phone application is first executed is output.
  • FIG. 6(b) shows an embodiment in which the main splash window output when the message application is first executed is output.
  • FIG. 6( c ) shows an embodiment in which the main splash window output when the contact application is first executed is output.
  • FIG. 7 illustrates a previous screen splash window according to an embodiment.
  • Figure 7 (a) shows an embodiment in which the phone application is stopped while inputting a specific phone number (010-XXX-XXXX), and outputting the previous screen splash window stored in the local storage.
  • FIG. 7(b) shows an embodiment in which the message application is stopped while executing a message window with a specific person (Chaeyeon), and the previous screen splash window stored in the local storage is output.
  • FIG. 7(c) shows an embodiment in which the contact application is stopped while running the contact window of a specific person (Chaeyeon), and the previous screen splash window stored in the local storage is output.
  • FIG. 8 illustrates a processor executing an application in the mobile terminal 200 according to an embodiment. Specifically, FIG. 8 illustrates a processor executing an application stored in the cloud server 400 of the mobile terminal 200 .
  • the mobile terminal 200 may receive a request to execute an application from the user through the input device (S501).
  • the input device may include at least one of a touch signal, a motion signal, and a voice signal applied to the touch panel.
  • the mobile terminal 200 may transmit the application execution request to the cloud server 400 (S502).
  • the cloud file manager 230 may transmit an application execution request to the cloud server 400 through the communication network 300 .
  • the cloud server 400 may receive the application execution request (S503) and read the execution-requested application code (S504).
  • the cloud server 400 may generate a splash window corresponding to the execution-requested application code through the code (S505).
  • the mobile terminal 200 may receive the splash window from the cloud server 400 (S506), and may output the received splash window (S507).
  • the cloud server 400 may transmit the splash window (S506) to the mobile terminal 200 and initialize the data (S508).
  • the step of initializing the data may include the step of initializing the application code.
  • the cloud server 400 may configure the first screen of application execution (S509) and generate the first screen (S510).
  • the mobile terminal 200 may output the received first screen to the display (S512).
  • FIG. 9 illustrates a processor executing an application in the mobile terminal 200 according to an embodiment. Specifically, FIG. 9 illustrates a processor executing an application stored in the cloud server 400 of the mobile terminal 200 .
  • the mobile terminal 200 may receive a request to execute an application from the user through the input device (S601).
  • the input device may include at least one of a touch signal, a motion signal, and a voice signal applied to the touch panel.
  • the mobile terminal 200 may transmit the application execution request to the cloud server 400 (S602).
  • the cloud file manager 230 may transmit an application execution request to the cloud server 400 through the communication network 300 .
  • the cloud server 400 may receive the application execution request (S603) and read the execution-requested application code (S604).
  • the cloud server 400 may identify that the application requested to be executed is in the running state (S605).
  • the running state may be a state including a suspended state.
  • a state contrasting with the execution state may be an end state.
  • a main splash window may be created.
  • the main splash window may be a representative image of an application requested to be executed.
  • a previous screen splash window may be created.
  • the previous screen splash window may be an image corresponding to the screen at the point in time when the execution of the previous application is stopped.
  • the cloud server 400 may transmit a splash window to the mobile terminal 200 in response to the state of the application requested to be executed. Specifically, when the execution-requested application is in an end state (S605, No), the main splash window may be transmitted to the mobile terminal 200 (S608). In addition, when the execution-requested application is in a suspended state (S605, Yes), the previous screen splash window may be transmitted to the mobile terminal 200 (S609).
  • the mobile terminal 200 may output the splash window to the display unit (S610).
  • the cloud server 400 may transmit the main splash window to the mobile terminal 200 and initialize data (S611).
  • the step of initializing the data may include the step of initializing the application code.
  • the cloud server 400 may configure the first screen of the application execution (S612) and generate the first screen (S613).
  • the cloud server 400 may transmit the previous screen splash window to the mobile terminal 200 and read the data again (S615).
  • the step of re-reading the data may include detecting a point where the application code stops while executing.
  • the cloud server 400 may configure the previous screen stopped during application execution (S616) and generate the previous screen (S617).
  • the mobile terminal 200 may output a reception screen on the display unit (S619).
  • FIG. 10 illustrates a processor executing an application in the mobile terminal 200 according to an embodiment. Specifically, FIG. 10 illustrates a processor executing an application stored in the cloud server 400 of the mobile terminal 200 .
  • the mobile terminal 200 may receive a request to execute an application from the user through the input device (S701).
  • the input device may include at least one of a touch signal, a motion signal, and a voice signal applied to the touch panel.
  • the mobile terminal 200 may transmit the application execution request to the cloud server 400 (S702).
  • the cloud file manager 230 may transmit an application execution request to the cloud server 400 through the communication network 300 .
  • the mobile terminal 200 may acquire a splash window from local storage before or at the same time before or after transmitting the application execution request to the cloud server 400, and output the acquired splash window to the display unit (S703).
  • the splash window may be pre-stored in the local storage in response to the application requested to be executed.
  • the mobile terminal does not receive and output the splash window from the cloud server 400, but directly output the splash window stored in the local storage, thereby reducing the time for outputting the splash window in response to the application execution request.
  • the mobile terminal may output the splash window stored in the local storage until the first screen received from the cloud server 400 is output ( S710 ) after the application of the splash window is requested.
  • the cloud server 400 may receive the application execution request (S702) and read the execution-requested application code (S704).
  • the cloud server 400 may transmit the splash window to the mobile terminal 200 and initialize data (S706).
  • the step of initializing the data may include the step of initializing the application code.
  • the cloud server 400 may configure the first screen of the application execution (S707) and generate the first screen (S708).
  • the mobile terminal 200 may output the received first screen to the display (S710).
  • FIG. 11 illustrates a processor executing an application in the mobile terminal 200 according to an embodiment. Specifically, FIG. 11 illustrates a processor executing an application stored in the cloud server 400 of the mobile terminal 200 .
  • the mobile terminal 200 may receive a request to execute an application from the user through the input device (S801).
  • the input device may include at least one of a touch signal, a motion signal, and a voice signal applied to the touch panel.
  • the mobile terminal 200 may transmit the application execution request to the cloud server 400 (S802).
  • the cloud file manager 230 may transmit an application execution request to the cloud server 400 through the communication network 300 .
  • the mobile terminal 200 may acquire a splash window from local storage before or at the same time before or after transmitting the application execution request to the cloud server 400, and output the acquired splash window to the display unit (S803).
  • the splash window may be pre-stored in the local storage in response to the application requested to be executed.
  • the mobile terminal does not receive and output the splash window from the cloud server 400, but directly output the splash window stored in the local storage, thereby reducing the time for outputting the splash window in response to the application execution request.
  • the mobile terminal may output the splash window stored in the local storage until the first screen received from the cloud server 400 is output ( S710 ) after the application of the splash window is requested.
  • the cloud server 400 may receive the application execution request (S802) and read the execution-requested application code (S804).
  • the cloud server 400 may discriminate that the application requested to be executed is in the running state (S806).
  • the running state may be a state including a suspended state.
  • a state contrasting with the execution state may be an end state.
  • the cloud server 400 may transmit a main splash window to the mobile terminal 200 and initialize data (S807).
  • the step of initializing the data may include the step of initializing the application code.
  • the cloud server 400 may configure the first screen of the application execution (S808) and generate the first screen (S809).
  • the cloud server 400 may transmit the previous screen splash window to the mobile terminal 200 and re-read the data (S810).
  • the step of re-reading the data may include detecting a point where the application code stops while executing.
  • the cloud server 400 may configure the previous screen stopped during application execution (S811) and generate the previous screen (S812).
  • the mobile terminal 200 When the mobile terminal 200 receives the first screen or the previous screen generated from the cloud server 400 (S813, S814), the mobile terminal 200 may output the reception screen on the display unit (S815).
  • FIG. 12 illustrates a processor for acquiring a splash image stored in a local storage of the mobile terminal 200 according to an embodiment.
  • a user may use the application executed in the cloud server 400 through the mobile terminal 200 (S901).
  • the mobile terminal 200 may transmit data corresponding to application use to the cloud server 400 (S902).
  • the cloud server 400 may receive data corresponding to application use and synchronize the data (S903).
  • the cloud server 400 may configure an execution screen in response to data synchronization (S904) and generate an execution screen (S905).
  • the mobile terminal 200 may receive the execution screen from the cloud server 400 and output the execution screen corresponding to the use of the application to the display unit (S907).
  • the user may stop or terminate the use of the application through the mobile terminal 200 (S908). Stopping the use of the application may not terminate the execution of the application, but may be a transition to a state where another application is temporarily executed and used. Ending the use of the application may be transitioning the application to an end state.
  • the cloud server 400 may receive a signal to stop or terminate the use of the application through the mobile terminal 200 (S909) The cloud server 400 may determine whether the signal maintains the execution state of the currently running application (S910).
  • the cloud server 400 may generate a main splash window when the running application is switched to the end state (S910, No) (S911).
  • the cloud server 400 may transmit the generated main splash window to the mobile terminal 200, and the mobile terminal may store the received main splash window in the local storage (S915).
  • the cloud server 400 may generate a previous screen splash window at the interrupted time point (S912).
  • the cloud server 400 may transmit the generated previous screen splash window to the mobile terminal 200, and the mobile terminal may store the received previous screen splash window in local storage (S915).
  • the local storage may update and store the stored splash window. That is, when storing a new splash window, the previously stored splash window may be deleted. This can reduce the capacity required for local storage.
  • the splash window initially stored in the local storage may transmit an application execution request to the cloud server 400 for the first time in the mobile terminal 200 , and may be received from the cloud server 400 .
  • the mobile terminal 200 executes the application installed in the cloud server 400 and outputs a splash window stored in the local storage before receiving the execution screen, thereby shortening the execution time felt by the user.
  • the mobile terminal 200 When the mobile terminal 200 stops or terminates the execution of the running application, it receives the splash window from the cloud server 400, updates the splash window stored in the local storage, and outputs the updated splash window at the next execution. have.
  • the mobile terminal 200 may receive and store the splash window initially stored in the local storage to the cloud server while requesting the execution of the application for the first time.

Abstract

A mobile terminal according to an embodiment may be characterized by comprising: a display unit; a communication unit which communicates with a cloud server in which an application is installed; a local storage which includes a splash image of the application; and a processor which delivers an execution request for the application to the cloud server, receives screen information formed by the application executed by the cloud server, and outputs a screen corresponding to the received screen information on the display unit, wherein, upon receiving the execution request for the application, the processor controls the display unit to output the splash image until the screen corresponding to the screen information received from the cloud server is output on the display.

Description

이동 단말기 및 이동 단말기 제어 방법Mobile terminal and mobile terminal control method
클라우드 서버에 설치된 애플리케이션의 스플래쉬 이미지가 이동 단말기에 출력되는 시간을 단축하는 기술 분야에 적용이 가능하다.It can be applied to a technology field that shortens the time when a splash image of an application installed on a cloud server is output to a mobile terminal.
단말기는 이동 가능여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mounted terminal)로 나뉠 수 있다. The terminal may be divided into a mobile/portable terminal and a stationary terminal according to whether the terminal can be moved. Again, the mobile terminal can be divided into a handheld terminal and a vehicle mounted terminal depending on whether the user can carry it directly.
이동 단말기의 기능은 다양화 되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이에 이미지나 비디오를 출력하는 기능이 있다. 일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히 최근의 이동 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다. The functions of mobile terminals are diversifying. For example, there are functions for data and voice communication, photo and video shooting through a camera, voice recording, music file playback through a speaker system, and image or video output to the display. Some terminals add an electronic game play function or perform a multimedia player function. In particular, recent mobile terminals can receive multicast signals that provide broadcast and visual content such as video or television programs.
이동 단말기는 삼차원 깊이 카메라 기술의 발전과 함께 삼차원 비전(Vision) 기술 기반으로 사용자의 모션(motion)이나 제스처(gesture)를 감지하여 디바이스를 제어하는 사용자 인터페이스(User Interface, UI)도 발전하고 있다. 삼차원 비전(Vision) 기반 UO는 기존 이차원 터치 기반 UI를 보완하여 다양한 어플리케이션에 적용이 가능하다. 예를 들면, 증강현실(Augmented reality, AR) 어플리케이션에서 오브젝트를 삼차원으로 제어할 수 있고, 사용자가 터치할 수 없는 위치에 디바이스가 있는 경우에도 제어할 수 있으며, 사용자의 손이 오염되거나 장갑을 끼고 있을 경우 등 터치가 어려운 경우에도 디바이스를 제어할 수 있게 해준다. 이에, 삼차원 비전(Vision) 기반 제스처 인식 기술이 각광 받고 있다.In the mobile terminal, along with the development of 3D depth camera technology, a user interface (UI) for controlling a device by detecting a motion or gesture of a user based on 3D vision technology is also developing. The three-dimensional vision-based UO can be applied to various applications by supplementing the existing two-dimensional touch-based UI. For example, in an augmented reality (AR) application, an object can be controlled in three dimensions, even when the device is in a location that the user cannot touch, and the user's hand is contaminated or wearing gloves. It allows you to control the device even when it is difficult to touch, such as when there is one. Accordingly, a three-dimensional vision-based gesture recognition technology is in the spotlight.
최근에는 통신 기술의 발전에 따라 클라우드 환경을 통해 이동 단말기에 서비스를 제공하고 있는 추세이다. 이동 단말기는 클라우드 환경을 통해 로컬 스토리지의 용량 한계를 극복하고, 사용자는 클라우드 환경을 통해 복수의 기기에서 쉽게 파일을 공유할 수 있게 되었다.In recent years, with the development of communication technology, it is a trend to provide services to mobile terminals through a cloud environment. The mobile terminal overcomes the capacity limit of local storage through the cloud environment, and users can easily share files on multiple devices through the cloud environment.
클라우드 서버에 설치된 애플리케이션의 스플래쉬 이미지가 이동 단말기에 출력되는 시간을 단축하는데 목적이 있다.An object of the present invention is to shorten the time when a splash image of an application installed on a cloud server is output to a mobile terminal.
상기 또는 다른 목적을 달성하기 위해, 일 실시예 따른 이동 단말기는, 디스플레이부, 애플리케이션이 설치된 클라우드 서버와 통신하는 통신부, 상기 애플리케이션의 스플래쉬 이미지를 포함하는 로컬 스토리지, 및 상기 애플리케이션의 실행 요청을 상기 클라우드 서버에 전달하고, 상기 클라우드 서버로부터 실행된 상기 애플리케이션이 구성하는 화면 정보를 수신하고, 수신한 상기 화면 정보에 대응하는 화면을 상기 디스플레이부에 출력하는 프로세서를 포함하고, 상기 프로세서는, 상기 애플리케이션의 실행 요청을 수신한 경우, 상기 클라우드 서버로부터 수신한 상기 화면 정보에 대응하는 화면을 상기 디스플레이부에 출력하기 전까지 상기 스플래쉬 이미지를 출력하도록 상기 디스플레이부를 제어하는 것을 특징으로 할 수 있다. In order to achieve the above or other object, the mobile terminal according to an embodiment may include a display unit, a communication unit communicating with a cloud server in which an application is installed, a local storage including a splash image of the application, and a request to execute the application to the cloud. A processor for transmitting to a server, receiving screen information configured by the application executed from the cloud server, and outputting a screen corresponding to the received screen information to the display unit, wherein the processor includes: When an execution request is received, the display unit may be controlled to output the splash image until a screen corresponding to the screen information received from the cloud server is outputted to the display unit.
또한, 일 실시예에 따라, 상기 클라우드 서버는 상기 애프리케이션을 실행하는 In addition, according to an embodiment, the cloud server executes the application
또한, 일 실시예에 따라, 스플래쉬 이미지는 상기 애플리케이션에 대응하여 고정된 제1 스플래쉬 이미지 또는 상기 애플리케이션의 실행이 중단된 시점의 화면에 대응되는 제2 스플래쉬 이미지를 포함하는 것을 특징으로 할 수 있다. Also, according to an embodiment, the splash image may include a first splash image fixed in response to the application or a second splash image corresponding to a screen at a time when the execution of the application is stopped.
또한, 일 실시예에 따라, 상기 프로세서는 실행된 상기 애플리케이션이 종료된 경우, 상기 클라우드 서버로부터 상기 제1 스플래쉬 이미지를 수신하고, 상기 로컬 스토리지에 저장된 스토리지 이미지를 상기 제1 스플래쉬 이미지로 갱신하는 것을 특징으로 할 수 있다. In addition, according to an embodiment, when the executed application is terminated, the processor receives the first splash image from the cloud server, and updates the storage image stored in the local storage to the first splash image. can be characterized.
또한, 일 실시예에 따라, 상기 프로세서는 실행된 상기 애플리케이션이 중단된 경우, 상기 클라우드 서버로부터 상기 제2 스플래쉬 이미지를 수신하고, 상기 로컬 스토리지에 저장된 스토리지 이미지를 상기 제2 스플래쉬 이미지로 갱신하는 것을 특징으로 할 수 있다. In addition, according to an embodiment, when the executed application is stopped, the processor receives the second splash image from the cloud server, and updates the storage image stored in the local storage to the second splash image. can be characterized.
또한, 일 실시예에 따라, 상기 스토리지 이미지는 상기 애플리케이션이 처음 실행되는 경우, 상기 애플리케이션 실행 요청에 대응하여 상기 클라우드 서버로부터 수신되어 상기 로컬 스토리지에 저장되는 것을 특징으로 할 수 있다. Also, according to an embodiment, when the application is first executed, the storage image may be received from the cloud server in response to the application execution request and stored in the local storage.
상기 또는 다른 목적을 달성하기 위해, 일 실시예 따른 이동 단말기 제어 방법은, 애플리케이션 실행 요청을 수신하는 단계, 상기 애플리케이션이 설치된 클라우드 서버에 상기 실행 요청을 전달하는 단계, 로컬 스토리지에 저장된 상기 애플리케이션의 스플래쉬 이미지를 디스플레이부에 출력하는 단계, 상기 클라우드 서버로부터 실행된 상기 애플리케이션이 구성하는 화면 정보를 수신하는 단계, 및 수신한 상기 화면 정보에 대응되는 화면을 상기 디스플레이부에 출력하는 단계를 포함할 수 있다. In order to achieve the above or other object, the method for controlling a mobile terminal according to an embodiment includes the steps of receiving an application execution request, transmitting the execution request to a cloud server in which the application is installed, and splashing the application stored in local storage It may include outputting an image to a display unit, receiving screen information configured by the application executed from the cloud server, and outputting a screen corresponding to the received screen information to the display unit. .
또한, 일 실시예에 따라, 상기 클라우드 서버는 상기 애플리케이션을 실행하는 애플리케이션 코드를 포함할 수 있다. Also, according to an embodiment, the cloud server may include an application code for executing the application.
또한, 일 실시예에 따라, 상기 스프래쉬 이미지는 상기 애플리케이션에 대응하여 고정된 제1 스플래쉬 이미지 또는 상기 애플리케이션의 실행이 중단된 시점의 화면에 대응하는 제2 스플래쉬 이미지를 포함할 수 있다. Also, according to an embodiment, the splash image may include a first splash image that is fixed in response to the application or a second splash image that corresponds to a screen when the execution of the application is stopped.
또한, 일 실시예에 따라, 실행된 상기 애플리케이션이 종료된 경우, 상기 클라우드 서버로부터 상기 제1 스플래쉬 이미지를 수신하는 단계, 및 상기 로컬 스토리지에 저장된 스프래쉬 이미지를 상기 제1 스플래쉬 이미지로 갱신하는 단계를 더 포함할 수 있다. Also, according to an embodiment, when the executed application is terminated, receiving the first splash image from the cloud server, and updating the splash image stored in the local storage to the first splash image may further include.
또한, 일 실시예에 따라, 실행된 상기 애플리케이션이 중단된 경우, 상기 클라우드 서버로부터 상기 제2 스플래쉬 이미지를 수신하는 단계, 및 상기 로컬 스토리지에 저장된 스플래쉬 이미지를 상기 제2 스플래쉬 이미지로 갱신하는 단계를 더 포함할 수 있다. In addition, according to an embodiment, when the executed application is stopped, receiving the second splash image from the cloud server, and updating the splash image stored in the local storage to the second splash image may include more.
또한, 일 실시예에 따라, 상기 스토리지 이미지는 상기 애플리케이션이 처음 실행되는 경우, 상기 애플리케이션 실행 요청에 대응하여 상기 클라우드 서버로부터 수신되어 상기 로컬 스토리지에 저장되는 것을 특징으로 할 수 있다.Also, according to an embodiment, when the application is first executed, the storage image may be received from the cloud server in response to the application execution request and stored in the local storage.
일 실시예에 따른 이동 단말기는, 클라우드 서버에 설치된 애플리케이션을 실행하는 경우, 스플래쉬 이미지의 출력이 지연되는 것을 방지할 수 있다.The mobile terminal according to an embodiment may prevent delay in outputting a splash image when an application installed on a cloud server is executed.
도 1a는 일 실시예에 따른 이동 단말기의 블록도이다.1A is a block diagram of a mobile terminal according to an embodiment.
도 1b 및 1c는 일 실시예에 따른 이동 단말기를 서로 다른 방향에서 바라본 개념도이다.1B and 1C are conceptual views of a mobile terminal viewed from different directions according to an exemplary embodiment.
도 2은 일 실시예에 따른 클라우드 시스템을 도시하고 있다. 2 illustrates a cloud system according to an embodiment.
도 3은 일 실시예에 따른 이동 단말기의 구성도이다.3 is a block diagram of a mobile terminal according to an embodiment.
도 4는 일 실시예에 따라 이동 단말기에서 애플리케이션을 실행하는 프로세서를 도시하고 있다.4 illustrates a processor executing an application in a mobile terminal according to an embodiment.
도 5는 일 실시예에 따라 이동 단말기에서 애플리케이션을 실행하는 프로세서를 도시하고 있다.5 illustrates a processor executing an application in a mobile terminal according to an embodiment.
도 6은 일 실시예에 따른 메인 스플래쉬 윈도우를 도시하고 있다.6 illustrates a main splash window according to an embodiment.
도 7은 일 실시예에 따른 이전 화면 스플래쉬 윈도우를 도시하고 있다. 7 illustrates a previous screen splash window according to an embodiment.
도8 는 일 실시예에 따라 이동 단말기에서 애플리케이션을 실행하는 프로세서를 도시하고 있다.8 illustrates a processor executing an application in a mobile terminal according to an embodiment.
도9 는 일 실시예에 따라 이동 단말기에서 애플리케이션을 실행하는 프로세서를 도시하고 있다.9 illustrates a processor executing an application in a mobile terminal according to an embodiment.
도10 는 일 실시예에 따라 이동 단말기에서 애플리케이션을 실행하는 프로세서를 도시하고 있다.10 illustrates a processor executing an application in a mobile terminal according to an embodiment.
도11는 일 실시예에 따라 이동 단말기에서 애플리케이션을 실행하는 프로세서를 도시하고 있다.11 illustrates a processor executing an application in a mobile terminal according to an embodiment.
도12 는 일 실시예에 따라 이동 단말기의 로컬 스토리지에 저장된 스플래쉬 이미지를 획득하는 프로세서를 도시하고 있다.12 illustrates a processor for acquiring a splash image stored in a local storage of a mobile terminal according to an embodiment.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "part" for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.The mobile terminal described in this specification includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation system, and a slate PC. , tablet PCs, ultrabooks, wearable devices, for example, watch-type terminals (smartwatch), glass-type terminals (smart glass), HMD (head mounted display), etc. may be included. have.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 해당 기술 분야의 통상의 기술자라면 쉽게 알 수 있을 것이다.However, it is common knowledge in the art that the configuration according to the embodiment described in this specification may be applied to a fixed terminal such as a digital TV, a desktop computer, and a digital signage, except when applicable only to a mobile terminal. If you're an engineer, it's easy to understand.
도 1a 내지 도 1c를 참조하면, 도 1a는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이고, 도 1b 및 1c는 본 발명과 관련된 이동 단말기의 일 예를 서로 다른 방향에서 바라본 개념도이다.1A to 1C, FIG. 1A is a block diagram illustrating a mobile terminal related to the present invention, and FIGS. 1B and 1C are conceptual views of an example of the mobile terminal related to the present invention viewed from different directions.
상기 이동 단말기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The mobile terminal 100 includes a wireless communication unit 110 , an input unit 120 , a sensing unit 140 , an output unit 150 , an interface unit 160 , a memory 170 , a control unit 180 , and a power supply unit 190 . ) and the like. The components shown in FIG. 1A are not essential for implementing the mobile terminal, so the mobile terminal described in this specification may have more or fewer components than those listed above.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the components, the wireless communication unit 110 is between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or between the mobile terminal 100 and an external server. It may include one or more modules that enable wireless communication between them. In addition, the wireless communication unit 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a broadcast reception module 111 , a mobile communication module 112 , a wireless Internet module 113 , a short-range communication module 114 , and a location information module 115 . .
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 or an audio input unit for inputting an audio signal, and a user input unit 123 for receiving information from a user, for example, , a touch key, a push key, etc.). The voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information. For example, the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity. Sensor (G-sensor), gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor: infrared sensor), fingerprint sensor (finger scan sensor), ultrasonic sensor , optical sensors (eg, cameras (see 121)), microphones (see 122), battery gauges, environmental sensors (eg, barometers, hygrometers, thermometers, radiation detection sensors, It may include at least one of a thermal sensor, a gas sensor, etc.) and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is for generating an output related to visual, auditory or tactile sense, and may include at least one of a display 151 , a sound output unit 152 , a haptip module 153 , and an optical output unit. The display 151 may implement a touch screen by forming a layer structure with the touch sensor or being integrally formed therewith. Such a touch screen may function as the user input unit 123 providing an input interface between the mobile terminal 100 and the user, and may provide an output interface between the mobile terminal 100 and the user.
인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a passage with various types of external devices connected to the mobile terminal 100 . Such an interface unit 160, a wired / wireless headset port (port), an external charger port (port), a wired / wireless data port (port), a memory card (memory card) port, for connecting a device equipped with an identification module It may include at least one of a port, an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port. In response to the connection of the external device to the interface unit 160 , the mobile terminal 100 may perform appropriate control related to the connected external device.
또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory 170 stores data supporting various functions of the mobile terminal 100 . The memory 170 may store a plurality of application programs (or applications) driven in the mobile terminal 100 , data for operation of the mobile terminal 100 , and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of shipment for basic functions (eg, incoming calls, outgoing functions, message reception, and outgoing functions) of the mobile terminal 100 . Meanwhile, the application program may be stored in the memory 170 , installed on the mobile terminal 100 , and driven to perform an operation (or function) of the mobile terminal by the controller 180 .
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the mobile terminal 100 . The controller 180 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170 .
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the controller 180 may control at least some of the components discussed with reference to FIG. 1A in order to drive an application program stored in the memory 170 . Furthermore, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 with each other.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.The power supply unit 190 receives external power and internal power under the control of the controller 180 to supply power to each component included in the mobile terminal 100 . The power supply 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다.At least some of the respective components may operate cooperatively with each other to implement an operation, control, or control method of a mobile terminal according to various embodiments to be described below. In addition, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170 .
도 1 b 및 1c는 펼쳐진 상태의 폴더블 방식의 이동 단말기에서의 기본적인 특징에 대해 설명한다.1B and 1C illustrate basic features of a foldable mobile terminal in an unfolded state.
이동 단말기(100)에는 디스플레이(151), 제1 및 제2 음향 출력부(152a, 152b), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 및 제2 카메라(121a, 121b), 제1 및 제2 조작유닛(123a, 123b), 마이크로폰(122), 인터페이스부(160) 등이 구비될 수 있다.The mobile terminal 100 includes a display 151 , first and second sound output units 152a and 152b , a proximity sensor 141 , an illuminance sensor 142 , a light output unit 154 , and first and second cameras. (121a, 121b), the first and second operation units (123a, 123b), a microphone 122, the interface unit 160, etc. may be provided.
이하에서는, 도 1b 및 도 1c에 도시된 바와 같이, 단말기 바디의 전면에 디스플레이(151), 제1 음향 출력부(152a), 근접 센서(141), 조도 센서(142), 광 출력부, 제1 카메라(121a) 및 제1 조작유닛(123a)이 배치되고, 단말기 바디의 측면에 제2 조작유닛(123b), 마이크로폰(122) 및 인터페이스부(160)이 배치되며, 단말기 바디의 후면에 제2 음향 출력부(152b) 및 제2 카메라(121b)가 배치된 이동 단말기(100)를 일 예로 들어 설명한다.Hereinafter, as shown in FIGS. 1B and 1C , the display 151, the first sound output unit 152a, the proximity sensor 141, the illuminance sensor 142, the light output unit, the second 1 The camera 121a and the first operation unit 123a are disposed, the second operation unit 123b, the microphone 122 and the interface unit 160 are disposed on the side of the terminal body, and the first operation unit 123b is disposed on the rear surface of the terminal body. 2 The mobile terminal 100 in which the sound output unit 152b and the second camera 121b are disposed will be described as an example.
다만, 이들 구성은 이러한 배치에 한정되는 것은 아니다. 이들 구성은 필요에 따라 제외 또는 대체되거나, 다른 면에 배치될 수 있다. 예를 들어, 단말기 바디의 전면에는 제1 조작유닛(123a)이 구비되지 않을 수 있으며, 제2 음향 출력부(152b)는 단말기 바디의 후면이 아닌 단말기 바디의 측면에 구비될 수 있다.However, these configurations are not limited to this arrangement. These components may be excluded, replaced, or disposed on different sides as necessary. For example, the first operation unit 123a may not be provided on the front surface of the terminal body, and the second sound output unit 152b may be provided on the side surface of the terminal body instead of the rear surface of the terminal body.
디스플레이(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.The display 151 displays (outputs) information processed by the mobile terminal 100 . For example, the display 151 may display execution screen information of an application program driven in the mobile terminal 100 or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information.
디스플레이(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), a three-dimensional display (3D display), may include at least one of an e-ink display (e-ink display).
또한, 디스플레이(151)는 이동 단말기(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 이동 단말기(100)에는 복수의 디스플레이들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.In addition, two or more displays 151 may exist according to an implementation form of the mobile terminal 100 . In this case, in the mobile terminal 100 , a plurality of displays may be spaced apart or disposed integrally on one surface, or may be respectively disposed on different surfaces.
디스플레이(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이(151)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The display 151 may include a touch sensor for sensing a touch on the display 151 so as to receive a control command input by a touch method. Using this, when a touch is made on the display 151 , the touch sensor detects the touch, and the controller 180 may generate a control command corresponding to the touch based thereon. The content input by the touch method may be letters or numbers, or menu items that can be instructed or designated in various modes.
한편, 터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 디스플레이(151)를 덮는 윈도우(151a)와 디스플레이(151)를 구성하는 복수의 레이어 사이에 배치되거나, 윈도우(151a)의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 또는, 터치센서는 디스플레이와 일체로 형성될 수 있다. 예를 들어, 터치센서는, 디스플레이의 기판 상에 배치되거나, 디스플레이의 내부에 구비될 수 있다.On the other hand, the touch sensor is configured in the form of a film having a touch pattern and is disposed between the window 151a covering the display 151 and a plurality of layers constituting the display 151 or directly on the back surface of the window 151a. It can also be a patterned metal wire. Alternatively, the touch sensor may be integrally formed with the display. For example, the touch sensor may be disposed on a substrate of the display or provided inside the display.
이처럼, 디스플레이(151)는 터치센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1a 참조)로 기능할 수 있다. 경우에 따라, 터치 스크린은 제1조작유닛(123a)의 적어도 일부 기능을 대체할 수 있다.As such, the display 151 may form a touch screen together with the touch sensor, and in this case, the touch screen may function as the user input unit 123 (refer to FIG. 1A ). In some cases, the touch screen may replace at least some functions of the first operation unit 123a.
제1 음향 출력부(152a)는 통화음을 사용자의 귀에 전달시키는 리시버(receiver)로 구현될 수 있으며, 제2 음향 출력부(152b)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.The first sound output unit 152a may be implemented as a receiver that transmits a call sound to the user's ear, and the second sound output unit 152b is a loudspeaker that outputs various alarm sounds or multimedia reproduction sounds. ) can be implemented in the form of
디스플레이(151)의 윈도우(151a)에는 제1 음향 출력부(152a)로부터 발생되는 사운드의 방출을 위한 음향홀이 형성될 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 상기 사운드는 구조물 간의 조립틈(예를 들어, 윈도우(151a)와 프론트 케이스(101) 간의 틈)을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나 숨겨져 이동 단말기(100)의 외관이 보다 심플해질 수 있다.A sound hole for emitting sound generated from the first sound output unit 152a may be formed in the window 151a of the display 151 . However, the present invention is not limited thereto, and the sound may be configured to be emitted along an assembly gap between structures (eg, a gap between the window 151a and the front case 101). In this case, the appearance of the mobile terminal 100 may be simpler because the holes formed independently for sound output are not visible or hidden.
광 출력부는 이벤트의 발생시 이를 알리기 위한 빛을 출력하도록 이루어진다. 상기 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등을 들 수 있다. 제어부(180)는 사용자의 이벤트 확인이 감지되면, 빛의 출력이 종료되도록 광 출력부를 제어할 수 있다.The light output unit is configured to output light to notify the occurrence of an event. Examples of the event may include a message reception, a call signal reception, a missed call, an alarm, a schedule notification, an email reception, and information reception through an application. When the user's event confirmation is detected, the controller 180 may control the light output unit to end the light output.
제1 카메라(121a)는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이(151)에 표시될 수 있으며, 메모리(170)에 저장될 수 있다.The first camera 121a processes an image frame of a still image or a moving image obtained by an image sensor in a shooting mode or a video call mode. The processed image frame may be displayed on the display 151 and stored in the memory 170 .
제1 및 제2 조작유닛(123a, 123b)은 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 사용자 입력부(123)의 일 예로서, 조작부(manipulating portion)로도 통칭될 수 있다. 제1 및 제2 조작유닛(123a, 123b)은 터치, 푸시, 스크롤 등 사용자가 촉각적인 느낌을 받으면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 또한, 제1 및 제2 조작유닛(123a, 123b)은 근접 터치(proximity touch), 호버링(hovering) 터치 등을 통해서 사용자의 촉각적인 느낌이 없이 조작하게 되는 방식으로도 채용될 수 있다.The first and second manipulation units 123a and 123b are an example of the user input unit 123 operated to receive a command for controlling the operation of the mobile terminal 100, and may be collectively referred to as a manipulating portion. have. The first and second operation units 123a and 123b may be adopted in any manner as long as they are operated in a tactile manner such as touch, push, scroll, etc. by the user while receiving a tactile feeling. In addition, the first and second manipulation units 123a and 123b may be operated in a manner in which the user is operated without a tactile feeling through a proximity touch, a hovering touch, or the like.
본 도면에서는 제1 조작유닛(123a)이 터치키(touch key)인 것으로 예시하나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 제1 조작유닛(123a)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.In this drawing, the first operation unit 123a is illustrated as a touch key, but the present invention is not limited thereto. For example, the first operation unit 123a may be a push key (mechanical key) or may be configured as a combination of a touch key and a push key.
제1 및 제2 조작유닛(123a, 123b)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작유닛(123a)은 메뉴, 홈키, 취소, 검색 등의 명령을 입력 받고, 제2 조작유닛(123b)은 제1 또는 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이(151)의 터치 인식 모드로의 전환 등의 명령을 입력 받을 수 있다.The contents input by the first and second operation units 123a and 123b may be variously set. For example, the first operation unit 123a receives commands such as menu, home key, cancel, search, etc., and the second operation unit 123b is output from the first or second sound output units 152a and 152b. It is possible to receive a command such as adjusting the volume of the sound and switching to the touch recognition mode of the display 151 .
한편, 단말기 바디의 후면에는 사용자 입력부(123)의 다른 일 예로서, 후면 입력부(미도시)가 구비될 수 있다. 이러한 후면 입력부는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 것으로서, 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 전원의 온/오프, 시작, 종료, 스크롤 등과 같은 명령, 제1 및 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력 받을 수 있다. 후면 입력부는 터치입력, 푸시입력 또는 이들의 조합에 의한 입력이 가능한 형태로 구현될 수 있다.Meanwhile, as another example of the user input unit 123, a rear input unit (not shown) may be provided on the rear surface of the terminal body. The rear input unit is manipulated to receive a command for controlling the operation of the mobile terminal 100 , and input contents may be variously set. For example, a command such as power on/off, start, end, scroll, etc., adjustment of the sound output from the first and second sound output units 152a and 152b, and the display 151 to a touch recognition mode. Commands such as switching can be input. The rear input unit may be implemented in a form capable of input by a touch input, a push input, or a combination thereof.
후면 입력부는 단말기 바디의 두께방향으로 전면의 디스플레이(151)와 중첩되게 배치될 수 있다. 일 예로, 사용자가 단말기 바디를 한 손으로 쥐었을 때 검지를 이용하여 용이하게 조작 가능하도록, 후면 입력부는 단말기 바디의 후면 상단부에 배치될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 후면 입력부의 위치는 변경될 수 있다.The rear input unit may be disposed to overlap the display 151 on the front side in the thickness direction of the terminal body. As an example, the rear input unit may be disposed on the upper rear portion of the terminal body so that the user can easily manipulate the terminal body by using the index finger when holding the terminal body with one hand. However, the present invention is not necessarily limited thereto, and the position of the rear input unit may be changed.
이처럼 단말기 바디의 후면에 후면 입력부가 구비되는 경우, 이를 이용한 새로운 형태의 유저 인터페이스가 구현될 수 있다. 또한, 앞서 설명한 터치 스크린 또는 후면 입력부가 단말기 바디의 전면에 구비되는 제1 조작유닛(123a)의 적어도 일부 기능을 대체하여, 단말기 바디의 전면에 제1 조작유닛(123a)이 미배치되는 경우, 디스플레이(151)가 보다 대화면으로 구성될 수 있다.As such, when the rear input unit is provided on the rear surface of the terminal body, a new type of user interface using the same can be implemented. In addition, when the aforementioned touch screen or rear input unit replaces at least some functions of the first operation unit 123a provided on the front surface of the terminal body, the first operation unit 123a is not disposed on the front surface of the terminal body, The display 151 may be configured with a larger screen.
한편, 이동 단말기(100)에는 사용자의 지문을 인식하는 지문인식센서(143)가 구비될 수 있으며, 제어부(180)는 지문인식센서(143)를 통하여 감지되는 지문정보를 인증수단으로 이용할 수 있다. 상기 지문인식센서는 디스플레이(151) 또는 사용자 입력부(123)에 내장될 수도 있고, 별도의 위치에 구비될 수도 있다.Meanwhile, the mobile terminal 100 may be provided with a fingerprint recognition sensor 143 for recognizing a user's fingerprint, and the controller 180 may use fingerprint information detected through the fingerprint recognition sensor 143 as an authentication means. . The fingerprint recognition sensor may be built into the display 151 or the user input unit 123, or may be provided at a separate location.
마이크로폰(122)은 사용자의 음성, 기타 소리 등을 입력 받도록 이루어진다. 마이크로폰(122)은 복수의 개소에 구비되어 스테레오 음향을 입력 받도록 구성될 수 있다.The microphone 122 is configured to receive a user's voice, other sounds, and the like. The microphone 122 may be provided at a plurality of locations and configured to receive stereo sound.
인터페이스부(160)는 이동 단말기(100)를 외부기기와 연결시킬 수 있는 통로가 된다. 예를 들어, 인터페이스부(160)는 다른 장치(예를 들어, 이어폰, 외장 스피커)와의 연결을 위한 접속단자, 근거리 통신을 위한 포트[예를 들어, 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등], 또는 이동 단말기(100)에 전원을 공급하기 위한 전원공급단자 중 적어도 하나일 수 있다. 이러한 인터페이스부(160)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수도 있다.The interface unit 160 serves as a passage through which the mobile terminal 100 can be connected to an external device. For example, the interface unit 160 is a connection terminal for connection with another device (eg, earphone, external speaker), a port for short-range communication (eg, infrared port (IrDA Port), Bluetooth port (Bluetooth) Port), a wireless LAN port, etc.], or at least one of a power supply terminal for supplying power to the mobile terminal 100 . The interface unit 160 may be implemented in the form of a socket for accommodating an external card such as a subscriber identification module (SIM), a user identity module (UIM), or a memory card for information storage.
단말기 바디의 후면에는 제2카메라(121b)가 배치될 수 있다. 이 경우, 제2카메라(121b)는 제1카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지게 된다.A second camera 121b may be disposed on the rear side of the terminal body. In this case, the second camera 121b has a photographing direction substantially opposite to that of the first camera 121a.
제2카메라(121b)는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, '어레이(array) 카메라'로 명명될 수 있다. 제2카메라(121b)가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.The second camera 121b may include a plurality of lenses arranged along at least one line. The plurality of lenses may be arranged in a matrix form. Such a camera may be referred to as an 'array camera'. When the second camera 121b is configured as an array camera, an image may be captured in various ways using a plurality of lenses, and an image of better quality may be obtained.
플래시(124)는 제2카메라(121b)에 인접하게 배치될 수 있다. 플래시(124)는 제2카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.The flash 124 may be disposed adjacent to the second camera 121b. The flash 124 illuminates light toward the subject when the subject is photographed by the second camera 121b.
단말기 바디에는 제2 음향 출력부(152b)가 추가로 배치될 수 있다. 제2 음향 출력부(152b)는 제1 음향 출력부(152a)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.A second sound output unit 152b may be additionally disposed on the terminal body. The second sound output unit 152b may implement a stereo function together with the first sound output unit 152a, and may be used to implement a speakerphone mode during a call.
단말기 바디에는 무선 통신을 위한 적어도 하나의 안테나가 구비될 수 있다. 안테나는 단말기 바디에 내장되거나, 케이스에 형성될 수 있다. 예를 들어, 방송 수신 모듈(111, 도 1a 참조)의 일부를 이루는 안테나는 단말기 바디에서 인출 가능하게 구성될 수 있다. 또는, 안테나는 필름 타입으로 형성되어 후면 커버(103)의 내측면에 부착될 수도 있고, 도전성 재질을 포함하는 케이스가 안테나로서 기능하도록 구성될 수도 있다.At least one antenna for wireless communication may be provided in the terminal body. The antenna may be built into the terminal body or formed in the case. For example, an antenna forming a part of the broadcast reception module 111 (refer to FIG. 1A ) may be configured to be withdrawable from the terminal body. Alternatively, the antenna may be formed in a film type and attached to the inner surface of the rear cover 103 , or a case including a conductive material may be configured to function as an antenna.
단말기 바디에는 이동 단말기(100)에 전원을 공급하기 위한 전원 공급부(190, 도 1a 참조)가 구비된다. 전원 공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다.The terminal body is provided with a power supply unit 190 (refer to FIG. 1A ) for supplying power to the mobile terminal 100 . The power supply unit 190 may include a battery 191 that is built into the terminal body or is detachably configured from the outside of the terminal body.
배터리(191)는 인터페이스부(160)에 연결되는 전원 케이블을 통하여 전원을 공급받도록 구성될 수 있다. 또한, 배터리(191)는 무선충전기기를 통하여 무선충전 가능하도록 구성될 수도 있다. 상기 무선충전은 자기유도방식 또는 공진방식(자기공명방식)에 의하여 구현될 수 있다.The battery 191 may be configured to receive power through a power cable connected to the interface unit 160 . In addition, the battery 191 may be configured to be wirelessly charged through a wireless charging device. The wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).
한편, 본 도면에서는 후면 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하도록 구성된 것을 예시하고 있다. 배터리(191)가 단말기 바디에 착탈 가능하게 구성되는 경우, 후면 커버(103)는 리어 케이스(102)에 착탈 가능하게 결합될 수 있다.On the other hand, in this figure, the rear cover 103 is coupled to the rear case 102 to cover the battery 191 to limit the detachment of the battery 191 and to protect the battery 191 from external shocks and foreign substances. is foreshadowing When the battery 191 is detachably configured to the terminal body, the rear cover 103 may be detachably coupled to the rear case 102 .
본 발명에 적용되는 카메라(도 1에 도시된 카메라(121) 및 도 1A에 도시된 카메라(121a))는 모바일 디바이스의 터치 스크린 주변에 위치하고 있다.  따라서, 상기 모바일 디바이스의 터치 스크린으로부터 일정 거리이내의 오브젝트(예를 들어, 사용자의 손가락)에 대한 깊이 정보(depth information)를 디텍트 하는 것이 가능하다.  이와 같은 카메라를 깊이 카메라로 명명할 수 있다.The camera (the camera 121 shown in FIG. 1 and the camera 121a shown in FIG. 1A) applied to the present invention is located around the touch screen of the mobile device. Accordingly, it is possible to detect depth information on an object (eg, a user's finger) within a predetermined distance from the touch screen of the mobile device. Such a camera may be referred to as a depth camera.
상기 깊이 카메라를 구현하는 방법으로 2가지 방안을 제시한다.  첫번째 방안은, 멀티 카메라(또는 렌즈)를 사용하는 방법으로서 2개 이상의 카메라를 이용하여 가시광선을 포착하고, 깊이 정보(depth information)를 이용하여 3D 이미지를 생성한다.  두번째 방안은, 카메라 모듈에 심도 센싱(Depth sensing)을 위한 별도의 센서를 탑재하는 방식으로서, 보다 구체적으로는 SL(Structured Light) 및 ToF(Time of Flight) 방식이 적용된다.Two methods are proposed as a method of implementing the depth camera. The first method is a method of using a multi-camera (or lens), which captures visible light using two or more cameras, and generates a 3D image using depth information. The second method is a method of mounting a separate sensor for depth sensing in a camera module, and more specifically, structured light (SL) and time of flight (ToF) methods are applied.
전술한 SL 방식은, 직선이나 격자 무늬 등 특정 패턴의 레이저를 촬영 대상에 방사한 후 대상 표면의 모양에 따라 패턴이 변형된 정보를 분석한다.  나아가, 깊이 정보를 계산한 후, 이미지 센서가 촬영한 사진과 합성하여 3D 기반의 촬영 결과를 도출한다.  이를 구현하기 위하여, 특정 패턴을 송출하는 레이저 적외선(IR) 프로젝터, 적외선 심도 센서, 이미지 센서 및 3D 프로세서 등이 사용될 수 있다.In the above-described SL method, after irradiating a laser of a specific pattern, such as a straight line or a grid pattern, to an object to be photographed, information in which the pattern is deformed according to the shape of the object surface is analyzed. Furthermore, after calculating the depth information, a 3D-based shooting result is derived by synthesizing it with a picture taken by an image sensor. To implement this, a laser infrared (IR) projector that emits a specific pattern, an infrared depth sensor, an image sensor, and a 3D processor may be used.
전술한 ToF 방식은, 레이저가 촬영 대상에 갔다가 반사되어 돌아오는 시간을 측정하여 깊이 정보를 계산한 후, 이미지 센서가 촬영한 사진과 합성하여 3D 기반의 촬영 결과를 도출한다.  이를 구현하기 위하여, 레이저 적외선(IR) 프로젝터, 수신 센서, 이미지 센서 및 3D 프로세서 등이 사용될 수 있다.In the above-described ToF method, depth information is calculated by measuring the time it takes for a laser to go to a photographing target and then reflected back, and then synthesized with a photograph taken by an image sensor to derive 3D-based photographing results. To implement this, a laser infrared (IR) projector, a receiving sensor, an image sensor, a 3D processor, and the like may be used.
도 2은 일 실시예에 따른 클라우드 시스템을 도시하고 있다. 2 illustrates a cloud system according to an embodiment.
클라우드 시스템은 이동 단말기(200), 통신망(300), 클라우드 서버(400)를 포함할 수 있다. The cloud system may include a mobile terminal 200 , a communication network 300 , and a cloud server 400 .
이동 단말기(200)는 클라우드 서버(400)와 통신할 수 있는 디바이스로, 클라우드 단말기일 수 있다. 클라우드 단말기는 앱 실행 프로세스가 단말에서 처리되는 것과 달리 클라우드 서버(400)에서 제공하는 서비스에서 대부분이 처리되는 단말기로, 단말기 자체는 입출력 장치의 역할을 담당할 수 있다. The mobile terminal 200 is a device capable of communicating with the cloud server 400 and may be a cloud terminal. The cloud terminal is a terminal in which most of the services provided by the cloud server 400 are processed unlike the application execution process in the terminal, and the terminal itself may serve as an input/output device.
구체적으로, 클라우드 단말기는 OS(Operating System)를 통해 VFS(Virtual File System) 기반 클라우드 서버에 설치된 애플리케이션을 실행하는 단말기일 수 있다. 여기서, VFS는 실제 파일 시스템 위의 추상 계층일 수 있다. VFS의 목적은 애플리케이션이 여러 파일 시스템에 같은 방법으로 접근할 수 있게 하는데 있다. 이를테면 VFS를 사용하면 애플리케이션은 로컬인 기억 장치 및 클라우드 서버에 직접적으로 접근할 수 있기 때문에 로컬인 기억 장치와 클라우드 서버의 차이를 느끼지 못할 수 있다. 또한, OS의 차이를 넘어 파일 시스템의 차이를 느끼는 일 없이 접근할 수 있다. Specifically, the cloud terminal may be a terminal that executes an application installed in a virtual file system (VFS)-based cloud server through an operating system (OS). Here, the VFS may be an abstraction layer above the actual file system. The purpose of VFS is to allow applications to access multiple file systems in the same way. For example, with VFS, applications can directly access local storage and cloud servers, so they may not notice the difference between local storage and cloud servers. In addition, it is possible to access the file system without feeling the difference beyond the OS difference.
통신망(300)은 이동 단말기(200)와 클라우드 서버(400) 간을 유선, 무선 및/또는 인터넷 등으로 연결하여 통신할 수 있도록 하는 단독 또는 복합의 망일 수 있다. The communication network 300 may be a single or complex network that enables communication by connecting the mobile terminal 200 and the cloud server 400 through wired, wireless and/or the Internet.
클라우드 서버(400)는 통신망(300) 상의 저장장치로 이동 단말기(200)이 통신망(300)을 통해 언제 어디서든 접속할 수 있는 저장장치일 수 있다. The cloud server 400 is a storage device on the communication network 300 , and may be a storage device that the mobile terminal 200 can access through the communication network 300 at any time and anywhere.
도 3은 일 실시예에 따른 이동 단말기(200)의 구성도이다. 구체적으로, 도 3의 이동 단말기(200)는 도 1의 제어부(180)를 나타낼 수 있다. 3 is a block diagram of a mobile terminal 200 according to an embodiment. Specifically, the mobile terminal 200 of FIG. 3 may represent the controller 180 of FIG. 1 .
이동 단말기(200)는 OS(Operating System)(210), VFS(Virtual File System)(220), 클라우드 파일 매니저(230), 및 클라우드 파일 캐시(240)을 포함할 수 있다. The mobile terminal 200 may include an Operating System (OS) 210 , a Virtual File System (VFS) 220 , a cloud file manager 230 , and a cloud file cache 240 .
OS(210)는 이동 단말기(200)에 설치된 운영 체제로 안드로이드 기반의 OS를 포함할 수 있다.The OS 210 is an operating system installed in the mobile terminal 200 and may include an Android-based OS.
VFS(220)는 커널과 실제 파일 시스템과 인터페이스나 규격을 정의하고서 OS(210)과 클라우드 파일 매니저(230)간의 통신을 매개하기 위한 것일 수 있다. The VFS 220 may be used to mediate communication between the OS 210 and the cloud file manager 230 while defining an interface or standard between the kernel and the actual file system.
클라우드 파일 매니저(230)은 이동 단말기(200)에서 통신망(300) 상의 클라우스 서버(400)에 설치된 애플리케이션을 실행함에 있어 OS와의 통신을 매개하기 위한 것일 수 있다. The cloud file manager 230 may be for mediating communication with the OS when the mobile terminal 200 executes an application installed on the cloud server 400 on the communication network 300 .
클라우드 파일 캐시(240)는 클라우드 파일 매니저(230)의 내부 캐시 영역을 나타낼 수 있다. 예를 들어, 클라우드 파일 매니저(230)가 클라우드 서버(400)로부터 다운로드 받은 파일을 클라우드 파일 캐시(240)에 캐시 파일로 저장할 수 있다. The cloud file cache 240 may represent an internal cache area of the cloud file manager 230 . For example, the cloud file manager 230 may store a file downloaded from the cloud server 400 as a cache file in the cloud file cache 240 .
구체적으로, 클라우드 파일 매니저(230)는 이동 단말기(200)를 통해 클라우드 서버(400)에 애플리케이션 실행을 요청할 수 있다. 클라우드 파일 매니저(230)는 클라우드 서버(400)로부터 수신한 파일을 클라우드 파일 캐시(240)에 임시 또는 반 영구적으로 저장할 수 있다. 클라우드 파일 캐시(240)에 저장되는 파일은 애플리케이션을 실행하는데 소요되는 시간 동안 출력되는 화면 이미지(이하, 스플래쉬 윈도우(Splash Window)로 칭함)를 포함할 수 있다. Specifically, the cloud file manager 230 may request the cloud server 400 to execute an application through the mobile terminal 200 . The cloud file manager 230 may temporarily or semi-permanently store the file received from the cloud server 400 in the cloud file cache 240 . The file stored in the cloud file cache 240 may include a screen image (hereinafter, referred to as a splash window) output during the time required to execute the application.
이하에서, 스플래쉬 윈도우를 출력하는 구체적인 실시예를 살펴본다. Hereinafter, a specific embodiment of outputting a splash window will be described.
도 4는 일 실시예에 따라 이동 단말기(200)에서 애플리케이션을 실행하는 프로세서를 도시하고 있다. 구체적으로, 도 4는 이동 단말기(200)의 로컬 스토리지에 저장된 애플리케이션을 실행하는 프로세서를 도시하고 있다. 4 illustrates a processor executing an application in the mobile terminal 200 according to an embodiment. Specifically, FIG. 4 shows a processor executing an application stored in the local storage of the mobile terminal 200 .
이동 단말기(200)는 입력 장치를 통해 사용자로부터 애플리케이션 실행을 요청 받을 수 있다(S301). 여기서, 입력 장치는 터치 패널에 인가된 터치 신호, 모션 신호 또는 음성 신호 중 적어도 하나를 포함할 수 있다. The mobile terminal 200 may receive a request to execute an application from the user through the input device (S301). Here, the input device may include at least one of a touch signal, a motion signal, and a voice signal applied to the touch panel.
이동 단말기(200)는 실행 요청된 애플리케이션을 분별하고 애플리케이션 코드를 로컬 스토리지로부터 리드할 수 있다(S302).The mobile terminal 200 may identify the application requested to be executed and read the application code from the local storage (S302).
이동 단말기(200)는 애플리케이션 코드를 통해 실행된 애플리케이션에 대응되는 스플래쉬 윈도우를 로컬 스토리지에서 리드하고, 스플래쉬 윈도우를 디스플레이에 출력할 수 있다(S303). 애플리케이션 실행 요청 후 스플래쉬 윈도우를 출력하는데 소요되는 시간을 제1 시간(t1)으로 정의할 수 있다. 제1 시간(t1)은 애플리케이션 실행 요청에 애플리케이션의 첫 화면이 출력되는데 소요되는 시간일 수 있다.The mobile terminal 200 may read the splash window corresponding to the application executed through the application code from the local storage and output the splash window to the display (S303). A time required to output the splash window after the application execution request may be defined as the first time t1. The first time t1 may be a time required for the first screen of the application to be output to the application execution request.
이동 단말기(200)는 스플래쉬 윈도우를 출력하고 데이터를 초기화할 수 있다(S304). 여기서, 데이터를 초기화하는 단계는 애플리케이션 코드를 초기화하는 단계를 포함할 수 있다. The mobile terminal 200 may output a splash window and initialize data (S304). Here, the step of initializing the data may include the step of initializing the application code.
이동 단말기(200)는 데이터를 초기화한 후, 애플리케이션 실행의 첫 화면을 구성하고(S305), 구성된 첫 화면을 디스플레이에 출력할 수 있다(S306). 애플리케이션 실행 요청 후 첫 화면을 출력하는데 소요되는 시간을 제2 시간(t2)로 정의할 수 있다. 제2 시간(t2)은 애플리케이션 실행 요청에 애플리케이션이 반응하는데 소요되는 시간일 수 있다. After initializing the data, the mobile terminal 200 may configure the first screen of application execution (S305) and output the configured first screen to the display (S306). A time required to output the first screen after the application execution request may be defined as a second time t2. The second time t2 may be a time required for the application to respond to the application execution request.
도 5는 일 실시예에 따라 이동 단말기(200)에서 애플리케이션을 실행하는 프로세서를 도시하고 있다. 구체적으로, 도 5는 이동 단말기(200)의 로컬 스토리지에 저장된 애플리케이션을 실행하는 프로세서를 도시하고 있다.5 illustrates a processor executing an application in the mobile terminal 200 according to an embodiment. Specifically, FIG. 5 shows a processor executing an application stored in the local storage of the mobile terminal 200 .
이동 단말기(200)는 입력 장치를 통해 사용자로부터 애플리케이션 실행을 요청 받을 수 있다(S401). 여기서, 입력 장치는 터치 패널에 인가된 터치 신호, 모션 신호 또는 음성 신호 중 적어도 하나를 포함할 수 있다. The mobile terminal 200 may receive a request to execute an application from the user through the input device (S401). Here, the input device may include at least one of a touch signal, a motion signal, and a voice signal applied to the touch panel.
이동 단말기(200)는 실행 요청된 애플리케이션을 분별하고 애플리케이션 코드를 로컬 스토리지로부터 리드할 수 있다(S402).The mobile terminal 200 may identify the application requested to be executed and read the application code from the local storage (S402).
이동 단말기(200)는 실행 요청된 애플리케이션이 실행 상태인지 분별할 수 있다(S403). 이동 단말기(200)는 애플리케이션 코드를 통해 또는 따로 저장된 데이터를 통해 실행 요청된 애플리케이션이 실행 상태인지 분별할 수 있다. The mobile terminal 200 may determine whether the application requested to be executed is in the running state (S403). The mobile terminal 200 may discriminate whether the application requested to be executed is in the running state through the application code or separately stored data.
이동 단말기(200)는 실행 요청된 애플리케이션이 실행 상태가 아닌 경우(S403, No), 메인 스플래쉬 윈도우를 출력할 수 있다(S404). 메인 스플래쉬 윈도우는 애플리케이션을 처음 시작할 때 제공되는 대표 이미지일 수 있다. 메인 스플래쉬 윈도우는 도 6을 참조할 수 있다. The mobile terminal 200 may output a main splash window when the application requested to be executed is not in the running state (S403, No) (S404). The main splash window may be a representative image provided when the application is first started. The main splash window may refer to FIG. 6 .
이동 단말기(200)는 메인 스플래쉬 윈도우를 출력하고 데이터를 초기화할 수 있다(S405). 여기서, 데이터를 초기화하는 단계는 애플리케이션 코드를 초기화하는 단계를 포함할 수 있다. The mobile terminal 200 may output a main splash window and initialize data (S405). Here, the step of initializing the data may include the step of initializing the application code.
이동 단말기(200)는 데이터를 초기화한 후, 애플리케이션 실행의 첫 화면을 구성하고(S406), 구성된 첫 화면을 디스플레이에 출력할 수 있다(S407).After initializing the data, the mobile terminal 200 may configure the first screen of application execution (S406) and output the configured first screen to the display (S407).
이동 단말기(200)는 실행 요청된 애플리케이션이 실행 상태인 경우(S403, No), 이전 화면 스플래쉬 윈도우를 출력할 수 있다(S408). 이전 화면 스플래쉬 윈도우는 실행이 정지된 시점에 애플리케이션의 실행 화면에 대응되는 이미지일 수 있다. 이전 화면 스플래쉬 윈도우는 도 7을 참조할 수 있다. 이전 화면 스플래쉬 윈도우는 로컬 스토리지에 저장될 수 있다. 이전 화면 스플레위 윈도우는 애플리케이션이 실행 중인 경우 대응하여 갱신될 수 있다. The mobile terminal 200 may output a previous screen splash window when the execution-requested application is in the running state (S403, No) (S408). The previous screen splash window may be an image corresponding to the execution screen of the application when execution is stopped. The previous screen splash window may refer to FIG. 7 . The previous screen splash window may be stored in local storage. The previous screen splash window may be updated correspondingly if the application is running.
이동 단말기(200)는 이전 화면 스플래쉬 윈도우를 출력하고 데이터를 재 리드할 수 있다(S409). 여기서, 데이터를 재 리드하는 단계는 애플리케이션 코드가 실행 중 멈춘 지점을 디텍트하는 단계를 포함할 수 있다. The mobile terminal 200 may output the previous screen splash window and re-read the data (S409). Here, the step of re-reading the data may include detecting a point where the application code stops while executing.
이동 단말기(200)는 데이터를 재 리드한 후, 애플리케이션 실행 중 멈춘 이전 화면을 구성하고(S410), 구성된 이전 화면을 디스플레이에 출력할 수 있다(S411).After re-reading the data, the mobile terminal 200 may configure the previous screen stopped during application execution (S410), and output the configured previous screen to the display (S411).
도 6은 일 실시예에 따른 메인 스플래쉬 윈도우를 도시하고 있다. 6 illustrates a main splash window according to an embodiment.
구체적으로, 도 6(a)는 전화 애플리케이션이 처음 실행될 때 출력되는 메인 스플래쉬 윈도우를 출력한 실시예를 도시하고 있다. Specifically, FIG. 6( a ) illustrates an embodiment in which a main splash window output when a phone application is first executed is output.
또한, 도 6(b)는 메시지 애플리케이션이 처음 실행될 때 출력되는 메인 스플래쉬 윈도우를 출력한 실시예를 도시하고 있다. In addition, FIG. 6(b) shows an embodiment in which the main splash window output when the message application is first executed is output.
또한, 도6(c)는 연락처 애플리케이션이 처음 실행될 때 출력되는 메인 스플래쉬 윈도우를 출력한 실시예를 도시하고 있다. Also, FIG. 6( c ) shows an embodiment in which the main splash window output when the contact application is first executed is output.
도 7은 일 실시예에 따른 이전 화면 스플래쉬 윈도우를 도시하고 있다. 7 illustrates a previous screen splash window according to an embodiment.
구체적으로, 도 7(a)는 전화 애플리케이션이 특정 전화 번호(010-XXX-XXXX)를 입력한 상태에서 중단되고, 로컬 스토리지에 저장된 이전 화면 스플래쉬 윈도우를 출력한 실시예를 도시하고 있다. Specifically, Figure 7 (a) shows an embodiment in which the phone application is stopped while inputting a specific phone number (010-XXX-XXXX), and outputting the previous screen splash window stored in the local storage.
또한, 도 7(b)는 메시지 애플리케이션이 특정인(채연)과의 메시지 창을 실행한 상태에서 중단되고, 로컬 스토리지에 저장된 이전 화면 스플래쉬 윈도우를 출력한 실시예를 도시하고 있다. In addition, FIG. 7(b) shows an embodiment in which the message application is stopped while executing a message window with a specific person (Chaeyeon), and the previous screen splash window stored in the local storage is output.
또한, 도 7(c)는 연락처 애플리케이션이 특정인(채연)의 연락처 창을 실행한 상태에서 중단되고, 로컬 스토리지에 저장된 이전 화면 스플래쉬 윈도우를 출력한 실시예를 도시하고 있다. In addition, FIG. 7(c) shows an embodiment in which the contact application is stopped while running the contact window of a specific person (Chaeyeon), and the previous screen splash window stored in the local storage is output.
도8 는 일 실시예에 따라 이동 단말기(200)에서 애플리케이션을 실행하는 프로세서를 도시하고 있다. 구체적으로, 도 8는 이동 단말기(200)의 클라우드 서버(400)에 저장된 애플리케이션을 실행하는 프로세서를 도시하고 있다.8 illustrates a processor executing an application in the mobile terminal 200 according to an embodiment. Specifically, FIG. 8 illustrates a processor executing an application stored in the cloud server 400 of the mobile terminal 200 .
이동 단말기(200)는 입력 장치를 통해 사용자로부터 애플리케이션 실행을 요청 받을 수 있다(S501). 여기서, 입력 장치는 터치 패널에 인가된 터치 신호, 모션 신호 또는 음성 신호 중 적어도 하나를 포함할 수 있다. The mobile terminal 200 may receive a request to execute an application from the user through the input device (S501). Here, the input device may include at least one of a touch signal, a motion signal, and a voice signal applied to the touch panel.
이동 단말기(200)는 애플리케이션 실행 요청을 수신하면, 클라우드 서버(400)에 애플리케이션 실행 요청을 전달할 수 있다(S502). 구체적으로, 클라우드 파일 매니저(230)는 통신망(300)을 통해 클라우드 서버(400)에 애플리케이션 실해 요청을 전달할 수 있다.Upon receiving the application execution request, the mobile terminal 200 may transmit the application execution request to the cloud server 400 (S502). Specifically, the cloud file manager 230 may transmit an application execution request to the cloud server 400 through the communication network 300 .
클라우드 서버(400)는 애플리케이션 실행 요청을 수신하고(S503), 실행 요청된 애플리케이션 코드를 리드할 수 있다(S504).The cloud server 400 may receive the application execution request (S503) and read the execution-requested application code (S504).
클라우드 서버(400)는 실행 요청된 애플리케이션 코드를 코드를 통해 대응되는 스플래쉬 윈도우를 생성할 수 있다(S505). The cloud server 400 may generate a splash window corresponding to the execution-requested application code through the code (S505).
이동 단말기(200)는 클라우드 서버(400)로부터 스플래위 윈도우를 수신하고(S506), 수신된 스플래쉬 윈도우를 출력할 수 있다(S507). The mobile terminal 200 may receive the splash window from the cloud server 400 (S506), and may output the received splash window (S507).
클라우드 서버(400)는 스플래쉬 윈도우(S506)를 이동 단말기(200)에 송신하고, 데이터를 초기화할 수 있다(S508). 여기서, 데이터를 초기화하는 단계는 애플리케이션 코드를 초기화하는 단계를 포함할 수 있다. The cloud server 400 may transmit the splash window (S506) to the mobile terminal 200 and initialize the data (S508). Here, the step of initializing the data may include the step of initializing the application code.
클라우드 서버(400)는 데이터를 초기화한 후, 애플리케이션 실행의 첫 화면을 구성하고(S509), 첫 화면을 생성할 수 있다(S510). After initializing the data, the cloud server 400 may configure the first screen of application execution (S509) and generate the first screen (S510).
클라우드 서버(400)가 생성된 첫 화면을 이동 단말기(200)에 송부하면(S511), 이동 단말기(200)는 수신한 첫 화면을 디스플레이에 출력할 수 있다(S512).When the cloud server 400 transmits the generated first screen to the mobile terminal 200 (S511), the mobile terminal 200 may output the received first screen to the display (S512).
도9 는 일 실시예에 따라 이동 단말기(200)에서 애플리케이션을 실행하는 프로세서를 도시하고 있다. 구체적으로, 도 9는 이동 단말기(200)의 클라우드 서버(400)에 저장된 애플리케이션을 실행하는 프로세서를 도시하고 있다.9 illustrates a processor executing an application in the mobile terminal 200 according to an embodiment. Specifically, FIG. 9 illustrates a processor executing an application stored in the cloud server 400 of the mobile terminal 200 .
이동 단말기(200)는 입력 장치를 통해 사용자로부터 애플리케이션 실행을 요청 받을 수 있다(S601). 여기서, 입력 장치는 터치 패널에 인가된 터치 신호, 모션 신호 또는 음성 신호 중 적어도 하나를 포함할 수 있다. The mobile terminal 200 may receive a request to execute an application from the user through the input device (S601). Here, the input device may include at least one of a touch signal, a motion signal, and a voice signal applied to the touch panel.
이동 단말기(200)는 애플리케이션 실행 요청을 수신하면, 클라우드 서버(400)에 애플리케이션 실행 요청을 전달할 수 있다(S602). 구체적으로, 클라우드 파일 매니저(230)는 통신망(300)을 통해 클라우드 서버(400)에 애플리케이션 실해 요청을 전달할 수 있다.When the mobile terminal 200 receives the application execution request, it may transmit the application execution request to the cloud server 400 (S602). Specifically, the cloud file manager 230 may transmit an application execution request to the cloud server 400 through the communication network 300 .
클라우드 서버(400)는 애플리케이션 실행 요청을 수신하고(S603), 실행 요청된 애플리케이션 코드를 리드할 수 있다(S604).The cloud server 400 may receive the application execution request (S603) and read the execution-requested application code (S604).
클라우드 서버(400)는 실행 요청된 애플리케이션이 실행 상태임을 분별할 수 있다(S605). 여기서 실행 상태란, 중단 상태를 포함하는 상태일 수 있다. 여기서 실행 상태와 대비되는 상태를 종료 상태일 수 있다. The cloud server 400 may identify that the application requested to be executed is in the running state (S605). Here, the running state may be a state including a suspended state. Here, a state contrasting with the execution state may be an end state.
실행 요청된 애플리케이션이 실행 상태가 아닌 경우(S605, No), 즉 종료 상태인 경우, 메인 스플래쉬 윈도우를 생성할 수 있다. 여기서 메인 스플래쉬 윈도우는 실행 요청된 애플리케이션의 대표 이미지일 수 있다. When the execution-requested application is not in the running state (S605, No), that is, in the end state, a main splash window may be created. Here, the main splash window may be a representative image of an application requested to be executed.
실행 요청된 애플리케이션이 실행 상태인 경우(S605, Yes), 즉 중단 상태인 경우, 이전 화면 스플래쉬 윈도우를 생성할 수 있다. 여기서 이전 화면 스플래쉬 윈도는 이전 애플리케이션의 실행이 중단된 시점의 화면에 대응되는 이미지일 수 있다.When the execution-requested application is in the running state (S605, Yes), that is, in the suspended state, a previous screen splash window may be created. Here, the previous screen splash window may be an image corresponding to the screen at the point in time when the execution of the previous application is stopped.
클라우드 서버(400)는 실행 요청된 애플리케이션의 상태에 대응하여 스플래쉬 윈도우를 이동 단말기(200)에 송부할 수 있다. 구체적으로, 실행 요청된 애플리케이션이 종료 상태인 경우(S605, No), 메인 스플래쉬 윈도우를 이동 단말기(200)에 송부할 수 있다(S608). 또한, 실행 요청된 애플리케이션이 중단 상태인 경우(S605, Yes), 이전 화면 스플래쉬 윈도우를 이동 단말기(200)에 송부할 수 있다(S609).The cloud server 400 may transmit a splash window to the mobile terminal 200 in response to the state of the application requested to be executed. Specifically, when the execution-requested application is in an end state (S605, No), the main splash window may be transmitted to the mobile terminal 200 (S608). In addition, when the execution-requested application is in a suspended state (S605, Yes), the previous screen splash window may be transmitted to the mobile terminal 200 (S609).
이동 단말기(200)는 클라우드 서버로부터 메인 스플래쉬 윈도우를 수신하거나 이전 화면 스플래쉬 윈도우를 수신한 경우, 스플래쉬 윈도우를 디스플레이부에 출력할 수 있다(S610).When receiving the main splash window from the cloud server or the previous screen splash window, the mobile terminal 200 may output the splash window to the display unit (S610).
클라우드 서버(400)는 메인 스플래쉬 윈도우를 이동 단말기(200)에 송신하고, 데이터를 초기화할 수 있다(S611). 여기서, 데이터를 초기화하는 단계는 애플리케이션 코드를 초기화하는 단계를 포함할 수 있다. The cloud server 400 may transmit the main splash window to the mobile terminal 200 and initialize data (S611). Here, the step of initializing the data may include the step of initializing the application code.
클라우드 서버(400)는 데이터를 초기화한 후, 애플리케이션 실행의 첫 화면을 구성하고(S612), 첫 화면을 생성할 수 있다(S613).After initializing the data, the cloud server 400 may configure the first screen of the application execution (S612) and generate the first screen (S613).
클라우드 서버(400)는 이전 화면 스플래쉬 윈도우를 이동 단말기(200)에 송신하고, 데이터를 재 리드할 수 있다(S615). 여기서, 데이터를 재 리드하는 단계는 애플리케이션 코드가 실행 중 멈춘 지점을 디텍트하는 단계를 포함할 수 있다. The cloud server 400 may transmit the previous screen splash window to the mobile terminal 200 and read the data again (S615). Here, the step of re-reading the data may include detecting a point where the application code stops while executing.
클라우드 서버(400)는 데이터를 재 리드한 후, 애플리케이션 실행 중 멈춘 이전 화면을 구성하고(S616), 이전 화면을 생성할 수 있다(S617).After re-reading the data, the cloud server 400 may configure the previous screen stopped during application execution (S616) and generate the previous screen (S617).
이동 단말기(200)는 클라우드 서버(400)로부터 생성된 첫 화면 또는 이전 화면을 수신한 경우, 수신환 화면을 디스플레이부에 출력할 수 있다(S619).When the mobile terminal 200 receives the first screen or the previous screen generated from the cloud server 400, the mobile terminal 200 may output a reception screen on the display unit (S619).
도10 는 일 실시예에 따라 이동 단말기(200)에서 애플리케이션을 실행하는 프로세서를 도시하고 있다. 구체적으로, 도 10는 이동 단말기(200)의 클라우드 서버(400)에 저장된 애플리케이션을 실행하는 프로세서를 도시하고 있다.10 illustrates a processor executing an application in the mobile terminal 200 according to an embodiment. Specifically, FIG. 10 illustrates a processor executing an application stored in the cloud server 400 of the mobile terminal 200 .
이동 단말기(200)는 입력 장치를 통해 사용자로부터 애플리케이션 실행을 요청 받을 수 있다(S701). 여기서, 입력 장치는 터치 패널에 인가된 터치 신호, 모션 신호 또는 음성 신호 중 적어도 하나를 포함할 수 있다. The mobile terminal 200 may receive a request to execute an application from the user through the input device (S701). Here, the input device may include at least one of a touch signal, a motion signal, and a voice signal applied to the touch panel.
이동 단말기(200)는 애플리케이션 실행 요청을 수신하면, 클라우드 서버(400)에 애플리케이션 실행 요청을 전달할 수 있다(S702). 구체적으로, 클라우드 파일 매니저(230)는 통신망(300)을 통해 클라우드 서버(400)에 애플리케이션 실해 요청을 전달할 수 있다.When the mobile terminal 200 receives the application execution request, it may transmit the application execution request to the cloud server 400 (S702). Specifically, the cloud file manager 230 may transmit an application execution request to the cloud server 400 through the communication network 300 .
이동 단말기(200)는 클라우드 서버(400)에 애플리케이션 실행 요청을 송신하기 전후 또는 동시에 로컬 스토리지에서 스플래쉬 윈도우를 획득하고, 획득한 스플래쉬 윈도우를 디스플레이부에 출력할 수 있다(S703). 여기서, 스플래쉬 윈도우는 실행 요청된 애플리케이션에 대응하여 상기 로컬 스토리지에 기 저장되어 있을 수 있다. The mobile terminal 200 may acquire a splash window from local storage before or at the same time before or after transmitting the application execution request to the cloud server 400, and output the acquired splash window to the display unit (S703). Here, the splash window may be pre-stored in the local storage in response to the application requested to be executed.
이동 단말기를 클라우드 서버(400)로부터 스플래쉬 윈도우를 수신하여 출력하지 않고, 로컬 스토리지에 저장된 스플래쉬 윈도우를 바로 출력함으로써, 애플리케이션 실행 요청에 대응하여 스플래쉬 윈도우를 출력하는 시간을 단축할 수 있다. The mobile terminal does not receive and output the splash window from the cloud server 400, but directly output the splash window stored in the local storage, thereby reducing the time for outputting the splash window in response to the application execution request.
이동 단말기는 스플래쉬 윈도우를 애플캐이션 실해 요청 후 클라우드 서버(400)로부터 수신한 첫 화면을 출력(S710) 하기 전까지 로컬 스토리지에 저장된 스플래쉬 윈도우를 출력할 수 있다. The mobile terminal may output the splash window stored in the local storage until the first screen received from the cloud server 400 is output ( S710 ) after the application of the splash window is requested.
클라우드 서버(400)는 애플리케이션 실행 요청을 수신하고(S702), 실행 요청된 애플리케이션 코드를 리드할 수 있다(S704).The cloud server 400 may receive the application execution request (S702) and read the execution-requested application code (S704).
클라우드 서버(400)는 스플래쉬 윈도우를 이동 단말기(200)에 송신하고, 데이터를 초기화할 수 있다(S706). 여기서, 데이터를 초기화하는 단계는 애플리케이션 코드를 초기화하는 단계를 포함할 수 있다. The cloud server 400 may transmit the splash window to the mobile terminal 200 and initialize data (S706). Here, the step of initializing the data may include the step of initializing the application code.
클라우드 서버(400)는 데이터를 초기화한 후, 애플리케이션 실행의 첫 화면을 구성하고(S707), 첫 화면을 생성할 수 있다(S708). After initializing the data, the cloud server 400 may configure the first screen of the application execution (S707) and generate the first screen (S708).
클라우드 서버(400)가 생성된 첫 화면을 이동 단말기(200)에 송부하면(S709), 이동 단말기(200)는 수신한 첫 화면을 디스플레이에 출력할 수 있다(S710).When the cloud server 400 transmits the generated first screen to the mobile terminal 200 (S709), the mobile terminal 200 may output the received first screen to the display (S710).
도11는 일 실시예에 따라 이동 단말기(200)에서 애플리케이션을 실행하는 프로세서를 도시하고 있다. 구체적으로, 도 11는 이동 단말기(200)의 클라우드 서버(400)에 저장된 애플리케이션을 실행하는 프로세서를 도시하고 있다.11 illustrates a processor executing an application in the mobile terminal 200 according to an embodiment. Specifically, FIG. 11 illustrates a processor executing an application stored in the cloud server 400 of the mobile terminal 200 .
이동 단말기(200)는 입력 장치를 통해 사용자로부터 애플리케이션 실행을 요청 받을 수 있다(S801). 여기서, 입력 장치는 터치 패널에 인가된 터치 신호, 모션 신호 또는 음성 신호 중 적어도 하나를 포함할 수 있다. The mobile terminal 200 may receive a request to execute an application from the user through the input device (S801). Here, the input device may include at least one of a touch signal, a motion signal, and a voice signal applied to the touch panel.
이동 단말기(200)는 애플리케이션 실행 요청을 수신하면, 클라우드 서버(400)에 애플리케이션 실행 요청을 전달할 수 있다(S802). 구체적으로, 클라우드 파일 매니저(230)는 통신망(300)을 통해 클라우드 서버(400)에 애플리케이션 실해 요청을 전달할 수 있다.Upon receiving the application execution request, the mobile terminal 200 may transmit the application execution request to the cloud server 400 (S802). Specifically, the cloud file manager 230 may transmit an application execution request to the cloud server 400 through the communication network 300 .
이동 단말기(200)는 클라우드 서버(400)에 애플리케이션 실행 요청을 송신하기 전후 또는 동시에 로컬 스토리지에서 스플래쉬 윈도우를 획득하고, 획득한 스플래쉬 윈도우를 디스플레이부에 출력할 수 있다(S803). 여기서, 스플래쉬 윈도우는 실행 요청된 애플리케이션에 대응하여 상기 로컬 스토리지에 기 저장되어 있을 수 있다. The mobile terminal 200 may acquire a splash window from local storage before or at the same time before or after transmitting the application execution request to the cloud server 400, and output the acquired splash window to the display unit (S803). Here, the splash window may be pre-stored in the local storage in response to the application requested to be executed.
이동 단말기를 클라우드 서버(400)로부터 스플래쉬 윈도우를 수신하여 출력하지 않고, 로컬 스토리지에 저장된 스플래쉬 윈도우를 바로 출력함으로써, 애플리케이션 실행 요청에 대응하여 스플래쉬 윈도우를 출력하는 시간을 단축할 수 있다. The mobile terminal does not receive and output the splash window from the cloud server 400, but directly output the splash window stored in the local storage, thereby reducing the time for outputting the splash window in response to the application execution request.
이동 단말기는 스플래쉬 윈도우를 애플캐이션 실해 요청 후 클라우드 서버(400)로부터 수신한 첫 화면을 출력(S710) 하기 전까지 로컬 스토리지에 저장된 스플래쉬 윈도우를 출력할 수 있다. The mobile terminal may output the splash window stored in the local storage until the first screen received from the cloud server 400 is output ( S710 ) after the application of the splash window is requested.
클라우드 서버(400)는 애플리케이션 실행 요청을 수신하고(S802), 실행 요청된 애플리케이션 코드를 리드할 수 있다(S804).The cloud server 400 may receive the application execution request (S802) and read the execution-requested application code (S804).
클라우드 서버(400)는 실행 요청된 애플리케이션이 실행 상태임을 분별할 수 있다(S806). 여기서 실행 상태란, 중단 상태를 포함하는 상태일 수 있다. 여기서 실행 상태와 대비되는 상태를 종료 상태일 수 있다. The cloud server 400 may discriminate that the application requested to be executed is in the running state (S806). Here, the running state may be a state including a suspended state. Here, a state contrasting with the execution state may be an end state.
실행 요청된 애플리케이션이 실행 상태가 아닌 경우(S806, No), 클라우드 서버(400)는 메인 스플래쉬 윈도우를 이동 단말기(200)에 송신하고, 데이터를 초기화할 수 있다(S807). 여기서, 데이터를 초기화하는 단계는 애플리케이션 코드를 초기화하는 단계를 포함할 수 있다. When the execution-requested application is not in the running state (S806, No), the cloud server 400 may transmit a main splash window to the mobile terminal 200 and initialize data (S807). Here, the step of initializing the data may include the step of initializing the application code.
클라우드 서버(400)는 데이터를 초기화한 후, 애플리케이션 실행의 첫 화면을 구성하고(S808), 첫 화면을 생성할 수 있다(S809).After initializing the data, the cloud server 400 may configure the first screen of the application execution (S808) and generate the first screen (S809).
실행 요청된 애플리케이션이 실행 상태가 아닌 경우(S806, Yes), 클라우드 서버(400)는 이전 화면 스플래쉬 윈도우를 이동 단말기(200)에 송신하고, 데이터를 재 리드할 수 있다(S810). 여기서, 데이터를 재 리드하는 단계는 애플리케이션 코드가 실행 중 멈춘 지점을 디텍트하는 단계를 포함할 수 있다. If the application requested to be executed is not in the running state (S806, Yes), the cloud server 400 may transmit the previous screen splash window to the mobile terminal 200 and re-read the data (S810). Here, the step of re-reading the data may include detecting a point where the application code stops while executing.
클라우드 서버(400)는 데이터를 재 리드한 후, 애플리케이션 실행 중 멈춘 이전 화면을 구성하고(S811), 이전 화면을 생성할 수 있다(S812).After re-reading the data, the cloud server 400 may configure the previous screen stopped during application execution (S811) and generate the previous screen (S812).
이동 단말기(200)는 클라우드 서버(400)로부터 생성된 첫 화면 또는 이전 화면을 수신한 경우(S813, S814), 수신환 화면을 디스플레이부에 출력할 수 있다(S815).When the mobile terminal 200 receives the first screen or the previous screen generated from the cloud server 400 (S813, S814), the mobile terminal 200 may output the reception screen on the display unit (S815).
도12 는 일 실시예에 따라 이동 단말기(200)의 로컬 스토리지에 저장된 스플래쉬 이미지를 획득하는 프로세서를 도시하고 있다.12 illustrates a processor for acquiring a splash image stored in a local storage of the mobile terminal 200 according to an embodiment.
상요자는 이동 단말기(200)를 통해 클라우드 서버(400)에서 실행된 애플리케이션을 이용할 수 있다(S901). A user may use the application executed in the cloud server 400 through the mobile terminal 200 (S901).
이동 단말기(200)는 애플리케이션 이용에 대응하는 데이터를 클라우드 서버(400)에 전송할 수 있다(S902). The mobile terminal 200 may transmit data corresponding to application use to the cloud server 400 (S902).
클라우드 서버(400)는 애플리케이션 이용에 대응되는 데이터를 수신하여 데이터 동기화 할 수 있다(S903)The cloud server 400 may receive data corresponding to application use and synchronize the data (S903).
클라우스 서버(400)는 데이터 동기화에 대응하여 실행 화면을 구성하고(S904), 실행 화면을 생성할 수 있다(S905).The cloud server 400 may configure an execution screen in response to data synchronization (S904) and generate an execution screen (S905).
이동 단말기(200)는 클라우드 서버(400)로부터 실행 화면을 수신하여 애플리케이션 이용에 대응하는 실행 화면을 디스프레이부에 출력할 수 있다(S907).The mobile terminal 200 may receive the execution screen from the cloud server 400 and output the execution screen corresponding to the use of the application to the display unit (S907).
사용자는 이동 단말기(200)를 통해 애플리케이션 이용을 중단 또는 종료할 수 있다(S908). 애플리케이션 이용을 중단하는 것은 애플리케이션 실행을 종료하는 것이 아니라 일시적으로 다른 애플리케이션을 실행하여 이용하는 상태로 전환되는 것일 수 있다. 애플리케이션 이용을 종료하는 것은 애플리케이션을 종료 상태로 전환되는 것일 수 있다. The user may stop or terminate the use of the application through the mobile terminal 200 (S908). Stopping the use of the application may not terminate the execution of the application, but may be a transition to a state where another application is temporarily executed and used. Ending the use of the application may be transitioning the application to an end state.
클라우드 서버(400)는 이동 단말기(200)를 통해 애플리케이션 이용을 중단 또는 종료하는 신호를 수신할 수 있다(S909) 클라우드 서버(400)는 상기 신호가 실행 중인 애플리케이션의 실행 상태를 유지하는지 분별할 수 있다(S910). The cloud server 400 may receive a signal to stop or terminate the use of the application through the mobile terminal 200 (S909) The cloud server 400 may determine whether the signal maintains the execution state of the currently running application (S910).
클라우드 서버(400)는 실행 중인 애플리케이션이 종료 상태로 전환되는 경우(S910, No), 메인 스플래쉬 윈도우를 생성할 수 있다(S911). 클라우드 서버(400)는 생성된 메인 스플래쉬 윈도우를 이동 단말기(200)에 송부하고, 이동 단말기는 수신한 메인 스플래쉬 위도우를 로컬 스토리지에 저장할 수 있다(S915). The cloud server 400 may generate a main splash window when the running application is switched to the end state (S910, No) (S911). The cloud server 400 may transmit the generated main splash window to the mobile terminal 200, and the mobile terminal may store the received main splash window in the local storage (S915).
클라우스 서버(400)는 실행 중인 애플리케이션이 실행 상태를 유지하는 경우(S910, Yes) 즉, 실행 중인 애플리케이션이 이용 중단된 경우, 중단된 시점으로 이전 화면 스플래쉬 위도우를 생성할 수 있다(S912). 클라우드 서버(400)는 생성된 이전 화면 스플래쉬 윈도우를 이동 단말기(200)에 송부하고, 이동 단말기는 수신한 이전 화면 스플래쉬 윈도우를 로컬 스토리지에 저장할 수 있다(S915).When the running application maintains the running state (S910, Yes), that is, when the running application is discontinued, the cloud server 400 may generate a previous screen splash window at the interrupted time point (S912). The cloud server 400 may transmit the generated previous screen splash window to the mobile terminal 200, and the mobile terminal may store the received previous screen splash window in local storage (S915).
로컬 스토리지는 저장된 스플래쉬 윈도우를 갱신하여 저장할 수 있다. 즉, 새로운 스플래쉬 윈도우를 저장하는 경우, 이전에 저장된 스플래쉬 윈도우는 삭제할 수 있다. 이를 통해 로컬 스토리지에 요구되는 용량을 줄일 수 있다. The local storage may update and store the stored splash window. That is, when storing a new splash window, the previously stored splash window may be deleted. This can reduce the capacity required for local storage.
로컬 스토리지에 최초로 저장되는 스플래쉬 윈도우는 이동 단말기(200)에서 최초로 애플리케이션 실행 요청을 클라우드 서버(400)에 전송하고, 클라우드 서버(400)로부터 수신될 수 있다. The splash window initially stored in the local storage may transmit an application execution request to the cloud server 400 for the first time in the mobile terminal 200 , and may be received from the cloud server 400 .
즉, 이동 단말기(200)는 클라우드 서버(400)에 설치된 애플리케이션을 실행하여 실행 화면을 수신하기 전에 로컬 스토리지에 저장된 스플래쉬 윈도우를 출력함으로써 사용자가 체감하는 실행 시간을 단출할 수 있다. That is, the mobile terminal 200 executes the application installed in the cloud server 400 and outputs a splash window stored in the local storage before receiving the execution screen, thereby shortening the execution time felt by the user.
이동 단말기(200)는 실행중인 애플리케이션의 실행을 중단하거나 종료한 경우 클라우드 서버(400)로부터 스플래쉬 위도우를 수신하여 로컬 스토리지에 저장된 스플래위 윈도우를 갱신하고, 다음 실행 때 갱신된 스플래쉬 윈도우를 출력할 수 있다. When the mobile terminal 200 stops or terminates the execution of the running application, it receives the splash window from the cloud server 400, updates the splash window stored in the local storage, and outputs the updated splash window at the next execution. have.
다만, 이동 단말기(200)는 최초로 로컬 스토리지에 저장되는 스플래쉬 윈도우는 최초로 애플리케이션의 실행을 요청하면서 클라우드 서버로 수신하여 저장할 수 있다. However, the mobile terminal 200 may receive and store the splash window initially stored in the local storage to the cloud server while requesting the execution of the application for the first time.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (12)

  1. 디스플레이부;display unit;
    애플리케이션이 설치된 클라우드 서버와 통신하는 통신부;Communication unit for communicating with the cloud server in which the application is installed;
    상기 애플리케이션의 스플래쉬 이미지를 포함하는 로컬 스토리지; 및local storage containing a splash image of the application; and
    상기 애플리케이션의 실행 요청을 상기 클라우드 서버에 전달하고, transmits a request to execute the application to the cloud server,
    상기 클라우드 서버로부터 실행된 상기 애플리케이션이 구성하는 화면 정보를 수신하고,Receive screen information configured by the application executed from the cloud server,
    수신한 상기 화면 정보에 대응되는 화면을 상기 디스플레이부에 출력하는 프로세서;를 포함하고,and a processor that outputs a screen corresponding to the received screen information to the display unit;
    상기 프로세서는the processor
    상기 애플리케이션의 실행 요청을 수신한 경우, 상기 클라우드 서버로부터 수신한 상기 화면 정보에 대응하는 화면을 상기 디스플레이부에 출력하기 전까지 상기 스플래쉬 이미지를 출력하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 이동 단말기.When receiving a request to execute the application, the mobile terminal, characterized in that the display unit is controlled to output the splash image until a screen corresponding to the screen information received from the cloud server is outputted to the display unit.
  2. 제1항에 있어서,According to claim 1,
    상기 클라우드 서버는the cloud server
    상기 애플리케이션을 실행하는 애플리케이션 코드를 포함하는 것을 특징으로 하는 이동 단말기.and an application code for executing the application.
  3. 제1항에 있어서,According to claim 1,
    상기 스플래쉬 이미지는The splash image is
    상기 애플리케이션에 대응하여 고정된 제1 스플래쉬 이미지 또는 상기 애플리케이션의 실행이 중단된 시점의 화면에 대응되는 제2스플래쉬 이미지를 포함하는 것을 특징으로 하는 이동 단말기.A mobile terminal comprising a first splash image fixed in response to the application or a second splash image corresponding to a screen at a time when the execution of the application is stopped.
  4. 제3항에 있어서,4. The method of claim 3,
    상기 프로세서는the processor
    실행된 상기 애플리케이션이 종료된 경우, 상기 클라우드 서버로부터 상기 제1 스플래쉬 이미지를 수신하고,When the executed application is terminated, receiving the first splash image from the cloud server,
    상기 로컬 스토리지에 저장된 스토리지 이미지를 상기 제1 스플래쉬 이미지로 갱신하는 것을 특징으로 하는 이동 단말기.and updating the storage image stored in the local storage to the first splash image.
  5. 제3항에 있어서,4. The method of claim 3,
    상기 프로세서는the processor
    실행된 상기 애플리케이션이 중단된 경우, 상기 클라우드 서버로부터 상기 제2 스플래쉬 이미지를 수신하고, When the executed application is stopped, receiving the second splash image from the cloud server,
    상기 로컬 스토리지에 저장된 스토리지 이미지를 상기 제2 스플래쉬 이미지로 갱신하는 것을 특징으로 하는 이동 단말기.and updating the storage image stored in the local storage to the second splash image.
  6. 제3항에 있어서,4. The method of claim 3,
    상기 스토리지 이미지는The storage image is
    상기 애플리케이션이 처음 실행되는 경우, 상기 애플리케이션 실행 요청에 대응하여 상기 클라우드 서버로부터 수신되어 상기 로컬 스토리지에 저장되는 것을 특징으로 하는 이동 단말기.When the application is first executed, the mobile terminal is received from the cloud server in response to the application execution request and is stored in the local storage.
  7. 애플리케이션 실행 요청을 수신하는 단계;receiving an application execution request;
    상기 애플리케이션이 설치된 클라우드 서버에 상기 실행 요청을 전달하는 단계;transmitting the execution request to a cloud server in which the application is installed;
    로컬 스토리지에 저장된 상기 애플리케이션의 스플래쉬 이미지를 디스플레이부에 출력하는 단계; outputting a splash image of the application stored in local storage to a display unit;
    상기 클라우드 서버로부터 실행된 상기 애플리케이션이 구성하는 화면 정보를 수신하는 단계; 및receiving screen information configured by the application executed from the cloud server; and
    수신한 상기 화면 정보에 대응되는 화면을 상기 디스플레이부에 출력하는 단계;를 포함하는 이동 단말기 제어 방법.and outputting a screen corresponding to the received screen information to the display unit.
  8. 제7항에 있어서,8. The method of claim 7,
    상기 클라우드 서버는the cloud server
    상기 애플리케이션을 실행하는 애플리케이션 코드를 포함하는 것을 특징으로 하는 이동 단말기.and an application code for executing the application.
  9. 제7항에 있어서,8. The method of claim 7,
    상기 스플래쉬 이미지는The splash image is
    상기 애플리케이션에 대응하여 고정된 제1 스플래쉬 이미지 또는 상기 애플리케이션의 실행이 중단된 시점의 화면에 대응하는 제2 스플래쉬 이미지를 포함하는 이동 단말기 제어 방법.A mobile terminal control method comprising a first splash image fixed in response to the application or a second splash image corresponding to a screen at a time when the execution of the application is stopped.
  10. 제9항에 있어서,10. The method of claim 9,
    실행된 상기 애플리케이션이 종료된 경우, 상기 클라우드 서버로부터 상기 제1 스플래쉬 이미지를 수신하는 단계; 및receiving the first splash image from the cloud server when the executed application is terminated; and
    상기 로컬 스토리지에 저장된 스플래쉬 이미지를 상기 제1 스플래쉬 이미지로 갱신하는 단계;를 더 포함하는 이동 단말기 제어 방법.and updating the splash image stored in the local storage to the first splash image.
  11. 제9항에 있어서,10. The method of claim 9,
    실행된 상기 애플리케이션이 중단된 경우, 상기 클라우드 서버로부터 상기 제2 스플래쉬 이미지를 수신하는 단계; 및receiving the second splash image from the cloud server when the executed application is stopped; and
    상기 로컬 스토리지에 저장된 스플래쉬 이미지를 상기 제2 스플래쉬 이미지로 갱신하는 단계;를 더 포함하는 이동 단말기 제어 방법.and updating the splash image stored in the local storage to the second splash image.
  12. 제9항에 있어서,10. The method of claim 9,
    상기 스토리지 이미지는The storage image is
    상기 애플리케이션이 처음 실행되는 경우, 상기 애플리케이션 실행 요청에 대응하여 상기 클라우드 서버로부터 수신되어 상기 로컬 스토리지에 저장되는 것을 특징으로 하는 이동 단말기 제어 방법.When the application is first executed, the mobile terminal control method is received from the cloud server in response to the application execution request and is stored in the local storage.
PCT/KR2019/016632 2019-11-28 2019-11-28 Mobile terminal and mobile terminal control method WO2021107200A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0155929 2019-11-28
KR1020190155929A KR20210066546A (en) 2019-11-28 2019-11-28 Mobile terminal and method for controlling thereof

Publications (1)

Publication Number Publication Date
WO2021107200A1 true WO2021107200A1 (en) 2021-06-03

Family

ID=76130592

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/016632 WO2021107200A1 (en) 2019-11-28 2019-11-28 Mobile terminal and mobile terminal control method

Country Status (2)

Country Link
KR (1) KR20210066546A (en)
WO (1) WO2021107200A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220244043A1 (en) * 2019-06-27 2022-08-04 Kubota Corporation Bending angle calculation method and calculation apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102572383B1 (en) * 2021-08-24 2023-08-29 삼성에스디에스 주식회사 Method and apparatus for managing application

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100590690B1 (en) * 2005-01-06 2006-06-19 에스케이 텔레콤주식회사 Method and mobile communication system for receiving information broadcasting program in idle screen
KR20090040967A (en) * 2007-10-23 2009-04-28 (주) 엘지텔레콤 Mobile communication apparatus for displaying contents on stand by display and control method thereof
KR20090048802A (en) * 2007-11-12 2009-05-15 주식회사 엘지텔레콤 The method and apparatus for direct replay of multimedia contents using rts in stnadby mode of communication terminal
KR20160098822A (en) * 2015-02-11 2016-08-19 엔트릭스 주식회사 System for cloud streaming service, method of image cloud streaming service based on degradation of image quality and apparatus for the same
JP2019067355A (en) * 2017-09-29 2019-04-25 株式会社ドワンゴ Server and terminal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100590690B1 (en) * 2005-01-06 2006-06-19 에스케이 텔레콤주식회사 Method and mobile communication system for receiving information broadcasting program in idle screen
KR20090040967A (en) * 2007-10-23 2009-04-28 (주) 엘지텔레콤 Mobile communication apparatus for displaying contents on stand by display and control method thereof
KR20090048802A (en) * 2007-11-12 2009-05-15 주식회사 엘지텔레콤 The method and apparatus for direct replay of multimedia contents using rts in stnadby mode of communication terminal
KR20160098822A (en) * 2015-02-11 2016-08-19 엔트릭스 주식회사 System for cloud streaming service, method of image cloud streaming service based on degradation of image quality and apparatus for the same
JP2019067355A (en) * 2017-09-29 2019-04-25 株式会社ドワンゴ Server and terminal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220244043A1 (en) * 2019-06-27 2022-08-04 Kubota Corporation Bending angle calculation method and calculation apparatus

Also Published As

Publication number Publication date
KR20210066546A (en) 2021-06-07

Similar Documents

Publication Publication Date Title
WO2016003036A1 (en) Proximity illuminance sensor module and mobile terminal using same
WO2019194346A1 (en) Pcb laminated structure and mobile terminal comprising same
WO2017018603A1 (en) Mobile terminal and method of controlling same
WO2016076474A1 (en) Mobile terminal and method for controlling same
WO2016167437A1 (en) Mobile terminal
WO2020256463A1 (en) Electronic device including sub display and method of operating same
WO2020004685A1 (en) Mobile terminal
WO2017007101A1 (en) Smart device and method for controlling same
WO2018101508A1 (en) Mobile terminal
WO2018135679A1 (en) Mobile terminal
WO2015190668A1 (en) Mobile terminal
WO2021070982A1 (en) Electronic device for sharing content and control method therefor
WO2018135675A1 (en) Electronic device
WO2015108287A1 (en) Mobile terminal
WO2017030236A1 (en) Mobile terminal and control method therefor
WO2021107200A1 (en) Mobile terminal and mobile terminal control method
WO2016195144A1 (en) Camera module and mobile terminal having same
WO2021167167A1 (en) Mobile terminal
WO2018131747A1 (en) Mobile terminal and control method thereof
WO2015122551A1 (en) Mobile terminal and control method therefor
WO2022154470A1 (en) Electronic apparatus including microphone module
WO2019160190A1 (en) Mobile terminal including metal case and method for manufacturing metal case
WO2022085940A1 (en) Method and apparatus for controlling display of plurality of objects on wearable display device
WO2018084338A1 (en) Mobile terminal
WO2020158980A1 (en) Mobile terminal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19954194

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19954194

Country of ref document: EP

Kind code of ref document: A1