WO2024034865A1 - 전자 장치 및 전자 장치의 텍스트 기반 컨텐츠 운용 방법 - Google Patents

전자 장치 및 전자 장치의 텍스트 기반 컨텐츠 운용 방법 Download PDF

Info

Publication number
WO2024034865A1
WO2024034865A1 PCT/KR2023/009564 KR2023009564W WO2024034865A1 WO 2024034865 A1 WO2024034865 A1 WO 2024034865A1 KR 2023009564 W KR2023009564 W KR 2023009564W WO 2024034865 A1 WO2024034865 A1 WO 2024034865A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
application
text
processor
execution screen
Prior art date
Application number
PCT/KR2023/009564
Other languages
English (en)
French (fr)
Inventor
강승석
공승규
이재성
김상헌
임연욱
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220112366A external-priority patent/KR20240021074A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2024034865A1 publication Critical patent/WO2024034865A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/88Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks

Definitions

  • This document relates to electronic devices, and in particular, to a content operation method that recognizes a meaningful entity based on text, adds related information related to the entity, or executes content related to the entity.
  • Electronic devices such as smartphones
  • electronic devices include a touch screen-based display so that users can easily access various functions, and can provide screens for various applications through the display.
  • an electronic device may be equipped with an expandable display, such as a slideable, rollable, or foldable display.
  • OCR optical character reader
  • a user can obtain an object (eg, text or character) through an OCR function from various image files stored in the user device.
  • an object eg, text or character
  • the user can obtain OCR data consisting of objects by running the OCR function on an image file for which OCR recognition is desired.
  • a recognition process e.g., OCR function execution process -> recognition process -> conversion process -> display process
  • OCR recognition process must be repeated each time. Therefore, the user must repeatedly perform several processes to obtain OCR data for the same image file and have to wait accordingly. As the waiting time increases in proportion to the OCR recognition time, it may cause a lot of inconvenience to the user.
  • An electronic device may include a housing, a memory, a first display disposed on a first side of the housing, and a processor operatively connected to the memory.
  • the processor displays an execution screen of the first application on the first display, executes an optical character reader (OCR) function based on user input on the execution screen of the first application, and displays the execution screen of the first application.
  • OCR optical character reader
  • extract a first entity from the first text determine an associated operation based on the characteristics of the first entity, and display a first interface corresponding to the associated operation within a certain distance from the text. there is.
  • a method of operating text-based content in an electronic device includes displaying an execution screen of a first application on a display, and a user's long press exceeding a certain time on the execution screen of the first application.
  • Executing an optical character reader (OCR) function based on an input, recognizing at least one text on the execution screen of the first application, based on the location of the user input on the execution screen of the first application
  • OCR optical character reader
  • An operation of determining a region of interest determining a first text located within a certain distance from the region of interest among recognized texts, and extracting a first entity from the first text, and the first entity. It may include determining an associated operation based on the characteristics of the (entity) and displaying a first interface corresponding to the associated operation within a certain distance from the text.
  • an electronic device can recognize text on an image and control the recognized text to be easily input.
  • the electronic device may provide the user with an interface that can perform related operations based on recognized text.
  • an electronic device in a text input situation, can provide a function to quickly and easily input desired text by capturing a photo or image.
  • an electronic device may provide an OCR function directly on an image on a screen provided to a user, extract text, and provide the text to the user, without running a separate OCR application.
  • an electronic device can seamlessly recognize text on an image on a running application screen without a separate application switch, and provide a user experience that allows the user to utilize the recognized text.
  • the electronic device can extract text on an image and recommend actions related to the extracted text within the electronic device, thereby protecting the user's personal information compared to the case of using a separate server.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to various embodiments.
  • FIG. 2A is a front perspective view of an electronic device in a closed state according to various embodiments of the present disclosure.
  • FIG. 2B is a rear perspective view of an electronic device in a closed state according to various embodiments of the present disclosure.
  • FIG. 3A is a front perspective view of an electronic device in an open state according to various embodiments of the present disclosure.
  • 3B is a rear perspective view of an electronic device in an open state according to various embodiments of the present disclosure.
  • FIGS. 4A to 4F are diagrams illustrating usage states during folding or unfolding operations in electronic devices according to various embodiments.
  • 5A and 5B are block diagrams of electronic devices according to various embodiments.
  • FIGS. 6A and 6B illustrate a situation in which an electronic device executes an optical character reading function based on a user's touch input and provides an interface containing related functions.
  • FIGS. 6C and 6D illustrate a situation in which an electronic device stores recognized text and prevents duplicate extraction.
  • FIGS. 7A and 7B illustrate a situation in which an electronic device executes an optical character reading function and related functions based on a user's touch input.
  • FIG. 7C illustrates a situation in which an electronic device executes a plurality of applications in multi-window according to various embodiments.
  • FIG. 8A illustrates a situation in which an electronic device extracts text based on user input according to various embodiments.
  • FIG. 8B illustrates a situation in which an electronic device enlarges or reduces an image based on a user input according to various embodiments.
  • FIG. 8C illustrates a situation in which an electronic device inputs an image and extracts text from the image to replace keyboard input, according to various embodiments.
  • Figure 9 sequentially shows a method of operating text-based content in an electronic device according to various embodiments.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • a first network 198 e.g., a short-range wireless communication network
  • a second network 199 e.g., a second network 199.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor 121 e.g., a central processing unit or an application processor
  • auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 101 includes a main processor 121 and a secondary processor 123
  • the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • co-processor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
  • the electronic device 102 e.g., speaker or headphone
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • processor 120 e.g., an application processor
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
  • the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a first side e.g., bottom side
  • a designated high frequency band e.g., mmWave band
  • a plurality of antennas e.g., array antennas
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited.
  • One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these.
  • a processor e.g., processor 120
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • two user devices e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.
  • FIG. 2A is a front perspective view of the electronic device 200 in a closed state according to various embodiments.
  • FIG. 2B is a rear perspective view of the electronic device 200 in a closed state according to various embodiments.
  • FIG. 3A is a front perspective view of an electronic device 200 in an open state according to various embodiments.
  • FIG. 3B is a rear perspective view of the electronic device 200 in an open state according to various embodiments.
  • the electronic device 200 of FIG. 2A may include the electronic device 101 of FIG. 1.
  • FIGS. 2A and 2B illustrate the electronic device 200 with the screen 2301 not expanded.
  • FIGS. 3A and 3B illustrate the electronic device 200 with the screen 2301 expanded.
  • the electronic device 200 may be implemented to expand the screen 2301 in a sliding manner.
  • the screen 2301 may include an area of the flexible display 230 that is visible to the outside.
  • the state in which the screen 2301 is not expanded is a state in which the sliding plate 220 for the sliding motion of the display 230 is not slid out, hereinafter referred to as the 'closed state'. It can be referred to as '.
  • the state in which the screen 2301 is expanded is the maximum expanded state in which the screen 2301 is no longer expanded by the slide out of the sliding plate 220, and may hereinafter be referred to as an 'open state'.
  • slide out may include a series of operations in which the sliding plate 220 is moved at least partially in a first direction (e.g., +x axis direction) when the electronic device 200 transitions from a closed state to an open state.
  • the open state may be defined as a state in which the screen 2301 is expanded compared to the closed state, and screens of various sizes may be provided depending on the moving position of the sliding plate 220.
  • an intermediate state may include a state between the closed state of FIG.
  • the screen 2301 may include an active area (eg, display area) of the flexible display 230 that is visually exposed to enable image output.
  • the active area of the display 230 may be adjusted based on the movement of the sliding plate 220 or the movement of the flexible display 230.
  • the flexible display 230 that is slidably disposed on the electronic device 200 of FIG. 2A and provides a screen 2301 is a slide-out display or an expandable display. )'.
  • the electronic device 200 may include a sliding structure related to the flexible display 230. According to one embodiment, when the flexible display 230 is moved by an external force by a preset distance, the electronic device 200 changes from a closed state to an open state without additional external force due to the elastic structure included in the sliding structure, or It can be switched from open to closed. (e.g. semi-automatic slide action).
  • the electronic device 200 is changed from a closed state to an open state by a driving device such as a motor connected to the flexible display 230 based on a signal received through an input device included in the electronic device 200. , or it can be switched from open to closed. According to one embodiment, the electronic device 200 may be switched from a closed state to an open state, or from an open state to a closed state, when an input signal by a hardware button or a software button provided through the screen is detected. .
  • the electronic device 200 may be switched from a closed state to an open state, or from an open state to a closed state, based on signals detected through various sensors, such as a pressure sensor.
  • the electronic device 200 detects, through at least one sensor, that when the user holds the electronic device 200 with his or her hand, a part of the hand (e.g., the palm or fingers) of the electronic device 200.
  • a squeeze gesture generated by pressing a designated section can be detected.
  • the electronic device 200 may switch from a closed state to an open state, or from an open state to a closed state, based on a squeeze gesture acquired through at least one sensor.
  • the flexible display 230 may include a second section (see FIG. 3A).
  • the second section may include an expanded portion of the screen 2301 when the electronic device 200 switches from a closed state to an open state.
  • the second section may be slidably drawn out from the internal space of the electronic device 200 when the electronic device 200 is switched from a closed state to an open state. Accordingly, the screen 2301 can be expanded.
  • at least a portion of the second section may slide into the internal space of the electronic device 200. Accordingly, the screen 2301 may be reduced.
  • the flexible display 230 may include a flexible substrate (eg, a plastic substrate) made of a polymer material including polyimide (PI) or polyester (PET).
  • the second section is a portion of the flexible display 230 that bends when the electronic device 200 switches between an open state and a closed state, and may be referred to as a bendable section.
  • the electronic device 200 may include a housing 210, a sliding plate 220, or a flexible display 230.
  • the housing (or case) 210 includes a back cover 212, a first side cover 213, or a second side cover 214. It can be included.
  • the rear cover 212, the first side cover 213, or the second side cover 214 may be connected to a support member (not shown) located inside the electronic device 200, and may be connected to a support member (not shown) located inside the electronic device 200. It can form at least part of the appearance.
  • the back cover 212 may form at least a portion of the back side 200B of the electronic device 200.
  • back cover 212 can be substantially opaque.
  • back cover 212 may be formed of coated or colored glass, ceramic, polymer, metal (e.g., aluminum, stainless steel (STS), or magnesium), or a combination of at least two of the foregoing materials. there is.
  • at least a portion of the second section is displayed through the rear cover 212 when the second section of the flexible display 230 is inserted into the internal space of the housing 210 (e.g., in a closed state). It can also be placed so that it can be seen from the outside.
  • the rear cover 212 may be formed of a transparent material and/or a translucent material.
  • the rear cover 212 may include a flat portion 212a and curved portions 212b and 212c located on opposite sides of the flat portion 212a.
  • the curved portions 212b and 212c are formed adjacent to each relatively long edge (not shown) on both sides of the rear cover 212 and are curved toward the screen located on the opposite side of the rear cover 212 to form a seamless surface. can be extended.
  • the rear cover 212 may include one of the curved portions 212b and 212c or may be implemented without the curved portions 212b and 212c.
  • the first side cover 213 and the second side cover 214 may be located on opposite sides of each other.
  • the first side cover 213 and the second side cover 214 are oriented in a second direction (e.g., +x axis direction) orthogonal to the first direction (e.g., +x axis direction) of the slide out of the sliding plate 220. They may be located on opposite sides of each other in the y-axis direction) with the flexible display 230 in between.
  • the first side cover 213 may form at least a portion of the first side 213a of the electronic device 200.
  • the second side cover 214 may form at least a portion of the second side 214a of the electronic device 200 facing in the opposite direction from the first side 213a.
  • the first side cover 213 may include a first edge portion (or first rim) 213b extending from the edge of the first side 213a.
  • the first edge portion 213b may form at least a portion of a bezel on one side of the electronic device 200.
  • the second side cover 214 may include a second edge portion (or second rim) 214b extending from an edge of the second side surface 214a.
  • the second edge portion 214b may form at least a portion of the bezel on the other side of the electronic device 200.
  • the surface of the first edge portion 213b, the surface of the second edge portion 214b, and the surface of the sliding plate 220 are smoothly connected in the closed state of FIG. 2A to display the screen 2301.
  • a curved portion (not shown) on one side corresponding to the first curved portion 230b may be formed.
  • the surface of the first edge portion 213b or the surface of the second edge portion 214b is the second curved portion 230c of the screen 2301 located on the opposite side from the first curved portion 230b.
  • the sliding plate 220 may slide on a support member (not shown) located inside the electronic device 200.
  • at least a portion of the flexible display 230 may be placed on the sliding plate 220.
  • the closed state in FIG. 2A or the open state in FIG. 3A may be formed based on the position of the sliding plate 220 on a support member located inside the electronic device 200.
  • the flexible display 230 may be attached to the sliding plate 120 through an adhesive member (or adhesive member) (not shown).
  • the adhesive member may include a heat-reactive adhesive member, a light-reactive adhesive member, a general adhesive, and/or a double-sided tape.
  • the flexible display 230 may be inserted into a recess formed in the sliding plate 220 in a sliding manner and placed and fixed to the sliding plate 220.
  • the sliding plate 230 may serve to support at least a portion of the flexible display 230.
  • the sliding plate 230 may also be referred to as a display support structure.
  • the sliding plate 220 includes a third edge portion 220b that forms the outer surface of the electronic device 200 (e.g., a surface exposed to the outside to form the exterior of the electronic device 200). can do.
  • the third edge portion 220b may form a bezel around the screen 2301 together with the first edge portion 213b and the second edge portion 214b in the closed state of FIG. 2A.
  • the third edge portion 220b is tilted in a second direction (e.g., y) to connect one end of the first side cover 213 and one end of the second side cover 214 in the closed state of FIG. 2A.
  • axial direction can be extended.
  • the surface of the third edge portion 220b may be smoothly connected to the surface of the first edge portion 213b and/or the surface of the second edge portion 214b in the closed state of FIG. 2A.
  • At least a portion of the second section is drawn out from the inside of the electronic device 200 due to the slide out of the sliding plate 220, and the screen 2301 is in an expanded state (e.g., open) as shown in FIG. 3A. status) can be provided.
  • the screen 2301 in the closed state of FIG. 2A, includes a flat portion 230a and a first curved portion 230b located on opposite sides of the flat portion 230a and/or It may include a second curved portion 230c.
  • the first curved portion 230b and the second curved portion 230c may be substantially symmetrical with the flat portion 230a interposed therebetween.
  • the first curved portion 230b and/or the second curved portion 230c may be positioned to correspond to the curved portions 212b and 212c of the rear cover 212, respectively, in the closed state of FIG. 2A. , It may be curved toward the rear cover 212.
  • the flat portion 230a may expand when switching from the closed state in FIG. 2A to the open state in FIG. 3A.
  • a partial area of the second section forming the second curved portion 230c in the closed state of FIG. 2A is the flat portion 230a expanded when switching from the closed state of FIG. 2A to the open state of FIG. 3A. and may be formed as another area of the second section.
  • the electronic device 200 may include an opening (not shown) for inserting or withdrawing the second section, and/or a pulley (not shown) located in the opening.
  • the pulley may be positioned corresponding to the second section, and the movement of the second section and its direction of movement may be guided through rotation of the pulley in the transition between the closed state in Figure 2a and the open state in Figure 3a.
  • the first curved portion 230b may be formed to correspond to a curved surface formed on one surface of the sliding plate 220.
  • the second curved portion 230c may be formed by a portion of the second section corresponding to the curved surface of the pulley.
  • the first curved portion 230c may be located on the opposite side of the second curved portion 230b when the electronic device 200 is in a closed or open state to improve the aesthetics of the screen 2301.
  • the electronic device 200 may be implemented with the flat portion 230a expanded without the first curved portion 230b.
  • the flexible display 230 may further include a touch detection circuit (eg, a touch sensor).
  • the flexible display 230 includes a pressure sensor capable of measuring the strength (pressure) of a touch, and/or a digitizer that detects a magnetic field type pen input device (e.g., a stylus pen). They can be combined or placed adjacently.
  • the digitizer may include a coil member disposed on a dielectric substrate to detect a resonant frequency of electromagnetic induction applied from a pen input device.
  • the electronic device 200 includes a microphone hole 251 (e.g., the input module 150 of FIG. 1), a speaker hole 252 (e.g., the sound output module 155 of FIG. 1), and a connector. It may include a hole 253 (e.g., the connection terminal 178 in FIG. 1), a camera module 254 (e.g., the camera module 180 in FIG. 1), or a flash 255. According to one embodiment, the flash 255 may be implemented by being included in the camera module 254. In some embodiments, the electronic device 200 may omit at least one of the components or may additionally include other components.
  • the microphone hole 251 may be formed in at least a portion of the second side 214a to correspond to a microphone (not shown) located inside the electronic device 200.
  • the location of the microphone hole 251 is not limited to the embodiment of FIG. 2A and may vary.
  • the electronic device 200 may include a plurality of microphones capable of detecting the direction of sound.
  • the speaker hole 252 may be formed in at least a portion of the second side 214a to correspond to the speaker located inside the electronic device 200.
  • the location of the speaker hole 252 is not limited to the embodiment of FIG. 2A and may vary.
  • the electronic device 200 may include a receiver hole for a call.
  • the microphone hole 251 and the speaker hole 252 may be implemented as one hole, or the speaker hole 252 may be omitted like a piezo speaker.
  • the connector hole 253 may be formed in at least a portion of the second side 214a to correspond to a connector (eg, USB connector) located inside the electronic device 200.
  • the electronic device 200 may transmit and/or receive power and/or data to and from an external electronic device electrically connected to the connector through the connector hole 253.
  • the location of the connector hole 253 is not limited to the embodiment of FIG. 2A and may vary.
  • the camera module 254 and the flash 255 may be located on the rear 200B of the electronic device 200.
  • the camera module 154 may include one or more lenses, an image sensor, and/or an image signal processor.
  • flash 255 may include a light emitting diode or a xenon lamp.
  • two or more lenses (an infrared camera, a wide-angle lens, and a telephoto lens) and image sensors may be located on one side of the electronic device 200.
  • the electronic device 200 is not limited to the embodiment of FIGS. 2B or 3B and may include a plurality of camera modules.
  • the camera module 254 may be one of a plurality of camera modules.
  • the electronic device 200 may include a plurality of camera modules (eg, a dual camera or a triple camera) each having different properties (eg, angle of view) or functions.
  • the electronic device 200 may include a plurality of camera modules (eg, camera modules 254) including lenses having different angles of view.
  • the electronic device 200 may control the angle of view of the camera module performed by the electronic device 200 to change based on the user's selection.
  • the plurality of camera modules may include at least one of a wide-angle camera, a telephoto camera, a color camera, a monochrome camera, or an infrared (IR) camera (e.g., a time of flight (TOF) camera, a structured light camera). You can.
  • the IR camera may operate as at least part of a sensor module (not shown).
  • the electronic device 200 receives light through one side (e.g., the front 200A) of the electronic device 200 in the direction where the screen 2301 faces. It may include a camera module (e.g., a front camera) that generates an image signal.
  • the camera module 254 is not limited to the embodiment of FIG. 2B or 3B, and is aligned with an opening (e.g., a through hole, or a notch) formed in the flexible display 230 to form a housing ( 210) can be located inside.
  • the camera module 254 may generate an image signal by receiving light through an opening formed in the flexible display 230 and a partial area of the transparent cover that overlaps the opening formed in the flexible display 230.
  • the transparent cover serves to protect the flexible display 230 from the outside and may include a material such as polyimide or ultra thin glass (UTG).
  • the camera module 254 may be disposed at the bottom of at least a portion of the screen 2301 of the flexible display 230, and the position of the camera module 254 is not visually distinguished (or exposed). Able to perform related functions (e.g. image taking). In this case, the camera module 254 is disposed to overlap at least a portion of the screen 2301 when viewed from above the screen 2301 (e.g., when viewed in the -z axis direction), without being exposed to the outside. You can obtain an image of the subject.
  • the electronic device 200 may further include a key input device (eg, the input module 150 of FIG. 1).
  • the key input device may be located on the first side 213a of the electronic device 200 formed by the first side cover 213.
  • the key input device may include at least one sensor module.
  • the electronic device 200 may include various sensor modules (eg, sensor module 176 of FIG. 1 ).
  • the sensor module may generate an electrical signal or data value corresponding to the internal operating state of the electronic device 200 or the external environmental state.
  • the sensor module generates a signal about the proximity of an external object based on light received through the front 200A of the electronic device 200 placed in the direction where the screen 2301 is facing. May include a proximity sensor.
  • the sensor module may include a fingerprint sensor or HRM sensor for detecting information about a living body based on light received through the front 200A or back 200B of the electronic device 200.
  • the electronic device 200 may include various other sensor modules, including a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a color sensor, an infrared (IR) sensor, a biometric sensor, a temperature sensor, and a humidity sensor. It may include at least one of a sensor or an illuminance sensor.
  • the electronic device 200 is not limited to the embodiments of FIGS. 2A, 2B, 3A, and 3C, and the screen expands toward the third border 220b when the sliding plate 220 slides out. It can also be implemented in a structure that is For example, a portion of the flexible display 230 forming the first curved portion 230b in the closed state of FIG. 2A becomes an expanded flat portion ( It is included in 230a) and may be formed in another area of the flexible display 230.
  • FIGS. 4A to 4F are diagrams illustrating usage states during folding or unfolding operations in electronic devices according to various embodiments.
  • An electronic device 400 (e.g., the electronic device 101 of FIG. 1) according to various embodiments may include a foldable housing 410, a first display 430, and a second display.
  • the electronic device 400 may include a foldable housing 410 that can be folded.
  • the foldable housing 410 may include a first housing structure 411 and a second housing structure 412 connected by a hinge structure.
  • the second housing structure 412 may be connected to the first housing structure 411 in a foldable manner.
  • the first housing structure 411 and the second housing structure 412 may be foldable to each other about a folding axis 420 extending in the first direction (eg, the folding axis (A-axis) in FIG. 2A).
  • the first housing structure 411 and the second housing structure 412 may be arranged to face each other in a folded state.
  • the angle formed between the first housing structure 411 and the second housing structure 412 may be about 180 degrees, and as such, the angle between the first housing structure 411 and the second housing structure 412 may be approximately 180 degrees. If the angle formed by is greater than or equal to a predetermined angle (e.g., about 170 degrees), the electronic device (or first display 430) may be defined as being in an unfolded state. When the electronic device 400 is in an unfolded state, the first housing structure 411 and the second housing structure 412 may form a substantially planar structure.
  • a predetermined angle e.g., about 170 degrees
  • the electronic device 400 may further include a second display 440.
  • FIG. 4C is a diagram showing the electronic device 400 according to various embodiments of the present invention partially folded counterclockwise around the folding axis 420
  • FIG. 4D is a diagram showing the electronic device 400 according to various embodiments of the present invention. This diagram shows that 400 is maximally folded around the folding axis 420.
  • the user of the electronic device 400 applies force to the electronic device 400 to fold the electronic device 400 in an unfolded state around the folding axis 420 or to fold the electronic device 400 in a folded state.
  • the electronic device 400 can be unfolded around the folding axis 420.
  • a user's touch may occur on the first display 430 or the second display 440 while the electronic device 400 is folded or unfolded, and this touch input may be It may be detected by the touch sensor of the first display 430 or the touch sensor of the second display 440. In this way, while changing the folding state of the electronic device 400, the touch input that occurs when part of the user's finger touches the first display 430 or the second display 440 is input on the screen displayed by the actual user. It may be an unintentional touch by the user rather than an intended touch.
  • the electronic device 400 may receive a user input on the first display 430 while the electronic device 400 is folded or unfolded.
  • the electronic device 400 may receive a user input on some areas 451 and 453 of the first display 430.
  • a user input applied to the first display 430 while the electronic device 400 is folded or unfolded may be an unintentional touch.
  • the electronic device 400 may receive a user input on the second display 440 while the electronic device 400 is folded or unfolded.
  • the electronic device 400 may receive a user input on a partial area 461 of the second display 440.
  • a user input applied to the second display 440 while the electronic device 400 is folded or unfolded may be an unintended touch.
  • 5A and 5B are block diagrams of an electronic device 500 according to various embodiments.
  • the electronic device 500 may include a first display 510, a second display 520, a processor 530, and a memory 540, and some of the illustrated components are omitted or replaced. It can be.
  • the electronic device 500 may include at least some of the configuration and/or functions of the electronic device 101 of FIG. 1 .
  • the electronic device 500 may include a foldable structure as described in FIGS. 4A to 4F.
  • the first display 510 may be disposed on the first side (or front) of the housing of the electronic device 500 in the first direction. Additionally, the first display 510 can be folded. The first display 510 can be divided into a first area 511 and a second area 512 based on the folded area, and the first display 510 has a first area 511 and a second area 512. ) can be folded in directions facing each other. Accordingly, when the electronic device 500 is folded, the first display 510 may not be visible to the user.
  • the memory 540 may include known volatile memory and non-volatile memory, and is not limited to specific implementation examples. Memory 540 may include at least some of the configuration and/or functions of memory 130 of FIG. 1 . Additionally, the memory 540 may store at least a portion of the program 140 of FIG. 1 .
  • the memory 540 is functionally, operatively, and/or electrically connected to the processor 530 and can store various instructions that can be executed by the processor 530. there is. These instructions may include various control instructions including arithmetic and logical operations, data movement, and input/output that can be recognized by the processor 530.
  • the processor 530 is a component capable of performing operations or data processing related to control and/or communication of each component of the electronic device 500, and includes the configuration of the processor 120 of FIG. 1 and /or may include at least some of the functions.
  • the processor 530 may be functionally, operatively, and/or electrically connected to internal components of the electronic device 500, including the first display 510, the second display 520, and the memory 540. .
  • processor 530 can implement within the electronic device 500, but in this document, when unfolding, the operation of editing and uploading the content being worked on in the folded state to SNS is handled. Various embodiments for this purpose will now be described. Operations of the processor 530, which will be described later, can be performed by loading instructions stored in the memory 540.
  • the processor 530 detects unfolding of the first display 510 through a sensor (not shown), and displays the first display 510 in an unfolded state. Controlling the display of first content including at least one image in the area 511, and providing at least one application with a user interface and/or first content corresponding to at least one application in the second area 512. Controls display of second content converted into a form corresponding to the function, and transmits data corresponding to the first content to a server connected to at least one application in response to user input.
  • the first content may be displayed on the first area 511 and may include static images (eg, photo content) and dynamic images (eg, video content).
  • data transmitted to a server connected to at least one application may include second content created by applying a user input or filter effect to the first content.
  • data transmitted to a server connected to at least one application may include first content before conversion.
  • the first content can be converted into second content through a conversion process on a server connected to at least one application, and can be immediately uploaded on the server after creation.
  • the second content generated thereafter may be stored in the memory 540 of the electronic device.
  • the electronic device 500 may include a flexible display 560, a processor 530, a memory 540, and a sensor module 550, and some of the illustrated components may be omitted or replaced. there is.
  • the electronic device 500 may include at least some of the configuration and/or functions of the electronic device 101 of FIG. 1 .
  • the electronic device 500 may include the structures of FIGS. 2A, 2B, 3A, and 3B.
  • the flexible display 560 may include a main display area and at least one extended display area.
  • the flexible display 560 may include at least one extended display area that can be expanded from the main display area in at least one of the up, down, left, and right directions. For example, when the display 530 is in the retracted state, only the main display area is exposed to the outside and outputs a screen, and the extended display area that is accommodated inside the housing and is not exposed to the outside may be in a deactivated state and not output the screen. .
  • the flexible display 560 is pulled out, at least a part of the extended display area is exposed to the outside, and at least a part of the exposed extended display area can be switched to an activated state to output a screen.
  • the expandable flexible display 560 has been previously described with reference to FIGS. 2A to 2B and 3A to 3B, but are not limited thereto.
  • an application execution screen may be displayed on the entire flexible display 560.
  • the width of the first area 511 may include the first length.
  • the first area 511 When the flexible display 560 is expanded, the first length based on the left side of the expanded display will be referred to as the first area 511, and the remaining area will be referred to as the second area 512.
  • the electronic device 500 uses a sensor module (e.g., the sensor module of FIG. 1) to determine the degree to which the flexible display 560 has been reduced or expanded. 176)) may be included.
  • the sensor module 550 may include, for example, at least one of a contact sensor such as a touch sensor, an infrared ray (IR) sensor, a time of flight (TF) sensor, a non-contact sensor, and a magnetic force sensor.
  • Non-contact sensors can use electromagnetic induction, capacitive, or resistive methods.
  • the electronic device 500 can determine the expansion/contraction of the flexible display 560 and its extent using the sensor measurement value measured using the sensor module 550.
  • Sensor measurement values may include errors due to component mounting, errors due to physical characteristics, and/or errors due to changes in the external environment caused by the user. Due to these errors, the size of the physical display derived using sensor measurements may not match the size of the actual physical display.
  • the memory 540 may include known volatile memory and non-volatile memory, and is not limited to specific implementation examples. Memory 540 may include at least some of the configuration and/or functions of memory 130 of FIG. 1 . Additionally, the memory 540 may store at least a portion of the program 140 of FIG. 1 .
  • the memory 540 is functionally, operatively, and/or electrically connected to the processor 530 and can store various instructions that can be executed by the processor 530. there is. These instructions may include various control instructions including arithmetic and logical operations, data movement, and input/output that can be recognized by the processor 530.
  • the processor 530 is a component capable of performing operations or data processing related to control and/or communication of each component of the electronic device 500, and includes the configuration of the processor 120 of FIG. 1 and /or may include at least some of the functions.
  • the processor 530 may be functionally, operatively, and/or electrically connected to internal components of the electronic device 500, including the first display 510, the second display 520, and the memory 540. .
  • processor 530 can implement within the electronic device 500, but in this document, the operation of editing and uploading the content being worked on to SNS when expanding the flexible display 560 is described. Various embodiments for processing will now be described. Operations of the processor 530, which will be described later, can be performed by loading instructions stored in the memory 540.
  • the processor 530 controls to display first content including at least one image in the first area 511 including a partial area of the flexible display 560 in response to a user input, , the flexible display is controlled to measure the length taken out from the housing using the sensor 550, and when the length of the flexible display 560 measured using the sensor 550 is a preset first length, the electronic device ( If it is determined that the 500 is not extended and the length of the flexible display 560 measured using the sensor 550 is a second length that is relatively longer than the first length, the electronic device 500 is in an extended state. It can be judged as follows.
  • the processor 530 displays the first content in the first area 511 when the electronic device 500 is in an expanded state, and the flexible display is pulled out from the housing (not shown) and visually exposed.
  • a user interface corresponding to at least one application and/or second content converted into a form corresponding to a function provided by at least one application in the second area 512, which includes a portion of the area 560. is controlled to display, and data corresponding to the first content can be transmitted to a server connected to at least one application in response to user input.
  • the sensor module 550 is the sensor module 176 of FIG. 1. ) may include some of the configuration and functions.
  • FIGS. 6A and 6B illustrate a situation in which an electronic device executes an optical character reading function based on a user's touch input and provides an interface containing related functions.
  • the electronic device displays a first display (e.g., the first display (e.g., the first display of FIG. 5a) under the control of a processor (e.g., the processor 530 of FIG. 5a). 510)), an image can be displayed on the screen.
  • the processor 530 may perform optical character recognition (OCR) on the image based on the user's input 610a for a specific area of the image.
  • OCR optical character recognition
  • the user's input 610a may include a touch input whose touch time is less than a certain level and a long press input whose touch time exceeds a certain level.
  • the description is made assuming a situation in which the user applies a long press input, and in FIG. 6B, the description assumes a situation in which the user applies a touch input.
  • the type of user input may not be limited to this. there is.
  • optical character recognition may refer to a technology that uses light to convert text on an image into a text format (e.g., electrical signal) that can be recognized on an electronic device.
  • the processor 530 may determine a region of interest (ROI) on the image based on the user input 610a.
  • the processor 530 may determine texts located within a certain distance from the determined area of interest and provide the user with an interface 620a through which operations related to the texts may be performed.
  • the processor 530 may determine the text 615a to be provided to the user based on the location where the user input 610a was applied.
  • the processor 530 may provide the user with an interface 620a that can execute operations related to the texts based on the contents of the determined text 615a.
  • Processor 530 may provide an interface related to email to the user based on the content of text 615a including an email address.
  • the processor 530 includes at least one of an icon for executing an email application, an icon for copying an email address, an icon for sharing an email address, and an icon for dragging all email addresses.
  • An interface can be provided. The processor 530 may execute related functions based on user input on the interface and display them along with the running application.
  • processor 530 may perform optical character reading on the image based on user input 610b for a particular icon 612b.
  • the processor 530 can recognize texts on images and provide the user with an interface 620b that can execute operations related to the texts.
  • the processor 530 may determine the text 615a to be provided to the user based on the location where the user input is applied on the image.
  • the user input may be distinguished from the user input 610b for a specific icon 612b.
  • the processor 530 may provide the user with an interface 620a that can execute operations related to the texts based on the contents of the determined text 615a.
  • the processor 530 may perform optical character reading based on a user input 610a (eg, a long press input) on an image and determine a region of interest based on the location of the user input 610a.
  • a user input 610a eg, a long press input
  • the processor 530 may perform optical character reading based on the user input 610b (eg, touch input) on the image and determine the region of interest through a separate user input.
  • the processor 530 may provide the user with an interface 620a that can execute operations related to the texts based on the contents of the determined text 615a.
  • the processor 530 may provide the user with an interface related to a specific word based on whether the content of the text 615a includes the specific word (eg, a specific trademark).
  • the processor 530 includes at least one of an icon for searching a specific word, an icon for copying a specific word, an icon for sharing a specific word, and an icon for dragging a specific word.
  • An interface can be provided.
  • the processor 530 may execute related functions based on user input on the interface and display them along with the running application.
  • the processor 530 extracts all text in the image and then displays a specific icon 612b to the user.
  • the processor 530 may display the results of optical character reading for the image on the display based on the user input 610b for the specific icon 612b.
  • the processor 530 can extract all text in the image before the user input 610b for a specific icon 612b and quickly provide the optical character reading execution result to the user in response to the user input.
  • resource waste may occur if the user does not execute the optical character reading function.
  • the processor 530 performs optical character reading even when there is no text that can be extracted from the image, resource waste may occur.
  • the electronic device 500 may detect in advance only the presence of text before executing optical character reading and text extraction for a specific image.
  • the processor 530 may display a specific icon 612b based on the presence of text on a specific image displayed on the display.
  • the processor 530 may not display the specific icon 612b based on the fact that text does not exist on the specific image displayed on the display.
  • the processor 530 may perform text extraction on the image based on the user input 610b for a specific icon 612b.
  • the processor 530 executes text extraction only when there is a user input 610b, thereby preventing resource waste.
  • the processor 530 may display a specific icon 612b based on the presence of text in a specific image to provide the user with information that text that can be extracted exists.
  • FIGS. 6C and 6D illustrate a situation in which an electronic device stores recognized text and prevents duplicate extraction.
  • the processor 530 may extract a plurality of texts including the specific text 615c based on a user input for a specific image.
  • the processor 530 can display a plurality of recognized texts to the user.
  • the processor 530 may store data in at least one of memory 540, a storage medium, or a cache.
  • the processor 530 may determine whether there are texts previously extracted from a specific image based on a user input for the specific image.
  • the processor 530 may extract new text based on the fact that there are no previously extracted texts on the specific image to which the user inputted.
  • the processor 530 may load pre-extracted texts stored in the memory 540 based on the presence of pre-extracted texts in a specific image to which a user's input has been applied.
  • the processor 530 can load texts already extracted from the memory 540 and display them to the user without a separate text extraction process.
  • the processor 530 can load pre-extracted texts on the memory 540 without a separate text extraction process, thereby reducing the time required for text extraction and saving the resources of the processor 530.
  • FIGS. 7A and 7B illustrate a situation in which an electronic device executes an optical character reading function and related functions based on a user's touch input.
  • the electronic device displays a first display (e.g., the first display (e.g., the first display of FIG. 5a) under the control of a processor (e.g., the processor 530 of FIG. 5a).
  • the image 701 can be displayed on 510)).
  • the processor 530 may perform optical character recognition (OCR) on the image based on the user's input 710a for a specific area of the image.
  • OCR optical character recognition
  • the processor 530 may determine a region of interest (ROI) on the image based on the user input 710a.
  • the processor 530 may determine texts located within a certain distance from the determined area of interest and provide the user with an interface for executing operations related to the texts. For example, the processor 530 may determine the text 715a to be provided to the user based on the location where the user input 710a was applied. For example, the processor 530 may provide a function related to an address based on determining that the text 715a to be provided to the user includes an address.
  • ROI region of interest
  • the processor 530 has at least one of an icon 720a for executing a map application, an icon for copying text related to an address, an icon for sharing text related to an address, and an icon for dragging text related to an address.
  • An interface containing either one can be provided.
  • the processor 530 may detect a touch input on the icon 720a capable of executing a map application and execute the map application.
  • the processor 530 may display a running application (eg, a gallery application containing images) and a map application together. In Figure 7a, only a map application is displayed to the user based on the user's selection (702), but the method of displaying a new application is not limited to this.
  • the processor 530 may display the application being executed and the map application in a multi-window based on a touch input on the icon 720a capable of executing the map application.
  • the processor 530 displays the application being executed on a first area (e.g., first area 511 in FIG.
  • the electronic device 500 of FIG. 5A assumes a foldable device whose screen can be folded in half, but is not limited thereto.
  • the processor 530 can display a plurality of applications by dividing the area into a slideable device like the electronic device 500 of FIG. 5B.
  • the processor 530 can display a plurality of applications by dividing the screen even in a device with a single display that is not foldable or slideable, such as the electronic device 101 of FIG. 1.
  • the electronic device 500 according to various embodiments can provide the user with a desired function without switching applications and can provide a seamless user experience.
  • the processor 530 may determine a region of interest (ROI) on the image based on the user input 710b.
  • the processor 530 may determine texts located within a certain distance from the determined area of interest and provide the user with an interface for executing operations related to the texts. For example, the processor 530 may determine the text 715b to be provided to the user based on the location where the user input 710b was applied. For example, the processor 530 may provide an address-related function based on determining that the text 715b to be provided to the user includes a phone number.
  • the processor 530 includes an icon 720a for executing a phone application, an icon for copying text indicating a phone number, an icon for sharing text indicating a phone number, and an icon for dragging text indicating a phone number.
  • An interface can be provided that includes at least one of the icons that can be used.
  • the processor 530 may detect a touch input on the icon 720b capable of executing a phone application and execute the phone application.
  • the processor 530 may display a running application (eg, a gallery application containing an image) and a phone application together.
  • a running application eg, a gallery application containing an image
  • phone applications are displayed to the user based on the user's selection (703), but the method of displaying new applications is not limited to this.
  • FIG. 7C illustrates a situation in which the electronic device 500 executes a plurality of applications in multi-window according to various embodiments.
  • the processor 530 may simultaneously provide multiple applications to the user as multi-windows.
  • the plurality of applications displayed in FIG. 7C may include applications executed by the user in FIGS. 7A and 7B.
  • the processor 530 displays an application including an image on the first area 511 (701), and displays an execution screen of a map application in a multi-window on the second area 512 (702).
  • the execution screen of the phone application can be displayed (703).
  • the first area 511 and the second area 512 may be separated into left and right parts based on the z-axis.
  • the second area 512 may be divided into upper and lower parts based on the y-axis.
  • the number of applications or the number of multi-windows that can be displayed on the screen of the electronic device 500 may not be limited.
  • the size of the multi-window that can be displayed on the screen of the electronic device 500 may vary depending on the user's settings.
  • the processor 530 may adjust the size of the multi-windows based on user input for each multi-window.
  • the processor 530 may remove displayed multi-windows based on user input for each multi-window.
  • FIG. 8A illustrates a situation in which an electronic device extracts text based on user input according to various embodiments.
  • FIG. 8B illustrates a situation in which an electronic device enlarges or reduces an image based on a user input according to various embodiments.
  • FIG. 8C illustrates a situation in which an electronic device inputs an image and extracts text from the image to replace keyboard input, according to various embodiments.
  • the electronic device may detect a user input under the control of a processor (eg, the processor 530 of FIG. 5A ).
  • User input may include, for example, touch input and long press input. Touch input may refer to input in which the contact time between the display and the user's body is less than a certain level.
  • a long press input may mean that the contact time between the display and the user's body exceeds a certain level, and the pressure applied by the user's body on the display exceeds a certain level.
  • user input 810 may mean a long press input.
  • the processor 530 may determine the location of the user input 810 on the display using a sensor module (e.g., the sensor module 176 of FIG. 1).
  • the processor 530 may determine the location of the user input 810 using the sensor module 176. type can be determined.
  • the processor 530 may provide various user menus 815 including text extraction based on detection of a long press input on the screen of an application displayed on the display.
  • the processor 530 may control the extraction of text on an image based on detection of a long press input in a situation where the application displayed on the display is not configured to operate in response to the long press input.
  • FIG. 8A may represent a situation in which an operation corresponding to a long press input is set in an application displayed on the display.
  • the processor 530 may display a menu instructing text extraction along with a menu instructing a previously set operation.
  • the processor 530 may detect a user input 820 for a menu that directs text extraction on the user menu 815. Processor 530 may perform optical character reading on the image displayed on the display in response to detecting user input 820.
  • the electronic device 500 may provide a user menu 815 to provide a user experience that allows the user to read optical characters without running a separate application that performs optical character reading operations.
  • the processor 530 may determine a region of interest based on the location of the user input 810. When executing the optical character reading function, the processor 530 may provide functions related to recognized characters based on the region of interest. For example, the processor 530 may determine the largest character as priority within a certain distance around the area of interest. The processor 530 may recognize the content of the text determined by priority and provide functions related to the content. The processor 530 may provide an interface for executing a map application when the text indicates an address. The processor 530 may provide an interface for executing an Internet application when the text indicates a web address. The processor 530 may determine that characters that are farther than a certain level from the area of interest or that are smaller than a certain level in size should be given lower priority. The processor 530 may not display functions related to characters determined to be of lower priority unless there is a user input. The processor 530 can provide a user experience that allows the user to immediately execute the desired function by providing functions related to the text based on the area of interest.
  • FIG. 8B illustrates a situation in which an electronic device enlarges or reduces an image based on a user input according to various embodiments.
  • the processor 530 may separately display an area on the image where optical character reading is performed.
  • Processor 530 may enlarge or reduce the image within the area where optical character reading is performed based on user input.
  • the processor 530 may reduce the image within the area where optical character reading is performed based on the user input 801.
  • User input 801 may refer to an operation in which a touch input occurs at a first point and a second point, and then a drag input occurs at a point between the first point and the second point.
  • Processor 530 may enlarge the image within the area performing optical character reading based on user input 802 .
  • User input 802 may refer to an operation in which a touch input occurs at a first point and a second point, and then a drag input occurs in a direction moving away.
  • the processor 530 may provide a user experience that allows the user to quickly and easily input desired text by taking a photo in a text input situation.
  • the processor 530 supports enlarging and reducing images on the text selection screen to provide a user experience that allows the user to select small letters in detail.
  • the processor 530 can control the image quality so that it does not deteriorate even if the image is enlarged on the text selection screen.
  • the processor 530 may provide zoom in and zoom out functions on the camera function preview screen. The processor 530 can quickly support text input by executing optical character reading on the preview screen.
  • FIG. 8C illustrates a situation in which an electronic device inputs an image and extracts text from the image to replace keyboard input, according to various embodiments.
  • the processor 530 may provide an interface including a text extraction menu based on detecting the user's long press input in the text input box.
  • the processor 530 may provide a space 850 for inputting an image based on the user input 840 on the text extraction menu.
  • the space 850 for inputting an image may be separated from the text input field.
  • a text input box for entering an account number may be located in a first area (eg, first area 511 in FIG. 5A) on the display.
  • the space 850 where an image can be input may be located in the second area of the display (eg, the second area 512 in FIG. 5A).
  • the text input box for entering the account number may be located in the upper area of the display, and the space 850 for entering an image may be located in the lower area of the display.
  • the processor 530 may perform optical character reading on an image input by a user and display recognized text.
  • the processor 530 may select the first text 861 based on the user's touch input for at least the first text 861 among the recognized texts.
  • the processor 530 may copy the first text 861 based on the user input and output the first text 861 to the text input area (870).
  • the processor 530 may select the second text 862 based on the user's touch input for at least the second text 862 among the recognized texts.
  • the processor 530 may output (870) the second text 862 to the text input area based on the user input to the paste (865) menu.
  • the electronic device 500 may provide a user experience that allows users to quickly and easily input text by taking a photo in a text extraction and input situation. Additionally, in a text extraction and input situation, the electronic device 500 can reduce the selection of unnecessary information by displaying only text related to the input. For example, the electronic device 500 may display only numeric information to the user in response to a user input instructing to extract text from an account number input field. The electronic device 500 may display only a certain type of numeric information to the user in response to a user input instructing to extract text from a number input box of a contact application. The electronic device 500 may display to the user only information containing a certain type of character (e.g., @, com) in response to a user input instructing to extract text from an address input box of an email application.
  • a certain type of character e.g., @, com
  • Figure 9 sequentially shows a method of operating text-based content in an electronic device according to various embodiments.
  • the operations described with reference to FIG. 9 may be implemented based on instructions that can be stored in a computer recording medium or memory (eg, memory 130 in FIG. 1).
  • the illustrated method 900 can be executed by the electronic device previously described with reference to FIGS. 1 to 8C (e.g., the electronic device 500 of FIG. 5A), and technical features described above will be omitted below.
  • the order of each operation in FIG. 9 may be changed, some operations may be omitted, and some operations may be performed simultaneously.
  • a processor may receive status information of a running first application.
  • the first application may mean at least one of, for example, a camera, gallery, internet, screen capture, keyboard, or video application.
  • the processor 530 may check whether an image is included on the display screen of the first application.
  • the processor 530 may display an optical character reading screen for text recognition based on a touch input for a specific icon (eg, a text icon).
  • the processor 530 may highlight and display the recognized text after reading the optical character.
  • the processor 530 can copy the highlighted text or selected text based on user input or directly input it into another text input box.
  • the processor 530 may receive a user input event corresponding to a characteristic of the first application being executed. In one embodiment, the processor 530 may differently determine an operation corresponding to a received event based on characteristics of the first application being executed.
  • camera, screen capture, keyboard, and video applications may not have separate actions corresponding to long press input.
  • the processor 530 can immediately execute an optical character reading function when a user's long press input is detected based on the characteristics of these applications.
  • Processor 530 may execute an optical character reading function and extract text from the image.
  • an Internet application or a gallery application may include operations (eg, search, paste, copy, etc.) corresponding to long press input.
  • the processor 530 may provide an interface (eg, user menu 815 in FIG. 8A) including an optical character reading menu as the user's long press input is detected based on the characteristics of these applications.
  • the processor 530 may execute an optical character reading function based on user input on the interface and extract text from the image.
  • the type of the first application mentioned above is only an example, and the type and characteristics of the first application are not limited to this.
  • the processor 530 may extract and analyze meaningful entities from information displayed on the display based on a touch input for a specific icon (eg, a text icon).
  • a meaningful entity may mean at least one of an account number, URL link, phone number, address, area name, website address, email address, date, place, and time.
  • a meaningful entity may vary depending on the type of the first application being executed.
  • the processor 530 may support a plurality of operations based on characteristics of the first application. For example, the processor 530 may perform a magnification operation of an image based on a magnification input for a gallery application (eg, user input 802 in FIG. 8B). The processor 530 may not support the zoom operation for keyboard applications.
  • the processor 530 may determine a region of interest (ROI) based on the user's touch input and extract a meaningful entity within the region of interest.
  • a meaningful entity may mean at least one of an account number, URL link, phone number, address, area name, website address, email address, date, place, and time.
  • a meaningful entity may vary depending on the type of the first application being executed.
  • the processor 530 may extract meaningful entities based on a learning model learned with preset content. For example, the processor 530 may extract a phone number using a learning model that has learned the number of digits in a specific country's phone number. The learning model (not shown) may determine that the numeric information corresponding to a specific digit in the image is a phone number.
  • the processor 530 may provide an option to paste the extracted phone number into a text box on the first application based on confirmation that the running first application is a phone application. Alternatively, the processor 530 may confirm that the numeric information extracted from the text on the image is a phone number and provide the user with an icon or menu for executing a phone application. The processor 530 may execute a phone application with numerical information extracted based on a user input to an icon or menu that can execute the phone application. The processor 530 can run a phone application in multi-window to provide a seamless user experience without switching applications containing images (e.g., gallery, internet application).
  • images e.g., gallery, internet application
  • a learning model may receive an image and detect text areas within the image.
  • the learning model (not shown) can separate letters into specific units (e.g. blocks, lines) in the detected letter area.
  • the learning model (not shown) can distinguish whether the text in the input image is handwritten or printed.
  • the learning model (not shown) can confirm that the text in the input image is printed text and determine whether it is a recognizable language.
  • the learning model (not shown) displays recognized text and an interface (e.g. menu, icon) that can perform functions related to the text, based on determining that the text in the input image is printed text and a recognizable language. You can.
  • the learning model (not shown) can confirm that the text in the input image is handwritten and determine whether it is a recognizable language.
  • the learning model (not shown) displays recognized text and an interface (e.g. menu, icon) that can perform functions related to the text, based on determining that the text in the input image is handwritten and in a recognizable language. can do.
  • a learning model may use a deep neural network (DNN) to determine meaningful entities in recognized text.
  • DNN deep neural network
  • DNN can refer to an artificial intelligence technology created by stacking many hidden layers to learn complex data.
  • a hidden layer may refer to a node that cannot be directly accessed from outside the neural network.
  • the learning model uses a deep neural network (DNN) to create its own classification label and can determine the optimal dividing line by repeating the process of distorting space and dividing data.
  • the learning model (not shown) can convert the input text into an n-dimensional tensor to express it through convolution.
  • a tensor may refer to an array of data.
  • the learning model can convert text tensors into convolution form so that they can be placed in a neural network.
  • the learning model can create a new layer by extracting the maximum value from each convolution.
  • the learning model can output the convolutional layer as a dimensionally transformed vector to apply the softmax function.
  • the softmax function may refer to a function that normalizes input data to a value between 0 and 1, outputs it, and makes the total of the output values 1.
  • the learning model can estimate the probability for each class from the output vector using the softmax function.
  • a learning model can classify meaningful entities based on estimated probabilities.
  • the processor 530 can use a learning model to analyze the presence or absence of text and text content even in a situation where the input text is tilted at a certain angle.
  • the processor 530 may analyze the presence or absence of text and the content of the text in a situation where the text on the image is printed text and is tilted to the left by approximately 20 degrees.
  • the inclination angle of the text mentioned above is only an example, and the inclination of the text that the processor 530 can recognize is not limited to this.
  • the processor 530 may determine an action related to the extracted object based on the received user event input and display an icon corresponding to the related action.
  • the processor 530 can determine the information constituting the schedule for text in which time, place, schedule content, etc. are expressed in a distributed manner, and bundle it into one schedule and provide it. For example, the processor 530 may receive a message with the content “A review meeting is scheduled in the conference room at 10 o’clock on 10/27, so please attend” and determine the date, time, location, and schedule contents.
  • the processor 530 may provide an interface to the user to create a corresponding entity based on date, time, location, and schedule content and save it in the calendar.
  • Processor 530 may determine a message to be advertising text based on its inclusion of specific keywords.
  • the processor 530 may not provide the user with an icon or interface corresponding to a related action based on the message being determined to be an advertising phrase.
  • the processor 530 may determine them to be one entity. If an address exists in the message, the processor 530 can recognize it as one field rather than multiple fields even if there is a space between text representing the address. The processor 530 may confirm that the word bank is included in the message and recognize the number written in the message as a bank account number.
  • the mentioned message is only an example, and the content of the message is not limited to this.
  • processor 530 may map an open map action to an extracted entity.
  • Processor 530 may provide functions to open a map, search for a related place, reserve a place, or call a place based on the location being detected in the message.
  • the processor 530 may provide a function for storing contact information based on detection of a phone number in a message.
  • the processor 530 may provide a function to send a message to a phone number based on detection of a phone number in the message.
  • the processor 530 may provide a function to create an email based on detecting an email address in the message.
  • the processor 530 may provide a function to access the address through an Internet application based on the web address being detected in the message.
  • processor 530 may provide an interface that includes related functions.
  • the processor 530 may provide the corresponding function based on user input on the interface. This has been explained in FIGS. 6A to 8A.
  • the processor 530 may execute a related second application based on a touch input on the icon.
  • the processor 530 may execute an email application as shown in FIG. 6A.
  • the processor 530 can execute an Internet application as shown in FIG. 6B.
  • the processor 530 can execute a map application as shown in FIG. 7A.
  • the processor 530 can execute a phone application as shown in FIG. 7B.
  • the processor 530 can execute map and phone applications in multi-window as shown in FIG. 7C. This is only an example, and applications that the processor 530 can execute are not limited to this.
  • the processor 530 may display a first application displaying an image and a second application related to text extracted from the image together as a multi-window. When executing the second application, the processor 530 may automatically open a multi-window and display the second application execution screen in another window. The processor 530 can provide a convenient user experience by displaying the second application execution screen without terminating the first application.
  • the processor 530 can seamlessly display the execution screen of the second application on other windows.
  • the processor 530 may provide an interface (eg, an icon or menu) for opening the second application on the first application, thereby reducing the inconvenience of the user having to directly open the second application and check the execution result.
  • the form factor of an electronic device capable of executing multi-windows is not limited.
  • the foldable electronic device 500 of FIG. 5A displays the first application execution screen on the first area (e.g., the first area 511 of FIG. 5A) and displays the first application execution screen on the second area (e.g., the first area 511 of FIG. 5A).
  • the second application execution screen can be displayed on the second area 512 of FIG. 5A.
  • the electronic device 500 of FIG. 5B which has a slideable shape, displays the first application execution screen on the first area (e.g., the first area 511 of FIG. 5b) and displays the first application execution screen on the second area (e.g., the first area 511 of FIG. 5b).
  • a second application execution screen may be displayed on the second area 512. This has been explained in Figure 8c.
  • An electronic device with one display e.g., electronic device 101 in FIG. 1
  • a foldable electronic device in a folded state e.g., electronic device 500 in FIG. 5A
  • a slideable electronic device in an unexpanded state Example: The electronic device 500 of FIG. 5B may divide an area on the display and display the first application execution screen and the second application execution screen as multi-windows.
  • the processor 530 may display two applications as multi-windows based on the characteristics of the first application and the second application, or may turn off the first application screen and display only the second application screen. For example, when the first application is an email application related to the first address and the second application is an email application related to the second address, the processor 530 may display the second application screen instead of the first application screen. . Alternatively, the processor 530 may display the first application and the second application as multi-windows based on user settings even if they are the same.
  • An electronic device includes a housing, a flexible display in which at least a portion of the area is drawn out from the housing and the size of the visually exposed area can be varied, a sensor for measuring the length of the flexible display, a memory, and a processor. can do.
  • the processor displays an execution screen of the first application on the flexible display, executes an optical character reader (OCR) function based on user input on the execution screen of the first application, and executes an optical character reader (OCR) function on the execution screen of the first application.
  • OCR optical character reader
  • Recognize at least one text determine a region of interest based on the location of the user input on the execution screen of the first application, and determine a first text located within a certain distance from the region of interest among the recognized texts; , a first entity may be extracted from the first text, an associated operation may be determined based on the characteristics of the first entity, and a first interface corresponding to the associated operation may be displayed within a certain distance from the text. .
  • the processor displays a menu displaying the corresponding action and a menu displaying an optical character reading function based on confirmation that the action corresponding to the user input is preset on the execution screen of the first application, Based on the user's selection, at least one of a corresponding operation or optical character reading may be executed.
  • the processor may execute the second application based on a user input on the first interface.
  • the processor determines that the electronic device is in an extended state based on the length of the flexible display measured using a sensor exceeding a certain level, and displays an execution screen of the first application in the first area on the flexible display.
  • An execution screen of the second application may be displayed on a second area including a portion of the flexible display that is pulled out from the housing and visually exposed.
  • the processor determines that the electronic device is not extended based on the length of the flexible display measured using a sensor being less than a certain level, and displays an execution screen of the first application and a second application on the flexible display.
  • the application execution screen can be displayed as a multi-window.
  • the processor determines a second text from among the recognized texts based on the user input, extracts a second entity from the second text, and creates an associated text based on the characteristics of the second entity.
  • An action may be determined, and a second interface corresponding to the associated action may be displayed within a certain distance from the text.
  • the processor may execute a third application based on user input on the second interface.
  • the electronic device is determined to be in an extended state based on the length of the flexible display measured using a sensor exceeding a certain level, and an execution screen of the first application is displayed in a first area on the flexible display.
  • the execution screen of the second application and the execution screen of the third application may be displayed in a multi-window on the second area including a portion of the flexible display pulled out from the housing and visually exposed.
  • a method of operating text-based content in an electronic device includes displaying an execution screen of a first application on a display, and a user's long press exceeding a certain time on the execution screen of the first application.
  • Executing an optical character reader (OCR) function based on an input, recognizing at least one text on the execution screen of the first application, based on the location of the user input on the execution screen of the first application
  • OCR optical character reader
  • An operation of determining a region of interest determining a first text located within a certain distance from the region of interest among recognized texts, and extracting a first entity from the first text, and the first entity. It may include determining an associated operation based on the characteristics of the (entity) and displaying a first interface corresponding to the associated operation within a certain distance from the text.
  • the operation of executing an optical character reader (OCR) function based on a user's long press input that exceeds a certain time on the execution screen of the first application is performed by the first application.
  • the method of operating text-based content in an electronic device may further include executing a second application based on a user input on the first interface.
  • a method of operating text-based content in an electronic device displays an execution screen of a first application on a first area of the display and an execution screen of a second application on a second area of the display based on the electronic device being in an expanded state.
  • the method may further include displaying an execution screen, and displaying the execution screen of the first application and the execution screen of the second application as multi-windows on the display based on the fact that the electronic device is in an unexpanded state.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예들에 따른 전자 장치는 하우징, 메모리, 하우징의 제 1 면에 배치된 제 1 디스플레이 및 메모리와 작동적으로(operatively) 연결되는 프로세서를 포함할 수 있다. 프로세서는 제 1 디스플레이 상에 제 1 어플리케이션의 실행 화면을 표시하고, 제 1 어플리케이션의 실행 화면 상에서 사용자 입력에 기반하여 광학식 문자 판독(OCR, optical character reader)기능을 실행하고, 제 1 어플리케이션의 실행 화면 상에서 적어도 하나의 텍스트를 인식하며, 제 1 어플리케이션의 실행 화면 상의 사용자 입력의 위치에 기반하여 관심 영역(region of interest)을 결정하고 인식된 텍스트 중에서 관심 영역에서 일정 거리 내에 위치하는 제 1 텍스트를 결정하고, 제 1 텍스트 상에서 제 1 개체(entity)를 추출하고, 제 1 개체(entity)의 특성에 기반하여 연관된 동작을 결정하고, 연관된 동작에 대응하는 제 1 인터페이스를 텍스트로부터 일정 거리 내에 표시할 수 있다.

Description

전자 장치 및 전자 장치의 텍스트 기반 컨텐츠 운용 방법
본 문서는 전자 장치에 관한 것이며, 특히, 텍스트를 기반으로 의미 있는 개체(entity)를 인식하고, 개체와 관련된 연관 정보를 추가하거나, 개체와 관련된 컨텐츠를 실행하는 컨텐츠 운영 방법에 대한 것이다.
이동통신 및 하드웨어/소프트웨어 기술의 발달에 따라, 스마트폰으로 대표되는 휴대용 전자 장치(이하 전자 장치)는 진화를 거듭하여 다양한 기능들을 탑재할 수 있게 되었다. 전자 장치는 사용자가 다양한 기능들에 쉽게 액세스 할 수 있도록 터치 스크린 기반의 디스플레이를 포함하고, 디스플레이를 통해 다양한 어플리케이션의 화면을 제공할 수 있다.
최근에는 다양한 사용자 경험의 제공과 공간상의 효율을 만족하기 위해, 다양한 폼팩터(form factor)의 디스플레이를 갖는 전자 장치가 개발되고 있다. 예를 들어, 전자 장치는 슬라이더블(slidable), 롤러블(rollable) 또는 폴더블(foldable) 디스플레이와 같이, 확장 가능한 형태의 디스플레이를 탑재할 수 있다.
최근 사용자 디바이스는 광학식 문자 판독(OCR, optical character reader) 기능이 구비되고 있다. 상기 OCR 기능은 사용자 디바이스 등에서 데이터의 입력 작업을 간편화하기 위한 것으로, 사용자가 손으로 쓴 문자나 인쇄된 문자를 광학적으로 독해할 수 있는 기능을 나타낸다. 이러한 OCR 기능은 바코드(bar code)와는 달리 문자를 직접 입력할 수 있기 때문에 입력 작업을 더욱 간소화할 수 있다.
한편, 사용자는 사용자 디바이스에 저장되는 다양한 이미지 파일에서 OCR 기능을 통해 오브젝트(object)(예컨대, 텍스트 또는 문자)를 획득할 수 있다. 이때, 종래의 사용자 디바이스에서는 사용자가 OCR 인식을 원하는 이미지 파일에서 OCR 기능을 구동하여 오브젝트로 이루어진 OCR 데이터를 획득할 수 있다.
종래의 사용자 디바이스에서는 사용자가 이미지 파일에서 오브젝트를 획득하고자 할 시 매번 OCR 기능을 구동하여 인식 과정(예컨대, OCR 기능 실행 과정 -> 인식 과정 -> 변환 과정 -> 표시 과정)을 거쳐야 한다. 즉, 이전에 OCR 기능을 통해 인식한 이미지 파일에 대해 다시 OCR 데이터를 획득하고자 하는 경우에서도 OCR 인식 과정을 매번 반복해야 한다. 따라서 사용자는 동일한 이미지 파일에 대해서도 OCR 데이터를 획득하기 위한 여러 과정의 반복 수행 및 그에 따른 대기 시간을 매번 가져야 한다. 대기 시간은 OCR의 인식 시간에 비례하여 증가하게 됨에 따라 사용자에게 많은 불편함이 따를 수 있다.
예를 들어, 사용자가 텍스트 입력 모드에서 텍스트(text) 이외에, 사진, 연락처 등을 상대방 전자 장치로 전달하거나 연관 정보를 찾기 위해서는, 텍스트와는 별도로 전자 장치 내에서 특정 정보를 일일이 검색하거나, 별도로 입력해야 하는 동작을 수행해야 한다. 사용자가 다른 사람의 전화 번호를 다른 사람에게 전송해야 할 경우, 전자 장치 내에 등록된 다른 사람의 전화 번호를 검색하고, 검색 결과를 확인한 후에, 상대방에게 전달하는 번거로움을 느낄 수 있다. 또한, 사용자는 일정 또는 메모에 저장된 텍스트를 보다가 텍스트와 관련된 연관 정보 보기를 원할 경우, 연관된 정보를 보기 위한 동작을 단계적으로 실행해야 하는 번거로움을 느낄 수 있다.
다양한 실시예들에 따른 전자 장치는 하우징, 메모리, 하우징의 제 1 면에 배치된 제 1 디스플레이 및 메모리와 작동적으로(operatively) 연결되는 프로세서를 포함할 수 있다. 프로세서는 제 1 디스플레이 상에 제 1 어플리케이션의 실행 화면을 표시하고, 제 1 어플리케이션의 실행 화면 상에서 사용자 입력에 기반하여 광학식 문자 판독(OCR, optical character reader)기능을 실행하고, 제 1 어플리케이션의 실행 화면 상에서 적어도 하나의 텍스트를 인식하며, 제 1 어플리케이션의 실행 화면 상의 사용자 입력의 위치에 기반하여 관심 영역(region of interest)을 결정하고 인식된 텍스트 중에서 관심 영역에서 일정 거리 내에 위치하는 제 1 텍스트를 결정하고, 제 1 텍스트 상에서 제 1 개체(entity)를 추출하고, 제 1 개체(entity)의 특성에 기반하여 연관된 동작을 결정하고, 연관된 동작에 대응하는 제 1 인터페이스를 텍스트로부터 일정 거리 내에 표시할 수 있다.
다양한 실시예들에 따르면, 전자 장치의 텍스트 기반 컨텐츠 운용 방법은 디스플레이 상에 제 1 어플리케이션의 실행 화면을 표시하는 동작, 제 1 어플리케이션의 실행 화면 상에서 일정 시간을 초과하는 사용자의 롱 프레스(long press) 입력에 기반하여 광학식 문자 판독(OCR, optical character reader)기능을 실행하는 동작, 제 1 어플리케이션의 실행 화면 상에서 적어도 하나의 텍스트를 인식하는 동작, 제 1 어플리케이션의 실행 화면 상의 사용자 입력의 위치에 기반하여 관심 영역(region of interest)을 결정하는 동작, 인식된 텍스트 중에서 관심 영역에서 일정 거리 내에 위치하는 제 1 텍스트를 결정하고, 제 1 텍스트 상에서 제 1 개체(entity)를 추출하는 동작,및 제 1 개체(entity)의 특성에 기반하여 연관된 동작을 결정하고, 연관된 동작에 대응하는 제 1 인터페이스를 텍스트로부터 일정 거리 내에 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 전자 장치는 이미지 상에서 텍스트를 인식하고, 인식된 텍스트를 쉽게 입력할 수 있도록 제어할 수 있다. 전자 장치는 인식된 텍스트에 기반하여 관련 동작을 수행할 수 있는 인터페이스를 사용자에게 제공할 수 있다.
다양한 실시예에 따르면, 전자 장치는 텍스트 입력 상황에서, 사진 또는 이미지를 캡쳐하여 원하는 텍스트를 빠르고 쉽게 입력하는 기능을 제공할 수 있다.
다양한 실시예에 따르면, 전자 장치는 별도의 OCR 어플리케이션을 구동하지 않고, 사용자에게 제공되는 화면 내 이미지 상에서 바로 OCR기능을 제공하여 텍스트를 추출하여 사용자에게 제공할 수 있다.
다양한 실시예에 따르면, 전자 장치는 별도의 어플리케이션 전환 없이, 실행중인 어플리케이션 화면 상에서, 심리스(seamless)하게 이미지 상의 텍스트를 인식하고, 인식된 텍스트를 활용할 수 있도록 사용자 경험을 제공할 수 있다.
다양한 실시예에 따르면, 전자 장치는 전자 장치 내에서, 이미지 상의 텍스트 추출 및 추출된 텍스트와 관련된 동작을 추천하여 별도의 서버를 사용하는 경우와 비교해 사용자의 개인 정보를 보호할 수 있다.
도 1은 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2a는 다양한 실시예에 따른 닫힌 상태(closed state)의 전자 장치에 관한 전면 사시도이다. 도 2b는 다양한 실시예에 따른 닫힌 상태의 전자 장치에 관한 후면 사시도이다.
도 3a는 다양한 실시예에 따른 열린 상태(open state)의 전자 장치에 관한 전면 사시도이다. 도 3b는 다양한 실시예에 따른 열린 상태의 전자 장치에 관한 후면 사시도이다.
도 4a 내지 4f는 다양한 실시예에 따른 전자 장치에서 폴딩(folding) 또는 언폴딩(unfolding) 동작 시의 사용 상태를 도시한 도면들이다.
도 5a 및 도 5b 는 다양한 실시예에 따른 전자 장치의 블록도이다.
도 6a 및 도 6b는 전자 장치가 사용자의 터치 입력에 기반하여 광학 문자 판독 기능을 실행하고 관련 기능이 포함된 인터페이스를 제공하는 상황을 도시한 것이다.
도 6c 및 도 6d는 전자 장치가 인식된 텍스트를 저장하고, 중복하여 추출하는 것을 방지하는 상황을 도시한 것이다.
도 7a 및 도 7b는 전자 장치가 사용자의 터치 입력에 기반하여 광학 문자 판독 기능을 실행하고 관련 기능을 실행하는 상황을 도시한 것이다. 도 7c는 다양한 실시예들에 따른 전자 장치가 복수의 어플리케이션들을 멀티 윈도우로 실행하는 상황을 도시한 것이다.
도 8a는 다양한 실시예들에 따른 전자 장치가 사용자 입력에 기반하여 텍스트를 추출하는 상황을 도시한 것이다. 도 8b는 다양한 실시예들에 따른 전자 장치가 사용자 입력에 기반하여 이미지를 확대하거나 축소하는 상황을 도시한 것이다. 도 8c는 다양한 실시예들에 따른 전자 장치가 이미지를 입력하고 이미지 상에서 텍스트를 추출하여 키보드 입력을 대신하는 상황을 도시한 것이다.
도 9는 다양한 실시예들에 따른 전자 장치의 텍스트 기반 콘텐츠 운용 방법을 순서대로 나타낸 것이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2a는 다양한 실시예에 따른 닫힌 상태(closed state)의 전자 장치(200)에 관한 전면 사시도이다. 도 2b는 다양한 실시예에 따른 닫힌 상태의 전자 장치(200)에 관한 후면 사시도이다. 도 3a는 다양한 실시예에 따른 열린 상태(open state)의 전자 장치(200)에 관한 전면 사시도이다. 도 3b는 다양한 실시예에 따른 열린 상태의 전자 장치(200)에 관한 후면 사시도이다. 일 실시예에 따르면, 도 2a의 전자 장치(200)는 도 1의 전자 장치(101)를 포함할 수 있다. 일 실시예에 따르면, 도 2a 및 2b는 화면(2301)이 확장되지 않은 상태의 전자 장치(200)를 도시한다. 일 실시예에 따르면, 도 3a 및 3b는 화면(2301)이 확장된 상태의 전자 장치(200)를 도시한다.
도 2a, 2b, 3a, 및 3b를 참조하면, 다양한 실시예에 따르면, 전자 장치(200)는 슬라이딩 방식으로 화면(2301)을 확장시킬 수 있도록 구현될 수 있다. 일 실시예에 따르면, 화면(2301)은 플렉서블 디스플레이(230) 중 외부로 보여지고 있는 영역을 포함할 수 있다. 일 실시예에 따르면, 화면(2301)이 확장되지 않은 상태는 디스플레이(230)의 슬라이딩 운동(sliding motion)을 위한 슬라이딩 플레이트(220)가 슬라이드 아웃(slide-out)되지 않은 상태로서 이하 '닫힌 상태'로 지칭될 수 있다. 일 실시예에 따르면, 화면(2301)이 확장된 상태는 슬라이딩 플레이트(220)의 슬라이드 아웃에 의해 화면(2301)이 더 이상 확장되지 않는 최대로 확장된 상태로서 이하 '열린 상태'로 지칭될 수 있다. 예를 들어, 슬라이드 아웃은 전자 장치(200)가 닫힌 상태에서 열린 상태로 전환될 때 슬라이딩 플레이트(220)가 제 1 방향(예: +x 축 방향)으로 적어도 일부 이동되는 일련의 동작을 포함할 수 있다. 예를 들어, 열린 상태는 닫힌 상태와 비교하여 화면(2301)이 확장된 상태로서 정의될 수 있고, 슬라이딩 플레이트(220)의 이동 위치에 따라 다양한 사이즈의 화면이 제공될 수 있다. 예를 들어, 중간 상태(intermediated state)는 도 2a의 닫힌 상태 및 도 3a의 열린 상태 사이의 상태를 포함할 수 있다. 일 실시예에 따르면, 화면(2301)은 시각적으로 노출되어 이미지를 출력 가능하게 하는 플렉서블 디스플레이(230)의 액티브 영역(active area)(예: 디스플레이 영역)을 포함할 수 있다. 예를 들어, 디스플레이(230)의 액티브 영역은 슬라이딩 플레이트(220)의 이동 또는 플렉서블 디스플레이(230)의 이동에 기반하여 조절될 수 있다. 다양한 실시예에 따르면, 도 2a의 전자 장치(200)에 슬라이딩 운동 가능하게 배치되어 화면(2301)을 제공하는 플렉서블 디스플레이(230)는 슬라이드 아웃 디스플레이(slide-out display) 또는 익스펜더블 디스플레이(expandable display)'로 지칭될 수도 있다.
다양한 실시예에 따르면, 전자 장치(200)는 플렉서블 디스플레이(230)와 관련된 슬라이딩 구조를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 외력에 의해 플렉서블 디스플레이(230)가 기 설정된 거리만큼 이동된 경우, 슬라이딩 구조에 포함된 탄력 구조로 인해, 추가적인 외력 없이도 닫힌 상태에서 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환될 수 있다. (예: 반자동 슬라이드 동작).
다양한 실시예에 따르면, 전자 장치(200)는 전자 장치(200)에 포함된 입력 장치를 통해 수신한 신호에 기반하여 플렉서블 디스플레이(230)와 연결된 모터와 같은 구동 장치로 인해 닫힌 상태에서 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 하드웨어 버튼, 또는 화면을 통해 제공되는 소프트웨어 버튼에 의한 입력 신호가 감지되는 경우, 닫힌 상태에서 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환될 수 있다.
다양한 실시예에 따르면, 전자 장치(200)는 압력 센서와 같은 다양한 센서를 통해 감지된 신호에 기반하여 닫힌 상태에서 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환될 수 있다. 일 실시예에 따르면, 전자 장치(200)는 적어도 하나의 센서를 통해, 사용자가 전자 장치(200)를 손으로 파지할 때 손의 일부(예: 손 바닥 또는 손가락)가 전자 장치(200)의 지정된 구간을 가압하여 발생되는 스퀴즈 제스처(squeeze gesture)를 감지할 수 있다. 전자 장치(200)는 적어도 하나의 센서를 통해 획득한 스퀴즈 제스쳐에 기반하여 닫힌 상태에서 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환될 수 있다.
다양한 실시예에 따르면, 플렉서블 디스플레이(230)는 제 2 구간(도 3a 참조)을 포함할 수 있다. 일 실시예에 따르면, 제 2 구간은 전자 장치(200)가 닫힌 상태에서 열린 상태로 전환될 때 화면(2301)의 확장되는 부분을 포함할 수 있다. 예를 들어, 제 2 구간은 전자 장치(200)가 닫힌 상태에서 열린 상태로 전환되는 경우, 전자 장치(200)의 내부 공간으로부터 미끄러지듯 인출될 수 있다. 이에 따라, 화면(2301)은 확장될 수 있다. 일 실시예에 따르면, 제 2 구간은 전자 장치(200)가 열린 상태에서 닫힌 상태로 전환되는 경우, 적어도 일부가 전자 장치(200)의 내부 공간으로 미끄러지듯 인입될 수 있다. 이에 따라, 화면(2301)은 축소될 수 있다.
일 실시예에 따르면, 제 2 구간은 전자 장치(200)가 열린 상태에서 닫힌 상태로 전환되는 경우, 적어도 일부가 휘어지면서 전자 장치(200)의 내부 공간으로 이동될 수 있다. 예를 들어, 플렉서블 디스플레이(230)는 폴리이미드(PI(polyimide)), 또는 폴리에스터(PET(polyester))를 포함하는 폴리머 소재로 형성된 유연한 기판(예: 플라스틱 기판)을 포함할 수 있다. 예를 들어, 제 2 구간은 전자 장치(200)가 열린 상태 및 닫힌 상태 사이를 전환할 때 플렉서블 디스플레이(230)에서 휘어지는 부분으로서, 벤더블 구간(bendable section)으로 지칭될 수도 있다.
다양한 실시예에 따르면, 전자 장치(200)는 하우징(210), 슬라이딩 플레이트(220), 또는 플렉서블 디스플레이(230)를 포함할 수 있다.
일 실시예에 따르면, 하우징(또는, 케이스(case))(210)은 후면 커버(back cover)(212), 제 1 측면 커버(side cover)(213), 또는 제 2 측면 커버(214)를 포함할 수 있다. 후면 커버(212), 제 1 측면 커버(213), 또는 제 2 측면 커버(214)는 전자 장치(200)의 내부에 위치된 지지 부재(미도시)에 연결될 수 있고, 전자 장치(200)의 외관을 적어도 일부 형성할 수 있다.
일 실시예에 따르면, 후면 커버(212)는 전자 장치(200)의 후면(200B)을 적어도 일부 형성할 수 있다. 예를 들어, 후면 커버(212)는 실질적으로 불투명할 수 있다. 예를 들어, 후면 커버(212)는 코팅 또는 착색된 유리, 세라믹, 폴리머, 금속(예: 알루미늄, 스테인레스 스틸(STS), 또는 마그네슘), 또는 상기 물질들 중 적어도 둘의 조합에 의해 형성될 수 있다. 일 실시예에 따르면, 제 2 구간의 적어도 일부는, 플렉서블 디스플레이(230)의 제 2 구간이 하우징(210)의 내부 공간에 인입된 상태(예: 닫힌 상태)에서, 후면 커버(212)를 통해 외부로부터 보일 수 있게 배치될 수도 있다. 이 경우, 후면 커버(212)는 투명 소재 및/또는 반투명 소재로 형성될 수 있다.
일 실시예에 따르면, 후면 커버(212)는 평면부(212a), 및 평면부(212a)를 사이에 두고 서로 반대 편에 위치된 곡면부들(212b, 212c)을 포함할 수 있다. 예를 들어, 곡면부들(212b, 212c)은 후면 커버(212)의 양쪽 상대적으로 긴 에지들(미도시)에 각각 인접하여 형성되고, 후면 커버(212)와는 반대 편에 위치된 화면 쪽으로 휘어져 심리스하게 연장될 수 있다. 일 실시예에 따르면, 후면 커버(212)는 곡면부들(212b, 212c) 중 하나를 포함하거나 곡면부들(212b, 212c) 없이 구현될 수도 있다.
일 실시예에 따르면, 제 1 측면 커버(213) 및 제 2 측면 커버(214)는 서로 반대 편에 위치할 수 있다. 예를 들어, 제 1 측면 커버(213) 및 제 2 측면 커버(214)는 슬라이딩 플레이트(220)의 슬라이드 아웃의 제 1 방향(예: +x 축 방향)과는 직교하는 제 2 방향(예: y 축 방향)으로 플렉서블 디스플레이(230)를 사이에 두고 서로 반대 편에 위치할 수 있다. 일예로, 제 1 측면 커버(213)는 전자 장치(200)의 제 1 측면(213a)의 적어도 일부를 형성할 수 있다. 일예로, 제 2 측면 커버(214)는 제 1 측면(213a)과는 반대 방향으로 향하는 전자 장치(200)의 제 2 측면(214a)의 적어도 일부를 형성할 수 있다. 예를 들어, 제 1 측면 커버(213)는 제 1 측면(213a)의 에지로부터 연장된 제 1 테두리부(또는, 제 1 림(rim))(213b)를 포함할 수 있다. 일예로, 제 1 테두리부(213b)는 전자 장치(200)의 일측 베젤(bezel)을 적어도 일부 형성할 수 있다. 예를 들어, 제 2 측면 커버(214)는 제 2 측면(214a)의 에지로부터 연장된 제 2 테두리부(또는, 제 2 림)(214b)를 포함할 수 있다. 일예로, 제 2 테두리부(214b)는 전자 장치(200)의 타측 베젤을 적어도 일부 형성할 수 있다.
다양한 실시예에 따르면, 제 1 테두리부(213b)의 표면, 제 2 테두리부(214b)의 표면, 및 슬라이딩 플레이트(220)의 표면은 도 2a의 닫힌 상태에서 매끄럽게 연결되어, 화면(2301)의 제 1 곡면부(230b) 쪽에 대응하는 일측 곡면부(미도시)를 형성할 수 있다. 일 실시예에 따르면, 제 1 테두리부(213b)의 표면 또는 제 2 테두리부(214b)의 표면은 제 1 곡면부(230b)와는 반대 편에 위치된 화면(2301)의 제 2 곡면부(230c) 쪽에 대응하는 타측 곡면부(미도시)를 포함할 수 있다.
다양한 실시예에 따르면, 슬라이딩 플레이트(220)는 전자 장치(200)의 내부에 위치된 지지 부재(미도시) 상에서 슬라이딩 운동을 할 수 있다. 일 실시예에 따르면, 플렉서블 디스플레이(230)의 적어도 일부는 슬라이딩 플레이트(220)에 배치될 수 있다. 예를 들어, 도 2a의 닫힌 상태 또는 도 3a의 열린 상태는 전자 장치(200)의 내부에 위치된 지지 부재 상에서의 슬라이딩 플레이트(220)의 위치에 기초하여 형성될 수 있다. 일 실시예에 따르면, 플렉서블 디스플레이(230)는 접착 부재(또는 점착 부재)(미도시)를 통해 슬라이딩 플레이트(120)에 부착될 수 있다. 예를 들어, 접착 부재는 열반응 접착 부재, 광반응 접착 부재, 일반 접착제 및/또는 양면 테이프를 포함할 수 있다. 일 실시예에 따르면, 플렉서블 디스플레이(230)는 슬라이딩 플레이트(220)에 형성된 리세스(recess)에 슬라이딩 방식으로 삽입되어 슬라이딩 플레이트(220)에 배치 및 고정될 수 있다. 일예로, 슬라이딩 플레이트(230)는 플렉서블 디스플레이(230)의 적어도 일부를 지지하는 역할을 할 수 있다. 일예로, 슬라이딩 플레이트(230)는 디스플레이 지지 구조로 지칭될 수도 있다.
다양한 실시예에 따르면, 슬라이딩 플레이트(220)는 전자 장치(200)의 외면(예: 외부로 노출되어 전자 장치(200)의 외관을 형성하는 면)을 형성하는 제 3 테두리부(220b)를 포함할 수 있다. 일 실시예에 따르면, 제 3 테두리부(220b)는 도 2a의 닫힌 상태에서 제 1 테두리부(213b) 및 제 2 테두리부(214b)와 함께 화면(2301) 주변의 베젤을 형성할 수 있다. 일 실시예에 따르면, 제 3 테두리부(220b)는 도 2a의 닫힌 상태에서 제 1 측면 커버(213)의 일단부 및 제 2 측면 커버(214)의 일단부를 연결하도록 제 2 방향(예: y 축 방향)으로 연장될 수 있다. 예를 들어, 제 3 테두리부(220b)의 표면은 도 2a의 닫힌 상태에서 제 1 테두리부(213b)의 표면 및/또는 제 2 테두리부(214b)의 표면과 매끄럽게 연결될 수 있다.
다양한 실시예에 따르면, 제 2 구간의 적어도 일부는 슬라이딩 플레이트(220)의 슬라이드 아웃으로 인해, 전자 장치(200)의 내부로부터 인출되면서 도 3a과 같이 화면(2301)의 확장된 상태(예: 열린 상태)를 제공할 수 있다.
다양한 실시예에 따르면, 화면(2301)은 도 2a의 닫힌 상태에서, 평면부(230a), 및 평면부(230a)를 사이에 두고 서로 반대 편에 위치된 제 1 곡면부(230b) 및/또는 제 2 곡면부(230c)를 포함할 수 있다. 일 실시예에 따르면, 제 1 곡면부(230b) 및 제 2 곡면부(230c)는 평면부(230a)를 사이에 두고 실질적으로 대칭(symmetrical)일 수 있다. 예를 들어, 제 1 곡면부(230b) 및/또는 제 2 곡면부(230c)는 도 2a의 닫힌 상태에서, 후면 커버(212)의 곡면부들(212b, 212c)과 각각 대응하여 위치될 수 있고, 후면 커버(212) 쪽으로 휘어진 형태일 수 있다. 예를 들어, 평면부(230a)는 도 2a의 닫힌 상태에서 도 3a의 열린 상태로 전환되는 경우, 확장될 수 있다. 예를 들어, 도 2a의 닫힌 상태에서 제 2 곡면부(230c)를 형성하는 제 2 구간의 일부 영역은, 도 2a의 닫힌 상태에서 도 3a의 열린 상태로 전환될 때 확장된 평면부(230a)에 포함되며 제 2 구간의 다른 영역으로 형성될 수 있다.
다양한 실시예에 따르면, 전자 장치(200)는, 제 2 구간의 인입 또는 인출을 위한 오프닝(미도시), 및/또는 오프닝에 위치된 풀리(pulley)(미도시)를 포함할 수 있다. 일 실시예에 따르면, 풀리는 제 2 구간에 대응하여 위치될 수 있고, 도 2a의 닫힌 상태 및 도 3a의 열린 상태 사이의 전환에서 풀리의 회전을 통해 제 2 구간의 이동 및 그 이동 방향이 안내될 수 있다. 일 실시예에 따르면, 제 1 곡면부(230b)는 슬라이딩 플레이트(220)의 일면에 형성된 곡면에 대응하여 형성될 수 있다. 일 실시예에 따르면, 제 2 곡면부(230c)는 제 2 구간 중 풀리의 곡면에 대응하는 부분에 의해 형성될 수 있다. 예를 들어, 제 1 곡면부(230c)는 전자 장치(200)의 닫힌 상태 또는 열린 상태에서 제 2 곡면부(230b)의 반대 편에 위치되어 화면(2301)의 심미성을 향상시킬 수 있다. 일 실시예에 따르면, 전자 장치(200)는 제 1 곡면부(230b) 없이 평면부(230a)가 확장된 형태로 구현될 수도 있다.
다양한 실시예에 따르면, 플렉서블 디스플레이(230)는 터치 감지 회로(예: 터치 센서)를 더 포함할 수 있다. 일 실시예에 따르면(미도시), 플렉서블 디스플레이(230)는 터치의 세기(압력)를 측정할 수 있는 압력 센서, 및/또는 자기장 방식의 펜 입력 장치(예: 스타일러스 펜)를 검출하는 디지타이저와 결합되거나 인접하여 배치될 수 있다. 예를 들면, 디지타이저는 펜 입력 장치로부터 인가된 전자기 유도 방식의 공진 주파수를 검출할 수 있도록 유전체 기판상에 배치되는 코일 부재를 포함할 수 있다.
다양한 실시예에 따르면, 전자 장치(200)는 마이크 홀(251)(예: 도 1의 입력 모듈(150)), 스피커 홀(252)(예: 도 1의 음향 출력 모듈(155)), 커넥터 홀(253)(에: 도 1의 연결 단자(178)), 카메라 모듈(254)(예: 도 1의 카메라 모듈(180)), 또는 플래시(255)를 포함할 수 있다. 일 실시예에 따르면, 플래시(255)는 카메라 모듈(254)에 포함하여 구현될 수도 있다. 어떤 실시예에서, 전자 장치(200)는 구성 요소들 중 적어도 하나를 생략하거나 다른 구성 요소를 추가적으로 포함할 수 있다.
일 실시예에 따르면, 마이크 홀(251)은 전자 장치(200)의 내부에 위치된 마이크(미도시)에 대응하여 제 2 측면(214a)의 적어도 일부에 형성될 수 있다. 예를 들어, 마이크 홀(251)의 위치는 도 2a의 실시예에 국한되지 않고 다양할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 소리의 방향을 감지할 수 있는 복수의 마이크들을 포함할 수 있다.
일 실시예에 따르면, 스피커 홀(252)은 전자 장치(200)의 내부에 위치된 스피커에 대응하여 제 2 측면(214a)의 적어도 일부에 형성될 수 있다. 예를 들어, 스피커 홀(252)의 위치는 도 2a의 실시예에 국한되지 않고 다양할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 통화용 리시버 홀을 포함할 수 있다. 일 실시예에서는 마이크 홀(251) 및 스피커 홀(252)이 하나의 홀로 구현되거나, 피에조 스피커와 같이 스피커 홀(252)이 생략될 수 있다.
일 실시예에 따르면, 커넥터 홀(253)은 전자 장치(200)의 내부에 위치된 커넥터(예: USB 커넥터)에 대응하여 제 2 측면(214a)의 적어도 일부에 형성될 수 있다. 예를 들어, 전자 장치(200)는 커넥터 홀(253)을 통해 커넥터와 전기적으로 연결된 외부 전자 장치와 전력 및/또는 데이터를 송신 및/또는 수신할 수 있다. 일예로, 커넥터 홀(253)의 위치는 도 2a의 실시예에 국한되지 않고 다양할 수 있다.
일 실시예에 따르면, 카메라 모듈(254) 및 플래시(255)는 전자 장치(200)의 후면(200B)에 위치될 수 있다. 예를 들어, 카메라 모듈(154)은 하나 또는 복수의 렌즈들, 이미지 센서, 및/또는 이미지 시그널 프로세서를 포함할 수 있다. 예를 들어, 플래시(255)는 발광 다이오드 또는 제논 램프(xenon lamp)를 포함할 수 있다. 일 실시예에 따르면, 2개 이상의 렌즈들(적외선 카메라, 광각 및 망원 렌즈) 및 이미지 센서들이 전자 장치(200)의 한 면에 위치될 수 있다. 일 실시예에 따르면, 전자 장치(200)는 도 2b 또는 3b의 실시예에 국한되지 않고, 복수의 카메라 모듈들을 포함할 수 있다. 예를 들어, 카메라 모듈(254)은 복수의 카메라 모듈들 중 하나일 수 있다. 예를 들어, 전자 장치(200)는 각각 다른 속성(예: 화각) 또는 기능을 가진 복수의 카메라 모듈들(예: 듀얼 카메라, 또는 트리플 카메라)을 포함할 수 있다. 예를 들어, 전자 장치(200)는 서로 다른 화각을 갖는 렌즈를 포함하는 카메라 모듈(예: 카메라 모듈(254))을 복수 개 포함할 수 있다. 이 경우, 전자 장치(200)는 사용자의 선택에 기반하여, 전자 장치(200)에서 수행되는 카메라 모듈의 화각을 변경하도록 제어할 수 있다. 또한, 복수의 카메라 모듈들은, 광각 카메라, 망원 카메라, 컬러 카메라, 흑백(monochrome) 카메라, 또는 IR(infrared) 카메라(예: TOF(time of flight) camera, structured light camera) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, IR 카메라는 센서 모듈(미도시)의 적어도 일부로 동작될 수 있다.
다양한 실시예에 따르면(미도시), 전자 장치(200)는 화면(2301)이 향하는 방향으로 놓인 전자 장치(200)의 일면(예: 전면(200A))을 통해 광을 수신된 광을 기초로 이미지 신호를 생성하는 카메라 모듈(예: 전면 카메라)을 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(254)은, 도 2b 또는 3b의 실시예에 국한되지 않고, 플렉서블 디스플레이(230)에 형성된 오프닝(예: 관통 홀, 또는 노치(notch))과 정렬되어 하우징(210)의 내부에 위치될 수 있다. 예를 들어, 카메라 모듈(254)은 플렉서블 디스플레이(230)에 형성된 오프닝, 및 플렉서블 디스플레이(230)에 형성된 오프닝과 중첩된 투명 커버의 일부 영역을 통해 광을 수신하여 이미지 신호를 생성할 수 있다. 예를 들어, 투명 커버는 플렉서블 디스플레이(230)를 외부로부터 보호하는 역할을 하며, 폴리이미드 또는 울트라신글라스(UTG(ultra thin glass))와 같은 물질을 포함할 수 있다.
일 실시예에 따르면, 카메라 모듈(254)은 플렉서블 디스플레이(230)의 화면(2301)의 적어도 일부의 하단에 배치될 수 있고, 카메라 모듈(254)의 위치가 시각적으로 구별(또는 노출)되지 않고 관련 기능(예: 이미지 촬영)을 수행할 수 있다. 이 경우, 카메라 모듈(254)은 화면(2301)의 위에서 볼 때(예: -z 축 방향으로 볼 때), 화면(2301)의 적어도 일부에 중첩되게 배치되어, 외부로 노출되지 않으면서, 외부 피사체의 이미지를 획득할 수 있다.
다양한 실시예에 따르면(미도시), 전자 장치(200)는 키 입력 장치(예: 도 1의 입력 모듈(150))를 더 포함할 수 있다. 일 실시예에 따르면, 키 입력 장치는 제 1 측면 커버(213)에 의해 형성된 전자 장치(200)의 제 1 측면(213a)에 위치될 수 있다. 일 실시 예에 따르면(미도시), 키 입력 장치는 적어도 하나의 센서 모듈을 포함할 수 있다.
다양한 실시예에 따르면(미도시), 전자 장치(200)는 다양한 센서 모듈(예: 도 1의 센서 모듈(176))을 포함할 수 있다. 일 실시예에 따르면, 센서 모듈은 전자 장치(200)의 내부의 작동 상태, 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 예를 들어(미도시), 센서 모듈은 화면(2301)이 향하는 방향으로 놓인 전자 장치(200)의 전면(200A)을 통해 광을 수신된 광을 기초로 외부 물체의 근접에 관한 신호를 생성하는 근접 센서를 포함할 수 있다. 다른 예를 들어(미도시), 센서 모듈은 전자 장치(200)의 전면(200A) 또는 후면(200B)을 통해 수신된 광을 기초로 생체에 관한 정보를 검출하기 위한 지문 센서, 또는 HRM 센서와 같은 다양한 생체 센서를 포함할 수 있다. 예를 들어, 전자 장치(200)는 다양한 다른 센서 모듈로, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 전자 장치(200)는 도 2a, 2b, 3a, 및 3c의 실시예에 국한되지 않고, 슬라이딩 플레이트(220)의 슬라이드 아웃 시, 제 3 테두리부(220b) 쪽에서 화면이 확장되는 구조로 구현될 수도 있다. 예를 들어, 도 2a의 닫힌 상태에서 제 1 곡면부(230b)를 형성하는 플렉서블 디스플레이(230)의 일부 영역은, 도 2a의 닫힌 상태에서 도 3a의 열린 상태로 전환될 때 확장된 평면부(230a)에 포함되며, 플렉서블 디스플레이(230)의 다른 영역으로 형성될 수 있다.
도 4a 내지 4f는 다양한 실시예에 따른 전자 장치에서 폴딩(folding) 또는 언폴딩(unfolding) 동작 시의 사용 상태를 도시한 도면들이다.
다양한 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101))(400)는 폴더블 하우징(410), 제1디스플레이(430) 및 제2디스플레이를 포함할 수 있다.
다양한 실시예에 따르면, 전자 장치(400)는 접힘 가능한 폴더블 하우징(410)을 포함할 수 있다. 폴더블 하우징(410)은 힌지 구조에 의해 연결되는 제1하우징 구조(411) 및 제2하우징 구조(412)를 포함할 수 있다.
다양한 실시예에 따르면, 제2하우징 구조(412)는 제1하우징 구조(411)로부터 폴딩 가능하도록 연결될 수 있다. 제1하우징 구조(411)와 제2하우징 구조(412)는 제1방향으로 연장하는 폴딩 축(예: 도 2a의 폴딩축(A축))(420)을 중심으로 서로 폴딩 가능할 수 있다. 제1하우징 구조(411)와 제2하우징 구조(412)는 서로 폴딩된 상태에서 서로 마주보도록 배치될 수 있다.
도 4a를 참조하면, 제1하우징 구조(411) 및 제2하우징 구조(412) 사이의 이루는 각도는 약 180도일 수 있는데, 이와 같이 제1하우징 구조(411) 및 제2하우징 구조(412) 사이의 이루는 각도가 정해진 각도(예: 약 170도) 이상인 경우 전자 장치(또는 제1디스플레이(430))는 펼쳐진 상태라고 정의될 수 있다. 전자 장치(400)가 펼쳐진 상태인 경우, 제1하우징 구조(411)와 제2하우징 구조(412)는 실질적으로 평면 구조를 형성할 수 있다.
도 4b를 참조하면, 다양한 실시예에 따른 전자 장치(400)는 제2디스플레이 (440)를 더 포함할 수 있다.
도 4c는 본 발명의 다양한 실시예에 따른 전자 장치(400)가 폴딩 축(420)을 중심으로 반시계 방향으로 일부 접혀진 것을 도시한 도면이고, 도 4d는 본 발명의 다양한 실시예에 따른 전자 장치(400)가 폴딩 축(420)을 중심으로 최대로 접혀진 것을 도시한 도면이다.
도 4c 및 도 4d를 참조하면, 전자 장치(400)의 사용자는 전자 장치(400)에 힘을 인가하여 펼쳐진 상태인 전자 장치(400)를 폴딩 축(420)을 중심으로 접거나, 접혀진 상태인 전자 장치(400)를 폴딩 축(420)을 중심으로 펼 수 있다.
다양한 실시예에 따른 전자 장치(400)는 전자 장치(400)가 접혀지거나, 펼쳐지는 동안 제1디스플레이(430) 또는 제2디스플레이(440) 상에 사용자의 터치가 발생할 수 있고, 이러한 터치 입력은 제1디스플레이(430)의 터치 센서 또는 제2디스플레이(440)의 터치 센서에 의해 감지될 수 있다. 이와 같이, 전자 장치(400)의 폴딩 상태를 변화시키는 동안, 사용자의 손가락 일부가 제1디스플레이(430) 또는 제2디스플레이(440) 상에 접촉함으로써 발생하는 터치 입력은 실제 사용자가 표시된 화면 상에서 입력하고자 하는 터치가 아닌 사용자의 의도되지 않은 터치일 수 있다.
도 4e를 참조하면, 전자 장치(400)는 전자 장치(400)가 접혀지거나, 펼쳐지는 동안, 제1디스플레이(430) 상에 사용자 입력을 수신할 수 있다. 예를 들면, 전자 장치(400)는 제1디스플레이(430)의 일부 영역(451, 453) 상에 사용자 입력을 수신할 수 있다. 전자 장치(400)가 접혀지거나, 펼쳐지는 동안 제1디스플레이(430) 상에 인가된 사용자 입력은 의도되지 않은 터치일 수 있다.
도 4f를 참조하면, 전자 장치(400)는 전자 장치(400)가 접혀지거나, 펼쳐지는 동안, 제2디스플레이(440) 상에 사용자 입력을 수신할 수 있다. 예를 들면, 전자 장치(400)는 제2디스플레이(440)의 일부 영역(461) 상에 사용자 입력을 수신할 수 있다. 전자 장치(400)가 접혀지거나, 펼쳐지는 동안 제2디스플레이(440) 상에 인가된 사용자 입력은 의도되지 않은 터치일 수 있다.
도 5a 및 도 5b 는 다양한 실시예에 따른 전자 장치(500)의 블록도이다.
도 5a를 참조하면, 전자 장치(500)는 제1디스플레이(510), 제2디스플레이(520), 프로세서(530) 및 메모리(540)를 포함할 수 있으며, 도시된 구성 중 일부가 생략 또는 치환될 수 있다. 전자 장치(500)는 도 1의 전자 장치(101)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. 전자 장치(500)는 도 4a 내지 도 4f에서 설명한 바와 같이 접힐 수 있는 구조를 포함할 수 있다.
다양한 실시예에 따르면, 제1디스플레이(510)는 전자 장치(500)의 하우징의 제1방향의 제1면(또는 전면)에 배치될 수 있다. 또한, 제1디스플레이(510)는 접힐 수 있다. 제1디스플레이(510)가 접히는 영역을 기준으로 제1영역(511) 및 제2영역(512)으로 구분될 수 있고, 제1디스플레이(510)는 제1영역(511) 및 제2영역(512)이 서로 마주보는 방향으로 접힐 수 있다. 이에 따라, 전자 장치(500)가 폴딩 된 상태에서 제1디스플레이(510)는 사용자에게 보여지지 않을 수 있다.
다양한 실시예에 따르면, 메모리(540)는 공지의 휘발성 메모리(volatile memory) 및 비휘발성 메모리(non-volatile memory)를 포함할 수 있으며, 구체적인 구현 예에 있어서는 한정되지 않는다. 메모리(540)는 도 1의 메모리(130)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. 또한, 메모리(540)는 도 1의 프로그램(140) 중 적어도 일부를 저장할 수 있다.
메모리(540)는 기능적으로(functionally), 작동적으로(operatively) 및/또는 전기적으로(electrically) 프로세서(530)와 연결되고, 프로세서(530)에서 수행될 수 있는 다양한 인스트럭션(instruction)들을 저장할 수 있다. 이와 같은 인스트럭션들은 프로세서(530)에 의해 인식될 수 있는 산술 및 논리 연산, 데이터 이동, 입출력을 포함하는 다양한 제어 명령을 포함할 수 있다.
다양한 실시예에 따르면, 프로세서(530)는 전자 장치(500)의 각 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있는 구성으로써, 도 1의 프로세서(120)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. 프로세서(530)는 제1디스플레이(510), 제2디스플레이(520), 메모리(540) 를 포함하는 전자 장치(500)의 내부 구성요소와 기능적으로, 작동적으로 및/또는 전기적으로 연결될 수 있다.
프로세서(530)가 전자 장치(500) 내에서 구현할 수 있는 연산 및 데이터 처리 기능에는 한정됨이 없을 것이나, 본 문서에서는 언폴딩 시 폴딩 상태에서 작업 중이던 컨텐츠를 편집 및 SNS 상에 업로드하는 동작을 처리하기 위한 다양한 실시예들에 대해 설명하기로 한다. 후술할 프로세서(530)의 동작들은 메모리(540)에 저장된 인스트럭션들을 로딩 함으로써 수행될 수 있다.
다양한 실시예들에 따르면, 프로세서(530)는 센서(미도시)를 통하여 제1디스플레이(510)의 언폴딩(unfolding)을 감지하고, 제1디스플레이(510)가 펼쳐진(unfolded) 상태에서 제1영역(511)에 적어도 하나의 이미지를 포함하는 제1컨텐츠를 표시하도록 제어하고, 제2영역(512)에 적어도 하나의 어플리케이션에 대응하는 사용자 인터페이스 및/또는 제1컨텐츠를 적어도 하나의 어플리케이션이 제공하는 기능에 대응되는 형태로 변환한 제2컨텐츠를 표시하도록 제어하며, 사용자 입력에 대응하여 제1컨텐츠에 대응하는 데이터를 적어도 하나의 어플리케이션에 연결된 서버로 전송할 수 있다. 제1컨텐츠는 제1영역(511) 상에 표시될 수 있으며, 정적인 이미지(예: 사진 컨텐츠) 및 동적인 이미지(예: 영상 컨텐츠)를 포함할 수 있다. 여기서 적어도 하나의 어플리케이션에 연결된 서버로 전송되는 데이터는 제1컨텐츠에 사용자 입력 또는 필터 효과를 적용하여 생성한 제2컨텐츠를 포함할 수 있다. 또한, 적어도 하나의 어플리케이션에 연결된 서버로 전송되는 데이터는 변환하기 전 제1컨텐츠를 포함할 수 있다. 이 경우 제1컨텐츠는 적어도 하나의 어플리케이션에 연결된 서버 상에서 변환 과정을 거쳐 제2컨텐츠로 변환될 수 있으며, 생성 후 서버 상에서 바로 업로드 될 수 있다. 이후 생성된 제2컨텐츠는 전자 장치의 메모리(540)상에 저장될 수 있다.
도 5b를 참조 하면, 전자 장치(500)는 플렉서블 디스플레이(560), 프로세서(530), 메모리(540) 및 센서 모듈(550)을 포함할 수 있으며, 도시된 구성 중 일부가 생략 또는 치환될 수 있다. 전자 장치(500)는 도 1의 전자 장치(101)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. 전자 장치(500)는 도 2a, 도 2b, 도 3a 및 도 3b의 구조를 포함할 수 있다.
다양한 실시예에 따르면, 플렉서블 디스플레이(560)는 메인 디스플레이 영역 및 적어도 하나의 확장 디스플레이 영역을 포함할 수 있다. 플렉서블 디스플레이(560)는 메인 디스플레이 영역으로부터 상, 하, 좌, 우 방향 중 적어도 하나의 방향으로 확장 가능한 적어도 하나의 확장 디스플레이 영역을 포함할 수 있다. 예를 들어, 디스플레이(530)가 인입 상태에서는 메인 디스플레이 영역만이 외부로 노출되어 화면을 출력하고, 하우징 내부에 수용되어 외부로 노출되지 않는 확장 디스플레이 영역은 비활성화 상태로 화면을 출력하지 않을 수 있다. 플렉서블 디스플레이(560)가 인출 되면, 확장 디스플레이 영역의 적어도 일부가 외부로 노출되며, 이와 같이 노출된 적어도 일부 확장 디스플레이 영역을 활성화 상태로 전환하여 화면을 출력할 수 있다. 확장 가능한 플렉서블 디스플레이(560)의 여러 형태에 대해서는 앞서 도 2a 내지 2b 및 도 3a 내지 3b를 통해 설명한 바 있으며, 이에 한정되지 않는다. 플렉서블 디스플레이(560)의 인출 시 완전히 펼쳐진 상태에서는 플렉서블 디스플레이(560)의 전체에 어플리케이션 실행 화면이 표시될 수 있다. 이하에서는 플렉서블 디스플레이(560)의 인입 시 외부로 노출되는 영역을 제1영역(511)으로 지칭할 것이다. 제1영역(511)의 폭은 제1길이를 포함할 수 있다. 플렉서블 디스플레이(560)가 확장된 경우 확장된 디스플레이의 좌측을 기준으로 제1길이만큼을 제1영역(511)으로 지칭하며, 나머지 영역을 제2영역(512)으로 지칭할 것이다.
일 실시예에 따르면, 전자 장치(500)(예: 도 1의 전자 장치(101))는 플렉서블 디스플레이(560)가 축소 또는 확장된 정도를 판단하기 위해 센서 모듈(예: 도 1의 센서 모듈(176))을 포함할 수 있다. 센서 모듈(550)은 예를 들어, 터치 센서와 같은 접촉식 센서, IR(infrared ray) 센서, TF(time of flight) 센서, 비접촉식 센서, 자력 센서 중 적어도 하나를 포함할 수 있다. 비접촉식 센서는 전자기 유도 방식, 커패시티브(capacitive) 방식, 레지스티브(resistive) 방식 등을 이용할 수 있다. 전자 장치(500)는 센서 모듈(550)을 이용해 측정한 센서 측정값을 이용해 플렉서블 디스플레이(560)의 확장/축소 및 그 정도를 판단할 수 있다. 센서 측정값은 구성 요소의 실장에 따른 오차, 물리적 특성에 따른 오차, 또는/및 사용자에 의한 외부 환경 변화에 따른 오차를 포함할 수 있다. 이러한 오차로 인해 센서 측정값을 이용해 도출한 물리적 디스플레이의 크기와 실제 물리적 디스플레이의 크기는 일치하지 않을 수 있다.
다양한 실시예에 따르면, 메모리(540)는 공지의 휘발성 메모리(volatile memory) 및 비휘발성 메모리(non-volatile memory)를 포함할 수 있으며, 구체적인 구현 예에 있어서는 한정되지 않는다. 메모리(540)는 도 1의 메모리(130)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. 또한, 메모리(540)는 도 1의 프로그램(140) 중 적어도 일부를 저장할 수 있다.
메모리(540)는 기능적으로(functionally), 작동적으로(operatively) 및/또는 전기적으로(electrically) 프로세서(530)와 연결되고, 프로세서(530)에서 수행될 수 있는 다양한 인스트럭션(instruction)들을 저장할 수 있다. 이와 같은 인스트럭션들은 프로세서(530)에 의해 인식될 수 있는 산술 및 논리 연산, 데이터 이동, 입출력을 포함하는 다양한 제어 명령을 포함할 수 있다.
다양한 실시예에 따르면, 프로세서(530)는 전자 장치(500)의 각 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있는 구성으로써, 도 1의 프로세서(120)의 구성 및/또는 기능 중 적어도 일부를 포함할 수 있다. 프로세서(530)는 제1디스플레이(510), 제2디스플레이(520), 메모리(540)를 포함하는 전자 장치(500)의 내부 구성요소와 기능적으로, 작동적으로 및/또는 전기적으로 연결될 수 있다.
프로세서(530)가 전자 장치(500) 내에서 구현할 수 있는 연산 및 데이터 처리 기능에는 한정됨이 없을 것이나, 본 문서에서는 플렉서블 디스플레이(560)의 확장 시 작업 중이던 컨텐츠를 편집 및 SNS 상에 업로드하는 동작을 처리하기 위한 다양한 실시예들에 대해 설명하기로 한다. 후술할 프로세서(530)의 동작들은 메모리(540)에 저장된 인스트럭션들을 로딩 함으로써 수행될 수 있다.
다양한 실시예들에 따르면, 프로세서(530)는 사용자 입력에 대응하여 플렉서블 디스플레이(560)의 일부 영역을 포함하는 제1영역(511)에 적어도 하나의 이미지를 포함하는 제1컨텐츠를 표시하도록 제어하며, 센서(550)를 이용하여 하우징으로부터 플렉서블 디스플레이가 인출된 길이를 측정하도록 제어하고, 센서(550)를 이용하여 측정된 플렉서블 디스플레이(560)의 길이가 기 설정된 제1길이인 경우, 전자 장치(500)가 확장되지 않은 상태로 판단하고, 센서(550)를 이용하여 측정된 플렉서블 디스플레이(560)의 길이가 제1길이보다 상대적으로 긴 제2길이인 경우, 전자 장치(500)가 확장된 상태로 판단할 수 있다.
다양한 실시예들에 따르면 프로세서(530)는 전자 장치(500)가 확장된 상태인 경우 제1영역(511)에 제1컨텐츠를 표시하고, 하우징(미도시)으로부터 인출되어 시각적으로 노출된 플렉서블 디스플레이(560)의 일부 영역을 포함하는 제2영역(512)에 적어도 하나의 어플리케이션에 대응하는 사용자 인터페이스 및/또는 제1컨텐츠를 적어도 하나의 어플리케이션이 제공하는 기능에 대응되는 형태로 변환한 제2컨텐츠를 표시하도록 제어하며, 사용자 입력에 대응하여 제1컨텐츠에 대응하는 데이터를 적어도 하나의 어플리케이션에 연결된 서버로 전송할 수 있다.다양한 실시예들에 따르면 센서 모듈(550)은 도 1의 센서 모듈(176)의 구성 및 기능 일부를 포함할 수 있다.
도 6a 및 도 6b는 전자 장치가 사용자의 터치 입력에 기반하여 광학 문자 판독 기능을 실행하고 관련 기능이 포함된 인터페이스를 제공하는 상황을 도시한 것이다.
도 6a에서 전자 장치(예: 도 5a 또는 도 5b의 전자 장치(500))는 프로세서(예: 도 5a의 프로세서(530))의 제어 하에, 제 1 디스플레이(예: 도 5a의 제 1 디스플레이(510)) 상에 이미지를 표시할 수 있다. 프로세서(530)는 이미지의 특정 영역에 대한 사용자의 입력(610a)에 기반하여 이미지에 대한 광학 문자 판독(OCR: optical character recognition)을 실행할 수 있다. 사용자의 입력(610a)은 터치 시간이 일정 수준 미만인 터치 입력과, 터치 시간이 일정 수준을 초과하는 롱 프레스(long press) 입력을 포함할 수 있다. 도 6a에서는 사용자가 롱 프레스(long press) 입력을 가한 상황을 가정하여 설명하고, 도 6b에서는 사용자가 터치 입력을 가한 상황을 가정하여 설명하지만, 사용자의 입력의 종류는 이것으로 한정되는 것은 아닐 수 있다.
일 실시예에서, 광학 문자 판독(OCR: optical character recognition)은 빛을 이용해 이미지 상의 텍스트를 전자 장치 상에서 인식할 수 있는 텍스트 포맷(예:전기 신호)으로 변환하는 기술을 의미할 수 있다.
일 실시예에서, 프로세서(530)는 사용자 입력(610a)에 기반하여 이미지 상에서 관심 영역(ROI: region of interest)을 결정할 수 있다. 프로세서(530)는 결정된 관심 영역에서 일정 거리 내에 위치하는 텍스트들을 결정하고, 텍스트들과 관련된 동작을 실행할 수 있는 인터페이스(620a)를 사용자에게 제공할 수 있다. 예를 들어, 프로세서(530)는 사용자 입력(610a)이 가해진 위치에 기반하여 사용자에게 제공할 텍스트(615a)를 결정할 수 있다. 프로세서(530)는 결정된 텍스트(615a)의 내용에 기반하여 텍스트들과 관련된 동작을 실행할 수 있는 인터페이스(620a)를 사용자에게 제공할 수 있다. 프로세서(530)는 텍스트(615a)의 내용이 이메일 주소를 포함하는 것에 기반하여 사용자에게 이메일과 관련된 인터페이스를 제공할 수 있다. 예를 들어, 프로세서(530)는 이메일 어플리케이션을 실행할 수 있는 아이콘, 이메일 주소를 복사할 수 있는 아이콘, 이메일 주소를 공유할 수 있는 아이콘, 이메일 주소를 모두 드래그할 수 있는 아이콘 중 적어도 어느 하나를 포함하는 인터페이스를 제공할 수 있다. 프로세서(530)는 인터페이스 상의 사용자 입력에 기반하여 관련된 기능을 실행하고, 실행되고 있는 어플리케이션과 함께 표시할 수 있다.
도 6b에서, 프로세서(530)는 특정 아이콘(612b)에 대한 사용자 입력(610b)에 기반하여 이미지에 대한 광학 문자 판독을 실행할 수 있다. 프로세서(530)는 이미지 상에서 텍스트들을 인식하고, 텍스트들과 관련된 동작을 실행할 수 있는 인터페이스(620b)를 사용자에게 제공할 수 있다. 예를 들어, 프로세서(530)는 이미지 상에서 사용자 입력이 가해진 위치에 기반하여 사용자에게 제공할 텍스트(615a)를 결정할 수 있다. 여기서 사용자 입력은 특정 아이콘(612b)에 대한 사용자 입력(610b)과는 구분될 수 있다. 프로세서(530)는 결정된 텍스트(615a)의 내용에 기반하여 텍스트들과 관련된 동작을 실행할 수 있는 인터페이스(620a)를 사용자에게 제공할 수 있다.
도 6a에서 프로세서(530)는 이미지 상의 사용자 입력(610a)(예: 롱 프레스 입력)에 기반하여 광학 문자 판독을 실행하고, 사용자 입력(610a)의 위치에 기반하여 관심 영역을 결정할 수 있다.
도 6b에서 프로세서(530)는 이미지 상의 사용자 입력(610b)(예: 터치 입력)에 기반하여 광학 문자 판독을 실행하고, 별도의 사용자 입력을 통해 관심 영역을 결정할 수 있다. 프로세서(530)는 결정된 텍스트(615a)의 내용에 기반하여 텍스트들과 관련된 동작을 실행할 수 있는 인터페이스(620a)를 사용자에게 제공할 수 있다. 프로세서(530)는 텍스트(615a)의 내용이 특정 단어(예:특정 상표)를 포함하는 것에 기반하여 사용자에게 특정 단어와 관련된 인터페이스를 제공할 수 있다. 예를 들어, 프로세서(530)는 특정 단어를 검색할 수 있는 아이콘, 특정 단어를 복사할 수 있는 아이콘, 특정 단어를 공유할 수 있는 아이콘, 특정 단어를 드래그할 수 있는 아이콘 중 적어도 어느 하나를 포함하는 인터페이스를 제공할 수 있다. 프로세서(530)는 인터페이스 상의 사용자 입력에 기반하여 관련된 기능을 실행하고, 실행되고 있는 어플리케이션과 함께 표시할 수 있다.
일 실시예에서, 프로세서(530)는 이미지 내 텍스트를 모두 추출 후 사용자에게 특정 아이콘(612b)을 표시할 수 있다. 프로세서(530)는 특정 아이콘(612b)에 대한 사용자 입력(610b)에 기반하여 이미지에 대한 광학 문자 판독 실행 결과를 디스플레이 상에 표시할 수 있다. 프로세서(530)는 특정 아이콘(612b)에 대한 사용자 입력(610b)이 있기 전에 이미지 내 텍스트를 모두 추출하여 사용자 입력에 대응하여 빠르게 광학 문자 판독 실행 결과를 사용자에게 제공할 수 있다. 다만, 프로세서(530)는 사용자 입력(610b)이 없는 경우에도, 미리 이미지 내 텍스트를 모두 추출하여 광학 문자 판독을 실행하기 때문에 사용자가 광학 문자 판독 기능을 실행하지 않는 경우 리소스 낭비가 발생할 수 있다. 또한, 프로세서(530)는 이미지 내에 추출할 수 있는 텍스트가 존재하지 않는 경우에도 광학 문자 판독을 실행하기 때문에 리소스 낭비가 발생할 수 있다.
본 문서의 다양한 실시예들에 따른 전자 장치(500)는 특정 이미지에 대해 광학 문자 판독 및 텍스트 추출을 실행 하기 전 텍스트 존재 여부만을 미리 감지할 수 있다. 프로세서(530)는 디스플레이 상에 표시되는 특정 이미지 상에 텍스트가 존재함에 기반하여 특정 아이콘(612b)을 표시할 수 있다. 프로세서(530)는 디스플레이 상에 표시되는 특정 이미지 상에 텍스트가 존재하지 않음에 기반하여 특정 아이콘(612b)을 표시하지 않을 수 있다. 프로세서(530)는 특정 아이콘(612b)에 대한 사용자 입력(610b)에 기반하여 이미지 상에서 텍스트 추출을 실행할 수 있다. 프로세서(530)는 사용자 입력(610b)이 있는 경우에만 텍스트 추출을 실행하여, 리소스 낭비를 방지할 수 있다. 프로세서(530)는 특정 이미지 상에 텍스트가 존재함에 기반하여 특정 아이콘(612b)을 표시하여 사용자에게 추출할 수 있는 텍스트가 존재한다는 정보를 사용자에게 제공할 수 있다.
도 6c 및 도 6d는 전자 장치가 인식된 텍스트를 저장하고, 중복하여 추출하는 것을 방지하는 상황을 도시한 것이다.
도 6c의 그림 630에서 프로세서(530)는 특정 이미지에 대한 사용자 입력에 기반하여 특정 텍스트(615c)를 포함하는 복수의 텍스트들을 추출할 수 있다. 그림 635에서 프로세서(530)는 인식된 복수의 텍스트들을 사용자에게 표시할 수 있다. 프로세서(530)는 메모리(540), 저장 매체 또는 캐시(cashe) 중 적어도 어느 하나에 저장할 수 있다.
도 6d의 그림 640에서, 프로세서(530)는 특정 이미지에 대한 사용자 입력에 기반하여 특정 이미지 상에서 기 추출된 텍스트들이 있는지 결정할 수 있다. 프로세서(530)는 사용자의 입력이 가해진 특정 이미지 상에서 기 추출된 텍스트들이 존재하지 않음에 기반하여 새롭게 텍스트를 추출할 수 있다. 또는 프로세서(530)는 사용자의 입력이 가해진 특정 이미지 상에서 기 추출된 텍스트들이 존재함에 기반하여 메모리(540) 상에 저장된 기 추출된 텍스트들을 로딩(loading)할 수 있다. 그림 650에서, 프로세서(530)는 별도의 텍스트 추출 과정 없이 메모리(540) 상에서 기 추출된 텍스트들을 로딩하여 사용자에게 표시할 수 있다. 프로세서(530)는 별도의 텍스트 추출 과정 없이 메모리(540) 상에서 기 추출된 텍스트들을 로딩하여 텍스트 추출에 소모되는 시간을 단축시키고, 프로세서(530)의 자원을 절약할 수 있다.
도 7a 및 도 7b는 전자 장치가 사용자의 터치 입력에 기반하여 광학 문자 판독 기능을 실행하고 관련 기능을 실행하는 상황을 도시한 것이다.
도 7a에서 전자 장치(예: 도 5a 또는 도 5b의 전자 장치(500))는 프로세서(예: 도 5a의 프로세서(530))의 제어 하에, 제 1 디스플레이(예: 도 5a의 제 1 디스플레이(510)) 상에 이미지(701)를 표시할 수 있다. 프로세서(530)는 이미지의 특정 영역에 대한 사용자의 입력(710a)에 기반하여 이미지에 대한 광학 문자 판독(OCR: optical character recognition)을 실행할 수 있다.
일 실시예에서, 프로세서(530)는 사용자 입력(710a)에 기반하여 이미지 상에서 관심 영역(ROI: region of interest)을 결정할 수 있다. 프로세서(530)는 결정된 관심 영역에서 일정 거리 내에 위치하는 텍스트들을 결정하고, 텍스트들과 관련된 동작을 실행할 수 있는 인터페이스를 사용자에게 제공할 수 있다. 예를 들어, 프로세서(530)는 사용자 입력(710a)이 가해진 위치에 기반하여 사용자에게 제공할 텍스트(715a)를 결정할 수 있다. 예를 들어, 프로세서(530)는 사용자에게 제공할 텍스트(715a)가 주소를 포함하는 것으로 결정함에 기반하여 주소와 관련된 기능을 제공할 수 있다. 프로세서(530)는 지도 어플리케이션을 실행할 수 있는 아이콘(720a), 주소와 관련된 텍스트를 복사할 수 있는 아이콘, 주소와 관련된 텍스트를 공유할 수 있는 아이콘, 주소와 관련된 텍스트를 드래그할 수 있는 아이콘 중 적어도 어느 하나를 포함하는 인터페이스를 제공할 수 있다.
일 실시예에서, 프로세서(530)는 지도 어플리케이션을 실행할 수 있는 아이콘(720a) 상에서 터치 입력을 감지하고, 지도 어플리케이션을 실행시킬 수 있다. 프로세서(530)는 실행 중이던 어플리케이션(예: 이미지가 포함된 갤러리 어플리케이션)과 지도 어플리케이션을 함께 표시할 수 있다. 도 7a에서는 사용자의 선택에 기반하여 사용자에게 지도 어플리케이션만을 표시(702)하고 있으나, 새로운 어플리케이션을 표시하는 방식은 이에 한정되는 것은 아니다. 예를 들어, 프로세서(530)는 지도 어플리케이션을 실행할 수 있는 아이콘(720a) 상에서 터치 입력에 기반하여, 실행 중이던 어플리케이션과 지도 어플리케이션을 멀티 윈도우로 표시할 수 있다. 프로세서(530)는 제 1 영역(예: 도 5a의 제 1 영역(511)) 상에는 실행 중이던 어플리케이션을 표시하고, 제 2 영역(예: 도 5a의 제 2 영역(512))상에는 지도 어플리케이션을 표시할 수 있다. 도 5a의 전자 장치(500)는 화면이 반으로 접힐 수 있는 폴더블(foldable) 기기를 가정하지만, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(530)는 도 5b의 전자 장치(500)처럼 슬라이더블 기기에도 영역을 나눠 복수의 어플리케이션을 표시할 수 있다. 또는 프로세서(530)는 도 1의 전자 장치(101) 처럼, 폴더블(foldable)이나 슬라이더블(slidable)이 아닌 단일 디스플레이를 갖는 장치에서도 화면을 나눠 복수의 어플리케이션을 표시할 수 있다. 다양한 실시예들에 따른 전자 장치(500)는 사용자에게 어플리케이션 전환 없이, 사용자가 원하는 기능을 제공할 수 있으며, 끊김 없는(seamless) 사용자 경험을 제공할 수 있다.
도 7b에서, 프로세서(530)는 사용자 입력(710b)에 기반하여 이미지 상에서 관심 영역(ROI: region of interest)을 결정할 수 있다. 프로세서(530)는 결정된 관심 영역에서 일정 거리 내에 위치하는 텍스트들을 결정하고, 텍스트들과 관련된 동작을 실행할 수 있는 인터페이스를 사용자에게 제공할 수 있다. 예를 들어, 프로세서(530)는 사용자 입력(710b)이 가해진 위치에 기반하여 사용자에게 제공할 텍스트(715b)를 결정할 수 있다. 예를 들어, 프로세서(530)는 사용자에게 제공할 텍스트(715b)가 전화 번호를 포함하는 것으로 결정함에 기반하여 주소와 관련된 기능을 제공할 수 있다. 프로세서(530)는 전화 어플리케이션을 실행할 수 있는 아이콘(720a), 전화 번호를 지시하는 텍스트를 복사할 수 있는 아이콘, 전화 번호를 지시하는 텍스트를 공유할 수 있는 아이콘, 전화 번호를 지시하는 텍스트를 드래그할 수 있는 아이콘 중 적어도 어느 하나를 포함하는 인터페이스를 제공할 수 있다.
일 실시예에서, 프로세서(530)는 전화 어플리케이션을 실행할 수 있는 아이콘(720b) 상에서 터치 입력을 감지하고, 전화 어플리케이션을 실행시킬 수 있다. 프로세서(530)는 실행 중이던 어플리케이션(예: 이미지가 포함된 갤러리 어플리케이션)과 전화 어플리케이션을 함께 표시할 수 있다. 도 7a에서는 사용자의 선택에 기반하여 사용자에게 전화 어플리케이션만을 표시(703)하고 있으나, 새로운 어플리케이션을 표시하는 방식은 이에 한정되는 것은 아니다.
도 7c는 다양한 실시예들에 따른 전자 장치(500)가 복수의 어플리케이션들을 멀티 윈도우로 실행하는 상황을 도시한 것이다.
일 실시예에서, 프로세서(530)는 복수의 어플리케이션들을 멀티 윈도우로 동시에 사용자에게 제공할 수 있다. 도 7c에서 표시되는 복수의 어플리케이션들은 도 7a 및 도 7b에서 사용자에 의해 실행된 어플리케이션들을 포함할 수 있다. 예를 들어, 프로세서(530)는 제 1 영역(511) 상에는 이미지를 포함하는 어플리케이션을 표시(701)하고, 제 2 영역(512) 상에는 멀티 윈도우로 지도 어플리케이션의 실행 화면을 표시(702)하고, 전화 어플리케이션의 실행 화면을 표시(703)할 수 있다.
일 실시예에서, 제 1 영역(511) 및 제 2 영역(512)은 z축을 기준으로 좌, 우로 분리될 수 있다. 제 2 영역(512)은 y축을 기준으로 상,하로 분리될 수 있다. 전자 장치(500)의 화면 상에서 표시될 수 있는 어플리케이션들의 수나, 멀티 윈도우의 수는 한정된 것은 아닐 수 있다. 전자 장치(500)의 화면 상에서 표시될 수 있는 멀티 윈도우의 크기는 사용자의 설정에 따라 달라질 수 있다. 프로세서(530)는 각각의 멀티 윈도우에 대한 사용자 입력에 기반하여 멀티 윈도우의 크기를 조절할 수 있다. 프로세서(530)는 각각의 멀티 윈도우에 대한 사용자 입력에 기반하여 표시되는 멀티 윈도우를 제거할 수 있다.
도 8a는 다양한 실시예들에 따른 전자 장치가 사용자 입력에 기반하여 텍스트를 추출하는 상황을 도시한 것이다. 도 8b는 다양한 실시예들에 따른 전자 장치가 사용자 입력에 기반하여 이미지를 확대하거나 축소하는 상황을 도시한 것이다. 도 8c는 다양한 실시예들에 따른 전자 장치가 이미지를 입력하고 이미지 상에서 텍스트를 추출하여 키보드 입력을 대신하는 상황을 도시한 것이다.
도 8a에서 전자 장치(예: 도 5a 또는 도 5b의 전자 장치(500))는 프로세서(예: 도 5a의 프로세서(530))의 제어 하에, 사용자 입력을 감지할 수 있다. 사용자 입력은, 예를 들어, 터치(touch) 입력과 롱 프레스(long press)입력을 포함할 수 있다. 터치 입력은 디스플레이와 사용자의 신체가 접촉하는 시간이 일정 수준 미만인 입력을 의미할 수 있다. 롱 프레스(long press)입력은 디스플레이와 사용자의 신체가 접촉하는 시간이 일정 수준을 초과하고, 사용자의 신체가 디스플레이 상에 가하는 압력이 일정 수준을 초과하는 의미할 수 있다.
도 8a에서 사용자 입력(810)은 롱 프레스 입력을 의미할 수 있다. 프로세서(530)는 센서 모듈(예: 도 1의 센서 모듈(176)을 이용하여 디스플레이 상에서 사용자 입력(810)의 위치를 결정할 수 있다. 프로세서(530)는 센서 모듈(176)을 이용하여 사용자 입력의 종류를 결정할 수 있다.
도 8a에서 프로세서(530)는 디스플레이 상에 표시되는 어플리케이션의 화면 상에 롱 프레스 입력이 감지됨에 기반하여 텍스트 추출을 포함하는 다양한 사용자 메뉴(815)를 제공할 수 있다. 프로세서(530)는 디스플레이 상에 표시되는 어플리케이션이 롱 프레스 입력에 대응하는 동작이 설정되지 않은 상황에서, 롱 프레스 입력이 감지됨에 기반하여 이미지 상의 텍스트를 추출하도록 제어할 수 있다. 도 8a는 디스플레이 상에 표시되는 어플리케이션이 롱 프레스 입력에 대응하는 동작이 설정된 상황을 의미할 수 있다. 프로세서(530)는 디스플레이 상에 표시되는 어플리케이션이 롱 프레스 입력에 대응하는 동작이 설정된 상황에서, 기존에 설정된 동작을 지시하는 메뉴와 함께 텍스트 추출을 지시하는 메뉴를 함께 표시할 수 있다. 프로세서(530)는 사용자 메뉴(815) 상의 텍스트 추출을 지시하는 메뉴에 대한 사용자 입력(820)을 감지할 수 있다. 프로세서(530)는 사용자 입력(820)을 감지함에 대응하여 디스플레이 상에 표시된 이미지에 대한 광학 문자 판독을 실행할 수 있다. 전자 장치(500)는 사용자 메뉴(815)를 제공하여, 사용자가 별도로 광학 문자 판독 동작을 수행하는 어플리케이션을 실행하지 않고도 광학 문자 판독을 할 수 있도록 사용자 경험을 제공할 수 있다.
일 실시예에서, 프로세서(530)는 사용자 입력(810)의 위치에 기반하여 관심 영역(region of interst)를 결정할 수 있다. 프로세서(530)는 광학 문자 판독 기능을 실행 시에 관심 영역에 기반하여 인식된 문자와 관련된 기능을 제공할 수 있다. 예를 들어, 프로세서(530)는 관심 영역을 중심으로 일정 거리 이내에서, 가장 크기가 큰 문자를 선순위로 결정할 수 있다. 프로세서(530)는 선순위로 결정된 문자의 내용을 인식하고, 내용과 관련된 기능을 제공할 수 있다. 프로세서(530)는 문자의 내용이 주소를 지시하는 경우, 지도 어플리케이션을 실행할 수 있는 인터페이스를 제공할 수 있다. 프로세서(530)는 문자의 내용이 웹 주소를 지시하는 경우 인터넷 어플리케이션을 실행할 수 있는 인터페이스를 제공할 수 있다. 프로세서(530)는 관심 영역에서 일정 수준을 초과하여 멀리 떨어진 문자 또는 크기가 일정 수준 미만인 문자는 후순위로 결정할 수 있다. 프로세서(530)는 후순위로 결정된 문자에 대해 사용자의 입력이 없는 한 관련 기능을 표시하지 않을 수 있다. 프로세서(530)는 관심 영역을 기반으로 문자에 대한 관련 기능을 제공하여 사용자가 바로 원하는 기능을 실행시킬 수 있도록 사용자 경험을 제공할 수 있다.
도 8b는 다양한 실시예들에 따른 전자 장치가 사용자 입력에 기반하여 이미지를 확대하거나 축소하는 상황을 도시한 것이다.
일 실시예에서 프로세서(530)는 이미지 상에서 광학 문자 판독을 실행하는 영역을 따로 표시할 수 있다. 프로세서(530)는 사용자 입력에 기반하여 광학 문자 판독을 실행하는 영역 내 이미지를 확대하거나 또는 축소할 수 있다. 프로세서(530)는 사용자 입력(801)에 기반하여 광학 문자 판독을 실행하는 영역 내 이미지를 축소시킬 수 있다. 사용자 입력(801)은 제 1 지점과 제 2 지점에서 터치 입력이 발생하고, 이후 제 1 지점과 제 2 지점 사이의 한 지점으로 드래그 입력이 발생하는 동작을 의미할 수 있다. 프로세서(530)는 사용자 입력(802)에 기반하여 광학 문자 판독을 실행하는 영역 내 이미지를 확대시킬 수 있다. 사용자 입력(802)은 제 1 지점과 제 2 지점에서 터치 입력이 발생하고, 이후 멀어지는 방향으로 드래그 입력이 발생하는 동작을 의미할 수 있다.
일 실시예에서 프로세서(530)는 텍스트 입력 상황에서, 사진을 찍어 사용자가 원하는 텍스트를 빠르고 쉽게 입력할 수 있도록 사용자 경험을 제공할 수 있다. 프로세서(530)는 텍스트 선택 화면에서 이미지의 확대 및 축소를 지원하여 사용자가 작은 글씨를 세밀하게 선택할 수 있도록 사용자 경험을 제공할 수 있다. 프로세서(530)는 텍스트 선택 화면에서 이미지가 확대되더라도 이미지 품질이 저하되지 않도록 제어할 수 있다. 일 실시예에서 프로세서(530)는 카메라 기능의 프리뷰 화면에서 확대 및 축소 기능을 제공할 수 있다. 프로세서(530)는 프리뷰 화면에서 광학 문자 판독을 실행하여 텍스트 입력을 빠르게 지원할 수 있다.
도 8c는 다양한 실시예들에 따른 전자 장치가 이미지를 입력하고 이미지 상에서 텍스트를 추출하여 키보드 입력을 대신하는 상황을 도시한 것이다.
일 실시예에서 프로세서(530)는 텍스트 입력 칸에 사용자의 롱 프레스 입력이 감지됨에 기반하여 텍스트 추출 메뉴가 포함된 인터페이스를 제공할 수 있다. 프로세서(530)는 텍스트 추출 메뉴 상의 사용자 입력(840)에 기반하여 이미지를 입력할 수 있는 공간(850)을 제공할 수 있다. 이미지를 입력할 수 있는 공간(850)은 텍스트 입력 칸과는 별도로 분리될 수 있다. 예를 들어, 계좌 번호를 입력하는 텍스트 입력 칸은 디스플레이 상의 제 1 영역(예: 도 5a의 제 1 영역(511))에 위치할 수 있다. 이미지를 입력할 수 있는 공간(850)은 디스플레이 제 2 영역(예: 도 5a의 제 2 영역(512))에 위치할 수 있다. 또는 계좌 번호를 입력하는 텍스트 입력 칸은 디스플레이의 상단 영역에 위치하고, 이미지를 입력할 수 있는 공간(850)은 디스플레이의 하단 영역에 위치할 수 있다.
일 실시예에서 프로세서(530)는 사용자가 입력한 이미지에 대하여 광학 문자 판독을 수행하고, 인식된 텍스트를 표시할 수 있다. 프로세서(530)는 인식된 텍스트들 중 적어도 제 1 텍스트(861)에 대한 사용자의 터치 입력에 기반하여 제 1 텍스트(861)를 선택할 수 있다. 프로세서(530)는 사용자 입력에 기반하여 제 1 텍스트(861)를 복사 후 텍스트 입력 영역에 출력(870)할 수 있다. 프로세서(530)는 인식된 텍스트들 중 적어도 제 2 텍스트(862)에 대한 사용자의 터치 입력에 기반하여 제 2 텍스트(862)를 선택할 수 있다. 프로세서(530)는 붙여넣기(865) 메뉴에 대한 사용자 입력에 기반하여 제 2 텍스트(862)를 텍스트 입력 영역에 출력(870)할 수 있다.
일 실시예에서 전자 장치(500)는 텍스트 추출 및 입력 상황에서, 사진을 찍어 텍스트를 빠르고 쉽게 입력할 수 있도록 사용자 경험을 제공할 수 있다. 또한, 전자 장치(500)는 텍스트 추출 및 입력 상황에서, 입력과 관련된 텍스트만을 보여줘서 불필요한 정보 선택을 줄일 수 있다. 예를 들어, 전자 장치(500)는 계좌 번호 입력 칸에서 텍스트 추출을 지시하는 사용자 입력에 대응하여 숫자 정보만을 사용자에게 표시할 수 있다. 전자 장치(500)는 연락처 어플리케이션의 번호 입력 칸에서 텍스트 추출을 지시하는 사용자 입력에 대응하여 일정한 형태의 숫자 정보만을 사용자에게 표시할 수 있다. 전자 장치(500)는 이메일 어플리케이션의 주소 입력 칸에서 텍스트 추출을 지시하는 사용자 입력에 대응하여 일정한 형태의 문자(예: @, com)가 포함된 정보만을 사용자에게 표시할 수 있다.
도 9는 다양한 실시예들에 따른 전자 장치의 텍스트 기반 콘텐츠 운용 방법을 순서대로 나타낸 것이다.
도 9를 통하여 설명되는 동작들은 컴퓨터 기록 매체 또는 메모리(예: 도 1의 메모리(130))에 저장될 수 있는 인스트럭션들 을 기반으로 구현될 수 있다. 도시된 방법(900)은 앞서 도 1 내지 도 8c를 통해 설명한 전자 장치(예: 도 5a의 전자 장치(500))에 의해 실행될 수 있으며, 앞서 설명한 바 있는 기술적 특징은 이하에서 생략하기로 한다. 도 9의 각 동작의 순서가 변경될 수 있으며, 일부 동작이 생략될 수도 있고, 일부 동작들이 동시에 수행될 수도 있다.
동작 910에서, 프로세서(예: 도 5a의 프로세서(530))는 실행 중인 제 1 어플리케이션의 상태 정보를 수신할 수 있다. 제 1 어플리케이션은, 예를 들어, 카메라, 갤러리, 인터넷, 스크린 캡처(capture), 키보드, 비디오 어플리케이션 중 적어도 어느 하나를 의미할 수 있다. 프로세서(530)는 제 1 어플리케이션의 표시 화면 상에 이미지가 포함되었는지 확인할 수 있다. 프로세서(530)는 특정 아이콘(예: text 아이콘)에 대한 터치 입력에 기반하여 텍스트 인식을 위한 광학 문자 판독 화면을 표시할 수 있다. 프로세서(530)는 광학 문자 판독 후 인식된 텍스트를 강조(highlight)하여 표시할 수 있다. 프로세서(530)는 강조된 텍스트 또는 선택된 텍스트에 대한 사용자 입력에 기반하여 복사하거나 다른 텍스트 입력 칸에 바로 입력시킬 수 있다.
동작 920에서, 프로세서(530)는 실행 중인 제 1 어플리케이션의 특징에 대응하여 사용자의 입력 이벤트를 수신할 수 있다. 일 실시예에서, 프로세서(530)는 실행 중인 제 1 어플리케이션의 특징에 기반하여 수신되는 이벤트에 대응하는 동작을 다르게 결정할 수 있다.
예를 들어, 카메라, 스크린 캡처, 키보드 및 비디오 어플리케이션은 롱 프레스 입력에 대응하는 동작이 따로 존재하지 않을 수 있다. 프로세서(530)는 이러한 어플리케이션들의 특징에 기반하여 사용자의 롱 프레스 입력이 감지됨에 따라 광학 문자 판독 기능을 바로 실행할 수 있다. 프로세서(530)는 광학 문자 판독 기능을 실행하고, 이미지 상에서 텍스트를 추출할 수 있다.
예를 들어, 인터넷 어플리케이션 또는 갤러리 어플리케이션은 롱 프레스 입력에 대응하는 동작(예: 검색, 붙여넣기, 복사 등)들을 포함할 수 있다. 프로세서(530)는 이러한 어플리케이션들의 특징에 기반하여 사용자의 롱 프레스 입력이 감지됨에 따라 광학 문자 판독 메뉴가 포함된 인터페이스(예: 도 8a의 사용자 메뉴(815))를 제공할 수 있다. 프로세서(530)는 인터페이스 상의 사용자 입력에 기반하여 광학 문자 판독 기능을 실행하고, 이미지 상에서 텍스트를 추출할 수 있다. 위에서 언급된 제 1 어플리케이션의 종류는 일 예시일 뿐, 제 1 어플리케이션의 종류 및 특징이 이것으로 제한되는 것은 아니다.
일 실시예에서, 프로세서(530)는 특정 아이콘(예: text 아이콘)에 대한 터치 입력에 기반하여 디스플레이 상에 표시되는 정보 중에서 의미 있는 개체(entity)를 추출하고 분석할 수 있다. 의미 있는 개체(entity)는 예를 들어, 계좌 번호, URL 링크, 전화번호, 주소, 지역명, 웹 사이트 주소, 이메일 주소, 날짜, 장소, 시간 중 적어도 어느 하나를 의미할 수 있다. 의미 있는 개체(entity)는 실행 중인 제 1 어플리케이션의 종류에 따라 달라질 수 있다. 프로세서(530)는 제 1 어플리케이션에 특징에 기반하여 복수의 동작들을 지원할 수 있다. 예를 들어, 프로세서(530)는 갤러리 어플리케이션에 대한 확대 입력(예: 도 8b의 사용자 입력(802))에 기반하여 이미지의 확대 동작을 수행할 수 있다. 프로세서(530)는 키보드 어플리케이션에 대해서는 확대 동작을 지원하지 않을 수 있다.
동작 930에서, 프로세서(530)는 사용자의 터치 입력에 기반하여 관심 영역(ROI: region of interest)을 결정하고, 관심 영역 내에서 의미 있는 개체(entity)를 추출할 수 있다. 의미 있는 개체(entity)는 예를 들어, 계좌 번호, URL 링크, 전화번호, 주소, 지역명, 웹 사이트 주소, 이메일 주소, 날짜, 장소, 시간 중 적어도 어느 하나를 의미할 수 있다. 의미 있는 개체(entity)는 실행 중인 제 1 어플리케이션의 종류에 따라 달라질 수 있다. 프로세서(530)는 사전에 설정된 내용으로 학습된 학습 모델에 기반하여 의미 있는 개체(entity)를 추출할 수 있다. 예를 들어, 프로세서(530)는 특정 국가의 전화번호 자릿수에 대한 학습이 수행된 학습 모델을 이용하여 전화번호를 추출할 수 있다. 학습 모델(미도시)은 이미지 상에서 특정 자릿수에 대응하는 숫자 정보는 전화번호인 것으로 결정할 수 있다. 프로세서(530)는 실행 중인 제 1 어플리케이션이 전화 어플리케이션인 것을 확인함에 기반하여 추출된 전화번호를 제 1 어플리케이션 상의 텍스트 칸으로 붙여넣기하는 옵션을 제공할 수 있다. 또는 프로세서(530)는 이미지 상의 텍스트에서 추출된 숫자 정보가 전화번호인 것을 확인하고, 전화 어플리케이션을 실행할 수 있는 아이콘 또는 메뉴를 사용자에게 제공할 수 있다. 프로세서(530)는 전화 어플리케이션을 실행할 수 있는 아이콘 또는 메뉴에 대한 사용자 입력에 기반하여 추출된 숫자 정보가 입력된 상태로 전화 어플리케이션을 실행시킬 수 있다. 프로세서(530)는 멀티 윈도우로 전화 어플리케이션을 실행하여, 이미지가 포함된 어플리케이션(예: 갤러리, 인터넷 어플리케이션)의 전환 없이, 끊김 없는(seamless) 사용자 경험을 제공할 수 있다.
일 실시예에서, 학습 모델(미도시)은 이미지를 수신하고, 이미지 내에 존재하는 글자 영역을 감지할 수 있다. 학습 모델(미도시)은 감지된 글자 영역에서 특정 단위(예:블록, 라인)로 글자를 분리할 수 있다. 학습 모델(미도시)은 입력된 이미지의 텍스트가 손으로 쓰여진 글씨인지, 인쇄된 글씨인지 구분할 수 있다. 학습 모델(미도시)은 입력된 이미지의 텍스트가 인쇄된 글씨인 것을 확인하고, 인식 가능한 언어인지 결정할 수 있다. 학습 모델(미도시)은 입력된 이미지의 텍스트가 인쇄된 글씨이면서, 인식 가능한 언어로 결정됨에 기반하여 인식된 텍스트 및 텍스트와 관련된 기능을 수행할 수 있는 인터페이스(예: 메뉴, 아이콘)를 표시할 수 있다. 학습 모델(미도시)은 입력된 이미지의 텍스트가 손글씨인 것을 확인하고, 인식 가능한 언어인지 결정할 수 있다. 학습 모델(미도시)은 입력된 이미지의 텍스트가 손으로 쓰여진 글씨이면서, 인식 가능한 언어로 결정됨에 기반하여 인식된 텍스트 및 텍스트와 관련된 기능을 수행할 수 있는 인터페이스(예: 메뉴, 아이콘)를 표시할 수 있다.
일 실시예에서, 학습 모델(미도시)은 인식된 텍스트 내 의미 있는 개체(entity)를 결정하기 위해 심층신경망(DNN, deep neural network)을 이용할 수 있다. 심층신경망(DNN)은 복잡한 데이터를 학습하기 위해 은닉 계층(hidden layer)을 많이 쌓아서 만든 인공지능 기술을 의미할 수 있다. 은닉 계층(hidden layer)은 신경망의 외부에서 직접 접근할 수 없는 노드를 의미할 수 있다. 학습 모델(미도시)은 심층신경망(DNN)을 이용하여 스스로 분류 레이블을 만들어 내고 공간을 왜곡하고 데이터를 구분짓는 과정을 반족하여 최적의 구분선을 결정할 수 있다. 학습 모델(미도시)은 입력된 텍스트를 콘볼루션(convolution)으로 표현하기 위해 n차원 텐서(tensor)로 변환시킬 수 있다. 텐서(tensor)는 데이터의 배열을 의미할 수 있다. 학습 모델은 텍스트 텐서를 뉴럴 네트워크에 배치할 수 있도록 콘볼루션(convolution) 형태로 변환할 수 있다. 학습 모델은 각 콘볼루션에서 최대값을 추출하여 새로운 레이어를 생성할 수 있다. 학습 모델은 소프트맥스(softmax)함수를 적용하기 위해 콘볼루션 레이어를 차원 변환된 벡터로 출력할 수 있다. 소프트맥스(softmax)함수는 입력 데이터를 0~1 사이의 값으로 정규화하여 출력하고, 출력값의 총합이 1이 되도록 만드는 함수를 의미할 수 있다. 학습 모델은 소프트맥스(softmax)함수를 이용하여 출력된 벡터로부터 각 클래스에 대한 확률을 추정할 수 있다. 학습 모델은 추정된 확률에 기반하여 의미 있는 개체(entity)를 분류할 수 있다.
일 실시예에서, 프로세서(530)는 학습 모델을 이용하여 입력된 텍스트가 일정한 각도로 기울어진 상황에서도 텍스트의 존재 여부 및 텍스트 내용을 분석할 수 있다. 예를 들어, 프로세서(530)는 이미지 상의 텍스트가 인쇄된 글씨이고, 약 20도 정도 왼쪽으로 기울어진 상황에서, 텍스트의 존재 여부 및 텍스트 내용을 분석할 수 있다. 앞에서 언급된 텍스트가 기울어진 각도는 일 예시일 뿐, 프로세서(530)가 인식할 수 있는 텍스트의 기울기는 이것으로 한정되는 것은 아니다.
동작 940에서, 프로세서(530)는 수신된 사용자 이벤트 입력에 기반하여 추출된 개체와 관련된 동작을 결정하고, 관련된 동작에 대응하는 아이콘을 표시할 수 있다. 프로세서(530)는 시간과 장소, 일정 내용등이 분산되어 표현된 텍스트에 대해서 일정을 구성하는 정보들을 파악하고 하나의 일정으로 묶어서 제공할 수 있다. 예를 들어, 프로세서(530)는 "10/27 10시에 대회의실에서 점검회의 예정이니 참석 부탁 드립니다"는 내용을 가진 메시지를 수신하고, 날짜, 시간, 장소 및 일정 내용을 결정할 수 있다. 프로세서(530)는 날짜, 시간, 장소 및 일정 내용에 기반하여 대응하는 개체(entity)를 생성하고, 캘린더에 저장하도록 사용자에게 인터페이스를 제공할 수 있다. 프로세서(530)는 특정 키워드를 포함하는 것에 기반하여 메시지를 광고성 문구로 결정할 수 있다. 프로세서(530)는 메시지가 광고성 문구로 결정됨에 기반하여 사용자에게 관련 동작에 대응하는 아이콘 또는 인터페이스를 제공하지 않을 수 있다.
예를 들어, 프로세서(530)는 메시지 상에 날짜와 시간이 함께 존재하는 경우, 하나의 개체로 결정할 수 있다. 프로세서(530)는 메시지 상에 주소가 존재하는 경우, 주소를 나타내는 텍스트 사이에 여백이 존재하더라도 여러 필드가 아닌 하나의 필드로 인식할 수 있다. 프로세서(530)는 메시지 상에 은행이라는 단어가 포함된 것을 확인하고, 기재된 숫자에 대해 은행 계좌번호로 인식할 수 있다. 언급된 메시지는 일 예시일 뿐, 메시지의 내용이 이것으로 한정되는 것은 아니다.
예를 들어, 프로세서(530)는 추출된 개체에 대해 지도 열기 액션을 매핑할 수 있다. 프로세서(530)는 메시지 상에서 장소가 검출됨에 기반하여 지도를 열거나, 관련 장소를 검색하거나, 장소를 예약하거나 또는 장소로 전화를 할 수 있는 기능을 제공할 수 있다. 프로세서(530)는 메시지 상에서 전화 번호가 검출됨에 기반하여 연락처를 저장하는 기능을 제공할 수 있다. 프로세서(530)는 메시지 상에서 전화 번호가 검출됨에 기반하여 해당 번호로 메시지를 보내는 기능을 제공할 수 있다. 프로세서(530)는 메시지 상에서 메일 주소가 검출됨에 기반하여 이메일을 작성하는 기능을 제공할 수 있다. 프로세서(530)는 메시지 상에서 웹 주소가 검출됨에 기반하여 인터넷 어플리케이션으로 해당 주소에 접속하는 기능을 제공할 수 있다.
일 실시예에서, 프로세서(530)는 관련 기능들을 포함하는 인터페이스를 제공할 수 있다. 프로세서(530)는 인터페이스 상의 사용자 입력에 기반하여 해당 기능을 제공할 수 있다. 이는 도 6a 내지 도 8a에서 설명된 바 있다.
동작 950에서, 프로세서(530)는 아이콘 상의 터치 입력에 기반하여 관련된 제 2 어플리케이션 실행시킬 수 있다. 예를 들어, 프로세서(530)는 도 6a와 같이 이메일 어플리케이션을 실행시킬 수 있다. 프로세서(530)는 도 6b와 같이 인터넷 어플리케이션을 실행시킬 수 있다. 프로세서(530)는 도 7a와 같이 지도 어플리케이션을 실행시킬 수 있다. 프로세서(530)는 도 7b와 같이 전화 어플리케이션을 실행시킬 수 있다. 프로세서(530)는 도 7c와 같이 지도 및 전화 어플리케이션을 멀티윈도우로 실행시킬 수 있다. 이는 일 예시일뿐 프로세서(530)가 실행할 수 있는 어플리케이션은 이것으로 한정되는 것은 아니다.
일 실시예에서 프로세서(530)는 이미지가 표시된 제 1 어플리케이션 및 이미지에서 추출된 텍스트와 관련된 제 2 어플리케이션을 함께 멀티윈도우로 표시할 수 있다. 프로세서(530)는 제 2 어플리케이션을 실행할 경우, 자동으로 멀티윈도우를 열고, 다른 윈도우에서 제 2 어플리케이션 실행 화면을 표시할 수 있다. 프로세서(530)는 제 1 어플리케이션을 종료하지 않고도 제 2 어플리케이션 실행 화면을 표시하여 편리한 사용자 경험을 제공할 수 있다.
예를 들어 이미 멀티윈도우가 활성화된 상태에서, 프로세서(530)는 제 2 어플리케이션의 실행 화면을 다른 윈도우에 끊김 없이(seamless)표시할 수 있다. 프로세서(530)는 제 1 어플리케이션 상에서 제 2 어플리케이션을 열 수 있는 인터페이스(예: 아이콘 또는 메뉴)를 제공하여 사용자가 직접 제 2 어플리케이션을 열어서 실행 결과를 확인하는 불편함을 감소시킬 수 있다.
일 실시예에서, 멀티윈도우가 실행될 수 있는 전자 장치의 폼팩터 형태는 한정되는 것은 아니다. 예를 들어, 폴더블 형태를 가진 도 5a의 전자 장치(500)는 제 1 영역(예: 도 5a의 제 1 영역(511)) 상에 제 1 어플리케이션 실행 화면을 표시하고, 제 2 영역(예: 도 5a의 제 2 영역(512)) 상에 제 2 어플리케이션 실행 화면을 표시할 수 있다. 슬라이더블 형태를 가진 도 5b의 전자 장치(500)는 제 1 영역(예: 도 5b의 제 1 영역(511)) 상에 제 1 어플리케이션 실행 화면을 표시하고, 제 2 영역(예: 도 5b의 제 2 영역(512)) 상에 제 2 어플리케이션 실행 화면을 표시할 수 있다. 이는 도 8c에서 설명된 바 있다. 하나의 디스플레이를 가진 전자 장치(예: 도 1의 전자 장치(101)), 접힌 상태의 폴더블 전자 장치(예: 도 5a의 전자 장치(500)) 및 확장되지 않은 상태의 슬라이더블 전자 장치(예: 도 5b의 전자 장치(500))는 디스플레이 상에서 영역을 나눠 제 1 어플리케이션 실행 화면 및 제 2 어플리케이션 실행 화면을 멀티 윈도우로 표시할 수 있다.
일 실시예에서, 프로세서(530)는 제 1 어플리케이션과 제 2 어플리케이션의 특징에 기반하여 2개의 어플리케이션을 멀티윈도우로 표시할 수도 있고, 제 1 어플리케이션 화면을 끄고 제 2 어플리케이션 화면만을 표시할 수도 있다. 예를 들어, 프로세서(530)는 제 1 어플리케이션이 제 1 주소와 관련된 이메일 어플리케이션이고, 제 2 어플리케이션은 제 2 주소와 관련된 이메일 어플리케이션인 경우, 제 1 어플리케이션 화면 대신 제 2 어플리케이션 화면을 표시할 수 있다. 또는 프로세서(530)는 사용자 설정에 기반하여 제 1 어플리케이션 및 제 2 어플리케이션이 동일하더라도 멀티 윈도우로 표시할 수 있다.
다양한 실시예들에 따른 전자 장치는 하우징, 적어도 일부 영역이 하우징으로부터 인출되어 시각적으로 노출되는 영역의 크기가 가변될 수 있는 플렉서블 디스플레이, 플렉서블 디스플레이의 길이를 측정하기 위한 센서, 메모리, 및 프로세서를 포함할 수 있다. 프로세서는 플렉서블 디스플레이 상에 제 1 어플리케이션의 실행 화면을 표시하고, 제 1 어플리케이션의 실행 화면 상에서 사용자 입력에 기반하여 광학식 문자 판독(OCR, optical character reader)기능을 실행하고, 제 1 어플리케이션의 실행 화면 상에서 적어도 하나의 텍스트를 인식하며, 제 1 어플리케이션의 실행 화면 상의 사용자 입력의 위치에 기반하여 관심 영역(region of interest)을 결정하고 인식된 텍스트 중에서 관심 영역에서 일정 거리 내에 위치하는 제 1 텍스트를 결정하고, 제 1 텍스트 상에서 제 1 개체(entity)를 추출하고, 제 1 개체(entity)의 특성에 기반하여 연관된 동작을 결정하고, 연관된 동작에 대응하는 제 1 인터페이스를 텍스트로부터 일정 거리 내에 표시 할 수 있다.
일 실시예에 따르면, 프로세서는 제 1 어플리케이션의 실행 화면 상에서 사용자 입력에 대응하는 동작이 기 설정된 것을 확인함에 기반하여 대응하는 동작을 표시하는 메뉴와 광학식 문자 판독 기능을 표시하는 메뉴를 함께 표시하고, 사용자 선택에 기반하여 대응하는 동작 또는 광학식 문자 판독 중 적어도 어느 하나를 실행시킬 수 있다.
일 실시예에 따르면, 프로세서는 제 1 인터페이스 상의 사용자 입력에 기반하여 제 2 어플리케이션을 실행시킬 수 있다.
일 실시예에 따르면, 프로세서는 센서를 이용하여 측정된 플렉서블 디스플레이의 길이가 일정 수준을 초과함에 기반하여 전자 장치가 확장된 상태로 결정하고, 플렉서블 디스플레이 상의 제 1 영역에는 제 1 어플리케이션의 실행 화면을 표시하고, 하우징으로부터 인출되어 시각적으로 노출된 플렉서블 디스플레이의 일부 영역을 포함하는 제 2 영역 상에는 제 2 어플리케이션의 실행 화면을 표시 할 수 있다.
일 실시예에 따르면, 프로세서는 센서를 이용하여 측정된 플렉서블 디스플레이의 길이가 일정 수준 미만임에 기반하여 전자 장치가 확장되지 않은 상태로 결정하고, 플렉서블 디스플레이 상에 제 1 어플리케이션의 실행 화면 및 제 2 어플리케이션의 실행 화면을 멀티 윈도우로 표시 할 수 있다.
일 실시예에 따르면, 프로세서는 사용자 입력에 기반하여 인식된 텍스트 중에서 제 2 텍스트를 결정하고, 제 2 텍스트 상에서 제 2 개체(entity)를 추출하고, 제 2 개체(entity)의 특성에 기반하여 연관된 동작을 결정하고, 연관된 동작에 대응하는 제 2 인터페이스를 텍스트로부터 일정 거리 내에 표시 할 수 있다.
일 실시예에 따르면, 프로세서는 제 2 인터페이스 상의 사용자 입력에 기반하여 제 3 어플리케이션을 실행 할 수 있다.
일 실시예에 따르면, 센서를 이용하여 측정된 플렉서블 디스플레이의 길이가 일정 수준을 초과함에 기반하여 전자 장치가 확장된 상태로 결정하고, 플렉서블 디스플레이 상의 제 1 영역에는 제 1 어플리케이션의 실행 화면을 표시하고, 하우징으로부터 인출되어 시각적으로 노출된 플렉서블 디스플레이의 일부 영역을 포함하는 제 2 영역 상에는 제 2 어플리케이션의 실행 화면 및 제 3 어플리케이션의 실행화면을 멀티 윈도우로 표시할 수 있다.
다양한 실시예들에 따르면, 전자 장치의 텍스트 기반 컨텐츠 운용 방법은 디스플레이 상에 제 1 어플리케이션의 실행 화면을 표시하는 동작, 제 1 어플리케이션의 실행 화면 상에서 일정 시간을 초과하는 사용자의 롱 프레스(long press) 입력에 기반하여 광학식 문자 판독(OCR, optical character reader)기능을 실행하는 동작, 제 1 어플리케이션의 실행 화면 상에서 적어도 하나의 텍스트를 인식하는 동작, 제 1 어플리케이션의 실행 화면 상의 사용자 입력의 위치에 기반하여 관심 영역(region of interest)을 결정하는 동작, 인식된 텍스트 중에서 관심 영역에서 일정 거리 내에 위치하는 제 1 텍스트를 결정하고, 제 1 텍스트 상에서 제 1 개체(entity)를 추출하는 동작,및 제 1 개체(entity)의 특성에 기반하여 연관된 동작을 결정하고, 연관된 동작에 대응하는 제 1 인터페이스를 텍스트로부터 일정 거리 내에 표시하는 동작을 포함할 수 있다.
일 실시예에 따르면, 제 1 어플리케이션의 실행 화면 상에서 일정 시간을 초과하는 사용자의 롱 프레스(long press) 입력에 기반하여 광학식 문자 판독(OCR, optical character reader)기능을 실행하는 동작은 제 1 어플리케이션의 실행 화면 상에서 롱 프레스 입력에 대응하는 동작이 기 설정된 것을 확인함에 기반하여 대응하는 동작을 표시하는 메뉴와 광학식 문자 판독 기능을 표시하는 메뉴를 함께 표시하는 동작,및 사용자 선택에 기반하여 대응하는 동작 또는 광학식 문자 판독 중 적어도 어느 하나를 실행시키는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 전자 장치의 텍스트 기반 컨텐츠 운용 방법은 제 1 인터페이스 상의 사용자 입력에 기반하여 제 2 어플리케이션을 실행시키는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 전자 장치의 텍스트 기반 컨텐츠 운용 방법은 전자 장치가 확장 상태인 것에 기반하여 디스플레이의 제 1 영역 상에는 제 1 어플리케이션의 실행 화면을 표시하고, 디스플레이의 제 2 영역 상에는 제 2 어플리케이션의 실행 화면을 표시하는 동작,및 전자 장치가 확장되지 않은 상태인 것에 기반하여 디스플레이 상에 제 1 어플리케이션의 실행 화면 및 제 2 어플리케이션의 실행 화면을 멀티 윈도우로 표시하는 동작을 더 포함할 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    하우징;
    메모리;
    상기 하우징의 제 1 면에 배치된 제 1 디스플레이;및
    상기 제 1 디스플레이 및 상기 메모리와 작동적으로(operatively) 연결되는 프로세서를 포함하고,
    상기 제 1 디스플레이는 접힐 수 있고(foldable), 상기 제 1 디스플레이가 접힌 경우, 상기 제 1 디스플레이가 접힌 영역을 기준으로 구분되는 상기 제 1 디스플레이의 제 1 영역 및 제 2 영역이 서로 마주볼 수 있으며,
    상기 프로세서는
    상기 제 1 디스플레이 상에 제 1 어플리케이션의 실행 화면을 표시하고,
    상기 제 1 어플리케이션의 실행 화면 상에서 사용자 입력에 기반하여 광학식 문자 판독(OCR, optical character reader)기능을 실행하고, 상기 제 1 어플리케이션의 실행 화면 상에서 적어도 하나의 텍스트를 인식하며,
    상기 제 1 어플리케이션의 실행 화면 상의 사용자 입력의 위치에 기반하여 관심 영역(region of interest)을 결정하고
    인식된 텍스트 중에서 상기 관심 영역에서 일정 거리 내에 위치하는 제 1 텍스트를 결정하고, 상기 제 1 텍스트 상에서 제 1 개체(entity)를 추출하고,
    상기 제 1 개체(entity)의 특성에 기반하여 연관된 동작을 결정하고, 상기 연관된 동작에 대응하는 제 1 인터페이스를 상기 텍스트로부터 일정 거리 내에 표시하는 전자 장치.
  2. 제 1항에 있어서,
    상기 프로세서는
    상기 제 1 어플리케이션의 실행 화면 상에서 상기 사용자 입력에 대응하는 동작이 기 설정된 것을 확인함에 기반하여
    상기 대응하는 동작을 표시하는 메뉴와 광학식 문자 판독 기능을 표시하는 메뉴를 함께 표시하고,
    사용자 선택에 기반하여 상기 대응하는 동작 또는 광학식 문자 판독 중 적어도 어느 하나를 실행시키며,
    상기 제 1 인터페이스 상의 사용자 입력에 기반하여 제 2 어플리케이션을 실행시키는 전자 장치.
  3. 제 1항에 있어서,
    상기 프로세서는
    상기 제 1 어플리케이션의 실행 화면 상에서 텍스트의 존재 여부를 결정하고,
    텍스트가 존재함에 기반하여 광학식 문자 판독 기능을 표시하는 아이콘을 표시하고,
    상기 아이콘 상의 터치 입력에 기반하여 상기 제 1 어플리케이션의 실행 화면 상에서 광학식 문자 판독 기능을 실행하는 전자 장치.
  4. 제 2항에 있어서,
    상기 프로세서는
    상기 전자 장치가 펼쳐진(unfold) 상태임에 기반하여 상기 제 1 영역 상에는 상기 제 1 어플리케이션의 실행 화면을 표시하고,
    상기 제 2 영역 상에는 상기 제 2 어플리케이션의 실행 화면을 표시하는 전자 장치.
  5. 제 2 항에 있어서,
    상기 프로세서는
    상기 전자 장치가 접혀진(fold) 상태임에 기반하여
    상기 제 1 면과 반대되는 제 2 면 상의 제 2 디스플레이 상에 상기 제 1 어플리케이션의 실행 화면 및 상기 제 2 어플리케이션의 실행 화면을 멀티 윈도우로 표시하는 전자 장치.
  6. 제 2항에 있어서,
    상기 프로세서는
    사용자 입력에 기반하여 인식된 텍스트 중에서 제 2 텍스트를 결정하고, 상기 제 2 텍스트 상에서 제 2 개체(entity)를 추출하고,
    상기 제 2 개체(entity)의 특성에 기반하여 연관된 동작을 결정하고, 상기 연관된 동작에 대응하는 제 2 인터페이스를 상기 텍스트로부터 일정 거리 내에 표시하는 전자 장치.
  7. 제 6항에 있어서,
    상기 프로세서는
    상기 제 2 인터페이스 상의 사용자 입력에 기반하여 제 3 어플리케이션을 실행시키며,
    상기 전자 장치가 펼쳐진(unfold) 상태임에 기반하여 상기 제 1 영역 상에는 상기 제 1 어플리케이션의 실행 화면을 표시하고,
    상기 제 2 영역 상에는 상기 제 2 어플리케이션의 실행 화면 및 상기 제 3 어플리케이션의 실행화면을 멀티 윈도우로 표시하는 전자 장치.
  8. 제 1항에 있어서,
    상기 프로세서는
    상기 제 1 어플리케이션의 실행 화면 상에서 광학식 문자 판독 기능을 수행하여 추출된 텍스트를 상기 메모리 상에 저장하고,
    상기 제 1 어플리케이션의 실행 화면 상의 사용자 입력에 기반하여 상기 제 1 어플리케이션의 실행 화면 상에서 추출된 텍스트가 있는지 결정하고,
    상기 제 1 어플리케이션의 실행 화면 상에서 추출된 텍스트가 있음에 기반하여 상기 메모리 상에서 추출된 상기 텍스트를 로딩하고,
    상기 제 1 디스플레이 상에 상기 메모리 상에서 추출된 상기 텍스트를 표시하는 전자 장치.
  9. 전자 장치에 있어서,
    하우징;
    적어도 일부 영역이 상기 하우징으로부터 인출되어 시각적으로 노출되는 영역의 크기가 가변될 수 있는 플렉서블 디스플레이;
    상기 플렉서블 디스플레이의 길이를 측정하기 위한 센서;
    메모리;및
    상기 메모리, 상기 센서 및 상기 플렉서블 디스플레이와 작동적으로 연결된 프로세서를 포함하고,
    상기 프로세서는
    상기 플렉서블 디스플레이 상에 제 1 어플리케이션의 실행 화면을 표시하고,
    상기 제 1 어플리케이션의 실행 화면 상에서 사용자 입력에 기반하여 광학식 문자 판독(OCR, optical character reader)기능을 실행하고, 상기 제 1 어플리케이션의 실행 화면 상에서 적어도 하나의 텍스트를 인식하며,
    상기 제 1 어플리케이션의 실행 화면 상의 사용자 입력의 위치에 기반하여 관심 영역(region of interest)을 결정하고
    인식된 텍스트 중에서 상기 관심 영역에서 일정 거리 내에 위치하는 제 1 텍스트를 결정하고, 상기 제 1 텍스트 상에서 제 1 개체(entity)를 추출하고,
    상기 제 1 개체(entity)의 특성에 기반하여 연관된 동작을 결정하고, 상기 연관된 동작에 대응하는 제 1 인터페이스를 상기 텍스트로부터 일정 거리 내에 표시하는 전자 장치.
  10. 제 9항에 있어서,
    상기 프로세서는
    상기 제 1 어플리케이션의 실행 화면 상에서 상기 사용자 입력에 대응하는 동작이 기 설정된 것을 확인함에 기반하여
    상기 대응하는 동작을 표시하는 메뉴와 광학식 문자 판독 기능을 표시하는 메뉴를 함께 표시하고,
    사용자 선택에 기반하여 상기 대응하는 동작 또는 광학식 문자 판독 중 적어도 어느 하나를 실행시키며,
    상기 제 1 인터페이스 상의 사용자 입력에 기반하여 제 2 어플리케이션을 실행시키는 전자 장치.
  11. 제 9항에 있어서,
    상기 프로세서는
    상기 제 1 어플리케이션의 실행 화면 상에서 텍스트의 존재 여부를 결정하고,
    텍스트가 존재함에 기반하여 광학식 문자 판독 기능을 표시하는 아이콘을 표시하고,
    상기 아이콘 상의 터치 입력에 기반하여 상기 제 1 어플리케이션의 실행 화면 상에서 광학식 문자 판독 기능을 실행하는 전자 장치.
  12. 제 10항에 있어서,
    상기 프로세서는
    상기 센서를 이용하여 측정된 상기 플렉서블 디스플레이의 길이가 일정 수준을 초과함에 기반하여 상기 전자 장치가 확장된 상태로 결정하고,
    상기 플렉서블 디스플레이 상의 제 1 영역에는 상기 제 1 어플리케이션의 실행 화면을 표시하고,
    상기 하우징으로부터 인출되어 시각적으로 노출된 상기 플렉서블 디스플레이의 일부 영역을 포함하는 제 2 영역 상에는 상기 제 2 어플리케이션의 실행 화면을 표시하는 전자 장치.
  13. 제 10항에 있어서,
    상기 프로세서는
    상기 센서를 이용하여 측정된 상기 플렉서블 디스플레이의 길이가 일정 수준 미만임에 기반하여 상기 전자 장치가 확장되지 않은 상태로 결정하고,
    상기 플렉서블 디스플레이 상에 상기 제 1 어플리케이션의 실행 화면 및 상기 제 2 어플리케이션의 실행 화면을 멀티 윈도우로 표시하는 전자 장치.
  14. 제 10항에 있어서,
    상기 프로세서는
    사용자 입력에 기반하여 인식된 텍스트 중에서 제 2 텍스트를 결정하고, 상기 제 2 텍스트 상에서 제 2 개체(entity)를 추출하고,
    상기 제 2 개체(entity)의 특성에 기반하여 연관된 동작을 결정하고, 상기 연관된 동작에 대응하는 제 2 인터페이스를 상기 텍스트로부터 일정 거리 내에 표시하는 전자 장치.
  15. 제 14항에 있어서,
    상기 프로세서는
    상기 제 2 인터페이스 상의 사용자 입력에 기반하여 제 3 어플리케이션을 실행시키며,
    상기 센서를 이용하여 측정된 상기 플렉서블 디스플레이의 길이가 일정 수준을 초과함에 기반하여 상기 전자 장치가 확장된 상태로 결정하고,
    상기 플렉서블 디스플레이 상의 제 1 영역에는 상기 제 1 어플리케이션의 실행 화면을 표시하고,
    상기 하우징으로부터 인출되어 시각적으로 노출된 상기 플렉서블 디스플레이의 일부 영역을 포함하는 제 2 영역 상에는 상기 제 2 어플리케이션의 실행 화면 및 상기 제 3 어플리케이션의 실행화면을 멀티 윈도우로 표시하는 전자 장치.
PCT/KR2023/009564 2022-08-09 2023-07-06 전자 장치 및 전자 장치의 텍스트 기반 컨텐츠 운용 방법 WO2024034865A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220099453 2022-08-09
KR10-2022-0099453 2022-08-09
KR1020220112366A KR20240021074A (ko) 2022-08-09 2022-09-05 전자 장치 및 전자 장치의 텍스트 기반 컨텐츠 운용 방법
KR10-2022-0112366 2022-09-05

Publications (1)

Publication Number Publication Date
WO2024034865A1 true WO2024034865A1 (ko) 2024-02-15

Family

ID=89851898

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/009564 WO2024034865A1 (ko) 2022-08-09 2023-07-06 전자 장치 및 전자 장치의 텍스트 기반 컨텐츠 운용 방법

Country Status (1)

Country Link
WO (1) WO2024034865A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011066040A1 (en) * 2009-11-25 2011-06-03 Google Inc. On-screen guideline-based selective text recognition
KR20130080745A (ko) * 2012-01-05 2013-07-15 주식회사 인프라웨어 스마트폰의 카메라 모듈과 원격지 서버의 ocr 엔진을 이용한 전자문서 생성 방법 및 이를 위한 단말장치
KR101304084B1 (ko) * 2009-10-07 2013-09-10 구글 인코포레이티드 제스처 기반의 선택적인 텍스트 인식
KR20200127928A (ko) * 2013-11-22 2020-11-11 삼성전자주식회사 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치
KR20220077647A (ko) * 2020-12-02 2022-06-09 삼성전자주식회사 플렉서블 디스플레이를 포함하는 전자 장치 및 그 동작 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101304084B1 (ko) * 2009-10-07 2013-09-10 구글 인코포레이티드 제스처 기반의 선택적인 텍스트 인식
WO2011066040A1 (en) * 2009-11-25 2011-06-03 Google Inc. On-screen guideline-based selective text recognition
KR20130080745A (ko) * 2012-01-05 2013-07-15 주식회사 인프라웨어 스마트폰의 카메라 모듈과 원격지 서버의 ocr 엔진을 이용한 전자문서 생성 방법 및 이를 위한 단말장치
KR20200127928A (ko) * 2013-11-22 2020-11-11 삼성전자주식회사 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치
KR20220077647A (ko) * 2020-12-02 2022-06-09 삼성전자주식회사 플렉서블 디스플레이를 포함하는 전자 장치 및 그 동작 방법

Similar Documents

Publication Publication Date Title
AU2019224639B2 (en) Electronic device comprising display with switch
WO2022085885A1 (en) Method for controlling window and electronic device therefor
WO2022019635A1 (ko) 공유 화면과 비공유 화면을 함께 제공하는 전자 장치 및 그 제어 방법
WO2022114416A1 (ko) 확장이 가능한 디스플레이를 이용하여 멀티 윈도우를 제공하는 전자 장치
WO2023282563A1 (ko) 복수의 터치스크린 디스플레이를 포함하는 전자 장치 및 화면 분할 방법
WO2022060041A1 (ko) 콘텐트를 생성하기 위한 폴더블 전자 장치 및 그의 동작 방법
WO2022092633A1 (ko) 플렉서블 디스플레이의 촬영 안내 방법 및 장치
WO2021261949A1 (ko) 디스플레이의 폴딩 상태에 따른 이용 방법 및 이를 이용한 전자 장치
WO2022097858A1 (en) Electronic device capable of expanding display region and method for controlling screen thereof
WO2024034865A1 (ko) 전자 장치 및 전자 장치의 텍스트 기반 컨텐츠 운용 방법
WO2022108379A1 (ko) 확장 가능한 디스플레이를 포함하는 전자 장치 및 컨텐츠 제공 방법
WO2022119319A1 (ko) 플렉서블 디스플레이의 확장에 따라 적어도 하나의 객체를 이동하여 디스플레이 하는 전자 장치 및 그 제어 방법
WO2022119398A1 (ko) 플랙서블 전자 장치 및 이의 아바타 서비스 운용 방법
WO2022250309A1 (ko) 확장 가능한 디스플레이를 포함하는 전자 장치 및 컨텐츠 제공 방법
WO2023132473A1 (ko) 컨텐츠에 기초한 애플리케이션 실행 방법 및 장치
WO2022114495A1 (ko) 플렉서블 디스플레이의 사용자 인터페이스 제어 방법 및 장치
WO2022114548A1 (ko) 플렉서블 디스플레이의 사용자 인터페이스 제어 방법 및 장치
WO2023017992A1 (ko) 전자 장치 및 전자 장치의 컨텐츠 편집 방법
WO2024054038A1 (ko) 폴더블 전자 장치 및 폴더블 전자 장치의 활용 방법
WO2023013883A1 (ko) 사용자 인터페이스를 표시하는 전자 장치와 이의 동작 방법
WO2022154449A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2022103084A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이를 이용하는 방법
WO2023191305A1 (ko) 플렉서블 디스플레이를 갖는 전자 장치
WO2022169275A1 (ko) 복수의 키들을 포함하는 전자 장치 및 그 동작 방법
WO2022108096A1 (ko) 확장이 가능한 디스플레이를 갖는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23852751

Country of ref document: EP

Kind code of ref document: A1