WO2024085460A1 - 이미지 내에 포함된 글자들을 식별하기 위한 전자 장치 및 그 방법 - Google Patents

이미지 내에 포함된 글자들을 식별하기 위한 전자 장치 및 그 방법 Download PDF

Info

Publication number
WO2024085460A1
WO2024085460A1 PCT/KR2023/013999 KR2023013999W WO2024085460A1 WO 2024085460 A1 WO2024085460 A1 WO 2024085460A1 KR 2023013999 W KR2023013999 W KR 2023013999W WO 2024085460 A1 WO2024085460 A1 WO 2024085460A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
volatile memory
category
identify
letters
Prior art date
Application number
PCT/KR2023/013999
Other languages
English (en)
French (fr)
Inventor
김지훈
곽태원
김도현
박정완
신진수
이동혁
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220136917A external-priority patent/KR20240054826A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2024085460A1 publication Critical patent/WO2024085460A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0888Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches using selective caching, e.g. bypass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • G06V30/246Division of the character sequences into groups prior to recognition; Selection of dictionaries using linguistic properties, e.g. specific for English or German language

Definitions

  • Electronic devices are being developed to extract text from images containing characters drawn by a user or written by an electronic device and/or by an external electronic device different from the electronic device.
  • the electronic device can identify letters included in the image.
  • the electronic device can identify strokes included in an image or letters written in print.
  • an electronic device may include non-volatile memory, volatile memory, a display, and a processor.
  • the processor may identify characters within an image displayed through the display.
  • the processor may identify information corresponding to the first category in which the letters are included from the non-volatile memory, based on categories classified by the language of the letters.
  • the processor may store the information corresponding to the first category in the volatile memory.
  • the processor may obtain text data corresponding to the letters based on the information stored in the volatile memory.
  • a method of an electronic device may include identifying characters in an image displayed on a display in the electronic device.
  • the method of the electronic device may include an operation of identifying information corresponding to a first category containing the letters from the non-volatile memory, based on categories classified by the language of the letters. You can.
  • the method of the electronic device may include storing the information corresponding to the first category in the volatile memory.
  • the method of the electronic device may include obtaining text data corresponding to the letters based on the information stored in the volatile memory.
  • an electronic device includes a display, a volatile memory, a processor, and a plurality of language data sets including a first language data set, a second language data set, and a third language data set. It may include non-volatile memory.
  • the processor can identify lines in the image where a plurality of letters are arranged.
  • the processor provides a first category corresponding to a first line among a plurality of lines, and a second category corresponding to a second line, based on categories classified by the language of a character. can be identified.
  • the processor transfers, from the non-volatile memory to the volatile memory, the first language data set corresponding to the first category among the plurality of language data sets, and the second language data set corresponding to the second category. You can save it.
  • the processor may obtain text data represented by the plurality of characters included in the lines based on the stored first language data set and the second language data set.
  • a method of an electronic device may include an operation of identifying lines on which a plurality of letters are arranged within an image displayed through a display in the electronic device.
  • the method of the electronic device may include an operation of identifying categories corresponding to each of the plurality of lines based on categories classified by the language of a character.
  • the method of the electronic device may include storing information corresponding to each of the identified categories from a non-volatile memory to a volatile memory within the electronic device.
  • the method of the electronic device may include an operation of obtaining text data represented by the plurality of characters included in the lines, based on the stored information.
  • an electronic device may include a display, non-volatile memory, volatile memory, and a processor.
  • the processor may identify lines on which a plurality of letters are arranged within an image displayed through the display.
  • the processor may identify categories corresponding to each of the plurality of lines based on categories classified by the language of a character.
  • the processor may store information corresponding to each of the identified categories from the non-volatile memory to the volatile memory.
  • the processor may obtain text data represented by the plurality of characters included in the lines, based on the stored information.
  • FIG. 1 shows an example of a block diagram of an electronic device in a network environment, according to an embodiment.
  • FIG. 2 shows an example of a block diagram of an electronic device, according to an embodiment.
  • FIG. 3A illustrates an example of an electronic device that identifies letters within a screen displayed through a display, according to an embodiment.
  • FIG. 3B illustrates an example of an electronic device that identifies letters within a screen displayed through a display, according to an embodiment.
  • FIG. 4A illustrates an example of an electronic device that identifies letters within a screen displayed through a display, according to an embodiment.
  • FIG. 4B illustrates an example of an electronic device that identifies letters within a screen displayed through a display, according to an embodiment.
  • FIG. 5 illustrates an example of an electronic device that identifies letters within a screen displayed through a display, according to an embodiment.
  • FIG. 6 illustrates an example of the usage amount of volatile memory of an electronic device, according to an embodiment.
  • Figure 7 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • Figure 8 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • Figure 9 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • Figure 10 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • FIG. 11 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • FIG. 1 shows an example of a block diagram of an electronic device in a network environment, according to an embodiment.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • a first network 198 e.g., a short-range wireless communication network
  • a second network 199 e.g., a long-distance wireless communication network.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or operations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 includes the main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 e.g., a central processing unit or an application processor
  • an auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 101 includes a main processor 121 and a secondary processor 123
  • the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • co-processor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
  • the electronic device 102 e.g., speaker or headphone
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • processor 120 e.g., an application processor
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 to communicate within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
  • the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • FIG. 2 shows an example of a block diagram of an electronic device, according to an embodiment.
  • the electronic device 101 of FIG. 2 may include the electronic device 101 of FIG. 1 .
  • the processor 120 of FIG. 2 may include the processor 120 of FIG. 1 .
  • the display 210 of FIG. 2 may include the display module 160 of FIG. 1 .
  • the memory 130 of FIG. 2 may include the memory 130 of FIG. 1 .
  • Volatile memory 220 of FIG. 2 may include volatile memory 132 of FIG. 1 .
  • the non-volatile memory 230 of FIG. 2 may include the non-volatile memory 134 of FIG. 1 .
  • the operations of FIG. 2 may be executed by the processor 120 of FIG. 1 .
  • the electronic device 101 may include a processor 120, a display 210, and a memory 130.
  • Processor 120, display 210, and memory 130 may be electrically and/or operatively connected to each other by an electronic component, such as a communication bus 205. and/or operably coupled with each other).
  • an electronic component such as a communication bus 205. and/or operably coupled with each other.
  • hardware being operatively combined will mean that a direct connection or an indirect connection between the hardware is established, wired or wireless, such that the second hardware is controlled by the first hardware among the hardware. You can.
  • the embodiment is not limited thereto, and at least a portion of the hardware in FIG.
  • SoC system on a chip
  • the type and/or number of hardware included in the electronic device 101 is not limited to that shown in FIG. 2 .
  • the electronic device 101 may include only some of the hardware shown in FIG. 2 .
  • the processor 120 of the electronic device 101 may include hardware for processing data based on one or more instructions.
  • the hardware for processing data includes, for example, an arithmetic and logic unit (ALU), a floating point unit (FPU), a field programmable gate array (FPGA), a central processing unit (CPU), and/or an application processor (AP). ) may include.
  • the processor 120 has the structure of a single-core processor, or is a multi-core processor such as dual core, quad core, hexa core, or octa core. It can have a structure of
  • the memory 130 of the electronic device 101 may include hardware components for storing data and/or instructions that are input and/or output to the processor 120 of the electronic device 101.
  • the memory 130 may include, for example, volatile memory 220 (volatile memory) such as random-access memory (RAM), and/or non-volatile memory 230 (non-volatile memory) such as read-only memory (ROM). volatile memory).
  • volatile memory 220 may include, for example, at least one of dynamic RAM (DRAM), static RAM (SRAM), cache RAM, and pseudo RAM (PSRAM).
  • Non-volatile memory 230 may include, for example, programmable ROM (PROM), erasable PROM (EPROM), electrically erasable PROM (EEPROM), flash memory, hard disk, compact disk, solid state drive (SSD), and embedded memory (eMMC). It may include at least one of multi media cards.
  • the electronic device 101 may identify categories classified by the language of a character within the non-volatile memory 220. For example, the categories distinguished by language may be associated with visually expressed letters for communication among users belonging to a specific group (eg, country or region). For example, categories classified by language may include categories such as Korean, English, Chinese, Japanese, Spanish, and Portuguese. However, it is not limited to this.
  • the display 210 of the electronic device 101 may output visualized information to the user.
  • the display 210 may be controlled by the processor 120 including a circuit such as a graphic processing unit (GPU) and output visualized information to the user.
  • the display 210 may include a flat panel display (FPD) and/or electronic paper.
  • the FPD may include a liquid crystal display (LCD), a plasma display panel (PDP), and/or one or more light emitting diodes (LED).
  • the LED may include an organic LED (OLED).
  • the electronic device 101 may display an image through the display 210.
  • the electronic device 101 can identify characters within an image displayed through the display 210 .
  • the electronic device 101 may obtain text corresponding to the letters based on the letters.
  • the electronic device 101 may display handwritten and/or printed letters through the display 210 .
  • the handwriting may be related to the letters.
  • the handwriting may include one or more lines drawn on one side by the user to convey linguistic meaning.
  • the embodiment is not limited thereto, and the handwriting may include one or more lines drawn on one side to convey the user's intention (e.g., the user's non-verbal meaning) that is different from the verbal meaning.
  • letters written in a printed font may include letters written by the electronic device 101 and/or by an external electronic device different from the electronic device 101 .
  • letters written in a printed font may include letters written based on a font stored in the memory of the electronic device 101 and/or an external electronic device.
  • letters may include characters associated with handwriting and/or printing.
  • the electronic device 101 may execute an optical character recognition (OCR) function to obtain text from letters.
  • OCR optical character recognition
  • the electronic device 101 may form an area in the volatile memory 220 to execute the OCR function.
  • the electronic device 101 may perform initialization to form the area.
  • the electronic device 101 may secure at least a portion of the volatile memory 220 while performing the initialization.
  • the initialization may include an operation to secure at least a portion of the volatile memory 220.
  • Storing information from the non-volatile memory 230 to the volatile memory 220 which will be described later, may include transferring information stored in the non-volatile memory 230 to the volatile memory 220.
  • Storing information from the non-volatile memory 230 to the volatile memory 220 may include an operation of allocating information stored in the non-volatile memory 230 to an area of the volatile memory 220.
  • Storing information from the non-volatile memory 230 to the volatile memory 220 may include storing information stored in the non-volatile memory 230 in an area of the volatile memory 220.
  • the electronic device 101 may identify blocks in which letters are arranged within an image displayed through the display 210.
  • the block may be referred to as an area within an image.
  • the electronic device 101 may identify lines on which the plurality of letters are arranged within the image.
  • the lines may be referred to as partial regions included within the region.
  • the blocks and/or lines may include hardware (e.g., neural processing unit (NPU), and/or graphic processing unit (GPU)) for performing operations related to artificial intelligence, and providing functions related to artificial intelligence. It may be obtained based on information (or data) acquired based on software and/or an external electronic device (e.g., a server providing functions related to the artificial intelligence).
  • NPU neural processing unit
  • GPU graphic processing unit
  • the electronic device 101 may identify categories divided by the language of letters. For example, categories classified by the language of the letters may be classified by type of language. For example, a category classified by the language of the letters may be matched to the type of language of the letters. For example, the electronic device 101 may identify a category matching the letters based on identifying the letters. For example, the electronic device 101 may identify categories classified by language stored in the non-volatile memory 230. The electronic device 101 may identify information matching the first category containing the letters from the non-volatile memory 230. The electronic device 101 may store the information in the volatile memory 220 based on identifying the information matching the first category. The electronic device 101 may store the information in an area formed within the volatile memory 220 .
  • the electronic device 101 may assign the information to an area formed within the volatile memory 220 .
  • the electronic device 101 may identify a plurality of lines in which the letters are arranged within the image.
  • the electronic device 101 may identify a block containing a plurality of lines in which letters are arranged within the image.
  • the electronic device 101 may identify the plurality of lines included in the block based on identifying the block including the plurality of lines.
  • the electronic device 101 may identify categories matching each of the lines based on identifying the plurality of lines.
  • the electronic device 101 may store information related to the categories stored in the non-volatile memory 230 into the volatile memory 220 based on identifying the categories matching each of the lines.
  • the information related to the categories and/or information corresponding to the categories may include data for identifying letters displayed in an image.
  • the information related to the categories and/or information corresponding to the categories may include a set of data for identifying letters displayed in an image.
  • the set of data may include parameters (e.g., weights between nodes included in the neural network) to form a neural network for identifying letters from images, based on the language corresponding to the category.
  • the set of data may include one or more reference images for identifying letters (eg, images in which letters of a language corresponding to the category are individually captured).
  • the set of data may include a reference image and a corpora containing pairs of text data matched to the reference image.
  • the set of data may include a set of natural language words (eg, dictionary) based on the language corresponding to the category.
  • the information related to the categories and/or information corresponding to the categories may include a database for identifying the language of letters.
  • information related to categories and/or information corresponding to categories may be referred to as a language database (DB).
  • DB language database
  • the electronic device 101 may identify overlapping categories among categories matching each of a plurality of lines. For example, the electronic device 101 may identify the first category matching the first line. The electronic device 101 may identify the first category matching the second line. The electronic device 101 may identify that the category of the first line and the second line is the first category. The electronic device 101 may identify that the categories of the first line and the second line are the same. The electronic device 101 may store information related to the first category from the non-volatile memory 230 to the volatile memory 220 based on identifying the first category matching the first line. The electronic device 101 may identify the first category matching the second line based on storing information related to the first category in the volatile memory 220.
  • the electronic device 101 bypasses storing information related to the first category matching the second line in the volatile memory 220, based on identifying the first category matching the second line. You can (bypass). For example, when the electronic device 101 identifies the same category, the electronic device 101 may store information corresponding to the category in the volatile memory 220 only once.
  • the electronic device 101 removes (discards) information corresponding to a category matching each of the lines stored in the volatile memory 220, based on the usage of the volatile memory 220. can do. For example, the electronic device 101 may identify the number of information corresponding to the category related to the usage amount of the volatile memory 220. The electronic device 101 may identify the number of information corresponding to categories that can be stored in the volatile memory 220. For example, the electronic device 101 may identify a threshold (eg, 5) of information corresponding to categories that can be stored in the volatile memory 220. The number of categories that can be stored in the volatile memory 220, or a threshold, may be related to the capacity of the volatile memory 220. The electronic device 101 can store more categories as the capacity of the volatile memory 220 increases.
  • a threshold eg, 5
  • the electronic device 101 may store information matching the first category in the volatile memory 220.
  • the first category may be a category that matches the language of letters identified in the image.
  • the electronic device 101 may obtain text data corresponding to letters displayed through the display 210 based on storing information matching the first category in the volatile memory 220.
  • the electronic device 101 may display text matching the text data through the display 210, based on the acquisition of the text data. For example, the electronic device 101 may display text matching the letters by overlapping the image displayed on the display 210.
  • the electronic device 101 may display an image through the display 210.
  • the electronic device 101 can identify letters within the image.
  • the electronic device 101 can identify categories classified by the language of the letters.
  • the electronic device 101 may identify information matching the first category containing the letters from the non-volatile memory 230.
  • the electronic device 101 may identify information matching the first category containing the letters from the non-volatile memory 230, based on identifying categories classified by the language of the letters. .
  • the electronic device 101 may store the information corresponding to the first category from the non-volatile memory 230 to the volatile memory 220.
  • the electronic device 101 may obtain text data corresponding to the letters based on the information stored in the volatile memory 220.
  • the electronic device 101 may display text related to the text data.
  • the electronic device 101 may display text related to the text data through the display 210, based on obtaining the text data corresponding to the letters.
  • the electronic device 101 reduces the usage of the volatile memory 220 by storing information corresponding to the category corresponding to the identified characters from the non-volatile memory 230 to the volatile memory 220. You can do it.
  • FIG. 3A illustrates an example of an electronic device that identifies letters within a screen displayed through a display, according to an embodiment.
  • FIG. 3B illustrates an example of an electronic device that identifies letters within a screen displayed through a display, according to an embodiment.
  • the electronic device 101 of FIGS. 3A to 3B may include the electronic device 101 of FIGS. 1 and/or 2 .
  • the display 210 of FIGS. 3A and 3B may include the display module 160 of FIG. 1 and/or the display 210 of FIG. 2 .
  • the operations of FIGS. 3A-3B may be executed by the processor 120 of FIGS. 1 and/or 2 .
  • the electronic device 101 may display an image through the display 210 .
  • the electronic device 101 can identify letters within the image.
  • the electronic device 101 can identify the block 310 containing the letters.
  • the block 310 may be referred to as a region.
  • the electronic device 101 can identify lines 320 included in the block 310.
  • the lines 320 may be referred to as partial regions containing a plurality of letters.
  • the block 310 may include one region, and the lines 320 may include partial regions included within the region.
  • a first line 321, a second line 323, and a third line 325 may be included.
  • the first to third lines 321 to 325 are for convenience of explanation and are not limited thereto.
  • the electronic device 101 may store a plurality of language databases (DBs) stored in a non-volatile memory (eg, non-volatile memory 230 of FIG. 2).
  • DBs language databases
  • the electronic device 101 has a first language DB corresponding to Korean, a second language DB corresponding to English, and a third language DB corresponding to Chinese in the non-volatile memory (e.g., non-volatile memory 230 of FIG. 2).
  • Language DB can be saved.
  • the electronic device 101 can identify letters included in an image.
  • the electronic device 101 can identify lines 320 containing the letters.
  • the electronic device 101 may identify the lines 320 based on identifying the letters.
  • the electronic device 101 can identify categories classified by the language of letters included in the lines 320. For example, the electronic device 101 corresponds to each of the lines 320 among categories classified by the language of letters stored in a non-volatile memory (e.g., non-volatile memory 230 of FIG. 2). categories can be identified.
  • the electronic device 101 may identify that a category classified by the language of letters included in the lines 320 is not stored in the non-volatile memory.
  • the electronic device 101 may display a visual object through the display 210 based on failure to identify a category distinguished by the language of the letters in the non-volatile memory.
  • the visual object may be displayed as a user interface (UI), such as 'There is no recognition result.'
  • UI user interface
  • the electronic device 101 may identify categories of letters included in lines 320. For example, the electronic device 101 may identify the first line 321 containing 'Hello!'. The electronic device 101 may identify the second line 323 including 'nice to meet you.' The electronic device 101 can identify the third line 325 including 'How are you?' The electronic device 101 may identify a category matching the lines 320 based on identifying the lines 320 . In the example of FIG. 3A , the electronic device 101 may identify 'English', which is the category corresponding to the letters included in the lines 320.
  • the electronic device 101 Based on identifying the category corresponding to the letters included in the lines 320, the electronic device 101 stores information corresponding to 'English' stored in the non-volatile memory in the volatile memory (e.g., in FIG. 2). It can be stored in volatile memory 220). For example, the electronic device 101 may allocate information corresponding to 'English' stored in the non-volatile memory to an area of the volatile memory. The electronic device 101 may obtain text data corresponding to the letters based on information corresponding to 'English' stored in the volatile memory. The electronic device 101 may display text representing the text data through the display 210, based on the acquisition of the text data.
  • the electronic device 101 may identify 'English', which is the type of language corresponding to the letters included in the lines 320. Based on identifying the type of language corresponding to the letters included in the lines 320, the electronic device 101 selects a language DB corresponding to 'English' among a plurality of language DBs stored in the non-volatile memory, It can be stored in volatile memory (eg, volatile memory 220 in FIG. 2). For example, the electronic device 101 may allocate a language DB corresponding to 'English' stored in the non-volatile memory to an area of the volatile memory. The electronic device 101 may obtain text data corresponding to the letters based on a language DB corresponding to 'English' stored in the volatile memory. The electronic device 101 may display text representing the text data through the display 210, based on the acquisition of the text data.
  • a language DB corresponding to 'English' stored in the non-volatile memory
  • the electronic device 101 may display an image through the display 210.
  • the electronic device 101 may identify a plurality of blocks 300 including a plurality of letters within the image.
  • the electronic device 101 may identify lines 320 and 340 included in the plurality of blocks 300.
  • the electronic device 101 can identify lines 320 and 340 containing a plurality of letters.
  • the electronic device 101 may identify at least one of the blocks 300 and the lines 320 and 340.
  • the electronic device 101 may identify the category of each of the lines 320 and 340 including a plurality of letters.
  • the electronic device 101 may identify the category of the first line 321 including 'Hello!'.
  • the electronic device 101 may identify the category of the first line 321 as 'English', which is the first category.
  • the electronic device 101 may identify the category of the second line 323 including 'nice to meet you.'
  • the electronic device 101 may identify the category of the second line 323 as 'English', which is the first category.
  • the electronic device 101 may identify the category of the third line 325 including 'How are you?'.
  • the electronic device 101 may identify the category of the third line 325 as 'English', which is the first category.
  • the electronic device 101 generates first information corresponding to the first category based on identifying the category of the first line 321 to the third line 325 as 'English', which is the first category. It is possible to identify whether it is stored in non-volatile memory.
  • the electronic device 101 may store first information corresponding to the first category stored in the non-volatile memory from the non-volatile memory to the volatile memory.
  • the electronic device 101 displays 'hallo! A fourth line 341 containing 'tone Morgen.' can be identified.
  • the electronic device 101 displays 'hallo!
  • the category of the fourth line 341 containing 'jan Morgen.' can be identified.
  • the electronic device 101 may identify the category of the fourth line 341 as 'German', which is the second category.
  • the electronic device 101 may identify whether second information corresponding to the second category is stored in the non-volatile memory, based on identifying the category of the fourth line 341 as the second category. You can.
  • the electronic device 101 may identify that second information corresponding to the second category is stored.
  • the electronic device 101 may store the second information from the non-volatile memory to the volatile memory based on identifying the second information stored in the non-volatile memory. After storing first information corresponding to the first category, the electronic device 101 may store second information corresponding to the second category.
  • the electronic device 101 may display 'Ciao! The fifth line 343 containing 'buon giorno.' can be identified.
  • the electronic device 101 says, 'Ciao!
  • the category of the fifth line 343 including 'buon giorno.' can be identified.
  • the electronic device 101 may identify the category of the fifth line 343 as 'Italian', which is the third category.
  • the electronic device 101 may identify whether third information corresponding to the third category is stored in the non-volatile memory, based on identifying the category of the fifth line 343 as the third category. .
  • the electronic device 101 may identify that the third information is stored in a non-volatile memory.
  • the electronic device 101 may store the third information stored in the non-volatile memory from the non-volatile memory to the volatile memory.
  • the electronic device 101 may store the third information after storing the first information and the second information.
  • the electronic device 101 may display 'Ol ⁇ ! The sixth line 345 containing 'bom dia.' can be identified.
  • the electronic device 101 displays 'Ol ⁇ ! The category of the sixth line 345 including 'bom dia.' can be identified.
  • the electronic device 101 may identify the category of the sixth line 345 as 'Portuguese', which is the fourth category.
  • the electronic device 101 may identify whether fourth information corresponding to the fourth category is stored in the non-volatile memory, based on identifying the category of the sixth line 345 as the fourth category.
  • the electronic device 101 may identify that fourth information corresponding to the fourth category is stored in the non-volatile memory.
  • the electronic device 101 may store the fourth information corresponding to the fourth category from the non-volatile memory to the volatile memory, based on identifying the fourth information corresponding to the fourth category stored in the non-volatile memory. there is. For example, the electronic device 101 may store the fourth information in the volatile memory after storing the first to third information in the volatile memory.
  • the electronic device 101 may identify information corresponding to each of the plurality of lines 320 and 340 stored in the volatile memory.
  • the electronic device 101 may obtain text data related to letters included in the plurality of lines 320 and 340 based on the information.
  • the electronic device 101 may obtain text data related to the letters based on each of the categories matching the letters.
  • the electronic device 101 based on obtaining text data corresponding to each of the plurality of lines 320 and 340 through the display 210, displays the text data included in the plurality of lines 320 and 340. Text to represent letters can be displayed.
  • the electronic device 101 may identify a plurality of lines 320 and 340 including a plurality of letters.
  • the electronic device 101 may match letters included in the plurality of lines 320 and 340 and identify a category classified by the language of the letters.
  • the electronic device 101 may identify categories matching each of the plurality of lines 320 and 340.
  • the electronic device 101 may store information matching the categories from non-volatile memory to volatile memory, based on identifying categories matching each of the plurality of lines 320 and 340.
  • the electronic device 101 may obtain text data for expressing the letters based on information matching the categories stored in the volatile memory.
  • the electronic device 101 may display text related to the letters through the display 210 based on the acquisition of the text data.
  • the electronic device 101 may allocate categories matching the letters to volatile memory.
  • the electronic device 101 can reduce the amount of usage of the volatile memory by allocating only categories matching the letters to the volatile memory.
  • FIG. 4A illustrates an example of an electronic device that identifies letters within a screen displayed through a display, according to an embodiment.
  • FIG. 4B illustrates an example of an electronic device that identifies letters within a screen displayed through a display, according to an embodiment.
  • the electronic device 101 of FIGS. 4A to 4B may include the electronic device 101 of FIGS. 1, 2, 3A, and/or 3B.
  • the operations of FIGS. 4A-4B may be executed by the processor 120 of FIGS. 1 and/or 2 .
  • the electronic device 101 may display an image through the display 210 .
  • the electronic device 101 can identify letters within the image.
  • the electronic device 101 may identify the block 410 within the image.
  • the electronic device 101 can identify lines 420 included in the block 410.
  • the electronic device 101 can identify letters included in the lines 420.
  • the electronic device 101 may identify categories matching each of the lines 420 based on the characters included in the lines 420 . Based on identifying the categories matching each of the lines 420, the electronic device 101 stores information matching the categories stored in a non-volatile memory (e.g., the non-volatile memory 230 of FIG. 2). can be identified.
  • a non-volatile memory e.g., the non-volatile memory 230 of FIG. 2
  • the electronic device 101 may store information matching the categories from the non-volatile memory to the volatile memory 220, based on identifying information matching the categories. According to one embodiment, the electronic device 101 may identify the first line 421 to the sixth line 426 that contain letters. The electronic device 101 may identify a category that matches the first line 421 to the sixth line 426. For example, the electronic device 101 may identify categories divided by the language of the letters based on the letters included in the first line 421 to the sixth line 426. . For example, the electronic device 101 may display 'Hello!' included in the first line 421. ‘good morning.’ can be identified. The electronic device 101 says 'Hello! The first category, which is a category distinguished by the language of 'good morning.', can be identified.
  • the first category may be 'English'.
  • the electronic device 101 displays the message 'Hola!' included in the second line 422. You can identify 'buenos dias.'
  • the electronic device 101 displays 'Hola!' included in the second line 422.
  • a second category can be identified, a category distinguished by the language of 'buenos dias.'
  • the second category may be 'Spanish'.
  • the electronic device 101 displays the message 'hallo!' included in the third line 423.
  • nism Morgen.' can be identified.
  • the electronic device 101 displays 'hallo!
  • a third category can be identified, a category distinguished by the language of 'tone Morgen.'
  • the third category may be 'German'.
  • the electronic device 101 displays 'Ciao!' included in the fourth line 424. buon giorno.' can be identified. The electronic device 101 says, 'Ciao! A fourth category can be identified, which is a category distinguished by the language of 'buon giorno.' For example, the fourth category may be 'Italian'.
  • the electronic device 101 displays 'Ol ⁇ !' included in the fifth line 425. You can identify 'bom dia.' The electronic device 101 displays 'Ol ⁇ !
  • the fifth category which is a distinct category in the language of 'bom dia.', can be identified. For example, the fifth category may be 'Portuguese'.
  • the electronic device 101 includes the message 'Hello!' included in the sixth line 426. ‘Good morning.’ can be identified. The electronic device 101 says, ‘Hello! A sixth category can be identified, a category distinguished by the language of 'good morning.' For example, the sixth category may be 'Korean'. Based on identifying the first to sixth categories, the electronic device 101 stores information (e.g., language DB) corresponding to each of the first to sixth categories from the non-volatile memory. It can be stored in memory 220.
  • information e.g., language DB
  • the electronic device 101 within a state 400 in which the first lines 421 to 424 are identified, the first lines 421 to 424 are connected to each other.
  • Information related to categories matching the fourth line 424 may be allocated to the volatile memory 220.
  • the electronic device 101 may store information corresponding to categories matching the first line 421 to the fourth line 424 in areas formed within the volatile memory 220.
  • the electronic device 101 may identify a first category distinguished by letters included in the first line 421.
  • the electronic device 101 may store first information (e.g., first language DB) corresponding to the first category from the non-volatile memory to the first area 431 of the volatile memory 220.
  • the electronic device 101 may identify the second category distinguished by letters included in the second line 422.
  • the electronic device 101 may store second information (e.g., second language DB) corresponding to the second category from the non-volatile memory to the second area 432 of the volatile memory 220.
  • the electronic device 101 may identify a third category distinguished by letters included in the third line 423.
  • the electronic device 101 may store third information (e.g., third language DB) corresponding to the third category from the non-volatile memory to the third area 433 of the volatile memory 220.
  • the electronic device 101 may identify the fourth category distinguished by letters included in the fourth line 424.
  • the electronic device 101 may store fourth information (e.g., fourth language DB) corresponding to the fourth category from the non-volatile memory to the fourth area 434 of the volatile memory 220.
  • the electronic device 101 in the first to fourth areas 431 to 434, in the state 400 in which the first to fourth information is stored, the fifth line 425 , and the sixth line 426 can be identified.
  • the electronic device 101 may identify a category divided by letters included in the fifth line 425, based on identifying the fifth line 425. For example, the electronic device 101 may identify a fifth category distinguished by letters included in the fifth line 425.
  • the electronic device 101 may store fifth information (e.g., fifth language DB) corresponding to the fifth category from the non-volatile memory to the fifth area 435 of the volatile memory 220.
  • the electronic device 101 can identify categories distinguished by letters included in the sixth line 426.
  • the electronic device 101 may identify a sixth category distinguished by letters included in the sixth line 426. Based on identifying the sixth category, the electronic device 101 may store sixth information (e.g., sixth language DB) corresponding to the sixth category from the non-volatile memory to the volatile memory 220. there is. The electronic device 101 may identify usage within the volatile memory 220 in order to store sixth information (eg, sixth language DB). The electronic device 101 may remove the first information corresponding to the first category classified by letters included in the first line 421 based on the fact that the usage exceeds the designated usage amount. For example, the electronic device 101 may identify the number of times categories distinguished by letters included in the lines 420 are identified. The electronic device 101 may remove information stored in an area of the volatile memory 220 based on the identified number of times.
  • sixth information e.g., sixth language DB
  • the electronic device 101 may remove information corresponding to the first identified line among the lines 420. For example, the electronic device 101 may identify whether the number of language DBs stored in the volatile memory 220 exceeds the number of specified language DBs. For example, if the electronic device 101 determines that the number of language DBs stored in the volatile memory 220 exceeds the number of designated language DBs, the language DB corresponding to the first identified line among the lines 420 can be removed. In state 405 of FIG. 4A, the electronic device 101 may remove 'English', which is the first information corresponding to the first line 421, with priority over other information. The electronic device 101 may store sixth information in the first area 431 based on the removal of the first information.
  • the electronic device 101 may identify a block 410 in an image displayed through the display 210.
  • the electronic device 101 can identify lines 420 included in the block 410.
  • the electronic device 101 can identify letters included in the lines 420.
  • the electronic device 101 may identify the category of each of the lines 420 based on the characters included in each of the lines 420.
  • the electronic device 101 may allocate the lines to a thread of the processor 120 in order to identify a category matching the lines. For example, the electronic device 101 may allocate the first to kth lines to the first thread 441. The electronic device 101 may allocate the k+1th line to the nth line to the second thread 442. The k and n may be natural numbers representing at least some of the lines identified within the image. When identifying the category of each of the lines 420, the electronic device 101 may allocate at least some of the lines 420 to the first thread 441 of the processor 120. For example, the electronic device 101 may specify the number of lines 420 to be allocated to the first thread 441.
  • the electronic device 101 may allocate the remaining portion, excluding at least some of the lines 420, to the second thread 442 of the processor 120. For example, the electronic device 101, based on assigning each of the lines 420 to the first thread 441 and the second thread 442, includes the lines 420. Categories can be identified by letters.
  • the electronic device 101 may allocate the first line 421 to the third line 423 to the first thread 441.
  • the electronic device 101 may identify categories distinguished by letters included in the first line 421 to the third line 423, based on the execution of the first thread 441.
  • the electronic device 101 may store information corresponding to the categories from non-volatile memory to volatile memory, based on identifying the categories.
  • the electronic device 101 may store information corresponding to the categories in an area formed within the volatile memory from the non-volatile memory.
  • the electronic device 101 may allocate the fourth line 424 to the sixth line 426 to the second thread 442.
  • the electronic device 101 may identify categories distinguished by characters included in the fourth line 424 to the sixth line 426 based on the execution of the second thread 442. .
  • the electronic device 101 may identify categories matching the fourth line 424 to the sixth line 426.
  • the electronic device 101 stores information corresponding to the categories from the non-volatile memory to the volatile memory, based on identifying the categories matching the fourth line 424 to the sixth line 425. You can.
  • the electronic device 101 may store information obtained based on the lines 420 in the volatile memory 220 .
  • the electronic device 101 may obtain text data related to characters included in the lines 420 based on information stored in the areas 431 to 435 formed in the volatile memory 220.
  • the electronic device 101 may display text matching the first to sixth lines 421 to 426 based on the text data obtained.
  • the electronic device 101 can identify the lines 420.
  • the electronic device 101 can identify letters included in the lines 420.
  • the electronic device 101 can identify categories classified by the language of letters included in the lines 420.
  • the electronic device 101 may obtain information related to the category from a non-volatile memory based on identifying the category.
  • the electronic device 101 may store the information obtained from the non-volatile memory in the volatile memory 220 .
  • the electronic device 101 may store information related to letters matching the identified lines 420 from the non-volatile memory to the volatile memory 220 .
  • the electronic device 101 may obtain text data related to characters included in the lines 420 based on information stored in the volatile memory 220 .
  • the electronic device 101 may display text to represent the letters based on the acquisition of the text data.
  • the electronic device 101 stores information related to the letters from the non-volatile memory to the volatile memory 220, based on categories distinguished by the language of the letters included in the identified lines 420, thereby converting the letters into volatile memory 220.
  • the amount of memory 220 used can be reduced.
  • FIG. 5 illustrates an example of an electronic device that identifies letters within a screen displayed through a display, according to an embodiment.
  • the electronic device 101 of FIG. 5 may include the electronic device 101 of FIGS. 1, 2, 3A, 3B, 4A, and/or 4B.
  • the display 210 of FIG. 5 may include the display module 160 of FIG. 1, the display 210 of FIGS. 2, 3A, 3B, 4A, and/or 4B.
  • the operations of Figure 5 may be executed by processor 120 of Figures 1, 2, and/or 4B.
  • the electronic device 101 may display an image through the display 210.
  • the electronic device 101 may identify the block 510 included in the image while displaying the image through the display 210.
  • the electronic device 101 can identify lines 520 included in the block 510.
  • the electronic device 101 can identify letters included in the lines 520.
  • the electronic device 101 may identify a category divided by the language of the letters based on the letters included in each of the lines 520.
  • the electronic device 101 may identify the number of times a category matching each of the lines 520 was identified.
  • the electronic device 101 may identify the frequency with which a category matching each of the lines 520 is identified.
  • the electronic device 101 may generate a table including the identified number of times (or frequency) based on the identified number of times.
  • the electronic device 101 may designate information to be stored in the volatile memory 220 based on data included in the table.
  • the electronic device 101 may remove information stored in the volatile memory 220 based on data included in the table. For example, the electronic device 101 may remove information corresponding to a category that has been identified a relatively small number of times from the volatile memory 220 .
  • the electronic device 101 may identify 'English' as the first category matching the first line 521.
  • the electronic device 101 may identify the second category 'Spanish' that matches the second line 522.
  • the electronic device 101 may identify the third category, ‘German,’ matching the third line 523.
  • the electronic device 101 may identify the fourth category, ‘Italian’, matching the fourth line 524.
  • the electronic device 101 may identify the fifth category, ‘Portuguese’, matching the fifth line 525.
  • the electronic device 101 may identify 'English' as the first category matching the sixth line 526.
  • the electronic device 101 may identify the sixth category, 'Korean', matching the seventh line 527.
  • the electronic device 101 may generate a table as shown in Table 1 below, based on identifying the category matching the lines 520, and counting the number of times the identified category.
  • the electronic device 101 can obtain data identifying the first category, 'English', twice.
  • the electronic device 101 may obtain data identifying the second category, 'Spanish', once.
  • the electronic device 101 may obtain data identifying the third category, 'German', once.
  • the electronic device 101 may obtain data identifying the fourth category, ‘Italian’, once.
  • the electronic device 101 may obtain data identifying the fifth category, 'Portuguese', once.
  • the electronic device 101 may obtain data identifying the sixth category, 'Korean', once.
  • the electronic device 101 may designate information matching the categories stored from the non-volatile memory to the volatile memory 220 based on obtaining data related to the number of times the categories were identified.
  • the electronic device 101 in the state 500 in which the first lines 521 to 524 are identified, the first line 521 to the fourth line ( 524)
  • the category corresponding to each can be identified.
  • the electronic device 101 transfers information matching the category from the non-volatile memory to the volatile memory 220. can be saved.
  • the electronic device 101 stores information corresponding to the first category 'English' that matches the category of letters included in the first line 521 in the first area 531 formed in the volatile memory 220. ) can be saved within.
  • the electronic device 101 may store information corresponding to the second category 'Spanish' matching the category of letters included in the second line 522 in the second area 532 formed in the volatile memory 220. there is.
  • the electronic device 101 may store information corresponding to the third category 'German' matching the category of letters included in the third line 523 in the third area 533 formed in the volatile memory 220. there is.
  • the electronic device 101 may store information corresponding to the fourth category 'Italian' matching the category of letters included in the fourth line 524 in the fourth area 534 formed in the volatile memory 220. there is.
  • the electronic device 101 may store information corresponding to the category matching each of the first to fourth lines 521 to 524 in areas 531 to 534 formed in the volatile memory 220 .
  • the electronic device 101 stores the information, and based on the characters included in each of the fifth line 525 to the seventh line 527, the fifth line ( 525) to the 7th line 527 can be identified.
  • the electronic device 101 may identify a category divided by the language of letters included in the fifth line 525 to the seventh line 527.
  • the electronic device 101 may identify the fifth category 'Portuguese' that matches the category of letters included in the fifth line 525.
  • the electronic device 101 may store information corresponding to the fifth category from the non-volatile memory to the volatile memory 220, based on identifying the fifth category, 'Portuguese'.
  • the electronic device 101 may store information corresponding to the fifth category in the fifth area 535 formed in the volatile memory 220.
  • the electronic device 101 may identify 'English' as the first category that matches the category of letters included in the sixth line 526.
  • the electronic device 101 may identify the sixth category 'Korean' that matches the category of letters included in the seventh line 527.
  • the electronic device 101 may use the data included in Table 1 to store the sixth category, 'Korean', in the volatile memory 220.
  • the electronic device 101 may identify the first category, 'English', in Table 1 with the highest number of identifications.
  • the electronic device 101 may identify that the number of times different categories (eg, second to fifth categories) from the first category are identified is relatively small compared to the number of times the first category is identified.
  • the electronic device 101 may remove one of the second to fifth categories that have been identified a relatively small number of times. For example, the electronic device 101 may remove the second category 'Spanish', which is identified a relatively small number of times compared to the first category, from the volatile memory 220 .
  • the electronic device 101 may store the sixth category, 'Korean', in the second area 532 where the second category was stored, based on removing the second category from the volatile memory 220.
  • the electronic device 101 stores information corresponding to the second category matching the second line 522 in a volatile memory (505) in which the first to seventh lines 521 to 527 are identified. 220). Based on removing the information corresponding to the second line 522 from the volatile memory 220, the electronic device 101 stores information corresponding to the sixth category matching the seventh line 527 in the volatile memory. It can be stored in the second area 532 formed within 220.
  • the electronic device 101 may identify categories distinguished by letters included in the lines 520.
  • the electronic device 101 may identify a category matching each of the lines 520.
  • the electronic device 101 can identify the number of times categories have been identified.
  • the electronic device 101 may create a table containing data related to the number of times the categories were identified.
  • the electronic device 101 may remove information corresponding to a category stored in the volatile memory 220 based on data related to the number of times the categories included in the table are identified.
  • the electronic device 101 may adjust the amount of usage of the volatile memory 220 based on the number of times categories are identified.
  • the electronic device 101 can efficiently use the usage of the volatile memory 220 by adjusting the usage of the volatile memory 220 based on the number of times the categories are identified.
  • FIG. 6 illustrates an example of the usage amount of volatile memory of an electronic device, according to an embodiment.
  • the electronic device 101 of FIG. 6 may include the electronic device 101 of FIGS. 1, 2, 3A, 3B, 4A, 4B, and/or 5.
  • the operations of Figure 6 may be executed by processor 120 of Figures 1, 2, and/or 4B.
  • the electronic device 101 may identify the usage amount of the volatile memory 220.
  • the electronic device 101 includes lines (e.g., lines 320 in FIG. 3A, lines 320 and 340 in FIG. 3B, lines 420 in FIG. 4A, and lines in FIG. 4B ( 420), and/or lines 520 of FIG. 5) may be identified.
  • the electronic device 101 may identify the categories of the lines based on the identified lines and letters included in the lines. For example, the electronic device 101 may identify categories classified by the letters.
  • the electronic device 101 may store information corresponding to the category from the non-volatile memory to the volatile memory 220 based on identifying the category.
  • the electronic device 101 may identify the amount of usage of the volatile memory 220 based on storing information corresponding to the category in the volatile memory 220.
  • the electronic device 101 may identify the usage amount of the volatile memory 220 within the first section 610 .
  • the first section 610 may represent an idle state of the electronic device 101.
  • the electronic device 101 may identify the usage amount of the volatile memory 220 within the second section 620.
  • the second section 620 may be in a state where an image is displayed on a display (eg, display 210 of FIG. 2).
  • the electronic device 101 may be in a state of performing initialization to identify letters included in the image within the second section 620.
  • the electronic device 101 may secure an area of the volatile memory 220 to execute the OCR function within the second section 620.
  • the electronic device 101 may secure an area of the volatile memory 220 to store information from the non-volatile memory to the volatile memory 220.
  • the electronic device 101 may identify categories matching lines within the third section 630 based on letters included in the image.
  • the electronic device 101 can identify categories distinguished by letters included in lines.
  • the electronic device 101 can identify a category matching each of the lines.
  • the electronic device 101 may identify information corresponding to the category in the non-volatile memory based on identifying the category matching each of the lines.
  • the electronic device 101 may store information corresponding to the category in the non-volatile memory to the volatile memory 220 based on identified information.
  • the electronic device 101 may terminate the executed OCR function within the fourth section 640.
  • the electronic device 101 may identify three lines during the third section 630. For example, the electronic device 101 may identify the category of the first line based on letters included in the first line. The electronic device 101 may identify a first category, which is a category distinguished by letters included in the first line. The electronic device 101 may store first information corresponding to the first category from the non-volatile memory to the volatile memory 220 based on identifying the first category. When storing the first information corresponding to the first category, the electronic device 101 may identify the usage amount of the volatile memory 220. For example, the electronic device 101 may obtain data related to the usage amount of the volatile memory 220 while storing first information corresponding to the first category.
  • the electronic device 101 may identify the first time point 631 within data related to the usage amount of the volatile memory 220.
  • the first time point 631 may be related to the timing of storing the first information corresponding to the first category from the non-volatile memory to the volatile memory 220.
  • the electronic device 101 may identify a second line that is different from the first line.
  • the electronic device 101 may identify a second category corresponding to the second line based on characters included in the second line.
  • the electronic device 101 may identify a second category divided by the language of letters included in the second line.
  • the electronic device 101 may store second information corresponding to the second category from the non-volatile memory to the volatile memory 220 based on identifying the second category.
  • the electronic device 101 may identify a second point 633 related to the timing of storing the second information. According to one embodiment, the electronic device 101 may identify a first line and a third line that is different from the second line. The electronic device 101 may identify a third category, which is a category corresponding to the third line, based on identifying the third line. The electronic device 101 may identify a category divided by the language of letters included in the third line. The electronic device 101 may identify the third category, which is a category divided by the language of letters included in the third line. The electronic device 101 may store third information corresponding to the third category from the non-volatile memory to the volatile memory 220 based on identifying the third category.
  • the electronic device 101 may identify the amount of usage of the volatile memory 220 while storing the third information.
  • the electronic device 101 may identify a third time point 635 related to the timing of storing the third information.
  • the electronic device 101 may identify first to third time points 631 to 635 related to the identified peak.
  • the points 631 to 635 can be identified when storing information related to categories of letters from non-volatile memory to volatile memory 220.
  • the electronic device 101 may identify a category corresponding to each line. For example, the electronic device 101 may identify categories matching each of the lines, based on letters included in the lines. The electronic device 101 may identify categories matching each of the lines, based on the language of letters included in the lines. The electronic device 101 may identify information corresponding to the categories based on identifying the categories matching each of the lines. For example, the electronic device 101 may identify information corresponding to the categories within non-volatile memory. The electronic device 101 may store the information from the non-volatile memory to the volatile memory 220 based on identifying the information. The electronic device 101 may obtain data related to the timing at which the information was stored.
  • the electronic device 101 may obtain data related to the usage amount of the volatile memory 220 related to the timing.
  • the electronic device 101 may identify the timing at which information corresponding to the categories is stored based on data related to the usage amount of the volatile memory 220.
  • the electronic device 101 can identify the usage amount of the volatile memory 220 by identifying the stored timing.
  • the electronic device 101 can provide the usage amount and/or usable capacity of the volatile memory 220 to the user of the electronic device 101 by identifying the usage amount of the volatile memory 220.
  • Figure 7 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • the electronic device of FIG. 7 may include the electronic device 101 of FIGS. 1, 2, 3A, 3B, 4A, 4B, 5, and/or 6.
  • the operations of Figure 7 may be executed by processor 120 of Figures 1, 2, and/or 4B.
  • the electronic device displays a display (e.g., the display module 160 of FIG. 1, FIGS. 2, 3A, 3B, 4A, 4B, and/or Alternatively, the image may be displayed through the display 210 of FIG. 5.
  • the electronic device can identify letters within an image displayed through the display.
  • the letters may be related to handwriting.
  • the handwriting may include one or more lines drawn on one side by the user to convey linguistic meaning. However, it is not limited to this. Based on identifying the letters, the electronic device can identify a category divided by the language of the letters.
  • the electronic device may identify categories classified by the language of the letters based on identifying letters in an image displayed through a display.
  • the electronic device matches a first category containing letters from non-volatile memory (e.g., non-volatile memory 134 of FIG. 1 and/or non-volatile memory 230 of FIG. 2) based on the categories.
  • Information can be identified.
  • the electronic device may identify information corresponding to the first category containing the letters from the non-volatile memory, based on categories classified by the language of the letters.
  • the electronic device stores information corresponding to the first category in volatile memory (e.g., volatile memory 132 in FIG. 1 and/or volatile memory 220 in FIG. 2).
  • volatile memory e.g., volatile memory 132 in FIG. 1 and/or volatile memory 220 in FIG. 2.
  • Electronic devices can store information in volatile memory.
  • the electronic device may obtain the information based on letters included in the image.
  • the electronic device can identify categories classified by the language of the letters.
  • the electronic device may identify the first category, which is a category that matches the letters.
  • the electronic device can identify information corresponding to the first category.
  • the electronic device may store the information based on identifying the information corresponding to the first category.
  • the electronic device may store information corresponding to the first category identified from the non-volatile memory in the volatile memory.
  • the electronic device may store information corresponding to the first category stored in the non-volatile memory in the volatile memory.
  • the electronic device may obtain text data corresponding to letters based on information stored in the volatile memory. For example, the electronic device may identify information corresponding to the first category stored in volatile memory. The electronic device may obtain text data matching letters based on information corresponding to the first category. The electronic device may display text related to the letters based on obtaining the text data.
  • an electronic device can display an image on a display.
  • the electronic device can identify letters within the image.
  • the electronic device may identify the first category in which the letters are included based on categories classified by the language of the letters.
  • the electronic device may identify information corresponding to the first category stored in a non-volatile memory.
  • the electronic device may store information corresponding to the first category in volatile memory.
  • the electronic device may obtain text data corresponding to letters based on information stored in the volatile memory.
  • the electronic device can efficiently control the amount of volatile memory used by storing information corresponding to the letters in the volatile memory.
  • Figure 8 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • the electronic device of FIG. 8 includes the electronic device 101 of FIGS. 1, 2, 3A, 3B, 4A, 4B, 5, and/or 6, and/or the electronic device of FIG. 7. can do.
  • the operations of Figure 8 may be executed by processor 120 of Figures 1, 2, and/or 4B.
  • the electronic device may identify lines on which a plurality of letters are arranged within an image.
  • the electronic device may include a display (e.g., display module 160 of Figure 1, and/or display 210 of Figures 2, 3A, 3B, 4A, 4B, and/or 5).
  • the image can be displayed through .
  • the electronic device can identify lines on which a plurality of letters are arranged within an image displayed through the display.
  • the lines represent blocks identified within an image displayed through a display of an electronic device (e.g., block 310 in FIG. 3A, blocks 300 in FIG. 3B, block 410 in FIG. 4A, It may include lines included within block 410 of FIG. 4B and/or block 510 of FIG. 5.
  • one of the lines may include a partial region included within the block (or region).
  • the electronic device may identify categories classified by the language of a character.
  • the electronic device can identify a first line among a plurality of lines.
  • the electronic device may identify the first category corresponding to the first line based on identifying the first line among the plurality of lines.
  • the electronic device can identify a second line among the plurality of lines.
  • the electronic device may identify a second category corresponding to the second line based on identifying the second line among the plurality of lines.
  • the electronic device may identify a first category corresponding to the first line and a second category corresponding to the second line among the plurality of lines, based on categories classified by the language of the letters.
  • the electronic device may identify a third line among a plurality of lines.
  • the electronic device may identify a third category corresponding to the third line based on identifying the third line.
  • the electronic device transfers a language data set from a non-volatile memory (e.g., non-volatile memory 230 of FIG. 2) to a volatile memory (e.g., volatile memory 220 of FIG. 2).
  • the language data set may be referred to as a language DB.
  • the electronic device may identify, within the non-volatile memory, a first language data set corresponding to a first category among a plurality of language data sets.
  • the electronic device may store the first language data set from a non-volatile memory to a volatile memory based on identifying the first language data set.
  • the electronic device may identify a second language data set corresponding to a second category among the plurality of language data sets in the non-volatile memory.
  • the electronic device may store the second language data set from a non-volatile memory to a volatile memory based on identifying the second language data set.
  • the electronic device may store, from a non-volatile memory to a volatile memory, a first language data set corresponding to a first category among a plurality of language data sets, and a second language data set corresponding to a second category.
  • the electronic device may store the first language data set and the second language data set from the non-volatile memory to the volatile memory.
  • the electronic device may obtain text data represented by a plurality of letters included in the lines based on the stored first language data set and the second language data set.
  • the electronic device may display text related to the text data based on acquiring the text data. For example, the electronic device may display the text by overlapping it within an image.
  • the electronic device may display a visual object including the text by superimposing it within the image.
  • the electronic device may identify categories corresponding to each of the plurality of lines. Based on identifying the categories, the electronic device can identify whether the number of identified categories exceeds a specified number. The electronic device may identify that the number of the identified categories exceeds the specified number. The electronic device may identify the frequency of use of the language data set based on identifying the number of categories exceeding the specified number. For example, the frequency of use of the language data set may be related to Table 1 in relation to the number of identified categories in Figure 5. The electronic device may remove at least one language data set among the first language data set and the second language data set stored in the volatile memory, based on the frequency of use of the language data set. The electronic device may store the third language data set corresponding to the third category in a volatile memory based on removing at least one language data set of the first language data set and the second language data set. .
  • the electronic device can identify lines on which a plurality of letters are arranged.
  • the electronic device can identify categories matching each of the lines. Based on identifying the categories matching each of the lines, the electronic device may identify language data sets corresponding to the categories within the non-volatile memory.
  • the electronic device may obtain text data represented by letters included in the lines based on identifying the language data set.
  • the electronic device can efficiently control the amount of volatile memory used by storing language data sets corresponding to letters arranged in lines from non-volatile memory to volatile memory.
  • Figure 9 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • the electronic device of FIG. 9 is the electronic device 101 of FIGS. 1, 2, 3A, 3B, 4A, 4B, 5, and/or 6, the electronic device of FIGS. 7, and/or 8. May include devices.
  • the operations of Figure 9 may be executed by processor 120 of Figures 1, 2, and/or 4B.
  • the electronic device includes a display (e.g., the display module 160 of FIG. 1, FIGS. 2, 3A, 3B, 4A, 4B, and/or 5).
  • An image can be displayed through the display 210.
  • the electronic device can identify areas where a plurality of letters are matched (eg, blocks 330 in FIG. 3B), and types corresponding to each of the areas.
  • the type may be the type of the plurality of letters.
  • the electronic device can identify whether the plurality of letters are printed or handwritten.
  • the typography may be a type of letters expressed by an electronic device or an external electronic device that is different from the electronic device.
  • the handwriting may be of a type related to letters drawn by the user.
  • the electronic device can identify a printing font that matches the first type.
  • the electronic device can identify handwriting that matches the second type.
  • the electronic device can identify at least one of the first type or the second type.
  • the electronic device stores volatile memory (e.g., non-volatile memory 134 of FIG. 1 and/or non-volatile memory 230 of FIG. 2)
  • Information corresponding to the categories of identified areas may be stored in the volatile memory 132 of 1 and/or the volatile memory 220 of FIG. 2.
  • the electronic device may identify categories matching the areas based on identifying areas where a plurality of letters are arranged and types corresponding to each of the areas.
  • the electronic device may identify the categories of the areas where the plurality of letters are arranged based on the fact that the areas are identified as a second type of handwriting.
  • the electronic device may identify categories of areas based on letters included in the areas.
  • the electronic device can identify categories matching each of the areas.
  • the electronic device may store information corresponding to the categories of the identified areas from non-volatile memory to volatile memory.
  • the electronic device may identify information stored in the volatile memory.
  • the electronic device may obtain text data corresponding to at least one of the areas.
  • the electronic device may obtain text data matching at least one of the identified areas based on information stored in the volatile memory.
  • the electronic device may obtain text data matching letters included in the areas.
  • the electronic device can obtain text data to convert the letters into text.
  • the electronic device can obtain text data to display the letters as text.
  • the electronic device can identify types of areas. For example, the electronic device may identify categories matching areas identified as the second type, based on identifying handwriting as the second type among the types of areas. The electronic device may identify information corresponding to each of the categories based on identifying the categories matching the areas identified as the second type. The electronic device can identify information corresponding to each of the categories stored in non-volatile memory. The electronic device may store the information from the non-volatile memory to the volatile memory based on identifying information corresponding to each of the categories stored in the non-volatile memory. The electronic device can efficiently use the amount of volatile memory by storing information related to the categories of the plurality of areas from non-volatile memory to volatile memory based on the types of the plurality of areas.
  • Figure 10 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • the electronic device of FIG. 10 is the electronic device 101 of FIGS. 1, 2, 3A, 3B, 4A, 4B, 5, and/or 6, FIGS. 7, 8, and/or FIG. It may include 9 electronic devices.
  • the operations of Figure 10 may be executed by the processor 120 of Figures 1, 2, and/or 4B.
  • the electronic device displays a display (e.g., the display module 160 of FIG. 1, FIGS. 2, 3A, 3B, 4A, 4B, and/or Alternatively, in an image displayed through the display 210 of FIG. 5, areas where a plurality of letters are arranged and types corresponding to each of the areas can be identified.
  • the types may include a first type and a second type.
  • the first type may be a case where letters included in an image displayed through a display of an electronic device are printed letters.
  • the second type may be a case where letters included in an image displayed through a display of an electronic device are handwritten.
  • Operation 1001 of FIG. 10 may be executed similarly to operation 901 of FIG. 9 .
  • Operation 1001 of FIG. 10 may be substantially the same as operation 901 of FIG. 9 .
  • the electronic device may identify the types of a plurality of areas. For example, the electronic device may identify at least one type among the plurality of areas. The electronic device can identify whether at least one type among the plurality of areas is identified as the first type. According to one embodiment, the electronic device 101 may identify that at least one type among the plurality of areas is the first type.
  • the electronic device may execute the first function corresponding to the first type.
  • the electronic device may execute a first function matching the first type.
  • the first function may include a function that is executed based on whether the letters included in the image are printed characters. Based on executing the first function, the electronic device may obtain text data of letters included in the area identified as the first type. The electronic device may execute the first function based on an operation different from obtaining text data of letters included in an area identified as the second type.
  • the electronic device stores a non-volatile memory (e.g., non-volatile memory 134 of FIG. 1, and /or from non-volatile memory 230 of FIG. 2) to volatile memory (e.g., volatile memory 132 of FIG. 1, and/or volatile memory 220 of FIG. 2), information corresponding to the category of identified areas. can be saved.
  • Operation 1007 may be executed similarly to operation 903. Operation 1007 may be performed substantially the same as operation 903.
  • the electronic device may identify information stored in the volatile memory. For example, the electronic device may identify information related to a category that matches an area included in the image. The electronic device may obtain text data corresponding to at least one of the areas based on the information stored in the volatile memory. The electronic device may display text to represent letters included in the area based on the acquired text data.
  • the electronic device can identify types of areas. For example, the electronic device can execute functions corresponding to the types of areas. For example, the electronic device may execute a first function to obtain text data related to letters included within an area identified as the first type. For example, the electronic device may execute a second function to obtain text data related to letters included within an area identified as the second type. Electronic devices can perform different functions depending on the type of area. An electronic device can efficiently control the amount of volatile memory used by executing different functions based on the type of area.
  • FIG. 11 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • the electronic device of FIG. 11 is the electronic device 101 of FIGS. 1, 2, 3A, 3B, 4A, 4B, and/or 5, FIGS. 6, 7, 8, 9, and /Or may include the electronic device of FIG. 10.
  • the operations of Figure 11 may be executed by processor 120 of Figures 1, 2, and/or 4B.
  • the electronic device displays an image through a display (e.g., the display module 160 of FIG. 1 and/or the display 210 of FIG. 2). You can.
  • the electronic device can identify a plurality of letters within an image displayed through a display.
  • the electronic device can identify areas containing a plurality of letters within an image displayed through a display.
  • the electronic device can identify areas where a plurality of letters are arranged within an image displayed through a display, and types corresponding to each of the areas.
  • Operation 1101 of FIG. 11 may be executed similarly to operation 903 of FIG. 9 and/or operation 1001 of FIG. 10 .
  • the electronic device stores volatile memory (e.g., non-volatile memory 136 of FIG. 1 and/or non-volatile memory 230 of FIG. 2)
  • volatile memory e.g., non-volatile memory 136 of FIG. 1 and/or non-volatile memory 230 of FIG. 2
  • Information corresponding to the categories of identified areas may be stored in the volatile memory 220 of 1 and/or the volatile memory 220 of FIG. 2.
  • Operation 1103 of FIG. 11 may be executed similarly to operation 1007 of FIG. 10 and/or operation 903 of FIG. 9 .
  • the electronic device may identify whether information corresponds to a category stored in the volatile memory, based on storing information corresponding to the category of identified areas in the volatile memory. When the electronic device identifies a category matching the information stored in the volatile memory, it may execute operation 1117.
  • the electronic device may identify whether the category is stored in the non-volatile memory. For example, the electronic device can identify categories distinguished by letters included in the area. The electronic device can identify whether the category is stored in non-volatile memory. The electronic device can identify whether information corresponding to the category is stored in the non-volatile memory. The electronic device may identify whether the category is stored in the non-volatile memory based on identifying a category that is not stored in the volatile memory.
  • the electronic device displays a guide for indicating that the category is not stored in the non-volatile memory. You can. For example, the electronic device may identify that letters included in the area do not match the category stored in the non-volatile memory. The electronic device may display a guide to indicate that the category is not stored in the non-volatile memory, based on identifying that the letters do not match the category stored in the non-volatile memory. The electronic device may display a visual object related to the guide through a display. For example, a visual object related to the guide may be displayed through the display as 'No recognition result.'
  • the electronic device may identify the amount of volatile memory usage.
  • the electronic device can identify whether the usage amount of the volatile memory exceeds a specified threshold.
  • the electronic device can identify the usable capacity of an area for executing functions allocated within the volatile memory.
  • the electronic device can identify whether the available capacity is below a specified threshold.
  • the electronic device may remove at least one of the categories stored in the volatile memory.
  • the electronic device may remove at least one of the categories of information stored in the volatile memory.
  • the electronic device may remove at least one of information in categories occupying an area formed in the volatile memory.
  • the electronic device may store information corresponding to the categories of identified areas from non-volatile memory to volatile memory. Operation 1115 of FIG. 11 may be executed similarly to operation 1007 and/or operation 903 of FIG. 10 .
  • the electronic device obtains text data corresponding to at least one of the areas based on the information stored in the volatile memory. You can.
  • the electronic device can obtain text data matching letters included in the areas.
  • the electronic device can obtain text data to represent the letters.
  • the electronic device may display text related to the text data by overlapping it with at least a portion of the image displayed through the display.
  • the electronic device can identify areas where a plurality of letters are arranged within an image displayed through a display.
  • the electronic device can identify types corresponding to each of the areas.
  • the electronic device may store information corresponding to the category of the identified areas from a non-volatile memory to a volatile memory, based on the types of the areas being identified as a first type and a second type among the second types. .
  • the electronic device may obtain text data corresponding to at least one of the areas based on identifying the category stored in the volatile memory and based on information stored in the volatile memory.
  • the electronic device may identify whether the category of the area is a category stored in the non-volatile memory, based on identifying that the category is not a category stored in the volatile memory.
  • the electronic device may display a guide to indicate that the category is not stored in the non-volatile memory.
  • the electronic device can identify the amount of volatile memory usage based on the category of the area being a category stored in the non-volatile memory.
  • the electronic device may identify that the usage of the volatile memory exceeds a specified threshold.
  • the electronic device may remove at least one of the categories stored in the volatile memory based on the usage of the volatile memory exceeding a specified threshold.
  • the electronic device may store information corresponding to the categories of identified areas from non-volatile memory to volatile memory, based on the usage of volatile memory not exceeding a specified threshold.
  • the electronic device may store information corresponding to the categories of the identified areas from the non-volatile memory to the volatile memory, based on removing at least one of the categories stored in the volatile memory.
  • the electronic device may obtain text data corresponding to at least one of the areas based on storing the information.
  • the electronic device can obtain text data matching letters included in the areas. Based on the acquisition of the text data, the electronic device may display text matching the text data through a display.
  • the electronic device can efficiently control the amount of volatile memory usage by storing only categories corresponding to areas.
  • the electronic device may execute an OCR function to obtain text matching handwriting. While executing the OCR function, a method for efficiently using volatile memory may be required.
  • the electronic device 101 includes a non-volatile memory 134; 230, a volatile memory 132; 220, a display 210, and a processor 120. can do.
  • the processor 120 can identify characters within an image displayed through the display 210.
  • the processor 120 identifies information corresponding to the first category containing the letters from the non-volatile memory 134 (230), based on categories classified by the language of the letters. can do.
  • the processor 120 may store the information corresponding to the first category in the volatile memory 132 (220).
  • the processor 120 may obtain text data corresponding to the letters based on the information stored in the volatile memory 132 (220).
  • the electronic device 101 stores information related to categories corresponding to the letters from the non-volatile memory 134; 230 to the volatile memory 132; 220 based on the letters, thereby storing the volatile memory 132; 220. ) can be used efficiently.
  • the processor 120 based on identifying a plurality of lines (320; 340; 420; 520) in which the letters are arranged, within the image, the lines (320; 340) ; 420; 520) Based on each category, the information stored in the non-volatile memory (134; 230) can be stored in the volatile memory (132; 220).
  • the processor 120 executes threads 441 and 442 corresponding to each of the plurality of lines 320; 340; 420; 520, thereby executing the plurality of lines 320; 340; 420; 520) Text data corresponding to each can be obtained.
  • the processor 120 based on identifying a block including a plurality of lines 320; 340; 420; 520 in which the letters are arranged, the plurality of lines included in the block Lines 320; 340; 420; 520 can be identified.
  • the processor 120 in response to identifying information corresponding to the first category within the volatile memory 132 (220), stores the information corresponding to the first category in the volatile memory 132; Saving in memory 132 (220) can be bypassed.
  • the processor 120 based on identifying other information corresponding to a different category from the first category, from the volatile memory 132; 220. Based on the usage, the other information may be discarded from the volatile memory (132; 220).
  • the processor 120 identifies the usage of a portion of the volatile memory 132 (220), which is configured to store information used to obtain text from letters included in the image. can do.
  • the processor 120 may identify the usage of the volatile memory 132; 220 based on the number of information corresponding to categories stored in the volatile memory 132; 220. .
  • a method of the electronic device 101 may include an operation of identifying characters in an image displayed through the display 210.
  • the method of the electronic device 101 corresponds to a first category containing the letters from the non-volatile memory 134 (230), based on categories classified by the language of the letters. It may include an operation to identify information.
  • the method of the electronic device 101 may include storing the information corresponding to the first category in the volatile memory 132 (220).
  • the method of the electronic device (101) may include obtaining text data corresponding to the letters based on the information stored in the volatile memory (132; 220).
  • the method of the electronic device 101 is based on identifying a plurality of lines 320; 340; 420; 520 in which the letters are arranged within the image, and the lines (320; 340; 420; 520) Based on each category, an operation of storing information stored in the non-volatile memory (134; 230) into the volatile memory (132; 220) may be included.
  • the method of the electronic device 101 executes threads 441 and 442 corresponding to each of the plurality of lines 320; 340; 420; 520, An operation of acquiring text data corresponding to each of the fields 320, 340, 420, and 520 may be included.
  • the method of the electronic device 101 is based on identifying a block including a plurality of lines 320; 340; 420; 520 in which the letters are arranged, and the letters are included in the block. It may include an operation of identifying the plurality of lines 320; 340; 420; 520.
  • the method of the electronic device 101 may, in response to identifying information corresponding to the first category within the volatile memory 132 (220), generate the information corresponding to the first category.
  • An operation of bypassing storing information in the volatile memory 132 (220) may be included.
  • the method of the electronic device 101 is based on identifying other information corresponding to a category different from the first category from the volatile memory 132 (220), the volatile memory (220).
  • An operation of removing the information from the volatile memory (132; 220) may be included based on the usage amount of the memory (132; 220).
  • the method of the electronic device 101 includes information on a portion of the volatile memory 132 (220) set to store information used to obtain text from letters included in the image. It may include an operation to identify the usage amount.
  • the method includes identifying the usage amount of the volatile memory (132; 220) based on the number of information corresponding to categories stored in the volatile memory (132; 220). It can be included.
  • a method of using an electronic device 101 includes lines in which a plurality of letters are arranged within an image displayed through the display 210 in the electronic device 101. It may include an operation to identify (320; 340; 420; 520). The method of the electronic device 101 is based on categories classified by the language of a character, corresponding to each of the plurality of lines 320; 340; 420; 520. It may include an operation to identify categories. The method of the electronic device 101 includes storing information corresponding to each of the identified categories from the non-volatile memory 134; 230 in the electronic device 101 to the volatile memory 132; 220. may include. The method of the electronic device 101 obtains text data represented by the plurality of characters included in the lines 320; 340; 420; 520, based on the stored information. It may include actions such as:
  • the method of the electronic device 101 may include identifying the plurality of lines 320; 340; 420; 520 based on blocks included in the image. .
  • the method of the electronic device 101 is based on identifying the plurality of lines (320; 340; 420; 520), It may include an operation to identify categories.
  • the method of the electronic device 101 may include identifying a first category among the categories from the volatile memory 132 (220).
  • the method of the electronic device 101 is to retrieve the information from the volatile memory 132; 220 based on usage of the volatile memory 132; 220, based on identifying a different category from the first category. It may include an operation to remove .
  • the method of the electronic device 101 may include identifying the amount of usage of the volatile memory 132 (220) based on the number of information corresponding to the categories. .
  • the electronic device 101 includes a display 210, a non-volatile memory 134; 230, a volatile memory 132; 220, and a processor 120. It can be included.
  • the processor 120 may identify lines 320; 340; 420; 520 on which a plurality of letters are arranged within an image displayed through the display 210.
  • the processor 120 identifies categories corresponding to each of the plurality of lines (320; 340; 420; 520) based on categories classified by the language of a character. You can.
  • the processor 120 may store information corresponding to each of the identified categories from the non-volatile memory 134; 230 to the volatile memory 132; 220.
  • the processor 120 may obtain text data represented by the plurality of characters included in the lines 320; 340; 420; 520, based on the stored information.
  • the electronic device 101 may include a display, a non-volatile memory 134; 230, a volatile memory 132; 220, and a processor 120.
  • the non-volatile memory 134 (230) may store a plurality of language data sets including a first language data set, a second language data set, and a third language data set.
  • the processor 120 may identify lines 320; 340; 420; 520 where a plurality of letters are arranged within the image.
  • the processor 120 provides the first language data set corresponding to a first category among a plurality of lines, and the second language data set, based on categories classified by the language of a character.
  • the second language data set corresponding to the category may be stored.
  • the processor 120 based on the stored first language data set and the second language data set, represents the plurality of characters included in the lines 320; 340; 420; 520. (represented by) Text data can be obtained.
  • the processor 120 may identify the plurality of lines 320; 340; 420; 520 based on blocks included in the image.
  • the processor 120 may identify categories corresponding to each of the plurality of lines (320; 340; 420; 520) based on identifying the plurality of lines (320; 340; 420; 520). You can.
  • the processor 120 may identify a third category corresponding to a third line among a plurality of lines.
  • the processor 120 may identify that the number of identified categories exceeds the designated number.
  • the processor 120 selects at least one of the first language data set and the second language data set from the volatile memory 132 (220) based on the fact that the number of the identified categories exceeds the designated number. You can remove language data sets.
  • the processor 120 may store the third language data set corresponding to the third category in the volatile memory 132 (220).
  • the processor 120 may identify a first category among the categories from the volatile memory 132 (220). The processor 120 may remove the information from the volatile memory 132; 220 based on identifying a category that is different from the first category and based on usage of the volatile memory 132; 220. there is.
  • the processor 120 may identify the amount of usage of the volatile memory 132 (220) based on the number of language data sets corresponding to the categories.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, electronic devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one component from another, and to refer to those components in other respects (e.g., importance or order) is not limited.
  • One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.” Where mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these.
  • a processor e.g., processor 120
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • two user devices e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일 실시 예에 따른, 전자 장치는, 디스플레이를 통하여 표시된 이미지 내에서, 글자들을 식별할 수 있다. 전자 장치는, 상기 글자들이 가지는 언어에 의해 구분되는 카테고리들에 기반하여, 비휘발성 메모리로부터, 상기 글자들이 포함된 제1 카테고리에 대응하는 정보를 식별할 수 있다. 전자 장치는, 상기 제1 카테고리에 대응하는 상기 정보를, 휘발성 메모리 내에 저장할 수 있다. 전자 장치는, 상기 휘발성 메모리 내에 저장된 상기 정보에 기반하여 상기 글자들에 대응하는 텍스트 데이터를 획득할 수 있다.

Description

이미지 내에 포함된 글자들을 식별하기 위한 전자 장치 및 그 방법
아래의 설명들은, 이미지 내에 포함된 글자들을 식별하기 위한 전자 장치 및 그 방법에 관한 것이다.
사용자에 의해 그려지거나, 전자 장치, 및/또는 전자 장치와 상이한 외부 전자 장치에 의해 쓰여진 글자들(characters)을 포함하는 이미지로부터 텍스트를 추출하는 전자 장치가 개발되고 있다. 전자 장치는, 이미지 내에 포함된 글자들을 식별할 수 있다. 전자 장치는, 이미지 내에 포함된 획들, 또는 인쇄체로 쓰여진 글자들을 식별할 수 있다.
일 실시 예(an embodiment)에 따른, 전자 장치(electronic device)는, 비휘발성 메모리, 휘발성 메모리, 디스플레이, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이를 통하여 표시된 이미지 내에서, 글자들(characters)를 식별할 수 있다. 상기 프로세서는, 상기 글자들이 가지는 언어(language)에 의해 구분되는 카테고리들에 기반하여, 상기 비휘발성 메모리로부터, 상기 글자들이 포함된 제1 카테고리에 대응하는 정보를 식별할 수 있다. 상기 프로세서는, 상기 제1 카테고리에 대응하는 상기 정보를, 상기 휘발성 메모리 내에 저장할 수 있다. 상기 프로세서는, 상기 휘발성 메모리 내에 저장된 상기 정보에 기반하여 상기 글자들에 대응하는 텍스트 데이터를 획득할 수 있다.
일 실시 예에 따른, 전자 장치(electronic device)의 방법은, 상기 전자 장치 내 디스플레이를 통하여 표시된 이미지 내에서, 글자들(characters)을 식별하는 동작을 포함할 수 있다. 전자 장치의 상기 방법은, 상기 글자들이 가지는 언어(language)에 의해 구분되는 카테고리들에 기반하여, 상기 비휘발성 메모리로부터, 상기 글자들이 포함된 제1 카테고리에 대응하는 정보를 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 제1 카테고리에 대응하는 상기 정보를, 상기 휘발성 메모리 내에 저장하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 휘발성 메모리 내에 저장된 상기 정보에 기반하여, 상기 글자들에 대응하는 텍스트 데이터를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 전자 장치(electronic device)는, 디스플레이, 휘발성 메모리, 프로세서, 및 제1 언어 데이터 세트, 제2 언어 데이터 세트, 및 제3 언어 데이터 세트를 포함하는 복수의 언어 데이터 세트를 저장하는 비휘발성 메모리를 포함할 수 있다. 상기 프로세서는, 이미지 내에서 복수의 글자들이 배치된 라인들을 식별할 수 있다. 상기 프로세서는, 글자(a character)가 가지는 언어(language)에 의해 구분되는 카테고리들에 기반하여, 복수의 라인들 중 제1 라인에 대응하는 제1 카테고리, 및 제2 라인에 대응하는 제2 카테고리를 식별할 수 있다. 상기 프로세서는, 상기 비휘발성 메모리로부터 상기 휘발성 메모리로, 상기 복수의 언어 데이터 세트 중 상기 제1 카테고리에 대응하는 상기 제1 언어 데이터 세트, 및 상기 제2 카테고리에 대응하는 상기 제2 언어 데이터 세트를 저장할 수 있다. 상기 프로세서는, 상기 저장된 제1 언어 데이터 세트, 및 상기 제2 언어 데이터 세트에 기반하여, 상기 라인들에 포함된 상기 복수의 글자들에 의해 표현되는(represented by) 텍스트 데이터를 획득할 수 있다.
일 실시 예에 따른, 전자 장치(electronic device)의 방법은, 상기 전자 장치 내 디스플레이를 통하여 표시된 이미지 내에서, 복수의 글자들이 배치된 라인들을 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 글자(a character)가 가지는 언어(language)에 의해 구분되는 카테고리들에 기반하여, 상기 복수의 라인들 각각에 대응하는 카테고리들을 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 전자 장치 내 비휘발성 메모리로부터 휘발성 메모리로, 상기 식별된 카테고리들 각각에 대응하는 정보를 저장하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 저장된 정보에 기반하여, 상기 라인들에 포함된 상기 복수의 글자들에 의해 표현되는(represented by) 텍스트 데이터를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 전자 장치(electronic device)는, 디스플레이, 비휘발성 메모리, 휘발성 메모리, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이를 통하여 표시된 이미지 내에서, 복수의 글자들이 배치된 라인들을 식별할 수 있다. 상기 프로세서는, 글자(a character)가 가지는 언어(language)에 의해 구분되는 카테고리들에 기반하여, 상기 복수의 라인들 각각에 대응하는 카테고리들을 식별할 수 있다. 상기 프로세서는, 상기 비휘발성 메모리로부터 상기 휘발성 메모리로, 상기 식별된 카테고리들 각각에 대응하는 정보를 저장할 수 있다. 상기 프로세서는, 상기 저장된 정보에 기반하여, 상기 라인들에 포함된 상기 복수의 글자들에 의해 표현되는(represented by) 텍스트 데이터를 획득할 수 있다.
도 1은, 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도에 관한 일 예를 도시한다.
도 2는, 일 실시 예에 따른, 전자 장치의 블록도에 관한 일 예를 도시한다.
도 3a는, 일 실시 예에 따른, 디스플레이를 통하여 표시되는 화면 내에서 글자들을 식별하는 전자 장치의 일 예를 도시한다.
도 3b는, 일 실시 예에 따른, 디스플레이를 통하여 표시되는 화면 내에서 글자들을 식별하는 전자 장치의 일 예를 도시한다.
도 4a는, 일 실시 예에 따른, 디스플레이를 통하여 표시되는 화면 내에서 글자들을 식별하는 전자 장치의 일 예를 도시한다.
도 4b는, 일 실시 예에 따른, 디스플레이를 통하여 표시되는 화면 내에서 글자들을 식별하는 전자 장치의 일 예를 도시한다.
도 5는, 일 실시 예에 따른, 디스플레이를 통하여 표시되는 화면 내에서 글자들을 식별하는 전자 장치의 일 예를 도시한다.
도 6은, 일 실시 예에 따른, 전자 장치의 휘발성 메모리의 사용량의 일 예를 도시한다.
도 7은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다.
도 8은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다.
도 9는, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다.
도 10은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다.
도 11은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다.
도 1은, 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도에 관한 일 예를 도시한다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는, 일 실시 예에 따른, 전자 장치의 블록도에 관한 일 예를 도시한다. 도 2의 전자 장치(101)는, 도 1의 전자 장치(101)를 포함할 수 있다. 도 2의 프로세서(120)는, 도 1의 프로세서(120)를 포함할 수 있다. 도 2의 디스플레이(210)는, 도 1의 디스플레이 모듈(160)을 포함할 수 있다. 도 2의 메모리(130)는, 도 1의 메모리(130)를 포함할 수 있다. 도 2의 휘발성 메모리(220)는, 도 1의 휘발성 메모리(132)를 포함할 수 있다. 도 2의 비휘발성 메모리(230)는, 도 1의 비휘발성 메모리(134)를 포함할 수 있다. 도 2의 동작들은, 도 1의 프로세서(120)에 의해 실행될 수 있다.
도 2를 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 프로세서(120), 디스플레이(210), 및 메모리(130)를 포함할 수 있다. 프로세서(120), 디스플레이(210), 및 메모리(130)는 통신 버스(205)(a communication bus)와 같은 전자 부품(electronical component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 이하에서, 하드웨어들이 작동적으로 결합된 것은, 하드웨어들 중 제1 하드웨어에 의해 제2 하드웨어가 제어되도록, 하드웨어들 사이의 직접적인 연결, 또는 간접적인 연결이 유선으로, 또는 무선으로 수립된 것을 의미할 수 있다. 상이한 블록들에 기반하여 도시되었으나, 실시 예가 이에 제한되는 것은 아니며, 도 2의 하드웨어들 중 적어도 일부분(예, 프로세서(120), 및 메모리(130)의 적어도 일부분)이 SoC(system on a chip)와 같이 단일 집적 회로(single integrated circuit)에 포함될 수 있다. 전자 장치(101) 내에 포함된 하드웨어의 타입, 및/또는 개수는 도 2에 도시된 바에 제한되지 않는다. 예를 들어, 전자 장치(101)는, 도 2에 도시된 하드웨어 중 일부만 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)의 프로세서(120)는, 하나 이상의 인스트럭션들에 기반하여 데이터를 처리하기 위한 하드웨어를 포함할 수 있다. 데이터를 처리하기 위한 상기 하드웨어는, 예를 들어, ALU(arithmetic and logic unit), FPU(floating point unit), FPGA(field programmable gate array), CPU(central processing unit), 및/또는 AP(application processor)를 포함할 수 있다. 프로세서(120)는, 싱글-코어 프로세서의 구조를 가지거나, 또는 듀얼 코어(dual core), 쿼드 코어(quad core), 헥사 코어(hexa core), 옥타 코어(octa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다.
전자 장치(101)의 메모리(130)는, 전자 장치(101)의 프로세서(120)에 입력, 및/또는 출력되는 데이터, 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(130)는, 예를 들어, RAM(random-access memory)와 같은 휘발성 메모리(220)(volatile memory), 및/또는 ROM(read-only memory)와 같은 비휘발성 메모리(230)(non-volatile memory)를 포함할 수 있다. 휘발성 메모리(220)는, 예를 들어, DRAM(dynamic RAM), SRAM(static RAM), cache RAM, PSRAM(pseudo RAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리(230)는, 예를 들어, PROM(programmable ROM), EPROM(erasable PROM), EEPROM(electrically erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, SSD(solid state drive), eMMC(embedded multi media card) 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 비휘발성 메모리(220) 내에, 글자(a character)가 가지는 언어(language)에 의해 구분되는 카테고리들을 식별할 수 있다. 예를 들어, 상기 언어에 의해 구분되는 카테고리들은, 특정 집단(예, 국가 또는 지역)에 속하는 사용자들의 의사소통을 위한 시각적으로 표현된 문자들(letters)과 관련될 수 있다. 예를 들어, 상기 언어에 의해 구분되는 카테고리들은, 한국어, 영어, 중국어, 일본어, 스페인어, 포르투갈어와 같은 카테고리들을 포함할 수 있다. 하지만, 이에 제한되지 않는다.
일 실시 예에 따른, 전자 장치(101)의 디스플레이(210)는, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 예를 들어, 디스플레이(210)는, GPU(graphic processing unit)와 같은 회로를 포함하는 프로세서(120)에 의해 제어되어, 사용자에게 시각화된 정보를 출력할 수 있다. 디스플레이(210)는, FPD(flat panel display), 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는, LCD(liquid crystal display), PDP(plasma display panel), 및/또는 하나 이상의 LED(light emitting diode)를 포함할 수 있다. 상기 LED는, OLED(organic LED)를 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 디스플레이(210)를 통하여 이미지를 표시할 수 있다. 전자 장치(101)는, 디스플레이(210)를 통하여 표시된 이미지 내에서, 글자들(characters)을 식별할 수 있다. 전자 장치(101)는, 상기 글자들에 기반하여, 상기 글자들에 대응하는 텍스트를 획득할 수 있다. 예를 들어, 전자 장치(101)는, 디스플레이(210)를 통하여 손 글씨, 및/또는 인쇄체(printed)로 쓰여진 글자들을 표시할 수 있다. 예를 들어, 상기 손 글씨는, 상기 글자들과 관련될 수 있다. 상기 손 글씨는, 언어적 의미(linguistic meaning)를 전달하기 위하여, 사용자에 의해 일 면 상에 그려진, 하나 이상의 선들을 포함할 수 있다. 실시 예가 이에 제한되지 않으며, 손 글씨는, 언어적 의미와 상이한 사용자의 의도(예, 사용자의 비언어적 의미)를 전달하기 위해 일 면 상에 그려진, 하나 이상의 선들을 포함할 수 있다. 예를 들어, 인쇄체로 쓰여진 글자들은, 전자 장치(101), 및/또는 전자 장치(101)와 상이한 외부 전자 장치에 의해 쓰여진 글자들을 포함할 수 있다. 예를 들어, 인쇄체로 쓰여진 글자들은, 전자 장치(101), 및/또는 외부 전자 장치의 메모리 내에 저장된 폰트(font)에 기반하여 작성된 글자들을 포함할 수 있다. 이하에서, 글자들은, 손 글씨, 및/또는 인쇄체와 관련된 문자들을 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 글자들로부터 텍스트를 획득하기 위한 OCR(optical character recognition) 기능을 실행할 수 있다. 전자 장치(101)는, 상기 OCR 기능을 실행하기 위해 휘발성 메모리(220) 내에 영역을 형성할 수 있다. 전자 장치(101)는, 상기 영역을 형성하기 위한 초기화(initialization)를 수행할 수 있다. 전자 장치(101)는, 상기 초기화를 수행하는 동안, 상기 휘발성 메모리(220)의 적어도 일부 영역을 확보(secure)할 수 있다. 상기 초기화는, 휘발성 메모리(220)의 적어도 일부 영역을 확보하기 위한 동작을 포함할 수 있다. 후술되는 비휘발성 메모리(230)로부터 휘발성 메모리(220)로 정보를 저장하는 것은, 비휘발성 메모리(230) 내에 저장된 정보를 휘발성 메모리(220)로 전달하는 동작을 포함할 수 있다. 후술되는 비휘발성 메모리(230)로부터 휘발성 메모리(220)로 정보를 저장하는 것은, 비휘발성 메모리(230) 내에 저장된 정보를 휘발성 메모리(220)의 일 영역에 할당하는 동작을 포함할 수 있다. 후술되는 비휘발성 메모리(230)로부터 휘발성 메모리(220)로 정보를 저장하는 것은, 비휘발성 메모리(230) 내에 저장된 정보를 휘발성 메모리(220)의 일 영역에 저장하는 동작을 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 디스플레이(210)를 통하여 표시되는 이미지 내에서, 글자들이 배치된 블록들(blocks)을 식별할 수 있다. 상기 블록은, 이미지 내의 일 영역으로 참조될 수 있다. 전자 장치(101)는, 상기 이미지 내에서, 상기 복수의 글자들이 배치된 라인들(lines)을 식별할 수 있다. 상기 라인들은, 상기 영역 내에 포함된 부분 영역으로 참조될 수 있다. 상기 블록들, 및/또는 라인들은, 인공 지능과 관련된 연산을 수행하기 위한 하드웨어(예, NPU(neural processing unit), 및/또는 GPU(graphic processing unit)), 상기 인공 지능과 관련된 기능을 제공하기 위한 소프트웨어, 및/또는 외부 전자 장치(예, 상기 인공 지능과 관련된 기능을 제공하는 서버)에 기반하여 획득된 정보(또는 데이터)에 기반하여 획득될 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 글자들이 가지는 언어에 의해 구분되는 카테고리를 식별할 수 있다. 예를 들어, 상기 글자들이 가지는 언어에 의해 구분되는 카테고리는 언어의 종류에 의해 구분될 수 있다. 예를 들어, 상기 글자들이 가지는 언어에 의해 구분되는 카테고리는, 상기 글자들의 언어의 종류에 매칭될 수 있다. 예를 들어, 전자 장치(101)는, 상기 글자들을 식별한 것에 기반하여, 상기 글자들에 매칭되는 카테고리를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 비휘발성 메모리(230) 내에 저장된 언어에 의해 구분되는 카테고리들을 식별할 수 있다. 전자 장치(101)는, 비휘발성 메모리(230)로부터 상기 글자들이 포함된 제1 카테고리에 매칭되는 정보를 식별할 수 있다. 전자 장치(101)는, 상기 제1 카테고리에 매칭되는 상기 정보를 식별한 것에 기반하여, 상기 정보를, 휘발성 메모리(220) 내에 저장할 수 있다. 전자 장치(101)는, 휘발성 메모리(220) 내에 형성된 일 영역 내에, 상기 정보를 저장할 수 있다. 전자 장치(101)는, 상기 휘발성 메모리(220) 내에 형성된 일 영역 내에, 상기 정보를 할당(assign)할 수 있다. 예를 들어, 전자 장치(101)는, 상기 이미지 내에서, 상기 글자들이 배열된 복수의 라인들을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 이미지 내에서, 글자들이 배열된 복수의 라인들을 포함하는 블록을 식별할 수 있다. 전자 장치(101)는, 상기 복수의 라인들을 포함하는 블록을 식별한 것에 기반하여, 상기 블록 내에 포함된 상기 복수의 라인들을 식별할 수 있다. 전자 장치(101)는, 상기 복수의 라인들을 식별한 것에 기반하여, 상기 라인들 각각에 매칭되는 카테고리들을 식별할 수 있다. 전자 장치(101)는, 상기 라인들 각각에 매칭되는 카테고리들을 식별한 것에 기반하여, 비휘발성 메모리(230) 내에 저장된 상기 카테고리들과 관련된 정보를 휘발성 메모리(220)로 저장할 수 있다.
예를 들어, 상기 카테고리들과 관련된 정보, 및/또는 카테고리들에 대응하는 정보는, 이미지 내에 표시된 글자들을 식별하기 위한 데이터를 포함할 수 있다. 예를 들어, 상기 카테고리들과 관련된 정보, 및/또는 카테고리들에 대응하는 정보는, 이미지 내에 표시된 글자들을 식별하기 위한 데이터의 집합을 포함할 수 있다. 상기 데이터의 집합은, 상기 카테고리에 대응하는 언어에 기반하여, 이미지로부터 글자를 식별하기 위한 뉴럴 네트워크를 형성하기 위한 파리미터(예, 뉴럴 네트워크 내에 포함된 노드들 사이의 가중치들)를 포함할 수 있다. 상기 데이터의 집합은, 글자를 식별하기 위한 하나 이상의 참조 이미지들(예, 상기 카테고리에 대응하는 언어의 글자들이 개별적으로 캡쳐된 이미지)을 포함할 수 있다. 상기 데이터의 집합은, 참조 이미지, 및 참조 이미지에 매칭된 텍스트 데이터의 페어들(pairs)을 포함하는 말뭉치(corpora)를 포함할 수 있다. 상기 데이터의 집합은, 카테고리에 대응하는 언어에 기반하는 자연어 단어의 집합(예, 딕셔너리)을 포함할 수 있다. 예를 들어, 상기 카테고리들과 관련된 정보, 및/또는 카테고리들에 대응하는 정보는, 글자들의 언어를 식별하기 위한 데이터 베이스를 포함할 수 있다. 예를 들어, 카테고리들과 관련된 정보, 및/또는 카테고리들에 대응하는 정보는, 언어DB(database)로 참조될 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 복수의 라인들 각각에 매칭되는 카테고리들 중에서 중복되는 카테고리들을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 제1 라인에 매칭되는 제1 카테고리를 식별할 수 있다. 전자 장치(101)는, 제2 라인에 매칭되는 제1 카테고리를 식별할 수 있다. 전자 장치(101)는, 제1 라인, 및 제2 라인의 카테고리가 제1 카테고리인 것을 식별할 수 있다. 전자 장치(101)는, 상기 제1 라인, 및 상기 제2 라인의 카테고리가 동일한 것을 식별할 수 있다. 전자 장치(101)는, 상기 제1 라인에 매칭되는 제1 카테고리를 식별한 것에 기반하여, 상기 제1 카테고리와 관련된 정보를, 비휘발성 메모리(230)로부터 휘발성 메모리(220)로 저장할 수 있다. 전자 장치(101)는, 상기 제1 카테고리와 관련된 정보를 상기 휘발성 메모리(220)로 저장한 것에 기반하여, 제2 라인에 매칭되는 제1 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제2 라인에 매칭되는 제1 카테고리를 식별한 것에 기반하여, 상기 제2 라인에 매칭되는 제1 카테고리와 관련된 정보를, 휘발성 메모리(220) 내에 저장하는 것을 바이패스(bypass)할 수 있다. 예를 들어, 전자 장치(101)는, 동일한 카테고리를 식별한 때에, 상기 카테고리에 대응하는 정보를 휘발성 메모리(220) 내에 1 회만 저장할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 휘발성 메모리(220)의 사용량(usage)에 기반하여, 휘발성 메모리(220) 내에 저장된 라인들 각각에 매치되는 카테고리에 대응하는 정보를 제거(discard)할 수 있다. 예를 들어, 전자 장치(101)는, 휘발성 메모리(220)의 사용량과 관련된 상기 카테고리에 대응하는 정보의 개수를 식별할 수 있다. 전자 장치(101)는, 상기 휘발성 메모리(220) 내에 저장될 수 있는 카테고리들에 대응하는 정보의 개수를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 휘발성 메모리(220) 내에 저장될 수 있는 카테고리들에 대응하는 정보의 임계치(예, 5개)를 식별할 수 있다. 상기 휘발성 메모리(220) 내에 저장될 수 있는 카테고리들의 개수, 또는 임계치는, 상기 휘발성 메모리(220)의 용량(capacity)과 관련될 수 있다. 전자 장치(101)는, 상기 휘발성 메모리(220)의 용량이 클수록, 더 많은 카테고리들을 저장할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 휘발성 메모리(220) 내에 제1 카테고리에 매칭되는 정보를 저장할 수 있다. 상기 제1 카테고리는, 이미지 내에서 식별된 글자들의 언어와 매칭되는 일 카테고리일 수 있다. 전자 장치(101)는, 휘발성 메모리(220) 내에 제1 카테고리에 매칭되는 정보를 저장한 것에 기반하여, 디스플레이(210)를 통하여 표시되는 글자들에 대응하는 텍스트 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 텍스트 데이터를 획득한 것에 기반하여, 상기 텍스트 데이터에 매칭되는 텍스트를 디스플레이(210)를 통하여 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상기 글자들에 매칭되는 텍스트를, 디스플레이(210) 내에 표시된 이미지와 중첩하여 표시할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 디스플레이(210)를 통하여 이미지를 표시할 수 있다. 전자 장치(101)는, 상기 이미지 내에서 글자들을 식별할 수 있다. 전자 장치(101)는 상기 글자들이 가지는 언어에 의해 구분되는 카테고리들을 식별할 수 있다. 전자 장치(101)는, 비휘발성 메모리(230)로부터, 상기 글자들이 포함된 제1 카테고리에 매칭되는 정보를 식별할 수 있다. 전자 장치(101)는, 상기 글자들이 가지는 언어에 의해 구분되는 카테고리들을 식별한 것에 기반하여, 상기 비휘발성 메모리(230)로부터, 상기 글자들이 포함된 제1 카테고리에 매칭되는 정보를 식별할 수 있다. 전자 장치(101)는, 상기 제1 카테고리에 대응하는 상기 정보를, 상기 비휘발성 메모리(230)로부터 휘발성 메모리(220)로 저장할 수 있다. 전자 장치(101)는, 상기 휘발성 메모리(220)로 저장된 상기 정보에 기반하여, 상기 글자들에 대응하는 텍스트 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 텍스트 데이터와 관련된 텍스트를 표시할 수 있다. 전자 장치(101)는, 상기 글자들에 대응하는 상기 텍스트 데이터를 획득한 것에 기반하여, 상기 텍스트 데이터와 관련된 텍스트를, 디스플레이(210)를 통하여 표시할 수 있다. 전자 장치(101)는, 상기 비휘발성 메모리(230)로부터 상기 휘발성 메모리(220)로, 상기 식별된 글자들에 대응하는 카테고리에 대응하는 정보를 저장함으로써, 상기 휘발성 메모리(220)의 사용량을 감소시킬 수 있다.
도 3a는, 일 실시 예에 따른, 디스플레이를 통하여 표시되는 화면 내에서 글자들을 식별하는 전자 장치의 일 예를 도시한다. 도 3b는, 일 실시 예에 따른, 디스플레이를 통하여 표시되는 화면 내에서 글자들을 식별하는 전자 장치의 일 예를 도시한다. 도 3a 내지 도 3b의 전자 장치(101)는, 도 1, 및/또는 도 2의 전자 장치(101)를 포함할 수 있다. 도 3a 내지 도 3b의 디스플레이(210)는, 도 1의 디스플레이 모듈(160), 및/또는 도 2의 디스플레이(210)를 포함할 수 있다. 도 3a 내지 도 3b의 동작들은, 도 1, 및/또는 도 2의 프로세서(120)에 의해 실행될 수 있다.
도 3a 내지 도 3b를 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 디스플레이(210)를 통하여 이미지를 표시할 수 있다. 전자 장치(101)는, 상기 이미지 내에서, 글자들을 식별할 수 있다. 전자 장치(101)는, 상기 글자들을 포함하는 블록(310)을 식별할 수 있다. 예를 들어, 상기 블록(310)은, 영역으로 참조될 수 있다. 전자 장치(101)는, 상기 블록(310) 내에 포함된 라인들(320)을 식별할 수 있다. 예를 들어, 상기 라인들(320)은, 복수의 글자들을 포함하는 부분 영역들로 참조될 수 있다. 이하에서, 블록(310)은 일 영역을 포함할 수 있고, 라인들(320)은 영역 내에 포함된 부분 영역들을 포함할 수 있다. 상기 라인들(320) 내에, 제1 라인(321), 제2 라인(323), 및 제3 라인(325)이 포함될 수 있다. 상기 제1 라인(321) 내지 제3 라인(325)은, 설명의 편의를 위한 것이며, 이에 제한되지 않는다.
일 실시 예에 따른, 전자 장치(101)는, 비휘발성 메모리(예, 도 2의 비휘발성 메모리(230)) 내에 저장된 복수의 언어DB(database)를 저장할 수 있다. 예를 들면 전자 장치(101)는 비휘발성 메모리(예, 도 2의 비휘발성 메모리(230)) 내에 한국어에 대응되는 제1 언어DB, 영어에 대응되는 제 2 언어DB, 중국어에 대응되는 제3 언어DB를 저장 할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 이미지 내에 포함된 글자들을 식별할 수 있다. 전자 장치(101)는, 상기 글자들을 포함하는 라인들(320)을 식별할 수 있다. 전자 장치(101)는, 상기 글자들을 식별한 것에 기반하여, 상기 라인들(320)을 식별할 수 있다. 전자 장치(101)는, 상기 라인들(320)을 식별한 것에 기반하여, 상기 라인들(320) 내에 포함된 글자들이 가지는 언어에 의해 구분되는 카테고리들을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 비휘발성 메모리(예, 도 2의 비휘발성 메모리(230)) 내에 저장된 글자들이 가지는 언어에 의해 구분되는 카테고리들 중에서, 상기 라인들(320) 각각에 대응하는 카테고리들을 식별할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 라인들(320) 내에 포함된 글자들의 언어에 의해 구분되는 카테고리가 비휘발성 메모리 내에 저장되지 않은 것을 식별할 수 있다. 전자 장치(101)는, 상기 비휘발성 메모리 내에서 상기 글자들의 언어에 의해 구분되는 카테고리를 식별하지 못한 것에 기반하여, 디스플레이(210)를 통하여, 시각적 객체를 표시할 수 있다. 예를 들어, 상기 시각적 객체는, '인식 결과가 없습니다.'와 같은, UI(user interface)로 표시될 수 있다.
도 3a를 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 라인들(320) 내에 포함된 글자들의 카테고리를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 'Hello!'를 포함하는 제1 라인(321)을 식별할 수 있다. 전자 장치(101)는, 'nice to meet you.'를 포함하는 제2 라인(323)을 식별할 수 있다. 전자 장치(101)는, 'How are you?'를 포함하는 제3 라인(325)을 식별할 수 있다. 전자 장치(101)는, 상기 라인들(320)을 식별한 것에 기반하여, 상기 라인들(320)에 매칭되는 카테고리를 식별할 수 있다. 도 3a의 일 예에서, 전자 장치(101)는, 상기 라인들(320)에 포함된 글자들에 대응하는 카테고리인 '영어(English)'를 식별할 수 있다. 전자 장치(101)는, 라인들(320)에 포함된 글자들에 대응하는 카테고리를 식별한 것에 기반하여, 비휘발성 메모리 내에 저장된 '영어'에 대응하는 정보를, 휘발성 메모리(예, 도 2의 휘발성 메모리(220))로 저장할 수 있다. 예를 들어, 전자 장치(101)는, 상기 비휘발성 메모리 내에 저장된 '영어'에 대응하는 정보를, 휘발성 메모리의 일 영역에 할당할 수 있다. 전자 장치(101)는, 상기 휘발성 메모리에 저장된 '영어'에 대응하는 정보에 기반하여, 상기 글자들에 대응하는 텍스트 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 텍스트 데이터를 획득한 것에 기반하여, 상기 텍스트 데이터를 표현하기 위한 텍스트를, 디스플레이(210)를 통하여 표시할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 라인들(320)에 포함된 글자들에 대응하는 언어의 종류인 '영어(English)'를 식별할 수 있다. 전자 장치(101)는, 라인들(320)에 포함된 글자들에 대응하는 언어의 종류를 식별한 것에 기반하여, 비휘발성 메모리 내에 저장된 복수의 언어DB 중에 '영어'에 대응하는 언어DB를, 휘발성 메모리(예, 도 2의 휘발성 메모리(220))로 저장할 수 있다. 예를 들어, 전자 장치(101)는, 상기 비휘발성 메모리 내에 저장된 '영어'에 대응하는 언어DB를, 휘발성 메모리의 일 영역에 할당할 수 있다. 전자 장치(101)는, 상기 휘발성 메모리에 저장된 '영어'에 대응하는 언어DB에 기반하여, 상기 글자들에 대응하는 텍스트 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 텍스트 데이터를 획득한 것에 기반하여, 상기 텍스트 데이터를 표현하기 위한 텍스트를, 디스플레이(210)를 통하여 표시할 수 있다.
도 3b를 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 디스플레이(210)를 통하여 이미지를 표시할 수 있다. 전자 장치(101)는, 상기 이미지 내에서, 복수의 글자들을 포함하는 복수의 블록들(300)을 식별할 수 있다. 전자 장치(101)는, 상기 복수의 블록들(300) 내에 포함된 라인들(320, 340)을 식별할 수 있다. 전자 장치(101)는, 복수의 글자들을 포함하는 라인들(320, 340)을 식별할 수 있다. 전자 장치(101)는, 상기 블록들(300), 및 상기 라인들(320, 340) 중 적어도 하나를 식별할 수 있다. 전자 장치(101)는, 복수의 글자들을 포함하는 라인들(320, 340) 각각의 카테고리를 식별할 수 있다.
도 3b의 일 예에서, 전자 장치(101)는, 'Hello!'를 포함하는 제1 라인(321)의 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제1 라인(321)의 카테고리를 제1 카테고리인 '영어'로 식별할 수 있다. 전자 장치(101)는, 'nice to meet you.'를 포함하는 제2 라인(323)의 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제2 라인(323)의 카테고리를 제1 카테고리인 '영어'로 식별할 수 있다. 전자 장치(101)는, 'How are you?'를 포함하는 제3 라인(325)의 카테고리를 식별할 수 있다. 전자 장치(101)는, 제3 라인(325)의 카테고리를 제1 카테고리인 '영어'로 식별할 수 있다. 전자 장치(101)는, 상기 제1 라인(321) 내지 상기 제3 라인(325)의 카테고리를 제1 카테고리인 '영어'로 식별한 것에 기반하여, 상기 제1 카테고리에 대응하는 제1 정보를 비휘발성 메모리 내에 저장되어 있는지 여부를 식별할 수 있다. 전자 장치(101)는, 상기 비휘발성 메모리 내에 저장된 상기 제1 카테고리에 대응하는 제1 정보를, 상기 비휘발성 메모리로부터 휘발성 메모리로 저장할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 'hallo! guten Morgen.'를 포함하는 제4 라인(341)을 식별할 수 있다. 전자 장치(101)는, 'hallo! guten Morgen.'를 포함하는 제4 라인(341)의 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제4 라인(341)의 카테고리를 제2 카테고리인 '독일어(German)'로 식별할 수 있다. 전자 장치(101)는, 상기 제4 라인(341)의 카테고리를 제2 카테고리로 식별한 것에 기반하여, 비휘발성 메모리 내에, 상기 제2 카테고리에 대응하는 제2 정보가 저장되어 있는지 여부를 식별할 수 있다. 전자 장치(101)는, 상기 제2 카테고리에 대응하는 제2 정보가 저장되어 있는 것을 식별할 수 있다. 전자 장치(101)는, 비휘발성 메모리 내에 저장된 제2 정보를 식별한 것에 기반하여, 상기 비휘발성 메모리로부터 휘발성 메모리로 상기 제2 정보를 저장할 수 있다. 전자 장치(101)는, 제1 카테고리에 대응하는 제1 정보를 저장한 후에, 상기 제2 카테고리에 대응하는 제2 정보를 저장할 수 있다.
예를 들어, 전자 장치(101)는, 'Ciao! buon giorno.'를 포함하는 제5 라인(343)을 식별할 수 있다. 전자 장치(101)는, 'Ciao! buon giorno.'를 포함하는 제5 라인(343)의 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제5 라인(343)의 카테고리를 제3 카테고리인 '이탈리아어(Italian)'로 식별할 수 있다. 전자 장치(101)는, 제5 라인(343)의 카테고리를 제3 카테고리로 식별한 것에 기반하여, 상기 제3 카테고리에 대응하는 제3 정보가 비휘발성 메모리 내에 저장되어 있는지 여부를 식별할 수 있다. 전자 장치(101)는, 상기 제3 정보가 비휘발성 메모리 내에 저장된 것을 식별할 수 있다. 전자 장치(101)는, 비휘발성 메모리 내에 저장된 상기 제3 정보를, 비휘발성 메모리로부터 휘발성 메모리로 저장할 수 있다. 전자 장치(101)는, 제1 정보, 및 제2 정보를 저장한 후에 상기 제3 정보를 저장할 수 있다. 예를 들어, 전자 장치(101)는, 'Olα! bom dia.'를 포함하는 제6 라인(345)를 식별할 수 있다. 전자 장치(101)는, 'Olα! bom dia.'를 포함하는 제6 라인(345)의 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제6 라인(345)의 카테고리를 제4 카테고리인 '포르투갈어(Portuguese)'로 식별할 수 있다. 전자 장치(101)는, 상기 제6 라인(345)의 카테고리를 제4 카테고리로 식별한 것에 기반하여, 상기 제4 카테고리에 대응하는 제4 정보가 비휘발성 메모리 내에 저장되어 있는지 여부를 식별할 수 있다. 전자 장치(101)는, 상기 제4 카테고리에 대응하는 제4 정보가 상기 비휘발성 메모리 내에 저장된 것을 식별할 수 있다. 전자 장치(101)는, 상기 비휘발성 메모리 내에 저장된 상기 제4 카테고리에 대응하는 제4 정보를 식별한 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리로 상기 제4 카테고리에 대응하는 제4 정보를 저장할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제1 정보 내지 상기 제3 정보를 휘발성 메모리 내에 저장한 후에 상기 제4 정보를, 휘발성 메모리 내에 저장할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 휘발성 메모리 내에 저장된, 복수의 라인들(320, 340) 각각에 대응하는 정보들을 식별할 수 있다. 전자 장치(101)는, 상기 정보들에 기반하여, 상기 복수의 라인들(320, 340) 내에 포함된 글자들과 관련된 텍스트 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 글자들에 매칭되는 카테고리들 각각에 기반하여, 상기 글자들과 관련된 텍스트 데이터를 획득할 수 있다. 전자 장치(101)는, 디스플레이(210)를 통하여, 상기 복수의 라인들(320, 340) 각각에 대응하는 텍스트 데이터를 획득한 것에 기반하여, 상기 복수의 라인들(320, 340) 내에 포함된 글자들을 표현하기 위한 텍스트를 표시할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 복수의 글자들을 포함하는 복수의 라인들(320, 340)을 식별할 수 있다. 전자 장치(101)는, 상기 복수의 라인들(320, 340)에 포함된 글자들과 매칭되고, 상기 글자들이 가지는 언어에 의해 구분되는 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 복수의 라인들(320, 340) 각각에 매칭되는 카테고리들을 식별할 수 있다. 전자 장치(101)는, 상기 복수의 라인들(320, 340) 각각에 매칭되는 카테고리들을 식별한 것에 기반하여, 상기 카테고리들에 매칭되는 정보를, 비휘발성 메모리로부터 휘발성 메모리로 저장할 수 있다. 전자 장치(101)는, 상기 휘발성 메모리 내에 저장된 상기 카테고리들에 매칭되는 정보에 기반하여, 상기 글자들을 표현하기 위한 텍스트 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 텍스트 데이터를 획득한 것에 기반하여, 상기 글자들과 관련된 텍스트를, 디스플레이(210)를 통하여 표시할 수 있다. 전자 장치(101)는, 상기 글자들에 매칭되는 카테고리들을, 휘발성 메모리로 할당할 수 있다. 전자 장치(101)는, 상기 글자들에 매칭되는 카테고리들만을, 상기 휘발성 메모리로 할당함으로써, 상기 휘발성 메모리의 사용량을 감소시킬 수 있다.
도 4a는, 일 실시 예에 따른, 디스플레이를 통하여 표시되는 화면 내에서 글자들을 식별하는 전자 장치의 일 예를 도시한다. 도 4b는, 일 실시 예에 따른, 디스플레이를 통하여 표시되는 화면 내에서 글자들을 식별하는 전자 장치의 일 예를 도시한다. 도 4a 내지 도 4b의 전자 장치(101)는, 도 1, 도 2, 도 3a, 및/또는 도 3b의 전자 장치(101)를 포함할 수 있다. 도 4a 내지 도 4b의 동작들은, 도 1, 및/또는 도 2의 프로세서(120)에 의해 실행될 수 있다.
도 4a 내지 도 4b를 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 디스플레이(210)를 통하여 이미지를 표시할 수 있다. 전자 장치(101)는, 상기 이미지 내에서 글자들을 식별할 수 있다. 전자 장치(101)는, 상기 이미지 내에서 블록(410)을 식별할 수 있다. 전자 장치(101)는, 상기 블록(410) 내에 포함된 라인들(420)을 식별할 수 있다. 전자 장치(101)는, 상기 라인들(420) 내에 포함된 글자들을 식별할 수 있다. 전자 장치(101)는, 상기 라인들(420) 내에 포함된 글자들에 기반하여, 상기 라인들(420) 각각에 매칭되는 카테고리들을 식별할 수 있다. 전자 장치(101)는, 상기 라인들(420) 각각에 매칭되는 카테고리들을 식별한 것에 기반하여, 비휘발성 메모리(예, 도 2의 비휘발성 메모리(230)) 내에 저장된 상기 카테고리들에 매칭되는 정보를 식별할 수 있다. 전자 장치(101)는, 상기 카테고리들에 매칭되는 정보를 식별한 것에 기반하여, 상기 카테고리들에 매칭되는 정보를 비휘발성 메모리로부터 휘발성 메모리(220)로 저장할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 글자들이 포함된 제1 라인(421) 내지 제6 라인(426)을 식별할 수 있다. 전자 장치(101)는, 상기 제1 라인(421) 내지 상기 제6 라인(426)에 매칭되는 카테고리를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제1 라인(421) 내지 상기 제6 라인(426) 내에 포함된 글자들에 기반하여, 상기 글자들이 가지는 언어에 의해 구분되는 카테고리들을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제1 라인(421) 내에 포함된 'Hello! good morning.'을 식별할 수 있다. 전자 장치(101)는, 'Hello! good morning.'의 언어에 의해 구분되는 카테고리인 제1 카테고리를 식별할 수 있다. 예를 들어, 상기 제1 카테고리는 '영어'일 수 있다. 전자 장치(101)는, 제2 라인(422) 내에 포함된 'Hola! buenos dias.'를 식별할 수 있다. 전자 장치(101)는, 상기 제2 라인(422) 내에 포함된 'Hola! buenos dias.'의 언어에 의해 구분되는 카테고리인 제2 카테고리를 식별할 수 있다. 예를 들어, 상기 제2 카테고리는, '스페인어(Spanish)'일 수 있다. 전자 장치(101)는, 제3 라인(423) 내에 포함된 'hallo! guten Morgen.'를 식별할 수 있다. 전자 장치(101)는, 'hallo! guten Morgen.'의 언어에 의해 구분되는 카테고리인 제3 카테고리를 식별할 수 있다. 예를 들어, 상기 제3 카테고리는, '독일어(German)'일 수 있다. 전자 장치(101)는, 제4 라인(424) 내에 포함된 'Ciao! buon giorno.'를 식별할 수 있다. 전자 장치(101)는, 'Ciao! buon giorno.'의 언어에 의해 구분되는 카테고리인 제4 카테고리를 식별할 수 있다. 예를 들어, 상기 제4 카테고리는, '이탈리아어(Italian)'일 수 있다. 전자 장치(101)는, 제5 라인(425) 내에 포함된 'Olα! bom dia.'를 식별할 수 있다. 전자 장치(101)는, 'Olα! bom dia.'의 언어에 구분되는 카테고리인 제5 카테고리를 식별할 수 있다. 예를 들어, 상기 제5 카테고리는, '포르투갈어(Portuguese)'일 수 있다. 전자 장치(101)는, 제6 라인(426) 내에 포함된 '안녕하세요! 좋은 아침입니다.'를 식별할 수 있다. 전자 장치(101)는, '안녕하세요! 좋은 아침입니다.'의 언어에 의해 구분되는 카테고리인 제6 카테고리를 식별할 수 있다. 예를 들어, 상기 제6 카테고리는, '한국어(Korean)'일 수 있다. 전자 장치(101)는, 상기 제1 카테고리 내지 상기 제6 카테고리를 식별한 것에 기반하여, 상기 제1 카테고리 내지 상기 제6 카테고리 각각에 대응하는 정보(예: 언어DB)를, 비휘발성 메모리로부터 휘발성 메모리(220)로 저장할 수 있다.
도 4a를 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 제1 라인(421) 내지 제4 라인(424)를 식별한 상태(400) 내에서, 상기 제1 라인(421) 내지 상기 제4 라인(424)에 매칭되는 카테고리들과 관련된 정보를 휘발성 메모리(220)에 할당할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제1 라인(421) 내지 상기 제4 라인(424)에 매칭되는 카테고리들에 대응하는 정보를 휘발성 메모리(220) 내에 형성된 영역들 내에 저장할 수 있다.
예를 들어, 전자 장치(101)는 제1 라인(421) 내에 포함된 글자들에 의해 구분되는 제1 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제1 카테고리에 대응하는 제1 정보(예: 제1 언어DB)를, 비휘발성 메모리로부터 휘발성 메모리(220)의 제1 영역(431)으로 저장할 수 있다. 전자 장치(101)는, 제2 라인(422) 내에 포함된 글자들에 의해 구분되는 제2 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제2 카테고리에 대응하는 제2 정보(예: 제2 언어DB)를, 비휘발성 메모리로부터 휘발성 메모리(220)의 제2 영역(432)으로 저장할 수 있다. 전자 장치(101)는, 제3 라인(423) 내에 포함된 글자들에 의해 구분되는 제3 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제3 카테고리에 대응하는 제3 정보(예: 제3 언어DB)를, 비휘발성 메모리로부터 휘발성 메모리(220)의 제3 영역(433)으로 저장할 수 있다. 전자 장치(101)는, 제4 라인(424) 내에 포함된 글자들에 의해 구분되는 제4 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제4 카테고리에 대응하는 제4 정보(예: 제4 언어DB)를, 비휘발성 메모리로부터 휘발성 메모리(220)의 제4 영역(434)으로 저장할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 제1 영역(431) 내지 제4 영역(434) 내에, 제1 정보 내지 제4 정보가 저장된 상태(400) 내에서, 제5 라인(425), 및 제6 라인(426)을 식별할 수 있다. 전자 장치(101)는, 상기 제5 라인(425)을 식별한 것에 기반하여, 상기 제5 라인(425) 내에 포함된 글자들에 의해 구분되는 카테고리를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제5 라인(425) 내에 포함된 글자들에 의해 구분되는 제5 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제5 카테고리에 대응하는 제5 정보(예: 제5 언어DB)를, 비휘발성 메모리로부터 휘발성 메모리(220)의 제5 영역(435)으로 저장할 수 있다. 전자 장치(101)는, 제6 라인(426) 내에 포함된 글자들에 의해 구분되는 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제6 라인(426) 내에 포함된 글자들에 의해 구분되는 제6 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제6 카테고리를 식별한 것에 기반하여, 상기 제6 카테고리에 대응하는 제6 정보(예: 제6 언어DB)를, 비휘발성 메모리로부터 휘발성 메모리(220)로 저장할 수 있다. 전자 장치(101)는, 제6 정보(예: 제6 언어DB)를 저장하기 위해, 휘발성 메모리(220) 내에 사용량(usage)을 식별할 수 있다. 전자 장치(101)는, 상기 사용량이 지정된 사용량을 초과한 것에 기반하여, 제1 라인(421) 내에 포함된 글자들에 의해 구분되는 제1 카테고리에 대응하는 제1 정보를 제거할 수 있다. 예를 들어, 전자 장치(101)는, 라인들(420) 내에 포함된 글자들에 의해 구분되는 카테고리들이 식별된 횟수를 식별할 수 있다. 전자 장치(101)는, 상기 식별된 횟수에 기반하여, 휘발성 메모리(220)의 일 영역 내에 저장된 정보를 제거할 수 있다. 예를 들어, 전자 장치(101)는, 라인들(420) 중 가장 먼저 식별된 라인에 대응하는 정보를 제거할 수 있다. 예를 들어, 전자 장치(101)는, 휘발성 메모리(220)에 저장된 언어DB의 개수가 지정된 언어DB의 개수를 초과하는지 식별할 수 있다. 예를 들어, 전자 장치(101)는, 휘발성 메모리(220)에 저장된 언어DB의 개수가 지정된 언어DB의 개수를 초과했다고 판단하면, 라인들(420) 중 가장 먼저 식별된 라인에 대응하는 언어DB를 제거할 수 있다. 도 4a의 상태(405)에서, 전자 장치(101)는, 제1 라인(421)에 대응하는 제1 정보인 '영어'를 다른 정보에 비해 우선하여 제거할 수 있다. 전자 장치(101)는, 상기 제1 정보를 제거한 것에 기반하여, 제6 정보를, 제1 영역(431) 내에 저장할 수 있다.
도 4b를 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 디스플레이(210)를 통하여 표시되는 이미지 내에서 블록(410)을 식별할 수 있다. 전자 장치(101)는, 상기 블록(410) 내에 포함된 라인들(420)을 식별할 수 있다. 전자 장치(101)는, 상기 라인들(420) 내에 포함된 글자들을 식별할 수 있다. 전자 장치(101)는, 상기 라인들(420) 각각에 포함된 글자들에 기반하여, 상기 라인들(420) 각각의 카테고리를 식별할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 라인들에 매칭되는 카테고리를 식별하기 위해, 상기 라인들을 프로세서(120)의 쓰레드에 할당할 수 있다. 예를 들어, 전자 장치(101)는, 제1 라인 내지 제k 라인을, 제1 쓰레드(441)에 할당할 수 있다. 전자 장치(101)는, 제k+1 라인 내지 제n 라인을 제2 쓰레드(442)에 할당할 수 있다. 상기 k, 및 상기 n 은, 이미지 내에서 식별된 라인들의 적어도 일부를 나타내기 위한 자연수일 수 있다. 전자 장치(101)는, 상기 라인들(420) 각각의 카테고리를 식별할 때에, 상기 라인들(420) 중 적어도 일부를, 프로세서(120)의 제1 쓰레드(441)에 할당할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제1 쓰레드(441)에 할당될 상기 라인들(420)의 개수를 지정할 수 있다. 전자 장치(101)는, 상기 라인들(420) 중 적어도 일부를 제외한 나머지 일부를, 프로세서(120)의 제2 쓰레드(442)에 할당할 수 있다. 예를 들어, 전자 장치(101)는, 각각의 라인들(420)을, 제1 쓰레드(441), 및 제2 쓰레드(442)에 할당한 것에 기반하여, 상기 라인들(420) 내에 포함된 글자들에 의해 구분되는 카테고리를 식별할 수 있다.
도 4b의 일 예에서, 전자 장치(101)는, 제1 라인(421) 내지 제3 라인(423)을 제1 쓰레드(441)에 할당할 수 있다. 전자 장치(101)는, 상기 제1 쓰레드(441)의 실행에 기반하여, 상기 제1 라인(421) 내지 상기 제3 라인(423) 내에 포함된 글자들에 의해 구분되는 카테고리들을 식별할 수 있다. 전자 장치(101)는, 상기 카테고리들을 식별한 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리로, 상기 카테고리들에 대응하는 정보를 저장할 수 있다. 전자 장치(101)는, 상기 비휘발성 메모리로부터 상기 휘발성 메모리 내에 형성된 영역 내에, 상기 카테고리들에 대응하는 정보를 저장할 수 있다. 전자 장치(101)는, 제4 라인(424) 내지 제6 라인(426)을 제2 쓰레드(442)에 할당할 수 있다. 전자 장치(101)는, 상기 제2 쓰레드(442)의 실행에 기반하여, 상기 제4 라인(424) 내지 상기 제6 라인(426) 내에 포함된 글자들에 의해 구분되는 카테고리들을 식별할 수 있다. 전자 장치(101)는, 상기 제4 라인(424) 내지 상기 제6 라인(426)에 매칭되는 카테고리들을 식별할 수 있다. 전자 장치(101)는, 상기 제4 라인(424) 내지 상기 제6 라인(425)에 매칭되는 카테고리들을 식별한 것에 기반하여, 상기 카테고리들에 대응하는 정보를, 비휘발성 메모리로부터 휘발성 메모리로 저장할 수 있다.
도 4a 내지 도 4b를 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 휘발성 메모리(220) 내에, 라인들(420)에 기반하여 획득된 정보를 저장할 수 있다. 전자 장치(101)는, 휘발성 메모리(220) 내에 형성된 영역들(431 내지 435) 내에 저장된 정보에 기반하여, 라인들(420) 내에 포함된 글자들과 관련된 텍스트 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 텍스트 데이터를 획득한 것에 기반하여, 제1 라인(421) 내지 제6 라인(426)에 매칭되는 텍스트를 표시할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 라인들(420)을 식별할 수 있다. 전자 장치(101)는, 라인들(420) 내에 포함된 글자들을 식별할 수 있다. 전자 장치(101)는, 상기 라인들(420) 내에 포함된 글자들의 언어에 의해 구분되는 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 카테고리를 식별한 것에 기반하여, 상기 카테고리와 관련된 정보를 비휘발성 메모리로부터 획득할 수 있다. 전자 장치(101)는, 상기 비휘발성 메모리로부터 획득된 상기 정보를, 휘발성 메모리(220)로 저장할 수 있다. 전자 장치(101)는, 식별된 라인들(420)에 매칭되는 글자들과 관련된 정보를, 비휘발성 메모리로부터 휘발성 메모리(220)로 저장할 수 있다. 전자 장치(101)는, 상기 휘발성 메모리(220) 내에 저장된 정보에 기반하여, 상기 라인들(420) 내에 포함된 글자들과 관련된 텍스트 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 텍스트 데이터를 획득한 것에 기반하여, 상기 글자들을 표현하기 위한 텍스트를 표시할 수 있다. 전자 장치(101)는, 상기 식별된 라인들(420) 내에 포함된 글자들의 언어에 의해 구분되는 카테고리에 기반하여, 비휘발성 메모리로부터 휘발성 메모리(220)로 글자들과 관련된 정보를 저장함으로써, 휘발성 메모리(220)의 사용량을 감소시킬 수 있다.
도 5는, 일 실시 예에 따른, 디스플레이를 통하여 표시되는 화면 내에서 글자들을 식별하는 전자 장치의 일 예를 도시한다. 도 5의 전자 장치(101)는, 도 1, 도 2, 도 3a, 도 3b, 도 4a, 및/또는 도 4b의 전자 장치(101)를 포함할 수 있다. 도 5의 디스플레이(210)는, 도 1의 디스플레이 모듈(160), 도 2, 도 3a, 도 3b, 도 4a, 및/또는 도 4b의 디스플레이(210)를 포함할 수 있다. 도 5의 동작들은, 도 1, 도 2, 및/또는 도 4b의 프로세서(120)에 의해 실행될 수 있다.
도 5를 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 디스플레이(210)를 통하여 이미지를 표시할 수 있다. 전자 장치(101)는, 상기 디스플레이(210)를 통하여 이미지를 표시하는 동안, 상기 이미지 내에 포함된 블록(510)을 식별할 수 있다. 전자 장치(101)는, 상기 블록(510) 내에 포함된 라인들(520)을 식별할 수 있다. 전자 장치(101)는, 상기 라인들(520) 내에 포함된 글자들을 식별할 수 있다. 전자 장치(101)는, 상기 라인들(520) 각각에 포함된 글자들에 기반하여, 상기 글자들의 언어에 의해 구분되는 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 라인들(520) 각각에 매칭되는 카테고리가 식별된 횟수를 식별할 수 있다. 전자 장치(101)는, 상기 라인들(520) 각각에 매치되는 카테고리가 식별된 빈도를 식별할 수 있다. 전자 장치(101)는, 상기 식별된 횟수(또는 빈도)를 식별한 것에 기반하여, 상기 횟수를 포함하는 테이블을 생성할 수 있다. 전자 장치(101)는, 상기 테이블 내에 포함된 데이터에 기반하여, 휘발성 메모리(220) 내에 저장되는 정보를 지정할 수 있다. 전자 장치(101)는, 상기 테이블 내에 포함된 데이터에 기반하여, 상기 휘발성 메모리(220) 내에 저장된 정보를 제거할 수 있다. 예를 들어, 전자 장치(101)는, 상대적으로 적은 횟수가 식별된 카테고리에 대응하는 정보를, 휘발성 메모리(220) 내에서 제거할 수 있다.
도 5의 일 예에서, 전자 장치(101)는, 제1 라인(521)에 매칭되는 제1 카테고리인 '영어'를 식별할 수 있다. 전자 장치(101)는, 제2 라인(522)에 매칭되는 제2 카테고리인 '스페인어'를 식별할 수 있다. 전자 장치(101)는, 제3 라인(523)에 매칭되는 제3 카테고리인 '독일어'를 식별할 수 있다. 전자 장치(101)는, 제4 라인(524)에 매칭되는 제4 카테고리인 '이탈리아어'를 식별할 수 있다. 전자 장치(101)는, 제5 라인(525)에 매칭되는 제5 카테고리인 '포르투갈어'를 식별할 수 있다. 전자 장치(101)는, 제6 라인(526)에 매칭되는 제1 카테고리인 '영어'를 식별할 수 있다. 전자 장치(101)는, 제7 라인(527)에 매칭되는 제6 카테고리인 '한국어'를 식별할 수 있다. 전자 장치(101)는, 라인들(520)에 매칭되는 카테고리를 식별한 것에 기반하여, 상기 식별된 카테고리의 횟수를 하기 표 1과 같은 테이블을 생성할 수 있다.
카테고리 식별된 횟수
제1 카테고리(영어) 2회
제2 카테고리(스페인어) 1회
제3 카테고리(독일어) 1회
제4 카테고리(이탈리아어) 1회
제5 카테고리(포르투갈어) 1회
제6 카테고리(한국어) 1회
상기 표 1을 참고하면, 전자 장치(101)는, 제1 카테고리인 '영어'를 2 회 식별한 데이터를 획득할 수 있다. 전자 장치(101)는, 제2 카테고리인 '스페인어'를 1 회 식별한 데이터를 획득할 수 있다. 전자 장치(101)는, 제3 카테고리인 '독일어'를 1 회 식별한 데이터를 획득할 수 있다. 전자 장치(101)는, 제4 카테고리인 '이탈리아어'를 1 회 식별한 데이터를 획득할 수 있다. 전자 장치(101)는, 제5 카테고리인 '포르투갈어'를 1 회 식별한 데이터를 획득할 수 있다. 전자 장치(101)는, 제6 카테고리인 '한국어'를 1 회 식별한 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 카테고리들이 식별된 횟수와 관련된 데이터를 획득한 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리(220)로 저장하는 카테고리들에 매칭되는 정보를 지정할 수 있다.
도 5의 일 예에서, 전자 장치(101)는, 제1 라인(521) 내지 제4 라인(524)를 식별한 상태(500) 내에서, 상기 제1 라인(521) 내지 상기 제4 라인(524) 각각에 대응하는 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제1 라인(521) 내지 상기 제4 라인(524) 각각에 대응하는 카테고리를 식별한 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리(220)로 상기 카테고리에 매칭되는 정보를 저장할 수 있다. 예를 들어, 전자 장치(101)는, 제1 라인(521) 내에 포함된 글자들의 카테고리에 매칭되는 제1 카테고리인 '영어'에 대응하는 정보를 휘발성 메모리(220) 내에 형성된 제1 영역(531) 내에 저장할 수 있다. 전자 장치(101)는, 제2 라인(522) 내에 포함된 글자들의 카테고리에 매칭되는 제2 카테고리인 '스페인어'에 대응하는 정보를 휘발성 메모리(220) 내에 형성된 제2 영역(532) 내에 저장할 수 있다. 전자 장치(101)는, 제3 라인(523) 내에 포함된 글자들의 카테고리에 매칭되는 제3 카테고리인 '독일어'에 대응하는 정보를 휘발성 메모리(220) 내에 형성된 제3 영역(533) 내에 저장할 수 있다. 전자 장치(101)는, 제4 라인(524) 내에 포함된 글자들의 카테고리에 매칭되는 제4 카테고리인 '이탈리아어'에 대응하는 정보를 휘발성 메모리(220) 내에 형성된 제4 영역(534) 내에 저장할 수 있다. 전자 장치(101)는, 제1 라인(521) 내지 제4 라인(524) 각각에 매치되는 카테고리에 대응하는 정보를 휘발성 메모리(220) 내에 형성된 영역들(531 내지 534) 내에 저장할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 정보를 저장한 것에 기반하여, 제5 라인(525) 내지 제7 라인(527) 각각에 포함된 글자들에 기반하여, 상기 제5 라인(525) 내지 상기 제7 라인(527)의 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제5 라인(525) 내지 상기 제7 라인(527) 내에 포함된 글자들의 언어에 의해 구분되는 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제5 라인(525) 내에 포함된 글자들의 카테고리에 매칭되는 제5 카테고리인 '포르투갈어'를 식별할 수 있다. 전자 장치(101)는, 상기 제5 카테고리인 '포르투갈어'를 식별한 것에 기반하여, 상기 제5 카테고리에 대응하는 정보를, 비휘발성 메모리로부터 휘발성 메모리(220)로 저장할 수 있다. 전자 장치(101)는, 상기 휘발성 메모리(220) 내에 형성된 제5 영역(535) 내에 상기 제5 카테고리에 대응하는 정보를 저장할 수 있다. 전자 장치(101)는, 제6 라인(526) 내에 포함된 글자들의 카테고리에 매칭되는 제1 카테고리인 '영어'를 식별할 수 있다. 전자 장치(101)는, 제7 라인(527) 내에 포함된 글자들의 카테고리에 매칭되는 제6 카테고리인 '한국어'를 식별할 수 있다. 전자 장치(101)는, 상기 제6 카테고리인 '한국어'를 휘발성 메모리(220) 내에 저장하기 위해, 상기 표 1 내에 포함된 데이터를 이용할 수 있다. 예를 들어, 전자 장치(101)는, 상기 표 1 내에서 제1 카테고리인 '영어'를 식별한 횟수가 가장 많은 것을 식별할 수 있다. 전자 장치(101)는, 상기 제1 카테고리와 상이한 카테고리들(예, 제2 카테고리 내지 제5 카테고리)이 식별된 횟수가 제1 카테고리가 식별된 횟수에 비해 상대적으로 적은 것을 식별할 수 있다. 전자 장치(101)는, 제6 카테고리인 '한국어'를 휘발성 메모리(220) 내에 저장할 때, 상대적으로 적은 횟수가 식별된 제2 카테고리 내지 제5 카테고리 중 하나를 제거할 수 있다. 예를 들어, 전자 장치(101)는 제1 카테고리에 비해 상대적으로 적은 횟수가 식별된 제2 카테고리인 '스페인어'를, 휘발성 메모리(220) 내에서 제거할 수 있다. 전자 장치(101)는, 상기 제2 카테고리를 휘발성 메모리(220) 내에서 제거한 것에 기반하여, 상기 제2 카테고리가 저장되었던 제2 영역(532) 내에 제6 카테고리인 '한국어'를 저장할 수 있다. 전자 장치(101)는, 제1 라인(521) 내지 제7 라인(527)을 식별한 상태(505) 내에서, 제2 라인(522)에 매칭되는 제2 카테고리에 대응하는 정보를 휘발성 메모리(220) 내에서 제거할 수 있다. 전자 장치(101)는, 상기 제2 라인(522)에 대응하는 정보를 휘발성 메모리(220) 내에서 제거한 것에 기반하여, 제7 라인(527)에 매칭되는 제6 카테고리에 대응하는 정보를 휘발성 메모리(220) 내에 형성된 제2 영역(532) 내에 저장할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 라인들(520)에 포함된 글자들에 의해 구분되는 카테고리를 식별할 수 있다. 전자 장치(101)는, 라인들(520) 각각에 매칭되는 카테고리를 식별할 수 있다. 전자 장치(101)는, 카테고리들이 식별된 횟수를 식별할 수 있다. 전자 장치(101)는, 상기 카테고리들이 식별된 횟수에 관련된 데이터를 포함하는 테이블을 생성할 수 있다. 전자 장치(101)는, 상기 테이블 내에 포함된 상기 카테고리들이 식별된 횟수에 관련된 데이터에 기반하여, 휘발성 메모리(220)로 저장하는 카테고리에 대응하는 정보를 제거할 수 있다. 전자 장치(101)는, 카테고리들이 식별된 횟수에 기반하여 휘발성 메모리(220)의 사용량을 조절할 수 있다. 전자 장치(101)는, 상기 카테고리들이 식별된 횟수에 기반하여 휘발성 메모리(220)의 사용량을 조절함으로써, 휘발성 메모리(220)의 사용량을 효율적으로 사용할 수 있다.
도 6은, 일 실시 예에 따른, 전자 장치의 휘발성 메모리의 사용량의 일 예를 도시한다. 도 6의 전자 장치(101)는, 도 1, 도 2, 도 3a, 도 3b, 도 4a, 도 4b, 및/또는 도 5의 전자 장치(101)를 포함할 수 있다. 도 6의 동작들은 도 1, 도 2, 및/또는 도 4b의 프로세서(120)에 의해 실행될 수 있다.
도 6을 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 휘발성 메모리(220)의 사용량을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 라인들(예, 도 3a의 라인들(320) 도 3b의 라인들(320, 340), 도 4a의 라인들(420), 도 4b의 라인들(420), 및/또는 도 5의 라인들(520))을 식별할 수 있다. 전자 장치(101)는, 상기 라인들을 식별한 것에 기반하여, 상기 라인들에 포함된 글자들에 기반하여, 상기 라인들의 카테고리를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 글자들에 의해 구분되는 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 카테고리를 식별한 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리(220)로 상기 카테고리에 대응하는 정보를 저장할 수 있다. 전자 장치(101)는, 상기 휘발성 메모리(220)로 상기 카테고리에 대응하는 정보를 저장한 것에 기반하여, 상기 휘발성 메모리(220)의 사용량을 식별할 수 있다.
도 6의 일 예에서, 전자 장치(101)는, 제1 구간(610) 내에서, 휘발성 메모리(220)의 사용량을 식별할 수 있다. 상기 제1 구간(610)은, 전자 장치(101)의 휴지 상태(idle state)를 나타낼 수 있다. 전자 장치(101)는, 제2 구간(620) 내에서, 휘발성 메모리(220)의 사용량을 식별할 수 있다. 예를 들어, 상기 제2 구간(620)는, 디스플레이(예, 도 2의 디스플레이(210)) 내에 이미지를 표시한 상태일 수 있다. 예를 들어, 전자 장치(101)는, 상기 제2 구간(620) 내에서, 상기 이미지 내에 포함된 글자들을 식별하기 위해, 초기화(initialization)를 수행하는 상태일 수 있다. 예를 들어, 전자 장치(101)는, 상기 제2 구간(620) 내에서, OCR 기능을 실행하기 위해, 휘발성 메모리(220)의 영역을 확보할 수 있다. 예를 들어, 전자 장치(101)는, 비휘발성 메모리로부터 휘발성 메모리(220)로 정보를 저장하기 위해, 휘발성 메모리(220)의 영역을 확보할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 제3 구간(630) 내에서, 이미지 내에 포함된 글자들에 기반하여, 라인들에 매칭되는 카테고리를 식별할 수 있다. 전자 장치(101)는, 라인들 내에 포함된 글자들에 의해 구분되는 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 라인들 각각에 매칭되는 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 라인들 각각에 매칭되는 상기 카테고리를 식별한 것에 기반하여, 상기 카테고리에 대응하는 정보를 비휘발성 메모리 내에서 식별할 수 있다. 전자 장치(101)는, 상기 비휘발성 메모리 내에서, 상기 카테고리에 대응한 정보를 식별한 것에 기반하여, 휘발성 메모리(220)로 저장할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 제4 구간(640) 내에서, 실행된 OCR 기능을 종료할 수 있다.
도 6의 일 예에서, 전자 장치(101)는, 제3 구간(630) 동안 3 개의 라인들을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 제1 라인 내에 포함된 글자들에 기반하여, 상기 제1 라인의 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제1 라인 내에 포함된 글자들에 의해 구분되는 카테고리인 제1 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제1 카테고리를 식별한 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리(220)로 상기 제1 카테고리에 대응하는 제1 정보를 저장할 수 있다. 상기 제1 카테고리에 대응하는 제1 정보를 저장한 때에, 전자 장치(101)는, 상기 휘발성 메모리(220)의 사용량을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 제1 카테고리에 대응하는 제1 정보를 저장하는 동안, 휘발성 메모리(220)의 사용량과 관련된 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 휘발성 메모리(220)의 사용량과 관련된 데이터 내에서, 제1 시점(631)을 식별할 수 있다. 상기 제1 시점(631)은, 비휘발성 메모리로부터 휘발성 메모리(220)로 제1 카테고리에 대응하는 제1 정보를 저장하는 타이밍과 관련될 수 있다. 전자 장치(101)는, 상기 제1 라인과 상이한 제2 라인을 식별할 수 있다. 전자 장치(101)는, 상기 제2 라인 내에 포함된 글자들에 기반하여, 상기 제2 라인에 대응하는 제2 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제2 라인 내에 포함된 글자들의 언어에 의해 구분되는 제2 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제2 카테고리를 식별한 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리(220)로 상기 제2 카테고리에 대응하는 제2 정보를 저장할 수 있다. 전자 장치(101)는, 상기 제2 정보를 휘발성 메모리(220) 내에 저장할 때에, 상기 제2 정보를 저장하는 타이밍과 관련된 제2 지점(633)을 식별할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 제1 라인, 및 제2 라인과 상이한 제3 라인을 식별할 수 있다. 전자 장치(101)는, 상기 제3 라인을 식별한 것에 기반하여, 상기 제3 라인에 대응하는 카테고리인 제3 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제3 라인 내에 포함되는 글자들의 언어에 의해 구분되는 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제3 라인 내에 포함되는 글자들의 언어에 의해 구분되는 카테고리인 제3 카테고리를 식별할 수 있다. 전자 장치(101)는, 상기 제3 카테고리를 식별한 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리(220)로 상기 제3 카테고리에 대응하는 제3 정보를 저장할 수 있다. 전자 장치(101)는, 상기 제3 정보를 저장하는 동안, 휘발성 메모리(220)의 사용량을 식별할 수 있다. 전자 장치(101)는, 상기 제3 정보를 저장하는 타이밍과 관련된 제3 시점(635)를 식별할 수 있다. 전자 장치(101)는, 상기 제1 정보 내지 상기 제3 정보를 저장할 때에, 식별되는 피크(peak)와 관련된 제1 시점(631) 내지 제3 시점(635)를 식별할 수 있다. 상기 시점들(631 내지 635)은, 비휘발성 메모리로부터 휘발성 메모리(220)로 글자들의 카테고리와 관련된 정보를 저장할 때에 식별될 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 라인들 각각에 대응하는 카테고리를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 라인들 내에 포함된 글자들에 기반하여, 상기 라인들 각각에 매칭되는 카테고리들을 식별할 수 있다. 전자 장치(101)는, 라인들 내에 포함된 글자들의 언어에 기반하여, 상기 라인들 각각에 매칭되는 카테고리들을 식별할 수 있다. 전자 장치(101)는, 상기 라인들 각각에 매칭되는 카테고리들을 식별한 것에 기반하여, 상기 카테고리들에 대응하는 정보를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 비휘발성 메모리 내에서, 상기 카테고리들에 대응하는 정보를 식별할 수 있다. 전자 장치(101)는, 상기 정보를 식별한 것에 기반하여, 상기 비휘발성 메모리로부터 휘발성 메모리(220)로 상기 정보를 저장할 수 있다. 전자 장치(101)는, 상기 정보가 저장된 타이밍과 관련된 데이터를 획득할 수 있다. 예를 들어, 전자 장치(101)는, 상기 타이밍과 관련된 휘발성 메모리(220)의 사용량과 관련된 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 휘발성 메모리(220)의 사용량과 관련된 데이터에 기반하여, 상기 카테고리들에 대응하는 정보가 저장된 타이밍을 식별할 수 있다. 전자 장치(101)는, 상기 저장된 타이밍을 식별함으로써, 휘발성 메모리(220)의 사용량을 식별할 수 있다. 전자 장치(101)는, 상기 휘발성 메모리(220)의 사용량을 식별함으로써, 휘발성 메모리(220)의 사용량, 및/또는 가용량(usable capacity)을 전자 장치(101)의 사용자에게 제공할 수 있다.
도 7은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다. 도 7의 전자 장치는, 도 1, 도 2, 도 3a, 도 3b, 도 4a, 도 4b, 도 5, 및/또는 도 6의 전자 장치(101)를 포함할 수 있다. 도 7의 동작들은, 도 1, 도 2, 및/또는 도 4b의 프로세서(120)에 의해 실행될 수 있다.
도 7을 참고하면, 동작 701에서, 일 실시 예에 따른, 전자 장치는, 디스플레이(예, 도 1의 디스플레이 모듈(160), 도 2, 도 3a, 도 3b, 도 4a, 도 4b, 및/또는 도 5의 디스플레이(210))를 통하여 이미지를 표시할 수 있다. 전자 장치는, 상기 디스플레이를 통하여 표시된 이미지 내에서, 글자들을 식별할 수 있다. 예를 들어, 상기 글자들은, 손 글씨와 관련될 수 있다. 예를 들어, 상기 손 글씨는, 언어적 의미를 전달하기 위해, 사용자에 의해 일 면 상에 그려진, 하나 이상의 선들을 포함할 수 있다. 하지만, 이에 제한되지 않는다. 전자 장치는, 상기 글자들을 식별한 것에 기반하여, 글자들이 가지는 언어에 의해 구분되는 카테고리를 식별할 수 있다.
동작 703에서, 일 실시 예에 따른, 전자 장치는, 디스플레이를 통하여 표시된 이미지 내에서 글자들을 식별한 것에 기반하여, 상기 글자들이 가지는 언어에 의해 구분되는 카테고리들을 식별할 수 있다. 전자 장치는, 상기 카테고리들에 기반하여, 비휘발성 메모리(예, 도 1의 비휘발성 메모리(134), 및/또는 도 2의 비휘발성 메모리(230))로부터 글자들이 포함된 제1 카테고리에 매칭되는 정보를 식별할 수 있다. 전자 장치는, 글자들이 가지는 언어에 의해 구분되는 카테고리들에 기반하여, 비휘발성 메모리로부터, 글자들이 포함된 제1 카테고리에 대응하는 정보를 식별할 수 있다.
동작 705에서, 일 실시 예에 따른, 전자 장치는, 제1 카테고리에 대응하는 정보를 휘발성 메모리(예, 도 1의 휘발성 메모리(132), 및/또는 도 2의 휘발성 메모리(220)) 내에 저장할 수 있다. 전자 장치는, 휘발성 메모리 내에 정보를 저장할 수 있다. 예를 들어, 전자 장치는, 이미지 내에 포함된 글자들에 기반하여 상기 정보를 획득할 수 있다. 예를 들어, 전자 장치는, 상기 글자들에 기반하여, 상기 글자들이 가지는 언어에 의해 구분되는 카테고리를 식별할 수 있다. 예를 들어, 전자 장치는, 상기 글자들에 매칭되는 카테고리인 제1 카테고리를 식별할 수 있다. 전자 장치는, 상기 제1 카테고리에 대응하는 정보를 식별할 수 있다. 전자 장치는, 상기 제1 카테고리에 대응하는 정보를 식별한 것에 기반하여, 상기 정보를 저장할 수 있다. 예를 들어, 전자 장치는, 비휘발성 메모리로부터 식별된 제1 카테고리에 대응하는 정보를, 휘발성 메모리 내에 저장할 수 있다. 전자 장치는, 비휘발성 메모리 내에 저장된 제1 카테고리에 대응하는 정보를, 휘발성 메모리 내에 저장할 수 있다.
동작 707에서, 일 실시 예에 따른, 전자 장치는, 휘발성 메모리 내에 저장된 정보에 기반하여 글자들에 대응하는 텍스트 데이터를 획득할 수 있다. 예를 들어, 전자 장치는, 휘발성 메모리 내에 저장된, 제1 카테고리에 대응하는 정보를 식별할 수 있다. 전자 장치는, 상기 제1 카테고리에 대응하는 정보에 기반하여, 글자들에 매칭되는 텍스트 데이터를 획득할 수 있다. 전자 장치는, 상기 텍스트 데이터를 획득한 것에 기반하여, 상기 글자들과 관련된 텍스트를 표시할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 디스플레이 내에 이미지를 표시할 수 있다. 전자 장치는, 상기 이미지 내에서 글자들을 식별할 수 있다. 전자 장치는, 상기 글자들이 가지는 언어에 의해 구분되는 카테고리들에 기반하여, 상기 글자들이 포함된 제1 카테고리를 식별할 수 있다. 전자 장치는, 비휘발성 메모리 내에 저장된 상기 제1 카테고리에 대응하는 정보를 식별할 수 있다. 전자 장치는, 제1 카테고리에 대응하는 정보를 휘발성 메모리 내에 저장할 수 있다. 전자 장치는, 상기 휘발성 메모리 내에 저장된 정보에 기반하여 글자들에 대응하는 텍스트 데이터를 획득할 수 있다. 전자 장치는, 상기 글자들에 대응하는 정보를 휘발성 메모리에 저장함으로써, 휘발성 메모리의 사용량을 효율적으로 조절할 수 있다.
도 8은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다. 도 8의 전자 장치는, 도 1, 도 2, 도 3a, 도 3b, 도 4a, 도 4b, 도 5, 및/또는 도 6의 전자 장치(101), 및/또는 도 7의 전자 장치를 포함할 수 있다. 도 8의 동작들은 도 1, 도 2, 및/또는 도 4b의 프로세서(120)에 의해 실행될 수 있다.
도 8을 참고하면, 동작 801에서, 일 실시 예에 따른, 전자 장치는, 이미지 내에서, 복수의 글자들이 배치된 라인들을 식별할 수 있다. 예를 들어, 전자 장치는, 디스플레이(예, 도 1의 디스플레이 모듈(160), 및/또는 도 2, 도 3a, 도 3b, 도 4a, 도 4b, 및/또는 도 5의 디스플레이(210))를 통하여 이미지를 표시할 수 있다. 전자 장치는, 상기 디스플레이를 통하여 표시된 이미지 내에서 복수의 글자들이 배치된 라인들을 식별할 수 있다. 예를 들어, 상기 라인들은, 전자 장치의 디스플레이를 통하여 표시되는 이미지 내에서 식별된 블록(예, 도 3a의 블록(310), 도 3b의 블록들(300), 도 4a의 블록(410), 도 4b의 블록(410), 및/또는 도 5의 블록(510)) 내에 포함된 라인들을 포함할 수 있다. 예를 들어, 상기 라인들 중 하나는, 상기 블록(또는 영역) 내에 포함된 부분 영역을 포함할 수 있다.
동작 803에서, 일 실시 예에 따른, 전자 장치는, 글자(a character)가 가지는 언어(language)에 의해 구분되는 카테고리들을 식별할 수 있다. 전자 장치는, 복수의 라인들 중 제1 라인을 식별할 수 있다. 전자 장치는, 복수의 라인들 중 제1 라인을 식별한 것에 기반하여, 상기 제1 라인에 대응하는 제1 카테고리를 식별할 수 있다. 전자 장치는, 복수의 라인들 중 제2 라인을 식별할 수 있다. 전자 장치는, 복수의 라인들 중 제2 라인을 식별한 것에 기반하여, 상기 제2 라인에 대응하는 제2 카테고리를 식별할 수 있다. 전자 장치는, 글자가 가지는 언어에 의해 구분되는 카테고리들에 기반하여, 복수의 라인들 중 제1 라인에 대응하는 제1 카테고리, 및 제2 라인에 대응하는 제2 카테고리를 식별할 수 있다. 상기 동작 803에서, 전자 장치가 라인들에 대응하는 카테고리들을 식별할 때에 상기 라인들의 개수, 및/또는 상기 라인들에 대응하는 카테고리들을 식별하는 개수는 제한되지 않는다. 예를 들어, 전자 장치는, 복수의 라인들 중 제3 라인을 식별할 수 있다. 전자 장치는, 상기 제3 라인을 식별한 것에 기반하여, 상기 제3 라인에 대응하는 제3 카테고리를 식별할 수 있다.
동작 805에서, 일 실시 예에 따른, 전자 장치는, 비휘발성 메모리(예, 도 2의 비휘발성 메모리(230))로부터 휘발성 메모리(예, 도 2의 휘발성 메모리(220))로, 언어 데이터 세트를 저장할 수 있다. 상기 언어 데이터 세트는, 언어DB로 참조될 수 있다. 전자 장치는, 비휘발성 메모리 내에서, 복수의 언어 데이터 세트 중 제1 카테고리에 대응하는 제1 언어 데이터 세트를 식별할 수 있다. 전자 장치는, 상기 제1 언어 데이터 세트를 식별한 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리로, 상기 제1 언어 데이터 세트를 저장할 수 있다. 전자 장치는, 비휘발성 메모리 내에서 복수의 언어 데이터 세트 중 제2 카테고리에 대응하는 제2 언어 데이터 세트를 식별할 수 있다. 전자 장치는, 상기 제2 언어 데이터 세트를 식별한 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리로, 상기 제2 언어 데이터 세트를 저장할 수 있다. 전자 장치는, 비휘발성 메모리로부터 휘발성 메모리로, 복수의 언어 데이터 세트 중 제1 카테고리에 대응하는 제1 언어 데이터 세트, 및 제2 카테고리에 대응하는 제2 언어 데이터 세트를 저장할 수 있다.
동작 807에서, 일 실시 예에 따른, 전자 장치는, 비휘발성 메모리로부터 휘발성 메모리로, 제1 언어 데이터 세트, 및 제2 언어 데이터 세트를 저장할 수 있다. 전자 장치는, 상기 저장된 제1 언어 데이터 세트, 및 제2 언어 데이터 세트에 기반하여, 상기 라인들에 포함된 복수의 글자들에 의해 표현되는(represented by) 텍스트 데이터를 획득할 수 있다. 전자 장치는, 상기 텍스트 데이터를 획득한 것에 기반하여, 상기 텍스트 데이터와 관련된 텍스트를 표시할 수 있다. 예를 들어, 전자 장치는, 이미지 내에 중첩하여 상기 텍스트를 표시할 수 있다. 전자 장치는, 상기 이미지 내에 중첩하여, 상기 텍스트를 포함하는 시각적 객체를 표시할 수 있다.
일 실시 예에 따른, 전자 장치는, 상기 복수의 라인들 각각에 대응하는 카테고리들을 식별할 수 있다. 전자 장치는, 상기 카테고리들을 식별한 것에 기반하여, 상기 식별된 카테고리들의 개수가 지정된 개수를 초과하는지 여부를 식별할 수 있다. 전자 장치는, 상기 식별된 카테고리들의 개수가 지정된 개수를 초과한 것을 식별할 수 있다. 전자 장치는, 상기 지정된 개수를 초과한 상기 카테고리들의 개수를 식별한 것에 기반하여, 언어 데이터 세트의 사용 빈도를 식별할 수 있다. 예를 들어, 상기 언어 데이터 세트의 사용 빈도는, 도 5의 식별된 카테고리의 횟수와 관련된 표 1과 관련될 수 있다. 전자 장치는, 상기 언어 데이터 세트의 사용 빈도에 기반하여, 휘발성 메모리 내에 저장된 제1 언어 데이터 세트, 및 제2 언어 데이터 세트 중 적어도 하나의 언어 데이터 세트를 제거할 수 있다. 전자 장치는, 상기 제1 언어 데이터 세트, 및 상기 제2 언어 데이터 세트 중 적어도 하나의 언어 데이터 세트를 제거한 것에 기반하여, 상기 제3 카테고리에 대응하는 제3 언어 데이터 세트를 휘발성 메모리 내에 저장할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 복수의 글자들이 배치된 라인들을 식별할 수 있다. 전자 장치는, 상기 라인들 각각에 매칭되는 카테고리들을 식별할 수 있다. 전자 장치는, 상기 라인들 각각에 매칭되는 카테고리들을 식별한 것에 기반하여, 비휘발성 메모리 내에서 상기 카테고리들에 대응하는 언어 데이터 세트를 식별할 수 있다. 전자 장치는, 상기 언어 데이터 세트를 식별한 것에 기반하여, 상기 라인들 내에 포함된 글자들에 의해 표현되는 텍스트 데이터를 획득할 수 있다. 전자 장치는, 라인들에 배치된 글자들에 대응하는 언어 데이터 세트를 비휘발성 메모리로부터 휘발성 메모리로 저장함으로써, 휘발성 메모리의 사용량을 효율적으로 조절할 수 있다.
도 9는, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다. 도 9의 전자 장치는, 도 1, 도 2, 도 3a, 도 3b, 도 4a, 도 4b, 도 5, 및/또는 도 6의 전자 장치(101), 도 7, 및/또는 도 8의 전자 장치를 포함할 수 있다. 도 9의 동작들은 도 1, 도 2, 및/또는 도 4b의 프로세서(120)에 의해 실행될 수 있다.
도 9를 참고하면, 일 실시 예에 따른, 전자 장치는, 디스플레이(예, 도 1의 디스플레이 모듈(160), 도 2, 도 3a, 도 3b, 도 4a, 도 4b, 및/또는 도 5의 디스플레이(210))를 통하여 이미지를 표시할 수 있다. 전자 장치는, 복수의 글자들이 매치된 영역들(예, 도 3b의 블록들(330)), 및 상기 영역들 각각에 대응하는 타입들(types)을 식별할 수 있다. 예를 들어, 타입은, 상기 복수의 글자들의 타입일 수 있다. 예를 들어, 전자 장치는, 상기 복수의 글자들이 인쇄체(printed)인지, 또는 손 글씨인지 여부를 식별할 수 있다. 상기 인쇄체는, 전자 장치, 또는 전자 장치와 상이한 외부 전자 장치에 의해 표현되는 글자들의 타입일 수 있다. 상기 손 글씨는, 사용자에 의해 그려진 글자들과 관련된 타입일 수 있다. 전자 장치는, 제1 타입에 매칭되는 인쇄체를 식별할 수 있다. 전자 장치는, 제2 타입에 매칭되는 손 글씨를 식별할 수 있다. 전자 장치는, 상기 제1 타입, 또는 상기 제2 타입 중 적어도 하나를 식별할 수 있다.
동작 903에서, 일 실시 예에 따른, 전자 장치는, 비휘발성 메모리(예, 도 1의 비휘발성 메모리(134), 및/또는 도 2의 비휘발성 메모리(230))로부터 휘발성 메모리(예, 도 1의 휘발성 메모리(132), 및/또는 도 2의 휘발성 메모리(220))로, 식별된 영역들의 카테고리에 대응하는 정보를 저장할 수 있다. 예를 들어, 전자 장치는, 복수의 글자들이 배치된 영역들, 및 영역들 각각에 대응하는 타입들을 식별한 것에 기반하여, 상기 영역들에 매칭되는 카테고리들을 식별할 수 있다. 전자 장치는, 상기 복수의 글자들이 배치된 영역들이, 제2 타입인 손 글씨로 식별된 것에 기반하여, 상기 영역들의 카테고리를 식별할 수 있다. 예를 들어, 전자 장치는, 상기 영역들 내에 포함된 글자들에 기반하여, 상기 영역들의 카테고리들을 식별할 수 있다. 전자 장치는, 상기 영역들 각각에 매칭되는 카테고리들을 식별할 수 있다. 전자 장치는, 상기 식별된 영역들의 카테고리에 대응하는 정보를, 비휘발성 메모리로부터 휘발성 메모리로 저장할 수 있다.
동작 905에서, 일 실시 예에 따른, 전자 장치는, 휘발성 메모리 내에 저장된 정보를 식별할 수 있다. 전자 장치는, 영역들 중 적어도 하나에 대응하는 텍스트 데이터를 획득할 수 있다. 전자 장치는, 상기 휘발성 메모리 내에 저장된 정보에 기반하여, 식별된 영역들 중 적어도 하나에 매칭되는 텍스트 데이터를 획득할 수 있다. 예를 들어, 전자 장치는, 상기 영역들 내에 포함된 글자들에 매칭되는 텍스트 데이터를 획득할 수 있다. 예를 들어, 전자 장치는, 상기 글자들을 텍스트로 변환하기 위한 텍스트 데이터를 획득할 수 있다. 전자 장치는, 상기 글자들을 텍스트로 표시하기 위한 텍스트 데이터를 획득할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 영역들의 타입들을 식별할 수 있다. 예를 들어, 전자 장치는, 상기 영역들의 타입들 중 제2 타입인 손 글씨를 식별한 것에 기반하여, 제2 타입으로 식별된 영역들에 매칭되는 카테고리들을 식별할 수 있다. 전자 장치는, 상기 제2 타입으로 식별된 영역들에 매칭되는 카테고리들을 식별한 것에 기반하여, 상기 카테고리들 각각에 대응하는 정보를 식별할 수 있다. 전자 장치는, 비휘발성 메모리 내에 저장된, 상기 카테고리들 각각에 대응하는 정보를 식별할 수 있다. 전자 장치는, 상기 비휘발성 메모리 내에 저장된, 상기 카테고리들 각각에 대응하는 정보를 식별한 것에 기반하여, 상기 비휘발성 메모리로부터 휘발성 메모리로, 상기 정보를 저장할 수 있다. 전자 장치는, 복수의 영역들의 타입에 기반하여, 비휘발성 메모리로부터 휘발성 메모리로, 상기 복수의 영역들의 카테고리와 관련된 정보를 저장함으로써, 휘발성 메모리의 사용량을 효율적으로 사용할 수 있다.
도 10은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다. 도 10의 전자 장치는, 도 1, 도 2, 도 3a, 도 3b, 도 4a, 도 4b, 도 5, 및/또는 도 6의 전자 장치(101), 도 7, 도 8, 및/또는 도 9의 전자 장치를 포함할 수 있다. 도 10의 동작들은, 도 1, 도 2, 및/또는 도 4b의 프로세서(120)에 의해 실행될 수 있다.
도 10을 참고하면, 동작 1001에서, 일 실시 예에 따른, 전자 장치는, 디스플레이(예, 도 1의 디스플레이 모듈(160), 도 2, 도 3a, 도 3b, 도 4a, 도 4b, 및/또는 도 5의 디스플레이(210))를 통하여 표시된 이미지 내에서, 복수의 글자들이 배치된 영역들, 및 영역들 각각에 대응하는 타입들을 식별할 수 있다. 예를 들어, 상기 타입들은, 제1 타입, 및 제2 타입을 포함할 수 있다. 예를 들어, 상기 제1 타입은, 전자 장치의 디스플레이를 통하여 표시되는 이미지 내에 포함된 글자들이 인쇄체인 경우일 수 있다. 예를 들어, 상기 제2 타입은, 전자 장치의 디스플레이를 통하여 표시되는 이미지 내에 포함된 글자들이 손 글씨인 경우일 수 있다. 도 10의 동작 1001은, 도 9의 동작 901과 유사하게 실행될 수 있다. 도 10의 동작 1001은, 도 9의 동작 901과 실질적으로 동일할 수 있다.
동작 1003에서, 일 실시 예에 따른, 전자 장치는, 복수의 영역들의 타입을 식별할 수 있다. 예를 들어, 전자 장치는, 상기 복수의 영역들 중 적어도 하나의 타입을 식별할 수 있다. 전자 장치는, 상기 복수의 영역들 중 적어도 하나의 타입이 제1 타입으로 식별되는지 여부를 식별할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 상기 복수의 영역들 중 적어도 하나의 타입이 제1 타입인 것을 식별할 수 있다.
영역의 타입이 제1 타입으로 식별되는 경우(동작 1003-예), 동작 1005에서, 일 실시 예에 따른, 전자 장치는, 제1 타입에 대응하는 제1 기능을 실행할 수 있다. 전자 장치는, 상기 제1 타입에 매칭되는 제1 기능을 실행할 수 있다. 상기 제1 기능은, 이미지 내에 포함된 글자들이 인쇄체인 것에 기반하여 실행되는 기능을 포함할 수 있다. 전자 장치는, 상기 제1 기능을 실행한 것에 기반하여, 제1 타입으로 식별된 영역 내에 포함된 글자들의 텍스트 데이터를 획득할 수 있다. 전자 장치는, 제2 타입으로 식별된 영역 내에 포함된 글자들의 텍스트 데이터를 획득하는 것과 상이한 동작에 기반하여, 상기 제1 기능을 실행할 수 있다.
영역의 타입이 제1 타입으로 식별되지 않는 경우(동작 1003-아니오), 동작 1007에서, 일 실시 예에 따른, 전자 장치는, 비휘발성 메모리(예, 도 1의 비휘발성 메모리(134), 및/또는 도 2의 비휘발성 메모리(230))로부터 휘발성 메모리(예, 도 1의 휘발성 메모리(132), 및/또는 도 2의 휘발성 메모리(220))로, 식별된 영역들의 카테고리에 대응하는 정보를 저장할 수 있다. 동작 1007은, 동작 903과 유사하게 실행될 수 있다. 동작 1007은, 동작 903과 실질적으로 동일하게 실행될 수 있다.
동작 1009에서, 일 실시 예에 따른, 전자 장치는, 휘발성 메모리 내에 저장된 정보를 식별할 수 있다. 예를 들어, 전자 장치는, 이미지 내에 포함된 영역에 매칭되는 카테고리와 관련된 정보를 식별할 수 있다. 전자 장치는, 휘발성 메모리 내에 저장된 상기 정보에 기반하여, 영역들 중 적어도 하나에 대응하는 텍스트 데이터를 획득할 수 있다. 전자 장치는, 상기 획득된 텍스트 데이터에 기반하여, 영역 내에 포함된 글자들을 표현하기 위한 텍스트를 표시할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 영역들의 타입들을 식별할 수 있다. 예를 들어, 전자 장치는, 상기 영역들의 타입들에 대응하는 기능들을 실행할 수 있다. 예를 들어, 전자 장치는, 제1 타입으로 식별된 영역 내에 포함된 글자들과 관련된 텍스트 데이터를 획득하기 위해 제1 기능을 실행할 수 있다. 예를 들어, 전자 장치는, 제2 타입으로 식별된 영역 내에 포함된 글자들과 관련된 텍스트 데이터를 획득하기 위해 제2 기능을 실행할 수 있다. 전자 장치는, 영역의 타입에 따라 상이한 기능을 실행할 수 있다. 전자 장치는, 영역의 타입에 기반하여 상이한 기능을 실행함으로써, 휘발성 메모리의 사용량을 효율적으로 조절할 수 있다.
도 11은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다. 도 11의 전자 장치는, 도 1, 도 2, 도 3a, 도 3b, 도 4a, 도 4b, 및/또는 도 5의 전자 장치(101), 도 6, 도 7, 도 8, 도 9, 및/또는 도 10의 전자 장치를 포함할 수 있다. 도 11의 동작들은, 도 1, 도 2, 및/또는 도 4b의 프로세서(120)에 의해 실행될 수 있다.
도 11을 참고하면, 동작 1101에서, 일 실시 예에 따른, 전자 장치는, 디스플레이(예, 도 1의 디스플레이 모듈(160), 및/또는 도 2의 디스플레이(210))를 통하여 이미지를 표시할 수 있다. 전자 장치는, 디스플레이를 통하여 표시된 이미지 내에서, 복수의 글자들을 식별할 수 있다. 전자 장치는, 디스플레이를 통하여 표시된 이미지 내에서, 복수의 글자들을 포함하는 영역들을 식별할 수 있다. 전자 장치는, 디스플레이를 통하여 표시된 이미지 내에서 복수의 글자들이 배치된 영역들, 및 영역들 각각에 대응하는 타입들을 식별할 수 있다. 도 11의 동작 1101은, 도 9의 동작 903, 및/또는 도 10의 동작 1001과 유사하게 실행될 수 있다.
동작 1103에서, 일 실시 예에 따른, 전자 장치는, 비휘발성 메모리(예, 도 1의 비휘발성 메모리(136), 및/또는 도 2의 비휘발성 메모리(230))로부터 휘발성 메모리(예, 도 1의 휘발성 메모리(220) 및/또는 도 2의 휘발성 메모리(220))로, 식별된 영역들의 카테고리에 대응하는 정보를 저장할 수 있다. 도 11의 동작 1103은, 도 10의 동작 1007, 및/또는 도 9의 동작 903과 유사하게 실행될 수 있다.
동작 1105에서, 일 실시 예에 따른, 전자 장치는, 휘발성 메모리 내에 식별된 영역들의 카테고리에 대응하는 정보를 저장한 것에 기반하여, 휘발성 메모리 내에 저장된 카테고리에 대응하는 정보인지 식별할 수 있다. 전자 장치는, 상기 휘발성 메모리 내에 저장된 정보에 매칭되는 카테고리를 식별한 경우, 동작 1117을 실행할 수 있다.
휘발성 메모리 내에 저장된 카테고리가 아닌 경우(동작 1105-아니오), 동작 1107에서, 일 실시 예에 따른, 전자 장치는, 비휘발성 메모리 내에 저장된 카테고리인지 식별할 수 있다. 예를 들어, 전자 장치는, 영역 내에 포함된 글자들에 의해 구분되는 카테고리를 식별할 수 있다. 전자 장치는, 비휘발성 메모리 내에 상기 카테고리가 저장되어 있는지 여부를 식별할 수 있다. 전자 장치는, 비휘발성 메모리 내에 상기 카테고리에 대응하는 정보가 저장되어 있는지 여부를 식별할 수 있다. 전자 장치는, 휘발성 메모리 내에 저장되어 있지 않은 카테고리를 식별한 것에 기반하여, 비휘발성 메모리 내에 저장된 카테고리인지 여부를 식별할 수 있다.
비휘발성 메모리 내에 저장된 카테고리가 아닌 경우(동작 1107-아니오), 동작 1109에서, 일 실시 예에 따른, 전자 장치는, 비휘발성 메모리 내에 저장되어 있지 않음을 나타내기 위한(for indicating) 가이드를 표시할 수 있다. 예를 들어, 전자 장치는, 영역 내에 포함된 글자들이 비휘발성 메모리 내에 저장된 카테고리에 매칭되지 않은 것을 식별할 수 있다. 전자 장치는, 상기 글자들이 비휘발성 메모리 내에 저장된 카테고리에 매칭되지 않은 것을 식별한 것에 기반하여, 비휘발성 메모리 내에 상기 카테고리가 저장되어 있지 않은 것을 나타내기 위한 가이드를 표시할 수 있다. 전자 장치는, 상기 가이드와 관련된 시각적 객체를 디스플레이를 통하여 표시할 수 있다. 예를 들어, 상기 가이드와 관련된 시각적 객체는, 디스플레이를 통하여, '인식 결과가 없습니다.'와 같이 표시될 수 있다.
비휘발성 메모리 내에 저장된 카테고리인 경우(동작 1107-예), 동작 1111에서, 일 실시 예에 따른, 전자 장치는, 휘발성 메모리의 사용량을 식별할 수 있다. 전자 장치는, 상기 휘발성 메모리의 사용량이 지정된 임계치를 초과하는지 여부를 식별할 수 있다. 전자 장치는, 상기 휘발성 메모리 내에 할당된 기능을 실행하기 위한 영역의 가용량(usable capacity)을 식별할 수 있다. 전자 장치는, 상기 가용량이 지정된 임계치 이하인지 여부를 식별할 수 있다.
휘발성 메모리의 사용량을 초과한 경우(동작 1111-예), 동작 1113에서, 일 실시 예에 따른, 전자 장치는, 상기 휘발성 메모리 내에 저장된 카테고리들 중 적어도 하나를 제거할 수 있다. 전자 장치는, 상기 휘발성 메모리 내에 저장된 카테고리들의 정보 중 적어도 하나를 제거할 수 있다. 전자 장치는, 상기 휘발성 메모리 내에 형성된 영역을 점유하는 카테고리들의 정보 중 적어도 하나를 제거할 수 있다.
동작 1115에서, 일 실시 예에 따른, 전자 장치는, 비휘발성 메모리로부터 휘발성 메모리로, 식별된 영역들의 카테고리에 대응하는 정보를 저장할 수 있다. 도 11의 동작 1115는, 도 10의 동작 1007, 및/또는 동작 903과 유사하게 실행될 수 있다.
휘발성 메모리 내에 저장된 카테고리인 경우(동작 1105-예), 동작 1117에서, 일 실시 예에 따른, 전자 장치는, 휘발성 메모리 내에 저장된 정보에 기반하여, 영역들 중 적어도 하나에 대응하는 텍스트 데이터를 획득할 수 있다. 전자 장치는, 상기 영역들 내에 포함된 글자들에 매칭되는 텍스트 데이터를 획득할 수 있다. 전자 장치는, 상기 글자들을 표현하기 위한 텍스트 데이터를 획득할 수 있다. 전자 장치는, 상기 텍스트 데이터를 획득한 것에 기반하여, 디스플레이를 통하여 표시된 이미지의 적어도 일부에, 상기 텍스트 데이터와 관련된 텍스트를 중첩하여 표시할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 디스플레이를 통하여 표시된 이미지 내에서, 복수의 글자들이 배치된 영역들을 식별할 수 있다. 전자 장치는, 상기 영역들 각각에 대응하는 타입들을 식별할 수 있다. 전자 장치는, 상기 영역들의 타입이 제1 타입, 및 제2 타입 중에서 제2 타입으로 식별된 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리로, 상기 식별된 영역들의 카테고리에 대응하는 정보를 저장할 수 있다. 전자 장치는, 상기 휘발성 메모리 내에 저장된 카테고리를 식별한 것에 기반하여, 상기 휘발성 메모리 내에 저장된 정보에 기반하여, 영역들 중 적어도 하나에 대응하는 텍스트 데이터를 획득할 수 있다. 전자 장치는, 영역의 카테고리가 휘발성 메모리 내에 저장된 카테고리가 아닌 것을 식별한 것에 기반하여, 비휘발성 메모리 내에 저장된 카테고리인지 여부를 식별할 수 있다. 전자 장치는, 상기 영역의 카테고리가 비휘발성 메모리 내에 저장되어 있지 않은 것을 식별한 것에 기반하여, 상기 카테고리가 비휘발성 메모리 내에 저장되어 있지 않은 것을 나타내기 위한 가이드를 표시할 수 있다. 전자 장치는, 영역의 카테고리가 비휘발성 메모리 내에 저장된 카테고리인 것에 기반하여, 휘발성 메모리의 사용량을 식별할 수 있다. 전자 장치는, 상기 휘발성 메모리의 사용량이 지정된 임계치를 초과하는 것을 식별할 수 있다. 전자 장치는, 상기 휘발성 메모리의 사용량이 지정된 임계치를 초과한 것에 기반하여, 상기 휘발성 메모리 내에 저장된 카테고리들 중 적어도 하나를 제거할 수 있다. 전자 장치는, 휘발성 메모리의 사용량이 지정된 임계치를 초과하지 않은 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리로, 식별된 영역들의 카테고리에 대응하는 정보를 저장할 수 있다. 전자 장치는, 휘발성 메모리 내에 저장된 카테고리들 중 적어도 하나를 제거한 것에 기반하여, 비휘발성 메모리로부터 휘발성 메모리로, 식별된 영역들의 카테고리에 대응하는 정보를 저장할 수 있다. 전자 장치는, 상기 정보를 저장한 것에 기반하여, 영역들 중 적어도 하나에 대응하는 텍스트 데이터를 획득할 수 있다. 전자 장치는, 영역들 내에 포함된 글자들에 매칭되는 텍스트 데이터를 획득할 수 있다. 전자 장치는, 상기 텍스트 데이터를 획득한 것에 기반하여, 디스플레이를 통하여, 상기 텍스트 데이터에 매칭되는 텍스트를 표시할 수 있다. 전자 장치는, 상기 휘발성 메모리 내에 카테고리와 관련된 정보를 저장할 때, 영역들에 대응하는 카테고리만을 저장함으로써, 휘발성 메모리의 사용량을 효율적으로 조절할 수 있다.
전자 장치는, 손 글씨에 매칭되는 텍스트를 획득하기 위한 OCR 기능을 실행할 수 있다. OCR 기능을 실행하는 동안, 휘발성 메모리의 사용량을 효율적으로 사용하는 방안이 요구될 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)(electronic device)는, 비휘발성 메모리(134; 230), 휘발성 메모리(132; 220), 디스플레이(210), 프로세서(120)를 포함할 수 있다. 상기 프로세서(120)는, 상기 디스플레이(210)를 통하여 표시된 이미지 내에서, 글자들(characters)을 식별할 수 있다. 상기 프로세서(120)는, 상기 글자들이 가지는 언어(language)에 의해 구분되는 카테고리들에 기반하여, 상기 비휘발성 메모리(134; 230)로부터, 상기 글자들이 포함된 제1 카테고리에 대응하는 정보를 식별할 수 있다. 상기 프로세서(120)는, 상기 제1 카테고리에 대응하는 상기 정보를, 상기 휘발성 메모리(132; 220) 내에 저장할 수 있다. 상기 프로세서(120)는, 상기 휘발성 메모리(132; 220) 내에 저장된 상기 정보에 기반하여 상기 글자들에 대응하는 텍스트 데이터를 획득할 수 있다. 전자 장치(101)는, 글자들에 기반하여 비휘발성 메모리(134; 230)로부터 휘발성 메모리(132; 220)로, 상기 글자들에 대응하는 카테고리와 관련된 정보를 저장함으로써, 휘발성 메모리(132; 220)의 사용량을 효율적으로 사용할 수 있다.
일 실시 예에 따른, 상기 프로세서(120)는, 상기 이미지 내에서, 상기 글자들이 배열된 복수의 라인들(320; 340; 420; 520)을 식별하는 것에 기반하여, 상기 라인들(320; 340; 420; 520) 각각의 카테고리들에 기반하여, 상기 휘발성 메모리(132; 220)로 비휘발성 메모리(134; 230) 내에 저장된 정보를 저장할 수 있다.
일 실시 예에 따른, 상기 프로세서(120)는, 상기 복수의 라인들(320; 340; 420; 520) 각각에 대응하는 쓰레드들(441; 442)을 실행하여, 상기 복수의 라인들(320; 340; 420; 520) 각각에 대응하는 텍스트 데이터를 획득할 수 있다.
일 실시 예에 따른, 상기 프로세서(120)는, 상기 글자들이 배열된 복수의 라인들(320; 340; 420; 520)을 포함하는 블록을 식별하는 것에 기반하여, 상기 블록 내에 포함된 상기 복수의 라인들(320; 340; 420; 520)을 식별할 수 있다.
일 실시 예에 따른, 상기 프로세서(120)는, 상기 휘발성 메모리(132; 220) 내에서 상기 제1 카테고리에 대응하는 정보를 식별하는 것에 응답하여, 상기 제1 카테고리에 대응하는 상기 정보를 상기 휘발성 메모리(132; 220) 내에 저장하는 것을 바이패스(bypass)할 수 있다.
일 실시 예에 따른, 상기 프로세서(120)는, 상기 휘발성 메모리(132; 220)로부터, 상기 제1 카테고리와 상이한 카테고리에 대응하는 다른 정보를 식별하는 것에 기반하여, 상기 휘발성 메모리(132; 220)의 사용량(usage)에 기반하여, 상기 휘발성 메모리(132; 220)로부터 상기 다른 정보를 제거(discard)할 수 있다.
일 실시 예에 따른, 상기 프로세서(120)는, 상기 이미지 내에 포함된 글자들로부터 텍스트를 획득하는데 이용되는 정보를 저장하기 위하여 설정된, 상기 휘발성 메모리(132; 220) 내 일부분에 대한 상기 사용량을 식별할 수 있다.
일 실시 예에 따른, 상기 프로세서(120)는, 상기 휘발성 메모리(132; 220) 내에 저장된 카테고리들에 대응하는 정보의 개수에 기반하여, 상기 휘발성 메모리(132; 220)의 사용량을 식별할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)(electronic device)의 방법은, 디스플레이(210)를 통하여 표시된 이미지 내에서, 글자들(characters)을 식별하는 동작을 포함할 수 있다. 상기 전자 장치(101)의 상기 방법은, 상기 글자들이 가지는 언어(language)에 의해 구분되는 카테고리들에 기반하여, 상기 비휘발성 메모리(134; 230)로부터, 상기 글자들이 포함된 제1 카테고리에 대응하는 정보를 식별하는 동작을 포함할 수 있다. 상기 전자 장치(101)의 상기 방법은, 상기 제1 카테고리에 대응하는 상기 정보를, 상기 휘발성 메모리(132; 220) 내에 저장하는 동작을 포함할 수 있다. 상기 전자 장치;(101)의 상기 방법은, 상기 휘발성 메모리(132; 220) 내에 저장된 상기 정보에 기반하여 상기 글자들에 대응하는 텍스트 데이터를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치(101)의 상기 방법은, 상기 이미지 내에서, 상기 글자들이 배열된 복수의 라인들(320; 340; 420; 520)을 식별하는 것에 기반하여, 상기 라인들(320; 340; 420; 520) 각각의 카테고리에 기반하여, 상기 휘발성 메모리(132; 220)로 비휘발성 메모리(134; 230) 내에 저장된 정보를 저장하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치(101)의 상기 방법은, 상기 복수의 라인들(320; 340; 420; 520) 각각에 대응하는 쓰레드들(441; 442)을 실행하여, 상기 복수의 라인들(320; 340; 420; 520) 각각에 대응하는 텍스트 데이터를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치(101)의 상기 방법은, 상기 글자들이 배열된 복수의 라인들(320; 340; 420; 520)을 포함하는 블록을 식별하는 것에 기반하여, 상기 블록 내에 포함된 상기 복수의 라인들(320; 340; 420; 520)을 식별하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치(101)의 상기 방법은, 상기 휘발성 메모리(132; 220) 내에서 상기 제1 카테고리에 대응하는 정보를 식별하는 것에 응답하여, 상기 제1 카테고리에 대응하는 상기 정보를 상기 휘발성 메모리(132; 220) 내에 저장하는 것을 바이패스하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치(101)의 상기 방법은, 상기 휘발성 메모리(132; 220)로부터, 상기 제1 카테고리와 상이한 카테고리에 대응하는 다른 정보를 식별하는 것에 기반하여, 상기 휘발성 메모리(132; 220)의 사용량에 기반하여, 상기 휘발성 메모리(132; 220)로부터 상기 정보를 제거하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치(101)의 상기 방법은, 상기 이미지 내에 포함된 글자들로부터 텍스트를 획득하는데 이용되는 정보를 저장하기 위하여 설정된, 상기 휘발성 메모리(132; 220) 내 일부분에 대한 상기 사용량을 식별하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 방법의 상기 방법은, 상기 휘발성 메모리(132; 220) 내에 저장된 카테고리들에 대응하는 정보의 개수에 기반하여, 상기 휘발성 메모리(132; 220)의 사용량을 식별하는 동작을 포함할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)(electronic device)의 방법은, 상기 전자 장치(101) 내 디스플레이(210)를 통하여 표시된 이미지 내에서, 복수의 글자들이 배치된 라인들(320; 340; 420; 520)을 식별하는 동작을 포함할 수 있다. 상기 전자 장치(101)의 상기 방법은, 글자(a character)가 가지는 언어(language)에 의해 구분되는 카테고리들에 기반하여, 상기 복수의 라인들(320; 340; 420; 520) 각각에 대응하는 카테고리들을 식별하는 동작을 포함할 수 있다. 상기 전자 장치(101)의 상기 방법은, 상기 전자 장치(101) 내 비휘발성 메모리(134; 230)로부터 휘발성 메모리(132; 220)로, 상기 식별된 카테고리들 각각에 대응하는 정보를 저장하는 동작을 포함할 수 있다. 상기 전자 장치(101)의 상기 방법은, 상기 저장된 정보에 기반하여, 상기 라인들(320; 340; 420; 520)에 포함된 상기 복수의 글자들에 의해 표현되는(represented by) 텍스트 데이터를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치(101)의 상기 방법은, 상기 이미지 내에 포함된 블록에 기반하여, 상기 복수의 라인들(320; 340; 420; 520)을 식별하는 동작을 포함할 수 있다. 상기 전자 장치(101)의 상기 방법은, 상기 복수의 라인들(320; 340; 420; 520)을 식별한 것에 기반하여, 상기 복수의 라인들(320; 340; 420; 520) 각각에 대응하는 카테고리들을 식별하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치(101)의 상기 방법은, 상기 휘발성 메모리(132; 220)로부터, 상기 카테고리들 중 제1 카테고리를 식별하는 동작을 포함할 수 있다. 상기 전자 장치(101)의 상기 방법은, 상기 제1 카테고리와 상이한 카테고리를 식별하는 것에 기반하여, 상기 휘발성 메모리(132; 220)의 사용량에 기반하여, 상기 휘발성 메모리(132; 220)로부터 상기 정보를 제거하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치(101)의 상기 방법은, 상기 카테고리들에 대응하는 상기 정보의 개수에 기반하여, 상기 휘발성 메모리(132; 220)의 사용량을 식별하는 동작을 포함할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)(electronic device)는, 디스플레이(210), 비휘발성 메모리(134; 230), 휘발성 메모리(132; 220), 및 프로세서(120)를 포함할 수 있다. 상기 프로세서(120)는, 상기 디스플레이(210)를 통하여 표시된 이미지 내에서, 복수의 글자들이 배치된 라인들(320; 340; 420; 520)을 식별할 수 있다. 상기 프로세서(120)는, 글자(a character)가 가지는 언어(language)에 의해 구분되는 카테고리들에 기반하여, 상기 복수의 라인들(320; 340; 420; 520) 각각에 대응하는 카테고리들을 식별할 수 있다. 상기 프로세서(120)는, 상기 비휘발성 메모리(134; 230)로부터 상기 휘발성 메모리(132; 220)로, 상기 식별된 카테고리들 각각에 대응하는 정보를 저장할 수 있다. 상기 프로세서(120)는, 상기 저장된 정보에 기반하여, 상기 라인들(320; 340; 420; 520)에 포함된 상기 복수의 글자들에 의해 표현되는(represented by) 텍스트 데이터를 획득할 수 있다.
일 실시 예에 따른, 전자 장치(101)(electronic device)는, 디스플레이, 비휘발성 메모리(134; 230), 휘발성 메모리(132; 220), 및 프로세서(120)를 포함할 수 있다. 상기 비휘발성 메모리(134; 230)는, 제1 언어 데이터 세트, 제2 언어 데이터 세트, 및 제3 언어 데이터 세트를 포함하는 복수의 언어 데이터 세트를 저장할 수 있다. 상기 프로세서(120)는, 이미지 내에서, 복수의 글자들이 배치된 라인들(320; 340; 420; 520)을 식별할 수 있다. 상기 프로세서(120)는, 글자(a character)가 가지는 언어(language)에 의해 구분되는 카테고리들에 기반하여, 복수의 라인들 중 제1 카테고리에 대응하는 상기 제1 언어 데이터 세트, 및 상기 제2 카테고리에 대응하는 상기 제2 언어 데이터 세트를 저장할 수 있다. 상기 프로세서(120)는, 상기 저장된 제1 언어 데이터 세트, 및 상기 제2 언어 데이터 세트에 기반하여, 상기 라인들(320; 340; 420; 520)에 포함된 상기 복수의 글자들에 의해 표현되는(represented by) 텍스트 데이터를 획득할 수 있다.
일 실시 예에 따른, 상기 프로세서(120)는, 상기 이미지 내에 포함된 블록에 기반하여, 상기 복수의 라인들(320; 340; 420; 520)을 식별할 수 있다. 상기 프로세서(120)는, 상기 복수의 라인들(320; 340; 420; 520)을 식별한 것에 기반하여, 상기 복수의 라인들(320; 340; 420; 520) 각각에 대응하는 카테고리들을 식별할 수 있다.
일 실시 예에 따른, 상기 프로세서(120)는, 복수의 라인들 중 제3 라인에 대응하는 제3 카테고리를 식별할 수 있다. 상기 프로세서(120)는, 상기 식별된 카테고리의 개수가 지정된 개수를 초과한 것을 식별할 수 있다. 상기 프로세서(120)는, 상기 식별된 카테고리의 개수가 지정된 개수를 초과한 것에 기반하여, 상기 휘발성 메모리(132; 220)로부터 상기 제1 언어 데이터 세트, 및 상기 제2 언어 데이터 세트 중 적어도 하나의 언어 데이터 세트를 제거할 수 있다. 상기 프로세서(120)는, 상기 제3 카테고리에 대응하는 상기 제3 언어 데이터 세트를 휘발성 메모리(132; 220) 내에 저장할 수 있다.
일 실시 예에 따른, 상기 프로세서(120)는, 상기 휘발성 메모리(132; 220)로부터, 상기 카테고리들 중 제1 카테고리를 식별할 수 있다. 상기 프로세서(120)는, 상기 제1 카테고리와 상이한 카테고리를 식별한 것에 기반하여, 상기 휘발성 메모리(132; 220)의 사용량에 기반하여, 상기 휘발성 메모리(132; 220)로부터 상기 정보를 제거할 수 있다.
일 실시 예에 따른, 상기 프로세서(120)는, 상기 카테고리들에 대응하는 상기 언어 데이터 세트의 개수에 기반하여, 상기 휘발성 메모리(132; 220)의 사용량을 식별할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 전자 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치(electronic device)에 있어서,
    비휘발성 메모리;
    휘발성 메모리;
    디스플레이; 및
    프로세서를 포함하고,
    상기 프로세서는,
    상기 디스플레이를 통하여 표시된 이미지 내에서, 글자들(characters)을 식별하고;
    상기 글자들이 가지는 언어(language)에 의해 구분되는 카테고리들에 기반하여, 상기 비휘발성 메모리로부터, 상기 글자들이 포함된 제1 카테고리에 대응하는 정보를 식별하고;
    상기 제1 카테고리에 대응하는 상기 정보를, 상기 휘발성 메모리 내에 저장하고;
    상기 휘발성 메모리 내에 저장된 상기 정보에 기반하여 상기 글자들에 대응하는 텍스트 데이터를 획득하도록, 구성된,
    전자 장치.
  2. 제1 항에 있어서,
    상기 프로세서는,
    상기 이미지 내에서, 상기 글자들이 배열된 복수의 라인들을 식별하는 것에 기반하여, 상기 라인들 각각의 카테고리들에 기반하여, 상기 휘발성 메모리로 비휘발성 메모리 내에 저장된 정보를 저장하도록, 구성된,
    전자 장치.
  3. 제2 항에 있어서,
    상기 프로세서는,
    상기 복수의 라인들 각각에 대응하는 쓰레드들을 실행하여, 상기 복수의 라인들 각각에 대응하는 텍스트 데이터를 획득하도록, 구성된,
    전자 장치.
  4. 제2 항 내지 제3 항 중 어느 한 항에 있어서,
    상기 프로세서는,
    상기 글자들이 배열된 복수의 라인들을 포함하는 블록을 식별하는 것에 기반하여, 상기 블록 내에 포함된 상기 복수의 라인들을 식별하도록, 구성된,
    전자 장치.
  5. 제1 항 내지 제4 항 중 어느 한 항에 있어서,
    상기 프로세서는,
    상기 휘발성 메모리 내에서 상기 제1 카테고리에 대응하는 정보를 식별하는 것에 응답하여, 상기 제1 카테고리에 대응하는 상기 정보를 상기 휘발성 메모리 내에 저장하는 것을 바이패스(bypass)하도록, 구성된,
    전자 장치.
  6. 제1 항 내지 제5 항 중 어느 한 항에 있어서,
    상기 프로세서는,
    상기 휘발성 메모리로부터, 상기 제1 카테고리와 상이한 카테고리에 대응하는 다른 정보를 식별하는 것에 기반하여, 상기 휘발성 메모리의 사용량(usage)에 기반하여, 상기 휘발성 메모리로부터 상기 다른 정보를 제거(discard)하도록, 구성된,
    전자 장치.
  7. 제6 항에 있어서,
    상기 프로세서는,
    상기 이미지 내에 포함된 글자들로부터 텍스트를 획득하는데 이용되는 정보를 저장하기 위하여 설정된, 상기 휘발성 메모리 내 일부분에 대한 상기 사용량을 식별하도록, 구성된,
    전자 장치.
  8. 제6 항 내지 제7 항 중 어느 한 항에 있어서,
    상기 프로세서는,
    상기 휘발성 메모리 내에 저장된 카테고리들에 대응하는 정보의 개수에 기반하여, 상기 휘발성 메모리의 사용량을 식별하도록, 구성된
    전자 장치.
  9. 전자 장치(electronic device)의 방법에 있어서,
    디스플레이를 통하여 표시된 이미지 내에서, 글자들(characters)을 식별하는 동작;
    상기 글자들이 가지는 언어(language)에 의해 구분되는 카테고리들에 기반하여, 상기 비휘발성 메모리로부터, 상기 글자들이 포함된 제1 카테고리에 대응하는 정보를 식별하는 동작;
    상기 제1 카테고리에 대응하는 상기 정보를, 상기 휘발성 메모리 내에 저장하는 동작; 및
    상기 휘발성 메모리 내에 저장된 상기 정보에 기반하여 상기 글자들에 대응하는 텍스트 데이터를 획득하는 동작을 포함하는,
    방법.
  10. 제9 항에 있어서,
    상기 전자 장치의 상기 방법은,
    상기 이미지 내에서, 상기 글자들이 배열된 복수의 라인들을 식별하는 것에 기반하여, 상기 라인들 각각의 카테고리에 기반하여, 상기 휘발성 메모리로 비휘발성 메모리 내에 저장된 정보를 저장하는 동작을 포함하는,
    방법.
  11. 제10 항에 있어서,
    상기 전자 장치의 상기 방법은,
    상기 복수의 라인들 각각에 대응하는 쓰레드들을 실행하여, 상기 복수의 라인들 각각에 대응하는 텍스트 데이터를 획득하는 동작을 포함하는,
    방법.
  12. 제10 항 내지 제11 항 중 어느 한 항에 있어서,
    상기 전자 장치의 상기 방법은,
    상기 글자들이 배열된 복수의 라인들을 포함하는 블록을 식별하는 것에 기반하여, 상기 블록 내에 포함된 상기 복수의 라인들을 식별하는 동작을 포함하는,
    방법.
  13. 제9 항 내지 제12 항 중 어느 한 항에 있어서,
    상기 전자 장치의 상기 방법은,
    상기 휘발성 메모리 내에서 상기 제1 카테고리에 대응하는 정보를 식별하는 것에 응답하여, 상기 제1 카테고리에 대응하는 상기 정보를 상기 휘발성 메모리 내에 저장하는 것을 바이패스하는 동작을 포함하는,
    방법.
  14. 제9 항 내지 제13 항 중 어느 한 항에 있어서,
    상기 전자 장치의 상기 방법은,
    상기 휘발성 메모리로부터, 상기 제1 카테고리와 상이한 카테고리에 대응하는 다른 정보를 식별하는 것에 기반하여, 상기 휘발성 메모리의 사용량에 기반하여, 상기 휘발성 메모리로부터 상기 정보를 제거하는 동작을 포함하는,
    방법.
  15. 제14 항에 있어서,
    상기 전자 장치의 상기 방법은,
    상기 이미지 내에 포함된 글자들로부터 텍스트를 획득하는데 이용되는 정보를 저장하기 위하여 설정된, 상기 휘발성 메모리 내 일부분에 대한 상기 사용량을 식별하는 동작을 포함하는,
    방법.
PCT/KR2023/013999 2022-10-19 2023-09-15 이미지 내에 포함된 글자들을 식별하기 위한 전자 장치 및 그 방법 WO2024085460A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220135286 2022-10-19
KR10-2022-0135286 2022-10-19
KR1020220136917A KR20240054826A (ko) 2022-10-19 2022-10-21 이미지 내에 포함된 글자들을 식별하기 위한 전자 장치 및 그 방법
KR10-2022-0136917 2022-10-21

Publications (1)

Publication Number Publication Date
WO2024085460A1 true WO2024085460A1 (ko) 2024-04-25

Family

ID=90737833

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/013999 WO2024085460A1 (ko) 2022-10-19 2023-09-15 이미지 내에 포함된 글자들을 식별하기 위한 전자 장치 및 그 방법

Country Status (1)

Country Link
WO (1) WO2024085460A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252428A (ja) * 2005-03-14 2006-09-21 Fuji Xerox Co Ltd マルチリンガル翻訳メモリ、翻訳方法および翻訳プログラム
KR20090098685A (ko) * 2008-03-14 2009-09-17 오므론 가부시키가이샤 문자인식 프로그램, 문자인식 전자 부품, 문자인식 장치, 문자인식 방법, 및 데이터 구조
KR20100087939A (ko) * 2009-01-29 2010-08-06 삼성전자주식회사 밝기 및 명암 파라미터 셋을 이용한 향상된 문자 인식 장치
KR20200002490A (ko) * 2018-06-29 2020-01-08 네이버 주식회사 입력 어플리케이션을 이용한 번역 서비스 제공 방법 및 이를 이용하는 단말장치
KR20220024146A (ko) * 2019-06-20 2022-03-03 마이스크립트 자유 핸드라이팅 모드에서 텍스트 핸드라이팅 입력의 처리

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252428A (ja) * 2005-03-14 2006-09-21 Fuji Xerox Co Ltd マルチリンガル翻訳メモリ、翻訳方法および翻訳プログラム
KR20090098685A (ko) * 2008-03-14 2009-09-17 오므론 가부시키가이샤 문자인식 프로그램, 문자인식 전자 부품, 문자인식 장치, 문자인식 방법, 및 데이터 구조
KR20100087939A (ko) * 2009-01-29 2010-08-06 삼성전자주식회사 밝기 및 명암 파라미터 셋을 이용한 향상된 문자 인식 장치
KR20200002490A (ko) * 2018-06-29 2020-01-08 네이버 주식회사 입력 어플리케이션을 이용한 번역 서비스 제공 방법 및 이를 이용하는 단말장치
KR20220024146A (ko) * 2019-06-20 2022-03-03 마이스크립트 자유 핸드라이팅 모드에서 텍스트 핸드라이팅 입력의 처리

Similar Documents

Publication Publication Date Title
EP4200838A1 (en) Method for controlling window and electronic device therefor
WO2019107981A1 (en) Electronic device recognizing text in image
EP4182784A1 (en) Electronic device and method for displaying image on flexible display
WO2022211271A1 (ko) 학습 기반의 필기 입력을 처리하는 전자 장치, 그 동작 방법 및 저장매체
WO2022119276A1 (ko) 플렉서블 디스플레이 전자 장치 및 그 동작 방법
WO2022055261A1 (ko) 메모리를 관리하기 위한 전자 장치, 전자 장치의 동작 방법, 및 비 일시적 저장 매체
WO2022108192A1 (ko) 전자 장치 및 전자 장치의 멀티윈도우 제어방법
WO2022097858A1 (en) Electronic device capable of expanding display region and method for controlling screen thereof
WO2024085460A1 (ko) 이미지 내에 포함된 글자들을 식별하기 위한 전자 장치 및 그 방법
WO2022030890A1 (ko) 다중 윈도우 이미지 캡쳐 방법 및 이를 위한 전자 장치
WO2022010279A1 (en) Electronic device for converting handwriting to text and method therefor
WO2022030752A1 (ko) 전자 장치 및 상기 전자 장치를 이용하여 프리뷰 정보를 외부 디바이스에 제공하는 방법
WO2023195617A1 (ko) 손글씨 동기화 방법 및 전자 장치
WO2024063346A1 (ko) 텍스트를 표시하기 위한 전자 장치 및 그 방법
WO2023214675A1 (ko) 터치 입력을 처리하기 위한 전자 장치 및 방법
WO2024117658A1 (ko) 언어 번역 방법 및 전자 장치
WO2022010092A1 (ko) 컨텐츠 공유를 지원하는 전자 장치
WO2023146077A1 (ko) 가상 키보드 상의 터치 입력으로부터 사용자 의도를 인식하기 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2024072053A1 (ko) 디스플레이 내의 메모리를 제어하는 전자 장치 및 방법
WO2024058597A1 (ko) 전자 장치 및 사용자 발화 처리 방법
WO2024080553A1 (ko) 전자 장치 및 그 동작 방법
WO2024080709A1 (ko) 음성 신호에 기반하여 실행가능한 객체를 제어하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2024029686A1 (ko) 재생율을 변경하는 전자 장치 및 방법
WO2022211307A1 (ko) 올웨이즈 온 디스플레이 컨텐트를 표시를 지원하는 전자 장치 및 이의 제어 방법
WO2023106606A1 (ko) 전자 장치들 간의 공동 편집을 지원하는 클라우드 서버 및 그 동작 방법