WO2024117508A1 - 가상 공간을 제공하기 위한 전자 장치 및 방법 - Google Patents

가상 공간을 제공하기 위한 전자 장치 및 방법 Download PDF

Info

Publication number
WO2024117508A1
WO2024117508A1 PCT/KR2023/015274 KR2023015274W WO2024117508A1 WO 2024117508 A1 WO2024117508 A1 WO 2024117508A1 KR 2023015274 W KR2023015274 W KR 2023015274W WO 2024117508 A1 WO2024117508 A1 WO 2024117508A1
Authority
WO
WIPO (PCT)
Prior art keywords
processor
users
communication
images
log information
Prior art date
Application number
PCT/KR2023/015274
Other languages
English (en)
French (fr)
Inventor
송태양
김문정
김영록
김태영
성원규
유종혁
이창한
김숙동
서수현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220175113A external-priority patent/KR20240079113A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2024117508A1 publication Critical patent/WO2024117508A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Definitions

  • the electronic device may include a display, communication circuitry, memory, a speaker, a microphone, and at least one processor operatively connected to the display, the communication circuitry, the memory, the speaker, and the microphone.
  • the at least one processor is configured to display a first character corresponding to the user and the at least one other user while an application for communication with at least one other user who is distinct from the user of the electronic device is executed in a virtual space. may be set to display the virtual space including at least one second character corresponding to .
  • the at least one processor is configured to perform communication between a plurality of users, including the user and the at least one other user, within the virtual space, through the first character and the at least one second character.
  • the at least one processor may be configured to display a plurality of images included in the log information based on identifying that communication between the plurality of users is terminated within the virtual space.
  • the at least one processor may be configured to display an image included in the log information and corresponding to the selected image in response to identifying an input for selecting one of the plurality of images.
  • a method of an electronic device includes, while an application for communication with at least one other user that is distinct from the user of the electronic device is running in a virtual space, a first character corresponding to the user and the The method may include displaying the virtual space including at least one second character corresponding to at least one other user.
  • the method may be performed while communication between a plurality of users, including the user and the at least one other user, is performed within the virtual space through the first character and the at least one second character. It may include an operation of obtaining log information about communication between a plurality of users.
  • the method may include displaying a plurality of images included in the log information based on identifying that communication between the plurality of users is terminated within the virtual space.
  • the method may include, in response to identifying an input for selecting one of the plurality of images, displaying an image included in the log information and corresponding to the selected image.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to one embodiment.
  • Figure 2 is a simplified block diagram of an electronic device, according to an embodiment.
  • FIG 3 shows an example of operation of an electronic device, according to an embodiment.
  • Figure 4 shows a flowchart regarding the operation of an electronic device, according to one embodiment.
  • Figure 5 shows an example of an operation of an electronic device according to an embodiment.
  • FIG. 6 illustrates an example of an operation for acquiring a plurality of images as log information in an electronic device according to an embodiment.
  • FIG 7 shows an example of operation of another electronic device according to one embodiment.
  • FIG. 8 illustrates an example of an operation for acquiring a plurality of images as log information in an electronic device according to an embodiment.
  • Figure 9 shows an example of an operation of an electronic device according to an embodiment.
  • FIG. 10 illustrates an example of an operation for converting an utterance signal into a text message and obtaining log information in an electronic device according to an embodiment.
  • FIG. 11A shows a flowchart regarding the operation of an electronic device, according to one embodiment.
  • FIG. 11B shows an example of operation of an electronic device according to an embodiment.
  • Figure 12 shows an example of an operation of an electronic device according to an embodiment.
  • Figure 13 shows an example of an operation of an electronic device according to an embodiment.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to one embodiment.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • a first network 198 e.g., a short-range wireless communication network
  • a second network 199 e.g., a long-distance wireless communication network.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor 121 e.g., a central processing unit or an application processor
  • auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 101 includes a main processor 121 and a secondary processor 123
  • the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • co-processor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
  • the electronic device 102 e.g., speaker or headphone
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • processor 120 e.g., an application processor
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access to multiple terminals (massive machine type communications (mMTC)), or ultra-reliable and low-latency (URLLC). -latency communications)) can be supported.
  • the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing.
  • MIMO massive array multiple-input and multiple-output
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199). According to one embodiment, the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high-frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high-frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side)
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • an electronic device may provide a service related to a virtual space to a user using an application.
  • a user can communicate with at least one other user within the virtual space using a character corresponding to the user. While communication between a plurality of users, including the user of the electronic device and at least one other user, is performed, log information regarding communication between the plurality of users may be obtained.
  • the electronic device may provide a communication log in the form of text, images, and/or video based on log information about the communication between the plurality of users.
  • various embodiments of providing a communication log may be described.
  • Figure 2 is a simplified block diagram of an electronic device, according to an embodiment.
  • the electronic device 200 may include some or all of the components of the electronic device 101 shown in FIG. 1 .
  • electronic device 200 may correspond to electronic device 101 in FIG. 1 .
  • the electronic device 200 includes a processor 210, a display 220, a memory 230, a communication circuit 240, a camera 250, a microphone 260, and/or a speaker 270. ) may include.
  • the electronic device 200 includes at least one of a processor 210, a display 220, a memory 230, a communication circuit 240, a camera 250, a microphone 260, and a speaker 270. may include.
  • the processor 210, display 220, memory 230, communication circuit 240, camera 250, microphone 260, and speaker 270 may be omitted depending on the embodiment. You can.
  • the electronic device 200 may include a processor 210.
  • Processor 210 is operatively or operably coupled with display 220, memory 230, communication circuit 240, camera 250, microphone 260, and speaker 270. ), can be connected with.
  • Processor 210 being operatively coupled or connected to display 220, memory 230, communication circuit 240, camera 250, microphone 260, and speaker 270 means that processor 210 This may mean that the display 220, memory 230, communication circuit 240, camera 250, microphone 260, and speaker 270 can be controlled.
  • the processor 210 may control the display 220, memory 230, communication circuit 240, camera 250, microphone 260, and speaker 270.
  • Display 220, memory 230, communication circuit 240, camera 250, microphone 260, and speaker 270 may be controlled by processor 210.
  • the processor 210 may be formed of at least one processor.
  • processor 210 may include at least one processor.
  • processor 210 may correspond to processor 120 of FIG. 1 .
  • the processor 210 may include hardware components for processing data based on one or more instructions.
  • Hardware components for processing data may include, for example, an arithmetic and logic unit (ALU), a field programmable gate array (FPGA), and/or a central processing unit (CPU).
  • ALU arithmetic and logic unit
  • FPGA field programmable gate array
  • CPU central processing unit
  • the electronic device 200 may include a display 220.
  • the display 220 may include a touch panel (or touch screen) and a touch integrated circuit (IC).
  • the display 220 can be used to display various screens.
  • the display 220 may be used to display a user interface of an application (eg, an application for providing a service related to a virtual space, an application for providing a phone function, or an application for exchanging messages).
  • display 220 may correspond to display module 160 of FIG. 1 .
  • the electronic device 200 may include a memory 230.
  • memory 230 may be used to store one or more programs.
  • One or more programs may include instructions that, when executed by the processor 210 of the electronic device 200, cause the electronic device 200 to perform a defined operation.
  • memory 230 may correspond to memory 130 of FIG. 1 .
  • memory 230 may be a volatile memory unit or units.
  • memory 230 may be a non-volatile memory unit or units.
  • memory 230 may be another form of computer-readable medium, such as a magnetic or optical disk.
  • the memory 230 may store data obtained based on an operation performed by the processor 210 (eg, an algorithm execution operation).
  • the electronic device 200 may include a communication circuit 240.
  • communication circuit 240 may correspond to at least a portion of communication module 190 of FIG. 1 .
  • communication circuitry 240 may be used for various radio access technologies (RATs).
  • RATs radio access technologies
  • communications circuitry 240 may be used to perform cellular communications.
  • the communication circuit 240 may be used to perform Bluetooth (Bluetooth) communication, wireless local area network (WLAN) communication, or ultra wideband (UWB) communication.
  • Bluetooth Bluetooth
  • WLAN wireless local area network
  • UWB ultra wideband
  • the electronic device 200 may include a camera 250.
  • the camera 250 may be used to obtain an image of a part of the body (eg, face or hand) of the user of the electronic device 200.
  • Camera 250 may be positioned toward the user to obtain an image of a part of the user's body.
  • the camera 250 may include a plurality of cameras to obtain images of parts of the user's body.
  • the electronic device 200 may include a microphone 260 (eg, the input module 150 of FIG. 1).
  • the microphone 260 can identify electrical signals corresponding to atmospheric vibrations.
  • the processor 210 may use the microphone 260 to identify a sound generated by the user (eg, the user's voice).
  • the processor 210 may transmit information about sounds generated by the user to an external electronic device.
  • the electronic device 200 may include a speaker 270.
  • speaker 270 may be used to output (or provide) sound.
  • the processor 210 may receive information about sounds generated by other users from an external electronic device and output sound through the speaker 270 based on the received information.
  • speaker 270 may correspond to sound output module 155 of FIG. 1 .
  • FIG 3 shows an example of operation of an electronic device, according to an embodiment.
  • the processor 210 of the electronic device 200 may display a screen 300 through the display 220 .
  • the processor 210 may execute an application for communication with at least one other user that is distinct from the user of the electronic device 200.
  • the processor 210 may display the screen 300 based on execution of the application.
  • the screen 300 may display a virtual space.
  • the processor 210 creates a character 311 corresponding to the user of the electronic device 200 or characters 321 and 322 corresponding to other users (or external users) of external electronic devices in the virtual space. can be displayed.
  • the screen 300 may include a first area 310 and a second area 320.
  • the processor 210 may display a character 311 corresponding to the user of the electronic device 200 in the first area 310.
  • the processor 210 may display characters 321 and 322 corresponding to other users (or external users) of external electronic devices in the second area 320 .
  • the character 321 may correspond to the first external user.
  • Character 322 may correspond to a second external user.
  • the processor 210 may display the virtual space from a third-person perspective.
  • the processor 210 may display a second character together with a character 311 corresponding to the user of the electronic device 200 and characters 321 and 322 corresponding to other users within a screen for displaying a virtual space. It can also be displayed within area 320.
  • the processor 210 may display a screen (eg, screen 320) representing a virtual space based on one of a first-person perspective and a third-person perspective.
  • the processor 210 may display a screen representing a virtual space according to one of a first-person perspective and a third-person perspective based on an input for changing the viewpoint.
  • the processor 210 may use the camera 250 and/or the microphone 260 to obtain information about the user of the electronic device 200.
  • the processor 210 may use the camera 250 to obtain the user's facial expression data.
  • the processor 210 may change the facial expression of the character 311 corresponding to the user based on the user's facial expression data.
  • the processor 210 may use the microphone 260 to obtain user speech data.
  • the processor 210 may output a voice signal through the character 311 corresponding to the user based on the user's speech data.
  • the processor 210 may set the third area 330 in part of the second area 320.
  • the processor 210 may display a text message regarding communication between a plurality of users in the third area 330 .
  • the electronic device 200 or an external electronic device
  • the user of the electronic device 200 can communicate with at least one other user using a text message.
  • the processor 210 may display a text message obtained from the user in the third area 330 .
  • the third area 330 may be set in connection with the characters 311, 321, and 322.
  • the processor 210 may display a speech bubble in association with the characters 311, 321, and 322 within the second area 320.
  • the processor 210 may display text messages obtained from a plurality of users within a speech bubble.
  • the processor 210 of the electronic device 200 may obtain and provide log information about communication between a plurality of users in a virtual space.
  • operations for obtaining log information regarding communication between a plurality of users in a virtual space and providing log information stored in various content types may be described.
  • Figure 4 shows a flowchart regarding the operation of an electronic device, according to one embodiment.
  • the processor 210 may display a virtual space including a first character corresponding to a user and at least one second character corresponding to at least one other user.
  • the processor 210 while the processor 210 is executing an application for communication with at least one other user who is distinct from the user of the electronic device 200 in a virtual space, the processor 210 displays a first character corresponding to the user and at least one A virtual space including at least one second character corresponding to another user may be displayed.
  • the processor 210 may execute an application for communication with at least one other user that is distinct from the user of the electronic device 200.
  • the application may be used to communicate with at least one other user through a character representing the user within a virtual space.
  • the processor 210 may display a user interface related to the application based on execution of the application.
  • the user interface for the application may include a virtual space including a first character corresponding to the user and at least one second character corresponding to at least one other user.
  • the processor 210 may display a virtual space within a first area (e.g., area 310 in FIG. 3) and a second area (e.g., area 320 in FIG. 3) in the screen.
  • the first character e.g., character 311 in FIG. 3
  • the processor 210 may display at least one second character (eg, characters 321 and 322 in FIG. 3) in the second area among the first and second areas in the screen displaying the virtual space.
  • the first character may correspond to the user of the electronic device 200.
  • Each of the at least one second character may correspond to at least one other user.
  • Processor 210 may display a plurality of first text messages regarding communication between a plurality of users in a portion of the second area.
  • the processor 210 may display first text messages related to communication between a plurality of users in a third area set in part of the second area.
  • the processor 210 may obtain log information regarding communication between a plurality of users.
  • the processor 210 may perform communication between a plurality of users, including a user and at least one other user, via a first character and at least one second character.
  • the log information may include content of conversations between a plurality of users, images related to the movements of a first character and at least one second character, and/or images including the first character and at least one second character. may include.
  • the content of a conversation between a plurality of users may include audio and/or text.
  • the processor 210 may obtain an image of communication between a plurality of users through a first character and at least one second character within the virtual space.
  • the processor 210 may store the acquired image as log information.
  • the processor 210 may store text data of chat content between a plurality of users through a first character and at least one second character as log information in a virtual space.
  • the processor 210 may obtain voice data for communication between a plurality of users within a virtual space.
  • the processor 210 may store the acquired voice data as log information.
  • the processor 210 may convert voice data into text data.
  • the processor 210 may store the converted text data as log information.
  • the processor 210 may obtain an image of communication between a plurality of users through a first character and at least one second character within the virtual space.
  • the processor 210 may store the image as log information.
  • the processor 210 may set the type of data to be acquired as log information to one of video type, image type, and text type. For example, processor 210 may obtain data regarding one of a video type, an image type, and a text type. Depending on the embodiment, the processor 210 may obtain all video type, image type, and text type data.
  • the processor 210 may identify an input for setting the type of data to be stored as log information. Based on the identified input, the processor 210 may set the type of data to be stored as log information to one of text type, image type, and video type. Depending on the embodiment, the processor 210 may identify input for setting the type of data to be stored as log information before communication between a plurality of users is performed in the virtual space. Depending on the embodiment, the processor 210 may identify an input for setting the type of data to be stored as log information after communication between a plurality of users in the virtual space is terminated. Depending on the embodiment, the processor 210 may identify an input for setting the type of data to be stored as log information while communication between a plurality of users is performed in a virtual space. An example in which the processor 210 identifies an input for setting the type of data to be stored as log information will be described in FIGS. 11A and 11B.
  • the processor 210 may acquire a plurality of images representing communication while communication between a plurality of users is performed.
  • the processor 210 may obtain a plurality of images based on obtaining a plurality of thumbnails for each of the plurality of images.
  • the processor 210 may obtain log information including a plurality of images and a plurality of images.
  • the processor 210 may obtain utterance data regarding a plurality of users while communication between the plurality of users is performed.
  • the processor 210 may identify a plurality of speech sections that satisfy specified conditions based on speech data.
  • the processor 210 may identify a plurality of speech sections that are maintained for a specified time period while the size of the speech signal included in the speech data is greater than or equal to a specified size.
  • the processor 210 may acquire a plurality of images corresponding to a plurality of speech sections.
  • the processor 210 may obtain a plurality of images based on obtaining a plurality of thumbnails for each of the plurality of images.
  • the processor 210 may acquire a plurality of images and a plurality of images as log information. For example, an example in which the processor 210 obtains log information including a plurality of images and a plurality of images will be described in FIGS. 7 and 8.
  • the processor 210 collects gesture data about the first character and at least one second character and speech data about the plurality of users. It can be obtained.
  • the processor 210 may obtain a plurality of candidate images based on gesture data about the first character and at least one second character and speech data about a plurality of users.
  • the processor 210 may obtain a plurality of images based on filtering a plurality of candidate images.
  • the processor 210 may arrange a plurality of images within a designated frame based on the time at which the plurality of images were acquired.
  • the processor 210 may store a plurality of images arranged within a designated frame as log information. For example, an example in which the processor 210 stores log information including a plurality of images arranged in a designated frame will be described in FIGS. 5 and 6.
  • the processor 210 may display a plurality of first text messages related to communication between a plurality of users in a portion of the second area where at least one second character is displayed.
  • the plurality of first text messages may mean text messages input from a plurality of users.
  • the processor 210 may obtain speech data about a plurality of users while communication between the plurality of users is performed.
  • the processor 210 may obtain text data based on setting speech data as an input value of a designated model indicated by a plurality of parameters.
  • the processor 210 may obtain a plurality of second text messages based on text data.
  • the processor 210 may obtain log information including a plurality of first text messages and a plurality of second text messages.
  • An example in which the processor 210 obtains log information including a plurality of first text messages and a plurality of second text messages will be described in FIG. 10.
  • the processor 210 may display a plurality of images included in the log information based on identifying that communication between a plurality of users has ended. For example, processor 210 may identify the time at which the plurality of images were acquired. The processor 210 may arrange a plurality of images within a designated frame based on the time at which the plurality of images were acquired. The processor 210 may display a plurality of images arranged within a designated frame. For example, the processor 210 may display a plurality of images implemented in cartoon format. The processor 210 may display a plurality of images implemented in cartoon format according to time order.
  • the processor 210 may display an image corresponding to the selected image in response to identifying an input for selecting one image from among a plurality of images. For example, in response to identifying an input for selecting one image from among a plurality of images, the processor 210 may be included in log information and display an image corresponding to the selected image.
  • the processor 210 may identify an input for selecting one image from among a plurality of images. For example, the processor 210 may identify an input for selecting one image from among a plurality of images implemented in cartoon format according to time order.
  • the processor 210 can display an image corresponding to one image.
  • the selected image may be a thumbnail of a video.
  • the processor 210 may reproduce and display an image corresponding to a selected image among a plurality of stored images.
  • the selected image may be a middle frame of a video.
  • the processor 210 may reproduce images from before the unit time interval to after the unit time interval from the frame corresponding to the selected image.
  • Figure 5 shows an example of an operation of an electronic device according to an embodiment.
  • the processor 210 of the electronic device 200 controls the user while an application for communication with at least one other user that is distinct from the user of the electronic device 200 is running.
  • a virtual space 511 including a first character corresponding to and at least one second character corresponding to at least one other user may be displayed.
  • the screen displayed in state 510 may correspond to the screen 300 displayed in FIG. 3 .
  • the first character and the second character displayed in the virtual space 511 of state 510 may be understood as substantially the same as the characters 321 and 322 included in the screen 300 of FIG. 3. You can.
  • the processor 210 may obtain log information about communication between a plurality of users while communication between the plurality of users is performed. For example, the processor 210 may acquire a plurality of images representing communication.
  • the processor 210 may obtain speech data about a plurality of users while communication between the plurality of users is performed.
  • the processor 210 may identify a plurality of speech sections that satisfy specified conditions based on speech data.
  • the processor 210 may acquire a plurality of images corresponding to a plurality of speech sections.
  • the processor 210 may, based on the utterance data, identify that the size of the utterance signal remains above a specified level (e.g., a specified decibel (dB)) for a specified time interval, It can be identified that the conditions are met.
  • the processor 210 may identify a plurality of speech sections in which the size of the speech signal is greater than or equal to a specified size and is maintained for a specified time period.
  • the processor 210 may acquire a plurality of images corresponding to a plurality of speech sections.
  • the processor 210 may display an object (eg, a record button) for acquiring an image while communication between a plurality of users is performed.
  • the processor 210 may monitor the utterances of multiple users.
  • the processor 210 may identify whether speech data obtained through monitoring satisfies specified conditions based on monitoring the speech of a plurality of users.
  • the processor 210 may display an object (eg, a record button) for acquiring an image in response to identifying that the acquired speech data satisfies a specified condition.
  • the processor 210 may obtain an image representing communication between a plurality of users from the time the input is received in response to an input about an object.
  • the processor 210 may identify the content of the speech based on speech data obtained through monitoring.
  • the processor 210 may identify that the speech data satisfies a specified condition based on identifying the content of the speech.
  • the processor 210 based on utterance data obtained according to monitoring, identifies that the size of the utterance signal is maintained at a specified level (e.g., a specified decibel (dB)) or more for a specified time period, It can be identified that the utterance data obtained through monitoring satisfies specified conditions.
  • a specified level e.g., a specified decibel (dB)
  • the processor 210 may identify that communication between a plurality of users has ended. For example, processor 210 may change the state of electronic device 200 from state 510 to state 520 based on identifying that communication between a plurality of users has ended.
  • the processor 210 may store log information in the memory 230 based on identifying that communication between a plurality of users in the virtual space is terminated.
  • the processor 210 may display a log list stored in the memory 230 on the screen 521.
  • the processor 210 may display log information stored in the memory 230 and other log information regarding other communications that are distinct from communications between a plurality of users through a log list.
  • the processor 210 may display an object 522 representing log information and an object 523 representing other log information.
  • object 522 may include information about at least one other user's name (e.g., Kim and Park).
  • object 522 may include information about the time (eg, 40 minutes) during which communication was performed with at least one other user.
  • object 522 may include information about the language type (eg, Korean) in which communication with at least one other user was performed.
  • the processor 210 may store the log list in chronological order.
  • object 523 may be implemented substantially the same as object 522.
  • the processor 210 may identify the displayed log information and an input for displaying the log information among other log information through the log list. For example, processor 210 can identify input for object 522. Processor 210 may change the state of electronic device 200 from state 520 to state 530 based on identifying an input for displaying log information.
  • the processor 210 displays a plurality of images on the screen 531 based on identifying an input for an object 522 that is an input for displaying log information. You can.
  • the processor 210 may identify a plurality of images corresponding to a plurality of images.
  • the processor 210 may identify conversation content based on a plurality of images.
  • the processor 210 may display at least one text representing conversation content on at least some of the plurality of images.
  • the processor 210 may identify an image corresponding to image 541 among a plurality of images.
  • the processor 210 can identify speech data in the video.
  • the processor 210 may identify conversation content based on speech data.
  • the processor 210 may display text 542 representing conversation content within an object 544 representing a speech bubble.
  • the object 544 may be displayed in connection with the character 543 corresponding to the speaker.
  • the processor 210 may identify the speaker and identify and display an image 541 including a character 543 corresponding to the speaker.
  • the processor 210 may arrange a plurality of images within a designated frame.
  • the processor 210 may place a plurality of images within a designated frame implemented in cartoon format.
  • the processor 210 may arrange a plurality of images within a designated frame so that the user can check the plurality of images in chronological order.
  • FIG. 6 illustrates an example of an operation for acquiring a plurality of images as log information in an electronic device according to an embodiment.
  • the processor 210 selects a first character while communication between a plurality of users is performed within the virtual space 610 through the first character and at least one second character.
  • gesture data for at least one second character can be obtained.
  • a plurality of characters including a first character and at least one second character may be displayed according to gestures (eg, facial expressions or motions) of a plurality of users.
  • the screen displaying the virtual space 610 may correspond to the screen 300 shown in FIG. 3 .
  • the first character and the second character displayed in the virtual space 610 may be understood as substantially the same as the characters 321 and 322 included in the screen 300 of FIG. 3.
  • the first character may identify the user's gesture of the electronic device 200 using the camera 250.
  • the processor 210 may display a first character performing a gesture corresponding to the user's gesture.
  • the processor 210 may obtain gesture data for the first character and at least one second character.
  • the processor 210 may obtain speech data regarding a plurality of users within the virtual space 610.
  • the processor 210 may identify the speaker based on speech data about a plurality of users.
  • the processor 210 may identify one of the plurality of users as the speaker. For example, operations 601 and 602 may be performed simultaneously.
  • the processor 210 may obtain a plurality of candidate images.
  • the processor 210 creates a scene in which a plurality of users communicate within the virtual space 610 according to the gesture data of the plurality of characters including the first character and at least one second character and the speech data of the plurality of users. It can be captured.
  • the processor 210 may obtain a plurality of candidate images based on capturing various scenes. For example, the processor 210 may obtain a candidate image showing a close-up of a first character corresponding to the user based on identifying that the user of the electronic device 200 is speaking. For example, the processor 210 may obtain a candidate image including the first character and the second character based on identifying the movement of the first character and the second character of the electronic device 200 together.
  • the processor 210 may identify a candidate image corresponding to the candidate image.
  • the processor 210 may identify text representing conversation content within the candidate video.
  • the processor 210 may obtain a candidate image by displaying the identified text in association with a character corresponding to the speaker.
  • the processor 210 may acquire a plurality of candidate images in a similar manner.
  • processor 210 may filter a plurality of candidate images.
  • the processor 210 may remove identical or similar candidate images from among the plurality of candidate images.
  • the processor 210 may obtain a plurality of images based on removing identical or similar candidate images from among the plurality of candidate images.
  • the processor 210 may place a plurality of images within a designated frame.
  • the processor 210 may place a plurality of images within a designated frame implemented in a cartoon format.
  • the processor 210 may arrange a plurality of images within a designated frame so that the user can check the plurality of images in chronological order.
  • processor 210 may store log information.
  • the processor 210 may store log information including a plurality of images in the memory 230.
  • the processor 210 may store a plurality of images arranged within a designated frame in chronological order as log information.
  • the processor 210 may implement a plurality of images arranged in a designated frame according to time order into one collage image.
  • the processor 210 may store one collage image as log information.
  • FIG 7 shows an example of operation of another electronic device according to one embodiment.
  • the processor 210 may display a plurality of images on the screen 711.
  • the processor 210 may display a plurality of images arranged within a designated frame on the screen 711 in chronological order.
  • the processor 210 may identify an input 713 that selects an image 712 from among a plurality of images.
  • the processor 210 may change the state of the electronic device 200 from state 710 to state 720 in response to an input 713 that selects an image 712 from among a plurality of images.
  • the processor 210 may identify the image 722 corresponding to the image 712 in response to the input 713 for the image 712 among the plurality of images.
  • the processor 210 may execute an application for video playback based on identifying the image 722.
  • the processor 210 may play the video 722 corresponding to the image 712 within the screen 721 through an application for video playback.
  • image 712 may be a middle frame of a video.
  • the processor 210 may reproduce the image 722 from before a unit time period (eg, N seconds) to after a unit time period from the frame corresponding to the selected image.
  • a unit time period eg, N seconds
  • image 712 may be a thumbnail of video 722.
  • the processor 210 may reproduce the video 722 corresponding to the image 712.
  • the processor 210 may play the video 722 corresponding to the image 712 during a designated time period.
  • processor 210 may identify conversation content related to image 712.
  • the processor 210 may play the video 722 from the time the conversation about the image 712 starts to the time the conversation ends.
  • the processor 210 may change the state of the electronic device 200 from state 720 to state 730 after playback of the image 722 ends.
  • the processor 210 may change the state of the electronic device 200 from state 720 to state 730 in response to the end of playback of the image 722.
  • the processor 210 may display a plurality of images within the screen 731 in response to the end of playback of the image 722.
  • Screen 731 may be substantially the same as screen 711.
  • the processor 210 may identify the input 713 for the image 712 among the plurality of images and play the video 722 corresponding to the image 712. Processor 210 may display the plurality of images again in response to identifying that image 722 has ended.
  • FIG. 8 illustrates an example of an operation for acquiring a plurality of images as log information in an electronic device according to an embodiment.
  • the processor 210 identifies utterances of a plurality of users while communication between the plurality of users is performed through a first character and at least one second character within the virtual space 811. can do.
  • the processor 210 may identify the start of speech while communication between a plurality of users is performed within the virtual space 811.
  • the processor 210 may identify the speaker, who is one of a plurality of users, based on the start of the speech.
  • the processor 210 may record a screen 810 displaying the virtual space 811 from the point in time 823 when the speech started, in response to identifying that the speech has started.
  • Processor 210 may, in response to identifying that the speaker's utterance begins, record the utterance from the point in time 823 when the utterance began.
  • the processor 210 may obtain the speech signal 821 based on identifying that speech has started. Based on identifying that the speech is started, the processor 210 can identify the speech signal 821 from the time when the speaker's speech started (823) to the time when the speaker's speech ended (824). You can. The processor 210 may identify whether the size of the ignition signal is maintained at a specified level (e.g., a specified decibel (dB)) or more for a specified time period. For example, the processor 210 may identify the time points 823 to 824 as the utterance section based on identifying that the size of the utterance signal is maintained at a specified size or more for a specified time interval.
  • a specified level e.g., a specified decibel (dB)
  • the processor 210 may identify a plurality of speech sections according to the above-described operation.
  • the processor 210 may acquire a plurality of images corresponding to a plurality of speech sections.
  • the processor 210 may obtain log information including a plurality of images and store the obtained log information in the memory 230.
  • the processor 210 may identify that communication between a plurality of users is terminated within the virtual space 811.
  • the processor 210 may display the log list 831 based on identifying that communication between a plurality of users within the virtual space 811 is terminated.
  • the processor 210 may display the log list 831 in chronological order.
  • the processor 210 may display the most recently acquired log information at the top of the log list 831.
  • the processor 210 may display an object 832 representing the most recently acquired log information at the top of the log list 831.
  • Figure 9 shows an example of an operation of an electronic device according to an embodiment.
  • the processor 210 may display the virtual space 911 on the screen 912.
  • the screen 912 may include a first area 901 and a second area 902.
  • the first area 901 may be used to display a first character corresponding to the user of the electronic device 200.
  • the processor 210 may display a first character corresponding to the user of the electronic device 200 in the first area 901.
  • the second area 902 may be used to display at least one second character corresponding to at least one other user that is distinct from the user of the electronic device 200.
  • the processor 210 may display at least one second character in the second area 902 while the first character is displayed in the first area 901 .
  • screen 912 displayed in state 810 may correspond to screen 300 displayed in FIG. 3 .
  • the processor 210 may display a plurality of first text messages related to communication between a plurality of users in a portion of the second area 902. For example, the processor 210 may generate, within a third area 903 set in a portion of the second area 902, a plurality of first text messages regarding communication between a plurality of users within the virtual space 911. can be displayed.
  • the processor 210 may obtain speech data about a plurality of users while communication between the plurality of users is performed. For example, the processor 210 may obtain speech signals related to the user of the electronic device 200. The processor 210 may obtain speech signals related to at least one other user. The processor 210 may set speech data about a plurality of users as input values of a designated model indicated by a plurality of parameters. The processor 210 may obtain text data based on setting speech data about a plurality of users as input values of a designated model indicated by a plurality of parameters. The processor 210 may obtain a plurality of second text messages based on text data.
  • the processor 210 may set speech data about a plurality of users as input values of a designated model based on artificial intelligence. For example, the processor 210 may set speech data about a plurality of users as input values of a designated model for performing voice recognition. The processor 210 may obtain text data by converting speech data about a plurality of users into text.
  • the processor 210 may identify an input for exiting the virtual space 911 from the user of the electronic device 200.
  • the processor 210 may display a pop-up window 915 on the screen 912 based on the identified input.
  • the pop-up window 915 may include a message to confirm whether to leave the virtual space 911.
  • processor 210 may identify that communication between a plurality of users is terminated. .
  • processor 210 may change the state of electronic device 200 from state 910 to state 920 in response to identifying that communication between a plurality of users has ended.
  • processor 210 may display a log listing in response to identifying that communication between a plurality of users has ended. For example, processor 210 may store log information in memory 230 based on identifying that communication between a plurality of users within the virtual space is terminated. The processor 210 may display a log list stored in the memory 230 on the screen 921. For example, the processor 210 may display log information stored in the memory 230 and other log information regarding other communications that are distinct from communications between a plurality of users through a log list. For example, the processor 210 may display an object 922 representing log information and objects 923 representing other log information. Object 922 may include, for example, information about the name of at least one other user, information about the time in which the communication with the at least one other user was conducted, and the language in which the communication with the at least one other user was conducted. May contain information about the type.
  • the processor 210 may store the log list in chronological order.
  • the processor 210 may display the log list in chronological order.
  • the processor 210 may display the most recently acquired log information at the top of the log list.
  • log information regarding communication between a plurality of users within the virtual space 901 may be displayed with the most recently acquired object 922 at the top of the log list.
  • processor 210 may identify input for object 922.
  • the processor 210 may change the state of the electronic device 200 from state 920 to state 930 in response to an input to the object 922 .
  • processor 210 sends a plurality of first text messages and a plurality of second text messages to a plurality of text messages including a user of electronic device 200 and at least one other user. It can be classified according to the users.
  • the processor 210 may display first text messages and a plurality of second text messages classified according to a plurality of users in chronological order.
  • the processor 210 may implement and display the first text messages and a plurality of second text messages in a text conversation format. Accordingly, the processor 210 can implement both voice and text conversations between a plurality of users within the virtual space 911 in the form of text conversations according to time and display them on the screen 931.
  • FIG. 10 illustrates an example of an operation for converting an utterance signal into a text message and obtaining log information in an electronic device according to an embodiment.
  • the processor 210 configures the screen 912 for displaying the virtual space 911 into a first area 901, a second area 902, and/or a third area. It may include (903).
  • the first area 901 may be used to display a first character corresponding to the user of the electronic device 200.
  • the second area 902 may be used to display at least one second character corresponding to at least one other user.
  • the third area 903 may be used to display a plurality of first text messages relating to communication between a plurality of users within the virtual space.
  • screen 912 may correspond to screen 300 shown in FIG. 3 .
  • the processor 210 may identify first text messages representing conversations through text between a plurality of users within the virtual space 911.
  • the processor 210 may store the first text messages in the memory 230 (or a buffer of the memory 230).
  • the processor 210 may store the first text messages in the memory 230 in connection with the time at which the first text messages were input.
  • the processor 210 may obtain speech data about a plurality of users while communication between the plurality of users is performed.
  • speech data may include an speech signal 1031.
  • the processor 210 may identify the speech signal 1031 based on the speech of one of the plurality of users.
  • the processor 210 may perform noise processing and voice feature extraction based on the speech signal 1031.
  • the processor 210 may set a signal on which noise processing and voice feature extraction has been performed as an input value of the designated model 1032.
  • the processor 210 may obtain text data based on setting a signal on which noise processing and voice feature extraction has been performed as an input value of the designated model 1032.
  • Text data may refer to data obtained by converting the speech signal 1031 into text.
  • the processor 210 may obtain a plurality of second text messages based on a plurality of speech signals (eg, the speech signal 1031).
  • the designated model 1032 may be formed based on an acoustic model, a vocabulary/pronunciation dictionary, and/or a language model included in a speech database.
  • memory 230 may include a voice database.
  • memory 230 may include a speech database that includes an acoustic model, a vocabulary/pronunciation dictionary, and/or a language model.
  • Processor 210 may form designated model 1032 based on an acoustic model, a vocabulary/pronunciation dictionary, and/or a language model.
  • processor 210 may generate a recognition network using an acoustic model, a vocabulary/pronunciation dictionary, and/or a language model.
  • Processor 210 may form a designated model 1032 based on the recognition network.
  • the processor 210 may store a plurality of first text messages 1010 and/or a plurality of second text messages 1020 as log information in the memory 230. Processor 210 may distinguish the plurality of first text messages and the plurality of second text messages according to the plurality of users based on identifying that communication between the plurality of users is terminated. The processor 210 may display a plurality of first text messages and a plurality of second text messages divided according to the plurality of users in chronological order.
  • the processor 210 may display a log list as shown on screen 1050 based on identifying that communication between a plurality of users has ended.
  • screen 1050 may correspond to screen 921 in FIG. 9 .
  • FIG. 11A shows a flowchart regarding the operation of an electronic device, according to one embodiment.
  • the method of FIG. 11A may be performed by the electronic device 200 of FIG. 2.
  • the processor 210 may perform operations 1101 and 1102 of FIG. 11A.
  • the processor 210 may display a first character corresponding to a user and at least one second character corresponding to at least one other user in a virtual space.
  • Operation 1101 may correspond to operation 410 of FIG. 4 .
  • the processor 210 may provide options for setting whether to store log information regarding communication between a plurality of users. For example, the processor 210 may provide an option to set whether to store log information regarding communication between a plurality of users while communication is performed between a plurality of users including a user and at least one other user. can provide them.
  • the processor 210 may provide an option to configure log information regarding communication between a plurality of users to be stored and/or an option to configure not to store log information.
  • the processor 210 may store log information based on an input for selecting an option for setting to store log information.
  • the processor 210 may not store log information based on an input for selecting an option for configuring not to store log information.
  • the processor 210 provides a sub-option for setting the type of log information to at least one of an image type, a video type, and a text type, based on an input for selecting an option for setting to store log information. can provide them.
  • the processor 210 may provide sub-options for setting the type of data to be acquired as log information to at least one of an image type, a video type, and a text type.
  • the processor 210 may store voice information between a plurality of users and a first character and at least one second character while communication is performed, based on the storage type of the log information being set to an image type. You can save image information about it.
  • the processor 210 may store voice information between a plurality of users and a first character and at least one second character while communication is performed, based on the storage type of the log information being set to a video type. You can save video information about
  • the processor 210 may convert voice information between a plurality of users into text information while communication is performed, based on the storage type of the log information being set to text type.
  • Processor 210 may store text information.
  • FIG. 11B shows an example of operation of an electronic device according to an embodiment.
  • the processor 210 may display the log list 1111 stored in the memory 230 on the screen 1112.
  • the log list 1111 may include a plurality of objects representing log information.
  • a plurality of objects may each represent information about conversation records within one virtual space.
  • the processor 210 may set the type of data to be acquired as log information.
  • the processor 210 may display an object 1113 on the screen 1112 for setting the type of data to be acquired as log information.
  • the processor 210 may change the state of the electronic device 200 from state 1110 to state 1120 in response to an input to the object 1113.
  • processor 210 may display screen 1125 in response to input for object 1113.
  • Screen 1125 may be displayed to set the type of data to be acquired as log information.
  • the processor 210 may display an object 1121 (or a switch) for setting whether to use the automatic storage function of log information.
  • the processor 210 may set whether to use the automatic magnetic field function of log information based on an input to the object 1121 (e.g., a tap input or a swipe input).
  • the processor 210 may determine whether to automatically save log information.
  • the processor 210 selects one of the objects 1122, 1123, and 1124 for setting the type of data to be acquired as log information. It can be displayed as selectable.
  • the object 1122 may be displayed to set the type of data to be acquired as log information to an image type.
  • object 1123 may be displayed to set the type of data to be acquired as log information to a video type.
  • the object 1124 may be displayed to set the type of data to be obtained as log information to a text type.
  • the processor 210 may receive an input (eg, a tap input) for selecting one of the object 1122, the object 1123, and the object 1124.
  • an input eg, a tap input
  • the processor 210 may set the type of data to be acquired as log information to an image type based on receiving input for the object 1122.
  • the processor 210 may acquire a plurality of images and store the plurality of images as log information according to the operations shown in FIG. 6.
  • the processor 210 may store a plurality of images arranged within a designated frame as log information.
  • the processor 210 may set the type of data to be acquired as log information to a video type based on receiving input for the object 1123.
  • the processor 210 may acquire a plurality of images according to the operations shown in FIG. 8.
  • the processor 210 may store a plurality of images and a plurality of images obtained based on the plurality of images as log information.
  • the processor 210 may set the type of data to be obtained as log information to a text type based on receiving input for the object 1124.
  • the processor 210 may obtain a plurality of first text messages and a plurality of second text messages according to the operations shown in FIG. 10.
  • the processor 210 may store a plurality of first text messages and a plurality of second text messages as log information.
  • the processor 210 may set the type of data to be stored as log information before communication between a plurality of users is performed in the virtual space.
  • the processor 210 may display a screen (e.g., screen 1125) so that the user of the electronic device 200 can set the type of data to be stored as log information before entering the virtual space.
  • the processor 210 may obtain and store log information according to the set data type while communication between a plurality of users is performed in the virtual space.
  • the processor 210 may set the type of data to be stored as log information while communication between a plurality of users is performed in a virtual space.
  • the processor 210 may identify an input for changing the type of data to be stored as log information while communication between a plurality of users is performed in the virtual space.
  • the processor 210 may display a screen (eg, screen 1125) to change the type of data to be stored as log information, based on the identified input.
  • the processor 210 may set the type of data to be stored as log information after communication between a plurality of users in the virtual space is performed.
  • the processor 210 may display a screen (e.g., screen 1125) for setting the type of data to be stored as log information, based on identifying that communication between a plurality of users in the virtual space is terminated.
  • the processor 210 can set the type of data to be saved as log information within the screen. For example, the processor 210 stores raw data in a buffer to obtain data of image type, video type, and text type while communication between a plurality of users is performed in a virtual space. You can.
  • the processor 210 may set the type of data to be stored as log information based on identifying that communication between a plurality of users in the virtual space is terminated.
  • the processor 210 may obtain data according to the set data type from raw data and store it in the memory 230.
  • Figure 12 shows an example of an operation of an electronic device according to an embodiment.
  • the processor 210 may display a virtual space 1212 on the screen 1211.
  • the user of the electronic device 200 may communicate with at least one other user within the virtual space 1212 provided (or displayed) through the screen 1211.
  • the processor 210 may identify an utterance of one of a plurality of users including the user of the electronic device 200 and at least one other user. In response to identifying the utterance, the processor 210 may display an object 1222 on the screen 1221 for performing recording on the screen 1221 (or the virtual space 1212). For example, processor 210 may change the state of electronic device 200 from state 1220 to state 1230 based on identifying an input for object 1222. For example, in state 1220, processor 210 may identify that input to object 1222 is not identified and the utterance of one of the plurality of users has ended. The processor 210, in state 1220, changes the state of the electronic device 200 to state ( You can change from state 1220) to state 1240.
  • processor 210 may change object 1222 to object 1232 based on identifying input for object 1222. While the object 1232 is displayed, an image may be recorded.
  • the processor 210 may start recording based on identifying that one of the plurality of users starts speaking.
  • the processor 210 can acquire images from the time when speech begins to the time when speech ends.
  • the processor 210 may display an object 1232 indicating that recording is in progress while recording the screen (or virtual space 1212).
  • the processor 210 may start recording based on identifying that one of a plurality of users starts speaking without identifying an input to the object 1222.
  • processor 210 may cease displaying object 1222 in response to identifying that input to object 1222 has not been identified and that speech by one of the plurality of users has ended. .
  • the processor 210 may stop displaying the object 1222 within the screen 1241 based on identifying that no conversation is taking place between the plurality of users.
  • Processor 210 may display object 1222 again based on identifying an utterance of one of the plurality of users.
  • each of screen 1211, screen 1221, screen 1231, and screen 1241 displayed in states 1210 to 1240 may correspond to screen 300 of FIG. 3. there is.
  • Figure 13 shows an example of an operation of an electronic device according to an embodiment.
  • the processor 210 may display a plurality of images 1330 acquired while communication between a plurality of users is performed in a virtual space on a screen 1311. there is.
  • the processor 210 may display a screen 1311 including a plurality of images 1330 in response to identifying that communication between a plurality of users in the virtual space is terminated.
  • the processor 210 may identify an input for selecting at least one image from the plurality of images 1330.
  • the processor 210 is configured to select at least one image among the plurality of images 1330 in response to an input (e.g., long press input) for at least a portion of the screen 1311.
  • a plurality of objects 1312 may be displayed.
  • the plurality of objects 1312 may each correspond to the plurality of images 1330.
  • the object 1312-1 may correspond to the first image 1330-1 among the plurality of images 1330.
  • the object 1312-2 may correspond to the second image 1330-2 among the plurality of images 1330.
  • the object 1312-7 may correspond to the seventh image 1330-7 among the plurality of images 1330.
  • the processor 210 may identify an input for selecting at least one image from among the plurality of images 1330. For example, the processor 210 receives an input for selecting the first image 1330-1, the third image 1330-3, the fifth image 1330-5, and the seventh image 1330-7. can be identified. The processor 210 generates an object 1312-1 corresponding to the first image 1330-1, the third image 1330-3, the fifth image 1330-5, and the seventh image 1330-7. , by changing the shapes of the object 1312-3, the object 1312-5, and the object 1312-7, the first image 1330-1, the third image 1330-3, and the fifth image ( 1330-5), and it may indicate that the seventh image 1330-7 has been selected.
  • the processor 210 changes the state of the electronic device 200 from state 1310 to state ( 1320).
  • the processor 210 may display the screen 1321 based on identifying an input for selecting at least one image from the plurality of images 1330.
  • the processor 210 arranges the first image 1330-1, the third image 1330-3, the fifth image 1330-5, and the seventh image 1330-7 within a designated frame. can do.
  • the processor 210 displays the first image 1330-1, the third image 1330-3, the fifth image 1330-5, and the seventh image 1330-7 in cartoon format. It can be displayed on screen 1321.
  • an electronic device e.g., electronic device 200
  • a speaker e.g., speaker 270
  • a microphone e.g., microphone 260
  • at least one processor e.g., It may include a processor 210.
  • the at least one processor is configured to display a first character (e.g., character 311) corresponding to the user while an application for communication with at least one other user that is distinct from the user of the electronic device is being executed in the virtual space.
  • the at least one processor is configured to perform communication between a plurality of users, including the user and the at least one other user, within the virtual space, through the first character and the at least one second character. During this time, it can be set to obtain log information about communication between the plurality of users.
  • the at least one processor selects a plurality of images (e.g., a plurality of images 1330) included in the log information based on identifying that communication between the plurality of users is terminated within the virtual space. ) can be set to display.
  • the at least one processor may be configured to display an image included in the log information and corresponding to the selected image in response to identifying an input for selecting one of the plurality of images.
  • the at least one processor may be configured to acquire a plurality of images representing the communication while the communication between the plurality of users is performed.
  • the at least one processor may be configured to acquire the plurality of images based on obtaining a plurality of thumbnails for each of the plurality of images.
  • the at least one processor may be configured to obtain the log information including the plurality of images and the plurality of images.
  • the at least one processor may be configured to obtain utterance data about the plurality of users while the communication between the plurality of users is performed.
  • the at least one processor may be set to identify a plurality of speech sections that satisfy specified conditions based on the speech data.
  • the at least one processor may be configured to acquire the plurality of images corresponding to the plurality of speech sections.
  • the at least one processor is configured to obtain a plurality of candidate images based on gesture data about the first character and the at least one second character and speech data about the plurality of users. can be set.
  • the at least one processor may be configured to obtain the plurality of images based on filtering the plurality of candidate images.
  • the at least one processor may be set to arrange the plurality of images in a designated frame based on the time at which the plurality of images were acquired.
  • the at least one processor may be configured to store a plurality of images arranged within the designated frame as the log information.
  • the at least one processor may be set to identify an input for selecting at least one image to be placed in a designated frame among the plurality of images while the plurality of images are displayed.
  • the at least one processor may be set to arrange the at least one image in a designated frame in chronological order based on an input for selecting the at least one image.
  • the at least one processor may be configured to store at least one image arranged within the designated frame as the log information.
  • the at least one processor may be configured to store the log information in the memory based on identifying that the communication between the plurality of users within the virtual space is terminated. .
  • the at least one processor may be configured to display the log information stored in the memory and other log information about another communication that is distinct from the communication.
  • the at least one processor may be set to display the plurality of images based on an input for displaying the log information.
  • the at least one processor may be set to display the first character in the first area among the first and second areas in the screen displaying the virtual space.
  • the at least one processor may be set to display the at least one second character in the second area while the first character is displayed in the first area.
  • the at least one processor may be configured to display, overlapping a portion of the second area, a plurality of first text messages relating to communication between the plurality of users.
  • the at least one processor may be configured to obtain speech data about the plurality of users while the communication between the plurality of users is performed.
  • the at least one processor may be configured to obtain text data based on setting the speech data as an input value of a designated model indicated by a plurality of parameters.
  • the at least one processor may be configured to obtain a plurality of second text messages based on the text data.
  • the log information may include the plurality of first text messages and the plurality of second text messages.
  • the at least one processor based on identifying that communication between the plurality of users is terminated, sends the plurality of first text messages and the plurality of second text messages to the plurality of text messages. It can be set to differentiate according to users.
  • the at least one processor may be configured to display the plurality of first text messages and the plurality of second text messages divided according to the plurality of users in chronological order.
  • the at least one processor may be configured to identify an input for setting a type of data to be stored as the log information.
  • the at least one processor may be set to set the type of data to be stored as the log information to one of a text type, an image type, and a video type based on the input.
  • the at least one processor may be set to display an object for acquiring an image overlapping in the virtual space while the communication between the plurality of users is performed.
  • the at least one processor may be configured to obtain, in response to an input for the object, an image representing the communication between the plurality of users from the time the input is received.
  • a method of an electronic device is performed while an application for communication with at least one other user that is distinct from the user of the electronic device is executed in a virtual space.
  • the virtual space including a first character (e.g., character 311) corresponding to a user and at least one second character (e.g., character 321, character 322) corresponding to the at least one other user. It may include a display action.
  • the method may be performed while communication between a plurality of users, including the user and the at least one other user, is performed within the virtual space through the first character and the at least one second character. It may include an operation of obtaining log information about communication between a plurality of users.
  • the method displays a plurality of images (e.g., a plurality of images 1330) included in the log information based on identifying that communication between the plurality of users is terminated within the virtual space. It may include actions such as: The method may include, in response to identifying an input for selecting one of the plurality of images, displaying an image included in the log information and corresponding to the selected image.
  • a plurality of images e.g., a plurality of images 1330
  • the method may include, in response to identifying an input for selecting one of the plurality of images, displaying an image included in the log information and corresponding to the selected image.
  • the method may include acquiring a plurality of images representing the communication while the communication between the plurality of users is performed.
  • the method may include acquiring the plurality of images based on obtaining a plurality of thumbnails for each of the plurality of images.
  • the method may include an operation of obtaining the log information including the plurality of images and the plurality of images.
  • the method may include obtaining utterance data regarding the plurality of users while the communication between the plurality of users is performed.
  • the method may include an operation of identifying a plurality of speech sections that satisfy a specified condition, based on the speech data.
  • the method may include an operation of acquiring the plurality of images corresponding to the plurality of speech sections.
  • the method includes obtaining a plurality of candidate images based on gesture data about the first character and the at least one second character and speech data about the plurality of users. can do.
  • the method may include obtaining the plurality of images based on filtering the plurality of candidate images.
  • the method may include arranging the plurality of images in a designated frame based on the time at which the plurality of images were acquired.
  • the method may include storing a plurality of images arranged within the designated frame as the log information.
  • the method may include identifying an input for selecting at least one image to be placed in a designated frame among the plurality of images while the plurality of images are displayed.
  • the method may include an operation of arranging the at least one image in a designated frame in chronological order based on an input for selecting the at least one image.
  • the method may include storing at least one image arranged in the designated frame as the log information.
  • the method stores the log information in the memory (e.g., memory 230) of the electronic device based on identifying that the communication between the plurality of users is terminated within the virtual space.
  • the method may include displaying the log information stored in the memory and other log information about another communication that is distinct from the communication.
  • the method may include displaying the plurality of images based on an input for displaying the log information.
  • the method may include an operation of displaying the first character in the first area among a first area and a second area in a screen displaying the virtual space.
  • the method may include displaying the at least one second character in the second area while the first character is displayed in the first area.
  • the method may include displaying, overlapping in a portion of the second area, a plurality of first text messages relating to communication between the plurality of users.
  • the method may include obtaining speech data about the plurality of users while the communication between the plurality of users is performed.
  • the method may include an operation of obtaining text data based on setting the speech data as an input value of a specified model indicated by a plurality of parameters.
  • the method may include obtaining a plurality of second text messages based on the text data.
  • the log information may include the plurality of first text messages and the plurality of second text messages.
  • the method includes sending the plurality of first text messages and the plurality of second text messages to the plurality of users based on identifying that communication between the plurality of users has ended. It may include actions to differentiate depending on the behavior.
  • the method may include displaying the plurality of first text messages and the plurality of second text messages, divided according to the plurality of users, in chronological order.
  • the method may include identifying an input for setting a type of data to be stored as the log information.
  • the method may include setting the type of data to be stored as the log information to one of a text type, an image type, and a video type based on the input.
  • the method may include an operation of displaying an object for acquiring an image overlapping in the virtual space while the communication between the plurality of users is performed.
  • the method may include, in response to an input for the object, obtaining an image representing the communication between the plurality of users from the time the input is received.
  • an electronic device that communicates using characters in a virtual space includes a display (e.g., display 220), a communication circuit (e.g., communication circuit 240), Memory (e.g., memory 230), a speaker (e.g., speaker 270), a microphone (e.g., microphone 260), and the display 220, the communication circuit 240, the memory 230, It may include at least one processor (eg, processor 210) operatively connected to the speaker 270 and the microphone 260.
  • a display e.g., display 220
  • a communication circuit e.g., communication circuit 240
  • Memory e.g., memory 230
  • speaker e.g., speaker 270
  • a microphone e.g., microphone 260
  • the at least one processor 210 may display a first character (e.g., character 311) corresponding to a user and at least one second character (e.g., character 321, character 322) corresponding to at least one other user. )) can be set to display in the virtual space.
  • the at least one processor is configured to set whether to store log information regarding communication between the plurality of users while communication is performed between the plurality of users including the user and the at least one other user. It can be set to provide options.
  • the at least one processor sets the type of the log information to at least one of an image type, a video type, and a text type based on an input for selecting an option for setting to store the log information. It can be set to provide sub-options for:
  • the at least one processor based on the storage type of the log information being set to the image type, stores voice information between the plurality of users while the communication is performed, and the first It may be set to store image information about the character and the at least one second character.
  • the at least one processor Based on the type of the log information being set to the video type, the voice information and the first character between the plurality of users while the communication is performed It may be set to store video information about the at least one second character.
  • the at least one processor is configured to convert voice information between the plurality of users into text information while the communication is performed, based on the type of the log information being set to the text type. can be set.
  • the at least one processor may be configured to store the text information.
  • the at least one processor may be set not to store the log information based on an input for selecting an option for setting not to store the log information.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one element from another, and may be used to distinguish such elements in other respects, such as importance or order) is not limited.
  • One (e.g. first) component is said to be “coupled” or “connected” to another (e.g. second) component, with or without the terms “functionally” or “communicatively”.
  • any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these.
  • a processor e.g., processor 120
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • a computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store), or on two user devices (e.g. : Smartphones) can be distributed (e.g. downloaded or uploaded) directly or online.
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play Store
  • two user devices e.g. : Smartphones
  • at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일 실시 예에 따르면, 전자 장치는, 디스플레이, 통신 회로, 메모리, 스피커, 마이크로폰, 및 상기 디스플레이, 상기 통신 회로, 상기 메모리, 상기 스피커, 및 상기 마이크로폰과 작동적으로 연결된 적어도 하나의 프로세서를 포함한다. 상기 적어도 하나의 프로세서는, 상기 전자 장치의 사용자에 대응하는 제1 캐릭터 및 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터를 포함하는 상기 가상 공간을 표시하도록 설정된다. 상기 적어도 하나의 프로세서는, 상기 사용자 및 상기 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득하도록 설정된다. 상기 적어도 하나의 프로세서는, 상기 로그 정보에 포함된 복수의 이미지들을 표시하도록 설정된다.

Description

가상 공간을 제공하기 위한 전자 장치 및 방법
아래의 설명들은, 가상 공간을 제공하기 위한 전자 장치 및 방법에 관한 것이다.
기술의 발달에 따라, 컴퓨터 또는 인터넷을 이용하여 가상 공간이 이용되고 있다. 또한, 가상 공간을 제공하기 위한 다양한 소프트웨어가 개발되고 있다. 전자 장치의 사용자는 가상 공간에 진입함으로써, 시간 또는 공간의 제약 없이 실시간으로 다른 사용자와 커뮤니케이션할 수 있다. 사용자는 사용자에 대응하는 캐릭터를 이용하여 가상 공간 내에서 다양한 활동을 수행할 수 있다.
일 실시 예에 따르면, 전자 장치는 디스플레이, 통신 회로, 메모리, 스피커, 마이크로폰, 및 상기 디스플레이, 상기 통신 회로, 상기 메모리, 상기 스피커, 및 상기 마이크로폰과 작동적으로 연결된 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 가상 공간 내에서 상기 전자 장치의 사용자와 구별되는 적어도 하나의 다른 사용자와의 커뮤니케이션을 위한 어플리케이션이 실행되는 동안, 상기 사용자에 대응하는 제1 캐릭터 및 상기 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터를 포함하는 상기 가상 공간을 표시하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 가상 공간 내에서, 상기 제1 캐릭터 및 상기 적어도 하나의 제2 캐릭터를 통한, 상기 사용자 및 상기 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 가상 공간 내에서, 상기 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 상기 로그 정보에 포함된 복수의 이미지들을 표시하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 복수의 이미지들 중 하나의 이미지를 선택하는 입력을 식별하는 것에 응답하여, 상기 로그 정보에 포함되고, 상기 선택된 이미지에 대응하는 영상을 표시하도록 설정될 수 있다.
일 실시 예에 따르면, 전자 장치의 방법은, 가상 공간 내에서 상기 전자 장치의 사용자와 구별되는 적어도 하나의 다른 사용자와의 커뮤니케이션을 위한 어플리케이션이 실행되는 동안, 상기 사용자에 대응하는 제1 캐릭터 및 상기 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터를 포함하는 상기 가상 공간을 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 가상 공간 내에서, 상기 제1 캐릭터 및 상기 적어도 하나의 제2 캐릭터를 통한, 상기 사용자 및 상기 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 가상 공간 내에서, 상기 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 상기 로그 정보에 포함된 복수의 이미지들을 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 복수의 이미지들 중 하나의 이미지를 선택하는 입력을 식별하는 것에 응답하여, 상기 로그 정보에 포함되고, 상기 선택된 이미지에 대응하는 영상을 표시하는 동작을 포함할 수 있다.
도 1은 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 일 실시 예에 따른, 전자 장치의 간소화된 블록도(simplified block diagram)이다.
도 3은 일 실시 예에 따른, 전자 장치의 동작의 예를 도시한다.
도 4는 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도를 도시한다.
도 5는 일 실시 예에 따른 전자 장치의 동작의 예를 도시한다.
도 6은 일 실시 예에 따른 전자 장치에서 복수의 이미지들을 로그 정보로 획득하기 위한 동작의 예를 도시한다.
도 7은 일 실시 예에 다른 전자 장치의 동작의 예를 도시한다.
도 8은 일 실시 예에 따른 전자 장치에서 복수의 영상들을 로그 정보로 획득하기 위한 동작의 예를 도시한다.
도 9는 일 실시 예에 따른 전자 장치의 동작의 예를 도시한다.
도 10은 일 실시 예에 따른 전자 장치에서 발화 신호를 텍스트 메시지로 변환하여 로그 정보로 획득하기 위한 동작의 예를 도시한다.
도 11a는 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도를 도시한다.
도 11b는 일 실시 예에 따른 전자 장치의 동작의 예를 도시한다.
도 12는 일 실시 예에 따른 전자 장치의 동작의 예를 도시한다.
도 13은 일 실시 예에 따른 전자 장치의 동작의 예를 도시한다.
도 1은, 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나 와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
일 실시 예에 따르면, 전자 장치(예를 들어, 도 1의 전자 장치(101))는 어플리케이션을 이용하여, 사용자에게 가상 공간과 관련된 서비스를 제공할 수 있다. 사용자는 가상 공간 내에서, 사용자에 대응하는 캐릭터를 이용하여, 적어도 하나의 다른 사용자과 커뮤니케이션을 수행할 수 있다. 전자 장치의 사용자 및 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득할 수 있다. 복수의 사용자들 사이의 커뮤니케이션이 종료된 경우, 전자 장치는, 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보에 기반하여, 텍스트, 이미지 및/또는 영상으로 커뮤니케이션 로그를 제공할 수 있다. 이하 명세서에서는 커뮤니케이션 로그를 제공하기 다양한 실시 예들이 설명될 수 있다.
도 2는 일 실시 예에 따른, 전자 장치의 간소화된 블록도(simplified block diagram)이다.
도 2를 참조하면, 전자 장치(200)는 도 1에 도시된 전자 장치(101)의 구성 요소의 일부 또는 전부를 포함할 수 있다. 예를 들어, 전자 장치(200)는 도 1의 전자 장치(101)에 상응할 수 있다.
일 실시 예에 따르면, 전자 장치(200)는, 프로세서(210), 디스플레이(220), 메모리(230), 통신 회로(240), 카메라(250), 마이크로폰(260), 및/또는 스피커(270)를 포함할 수 있다. 실시 예에 따라, 전자 장치(200)는 프로세서(210), 디스플레이(220), 메모리(230), 통신 회로(240), 카메라(250), 마이크로폰(260), 및 스피커(270) 중 적어도 하나를 포함할 수 있다. 예를 들어, 프로세서(210), 디스플레이(220), 메모리(230), 통신 회로(240), 카메라(250), 마이크로폰(260), 및 스피커(270) 중 적어도 일부는 실시 예에 따라 생략될 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 프로세서(210)를 포함할 수 있다. 프로세서(210)는 디스플레이(220), 메모리(230), 통신 회로(240), 카메라(250), 마이크로폰(260), 및 스피커(270)와 작동적으로(operatively 또는 operably) 결합하거나(coupled with), 연결될(connected with) 수 있다. 프로세서(210)가 디스플레이(220), 메모리(230), 통신 회로(240), 카메라(250), 마이크로폰(260), 및 스피커(270)와 작동적으로 결합하거나 연결된다는 것은, 프로세서(210)가 디스플레이(220), 메모리(230), 통신 회로(240), 카메라(250), 마이크로폰(260), 및 스피커(270)를 제어할 수 있음을 의미할 수 있다.
예를 들어, 프로세서(210)는 디스플레이(220), 메모리(230), 통신 회로(240), 카메라(250), 마이크로폰(260), 및 스피커(270)를 제어할 수 있다. 디스플레이(220), 메모리(230), 통신 회로(240), 카메라(250), 마이크로폰(260), 및 스피커(270)는 프로세서(210)에 의해 제어될 수 있다. 예를 들어, 프로세서(210)는 적어도 하나의 프로세서로 형성될 수 있다. 예를 들어, 프로세서(210)는 적어도 하나의 프로세서를 포함할 수 있다. 예를 들어, 프로세서(210)는 도 1의 프로세서(120)에 상응할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 하나 이상의 인스트럭션에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(arithmetic and logic unit), FPGA(field programmable gate array) 및/또는 CPU(central processing unit)를 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 디스플레이(220)를 포함할 수 있다. 예를 들어, 디스플레이(220)는 터치 패널(또는 터치 스크린) 및 터치 IC(integrated circuit)를 포함할 수 있다. 예를 들어, 디스플레이(220)는 다양한 화면을 표시하기 위해 사용될 수 있다. 디스플레이(220)는 어플리케이션(예를 들어, 가상 공간에 관한 서비스를 제공하기 위한 어플리케이션, 전화 기능을 제공하기 위한 어플리케이션, 또는 메시지 교환을 위한 어플리케이션)의 사용자 인터페이스를 표시하기 위해 사용될 수 있다. 예를 들어, 디스플레이(220)는 도 1의 디스플레이 모듈(160)에 상응할 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 메모리(230)를 포함할 수 있다. 예를 들어, 메모리(230)는 하나 이상의 프로그램들을 저장하기 위해 사용될 수 있다. 하나 이상의 프로그램들은 전자 장치(200)의 프로세서(210)에 의해 실행될 시, 정의된 동작을 수행하도록 전자 장치(200)를 야기하는 인스트럭션들을 포함할 수 있다. 예를 들어, 메모리(230)는 도 1의 메모리(130)에 상응할 수 있다. 예를 들어, 메모리(230)는 휘발성 메모리 유닛 또는 유닛들일 수 있다. 예를 들어, 메모리(230)는 비휘발성 메모리 유닛 또는 유닛들일 수 있다. 예를 들어, 메모리(230)는 자기 또는 광학 디스크와 같이, 다른 형태의 컴퓨터 판독가능 매체일 수 있다. 예를 들어, 메모리(230)는 프로세서(210)에서 수행되는 동작(예를 들어, 알고리즘 수행 동작)에 기반하여 획득된 데이터를 저장할 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 통신 회로(240)를 포함할 수 있다. 예를 들어, 통신 회로(240)는 도 1의 통신 모듈(190)의 적어도 일부에 상응할 수 있다. 예를 들어, 통신 회로(240)는 다양한 RAT(radio access technology)을 위해 사용될 수 있다. 예를 들어, 통신 회로(240)는 셀룰러 통신을 수행하기 위해 사용될 수 있다. 예를 들어, 통신 회로(240)는 블루투스(bluetooth) 통신, 무선 랜(wireless local area network, WLAN) 통신, 또는 UWB(ultra wideband) 통신을 수행하기 위해 사용될 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 카메라(250)를 포함할 수 있다. 예를 들어, 카메라(250)는 전자 장치(200)의 사용자의 신체의 일부(예를 들어, 안면 또는 손)에 대한 이미지를 획득하기 위해 사용될 수 있다. 카메라(250)는 사용자의 신체의 일부에 대한 이미지를 획득하기 위해, 사용자를 향해 배치될 수 있다. 일 실시 예에 따르면, 카메라(250)는 사용자의 신체의 일부에 대한 이미지를 획득하기 위해, 복수의 카메라를 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 마이크로폰(260)(예: 도 1의 입력 모듈(150))을 포함할 수 있다. 마이크로폰(260)은 대기의 진동에 대응되는 전기 신호를 식별할 수 있다. 예를 들어, 프로세서(210)는 마이크로폰(260)을 이용하여, 사용자로부터 발생되는 소리(예를 들어, 사용자의 음성)를 식별할 수 있다. 프로세서(210)는 사용자로부터 발생되는 소리에 대한 정보를 외부 전자 장치에게 송신할 수 있다.
일 실시 예에 따르면, 전자 장치(200)는 스피커(270)를 포함할 수 있다. 예를 들어, 스피커(270)는 사운드를 출력(또는 제공)하기 위해 사용될 수 있다. 프로세서(210)는 외부 전자 장치로부터 다른 사용자로부터 발생되는 소리에 대한 정보를 수신하고, 수신된 정보에 기반하여, 스피커(270)를 통해 사운드를 출력할 수 있다. 예를 들어, 스피커(270)는 도 1의 음향 출력 모듈(155)에 상응할 수 있다.
도 3은 일 실시 예에 따른, 전자 장치의 동작의 예를 도시한다.
도 3을 참조하면, 전자 장치(200)의 프로세서(210)는 디스플레이(220)를 통해 화면(300)을 표시할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 전자 장치(200)의 사용자와 구별되는 적어도 하나의 다른 사용자와의 커뮤니케이션을 위한 어플리케이션을 실행할 수 있다. 프로세서(210)는 상기 어플리케이션에 대한 실행에 기반하여, 화면(300)을 표시할 수 있다. 예를 들어, 화면(300)은 가상 공간을 표시할 수 있다. 일 실시예에서, 프로세서(210)는 상기 가상 공간에 전자 장치(200)의 사용자에 대응하는 캐릭터(311) 또는 외부 전자 장치들의 다른 사용자(또는 외부 사용자)들에 대응하는 캐릭터(321, 322)를 표시할 수 있다. 예를 들어, 화면(300)은 제1 영역(310) 및 제2 영역(320)을 포함할 수 있다. 예를 들어, 프로세서(210)는 제1 영역(310)에 전자 장치(200)의 사용자에 대응하는 캐릭터(311)를 표시할 수 있다. 예를 들어, 프로세서(210)는 제2 영역(320)에 외부 전자 장치들의 다른 사용자(또는 외부 사용자)들에 대응하는 캐릭터(321, 322)를 표시할 수 있다. 캐릭터(321)는 제1 외부 사용자에 대응할 수 있다. 캐릭터(322)는 제2 외부 사용자에 대응할 수 있다. 실시 예에 따라, 프로세서(210)는 3 인칭 시점으로 가상 공간을 표시할 수 있다. 예를 들어, 프로세서(210)는 가상 공간을 표시하기 위한 화면 내에서, 전자 장치(200)의 사용자에 대응하는 캐릭터(311) 및 다른 사용자들에 대응하는 캐릭터(321, 322)를 함께 제2 영역(320) 내에 표시할 수도 있다. 예를 들어, 프로세서(210)는 1 인칭 시점 및 3 인칭 시점 중 하나에 기반하여, 가상 공간을 나타내는 화면(예: 화면(320))을 표시할 수 있다. 프로세서(210)는 시점을 변경하기 위한 입력에 기반하여, 1 인칭 시점 및 3 인칭 시점 중 하나에 따라 가상 공간을 나타내는 화면을 표시할 수 있다.
예를 들어, 프로세서(210)는 카메라(250) 및/또는 마이크로폰(260)을 이용하여, 전자 장치(200)의 사용자에 대한 정보를 획득할 수 있다. 예를 들어, 프로세서(210)는 카메라(250)를 이용하여, 사용자의 표정 데이터를 획득할 수 있다. 프로세서(210)는 사용자의 표정 데이터에 기반하여, 사용자에 대응하는 캐릭터(311)의 표정을 변경할 수 있다. 예를 들어, 프로세서(210)는 마이크로폰(260)을 이용하여, 사용자의 발화 데이터를 획득할 수 있다. 프로세서(210)는 사용자의 발화 데이터에 기반하여, 사용자에 대응하는 캐릭터(311)를 통해 음성 신호를 출력할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 제2 영역(320) 중 일부에 제3 영역(330)을 설정할 수 있다. 예를 들어, 프로세서(210)는 제3 영역(330) 내에 복수의 사용자들 사이의 커뮤니케이션에 관한 텍스트 메시지를 표시할 수 있다. 예를 들어, 전자 장치(200)(또는 외부 전자 장치)가 마이크로폰(260)을 포함하지 않는 경우, 전자 장치(200)의 사용자는 텍스트 메시지를 이용하여 적어도 하나의 다른 사용자와 커뮤니케이션할 수 있다. 프로세서(210)는 사용자로부터 획득된 텍스트 메시지를 제3 영역(330) 내에 표시할 수 있다. 실시 예에 따라, 제3 영역(330)은 캐릭터(311,321,322)와 연계로 설정될 수 있다. 일 실시예에서, 프로세서(210)는 제2 영역(320) 내에서 캐릭터(311,321,322)와 연계로 말풍선을 표시할 수 있다. 프로세서(210)는 말풍선 내에 복수의 사용자들로부터 획득된 텍스트 메시지를 표시할 수 있다.
전자 장치(200)의 사용자는, 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 종료된 경우, 가상 공간 내에서의 커뮤니케이션에 관한 로그 정보를 확인하지 못할 수 있다. 따라서, 전자 장치(200)의 프로세서(210)는 가상 공간 내에서의 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득하고, 제공할 수 있다. 이하 명세서에서는 가상 공간 내에서의 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득하고, 다양한 콘텐트 타입으로 저장된 로그 정보를 제공하기 위한 동작이 설명될 수 있다.
도 4는 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도를 도시한다.
도 4를 참조하면, 동작 410에서, 프로세서(210)는 사용자에 대응하는 제1 캐릭터 및 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터를 포함하는 가상 공간을 표시할 수 있다. 예를 들어, 프로세서(210)는 가상 공간 내에서 전자 장치(200)의 사용자와 구별되는 적어도 하나의 다른 사용자와의 커뮤니케이션을 위한 어플리케이션일 실행되는 동안, 사용자에 대응하는 제1 캐릭터 및 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터를 포함하는 가상 공간을 표시할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 전자 장치(200)의 사용자와 구별되는 적어도 하나의 다른 사용자와의 커뮤니케이션을 위한 어플리케이션을 실행할 수 있다. 예를 들어, 상기 어플리케이션은 가상 공간 내에서 사용자를 표현하는 캐릭터를 통해 적어도 하나의 다른 사용자와 커뮤니케이션하기 위해 사용될 수 있다.
예를 들어, 프로세서(210)는 상기 어플리케이션의 실행에 기반하여, 상기 어플리케이션에 관한 사용자 인터페이스를 표시할 수 있다. 상기 어플리케이션에 관한 사용자 인터페이스는 사용자에 대응하는 제1 캐릭터 및 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터를 포함하는 가상 공간을 포함할 수 있다.
예를 들어, 프로세서(210)는 가상 공간을 표시하는 화면 내의 제1 영역(예: 도 3의 영역(310)) 및 제2 영역(예: 도 3의 영역(320)) 중 제1 영역 내에서 제1 캐릭터(예: 도 3의 캐릭터(311))를 표시할 수 있다. 프로세서(210)는 가상 공간을 표시하는 화면 내의 제1 영역 및 제2 영역 중 제2 영역 내에서 적어도 하나의 제2 캐릭터(예: 도 3의 캐릭터(321, 322))를 표시할 수 있다. 일 예로, 제1 캐릭터는 전자 장치(200)의 사용자에 대응할 수 있다. 적어도 하나의 제2 캐릭터 각각은 적어도 하나의 다른 사용자에 대응할 수 있다. 프로세서(210)는 제2 영역 중 일부에 복수의 사용자들 사이의 커뮤니케이션에 관한 복수의 제1 텍스트 메시지들을 표시할 수 있다. 예를 들어, 프로세서(210)는 제2 영역 중 일부에 설정된 제3 영역 내에서 복수의 사용자들 사이의 커뮤니케이션에 관한 제1 텍스트 매시지들을 표시할 수 있다.
동작 420에서, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득할 수 있다. 예를 들어, 프로세서(210)는 제1 캐릭터 및 적어도 하나의 제2 캐릭터를 통한, 사용자 및 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득할 수 있다. 예를 들어, 로그 정보는 복수의 사용자들 사이의 대화 내용, 제1 캐릭터 및 적어도 하나의 제2 캐릭터의 동작에 관한 영상들, 및/또는 제1 캐릭터 및 적어도 하나의 제2 캐릭터를 포함하는 이미지들을 포함할 수 있다. 일 예로, 복수의 사용자들 사이의 대화 내용은 오디오 및/또는 텍스트를 포함할 수 있다.
예를 들어, 프로세서(210)는 가상 공간 내에서, 제1 캐릭터 및 적어도 하나의 제2 캐릭터를 통한 복수의 사용자들 사이의 커뮤니케이션에 대한 영상을 획득할 수 있다. 프로세서(210)는 획득된 영상을 로그 정보로 저장할 수 있다.
예를 들어, 프로세서(210)는 가상 공간 내에서, 제1 캐릭터 및 적어도 하나의 제2 캐릭터를 통한 복수의 사용자들 사이의 채팅 내용의 텍스터 데이터를 로그 정보로 저장할 수 있다.
예를 들어, 프로세서(210)는 가상 공간 내에서, 복수의 사용자들 사이의 커뮤니케이션에 대한 음성 데이터를 획득할 수 있다. 프로세서(210)는 획득된 음성 데이터를 로그 정보로 저장할 수 있다. 일 예로, 프로세서(210)는 음성 데이터를 텍스트 데이터로 변환할 수 있다. 프로세서(210)는 변환된 텍스트 데이터를 로그 정보로 저장할 수 있다.
예를 들어, 프로세서(210)는 가상 공간 내에서, 제1 캐릭터 및 적어도 하나의 제2 캐릭터를 통한 복수의 사용자들 사이의 커뮤니케이션에 대한 이미지를 획득할 수 있다. 프로세서(210)는 이미지를 로그 정보로 저장할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 로그 정보로 획득할 데이터의 유형을, 비디오 타입, 이미지 타입, 및 텍스트 타입 중 하나로 설정할 수 있다. 예를 들어, 프로세서(210)는 비디오 타입, 이미지 타입, 및 텍스트 타입 중 하나에 관한 데이터를 획득할 수 있다. 실시 예에 따라, 프로세서(210)는 비디오 타입, 이미지 타입, 및 텍스트 타입의 데이터를 모두 획득할 수 있다.
예를 들어, 프로세서(210)는 로그 정보로 저장할 데이터의 타입을 설정하기 위한 입력을 식별할 수 있다. 프로세서(210)는 식별된 입력에 기반하여, 로그 정보로 저장할 데이터의 유형을, 텍스트 타입, 이미지 타입, 및 비디오 타입 중 하나로 설정할 수 있다. 실시 예에 따라, 프로세서(210)는 로그 정보로 저장할 데이터의 타입을 설정하기 위한 입력을 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 수행되기 전에 식별할 수 있다. 실시 예에 따라, 프로세서(210)는 로그 정보로 저장할 데이터의 타입을 설정하기 위한 입력을 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 종료된 후, 식별할 수 있다. 실시 예에 따라, 프로세서(210)는 로그 정보로 저장할 데이터의 타입을 설정하기 위한 입력을 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 식별할 수 있다. 프로세서(210)가 로그 정보로 저장할 데이터의 타입을 설정하기 위한 입력을 식별하는 예가 도 11a 및 도 11b에서 설명될 것이다.
일 실시 예에 따르면, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 커뮤니케이션을 나타내는 복수의 영상들을 획득할 수 있다. 프로세서(210)는 복수의 영상들 각각에 대한 복수의 썸네일들을 획득하는 것에 기반하여, 복수의 이미지들을 획득할 수 있다. 프로세서(210)는 복수의 영상들 및 복수의 이미지들을 포함하는 로그 정보를 획득할 수 있다.
예를 들어, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 복수의 사용자들에 관한 발화 데이터(utterance data)를 획득할 수 있다. 일 실시예에서, 프로세서(210)는 발화 데이터에 기반하여, 지정된 조건을 만족하는 복수의 발화 구간들을 식별할 수 있다. 일 예로, 프로세서(210)는 발화 데이터에 포함된 발화 신호의 크기가 지정된 크기 이상인 상태로 지정된 시간 구간 동안 유지되는 복수의 발화 구간들을 식별할 수 있다. 프로세서(210)는 복수의 발화 구간들에 대응하는 복수의 영상들을 획득할 수 있다. 프로세서(210)는 복수의 영상들 각각에 대한 복수의 썸네일들을 획득하는 것에 기반하여, 복수의 이미지들을 획득할 수 있다. 프로세서(210)는 복수의 영상들 및 복수의 이미지들을 로그 정보로 획득할 수 있다. 예를 들어, 프로세서(210)가 복수의 영상들 및 복수의 이미지들을 포함하는 로그 정보를 획득하는 예가 도 7 및 도 8에서 설명될 것이다.
일 실시 예에 따르면, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 제1 캐릭터 및 적어도 하나의 제2 캐릭터에 관한 제스처(gesture) 데이터 및 복수의 사용자들에 관한 발화 데이터를 획득할 수 있다. 일 실시예에서, 프로세서(210)는 제1 캐릭터 및 적어도 하나의 제2 캐릭터에 관한 제스처 데이터 및 복수의 사용자들에 관한 발화 데이터에 기반하여, 복수의 후보 이미지들을 획득할 수 있다. 예를 들어, 프로세서(210)는 복수의 후보 이미지들을 필터링하는 것에 기반하여, 복수의 이미지들을 획득할 수 있다. 예를 들어, 프로세서(210)는 복수의 이미지들이 획득된 시간에 기반하여, 복수의 이미지들을 지정된 프레임 내에 배치할 수 있다. 프로세서(210)는 지정된 프레임 내에 배치된 복수의 이미지들을 로그 정보로 저장할 수 있다. 예를 들어, 프로세서(210)가 지정된 프레임 내에 배치된 복수의 이미지들을 포함하는 로그 정보로 저장하는 예가 도 5 및 도 6에서 설명될 것이다.
일 실시 예에 따르면, 프로세서(210)는 적어도 하나의 제2 캐릭터가 표시되는 제2 영역 중 일부에 복수의 사용자들 사이의 커뮤니케이션에 관한 복수의 제1 텍스트 메시지들을 표시할 수 있다. 예를 들어, 복수의 제1 텍스트 메시지들은 복수의 사용자들로부터 입력된 텍스트 메시지들을 의미할 수 있다.
프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 복수의 사용자들에 관한 발화 데이터를 획득할 수 있다. 프로세서(210)는 발화 데이터를, 복수의 파라미터들에 의해 지시되는 지정된 모델의 입력 값으로 설정하는 것에 기반하여, 텍스트 데이터를 획득할 수 있다. 프로세서(210)는 텍스트 데이터에 기반하여, 복수의 제2 텍스트 메시지들을 획득할 수 있다.
프로세서(210)는 복수의 제1 텍스트 메시지들 및 복수의 제2 텍스트 메시지들을 포함하는 로그 정보를 획득할 수 있다. 프로세서(210)가 복수의 제1 텍스트 메시지들 및 복수의 제2 텍스트 메시지들을 포함하는 로그 정보를 획득하는 예가 도 10에서 설명될 것이다.
동작 430에서, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 로그 정보에 포함된 복수의 이미지들을 표시할 수 있다. 예를 들어, 프로세서(210)는 복수의 이미지들이 획득된 시간을 식별할 수 있다. 프로세서(210)는 복수의 이미지들이 획득된 시간에 기반하여, 복수의 이미지들을 지정된 프레임 내에 배치할 수 있다. 프로세서(210)는 지정된 프레임 내에 배치된 복수의 이미지들을 표시할 수 있다. 예를 들어, 프로세서(210)는 카툰 형식으로 구현된 복수의 이미지들을 표시할 수 있다. 프로세서(210)는 시간 순서에 따라, 카툰 형식으로 구현된 복수의 이미지들을 표시할 수 있다.
동작 440에서, 프로세서(210)는 복수의 이미지들 중 하나의 이미지를 선택하는 입력을 식별하는 것에 응답하여, 선택된 이미지에 대응하는 영상을 표시할 수 있다. 예를 들어, 프로세서(210)는 복수의 이미지들 중 하나의 이미지를 선택하는 입력을 식별하는 것에 응답하여, 로그 정보에 포함되고, 선택된 이미지에 대응하는 영상을 표시할 수 있다.
프로세서(210)는 복수의 이미지들 중 하나의 이미지를 선택하는 입력을 식별할 수 있다. 예를 들어, 프로세서(210)는 시간 순서에 따라, 카툰 형식으로 구현된 복수의 이미지들 중 하나의 이미지를 선택하는 입력을 식별할 수 있다. 프로세서(210)는 하나의 이미지 대응하는 영상을 표시할 수 있다. 예를 들어, 선택된 이미지는 영상의 썸네일일 수 있다. 프로세서(210)는, 저장된 복수의 영상들 중, 선택된 이미지에 대응되는 영상을 재생하여 표시할 수 있다.
예를 들어, 선택된 이미지는 영상의 중간 프레임일 수 있다. 프로세서(210)는 선택된 이미지에 상응하는 프레임으로부터 단위 시간 구간 이전으로부터 단위 시간 구간 이후까지의 영상을 재생할 수 있다.
도 5는 일 실시 예에 따른 전자 장치의 동작의 예를 도시한다.
도 5를 참조하면, 상태(510)에서, 전자 장치(200)의 프로세서(210)는 전자 장치(200)의 사용자와 구별되는 적어도 하나의 다른 사용자와의 커뮤니케이션을 위한 어플리케이션이 실행되는 동안, 사용자에 대응하는 제1 캐릭터 및 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터를 포함하는 가상 공간(511)을 표시할 수 있다. 예를 들어, 상태(510)에서 표시된 화면은 도 3에 표시된 화면(300)에 상응할 수 있다. 예를 들어, 상태(510)의 가상 공간(511)에 표시된 상기 제1 캐릭터 및 상기 제2 캐릭터는, 도 3의 화면(300)에 포함되는 캐릭터(321, 322)와 실질적으로 동일하게 이해될 수 있다.
일 실시 예에 따르면, 프로세서(210)는, 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득할 수 있다. 예를 들어, 프로세서(210)는 커뮤니케이션을 나타내는 복수의 영상들을 획득할 수 있다.
예를 들어, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 복수의 사용자들에 관한 발화 데이터를 획득할 수 있다. 프로세서(210)는 발화 데이터에 기반하여, 지정된 조건을 만족하는 복수의 발화 구간들을 식별할 수 있다. 프로세서(210)는 복수의 발화 구간들에 대응하는 복수의 영상들을 획득할 수 있다. 예를 들어, 프로세서(210)는 발화 데이터에 기반하여, 발화 신호의 크기가 지정된 크기(예: 지정된 데시벨(dB)) 이상인 상태로 지정된 시간 구간 동안 유지됨을 식별하는 것에 기반하여, 발화 데이터가 지정된 조건을 만족함을 식별할 수 있다. 프로세서(210)는 발화 신호의 크기가 지정된 크기 이상인 상태로 지정된 시간 구간동안 유지되는 복수의 발화 구간들을 식별할 수 있다. 프로세서(210)는 복수의 발화 구간들에 대응하는 복수의 영상들을 획득할 수 있다.
예를 들어, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 영상을 획득하기 위한 객체(예: 녹화 버튼)를 표시할 수 있다. 프로세서(210)는 복수의 사용자들의 발화를 모니터링할 수 있다. 프로세서(210)는 복수의 사용자들의 발화를 모니터링하는 것에 기반하여, 모니터링에 따라 획득된 발화 데이터가 지정된 조건을 만족하는지 여부를 식별할 수 있다. 일 실시예에서, 프로세서(210)는 획득된 발화 데이터가 지정된 조건을 만족함을 식별하는 것에 응답하여, 영상을 획득하기 위한 객체(예: 녹화 버튼)를 표시할 수 있다. 예를 들어, 프로세서(210)는 객체에 대한 입력에 응답하여, 입력이 수신된 시점으로부터 복수의 사용자들 사이의 커뮤니케이션을 나타내는 영상을 획득할 수 있다.
일 예로, 프로세서(210)는 모니터링에 따라 획득된 발화 데이터에 기반하여, 발화 내용을 식별할 수 있다. 프로세서(210)는 발화 내용을 식별하는 것에 기반하여, 발화 데이터가 지정된 조건을 만족함을 식별할 수 있다. 일 예로, 프로세서(210)는 모니터링에 따라 획득된 발화 데이터에 기반하여, 발화 신호의 크기가 지정된 크기(예: 지정된 데시벨(dB)) 이상인 상태로 지정된 시간 구간 동안 유지됨을 식별하는 것에 기반하여, 모니터링에 따라 획득된 발화 데이터가 지정된 조건을 만족함을 식별할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별할 수 있다. 예를 들어, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 전자 장치(200)의 상태를 상태(510)로부터 상태(520)로 변경할 수 있다.
일 실시 예에 따르면, 상태(520)에서, 프로세서(210)는 가상 공간 내에서, 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 로그 정보를 메모리(230)에 저장할 수 있다. 일 실시예에서, 프로세서(210)는 메모리(230)에 저장된 로그 목록(log list)을 화면(521)에 표시할 수 있다. 예를 들어, 프로세서(210)는 메모리(230)에 저장된, 로그 정보 및 복수의 사용자들 사이의 커뮤니케이션과 구별되는 다른 커뮤니케이션에 관한 다른 로그 정보를 로그 목록을 통해 표시할 수 있다. 예를 들어, 프로세서(210)는 로그 정보를 나타내는 객체(522) 및 다른 로그 정보를 나타내는 객체(523)를 표시할 수 있다. 예를 들어, 객체(522)는 적어도 하나의 다른 사용자의 이름(예: Kim 및 Park)에 대한 정보를 포함할 수 있다. 예를 들어, 객체(522)는 적어도 하나의 다른 사용자와의 커뮤니케이션을 수행한 시간(예: 40 분)에 대한 정보를 포함할 수 있다. 예를 들어, 객체(522)는 적어도 하나의 다른 사용자와의 커뮤니케이션을 수행한 언어 타입(예: Korean)에 대한 정보를 포함할 수 있다. 예를 들어, 프로세서(210)는 로그 목록을 시간 순서에 따라 저장할 수 있다. 예를 들어, 객체(523)는 객체(522)와 실질적으로 동일하게 구현될 수 있다.
일 실시 예에 따르면, 프로세서(210)는 로그 목록을 통해 표시된 로그 정보 및 다른 로그 정보 중 상기 로그 정보를 표시하기 위한 입력을 식별할 수 있다. 예를 들어, 프로세서(210)는 객체(522)에 대한 입력을 식별할 수 있다. 프로세서(210)는 로그 정보를 표시하기 위한 입력을 식별하는 것에 기반하여, 전자 장치(200)의 상태를 상태(520)로부터 상태(530)로 변경할 수 있다.
일 실시 예에 따르면, 상태(530)에서, 프로세서(210)는 로그 정보를 표시하기 위한 입력인 객체(522)에 대한 입력을 식별하는 것에 기반하여, 복수의 이미지들을 화면(531)에 표시할 수 있다. 예를 들어, 프로세서(210)는 복수의 이미지들에 대응하는 복수의 영상들을 식별할 수 있다. 프로세서(210)는 복수의 영상들에 기반하여, 대화 내용을 식별할 수 있다. 예를 들어, 프로세서(210)는 대화 내용을 나타내는 적어도 하나의 텍스트를 복수의 이미지들 중 적어도 일부에 표시할 수 있다.
일 예로, 프로세서(210)는 복수의 이미지들 중 이미지(541)에 대응하는 영상을 식별할 수 있다. 프로세서(210)는 영상의 발화 데이터를 식별할 수 있다. 프로세서(210)는 발화 데이터에 기반하여, 대화 내용을 식별할 수 있다. 예를 들어, 프로세서(210)는 대화 내용을 나타내는 텍스트(542)를 말풍선을 나타내는 객체(544) 내에 표시할 수 있다. 객체(544)는 발화자에 상응하는 캐릭터(543)와 연계로 표시될 수 있다. 실시 예에 따라, 프로세서(210)는 발화자를 식별하고, 발화자에 상응하는 캐릭터(543)를 포함하는 이미지(541)를 식별하고 표시할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 복수의 이미지들을 지정된 프레임 내에 배치할 수 있다. 프로세서(210)는 카툰 형식으로 구현된 지정된 프레임 내에 복수의 이미지들을 배치할 수 있다. 프로세서(210)는 사용자가 시간 순서에 따라 복수의 이미지들을 확인할 수 있도록 지정된 프레임 내에 복수의 이미지들을 배치할 수 있다.
도 6은 일 실시 예에 따른 전자 장치에서 복수의 이미지들을 로그 정보로 획득하기 위한 동작의 예를 도시한다.
도 6을 참조하면, 동작 601에서, 프로세서(210)는 가상 공간(610) 내에서 제1 캐릭터 및 적어도 하나의 제2 캐릭터를 통한, 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 제1 캐릭터 및 적어도 하나의 제2 캐릭터에 대한 제스처 데이터를 획득할 수 있다. 예를 들어, 제1 캐릭터 및 적어도 하나의 제2 캐릭터를 포함하는 복수의 캐릭터들은 복수의 사용자들의 제스처(예: 표정 또는 모션)에 따라 표시될 수 있다. 예를 들어, 가상 공간(610)을 표시하는 화면은 도 3에 표시된 화면(300)에 상응할 수 있다. 예를 들어, 가상 공간(610)에 표시된 상기 제1 캐릭터 및 상기 제2 캐릭터는, 도 3의 화면(300)에 포함되는 캐릭터(321, 322)와 실질적으로 동일하게 이해될 수 있다.
예를 들어, 제1 캐릭터는 전자 장치(200)의 사용자의 제스처를 카메라(250)를 이용하여 식별할 수 있다. 프로세서(210)는 사용자의 제스처에 상응하는 제스처를 수행하는 제1 캐릭터를 표시할 수 있다. 프로세서(210)는 제1 캐릭터 및 적어도 하나의 제2 캐릭터에 대한 제스처 데이터를 획득할 수 있다.
동작 602에서, 프로세서(210)는 가상 공간(610) 내에서, 복수의 사용자들에 관한 발화 데이터를 획득할 수 있다. 프로세서(210)는 복수의 사용자들에 관한 발화 데이터에 기반하여, 발화자를 식별할 수 있다. 프로세서(210)는 복수의 사용자들 중 하나를 발화자로 식별할 수 있다. 예를 들어, 동작 601과 동작 602는 동시에 수행될 수 있다.
동작 603에서, 프로세서(210)는 복수의 후보 이미지들을 획득할 수 있다. 프로세서(210)는 제1 캐릭터 및 적어도 하나의 제2 캐릭터를 포함하는 복수의 캐릭터들의 제스처 데이터 및 복수의 사용자들의 발화 데이터에 따라, 가상 공간(610) 내에서, 복수의 사용자들이 커뮤니케이션하는 장면을 캡처할 수 있다. 프로세서(210)는 다양한 장면들을 캡처하는 것에 기반하여, 복수의 후보 이미지들을 획득할 수 있다. 예를 들어, 프로세서(210)는 전자 장치(200)의 사용자가 발화 중임을 식별하는 것에 기반하여, 상기 사용자에 대응하는 제1 캐릭터가 클로즈업된 후보 이미지를 획득할 수 있다. 예를 들어, 프로세서(210)는 전자 장치(200)의 제1 캐릭터 및 제2 캐릭터가 함께 움직임을 식별하는 것에 기반하여, 제1 캐릭터 및 제2 캐릭터가 포함된 후보 이미지를 획득할 수 있다.
예를 들어, 프로세서(210)는 후보 이미지에 대응하는 후보 영상을 식별할 수 있다. 프로세서(210)는 후보 영상 내에서 대화 내용을 나타내는 텍스트를 식별할 수 있다. 프로세서(210)는 식별된 텍스트를 발화자에 대응하는 캐릭터와 연계로 표시함으로써, 후보 이미지를 획득할 수 있다. 프로세서(210)는 이와 유사한 방식으로 복수의 후보 이미지들을 획득할 수 있다.
동작 604에서, 프로세서(210)는 복수의 후보 이미지들을 필터링할 수 있다. 프로세서(210)는 복수의 후보 이미지들 중 동일 또는 유사한 후보 이미지들을 제거할 수 있다. 예를 들어, 프로세서(210)는 복수의 후보 이미지들 중 동일 또는 유사한 후보 이미지들을 제거하는 것에 기반하여, 복수의 이미지들을 획득할 수 있다.
동작 605에서, 프로세서(210)는 복수의 이미지들을 지정된 프레임 내에 배치할 수 있다. 프로세서(210)는 카툰(cartoon) 형식으로 구현된 지정된 프레임 내에 복수의 이미지들을 배치할 수 있다. 예를 들어, 프로세서(210)는 사용자가 시간 순서에 따라 복수의 이미지들을 확인할 수 있도록 지정된 프레임 내에 복수의 이미지들을 배치할 수 있다.
동작 606에서, 프로세서(210)는 로그 정보를 저장할 수 있다. 프로세서(210)는 복수의 이미지들을 포함하는 로그 정보를 메모리(230)에 저장할 수 있다. 예를 들어, 프로세서(210)는 시간 순서에 따라, 지정된 프레임 내에 배치된 복수의 이미지들을 로그 정보로 저장할 수 있다. 예를 들어, 프로세서(210)는 시간 순서에 따라, 지정된 프레임 내에 배치된 복수의 이미지들을 하나의 콜라주(collage) 이미지로 구현할 수 있다. 프로세서(210)는 하나의 콜라주 이미지를 로그 정보로 저장할 수 있다.
도 7은 일 실시 예에 다른 전자 장치의 동작의 예를 도시한다.
도 7을 참조하면, 상태(710)에서, 프로세서(210)는 복수의 이미지들을 화면(711)에 표시할 수 있다. 예를 들어, 프로세서(210)는 시간 순서에 따라, 지정된 프레임 내에 배치된 복수의 이미지들을 화면(711)에 표시할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 복수의 이미지들 중 이미지(712)를 선택하는 입력(713)을 식별할 수 있다. 프로세서(210)는 복수의 이미지들 중 이미지(712)를 선택하는 입력(713)에 응답하여, 전자 장치(200)의 상태를 상태(710)로부터 상태(720)로 변경할 수 있다.
상태(720)에서, 프로세서(210)는 복수의 이미지들 중 이미지(712)에 대한 입력(713)에 응답하여, 이미지(712)에 대응하는 영상(722)을 식별할 수 있다. 프로세서(210)는 영상(722)을 식별하는 것에 기반하여, 영상 재생을 위한 어플리케이션을 실행할 수 있다. 프로세서(210)는 영상 재생을 위한 어플리케이션을 통해 이미지(712)에 대응하는 영상(722)을 화면(721) 내에서 재생할 수 있다.
예를 들어, 이미지(712)는 영상의 중간 프레임일 수 있다. 프로세서(210)는 선택된 이미지에 상응하는 프레임으로부터 단위 시간 구간(예: N 초) 전으로부터 단위 시간 구간 이후까지의 영상(722)을 재생할 수 있다.
예를 들어, 이미지(712)는 영상(722)의 썸네일일 수 있다. 프로세서(210)는 이미지(712)에 대응하는 영상(722)을 재생할 수 있다. 프로세서(210)는 이미지(712)에 대응하는 영상(722)을 지정된 시간 구간 동안 재생할 수 있다.
예를 들어, 프로세서(210)는 이미지(712)에 관한 대화 내용을 식별할 수 있다. 프로세서(210)는 이미지(712)에 관한 대화 내용이 시작되는 시점으로부터 상기 대화 내용이 종료되는 시점까지의 영상(722)을 재생할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 영상(722)의 재생이 종료된 후, 전자 장치(200)의 상태를 상태(720)로부터 상태(730)로 변경할 수 있다. 프로세서(210)는 영상(722)의 재생이 종료되는 것에 응답하여, 전자 장치(200)의 상태를 상태(720)로부터 상태(730)로 변경할 수 있다.
상태(730)에서, 프로세서(210)는 영상(722)의 재생이 종료되는 것에 응답하여, 복수의 이미지들을 화면(731) 내에서 표시할 수 있다. 화면(731)은 화면(711)과 실질적으로 동일할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 복수의 이미지들 중 이미지(712)에 대한 입력(713)을 식별하고, 이미지(712)에 대응하는 영상(722)을 재생할 수 있다. 프로세서(210)는 영상(722)이 종료됨을 식별하는 것에 응답하여, 다시 복수의 이미지들을 표시할 수 있다.
도 8은 일 실시 예에 따른 전자 장치에서 복수의 영상들을 로그 정보로 획득하기 위한 동작의 예를 도시한다.
도 8을 참조하면, 프로세서(210)는 가상 공간(811) 내에서 제1 캐릭터 및 적어도 하나의 제2 캐릭터를 통한, 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 복수의 사용자들의 발화를 식별할 수 있다. 프로세서(210)는 가상 공간(811) 내에서 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 발화가 시작되는 것을 식별할 수 있다. 프로세서(210)는 발화가 시작되는 것에 기반하여, 복수의 사용자들 중 하나인 발화자를 식별할 수 있다.
예를 들어, 프로세서(210)는 발화가 시작됨을 식별하는 것에 응답하여, 발화가 시작된 시점(823)으로부터 가상 공간(811)을 표시하는 화면(810)을 녹화할 수 있다. 프로세서(210)는 발화자의 발화가 시작됨을 식별하는 것에 응답하여, 발화가 시작된 시점(823)으로부터 발화를 녹음할 수 있다.
예를 들어, 프로세서(210)는 발화가 시작됨을 식별하는 것에 기반하여, 발화 신호(821)를 획득할 수 있다. 프로세서(210)는 발화가 시작됨을 식별하는 것에 기반하여, 프로세서(210)는 발화자의 발화가 시작된 시점(823)으로부터 발화자의 발화가 종료된 시점(824)까지의 발화 신호(821)를 식별할 수 있다. 프로세서(210)는 발화 신호의 크기가 지정된 크기(예: 지정된 데시벨(dB)) 이상인 상태로 지정된 시간 구간 동안 유지되는지 여부를 식별할 수 있다. 예를 들어, 프로세서(210)는 발화 신호의 크기가 지정된 크기 이상인 상태로 지정된 시간 구간 동안 유지됨을 식별하는 것에 기반하여, 시점(823)으로부터 시점(824)을 발화 구간으로 식별할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 상술한 동작에 따라, 복수의 발화 구간들을 식별할 수 있다. 프로세서(210)는 복수의 발화 구간들에 대응하는 복수의 영상들을 획득할 수 있다. 프로세서(210)는 복수의 영상들을 포함하는 로그 정보를 획득하고, 획득된 로그 정보를 메모리(230)에 저장할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 가상 공간(811) 내에서, 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별할 수 있다. 프로세서(210)는 가상 공간(811) 내에서, 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 로그 목록(831)을 표시할 수 있다.
예를 들어, 프로세서(210)는 시간 순서에 따라 로그 목록(831)을 표시할 수 있다. 프로세서(210)는 가장 최근 획득된 로그 정보를 로그 목록(831)의 상단에 표시할 수 있다. 예컨대, 프로세서(210)는 로그 목록(831)의 가장 상단에 가장 최근 획득된 로그 정보를 나타내는 객체(832)를 표시할 수 있다.
도 9는 일 실시 예에 따른 전자 장치의 동작의 예를 도시한다.
도 9를 참조하면, 상태(910)에서, 프로세서(210)는 가상 공간(911)을 화면(912) 내에 표시할 수 있다. 예를 들어, 화면(912)은 제1 영역(901) 및 제2 영역(902)을 포함할 수 있다. 제1 영역(901)은 전자 장치(200)의 사용자에 대응하는 제1 캐릭터를 표시하기 위해 사용될 수 있다. 예를 들어, 프로세서(210)는 제1 영역(901) 내에 전자 장치(200)의 사용자에 대응하는 제1 캐릭터를 표시할 수 있다. 제2 영역(902)은 전자 장치(200)의 사용자와 구별되는 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터를 표시하기 위해 사용될 수 있다. 예를 들어, 프로세서(210)는 제1 영역(901) 내에서 제1 캐릭터가 표시되는 동안, 제2 영역(902) 내에서 적어도 하나의 제2 캐릭터를 표시할 수 있다. 예를 들어, 상태(810)에서 표시된 화면(912)은 도 3에 표시된 화면(300)에 상응할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 제2 영역(902) 중 일부에, 복수의 사용자들 사이의 커뮤니케이션에 관한 복수의 제1 텍스트 메시지들을 표시할 수 있다. 예를 들어, 프로세서(210)는 제2 영역(902) 중 일부에 설정된 제3 영역(903) 내에서, 가상 공간(911) 내에서 복수의 사용자들 사이의 커뮤니케이션에 관한 복수의 제1 텍스트 메시지들을 표시할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 복수의 사용자들에 관한 발화 데이터를 획득할 수 있다. 예를 들어, 프로세서(210)는 전자 장치(200)의 사용자에 관한 발화 신호들을 획득할 수 있다. 프로세서(210)는 적어도 하나의 다른 사용자에 관한 발화 신호들을 획득할 수 있다. 프로세서(210)는 복수의 사용자들에 관한 발화 데이터를, 복수의 파라미터들에 의해 지시되는 지정된 모델의 입력 값으로 설정할 수 있다. 프로세서(210)는 복수의 사용자들에 관한 발화 데이터를, 복수의 파라미터들에 의해 지시되는 지정된 모델의 입력 값으로 설정하는 것에 기반하여, 텍스트 데이터를 획득할 수 있다. 프로세서(210)는 텍스트 데이터에 기반하여, 복수의 제2 텍스트 메시지들을 획득할 수 있다.
예를 들어, 프로세서(210)는 복수의 사용자들에 관한 발화 데이터를 인공 지능에 기반한 지정된 모델의 입력 값으로 설정할 수 있다. 예를 들어, 프로세서(210)는 복수의 사용자들에 관한 발화 데이터를 음성 인식을 수행하기 위한 지정된 모델의 입력 값으로 설정할 수 있다. 프로세서(210)는 복수의 사용자들에 관한 발화 데이터를 텍스트로 변환함으로써, 텍스트 데이터를 획득할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 전자 장치(200)의 사용자로부터 가상 공간(911)을 벗어나기(exit) 위한 입력을 식별할 수 있다. 프로세서(210)는 식별된 입력에 기반하여 팝업 창(pop-up window)(915)를 화면(912) 내에 표시할 수 있다. 예를 들어, 팝업 창(915)은 가상 공간(911)을 벗어날 것인지를 확인하기 위한 메시지를 포함할 수 있다. 프로세서(210)는 가상 공간(911)을 벗어날 것을 확인함을 나타내는 객체(916)에 대한 입력을 식별하는 것에 기반하여, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별할 수 있다. 예를 들어, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 응답하여, 전자 장치(200)의 상태를 상태(910)으로부터 상태(920)로 변경할 수 있다.
상태(920)에서, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 응답하여, 로그 목록을 표시할 수 있다. 예를 들어, 프로세서(210)는 가상 공간 내에서, 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 로그 정보를 메모리(230)에 저장할 수 있다. 프로세서(210)는 메모리(230)에 저장된 로그 목록(log list)을 화면(921)에 표시할 수 있다. 예를 들어, 프로세서(210)는 메모리(230)에 저장된, 로그 정보 및 복수의 사용자들 사이의 커뮤니케이션과 구별되는 다른 커뮤니케이션에 관한 다른 로그 정보를 로그 목록을 통해 표시할 수 있다. 예를 들어, 프로세서(210)는 로그 정보를 나타내는 객체(922) 및 다른 로그 정보를 나타내는 객체들(923)을 표시할 수 있다. 객체(922)는 예를 들어, 적어도 하나의 다른 사용자의 이름에 대한 정보, 적어도 하나의 다른 사용자와의 커뮤니케이션을 수행하기 위한 시간에 대한 정보, 및 적어도 하나의 다른 사용자와의 커뮤니케이션을 수행한 언어 타입에 대한 정보를 포함할 수 있다.
예를 들어, 프로세서(210)는 로그 목록을 시간 순서에 따라 저장할 수 있다. 프로세서(210)는 시간 순서에 따라 로그 목록을 표시할 수 있다. 프로세서(210)는 가장 최근에 획득된 로그 정보를 로그 목록의 상단에 표시할 수 있다. 일 예로, 가상 공간(901) 내에서 복수의 사용자 사이의 커뮤니케이션에 관한 로그 정보를 로그 목록의 상단에 가장 최근에 획득된 객체(922)를 표시할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 객체(922)에 대한 입력을 식별할 수 있다. 프로세서(210)는 객체(922)에 대한 입력에 응답하여, 전자 장치(200)의 상태를 상태(920)로부터 상태(930)로 변경할 수 있다.
일 실시 예에 따르면, 상태(930)에서, 프로세서(210)는 복수의 제1 텍스트 메시지들 및 복수의 제2 텍스트 메시지들을, 전자 장치(200)의 사용자 및 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들에 따라 구분할 수 있다. 프로세서(210)는 복수의 사용자들에 따라 구분된 제1 텍스트 메시지들 및 복수의 제2 텍스트 메시지들을 시간 순서에 따라 표시할 수 있다. 프로세서(210)는 제1 텍스트 메시지들 및 복수의 제2 텍스트 메시지들을 문자 대화 형식으로 구현하여 표시할 수 있다. 따라서, 프로세서(210)는 가상 공간(911) 내에서의 복수의 사용자들 사이의 음성 대화 및 문자 대화를 모두 시간에 따른 문자 대화 형식으로 구현하여 화면(931) 내에 표시할 수 있다.
도 10은 일 실시 예에 따른 전자 장치에서 발화 신호를 텍스트 메시지로 변환하여 로그 정보로 획득하기 위한 동작의 예를 도시한다.
도 10을 참조하면, 일 실시예에서, 프로세서(210)는 가상 공간(911)을 표시하기 위한 화면(912)은 제1 영역(901), 제2 영역(902), 및/또는 제3 영역(903)을 포함할 수 있다. 예를 들어, 제1 영역(901)은 전자 장치(200)의 사용자에 대응하는 제1 캐릭터를 표시하기 위해 사용될 수 있다. 제2 영역(902)은 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터를 표시하기 위해 사용될 수 있다. 제3 영역(903)은 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션에 관한 복수의 제1 텍스트 메시지들을 표시하기 위해 사용될 수 있다. 예를 들어, 화면(912)은 도 3에 표시된 화면(300)에 상응할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 가상 공간(911) 내에서 복수의 사용자들 사이에서 문자를 통한 대화를 나타내는 제1 텍스트 메시지들을 식별할 수 있다. 프로세서(210)는 제1 텍스트 메시지들을 메모리(230)(또는 메모리(230)의 버퍼)에 저장할 수 있다. 프로세서(210)는 제1 텍스트 메시지들이 입력된 시간과 연계로 제1 텍스트 메시지들을 메모리(230)에 저장할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 복수의 사용자들에 관한 발화 데이터를 획득할 수 있다. 예를 들어, 발화 데이터는 발화 신호(1031)를 포함할 수 있다. 프로세서(210)는 복수의 사용자들 중 하나의 발화에 기반하여, 발화 신호(1031)를 식별할 수 있다. 프로세서(210)는 발화 신호(1031)에 기반하여, 잡음 처리(noise processing) 및 음성 특징 추출을 수행할 수 있다. 프로세서(210)는 잡음 처리(noise processing) 및 음성 특징 추출이 수행된 신호를 지정된 모델(1032)의 입력 값으로 설정할 수 있다. 프로세서(210)는 잡음 처리 및 음성 특징 추출이 수행된 신호를 지정된 모델(1032)의 입력 값으로 설정하는 것에 기반하여, 텍스트 데이터를 획득할 수 있다. 텍스트 데이터는 발화 신호(1031)가 텍스트로 변환된 데이터를 의미할 수 있다. 프로세서(210)는 복수의 발화 신호들(예: 발화 신호(1031))에 기반하여 복수의 제2 텍스트 메시지들을 획득할 수 있다.
예를 들어, 지정된 모델(1032)은 음성 데이터 베이스에 포함된 음향 모델, 어휘/발음 사전, 및/또는 언어 모델에 기반하여 형성될 수 있다. 예를 들어, 메모리(230)는 음성 데이터 베이스를 포함할 수 있다. 예를 들어, 메모리(230)는 음향 모델, 어휘/발음 사전, 및/또는 언어 모델을 포함하는 음성 데이터 베이스를 포함할 수 있다. 프로세서(210)는 음향 모델, 어휘/발음 사전, 및/또는 언어 모델에 기반하여, 지정된 모델(1032)을 형성할 수 있다. 예를 들어, 프로세서(210)는 음향 모델, 어휘/발음 사전, 및/또는 언어 모델을 이용하여 인식 네트워크를 생성할 수 있다. 프로세서(210)는 인식 네트워크에 기반하여, 지정된 모델(1032)을 형성할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 복수의 제1 텍스트 메시지들(1010) 및/또는 복수의 제2 텍스트 메시지들(1020)을 로그 정보로 메모리(230)에 저장할 수 있다. 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 복수의 제1 텍스트 메시지들 및 복수의 제2 텍스트 메시지들을 복수의 사용자들에 따라 구분할 수 있다. 프로세서(210)는 복수의 사용자들에 따라 구분된, 복수의 제1 텍스트 메시지들 및 복수의 제2 텍스트 메시지들을 시간 순서에 따라 표시할 수 있다.
예를 들어, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 화면(1050)과 같이 로그 목록을 표시할 수 있다. 예를 들어, 화면(1050)은 도 9의 화면(921)에 상응할 수 있다.
도 11a는 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도를 도시한다.
도 11a의 방법은, 도 2의 전자 장치(200)에 의해 수행될 수 있다. 예를 들면, 프로세서(210)는, 도 11a의 동작 1101 및 동작 1102를 수행할 수 있다.
도 11a를 참조하면, 동작 1101에서, 프로세서(210)는 사용자에 대응하는 제1 캐릭터 및 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터를 가상 공간에 표시할 수 있다. 동작 1101은 도 4의 동작 410에 상응할 수 있다.
동작 1102에서, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보의 저장 여부를 설정하기 위한 옵션들을 제공할 수 있다. 예를 들어, 프로세서(210)는 사용자 및 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들 사이에서 커뮤니케이션이 수행되는 동안, 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보의 저장 여부를 설정하기 위한 옵션들을 제공할 수 있다.
예를 들어, 프로세서(210)는 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 저장하도록 설정하기 위한 옵션 및/또는 로그 정보를 저장하지 않도록 설정하기 위한 옵션을 제공할 수 있다. 일 예로, 프로세서(210)는 로그 정보를 저장하도록 설정하기 위한 옵션의 선택을 위한 입력에 기반하여, 로그 정보를 저장할 수 있다. 일 예로, 프로세서(210)는 로그 정보를 저장하지 않도록 설정하기 위한 옵션의 선택을 위한 입력에 기반하여, 로그 정보를 저장하지 않을 수 있다.
일 실시 예에 따르면, 프로세서(210)는 로그 정보를 저장하도록 설정하기 위한 옵션의 선택을 위한 입력에 기반하여, 로그 정보의 타입을 이미지 타입, 비디오 타입 및 텍스트 타입 중 적어도 하나로 설정하기 위한 서브 옵션들을 제공할 수 있다. 예를 들어, 프로세서(210)는 로그 정보로 획득할 데이터의 유형을 이미지 타입, 비디오 타입 및 텍스트 타입 중 적어도 하나로 설정하기 위한 서브 옵션들을 제공할 수 있다.
예를 들어, 프로세서(210)는 로그 정보의 저장 타입이 이미지 타입으로 설정되는 것에 기반하여, 커뮤니케이션이 수행되는 동안 복수의 사용자들 사이의 음성 정보, 및 제1 캐릭터 및 적어도 하나의 제2 캐릭터에 관한 이미지 정보를 저장할 수 있다.
예를 들어, 프로세서(210)는 로그 정보의 저장 타입이 비디오 타입으로 설정되는 것에 기반하여, 커뮤니케이션이 수행되는 동안 복수의 사용자들 사이의 음성 정보, 및 제1 캐릭터 및 적어도 하나의 제2 캐릭터에 관한 비디오 정보를 저장할 수 있다.
예를 들어, 프로세서(210)는 로그 정보의 저장 타입이 텍스트 타입으로 설정되는 것에 기반하여, 커뮤니케이션이 수행되는 동안 복수의 사용자들 사이의 음성 정보를 텍스트 정보로 변환할 수 있다. 프로세서(210)는 텍스트 정보를 저장할 수 있다.
도 11b는 일 실시 예에 따른 전자 장치의 동작의 예를 도시한다.
도 11b를 참조하면, 일 실시예에서, 상태(1110)에서, 프로세서(210)는 메모리(230)에 저장된 로그 목록(1111)을 화면(1112) 내에 표시할 수 있다. 로그 목록(1111)은 로그 정보를 나타내는 복수의 객체들을 포함할 수 있다. 예를 들어, 복수의 객체들은 각각 하나의 가상 공간 내에서의 대화 기록에 대한 정보를 나타낼 수 있다.
일 실시 예에 따르면, 프로세서(210)는 로그 정보로 획득할 데이터의 유형을 설정할 수 있다. 예를 들어, 프로세서(210)는 로그 정보로 획득할 데이터의 유형을 설정하기 위한 객체(1113)를 화면(1112) 내에 표시할 수 있다. 프로세서(210)는 객체(1113)에 대한 입력에 응답하여, 전자 장치(200)의 상태를 상태(1110)로부터 상태(1120)로 변경할 수 있다.
상태(1120)에서, 프로세서(210)는 객체(1113)에 대한 입력에 응답하여, 화면(1125)을 표시할 수 있다. 화면(1125)은 로그 정보로 획득할 데이터의 유형을 설정하기 위해 표시될 수 있다.
일 실시 예에 따르면, 프로세서(210)는 로그 정보의 자동 저장 기능의 사용 여부를 설정하기 위한 객체(1121)(또는 스위치)를 표시할 수 있다. 프로세서(210)는 객체(1121)에 대한 입력(예: 탭(tap) 입력 또는 스와이프(swipe) 입력)에 기반하여, 로그 정보의 자동 자장 기능의 사용 여부를 설정할 수 있다. 프로세서(210)는 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 경우, 로그 정보를 자동으로 저장할지 여부를 결정할 수 있다.
예를 들어, 로그 정보의 자동 저장 기능이 활성화된 경우, 프로세서(210)는 로그 정보로 획득할 데이터의 유형을 설정하기 위한 객체(1122), 객체(1123), 및 객체(1124) 중 하나를 선택 가능한 상태로 표시할 수 있다. 예를 들어, 객체(1122)는 로그 정보로 획득할 데이터의 유형을 이미지 타입으로 설정하기 위해 표시될 수 있다. 예를 들어, 객체(1123)는 로그 정보로 획득할 데이터의 유형을 비디오 타입으로 설정하기 위해 표시될 수 있다. 예를 들어, 객체(1124)는 로그 정보로 획득할 데이터의 유형을 텍스트 타입으로 설정하기 위해 표시될 수 있다.
일 실시 예에 따르면, 프로세서(210)는 객체(1122), 객체(1123), 및 객체(1124) 중 하나를 선택하기 위한 입력(예: 탭 입력)을 수신할 수 있다.
예를 들어, 프로세서(210)는 객체(1122)에 대한 입력을 수신하는 것에 기반하여, 로그 정보로 획득할 데이터의 유형을 이미지 타입으로 설정할 수 있다. 프로세서(210)는 도 6에 도시된 동작들에 따라, 복수의 이미지들을 획득하고, 복수의 이미지들을 로그 정보로 저장할 수 있다. 프로세서(210)는 지정된 프레임 내에 배치된 복수의 이미지들을 로그 정보로 저장할 수 있다.
예를 들어, 프로세서(210)는 객체(1123)에 대한 입력을 수신하는 것에 기반하여, 로그 정보로 획득할 데이터의 유형을 비디오 타입으로 설정할 수 있다. 프로세서(210)는 도 8에 도시된 동작들에 따라, 복수의 영상들을 획득할 수 있다. 프로세서(210)는 복수의 영상들 및 복수의 영상들에 기반하여 획득된 복수의 이미지들을 로그 정보로 저장할 수 있다.
예를 들어, 프로세서(210)는 객체(1124)에 대한 입력을 수신하는 것에 기반하여, 로그 정보로 획득할 데이터의 유형을 텍스트 타입으로 설정할 수 있다. 프로세서(210)는 도 10에 도시된 동작들에 따라, 복수의 제1 텍스트 메시지들 및 복수의 제2 텍스트 메시지들을 획득할 수 있다. 프로세서(210)는 복수의 제1 텍스트 메시지들 및 복수의 제2 텍스트 메시지들을 로그 정보로 저장할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 로그 정보로 저장할 데이터의 타입을 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 수행되기 전에 설정할 수 있다. 예를 들어, 프로세서(210)는 전자 장치(200)의 사용자가 가상 공간 내에 진입하기 전, 로그 정보로 저장할 데이터의 타입을 설정하도록 화면(예: 화면(1125))을 표시할 수 있다. 프로세서(210)는 설정된 데이터 타입에 기반하여, 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안 설정된 데이터 타입에 따라 로그 정보를 획득하고, 저장할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 로그 정보로 저장할 데이터의 타입을 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안 설정할 수 있다. 프로세서(210)는 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 로그 정보로 저장할 데이터의 타입을 변경하기 위한 입력을 식별할 수 있다. 프로세서(210)는 식별된 입력에 기반하여, 로그 정보로 저장할 데이터의 타입을 변경하기 위해 화면(예: 화면(1125))을 표시할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 로그 정보로 저장할 데이터의 타입을 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 수행된 후에 설정할 수 있다. 프로세서(210)는 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 로그 정보로 저장할 데이터의 타입을 설정하기 위한 화면(예: 화면(1125))을 표시할 수 있다. 프로세서(210)는 화면 내에서 로그 정보로 저장할 데이터의 타입을 설정할 수 있다. 예를 들어, 프로세서(210)는 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 이미지 타입, 비디오 타입, 및 텍스트 타입의 데이터를 획득하기 위한 로우 데이터(raw data)를 버퍼에 저장할 수 있다. 프로세서(210)는 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 로그 정보로 저장할 데이터의 타입을 설정할 수 있다. 프로세서(210)는 설정된 데이터 타입에 따른 데이터를 로우 데이터로부터 획득하고 메모리(230)에 저장할 수 있다.
도 12는 일 실시 예에 따른 전자 장치의 동작의 예를 도시한다.
도 12를 참조하면, 상태(1210)에서, 프로세서(210)는 화면(1211)에 가상 공간(1212)을 표시할 수 있다. 전자 장치(200)의 사용자는 화면(1211)을 통해 제공(또는 표시)되는 가상 공간(1212) 내에서 적어도 하나의 다른 사용자와 커뮤니케이션할 수 있다.
상태(1220)에서, 프로세서(210)는 전자 장치(200)의 사용자 및 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들 중 하나의 발화를 식별할 수 있다. 프로세서(210)는 발화를 식별하는 것에 응답하여, 화면(1221)(또는 가상 공간(1212))에 대한 녹화를 수행하기 위한 객체(1222)를 화면(1221)에 표시할 수 있다. 예를 들어, 프로세서(210)는 객체(1222)에 대한 입력을 식별하는 것에 기반하여, 전자 장치(200)의 상태를 상태(1220)에서 상태(1230)으로 변경할 수 있다. 예를 들어, 상태(1220)에서, 프로세서(210)는 객체(1222)에 대한 입력이 식별되지 않고, 복수의 사용자들 중 하나의 발화가 종료됨을 식별할 수 있다. 프로세서(210)는 상태(1220)에서, 객체(1222)에 대한 입력이 식별되지 않고, 복수의 사용자들 중 하나의 발화가 종료됨을 식별하는 것에 기반하여, 전자 장치(200)의 상태를 상태(1220)에서 상태(1240)로 변경할 수 있다.
일 실시예에서, 상태(1230)에서, 프로세서(210)는 객체(1222)에 대한 입력을 식별하는 것에 기반하여, 객체(1222)를 객체(1232)로 변경할 수 있다. 객체(1232)가 표시되는 동안, 영상이 녹화될 수 있다.
일 실시 예에 따르면, 프로세서(210)는 복수의 사용자들 중 하나의 발화가 시작됨을 식별하는 것에 기반하여, 녹화를 시작할 수 있다. 프로세서(210)는 발화가 시작된 시점으로부터 발화가 끝나는 시점까지의 영상을 획득할 수 있다. 일 실시예에서, 프로세서(210)는 화면(또는 가상 공간(1212))에 대한 녹화가 수행되는 동안, 녹화 중임을 나타내는 객체(1232)를 표시할 수 있다. 예를 들어, 프로세서(210)는 객체(1222)에 대한 입력을 식별하지 않은 상태에서 복수의 사용자들 중 하나의 발화가 시작됨을 식별하는 것에 기반하여, 녹화를 시작할 수 있다.
상태(1240)에서, 프로세서(210)는 객체(1222)에 대한 입력이 식별되지 않고, 복수의 사용자들 중 하나의 발화가 종료됨을 식별함에 응답하여, 객체(1222)의 표시를 중단할 수 있다. 프로세서(210)는 복수의 사용자들 간에 대화가 이루어지지 않음을 식별하는 것에 기반하여, 화면(1241)내에서 객체(1222)의 표시를 중단할 수 있다. 프로세서(210)는 복수의 사용자들 중 하나의 발화를 식별하는 것에 기반하여, 다시 객체(1222)를 표시할 수 있다.
일 실시 예에 따르면, 상태(1210) 내지 상태(1240)에서 표시된 화면(1211), 화면(1221), 화면(1231), 및 화면(1241) 각각은 도 3의 화면(300)에 상응할 수 있다.
도 13은 일 실시 예에 따른 전자 장치의 동작의 예를 도시한다.
도 13을 참조하면, 상태(1310)에서, 프로세서(210)는 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안 획득된 복수의 이미지들(1330)을 화면(1311) 내에 표시할 수 있다. 프로세서(210)는 가상 공간 내에서 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 응답하여, 복수의 이미지들(1330)을 포함하는 화면(1311)을 표시할 수 있다. 프로세서(210)는 복수의 이미지들(1330) 중 적어도 하나의 이미지를 선택하기 위한 입력을 식별할 수 있다. 예를 들어, 프로세서(210)는 화면(1311)의 적어도 일부에 대한 입력(예: 롱 프레스(long press) 입력)에 응답하여, 복수의 이미지들(1330) 중 적어도 하나의 이미지를 선택하기 위한 복수의 객체들(1312)을 표시할 수 있다. 복수의 객체들(1312)은 각각 복수의 이미지들(1330)에 대응할 수 있다. 예를 들어, 객체(1312-1)는 복수의 이미지들(1330) 중 제1 이미지(1330-1)에 대응할 수 있다. 예를 들어, 객체(1312-2)는 복수의 이미지들(1330) 중 제2 이미지(1330-2)에 대응할 수 있다. 예를 들어, 객체(1312-7)는 복수의 이미지들(1330) 중 제7 이미지(1330-7)에 대응할 수 있다.
일 실시 예에 따르면, 프로세서(210)는 복수의 이미지들(1330) 중 적어도 하나의 이미지를 선택하기 위한 입력을 식별할 수 있다. 예를 들어, 프로세서(210)는 제1 이미지(1330-1), 제3 이미지(1330-3), 제5 이미지(1330-5), 및 제7 이미지(1330-7)를 선택하는 입력을 식별할 수 있다. 프로세서(210)는 제1 이미지(1330-1), 제3 이미지(1330-3), 제5 이미지(1330-5), 및 제7 이미지(1330-7)에 대응하는 객체(1312-1), 객체(1312-3), 객체(1312-5), 및 객체(1312-7)의 형상을 변경함으로써, 제1 이미지(1330-1), 제3 이미지(1330-3), 제5 이미지(1330-5), 및 제7 이미지(1330-7)가 선택되었음을 나타낼 수 있다.
일 실시 예에 따르면, 프로세서(210)는 복수의 이미지들(1330) 중 적어도 하나의 이미지를 선택하기 위한 입력을 식별하는 것에 기반하여, 전자 장치(200)의 상태를 상태(1310)로부터 상태(1320)로 변경할 수 있다. 예를 들어, 프로세서(210)는 복수의 이미지들(1330) 중 적어도 하나의 이미지를 선택하기 위한 입력을 식별하는 것에 기반하여, 화면(1321)을 표시할 수 있다. 예를 들어, 프로세서(210)는 제1 이미지(1330-1), 제3 이미지(1330-3), 제5 이미지(1330-5), 및 제7 이미지(1330-7)를 지정된 프레임 내에 배치할 수 있다. 예를 들어, 프로세서(210)는 카툰 형식으로, 제1 이미지(1330-1), 제3 이미지(1330-3), 제5 이미지(1330-5), 및 제7 이미지(1330-7)를 화면(1321)에 표시할 수 있다.
일 실시 예에 따르면, 전자 장치(예: 전자 장치(200))는, 디스플레이(예: 디스플레이(220)), 통신 회로(예: 통신 회로(240)), 메모리(예: 메모리(230)), 스피커(예: 스피커(270)), 마이크로폰(예: 마이크로폰(260)), 및 상기 디스플레이, 상기 통신 회로, 상기 메모리, 상기 스피커, 및 상기 마이크로폰과 작동적으로 연결된 적어도 하나의 프로세서(예: 프로세서(210))를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 가상 공간 내에서 상기 전자 장치의 사용자와 구별되는 적어도 하나의 다른 사용자와의 커뮤니케이션을 위한 어플리케이션이 실행되는 동안, 상기 사용자에 대응하는 제1 캐릭터(예: 캐릭터(311)) 및 상기 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터(예: 캐릭터(321), 캐릭터(322))를 포함하는 상기 가상 공간을 표시하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 가상 공간 내에서, 상기 제1 캐릭터 및 상기 적어도 하나의 제2 캐릭터를 통한, 상기 사용자 및 상기 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 가상 공간 내에서, 상기 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 상기 로그 정보에 포함된 복수의 이미지들(예: 복수의 이미지들(1330))을 표시하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 복수의 이미지들 중 하나의 이미지를 선택하는 입력을 식별하는 것에 응답하여, 상기 로그 정보에 포함되고, 상기 선택된 이미지에 대응하는 영상을 표시하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 커뮤니케이션을 나타내는 복수의 영상들을 획득하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 복수의 영상들 각각에 대한 복수의 썸네일들을 획득하는 것에 기반하여, 상기 복수의 이미지들을 획득하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 복수의 영상들 및 상기 복수의 이미지들을 포함하는 상기 로그 정보를 획득하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들에 관한 발화 데이터(utterance data)를 획득하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 발화 데이터에 기반하여, 지정된 조건을 만족하는 복수의 발화 구간들을 식별하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 복수의 발화 구간들에 대응하는 상기 복수의 영상들을 획득하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 제1 캐릭터 및 상기 적어도 하나의 제2 캐릭터에 관한 제스처 데이터 및 상기 복수의 사용자들에 관한 발화 데이터에 기반하여, 복수의 후보 이미지들을 획득하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 복수의 후보 이미지들을 필터링하는 것에 기반하여, 상기 복수의 이미지들을 획득하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 복수의 이미지들이 획득된 시간에 기반하여, 상기 복수의 이미지들을 지정된 프레임 내에 배치하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 지정된 프레임 내에 배치된 복수의 이미지들을 상기 로그 정보로 저장하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 복수의 이미지들이 표시되는 동안, 상기 복수의 이미지들 중 지정된 프레임 내에 배치할 적어도 하나의 이미지를 선택하기 위한 입력을 식별하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 이미지를 선택하기 위한 입력에 기반하여, 상기 적어도 하나의 이미지를 지정된 프레임 내에, 시간 순서에 따라 배치하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 지정된 프레임 내에 배치된 적어도 하나의 이미지들을 상기 로그 정보로 저장하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 가상 공간 내에서, 상기 복수의 사용자들 사이의 상기 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 상기 로그 정보를 상기 메모리에 저장하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 메모리에 저장된, 상기 로그 정보 및 상기 커뮤니케이션과 구별되는 다른 커뮤니케이션에 관한 다른 로그 정보를 표시하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 로그 정보를 표시하기 위한 입력에 기반하여, 상기 복수의 이미지들을 표시하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 가상 공간을 표시하는 화면 내의 제1 영역 및 제2 영역 중 상기 제1 영역 내에서 상기 제1 캐릭터를 표시하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 제1 영역 내에서 상기 제1 캐릭터가 표시되는 동안, 상기 제2 영역 내에서 상기 적어도 하나의 제2 캐릭터를 표시하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 제2 영역 중 일부에 중첩으로, 상기 복수의 사용자들 사이의 커뮤니케이션에 관한 복수의 제1 텍스트 메시지들을 표시하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들에 관한 발화 데이터를 획득하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 발화 데이터를, 복수의 파라미터들에 의해 지시되는 지정된 모델의 입력 값으로 설정하는 것에 기반하여, 텍스트 데이터를 획득하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 텍스트 데이터에 기반하여, 복수의 제2 텍스트 메시지들을 획득하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 로그 정보는, 상기 복수의 제1 텍스트 메시지들 및 상기 복수의 제2 텍스트 메시지들을 포함할 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 상기 복수의 제1 텍스트 메시지들 및 상기 복수의 제2 텍스트 메시지들을 상기 복수의 사용자들에 따라 구분하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 복수의 사용자들에 따라 구분된, 상기 복수의 제1 텍스트 메시지들 및 상기 복수의 제2 텍스트 메시지들을 시간 순서에 따라 표시하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 로그 정보로 저장할 데이터의 타입을 설정하기 위한 입력을 식별하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 입력에 기반하여, 상기 로그 정보로 저장할 데이터의 유형을, 텍스트 타입, 이미지 타입, 및 비디오 타입 중 하나로 설정하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 가상 공간 내에 중첩으로 영상을 획득하기 위한 객체를 표시하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 객체에 대한 입력에 응답하여, 상기 입력이 수신된 시점으로부터, 상기 복수의 사용자들 사이의 상기 커뮤니케이션을 나타내는 영상을 획득하도록 설정될 수 있다.
일 실시 예에 따르면, 전자 장치(예: 전자 장치(200))의 방법은, 가상 공간 내에서 상기 전자 장치의 사용자와 구별되는 적어도 하나의 다른 사용자와의 커뮤니케이션을 위한 어플리케이션이 실행되는 동안, 상기 사용자에 대응하는 제1 캐릭터(예: 캐릭터(311)) 및 상기 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터 예: 캐릭터(321), 캐릭터(322))를 포함하는 상기 가상 공간을 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 가상 공간 내에서, 상기 제1 캐릭터 및 상기 적어도 하나의 제2 캐릭터를 통한, 상기 사용자 및 상기 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 가상 공간 내에서, 상기 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 상기 로그 정보에 포함된 복수의 이미지들(예: 복수의 이미지들(1330))을 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 복수의 이미지들 중 하나의 이미지를 선택하는 입력을 식별하는 것에 응답하여, 상기 로그 정보에 포함되고, 상기 선택된 이미지에 대응하는 영상을 표시하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 커뮤니케이션을 나타내는 복수의 영상들을 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 복수의 영상들 각각에 대한 복수의 썸네일들을 획득하는 것에 기반하여, 상기 복수의 이미지들을 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 복수의 영상들 및 상기 복수의 이미지들을 포함하는 상기 로그 정보를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들에 관한 발화 데이터(utterance data)를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 발화 데이터에 기반하여, 지정된 조건을 만족하는 복수의 발화 구간들을 식별하는 동작을 포함할 수 있다. 상기 방법은, 복수의 발화 구간들에 대응하는 상기 복수의 영상들을 획득하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 제1 캐릭터 및 상기 적어도 하나의 제2 캐릭터에 관한 제스처 데이터 및 상기 복수의 사용자들에 관한 발화 데이터에 기반하여, 복수의 후보 이미지들을 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 복수의 후보 이미지들을 필터링하는 것에 기반하여, 상기 복수의 이미지들을 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 복수의 이미지들이 획득된 시간에 기반하여, 상기 복수의 이미지들을 지정된 프레임 내에 배치하는 동작을 포함할 수 있다. 상기 방법은, 상기 지정된 프레임 내에 배치된 복수의 이미지들을 상기 로그 정보로 저장하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 복수의 이미지들이 표시되는 동안, 상기 복수의 이미지들 중 지정된 프레임 내에 배치할 적어도 하나의 이미지를 선택하기 위한 입력을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 적어도 하나의 이미지를 선택하기 위한 입력에 기반하여, 상기 적어도 하나의 이미지를 지정된 프레임 내에, 시간 순서에 따라 배치하는 동작을 포함할 수 있다. 상기 방법은, 상기 지정된 프레임 내에 배치된 적어도 하나의 이미지들을 상기 로그 정보로 저장하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 가상 공간 내에서, 상기 복수의 사용자들 사이의 상기 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 상기 로그 정보를 상기 전자 장치의 메모리(예: 메모리(230))에 저장하는 동작을 포함할 수 있다. 상기 방법은, 상기 메모리에 저장된, 상기 로그 정보 및 상기 커뮤니케이션과 구별되는 다른 커뮤니케이션에 관한 다른 로그 정보를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 로그 정보를 표시하기 위한 입력에 기반하여, 상기 복수의 이미지들을 표시하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 가상 공간을 표시하는 화면 내의 제1 영역 및 제2 영역 중 상기 제1 영역 내에서 상기 제1 캐릭터를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 영역 내에서 상기 제1 캐릭터가 표시되는 동안, 상기 제2 영역 내에서 상기 적어도 하나의 제2 캐릭터를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제2 영역 중 일부에 중첩으로, 상기 복수의 사용자들 사이의 커뮤니케이션에 관한 복수의 제1 텍스트 메시지들을 표시하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들에 관한 발화 데이터를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 발화 데이터를, 복수의 파라미터들에 의해 지시되는 지정된 모델의 입력 값으로 설정하는 것에 기반하여, 텍스트 데이터를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 텍스트 데이터에 기반하여, 복수의 제2 텍스트 메시지들을 획득하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 로그 정보는, 상기 복수의 제1 텍스트 메시지들 및 상기 복수의 제2 텍스트 메시지들을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 상기 복수의 제1 텍스트 메시지들 및 상기 복수의 제2 텍스트 메시지들을 상기 복수의 사용자들에 따라 구분하는 동작을 포함할 수 있다. 상기 방법은, 상기 복수의 사용자들에 따라 구분된, 상기 복수의 제1 텍스트 메시지들 및 상기 복수의 제2 텍스트 메시지들을 시간 순서에 따라 표시하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 로그 정보로 저장할 데이터의 타입을 설정하기 위한 입력을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 입력에 기반하여, 상기 로그 정보로 저장할 데이터의 유형을, 텍스트 타입, 이미지 타입, 및 비디오 타입 중 하나로 설정하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 가상 공간 내에 중첩으로 영상을 획득하기 위한 객체를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 객체에 대한 입력에 응답하여, 상기 입력이 수신된 시점으로부터, 상기 복수의 사용자들 사이의 상기 커뮤니케이션을 나타내는 영상을 획득하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 가상 공간에서 캐릭터를 이용하여 커뮤니케이션하는 전자 장치(예: 전자 장치(200))는, 디스플레이(예: 디스플레이(220)), 통신 회로(예: 통신 회로(240)), 메모리(예: 메모리(230)), 스피커(예: 스피커(270)), 마이크로폰(예: 마이크로폰(260)), 및 상기 디스플레이(220), 상기 통신 회로(240), 상기 메모리(230), 상기 스피커(270), 및 상기 마이크로폰(260)과 작동적으로 연결된 적어도 하나의 프로세서(예: 프로세서(210))를 포함할 수 있다. 상기 적어도 하나의 프로세서(210)는 사용자에 대응하는 제1 캐릭터(예: 캐릭터(311)) 및 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터(예: 캐릭터(321), 캐릭터(322))를 상기 가상 공간에 표시하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 사용자 및 상기 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들 사이에서 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보의 저장 여부를 설정하기 위한 옵션들을 제공하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 로그 정보를 저장하도록 설정하기 위한 옵션의 선택을 위한 입력에 기반하여, 상기 로그 정보의 타입을 이미지 타입, 비디오 타입 및 텍스트 타입 중 적어도 하나로 설정하기 위한 서브 옵션들을 제공하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 로그 정보의 저장 타입이 상기 이미지 타입으로 설정되는 것에 기반하여, 상기 커뮤니케이션이 수행되는 동안 상기 복수의 사용자들 사이의 음성 정보, 및 상기 제1 캐릭터 및 상기 적어도 하나의 제2 캐릭터에 관한 이미지 정보를 저장하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는,상기 로그 정보의 타입이 상기 비디오 타입으로 설정되는 것에 기반하여, 상기 커뮤니케이션이 수행되는 동안 상기 복수의 사용자들 사이의 음성 정보 및 상기 제1 캐릭터 및 상기 적어도 하나의 제2 캐릭터에 관한 비디오 정보를 저장하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 로그 정보의 타입이 상기 텍스트 타입으로 설정되는 것에 기반하여, 상기 커뮤니케이션이 수행되는 동안 상기 복수의 사용자들 사이의 음성 정보를 텍스트 정보로 변환하도록 설정될 수 있다. 상기 적어도 하나의 프로세서는, 상기 텍스트 정보를 저장하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 로그 정보를 저장하지 않도록 설정하기 위한 옵션의 선택을 위한 입력에 기반하여, 상기 로그 정보를 저장하지 않도록 설정될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시 예들에서, 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: CD-ROM(compact disc read only memory))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    디스플레이;
    통신 회로;
    메모리;
    스피커;
    마이크로폰; 및
    상기 디스플레이, 상기 통신 회로, 상기 메모리, 상기 스피커, 및 상기 마이크로폰과 작동적으로 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
    가상 공간 내에서 상기 전자 장치의 사용자와 구별되는 적어도 하나의 다른 사용자와의 커뮤니케이션을 위한 어플리케이션이 실행되는 동안, 상기 사용자에 대응하는 제1 캐릭터 및 상기 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터를 포함하는 상기 가상 공간을 표시하고,
    상기 가상 공간 내에서, 상기 제1 캐릭터 및 상기 적어도 하나의 제2 캐릭터를 통한, 상기 사용자 및 상기 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득하고,
    상기 가상 공간 내에서, 상기 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 상기 로그 정보에 포함된 복수의 이미지들을 표시하고,
    상기 복수의 이미지들 중 하나의 이미지를 선택하는 입력을 식별하는 것에 응답하여, 상기 로그 정보에 포함되고, 상기 선택된 이미지에 대응하는 영상을 표시하도록 설정된
    전자 장치.
  2. 제1 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 커뮤니케이션을 나타내는 복수의 영상들을 획득하고,
    상기 복수의 영상들 각각에 대한 복수의 썸네일들을 획득하는 것에 기반하여, 상기 복수의 이미지들을 획득하고,
    상기 복수의 영상들 및 상기 복수의 이미지들을 포함하는 상기 로그 정보를 획득하도록 더 설정된
    전자 장치.
  3. 제2 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들에 관한 발화 데이터(utterance data)를 획득하고,
    상기 발화 데이터에 기반하여, 지정된 조건을 만족하는 복수의 발화 구간들을 식별하고,
    복수의 발화 구간들에 대응하는 상기 복수의 영상들을 획득하도록 더 설정된
    전자 장치.
  4. 제1 항 내지 제3 항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 제1 캐릭터 및 상기 적어도 하나의 제2 캐릭터에 관한 제스처 데이터 및 상기 복수의 사용자들에 관한 발화 데이터에 기반하여, 복수의 후보 이미지들을 획득하고,
    상기 복수의 후보 이미지들을 필터링하는 것에 기반하여, 상기 복수의 이미지들을 획득하고,
    상기 복수의 이미지들이 획득된 시간에 기반하여, 상기 복수의 이미지들을 지정된 프레임 내에 배치하고,
    상기 지정된 프레임 내에 배치된 복수의 이미지들을 상기 로그 정보로 저장하도록 더 설정된
    전자 장치.
  5. 제1 항 내지 제4 항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 복수의 이미지들이 표시되는 동안, 상기 복수의 이미지들 중 지정된 프레임 내에 배치할 적어도 하나의 이미지를 선택하기 위한 입력을 식별하고,
    상기 적어도 하나의 이미지를 선택하기 위한 입력에 기반하여, 상기 적어도 하나의 이미지를 지정된 프레임 내에, 시간 순서에 따라 배치하고,
    상기 지정된 프레임 내에 배치된 적어도 하나의 이미지들을 상기 로그 정보로 저장하도록 더 설정된
    전자 장치.
  6. 제1 항 내지 제5 항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 가상 공간 내에서, 상기 복수의 사용자들 사이의 상기 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 상기 로그 정보를 상기 메모리에 저장하고,
    상기 메모리에 저장된, 상기 로그 정보 및 상기 커뮤니케이션과 구별되는 다른 커뮤니케이션에 관한 다른 로그 정보를 표시하고,
    상기 로그 정보를 표시하기 위한 입력에 기반하여, 상기 복수의 이미지들을 표시하도록 더 설정된
    전자 장치.
  7. 제1 항 내지 제6 항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 가상 공간을 표시하는 화면 내의 제1 영역 및 제2 영역 중 상기 제1 영역 내에서 상기 제1 캐릭터를 표시하고,
    상기 제1 영역 내에서 상기 제1 캐릭터가 표시되는 동안, 상기 제2 영역 내에서 상기 적어도 하나의 제2 캐릭터를 표시하고,
    상기 제2 영역 중 일부에 중첩으로, 상기 복수의 사용자들 사이의 커뮤니케이션에 관한 복수의 제1 텍스트 메시지들을 표시하도록 더 설정된
    전자 장치.
  8. 제7 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들에 관한 발화 데이터를 획득하고,
    상기 발화 데이터를, 복수의 파라미터들에 의해 지시되는 지정된 모델의 입력 값으로 설정하는 것에 기반하여, 텍스트 데이터를 획득하고,
    상기 텍스트 데이터에 기반하여, 복수의 제2 텍스트 메시지들을 획득하도록 더 설정된
    전자 장치.
  9. 제8 항에 있어서, 상기 로그 정보는,
    상기 복수의 제1 텍스트 메시지들 및 상기 복수의 제2 텍스트 메시지들을 포함하는
    전자 장치.
  10. 제9 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 상기 복수의 제1 텍스트 메시지들 및 상기 복수의 제2 텍스트 메시지들을 상기 복수의 사용자들에 따라 구분하고,
    상기 복수의 사용자들에 따라 구분된, 상기 복수의 제1 텍스트 메시지들 및 상기 복수의 제2 텍스트 메시지들을 시간 순서에 따라 표시하도록 더 설정된
    전자 장치.
  11. 제1 항 내지 제10 항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 로그 정보로 저장할 데이터의 타입을 설정하기 위한 입력을 식별하고,
    상기 입력에 기반하여, 상기 로그 정보로 저장할 데이터의 유형을, 텍스트 타입, 이미지 타입, 및 비디오 타입 중 하나로 설정하도록 더 설정된
    전자 장치.
  12. 제1 항 내지 제11 항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 가상 공간 내에 중첩으로 영상을 획득하기 위한 객체를 표시하고,
    상기 객체에 대한 입력에 응답하여, 상기 입력이 수신된 시점으로부터, 상기 복수의 사용자들 사이의 상기 커뮤니케이션을 나타내는 영상을 획득하도록 더 설정된
    전자 장치.
  13. 전자 장치의 방법에 있어서,
    가상 공간 내에서 상기 전자 장치의 사용자와 구별되는 적어도 하나의 다른 사용자와의 커뮤니케이션을 위한 어플리케이션이 실행되는 동안, 상기 사용자에 대응하는 제1 캐릭터 및 상기 적어도 하나의 다른 사용자에 대응하는 적어도 하나의 제2 캐릭터를 포함하는 상기 가상 공간을 표시하는 동작;
    상기 가상 공간 내에서, 상기 제1 캐릭터 및 상기 적어도 하나의 제2 캐릭터를 통한, 상기 사용자 및 상기 적어도 하나의 다른 사용자를 포함하는 복수의 사용자들 사이의 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들 사이의 커뮤니케이션에 관한 로그 정보를 획득하는 동작;
    상기 가상 공간 내에서, 상기 복수의 사용자들 사이의 커뮤니케이션이 종료됨을 식별하는 것에 기반하여, 상기 로그 정보에 포함된 복수의 이미지들을 표시하는 동작; 및
    상기 복수의 이미지들 중 하나의 이미지를 선택하는 입력을 식별하는 것에 응답하여, 상기 로그 정보에 포함되고, 상기 선택된 이미지에 대응하는 영상을 표시하는 동작을 포함하는
    방법.
  14. 제13 항에 있어서,
    상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 커뮤니케이션을 나타내는 복수의 영상들을 획득하는 동작;
    상기 복수의 영상들 각각에 대한 복수의 썸네일들을 획득하는 것에 기반하여, 상기 복수의 이미지들을 획득하는 동작; 및
    상기 복수의 영상들 및 상기 복수의 이미지들을 포함하는 상기 로그 정보를 획득하는 동작을 더 포함하는
    방법.
  15. 제14 항에 있어서,
    상기 복수의 사용자들 사이의 상기 커뮤니케이션이 수행되는 동안, 상기 복수의 사용자들에 관한 발화 데이터(utterance data)를 획득하는 동작;
    상기 발화 데이터에 기반하여, 지정된 조건을 만족하는 복수의 발화 구간들을 식별하는 동작; 및
    복수의 발화 구간들에 대응하는 상기 복수의 영상들을 획득하는 동작을 더 포함하는
    방법.
PCT/KR2023/015274 2022-11-28 2023-10-04 가상 공간을 제공하기 위한 전자 장치 및 방법 WO2024117508A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0162107 2022-11-28
KR20220162107 2022-11-28
KR10-2022-0175113 2022-12-14
KR1020220175113A KR20240079113A (ko) 2022-11-28 2022-12-14 가상 공간을 제공하기 위한 전자 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2024117508A1 true WO2024117508A1 (ko) 2024-06-06

Family

ID=91324376

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/015274 WO2024117508A1 (ko) 2022-11-28 2023-10-04 가상 공간을 제공하기 위한 전자 장치 및 방법

Country Status (1)

Country Link
WO (1) WO2024117508A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210008442A (ko) * 2014-09-05 2021-01-21 미네르바 프로젝트, 인크. 가상 회의에서 이벤트를 추적하고 피드백을 제공하기 위한 시스템 및 방법
KR102266639B1 (ko) * 2013-08-16 2021-06-21 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 이종 장치들간 기록 및 리플레이 시스템 및 방법
KR20220046773A (ko) * 2020-10-08 2022-04-15 주식회사 살린 가상 현실에서의 모임 시스템
KR20220103147A (ko) * 2020-01-15 2022-07-21 인터내셔널 비지네스 머신즈 코포레이션 대조적인 시간 패턴들에 대한 가상 에이전트 대화 시스템의 대화 로그들 검색
KR20220125536A (ko) * 2021-03-05 2022-09-14 주식회사 맘모식스 가상현실 사용자와 증강현실 사용자와의 상호 인터랙션 서비스 제공 시스템 및 동작방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102266639B1 (ko) * 2013-08-16 2021-06-21 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 이종 장치들간 기록 및 리플레이 시스템 및 방법
KR20210008442A (ko) * 2014-09-05 2021-01-21 미네르바 프로젝트, 인크. 가상 회의에서 이벤트를 추적하고 피드백을 제공하기 위한 시스템 및 방법
KR20220103147A (ko) * 2020-01-15 2022-07-21 인터내셔널 비지네스 머신즈 코포레이션 대조적인 시간 패턴들에 대한 가상 에이전트 대화 시스템의 대화 로그들 검색
KR20220046773A (ko) * 2020-10-08 2022-04-15 주식회사 살린 가상 현실에서의 모임 시스템
KR20220125536A (ko) * 2021-03-05 2022-09-14 주식회사 맘모식스 가상현실 사용자와 증강현실 사용자와의 상호 인터랙션 서비스 제공 시스템 및 동작방법

Similar Documents

Publication Publication Date Title
WO2021025350A1 (en) Electronic device managing plurality of intelligent agents and operation method thereof
WO2019103471A1 (en) Method of providing vibration and electronic device for supporting same
WO2021075716A1 (en) Electronic device supporting improved speech recognition
WO2022010157A1 (ko) 인공지능 가상 비서 서비스에서의 화면 제공 방법 및 이를 지원하는 사용자 단말 장치 및 서버
WO2022186540A1 (ko) 전자 장치 및 전자 장치에서 레코딩과 음성 입력을 처리하는 방법
WO2022163963A1 (ko) 전자 장치 및 전자 장치의 단축 명령어 수행 방법
WO2022154440A1 (ko) 오디오 데이터를 처리하는 전자 장치 및 그 동작 방법
WO2024117508A1 (ko) 가상 공간을 제공하기 위한 전자 장치 및 방법
WO2022030750A1 (ko) 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
WO2021256709A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2021096281A1 (en) Voice input processing method and electronic device supporting same
WO2024080745A1 (ko) 발화 캐시에 기반하여 사용자 발화를 분석하기 위한 방법 및 이를 지원하는 전자 장치
WO2022196930A1 (ko) 전자 장치 및 전자 장치에서 컨텐츠의 태그 정보를 저장하는 방법
WO2022245173A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2024014654A1 (ko) 통화 녹음을 수행하기 위한 전자 장치 및 그의 동작 방법
WO2024039000A1 (ko) 가상 공간을 제공하기 위한 전자 장치 및 컴퓨터 판독가능 저장 매체
WO2024106830A1 (ko) 폰북 기반의 성문 운용 방법 및 이를 지원하는 전자 장치
WO2024106806A1 (ko) 통신 회로를 포함하는 웨어러블 전자 장치 및 이의 동작 방법
WO2024135877A1 (ko) 복수의 시각적 객체들 중 시각적 객체를 식별하기 위한 전자 장치 및 방법
WO2024043519A1 (ko) 복수의 디스플레이들을 제어하는 방법 및 이를 지원하는 전자 장치
WO2023008819A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2024039046A1 (ko) 외부 전자 장치와 통화 연결을 수립하기 위한 웨어러블 장치 및 방법
WO2024063564A1 (ko) 폴더블 전자 장치 및 폴더블 전자 장치의 동작 방법
WO2024058524A1 (ko) 오거부 판단 방법 및 이를 수행하는 전자 장치
WO2024101722A1 (ko) 디스플레이의 노출 영역을 확장하는 전자 장치 및 방법