WO2022055174A1 - Electronic apparatus and control method thereof - Google Patents

Electronic apparatus and control method thereof Download PDF

Info

Publication number
WO2022055174A1
WO2022055174A1 PCT/KR2021/011830 KR2021011830W WO2022055174A1 WO 2022055174 A1 WO2022055174 A1 WO 2022055174A1 KR 2021011830 W KR2021011830 W KR 2021011830W WO 2022055174 A1 WO2022055174 A1 WO 2022055174A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
camera
electronic device
user area
Prior art date
Application number
PCT/KR2021/011830
Other languages
French (fr)
Korean (ko)
Inventor
이효재
김지은
유재영
Original Assignee
삼성전자(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자(주) filed Critical 삼성전자(주)
Publication of WO2022055174A1 publication Critical patent/WO2022055174A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Definitions

  • the present disclosure relates to an electronic device that provides a video call function and a control method therefor.
  • the existing video call may be maintained by switching from a device using a video call function to a device using another camera.
  • an image of a completely different frame may be transmitted to the other party when the camera is switched, and an unwanted background or exposure of a person may occur differently from the user's intention. This may cause problems such as invasion of users' privacy.
  • call concentration may be hindered, which may be a factor in reducing work efficiency in video conferencing and the like.
  • an electronic device that provides a better service and a control method thereof are provided.
  • an electronic device includes: an interface unit; display; and identifying user-related information of the first image acquired by the first camera, and in response to switching from the first camera to another second camera, by the second camera based on the identified user-related information and a processor for identifying a user area in the obtained second image, and transmitting a call image corresponding to the user area in the identified second image to a counterpart device of the video call through the interface unit.
  • the user-related information includes information about at least one of a location or a size of a user area in the first image, and the processor is configured to: Based on the location or size of the user area in the first image, the user in the second image area can be identified.
  • the user-related information includes information about an angle of view of the first camera, and the processor is configured to identify a user area in the second image based on a relationship between the angle of view of the first camera and the angle of view of the second camera.
  • the processor may receive the user-related information from an external device including the first camera through the interface unit.
  • the processor may transmit the first image to the counterpart device while the user area in the second image is identified in response to switching from the first camera to the second camera, or transmit the first image by replacing it with another image .
  • the electronic device may further include the second camera.
  • the electronic device may further include a user input unit, and the processor may identify a user area in the second image based on a user input received through the user input unit.
  • the user input may include a user voice input.
  • the electronic device further includes a user input unit, and the processor adjusts a user area in the second image based on a user input received through the user input unit, and displays a call image corresponding to the adjusted user area. can be transmitted to the counterpart device.
  • the processor may display a user interface (UI) indicating a user area in the second image, and adjust the user area in the second image based on the user input received using the UI.
  • UI user interface
  • the processor may adjust a user area in the second image based on a user input received through an external device, and transmit a call image corresponding to the adjusted user area to the counterpart device.
  • the processor may transmit information about the user area in the second image to the external device through the interface unit so that the external device adjusts the user area in the second image.
  • a method of controlling an electronic device includes: identifying user-related information of a first image acquired by a first camera; identifying a user area in a second image acquired by the second camera based on the identified user-related information in response to switching from the first camera to another second camera; and transmitting the call image corresponding to the user area in the identified second image to the other party device of the video call through the interface unit.
  • the user-related information includes information about at least one of a location and a size of the user area in the first image, and the identifying of the user area in the second image includes the location or size of the user area in the first image. It may include identifying a user area in the second image based on the
  • the user-related information includes information about an angle of view of the first camera, and the identifying a user area in the second image includes: based on a relationship between the angle of view of the first camera and the angle of view of the second camera It may include the step of identifying the user area in the second image.
  • the method of controlling the electronic device may include receiving the user-related information from an external device including the first camera through the interface unit.
  • the method for controlling the electronic device includes transmitting the first image to the counterpart device or replacing it with another image while the user area in the second image is identified in response to the switching from the first camera to the second camera It may include the step of transmitting.
  • the identifying of the user region in the second image may include identifying the user region in the second image based on a user input received through the user input unit.
  • the method of controlling the electronic device may include: adjusting a user area in the second image based on a user input received through an external device; and transmitting a call image corresponding to the adjusted user area to the counterpart device.
  • the control method of the electronic device includes: identifying user-related information of the first image obtained by the method; identifying a user area in a second image acquired by the second camera based on the identified user-related information in response to switching from the first camera to another second camera; and transmitting the call image corresponding to the user area in the identified second image to the other party device of the video call through the interface unit.
  • the present disclosure it is possible to provide a natural camera switching service by minimizing an image difference that occurs according to a camera switching during a video call.
  • FIG. 1 is a diagram illustrating an image difference according to a camera according to an exemplary embodiment.
  • FIG. 2 is a block diagram illustrating a configuration of an electronic device according to an exemplary embodiment.
  • FIG. 3 is a diagram illustrating an operation flowchart of an electronic device according to an exemplary embodiment.
  • FIG. 4 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
  • FIG. 5 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
  • FIG. 6 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
  • FIG. 7 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
  • FIG. 8 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
  • a 'module' or 'unit' performs at least one function or operation, may be implemented as hardware or software, or may be implemented as a combination of hardware and software, and may be integrated into at least one module and can be implemented.
  • at least one of the plurality of elements refers to all of the plurality of elements, as well as each one or a combination thereof excluding the rest of the plurality of elements.
  • FIG. 1 is a diagram illustrating an image according to an embodiment.
  • Image A(1) and image B(2) are captured by different cameras in the same situation, for example, image A(1) is captured by a camera C1 built into a mobile phone, which is a mobile electronic device , it is assumed that the image B(2) was captured by the camera C2 mounted on the TV, which is an electronic device having a fixed position.
  • image A(1) the distance between the mobile phone and the user is close, and the camera C1 built into the mobile phone has a relatively narrow angle of view compared to the camera C2 mounted on the TV, so that only the user is displayed.
  • image B(2) the distance between the TV and the user is greater than that of the mobile phone, and the user is relatively out of the center of the angle of view of the camera C2.
  • the angle of view of the camera C2 mounted on the TV is wider than the angle of view of the mobile phone camera C1, so that other people including the user are displayed together.
  • the image may be displayed differently depending on the angle of view of the imaging camera, the distance between the camera and the object to be imaged, the position of the camera, and the like.
  • the screen changes such as when the camera is switched from the camera (C1) built into the mobile phone to the camera (C2) mounted on the TV, a scene not intended by the user is displayed, etc. Describe techniques to avoid possible problems.
  • the electronic device 100 may be implemented as a display device including a display 121 capable of displaying images, such as the image A(1) and the image B(2) shown in FIG. 1 .
  • the electronic device 100 may include a TV, a computer, a smart phone, a tablet, a portable media player, a wearable device, a video wall, an electronic picture frame, and the like.
  • the spirit of the present disclosure is not limited to the example implementation of the electronic device 100, and as another embodiment, the electronic device 100 transmits a signal to an external display connected by wire or wirelessly, such as an image such as a set-top box. It may be implemented as a processing device.
  • FIG. 2 is a block diagram illustrating a configuration of an electronic device according to an exemplary embodiment.
  • the electronic device 100 may include an interface unit 110 .
  • the interface unit 110 may include a wired interface unit 111 .
  • the wired interface unit 111 includes a connector or port to which an antenna capable of receiving a broadcast signal according to a broadcasting standard such as terrestrial/satellite broadcasting can be connected, or a cable capable of receiving a broadcast signal according to a cable broadcasting standard can be connected. do.
  • the electronic device 100 may have a built-in antenna capable of receiving a broadcast signal.
  • Wired interface unit 111 is an HDMI port, DisplayPort, DVI port, Thunderbolt, composite video, component (component) video, super video (super video), SCART, such as, such as, video and / or audio transmission standards according to It may include a connector or a port, and the like.
  • the wired interface unit 111 may include a connector or port according to a universal data transmission standard, such as a USB port.
  • the wired interface unit 111 may include a connector or a port to which an optical cable can be connected according to an optical transmission standard.
  • the wired interface unit 111 is connected to an external microphone or an external audio device having a microphone, and may include a connector or a port capable of receiving or inputting an audio signal from the audio device.
  • the wired interface unit 111 is connected to an audio device such as a headset, earphone, or external speaker, and may include a connector or port capable of transmitting or outputting an audio signal to the audio device.
  • the wired interface unit 111 may include a connector or port according to a network transmission standard such as Ethernet.
  • the wired interface unit 111 may be implemented as a LAN card connected to a router or a gateway by wire.
  • the wired interface unit 111 is wired through the connector or port in a 1:1 or 1:N (N is a natural number) method with an external device such as a set-top box, an optical media player, or an external display device, speaker, server, etc. By being connected, a video/audio signal is received from the corresponding external device or a video/audio signal is transmitted to the corresponding external device.
  • the wired interface unit 111 may include a connector or port for separately transmitting video/audio signals.
  • the wired interface unit 111 is embedded in the electronic device 100 , but may be implemented in the form of a dongle or a module to be detachably attached to the connector of the electronic device 100 .
  • the interface unit 110 may include a wireless interface unit 112 .
  • the wireless interface unit 112 may be implemented in various ways corresponding to the implementation form of the electronic device 100 .
  • the wireless interface unit 112 is a communication method RF (radio frequency), Zigbee (Zigbee), Bluetooth (bluetooth), Wi-Fi (Wi-Fi), UWB (Ultra WideBand) and NFC (Near Field Communication), etc.
  • Wireless communication can be used.
  • the wireless interface unit 112 may be implemented as a wireless communication module that performs wireless communication with an AP according to a Wi-Fi method, or a wireless communication module that performs one-to-one direct wireless communication such as Bluetooth.
  • the wireless interface unit 112 may transmit and receive data packets to and from the server by wirelessly communicating with the server on the network.
  • the wireless interface unit 112 may include an IR transmitter and/or an IR receiver capable of transmitting and/or receiving an IR (Infrared) signal according to an infrared communication standard.
  • the wireless interface unit 112 may receive or input a remote control signal from a remote control or other external device through an IR transmitter and/or an IR receiver, or transmit or output a remote control signal to another external device.
  • the electronic device 100 may transmit/receive a remote control signal to and from the remote control or other external device through the wireless interface unit 112 of another method such as Wi-Fi or Bluetooth.
  • the electronic device 100 may further include a tuner for tuning the received broadcast signal for each channel.
  • the electronic device 100 When the electronic device 100 is implemented as a display device, it may include the display unit 120 .
  • the display unit 120 includes a display panel capable of displaying an image on the screen.
  • the display panel is provided with a light-receiving structure such as a liquid crystal type or a self-luminous structure such as an OLED type.
  • the display unit 120 may further include additional components according to the structure of the display panel. For example, if the display panel is a liquid crystal type, the display unit 120 includes a liquid crystal display panel and a backlight unit for supplying light. and a panel driving substrate for driving the liquid crystal of the liquid crystal display panel.
  • the electronic device 100 may include a user input unit 130 .
  • the user input unit 130 transmits various preset control commands or non-limited information to the processor 180 in response to a user's input.
  • the user input unit 130 includes various input means capable of receiving a user input.
  • the user input unit 130 may include a keypad (or input panel) including buttons such as a power key, a number key, and a menu key provided in the electronic device 100 .
  • the user input unit 130 may include an input device that generates a preset command/data/information/signal to be able to remotely control the electronic device 100 and transmits the generated command/data/information/signal to the electronic device 100 .
  • the input device includes, for example, a remote control, a game console, a keyboard, a mouse, and the like, and is separated from the electronic device 100 to receive a user input.
  • At least one button for receiving a user input may be provided in the remote control.
  • the remote control may be provided with a touch sensing unit that receives a user's touch input (touch gesture) and/or a motion sensing unit that detects movement of the remote control itself by the user.
  • the input device includes a terminal device such as a smartphone on which a remote control application is installed, and in this case, a user's touch input through the touch screen can be received.
  • the input device becomes an external device capable of wireless communication with the main body of the electronic device 100 , and wireless communication includes Bluetooth, infrared communication, RF communication, wireless LAN, Wi-Fi Direct, and the like.
  • the user input unit 130 may include a motion sensing unit that detects a motion of the user's hand, that is, a hand gesture (hereinafter, also referred to as a gesture).
  • the electronic device 100 may output data by detecting a movement distance, a movement speed, an area of a movement region, and the like, of the hand by the motion detection unit.
  • the user input unit 130 may include a touch sensing unit capable of detecting a user's touch on the bezel area around the display 121 .
  • a sound receiving unit 130 such as a microphone 150 capable of receiving a voice uttered by a user may be included in the user input unit 130 .
  • the user input unit 130 may receive a user input for a set distance that is a standard for privacy processing for image data. For example, a user input for setting or adjusting (changing) a set distance or a reference position corresponding to the set distance may be received through the user input unit 130 .
  • the electronic device 100 may include a storage unit 140 .
  • the storage unit 140 stores digitized data.
  • the storage unit 140 is a nonvolatile storage capable of preserving data regardless of whether power is supplied or not, and data to be processed by the processor 180 is loaded, and data is stored when power is not provided. This includes memory with volatile properties that cannot be used. Storage includes flash-memory, hard-disc drive (HDD), solid-state drive (SSD), read-only memory (ROM), etc., and memory includes buffer and random access memory (RAM). etc.
  • the electronic device 100 may include a microphone 150 .
  • the microphone 150 collects sounds of the external environment including the user's voice.
  • the microphone 150 transmits the collected sound signal to the processor 180 .
  • the electronic device 100 may include a microphone 150 for collecting user voices or may receive a voice signal from an external device such as a remote controller having a microphone or a smart phone through the interface unit 110 .
  • a remote controller application may be installed in an external device to control the electronic device 100 or perform functions such as voice recognition. In the case of an external device installed with such an application, a user voice can be received, and the external device can transmit/receive and control data using the electronic device 100 and Wi-Fi/BT or infrared rays, etc.
  • a plurality of interface units 110 that can be implemented may exist in the electronic device 100 .
  • the electronic device 100 may include a speaker 160 .
  • the speaker 160 outputs audio data processed by the processor 180 as sound.
  • the speaker 160 may include a unit speaker provided to correspond to audio data of one audio channel, and may include a plurality of unit speakers to respectively correspond to audio data of a plurality of audio channels.
  • the speaker 160 may be provided separately from the electronic device 100 . In this case, the electronic device 100 may transmit audio data to the speaker 160 through the interface unit 110 .
  • the electronic device 100 may include a sensor 170 .
  • the sensor 170 may detect a state of the electronic device 100 or a state around the electronic device 100 , and transmit the sensed information to the processor 180 .
  • the sensor 170 includes a camera.
  • a magnetic sensor an acceleration sensor, a temperature/humidity sensor, an infrared sensor, a gyroscope sensor, a position sensor (eg, GPS), a barometric pressure sensor, a proximity sensor, and an RGB sensor (illuminance sensor) It may include at least one, but is not limited thereto. Since a function of each sensor can be intuitively inferred from the name of a person skilled in the art, a detailed description thereof will be omitted.
  • the electronic device 100 may include a processor 180 .
  • the processor 180 includes one or more hardware processors implemented with a CPU, a chipset, a buffer, a circuit, etc. mounted on a printed circuit board, and may be implemented as a system on chip (SOC) depending on a design method.
  • SOC system on chip
  • the processor 180 includes modules corresponding to various processes such as a demultiplexer, a decoder, a scaler, an audio digital signal processor (DSP), and an amplifier.
  • DSP audio digital signal processor
  • some or all of these modules may be implemented as SOC.
  • a module related to image processing such as a demultiplexer, decoder, and scaler may be implemented as an image processing SOC
  • an audio DSP may be implemented as a chipset separate from the SOC.
  • the processor 180 may convert the voice signal into voice data.
  • the voice data may be text data obtained through a speech-to-text (STT) process for converting a voice signal into text data.
  • STT speech-to-text
  • the processor 180 identifies a command indicated by the voice data and performs an operation according to the identified command.
  • the voice data processing process and the command identification and execution process may all be executed in the electronic device 100 .
  • at least a part of the process is performed by at least one server communicatively connected to the electronic device 100 through a network. can be performed.
  • the processor 180 may call at least one command among commands of software stored in a storage medium readable by a machine such as the electronic device 100 and execute it. .
  • This enables a device such as the electronic device 100 to be operated to perform at least one function according to the called at least one command.
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term refers to cases in which data is semi-permanently stored in a storage medium and temporary storage. It does not distinguish between cases where
  • the processor 180 identifies the user-related information of the first image acquired by the first camera, and corresponds to the switch from the first camera to another second camera, based on the identified user-related information, the second Data analysis, processing, to identify the user area in the second image acquired by the camera, and transmit the call image corresponding to the user area in the identified second image to the other party device of the video call through the interface unit 110; And at least a part of the result information generation may be performed using at least one of machine learning, a neural network, and a deep learning algorithm as a rule-based or artificial intelligence algorithm.
  • the processor 180 identifies the user-related information of the first image acquired by the first camera, and identifies the user area in the second image acquired by the second camera based on the identified user-related information to model the artificial intelligence It can be converted into a form suitable for use as an input of AI models can be created through learning.
  • being made through learning means that a basic artificial intelligence model is learned using a plurality of learning data by a learning algorithm, so that a predefined action rule or artificial intelligence model set to perform a desired characteristic (or purpose) is created means burden.
  • the artificial intelligence model may be composed of a plurality of neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and a neural network operation is performed through an operation between the operation result of a previous layer and the plurality of weights.
  • Inference prediction is a technology for logically reasoning and predicting by judging information. It is a technology that uses knowledge based reasoning, optimization prediction, preference-based planning, and recommendation. includes
  • the processor 180 may perform the functions of the learning unit and the recognition unit together.
  • the learning unit may perform a function of generating a learned neural network
  • the recognition unit may perform a function of recognizing (or inferring, predicting, estimating, determining) data using the learned neural network.
  • the learning unit may create or update the neural network.
  • the learning unit may acquire learning data to generate a neural network.
  • the learning unit may acquire the learning data from the storage 140 or the outside.
  • the learning data may be data used for learning of the neural network, and the neural network may be trained by using the data obtained by performing the above-described operation as learning data.
  • the learning unit may perform a preprocessing operation on the acquired training data before training the neural network using the training data, or may select data to be used for learning from among a plurality of training data. For example, the learning unit may process the learning data in a preset format, filter it, or add/remove noise to process the learning data into a form suitable for learning. The learner may generate a neural network set to perform the above-described operation by using the preprocessed learning data.
  • the learned neural network network may be composed of a plurality of neural network networks (or layers). Nodes of the plurality of neural networks have weights, and the plurality of neural networks may be connected to each other so that an output value of one neural network is used as an input value of another neural network.
  • Examples of neural networks include Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN) and It can include models such as Deep Q-Networks.
  • the recognizer may acquire target data to perform the above-described operation.
  • the target data may be obtained from the storage 140 or from the outside.
  • the target data may be data to be recognized by the neural network.
  • the recognizer may perform preprocessing on the acquired target data before applying the target data to the learned neural network, or select data to be used for recognition from among a plurality of target data.
  • the recognition unit may process the target data into a preset format, filter, or add/remove noise to process the target data into a form suitable for recognition.
  • the recognizer may obtain an output value output from the neural network by applying the preprocessed target data to the neural network.
  • the recognition unit may obtain a probability value or a reliability value together with the output value.
  • control method of the electronic device 100 may be provided by being included in a computer program product.
  • the computer program product may include instructions for software executed by the processor 180 , as described above.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg, CD-ROM), or via an application store (eg, Play StoreTM) or between two user devices (eg, smartphones). It may be distributed directly, online (eg, downloaded or uploaded). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • FIG. 3 is a diagram illustrating an operation flowchart of an electronic device according to an exemplary embodiment.
  • the electronic device 100 may support a video call (video call) function.
  • video call video call
  • the video call application is installed and executed in the electronic device 100 , the video call function is activated, so that a video call service may be provided to the user.
  • a video call includes a video conference (video conference) with one or two or more counterparts.
  • the processor 180 identifies user-related information of the first image acquired by the first camera ( S310 ).
  • the first camera is an external type, and the processor 180 receives data obtained by the first camera through the interface unit 110 .
  • the processor 180 receives data obtained by the first camera through the interface unit 110 .
  • User-related information means information related to the user area, and more specifically, due to the nature of the video call, the user's face (features, face shape, hairstyle, etc.), the user's body (object), the user's voice, It includes objects or backgrounds that appear in front of or behind the user, the position of the face on the screen, the aspect ratio, and the relationship between the aspect ratio and the face/object ratio.
  • the processor 180 identifies a user area in the second image acquired by the second camera based on the identified user-related information, in response to switching from the first camera to another second camera. (S320).
  • the second camera may be of an external type like the first camera, and on the other hand, as another embodiment, the electronic device 100 may include a camera capable of capturing the surroundings of the electronic device 100 .
  • the second camera is an external type, it may exist in the form of being mounted on the electronic device 100 by being connected through the wired interface 111 or the wireless interface 112 as an embodiment.
  • the processor 180 may receive a signal requesting to switch from the first camera to the second camera that is another camera.
  • the camera switching request may be received from an external device through the interface unit 110 or may be received through the user input unit 130 .
  • the user area refers to an area in which the user is located, and includes, for example, a face area including the user's face and an object area including the body.
  • the processor 180 may identify the user's face using an image recognition technology, for example, an infrared sensor or a technology for extracting feature points.
  • an image recognition technology for example, an infrared sensor or a technology for extracting feature points.
  • an area within a predetermined range based on the central point may be set as the face area, and an area including the face and the user's body may be set as the object area.
  • the processor 180 transmits a call image corresponding to the user area in the identified second image to the other party device of the video call through the interface unit 110 (S330).
  • the processor 180 determines the user in the second image identified based on the user-related information identified in the first image.
  • the call image corresponding to the area is transmitted to the other party's device of the video call.
  • FIG. 4 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
  • This figure shows a state in which the user area in the second image 20 is identified based on the location or size of the user area in the first image 10 in relation to S320 of FIG. 3 .
  • the user areas 410 and 420 refer to areas in which the user is located, for example, face areas 411 and 421 including the user's face and object areas 412 and 422 including the body. ) is included.
  • Identifying the user area means identifying a characteristic sufficient to identify the area corresponding to the first image in another image by comparing it with other images later. More specifically, it includes identifying the location or size characteristic of the user area with respect to the entire image area or the screen area.
  • the processor 180 first identifies a face region 411 and an object region 412 in the first image 10 displayed by the first camera, and extracts information related to each region.
  • the processor 180 recognizes the user's features, face shape, eyebrow shape, and hairstyle in the face region 411 , and in the object region 412 , the shape, type, color, and user of clothes worn by the user. Recognize poses, etc.
  • the processor 180 may identify a user area in the image based on a user input received through the user input unit 130 .
  • the user input includes a user voice input.
  • the processor 180 may store the recognized user's face and the received user's voice in the storage 150 in correspondence with each other.
  • the first camera is an external type
  • the processor 180 receives data obtained by the first camera through the interface unit 110 , and the first camera through the interface unit 110 .
  • Information related to the first image 10 may be received together from an external device including a camera.
  • the user-related information includes information about at least one of a location and a size of a user area in an image.
  • the processor 180 may identify the user area 420 in the second image 20 based on the location or size of the user area 410 in the first image 10 .
  • the processor 180 identifies the position on the screen of the face region 411, the position on the screen of the object region 412, the aspect ratio, the relationship between the aspect ratio and the ratio of the face region 411, the object region 412, etc. Based thereon, the user area 420 in the second image 20 may be identified based on the location or size of the user area 410 in the first image 10 .
  • the vertical and horizontal lengths of the screen on which the first image 10 is displayed are x and y, respectively, and the vertical and horizontal lengths of the face region 411 identified in the first image 10 are x', y', the vertical and horizontal lengths of the object region 412 are x'' and y''.
  • the ratios of the screen and each area are set to x:y, x':y', and x'':y'' for convenience of calculation.
  • the processor 180 also identifies the user area 420 including the face area 421 and the object area 422 in the second image 20 acquired by the second camera.
  • the vertical and horizontal lengths of the second image 20 are a and b, respectively, and the vertical and horizontal lengths of the face region 421 identified in the second image 20 are a′, b′, and the object region 422 .
  • the length and width are a'',b''.
  • the ratios of the screen and each area are set to a:b, a':b', a'':b'' for convenience of calculation.
  • this drawing is illustrated without considering the perspective, and the sizes of the first image 10 and the second image 20 may differ from what is shown in that a may be much larger than x.
  • the processor 180 may identify a user area for each person.
  • the processor 180 specifies a user area 420 corresponding to the user area 410 identified in the first image 10 from among the user areas identified in the second image 20 .
  • the processor 180 identifies the user area 420 corresponding to the user area 410 in the first image 10 in the second image 20, processing the user area identification for the remaining persons. can be stopped
  • the user-related information includes information about the angle of view of the camera.
  • the processor 180 may identify the user area in the second image based on the relationship between the angle of view of the first camera and the angle of view of the second camera.
  • a region corresponding to the user region of the first image may be more accurately identified in the converted second image by identifying the user region in the first image.
  • FIG. 5 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
  • This figure shows a state in which a call image corresponding to the user area in the identified second image is transmitted to the other party device of the video call through the interface in relation to S330 of FIG. 3 .
  • the configuration for identifying the user area in the first image 10 and the user area in the second image 20 is the same as described in FIG. 4 .
  • the processor 180 identifies the user area 410 in the first image 10 and includes the corresponding user area 420 in the second image 20 .
  • a partial image 431 of the second image 20 is identified.
  • the partial image 431 means a call image to be transmitted to the counterpart device of the video call.
  • the processor 180 may transmit a call image corresponding to the user area in the identified second image to the other party device of the video call through the interface unit 110 .
  • the processor 180 may obtain a partial image 431 by cropping an unnecessary portion of the second image 20 .
  • the processor 180 may adjust some acquired images 431 .
  • the processor 180 is configured to display the first image 10 based on an aspect ratio (x:y) and a ratio (x':y') of the user area 410 and the size of the user area 410 .
  • the relationship between the aspect ratio (x:y) in which the identified partial image 431 is displayed and the ratio (x':y', x'':y'') of the user area 410 on which the first image 10 is displayed While maintaining , the adjusted image 510 may be displayed by adjusting it to fit the screen ratio of the display 121 .
  • the aspect ratio of the display 121 and the screen ratio at which the image 10 is displayed are different.
  • the processor 180 determines the length (x) of the screen on which the first image is displayed and the face region 411 of the first image. Based on x: x', which is the ratio of the vertical (x') of the screen of The ratio a:a' of the length (a') may be adjusted to correspond to the ratio x:x'.
  • the present invention is not limited thereto, and the processor 180 may adjust not only the ratio of the area but also the location of the area (where the area is located in the horizontal and vertical directions on the screen, etc.). At this time, in this drawing, it is assumed that the size of the screen of the display 121 and the size of the second image 20 are the same.
  • FIG. 6 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
  • the user is conducting a video call using the external device 200 .
  • the external device may be, for example, a mobile phone.
  • the user intends to conduct a video call using the electronic device 100 while making a video call with the camera built into the external device 200 .
  • the processor 180 executes a video call application based on receiving a user input requesting camera change through any one of the external device 200 , the interface unit 110 , or the user input unit 130 , and performs a video call. Activate the function.
  • the processor 180 receives data about the image 610 displayed on the external device 200 to identify a user area of the image 610 or transmits information about the user area of the image 610 to the interface unit ( 110) can be received.
  • the processor 180 receives information about the user area from the external device 200 through the interface 110 , the processor 180 automatically searches for a user based on the received information and is included in the received information.
  • the image may be cropped and displayed on the display 121 at the same ratio as the screen ratio.
  • the processor 180 may acquire an image using another camera connected to the electronic device 100 , and display the image 620 on the display 121 so that the acquired image corresponds to a user area of the image 610 . .
  • the processor 180 may transmit the identified image 620 to the counterpart device of the video call through the internal interface unit 110 .
  • the image acquired based on the switched camera is adjusted to correspond to the image 610 as described in the preceding figure.
  • the processor 180 transmits the image 610 to the counterpart device while preparing the display of the image 620 in response to the transition from the first camera to the second camera, that is, while the user area is identified, or transfers the image 610 to another image. can be transferred instead.
  • 7 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment. 7 illustrates an operation of the electronic device after the processor 180 transmits the image 620 to the counterpart device in FIG. 6 .
  • the electronic device 100 may further include a user input unit 130 .
  • the processor 180 may adjust the user area in the image 620 based on the user input received through the user input unit 130 and transmit a call image corresponding to the adjusted user area to the counterpart device.
  • the processor 180 may display a user interface (UI) indicating the user area within the image 620 and adjust the user area within the image 620 based on a user input received using the UI.
  • UI user interface
  • the user may make various adjustments, such as additionally displaying the intended part or displaying it by enlarging/reducing the image 610 .
  • the user input unit 130 includes various input means capable of receiving a user input for adjusting an image, for example, a physical button or a touch pad (or input panel) provided in the electronic device 100 .
  • the processor 180 may display a graphic user interface (GUI) capable of adjusting an image on the display 121 and receive a user input for adjusting the image through a touch pad.
  • GUI graphic user interface
  • it is separated from the electronic device 100 and is separated from an input device that transmits a controllable signal through the wired/wireless interface unit 110, for example, from a remote control, a keyboard, a mouse, etc.
  • a user input for adjusting an image in the displayed GUI may be received.
  • the image 620 is adjusted to the image 710 based on the user input received through the processor 180 user input unit 130 . displayed on the display 121 .
  • FIG. 8 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
  • FIG. 8 shows an operation state of the electronic device after the processor 180 displays the image 620 in FIG. 6 .
  • FIG. 8 shows that the operation described with reference to FIG. 7 is performed using the external device 200 .
  • the processor 180 may be connected to the external device 200 by wire or wirelessly through the interface unit 110 .
  • the processor 180 transmits data of the image 620 and information on the user area within the image 620 so that the external device 200 adjusts the user area within the image 620 through the interface unit 110 to the external device ( 200) is sent.
  • the external device 200 includes a terminal device such as a smart phone in which a remote control application is installed, and in this case, a user's touch input through the touch screen can be received.
  • the external device 200 is capable of wireless communication with the main body of the electronic device 100 , and the wireless communication includes Bluetooth, infrared communication, RF communication, wireless LAN, Wi-Fi Direct, and the like.
  • the external device 200 adjusts the image 620 based on a user input through software capable of manually adjusting the magnification.
  • the scaling software you can set the cropped range and coordinates against the original data.
  • the external device 200 receives a user input to enlarge the image 620 , enlarges the image 620 , drags and drops it to the electronic device 100 , and transmits it again.
  • the user input that can be performed in the external device 200 is not limited to a technique that can be applied in relation to image editing as well as enlargement, and the image is transmitted from the external device 200 back to the electronic device 100 .
  • the technique may be variously implemented in addition to drag and drop.
  • the processor 180 displays the image 810 received through the interface unit 110 on the display 121 or converts the image 620 into the image 810 based on a user input received through the interface unit 110 . adjust to be
  • an external terminal device such as a wireless terminal may be used to conveniently manipulate the image.

Abstract

Disclosed are an electronic apparatus and a control method thereof. The electronic apparatus comprises: an interface unit; a display; and a processor for identifying user-related information of a first image acquired by a first camera, identifying a user area in a second image acquired by a second camera on the basis of the identified user-related information, in response to switching from the first camera to another second camera, and transmitting, through the interface unit, a call video corresponding to the user area in the identified second image to a counterpart device of a video call.

Description

전자장치 및 그 제어방법Electronic device and its control method
본 개시는 영상통화 기능을 제공하는 전자장치 및 그 제어방법에 관한 것이다.The present disclosure relates to an electronic device that provides a video call function and a control method therefor.
최근 영상회의와 같이 영상통화 기능을 이용한 다양한 서비스가 가정이나 직장 등에서 보다 대중화되고 있다. 다양한 서비스의 일 예로, 영상통화 기능을 이용 중이던 장치에서 다른 카메라를 이용하는 장치로 전환하여 기존 영상통화를 계속 유지할 수 있다. 이 때, 카메라나 사용자의 위치에 따라, 카메라 전환 시 전혀 다른 프레임의 영상이 상대방에게 전송될 수 있으며, 사용자의 의도와는 다르게 사용자가 원치 않는 배경이나 사람의 노출이 발생할 수 있다. 이는 사용자의 사생활 침해 등 문제를 발생시킬 수 있다. 또한, 영상통화에서 불필요한 대상까지 상대방에게 송출됨으로써 통화 집중도를 저해할 수 있으며, 이는 영상회의 등에서 업무 효율성을 저하시키는 요인이 될 수 있다. Recently, various services using a video call function, such as video conferencing, are becoming more popular at home or at work. As an example of various services, the existing video call may be maintained by switching from a device using a video call function to a device using another camera. In this case, depending on the location of the camera or the user, an image of a completely different frame may be transmitted to the other party when the camera is switched, and an unwanted background or exposure of a person may occur differently from the user's intention. This may cause problems such as invasion of users' privacy. In addition, since video calls are transmitted to unnecessary objects to the other party, call concentration may be hindered, which may be a factor in reducing work efficiency in video conferencing and the like.
영상통화 기능을 제공하는 경우, 보다 나은 서비스를 제공하는 전자장치 및 그 제어방법이 제공된다.In the case of providing a video call function, an electronic device that provides a better service and a control method thereof are provided.
본 개시의 일 양상에 따르면, 전자장치는, 인터페이스부; 디스플레이; 및 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하고, 상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하고, 상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 상기 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 프로세서를 포함한다.According to an aspect of the present disclosure, an electronic device includes: an interface unit; display; and identifying user-related information of the first image acquired by the first camera, and in response to switching from the first camera to another second camera, by the second camera based on the identified user-related information and a processor for identifying a user area in the obtained second image, and transmitting a call image corresponding to the user area in the identified second image to a counterpart device of the video call through the interface unit.
상기 사용자 관련 정보는 상기 제1영상 내 사용자영역의 위치 또는 크기 중 적어도 하나에 관한 정보를 포함하고, 상기 프로세서는, 상기 제1영상 내 사용자영역의 위치 또는 크기에 기초하여 상기 제2영상 내 사용자 영역을 식별할 수 있다.The user-related information includes information about at least one of a location or a size of a user area in the first image, and the processor is configured to: Based on the location or size of the user area in the first image, the user in the second image area can be identified.
상기 사용자 관련 정보는 상기 제1카메라의 화각에 관한 정보를 포함하고, 상기 프로세서는, 상기 제1카메라의 화각과 상기 제2카메라의 화각 간의 관계에 기초하여 상기 제2영상 내 사용자 영역을 식별할 수 있다.The user-related information includes information about an angle of view of the first camera, and the processor is configured to identify a user area in the second image based on a relationship between the angle of view of the first camera and the angle of view of the second camera. can
상기 프로세서는, 상기 인터페이스부를 통해 상기 제1카메라를 포함하는 외부장치로부터 상기 사용자 관련 정보를 수신할 수 있다.The processor may receive the user-related information from an external device including the first camera through the interface unit.
상기 프로세서는, 상기 제1카메라에서 상기 제2카메라로의 전환에 대응하여, 상기 제2영상 내 사용자 영역이 식별되는 동안 상기 상대방 장치로 상기 제1영상을 전송하거나 다른 영상으로 대체하여 전송할 수 있다.The processor may transmit the first image to the counterpart device while the user area in the second image is identified in response to switching from the first camera to the second camera, or transmit the first image by replacing it with another image .
상기 전자장치는 상기 제2카메라를 더 포함할 수 있다.The electronic device may further include the second camera.
상기 전자장치는 사용자입력부를 더 포함하고, 상기 프로세서는, 상기 사용자입력부를 통해 수신되는 사용자 입력에 기초하여 상기 제2영상 내 사용자 영역을 식별할 수 있다.The electronic device may further include a user input unit, and the processor may identify a user area in the second image based on a user input received through the user input unit.
상기 사용자입력은 사용자 음성 입력을 포함할 수 있다.The user input may include a user voice input.
상기 전자장치는 사용자입력부를 더 포함하고, 상기 프로세서는, 상기 사용자입력부를 통해 수신되는 사용자입력에 기초하여, 상기 제2영상 내 사용자영역을 조정하고, 상기 조정된 사용자영역에 대응하는 통화영상을 상기 상대방 장치로 전송할 수 있다.The electronic device further includes a user input unit, and the processor adjusts a user area in the second image based on a user input received through the user input unit, and displays a call image corresponding to the adjusted user area. can be transmitted to the counterpart device.
상기 프로세서는, 상기 제2영상 내 사용자영역을 나타내는 UI(User Interface)를 표시하고, 상기 UI를 이용하여 수신되는 상기 사용자입력에 기초하여 상기 제2영상 내 사용자영역을 조정할 수 있다.The processor may display a user interface (UI) indicating a user area in the second image, and adjust the user area in the second image based on the user input received using the UI.
상기 프로세서는, 외부장치를 통해 수신되는 사용자입력에 기초하여, 상기 제2영상 내 사용자영역을 조정하고, 상기 조정된 사용자영역에 대응하는 통화영상을 상기 상대방 장치로 전송할 수 있다.The processor may adjust a user area in the second image based on a user input received through an external device, and transmit a call image corresponding to the adjusted user area to the counterpart device.
상기 프로세서는, 상기 외부장치가 상기 제2영상 내 사용자영역을 조정하도록 상기 제2영상 내 사용자영역에 관한 정보를 상기 인터페이스부를 통해 상기 외부장치로 전송할 수 있다.The processor may transmit information about the user area in the second image to the external device through the interface unit so that the external device adjusts the user area in the second image.
본 개시의 다른 양상에 따르면, 전자장치의 제어방법은, 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하는 단계; 상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하는 단계; 및 상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 단계를 포함한다.According to another aspect of the present disclosure, a method of controlling an electronic device includes: identifying user-related information of a first image acquired by a first camera; identifying a user area in a second image acquired by the second camera based on the identified user-related information in response to switching from the first camera to another second camera; and transmitting the call image corresponding to the user area in the identified second image to the other party device of the video call through the interface unit.
상기 사용자 관련 정보는 상기 제1영상 내 사용자영역의 위치 또는 크기 중 적어도 하나에 관한 정보를 포함하고, 상기 제2영상 내 사용자 영역을 식별하는 단계는, 상기 제1영상 내 사용자영역의 위치 또는 크기에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 단계를 포함할 수 있다.The user-related information includes information about at least one of a location and a size of the user area in the first image, and the identifying of the user area in the second image includes the location or size of the user area in the first image. It may include identifying a user area in the second image based on the
상기 사용자 관련 정보는 상기 제1카메라의 화각에 관한 정보를 포함하고, 상기 제2영상 내 사용자 영역을 식별하는 단계는, 상기 제1카메라의 화각과 상기 제2카메라의 화각 간의 관계에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 단계를 포함할 수 있다.The user-related information includes information about an angle of view of the first camera, and the identifying a user area in the second image includes: based on a relationship between the angle of view of the first camera and the angle of view of the second camera It may include the step of identifying the user area in the second image.
상기 전자장치의 제어방법은, 상기 인터페이스부를 통해 상기 제1카메라를 포함하는 외부장치로부터 상기 사용자 관련 정보를 수신하는 단계를 포함할 수 있다.The method of controlling the electronic device may include receiving the user-related information from an external device including the first camera through the interface unit.
상기 전자장치의 제어방법은, 상기 제1카메라에서 상기 제2카메라로의 전환에 대응하여, 상기 제2영상 내 사용자 영역이 식별되는 동안 상기 상대방 장치로 상기 제1영상을 전송하거나 다른 영상으로 대체하여 전송하는 단계를 포함할 수 있다.The method for controlling the electronic device includes transmitting the first image to the counterpart device or replacing it with another image while the user area in the second image is identified in response to the switching from the first camera to the second camera It may include the step of transmitting.
상기 제2영상 내 사용자 영역을 식별하는 단계는, 상기 사용자입력부를 통해 수신되는 사용자 입력에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 단계를 포함할 수 있다.The identifying of the user region in the second image may include identifying the user region in the second image based on a user input received through the user input unit.
상기 전자장치의 제어방법은, 외부장치를 통해 수신되는 사용자입력에 기초하여, 상기 제2영상 내 사용자영역을 조정하는 단계; 및 상기 조정된 사용자영역에 대응하는 통화영상을 상기 상대방 장치로 전송하는 단계를 포함할 수 있다.The method of controlling the electronic device may include: adjusting a user area in the second image based on a user input received through an external device; and transmitting a call image corresponding to the adjusted user area to the counterpart device.
본 개시의 또 다른 양상에 따르면, 컴퓨터가 읽을 수 있는 코드로서, 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 상기 전자장치의 제어방법은, 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하는 단계; 상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하는 단계; 및 상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 단계를 포함한다.According to another aspect of the present disclosure, in a recording medium storing a computer program including a code for performing a control method of an electronic device as a computer readable code, the control method of the electronic device includes: identifying user-related information of the first image obtained by the method; identifying a user area in a second image acquired by the second camera based on the identified user-related information in response to switching from the first camera to another second camera; and transmitting the call image corresponding to the user area in the identified second image to the other party device of the video call through the interface unit.
본 개시에 따르면, 영상통화 중 카메라의 전환에 따라 발생하는 영상의 차이를 최소화하여 자연스러운 카메라 전환 서비스를 제공할 수 있다. 또한, 카메라 전환에 의해 영상에서 사용자가 원하지 않는 배경이나 사람의 노출을 방지함으로써 사생활 보호에도 기여할 수 있다. 이를 통해, 영상통화에서 필요한 대상을 상대방에게 송출하여 통화 집중도를 높일 수 있고, 이는 영상회의 등에서 업무 효율성을 높이는 요인이 될 수 있다.According to the present disclosure, it is possible to provide a natural camera switching service by minimizing an image difference that occurs according to a camera switching during a video call. In addition, it is possible to contribute to privacy protection by preventing exposure of a background or a person not desired by the user in the image by switching the camera. Through this, it is possible to increase the concentration of the call by transmitting the object required in the video call to the other party, which can be a factor to increase the work efficiency in the video conference.
본 개시의 실시예들의 상술한 및 다른 양상, 특징 및 그 장점은 다음의 첨부된 도면에 관한 설명으로부터 더 명확해 질 것이다. The above and other aspects, features and advantages of the embodiments of the present disclosure will become more apparent from the following description with reference to the accompanying drawings.
도 1은 일 실시예에 의한 카메라에 따른 영상 차이를 도시한 도면이다.1 is a diagram illustrating an image difference according to a camera according to an exemplary embodiment.
도 2는 일 실시예에 의한 전자장치의 구성을 도시한 블록도이다.2 is a block diagram illustrating a configuration of an electronic device according to an exemplary embodiment.
도 3은 일 실시예에 따른 전자장치의 동작 흐름도를 도시한 도면이다.3 is a diagram illustrating an operation flowchart of an electronic device according to an exemplary embodiment.
도 4는 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.4 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
도 5는 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.5 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
도 6은 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.6 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
도 7은 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.7 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
도 8은 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.8 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
이하에서는 첨부 도면을 참조하여 본 개시의 실시예들을 상세히 설명한다. 도면에서 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 지칭하며, 도면에서 각 구성요소의 크기는 설명의 명료성과 편의를 위해 과장되어 있을 수 있다. 다만, 본 개시의 기술적 사상과 그 핵심 구성 및 작용이 이하의 실시예에 설명된 구성 또는 작용으로만 한정되지는 않는다. 본 개시를 설명함에 있어서 본 개시와 관련된 공지 기술 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numbers or symbols refer to components that perform substantially the same functions, and the size of each component in the drawings may be exaggerated for clarity and convenience of description. However, the technical spirit of the present disclosure and its core configuration and operation are not limited to the configuration or operation described in the following embodiments. In describing the present disclosure, if it is determined that a detailed description of a known technology or configuration related to the present disclosure may unnecessarily obscure the subject matter of the present disclosure, the detailed description thereof will be omitted.
본 개시의 실시예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 개시의 실시예에서, '구성되다', '포함하다', '가지다' 등의 용어는 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, 본 개시의 실시예에서, '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있으며, 적어도 하나의 모듈로 일체화되어 구현될 수 있다. 또한, 본 개시의 실시예에서, 복수의 요소 중 적어도 하나(at least one)는, 복수의 요소 전부뿐만 아니라, 복수의 요소 중 나머지를 배제한 각 하나 혹은 이들의 조합 모두를 지칭한다.In an embodiment of the present disclosure, terms including an ordinal number such as first, second, etc. are used only for the purpose of distinguishing one element from another element, and the expression of the singular is plural, unless the context clearly dictates otherwise. includes the expression of In addition, in the embodiments of the present disclosure, terms such as 'consisting', 'comprising', 'having' and the like are one or more other features or numbers, steps, operations, components, parts, or the presence of a combination thereof. Or it should be understood that the possibility of addition is not precluded in advance. In addition, in an embodiment of the present disclosure, a 'module' or 'unit' performs at least one function or operation, may be implemented as hardware or software, or may be implemented as a combination of hardware and software, and may be integrated into at least one module and can be implemented. Also, in an embodiment of the present disclosure, at least one of the plurality of elements refers to all of the plurality of elements, as well as each one or a combination thereof excluding the rest of the plurality of elements.
도 1은 일 실시예의 영상을 도시한 도면이다.1 is a diagram illustrating an image according to an embodiment.
도 1에는 영상 A(1)와 영상 B(2)가 도시되어 있다. 영상 A(1)와 영상 B (2)는 동일한 상황에서 서로 다른 카메라에 의해 촬상된 것으로, 예컨대, 영상 A (1)는 이동가능한 전자장치인 휴대폰에 내장된 카메라(C1)에 의해 촬상된 것이고, 영상 B(2)는 위치가 고정되어 있는 전자장치인 TV에 거치된 카메라(C2)에 의해 촬상된 것으로 가정한다. 1 shows an image A(1) and an image B(2). Image A(1) and image B(2) are captured by different cameras in the same situation, for example, image A(1) is captured by a camera C1 built into a mobile phone, which is a mobile electronic device , it is assumed that the image B(2) was captured by the camera C2 mounted on the TV, which is an electronic device having a fixed position.
영상 A(1)의 경우, 휴대폰과 사용자의 거리가 가깝고, 휴대폰에 내장된 카메라(C1)가 TV에 거치된 카메라(C2)에 비해 상대적으로 화각이 좁아 사용자의 모습만이 표시된다. 영상 B(2)의 경우, 휴대폰보다 TV와 사용자의 거리가 멀고, 사용자가 카메라(C2)의 화각의 중심으로부터 상대적으로 외곽에 있다. 그리고, TV에 거치된 카메라(C2)의 화각이 휴대폰 카메라(C1)의 화각보다 넓어 사용자를 포함한 다른 사람들의 모습이 함께 표시된다.In the case of image A(1), the distance between the mobile phone and the user is close, and the camera C1 built into the mobile phone has a relatively narrow angle of view compared to the camera C2 mounted on the TV, so that only the user is displayed. In the case of image B(2), the distance between the TV and the user is greater than that of the mobile phone, and the user is relatively out of the center of the angle of view of the camera C2. In addition, the angle of view of the camera C2 mounted on the TV is wider than the angle of view of the mobile phone camera C1, so that other people including the user are displayed together.
이와 같이 영상은 촬상하는 카메라의 화각이나 카메라와 촬상되는 대상 간의 거리, 카메라의 위치 등에 의해 다르게 표시될 수 있다. 이하, 휴대폰에 내장된 카메라(C1)에서 TV에 거치된 카메라(C2)로 카메라가 전환되는 경우와 같이 화면이 바뀌는 경우, 사용자가 의도하지 않은 장면이 표시되는 등 사용자의 사생활 보호와 관련하여 발생할 수 있는 문제를 방지하는 기술에 대해 설명한다. In this way, the image may be displayed differently depending on the angle of view of the imaging camera, the distance between the camera and the object to be imaged, the position of the camera, and the like. Hereinafter, when the screen changes, such as when the camera is switched from the camera (C1) built into the mobile phone to the camera (C2) mounted on the TV, a scene not intended by the user is displayed, etc. Describe techniques to avoid possible problems.
일 실시예에 따르면, 전자장치(100)는, 도 1에 도시된 영상 A(1), 영상 B(2) 등 영상을 표시할 수 있는 디스플레이(121)를 포함하는 디스플레이장치로서 구현될 수 있다. 일 예로, 전자장치(100)는 TV, 컴퓨터, 스마트 폰, 태블릿, 휴대용 미디어 플레이어, 웨어러블 디바이스, 비디오 월, 전자액자 등을 포함할 수 있다. 그러나, 본 개시의 사상이 전자장치(100)의 구현 예시에 한정되지 않는 바, 다른 실시예로서, 전자장치(100)는, 유선 또는 무선 연결된 외부의 디스플레이로 신호를 전송하는 셋탑박스와 같은 영상처리장치로서 구현될 수도 있다.According to an embodiment, the electronic device 100 may be implemented as a display device including a display 121 capable of displaying images, such as the image A(1) and the image B(2) shown in FIG. 1 . . As an example, the electronic device 100 may include a TV, a computer, a smart phone, a tablet, a portable media player, a wearable device, a video wall, an electronic picture frame, and the like. However, the spirit of the present disclosure is not limited to the example implementation of the electronic device 100, and as another embodiment, the electronic device 100 transmits a signal to an external display connected by wire or wirelessly, such as an image such as a set-top box. It may be implemented as a processing device.
이하, 도면을 참조하여, 일 실시예에 따른 전자장치의 구성들에 대해 설명하기로 한다.Hereinafter, configurations of an electronic device according to an embodiment will be described with reference to the drawings.
도 2는 일 실시예에 의한 전자장치의 구성을 도시한 블록도이다.2 is a block diagram illustrating a configuration of an electronic device according to an exemplary embodiment.
도 2에 도시된 바와 같이, 전자장치(100)는 인터페이스부(110)를 포함할 수 있다. As shown in FIG. 2 , the electronic device 100 may include an interface unit 110 .
인터페이스부(110)는 유선 인터페이스부(111)를 포함할 수 있다. 유선 인터페이스부(111)는 지상파/위성방송 등 방송표준에 따른 방송신호를 수신할 수 있는 안테나가 연결되거나, 케이블 방송표준에 따른 방송신호를 수신할 수 있는 케이블이 연결될 수 있는 커넥터 또는 포트를 포함한다. 다른 예로서, 전자장치(100)는 방송신호를 수신할 수 있는 안테나를 내장할 수도 있다. 유선 인터페이스부(111)는 HDMI 포트, DisplayPort, DVI 포트, 썬더볼트, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오(super video), SCART 등과 같이, 비디오 및/또는 오디오 전송표준에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 USB 포트 등과 같은 범용 데이터 전송표준에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 광 전송표준에 따라 광케이블이 연결될 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 외부 마이크 또는 마이크를 구비한 외부 오디오기기가 연결되며, 오디오기기로부터 오디오 신호를 수신 또는 입력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 헤드셋, 이어폰, 외부 스피커 등과 같은 오디오기기가 연결되며, 오디오기기로 오디오 신호를 전송 또는 출력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 이더넷 등과 같은 네트워크 전송표준에 따른 커넥터 또는 포트를 포함할 수 있다. 예컨대, 유선 인터페이스부(111)는 라우터 또는 게이트웨이에 유선 접속된 랜카드 등으로 구현될 수 있다.The interface unit 110 may include a wired interface unit 111 . The wired interface unit 111 includes a connector or port to which an antenna capable of receiving a broadcast signal according to a broadcasting standard such as terrestrial/satellite broadcasting can be connected, or a cable capable of receiving a broadcast signal according to a cable broadcasting standard can be connected. do. As another example, the electronic device 100 may have a built-in antenna capable of receiving a broadcast signal. Wired interface unit 111 is an HDMI port, DisplayPort, DVI port, Thunderbolt, composite video, component (component) video, super video (super video), SCART, such as, such as, video and / or audio transmission standards according to It may include a connector or a port, and the like. The wired interface unit 111 may include a connector or port according to a universal data transmission standard, such as a USB port. The wired interface unit 111 may include a connector or a port to which an optical cable can be connected according to an optical transmission standard. The wired interface unit 111 is connected to an external microphone or an external audio device having a microphone, and may include a connector or a port capable of receiving or inputting an audio signal from the audio device. The wired interface unit 111 is connected to an audio device such as a headset, earphone, or external speaker, and may include a connector or port capable of transmitting or outputting an audio signal to the audio device. The wired interface unit 111 may include a connector or port according to a network transmission standard such as Ethernet. For example, the wired interface unit 111 may be implemented as a LAN card connected to a router or a gateway by wire.
유선 인터페이스부(111)는 상기 커넥터 또는 포트를 통해 셋탑박스, 광학미디어 재생장치와 같은 외부기기, 또는 외부 디스플레이장치나, 스피커, 서버 등과 1:1 또는 1:N(N은 자연수) 방식으로 유선 접속됨으로써, 해당 외부기기로부터 비디오/오디오 신호를 수신하거나 또는 해당 외부기기에 비디오/오디오 신호를 송신한다. 유선 인터페이스부(111)는, 비디오/오디오 신호를 각각 별개로 전송하는 커넥터 또는 포트를 포함할 수도 있다. The wired interface unit 111 is wired through the connector or port in a 1:1 or 1:N (N is a natural number) method with an external device such as a set-top box, an optical media player, or an external display device, speaker, server, etc. By being connected, a video/audio signal is received from the corresponding external device or a video/audio signal is transmitted to the corresponding external device. The wired interface unit 111 may include a connector or port for separately transmitting video/audio signals.
그리고, 일 실시예에 따르면, 유선 인터페이스부(111)는 전자장치(100)에 내장되나, 동글(dongle) 또는 모듈(module) 형태로 구현되어 전자장치(100)의 커넥터에 착탈될 수도 있다. In addition, according to an embodiment, the wired interface unit 111 is embedded in the electronic device 100 , but may be implemented in the form of a dongle or a module to be detachably attached to the connector of the electronic device 100 .
인터페이스부(110)는 무선 인터페이스부(112)를 포함할 수 있다. 무선 인터페이스부(112)는 전자장치(100)의 구현 형태에 대응하여 다양한 방식으로 구현될 수 있다. 예를 들면, 무선 인터페이스부(112)는 통신방식으로 RF(radio frequency), 지그비(Zigbee), 블루투스(bluetooth), 와이파이(Wi-Fi), UWB(Ultra WideBand) 및 NFC(Near Field Communication) 등 무선통신을 사용할 수 있다. 무선 인터페이스부(112)는 와이파이(Wi-Fi) 방식에 따라서 AP와 무선통신을 수행하는 무선통신모듈이나, 블루투스 등과 같은 1대 1 다이렉트 무선통신을 수행하는 무선통신모듈 등으로 구현될 수 있다. 무선 인터페이스부(112)는 네트워크 상의 서버와 무선 통신함으로써, 서버와의 사이에 데이터 패킷을 송수신할 수 있다. 무선 인터페이스부(112)는 적외선 통신표준에 따라 IR(Infrared) 신호를 송신 및/또는 수신할 수 있는 IR송신부 및/또는 IR수신부를 포함할 수 있다. 무선 인터페이스부(112)는 IR송신부 및/또는 IR수신부를 통해 리모컨 또는 다른 외부기기로부터 리모컨신호를 수신 또는 입력하거나, 다른 외부기기로 리모컨신호를 전송 또는 출력할 수 있다. 다른 예로서, 전자장치(100)는 와이파이(Wi-Fi), 블루투스(bluetooth) 등 다른 방식의 무선 인터페이스부(112)를 통해 리모컨 또는 다른 외부기기와 리모컨신호를 송수신할 수 있다.The interface unit 110 may include a wireless interface unit 112 . The wireless interface unit 112 may be implemented in various ways corresponding to the implementation form of the electronic device 100 . For example, the wireless interface unit 112 is a communication method RF (radio frequency), Zigbee (Zigbee), Bluetooth (bluetooth), Wi-Fi (Wi-Fi), UWB (Ultra WideBand) and NFC (Near Field Communication), etc. Wireless communication can be used. The wireless interface unit 112 may be implemented as a wireless communication module that performs wireless communication with an AP according to a Wi-Fi method, or a wireless communication module that performs one-to-one direct wireless communication such as Bluetooth. The wireless interface unit 112 may transmit and receive data packets to and from the server by wirelessly communicating with the server on the network. The wireless interface unit 112 may include an IR transmitter and/or an IR receiver capable of transmitting and/or receiving an IR (Infrared) signal according to an infrared communication standard. The wireless interface unit 112 may receive or input a remote control signal from a remote control or other external device through an IR transmitter and/or an IR receiver, or transmit or output a remote control signal to another external device. As another example, the electronic device 100 may transmit/receive a remote control signal to and from the remote control or other external device through the wireless interface unit 112 of another method such as Wi-Fi or Bluetooth.
전자장치(100)는 인터페이스부(110)를 통해 수신하는 비디오/오디오신호가 방송신호인 경우, 수신된 방송신호를 채널 별로 튜닝하는 튜너(tuner)를 더 포함할 수 있다.When the video/audio signal received through the interface unit 110 is a broadcast signal, the electronic device 100 may further include a tuner for tuning the received broadcast signal for each channel.
전자장치(100)가 디스플레이 장치로 구현되는 경우, 디스플레이부(120)를 포함할 수 있다. 디스플레이부(120)는 화면 상에 영상을 표시할 수 있는 디스플레이 패널을 포함한다. 디스플레이 패널은 액정 방식과 같은 수광 구조 또는 OLED 방식과 같은 자발광 구조로 마련된다. 디스플레이부(120)는 디스플레이 패널의 구조에 따라서 부가적인 구성을 추가로 포함할 수 있는데, 예를 들면 디스플레이 패널이 액정 방식이라면, 디스플레이부(120)는 액정 디스플레이 패널과, 광을 공급하는 백라이트유닛과, 액정 디스플레이 패널의 액정을 구동시키는 패널구동기판을 포함한다.When the electronic device 100 is implemented as a display device, it may include the display unit 120 . The display unit 120 includes a display panel capable of displaying an image on the screen. The display panel is provided with a light-receiving structure such as a liquid crystal type or a self-luminous structure such as an OLED type. The display unit 120 may further include additional components according to the structure of the display panel. For example, if the display panel is a liquid crystal type, the display unit 120 includes a liquid crystal display panel and a backlight unit for supplying light. and a panel driving substrate for driving the liquid crystal of the liquid crystal display panel.
전자장치(100)는 사용자입력부(130)를 포함할 수 있다. The electronic device 100 may include a user input unit 130 .
사용자입력부(130)는 사용자의 입력에 의해, 기설정된 다양한 제어 커맨드 또는 한정되지 않은 정보를 프로세서(180)에 전달한다. 사용자입력부(130)는 사용자 입력을 수신할 수 있는 다양한 입력수단을 포함한다.The user input unit 130 transmits various preset control commands or non-limited information to the processor 180 in response to a user's input. The user input unit 130 includes various input means capable of receiving a user input.
일 실시예에서 사용자입력부(130)는 전자장치(100)에 마련된 전원키, 숫자키, 메뉴키 등의 버튼을 포함하는 키패드(또는 입력패널)를 포함할 수 있다.In an embodiment, the user input unit 130 may include a keypad (or input panel) including buttons such as a power key, a number key, and a menu key provided in the electronic device 100 .
일 실시예에서 사용자입력부(130)는 전자장치(100)를 원격으로 제어 가능하게 기설정된 커맨드/데이터/정보/신호를 생성하여 전자장치(100)로 전송하는 입력장치를 포함할 수 있다. 입력장치는, 예를 들면, 리모컨(remote control), 게임콘솔(game console), 키보드(keyboard), 마우스(mouse) 등을 포함하며, 전자장치(100)와 이격 분리되어, 사용자 입력을 수신할 수 있다. In an embodiment, the user input unit 130 may include an input device that generates a preset command/data/information/signal to be able to remotely control the electronic device 100 and transmits the generated command/data/information/signal to the electronic device 100 . The input device includes, for example, a remote control, a game console, a keyboard, a mouse, and the like, and is separated from the electronic device 100 to receive a user input. can
리모컨에는 사용자 입력을 수신할 수 있는 적어도 하나의 버튼이 마련될 수 있다. 일 실시예에서 리모컨에는 사용자의 터치입력(터치제스처)을 수신하는 터치감지부 및/또는 사용자에 의한 리모컨 자체의 움직임을 감지하는 모션감지부가 마련될 수 있다. 일 실시예에서 입력장치는 리모컨 어플리케이션이 설치된 스마트폰과 같은 단말장치를 포함하며, 이 경우 터치스크린을 통한 사용자의 터치입력이 수신 가능하다.At least one button for receiving a user input may be provided in the remote control. In an embodiment, the remote control may be provided with a touch sensing unit that receives a user's touch input (touch gesture) and/or a motion sensing unit that detects movement of the remote control itself by the user. In an embodiment, the input device includes a terminal device such as a smartphone on which a remote control application is installed, and in this case, a user's touch input through the touch screen can be received.
입력장치는 전자장치(100) 본체와 무선통신이 가능한 외부장치가 되며, 무선통신은 블루투스, 적외선 통신, RF 통신, 무선랜, 와이파이 다이렉트 등을 포함한다.The input device becomes an external device capable of wireless communication with the main body of the electronic device 100 , and wireless communication includes Bluetooth, infrared communication, RF communication, wireless LAN, Wi-Fi Direct, and the like.
일 실시예에서 사용자입력부(130)는 사용자의 손의 움직임, 다시 말해, 핸드 제스처(hand gesture)(이하, 제스처 라고도 한다)를 감지하는 모션감지부를 포함할 수 있다. 전자장치(100)는 모션감지부는 손의 이동거리, 이동속도, 이동영역의 면적 등을 감지하여 데이터를 출력할 수 있다. In an embodiment, the user input unit 130 may include a motion sensing unit that detects a motion of the user's hand, that is, a hand gesture (hereinafter, also referred to as a gesture). The electronic device 100 may output data by detecting a movement distance, a movement speed, an area of a movement region, and the like, of the hand by the motion detection unit.
일 실시예에서 사용자입력부(130)는 디스플레이(121) 주변의 베젤영역에 대한 사용자의 터치를 검출할 수 있는 터치감지부를 포함할 수 있다.In an embodiment, the user input unit 130 may include a touch sensing unit capable of detecting a user's touch on the bezel area around the display 121 .
일 실시예에서 사용자로부터 발화된 음성을 수신할 수 있는 마이크로폰(150)와 같은 소리수신부(130)가 사용자입력부(130)에 포함될 수 있다.In an embodiment, a sound receiving unit 130 such as a microphone 150 capable of receiving a voice uttered by a user may be included in the user input unit 130 .
일 실시예에서, 사용자입력부(130)는 영상데이터에 대한 프라이버시 처리의 기준이 되는 설정 거리에 대한 사용자입력을 수신할 수 있다. 예를 들면, 사용자입력부(130)를 통해, 설정 거리 또는 설정 거리에 대응하는 기준 위치를 설정 또는 조정(변경)하기 위한 사용자입력이 수신될 수 있다.In an embodiment, the user input unit 130 may receive a user input for a set distance that is a standard for privacy processing for image data. For example, a user input for setting or adjusting (changing) a set distance or a reference position corresponding to the set distance may be received through the user input unit 130 .
전자장치(100)는 저장부(140)를 포함할 수 있다. 저장부(140)는 디지털화된 데이터를 저장한다. 저장부(140)는 전원의 제공 유무와 무관하게 데이터를 보존할 수 있는 비휘발성 속성의 스토리지(storage)와, 프로세서(180)에 의해 처리되기 위한 데이터가 로딩되며 전원이 제공되지 않으면 데이터를 보존할 수 없는 휘발성 속성의 메모리(memory)를 포함한다. 스토리지에는 플래시메모리(flash-memory), HDD(hard-disc drive), SSD(solid-state drive) ROM(Read Only Memory) 등이 있으며, 메모리에는 버퍼(buffer), 램(RAM; Random Access Memory) 등이 있다.The electronic device 100 may include a storage unit 140 . The storage unit 140 stores digitized data. The storage unit 140 is a nonvolatile storage capable of preserving data regardless of whether power is supplied or not, and data to be processed by the processor 180 is loaded, and data is stored when power is not provided. This includes memory with volatile properties that cannot be used. Storage includes flash-memory, hard-disc drive (HDD), solid-state drive (SSD), read-only memory (ROM), etc., and memory includes buffer and random access memory (RAM). etc.
전자장치(100)는 마이크로폰(150)을 포함할 수 있다. 마이크로폰(150)은 사용자 음성을 비롯한 외부 환경의 소리를 수집한다. 마이크로폰(150)은 수집된 소리의 신호를 프로세서(180)에 전달한다. 전자장치(100)는 사용자 음성을 수집하는 마이크로폰(150)을 구비하거나, 또는 인터페이스부(110)를 통해 마이크로폰을 가진 리모트 컨트롤러, 스마트폰 등의 외부장치로부터 음성신호를 수신할 수 있다. 외부장치에 리모트 컨트롤러 어플리케이션을 설치하여 전자장치(100)를 제어하거나 음성 인식 등의 기능을 수행할 수도 있다. 이와 같은 어플리케이션이 설치된 외부장치의 경우, 사용자 음성을 수신할 수 있으며, 외부장치는 전자장치(100)와 Wi-Fi/BT 또는 적외선 등을 이용하여 데이터 송수신 및 제어가 가능한 바, 상기 통신 방식을 구현할 수 있는 복수의 인터페이스부(110)가 전자장치(100) 내에 존재할 수 있다.The electronic device 100 may include a microphone 150 . The microphone 150 collects sounds of the external environment including the user's voice. The microphone 150 transmits the collected sound signal to the processor 180 . The electronic device 100 may include a microphone 150 for collecting user voices or may receive a voice signal from an external device such as a remote controller having a microphone or a smart phone through the interface unit 110 . A remote controller application may be installed in an external device to control the electronic device 100 or perform functions such as voice recognition. In the case of an external device installed with such an application, a user voice can be received, and the external device can transmit/receive and control data using the electronic device 100 and Wi-Fi/BT or infrared rays, etc. A plurality of interface units 110 that can be implemented may exist in the electronic device 100 .
전자장치(100)는 스피커(160)를 포함할 수 있다. 스피커(160)는 프로세서(180)에 의해 처리되는 오디오 데이터를 소리로 출력한다. 스피커(160)는 어느 한 오디오 채널의 오디오 데이터에 대응하게 마련된 단위 스피커를 포함하며, 복수 오디오 채널의 오디오 데이터에 각기 대응하도록 복수의 단위 스피커를 포함할 수 있다. 다른 실시예로서, 스피커(160)는 전자장치(100)와 분리되어 마련될 수 있으며, 이 경우 전자장치(100)는 오디오 데이터를 인터페이스부(110)를 통하여 스피커(160)로 전달할 수 있다.The electronic device 100 may include a speaker 160 . The speaker 160 outputs audio data processed by the processor 180 as sound. The speaker 160 may include a unit speaker provided to correspond to audio data of one audio channel, and may include a plurality of unit speakers to respectively correspond to audio data of a plurality of audio channels. As another embodiment, the speaker 160 may be provided separately from the electronic device 100 . In this case, the electronic device 100 may transmit audio data to the speaker 160 through the interface unit 110 .
전자장치(100)는 센서(170)를 포함할 수 있다. 센서(170)는, 전자장치(100)의 상태 또는 전자장치(100) 주변의 상태를 감지하고, 감지된 정보를 프로세서(180)로 전달할 수 있다. 센서(170)는, 카메라를 포함한다.The electronic device 100 may include a sensor 170 . The sensor 170 may detect a state of the electronic device 100 or a state around the electronic device 100 , and transmit the sensed information to the processor 180 . The sensor 170 includes a camera.
이 외에도 지자기 센서(Magnetic sensor), 가속도 센서(Acceleration sensor), 온/습도 센서, 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 기압 센서, 근접 센서, 및 RGB 센서(illuminance sensor) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.In addition, a magnetic sensor, an acceleration sensor, a temperature/humidity sensor, an infrared sensor, a gyroscope sensor, a position sensor (eg, GPS), a barometric pressure sensor, a proximity sensor, and an RGB sensor (illuminance sensor) It may include at least one, but is not limited thereto. Since a function of each sensor can be intuitively inferred from the name of a person skilled in the art, a detailed description thereof will be omitted.
전자장치(100)는 프로세서(180)를 포함할 수 있다. 프로세서(180)는 인쇄회로기판 상에 장착되는 CPU, 칩셋, 버퍼, 회로 등으로 구현되는 하나 이상의 하드웨어 프로세서를 포함하며, 설계 방식에 따라서는 SOC(system on chip)로 구현될 수도 있다. 프로세서(180)는 전자장치(100)가 디스플레이장치로 구현되는 경우에 디멀티플렉서, 디코더, 스케일러, 오디오 DSP(Digital Signal Processor), 앰프 등의 다양한 프로세스에 대응하는 모듈들을 포함한다. 여기서, 이러한 모듈들 중 일부 또는 전체가 SOC로 구현될 수 있다. 예를 들면, 디멀티플렉서, 디코더, 스케일러 등 영상처리와 관련된 모듈이 영상처리 SOC로 구현되고, 오디오 DSP는 SOC와 별도의 칩셋으로 구현되는 것이 가능하다.The electronic device 100 may include a processor 180 . The processor 180 includes one or more hardware processors implemented with a CPU, a chipset, a buffer, a circuit, etc. mounted on a printed circuit board, and may be implemented as a system on chip (SOC) depending on a design method. When the electronic device 100 is implemented as a display device, the processor 180 includes modules corresponding to various processes such as a demultiplexer, a decoder, a scaler, an audio digital signal processor (DSP), and an amplifier. Here, some or all of these modules may be implemented as SOC. For example, a module related to image processing such as a demultiplexer, decoder, and scaler may be implemented as an image processing SOC, and an audio DSP may be implemented as a chipset separate from the SOC.
프로세서(180)는 마이크로폰(150) 등에 의해 사용자 음성에 대한 음성신호를 획득하면, 음성신호를 음성데이터로 변환할 수 있다. 이 때, 음성데이터는 음성신호를 텍스트 데이터로 변환하는 STT(Speech-to-Text) 처리 과정을 통해 얻어진 텍스트 데이터일 수 있다. 프로세서(180)는 음성데이터가 나타내는 커맨드를 식별하고, 식별된 커맨드에 따라서 동작을 수행한다. 음성데이터 처리 과정과, 커맨드 식별 및 수행 과정은, 전자장치(100)에서 모두 실행될 수도 있다. 그러나, 이 경우에 전자장치(100)에 필요한 시스템 부하 및 소요 저장용량이 상대적으로 커지게 되므로, 적어도 일부의 과정은 네트워크를 통해 전자장치(100)와 통신 가능하게 접속되는 적어도 하나의 서버에 의해 수행될 수 있다.When a voice signal for the user's voice is obtained by the microphone 150 or the like, the processor 180 may convert the voice signal into voice data. In this case, the voice data may be text data obtained through a speech-to-text (STT) process for converting a voice signal into text data. The processor 180 identifies a command indicated by the voice data and performs an operation according to the identified command. The voice data processing process and the command identification and execution process may all be executed in the electronic device 100 . However, in this case, since the system load and required storage capacity required for the electronic device 100 become relatively large, at least a part of the process is performed by at least one server communicatively connected to the electronic device 100 through a network. can be performed.
일 실시예에 따른 프로세서(180)는 전자장치(100)와 같은 기기(Machine)가 읽을 수 있는 저장 매체(Storage Medium)에 저장된 소프트웨어의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 전자장치(100)와 같은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(Non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(예컨대, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.The processor 180 according to an embodiment may call at least one command among commands of software stored in a storage medium readable by a machine such as the electronic device 100 and execute it. . This enables a device such as the electronic device 100 to be operated to perform at least one function according to the called at least one command. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term refers to cases in which data is semi-permanently stored in a storage medium and temporary storage. It does not distinguish between cases where
한편, 프로세서(180)는 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하고, 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 식별된 사용자 관련 정보에 기초하여 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하고, 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부(110)를 통해 영상통화의 상대방 장치로 전송하기 위한 데이터 분석, 처리, 및 결과 정보 생성 중 적어도 일부를 규칙 기반 또는 인공지능(Artificial Intelligence) 알고리즘으로서 기계학습, 신경망 네트워크(neural network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용하여 수행할 수 있다.On the other hand, the processor 180 identifies the user-related information of the first image acquired by the first camera, and corresponds to the switch from the first camera to another second camera, based on the identified user-related information, the second Data analysis, processing, to identify the user area in the second image acquired by the camera, and transmit the call image corresponding to the user area in the identified second image to the other party device of the video call through the interface unit 110; And at least a part of the result information generation may be performed using at least one of machine learning, a neural network, and a deep learning algorithm as a rule-based or artificial intelligence algorithm.
프로세서(180)는 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하고, 식별된 사용자 관련 정보에 기초하여 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하여 인공지능 모델의 입력으로 사용하는 데에 적합한 형태로 변환할 수 있다. 인공지능 모델은 학습을 통해 만들어 질 수 있다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다.The processor 180 identifies the user-related information of the first image acquired by the first camera, and identifies the user area in the second image acquired by the second camera based on the identified user-related information to model the artificial intelligence It can be converted into a form suitable for use as an input of AI models can be created through learning. Here, being made through learning means that a basic artificial intelligence model is learned using a plurality of learning data by a learning algorithm, so that a predefined action rule or artificial intelligence model set to perform a desired characteristic (or purpose) is created means burden. The artificial intelligence model may be composed of a plurality of neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and a neural network operation is performed through an operation between the operation result of a previous layer and the plurality of weights.
추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론(Knowledge based Reasoning), 최적화 예측(Optimization Prediction), 선호 기반 계획(Preference-based Planning), 추천(Recommendation) 등을 포함한다Inference prediction is a technology for logically reasoning and predicting by judging information. It is a technology that uses knowledge based reasoning, optimization prediction, preference-based planning, and recommendation. includes
일 예로, 프로세서(180)는 학습부 및 인식부의 기능을 함께 수행할 수 있다. 학습부는 학습된 신경망 네트워크를 생성하는 기능을 수행하고, 인식부는 학습된 신경망 네트워크를 이용하여 데이터를 인식(또는, 추론, 예측, 추정, 판단)하는 기능을 수행할 수 있다. 학습부는 신경망 네트워크를 생성하거나 갱신할 수 있다. 학습부는 신경망 네트워크를 생성하기 위해서 학습 데이터를 획득할 수 있다. 일 예로, 학습부는 학습 데이터를 저장부(140) 또는 외부로부터 획득할 수 있다. 학습 데이터는, 신경망 네트워크의 학습을 위해 이용되는 데이터일 수 있으며, 상기한 동작을 수행한 데이터를 학습데이터로 이용하여 신경망 네트워크를 학습시킬 수 있다.For example, the processor 180 may perform the functions of the learning unit and the recognition unit together. The learning unit may perform a function of generating a learned neural network, and the recognition unit may perform a function of recognizing (or inferring, predicting, estimating, determining) data using the learned neural network. The learning unit may create or update the neural network. The learning unit may acquire learning data to generate a neural network. For example, the learning unit may acquire the learning data from the storage 140 or the outside. The learning data may be data used for learning of the neural network, and the neural network may be trained by using the data obtained by performing the above-described operation as learning data.
학습부는 학습 데이터를 이용하여 신경망 네트워크를 학습시키기 전에, 획득된 학습 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 학습 데이터들 중에서 학습에 이용될 데이터를 선별할 수 있다. 일 예로, 학습부는 학습 데이터를 기 설정된 포맷으로 가공하거나, 필터링하거나, 또는 노이즈를 추가/제거하여 학습에 적절한 데이터의 형태로 가공할 수 있다. 학습부는 전처리된 학습 데이터를 이용하여 상기한 동작을 수행하도록 설정된 신경망 네트워크를 생성할 수 있다.The learning unit may perform a preprocessing operation on the acquired training data before training the neural network using the training data, or may select data to be used for learning from among a plurality of training data. For example, the learning unit may process the learning data in a preset format, filter it, or add/remove noise to process the learning data into a form suitable for learning. The learner may generate a neural network set to perform the above-described operation by using the preprocessed learning data.
학습된 신경망 네트워크는, 복수의 신경망 네트워크(또는, 레이어)들로 구성될 수 있다. 복수의 신경망 네트워크의 노드들은 가중치를 가지며, 복수의 신경망 네트워크들은 일 신경망 네트워크의 출력 값이 다른 신경망 네트워크의 입력 값으로 이용되도록 서로 연결될 수 있다. 신경망 네트워크의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network) 및 심층 Q-네트워크 (Deep Q-Networks)과 같은 모델을 포함할 수 있다.The learned neural network network may be composed of a plurality of neural network networks (or layers). Nodes of the plurality of neural networks have weights, and the plurality of neural networks may be connected to each other so that an output value of one neural network is used as an input value of another neural network. Examples of neural networks include Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN) and It can include models such as Deep Q-Networks.
한편 인식부는 상기한 동작을 수행하기 위해, 타겟 데이터를 획득할 수 있다. 타겟 데이터는 저장부(140) 또는 외부로부터 획득된 것일 수 있다. 타겟 데이터는 신경망 네트워크의 인식 대상이 되는 데이터일 수 있다. 인식부는 타겟 데이터를 학습된 신경망 네트워크에 적용하기 전에, 획득된 타겟 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 타겟 데이터들 중에서 인식에 이용될 데이터를 선별할 수 있다. 일 예로, 인식부는 타겟 데이터를 기 설정된 포맷으로 가공하거나, 필터링 하거나, 또는 노이즈를 추가/제거하여 인식에 적절한 데이터의 형태로 가공할 수 있다. 인식부는 전처리된 타겟 데이터를 신경망 네트워크에 적용함으로써, 신경망 네트워크로부터 출력되는 출력값을 획득할 수 있다. 인식부는 출력값과 함께, 확률값 또는 신뢰도값을 획득할 수 있다.Meanwhile, the recognizer may acquire target data to perform the above-described operation. The target data may be obtained from the storage 140 or from the outside. The target data may be data to be recognized by the neural network. The recognizer may perform preprocessing on the acquired target data before applying the target data to the learned neural network, or select data to be used for recognition from among a plurality of target data. For example, the recognition unit may process the target data into a preset format, filter, or add/remove noise to process the target data into a form suitable for recognition. The recognizer may obtain an output value output from the neural network by applying the preprocessed target data to the neural network. The recognition unit may obtain a probability value or a reliability value together with the output value.
일 예로, 일 실시예에 따른 전자장치(100)의 제어방법은 컴퓨터 프로그램 제품 (Computer Program Product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은, 앞서 설명한, 프로세서(180)에 의해 실행되는 소프트웨어의 명령어들을 포함할 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예컨대, CD-ROM)의 형태로 배포되거나, 또는 어플리케이션 스토어(예컨대, 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예컨대, 스마트폰들) 간에 직접, 온라인으로 배포(예컨대, 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다. For example, the control method of the electronic device 100 according to an embodiment may be provided by being included in a computer program product. The computer program product may include instructions for software executed by the processor 180 , as described above. Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg, CD-ROM), or via an application store (eg, Play Store™) or between two user devices (eg, smartphones). It may be distributed directly, online (eg, downloaded or uploaded). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
도 3은 일 실시예에 따른 전자장치의 동작 흐름도를 도시한 도면이다. 3 is a diagram illustrating an operation flowchart of an electronic device according to an exemplary embodiment.
일 실시예에 따르면, 전자장치(100)는 영상통화(화상통화) 기능을 지원할 수 있다. 전자장치(100)에 영상통화 어플리케이션이 설치 및 실행됨에 따라, 영상통화 기능이 활성화됨으로써, 사용자에게 영상통화 서비스가 제공될 수 있다. 본 개시에서, 영상통화는 하나 또는 둘 이상의 상대방과 이루어지는 영상회의(화상회의)를 포함한다. According to an embodiment, the electronic device 100 may support a video call (video call) function. As the video call application is installed and executed in the electronic device 100 , the video call function is activated, so that a video call service may be provided to the user. In the present disclosure, a video call includes a video conference (video conference) with one or two or more counterparts.
일 실시예에 따르면, 프로세서(180)는 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별한다(S310).According to an embodiment, the processor 180 identifies user-related information of the first image acquired by the first camera ( S310 ).
제1카메라는 외장형으로써, 프로세서(180)는 인터페이스부(110)를 통해 제1카메라에 의해 획득된 데이터를 수신한다. 이 때, 음성이나 사운드의 경우, 전자장치(100)에 구비된 마이크로폰(150)으로부터 수집하거나, 인터페이스부(110)를 통해 마이크로폰을 가진 리모트 컨트롤러, 스마트폰 등의 외부장치로부터 음성신호를 수신할 수 있다. The first camera is an external type, and the processor 180 receives data obtained by the first camera through the interface unit 110 . At this time, in the case of voice or sound, it is possible to collect a voice signal from the microphone 150 provided in the electronic device 100 or receive a voice signal from an external device such as a remote controller or smart phone having a microphone through the interface unit 110 . can
사용자 관련 정보란 사용자 영역과 관련된 정보를 의미하며, 보다 구체적으로는, 영상통화의 특성상 통화를 하는 사용자의 얼굴(이목구비, 얼굴형, 헤어스타일 등), 사용자의 몸(오브젝트), 사용자의 목소리, 사용자 앞 혹은 뒤에 나타나는 물체나 배경, 화면에서 얼굴의 위치, 화면 비율, 화면 비율과 얼굴/오브젝트 비율 간 관계 등을 포함한다. User-related information means information related to the user area, and more specifically, due to the nature of the video call, the user's face (features, face shape, hairstyle, etc.), the user's body (object), the user's voice, It includes objects or backgrounds that appear in front of or behind the user, the position of the face on the screen, the aspect ratio, and the relationship between the aspect ratio and the face/object ratio.
일 실시예에 따르면, 프로세서(180)는 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 식별된 사용자 관련 정보에 기초하여 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별한다(S320).According to an embodiment, the processor 180 identifies a user area in the second image acquired by the second camera based on the identified user-related information, in response to switching from the first camera to another second camera. (S320).
이 때, 제2카메라는 제1카메라와 마찬가지로 외장형일 수 있고, 한편, 다른 실시예로서, 전자장치(100)는 전자장치(100) 주변을 촬상할 수 있는 카메라를 구비할 수 있다. 제2카메라가 외장형인 경우, 일 실시예로 유선 인터페이스(111) 혹은 무선 인터페이스(112)를 통해 연결되어 전자장치(100)에 거치된 형태로 존재할 수 있다.In this case, the second camera may be of an external type like the first camera, and on the other hand, as another embodiment, the electronic device 100 may include a camera capable of capturing the surroundings of the electronic device 100 . When the second camera is an external type, it may exist in the form of being mounted on the electronic device 100 by being connected through the wired interface 111 or the wireless interface 112 as an embodiment.
프로세서(180)는 제1카메라에서 다른 카메라인 제2카메라로 전환할 것을 요청하는 신호를 수신할 수 있다. 카메라 전환 요청은 인터페이스부(110)를 통해 외부장치로부터 수신하거나 사용자입력부(130)를 통해 수신할 수 있다. The processor 180 may receive a signal requesting to switch from the first camera to the second camera that is another camera. The camera switching request may be received from an external device through the interface unit 110 or may be received through the user input unit 130 .
사용자 영역은 사용자가 위치하는 영역을 의미하는 것으로, 예컨대, 사용자의 얼굴을 포함하는 얼굴 영역과 몸을 포함하는 오브젝트 영역을 포함한다. 프로세서(180)는 영상 인식 기술, 예컨대, 적외선 센서나 특징점을 추출하는 기술 등을 이용하여 사용자 얼굴을 식별할 수 있다. 그리고, 얼굴로 인식되는 영역에서 중심점을 기준으로 일정 범위 내 영역을 얼굴 영역으로 설정하고, 얼굴과 사용자의 몸을 포함하는 영역을 오브젝트 영역으로 설정할 수 있다.The user area refers to an area in which the user is located, and includes, for example, a face area including the user's face and an object area including the body. The processor 180 may identify the user's face using an image recognition technology, for example, an infrared sensor or a technology for extracting feature points. In addition, in the area recognized as a face, an area within a predetermined range based on the central point may be set as the face area, and an area including the face and the user's body may be set as the object area.
보다 구체적인 실시예는 도 4를 참조하여 설명한다.A more specific embodiment will be described with reference to FIG. 4 .
일 실시예에 따르면, 프로세서(180)는 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부(110)를 통해 영상통화의 상대방 장치로 전송한다(S330).According to an embodiment, the processor 180 transmits a call image corresponding to the user area in the identified second image to the other party device of the video call through the interface unit 110 (S330).
카메라가 제1카메라에서 제2카메라로 전환됨에 따라, 카메라의 화각이나 사용자와 카메라 간의 거리, 위치 등의 차이로 인하여 표시되는 영상에 차이가 있을 수 있다. As the camera is switched from the first camera to the second camera, there may be differences in displayed images due to differences in the angle of view of the camera or the distance and location between the user and the camera.
일 실시예에서는 이러한 영상의 차이로 인해 나타나는 불필요하거나 원하지 않는 영상의 부분이 표시되는 것을 방지하기 위해, 프로세서(180)는 제1영상 내 식별된 사용자 관련 정보에 기초하여 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 영상통화의 상대방 장치로 전송한다. 보다 구체적인 실시예는 도 5를 참조하여 설명한다.In one embodiment, in order to prevent an unnecessary or unwanted portion of the image from being displayed due to the difference in images, the processor 180 determines the user in the second image identified based on the user-related information identified in the first image. The call image corresponding to the area is transmitted to the other party's device of the video call. A more specific embodiment will be described with reference to FIG. 5 .
일 실시예에 따르면, 영상통화 중 카메라의 전환에 따라 발생하는 영상의 차이를 최소화하여 자연스러운 카메라 전환 서비스를 제공할 수 있다. 또한, 카메라 전환에 의해 영상에서 사용자가 원하지 않는 배경이나 사람의 노출을 방지함으로써 사생활 보호에도 기여할 수 있다. 이를 통해, 영상통화에서 필요한 대상을 상대방에게 송출하여 통화 집중도를 높일 수 있고, 이는 영상회의 등에서 업무 효율성을 높이는 요인이 될 수 있다.According to an embodiment, it is possible to provide a natural camera switching service by minimizing a difference in an image that occurs according to a camera switching during a video call. In addition, it is possible to contribute to privacy protection by preventing exposure of a background or a person not desired by the user in the image by switching the camera. Through this, it is possible to increase the concentration of the call by transmitting the object required in the video call to the other party, which can be a factor to increase the work efficiency in the video conference.
도 4는 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.4 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
본 도면은 도 3의 S320과 관련하여, 제1영상(10) 내 사용자영역의 위치 또는 크기에 기초하여 제2영상(20) 내 사용자 영역을 식별하는 모습을 도시한다. This figure shows a state in which the user area in the second image 20 is identified based on the location or size of the user area in the first image 10 in relation to S320 of FIG. 3 .
사용자 영역(410, 420)은, 앞서 설명한 바와 같이, 사용자가 위치하는 영역을 의미하는 것으로, 예컨대, 사용자의 얼굴을 포함하는 얼굴 영역(411, 421)과 몸을 포함하는 오브젝트 영역(412, 422)을 포함한다.As described above, the user areas 410 and 420 refer to areas in which the user is located, for example, face areas 411 and 421 including the user's face and object areas 412 and 422 including the body. ) is included.
사용자 영역을 식별하는 것은 추후 다른 영상과 비교하여 다른 영상에서 제1영상에 대응되는 영역을 식별할 수 있을 정도의 특징을 식별하는 것을 의미한다. 보다 구체적으로 영상 전체의 영역 또는 화면 영역에 대한 사용자 영역의 위치 혹은 크기 특성을 식별하는 것을 포함한다.Identifying the user area means identifying a characteristic sufficient to identify the area corresponding to the first image in another image by comparing it with other images later. More specifically, it includes identifying the location or size characteristic of the user area with respect to the entire image area or the screen area.
프로세서(180)는 제1카메라에 의해 표시되는 제1영상(10)에서는 먼저 얼굴 영역(411)과 오브젝트 영역(412)을 식별하고, 각 영역에 관련된 정보를 추출한다. The processor 180 first identifies a face region 411 and an object region 412 in the first image 10 displayed by the first camera, and extracts information related to each region.
일 예로, 프로세서(180)는 얼굴 영역(411)에서 사용자의 이목구비와 얼굴형, 눈썹모양, 헤어스타일을 인식하고, 오브젝트 영역(412)에서 사용자가 착용하고 있는 옷의 형태나 종류, 색상, 사용자의 포즈 등을 인식한다. For example, the processor 180 recognizes the user's features, face shape, eyebrow shape, and hairstyle in the face region 411 , and in the object region 412 , the shape, type, color, and user of clothes worn by the user. Recognize poses, etc.
이 외에도, 프로세서(180)는 사용자입력부(130)를 통해 수신되는 사용자입력에 기초하여 영상 내 사용자 영역을 식별할 수 있다. 이 때, 사용자입력은 사용자 음성 입력을 포함한다. 프로세서(180)는 인식한 사용자의 얼굴과 수신되는 사용자의 음성을 대응하여 저장부(150)에 저장할 수 있다.In addition, the processor 180 may identify a user area in the image based on a user input received through the user input unit 130 . In this case, the user input includes a user voice input. The processor 180 may store the recognized user's face and the received user's voice in the storage 150 in correspondence with each other.
한편, 제1영상(10)의 경우 제1카메라는 외장형으로써 프로세서(180)는 인터페이스부(110)를 통해 제1카메라에 의해 획득된 데이터를 수신하는 바, 인터페이스부(110)를 통해 제1카메라를 포함하는 외부장치로부터 제1영상(10)에 관련된 정보를 함께 수신할 수 있다. On the other hand, in the case of the first image 10 , the first camera is an external type, and the processor 180 receives data obtained by the first camera through the interface unit 110 , and the first camera through the interface unit 110 . Information related to the first image 10 may be received together from an external device including a camera.
일 실시예에 따른 사용자 관련 정보는 영상 내 사용자영역의 위치 또는 크기 중 적어도 하나에 관한 정보를 포함한다. 프로세서(180)는 제1영상(10) 내 사용자영역(410)의 위치 또는 크기에 기초하여 제2영상(20) 내 사용자 영역(420)을 식별할 수 있다. The user-related information according to an embodiment includes information about at least one of a location and a size of a user area in an image. The processor 180 may identify the user area 420 in the second image 20 based on the location or size of the user area 410 in the first image 10 .
프로세서(180)는 얼굴 영역(411)의 화면 상의 위치, 오브젝트 영역(412)의 화면 상의 위치, 화면 비율, 화면 비율과 얼굴 영역(411),오브젝트 영역(412) 비율 간 관계 등을 식별하고, 그에 기초하여 제1영상(10) 내 사용자영역(410)의 위치 또는 크기에 기초하여 제2영상(20) 내 사용자 영역(420)을 식별할 수 있다. The processor 180 identifies the position on the screen of the face region 411, the position on the screen of the object region 412, the aspect ratio, the relationship between the aspect ratio and the ratio of the face region 411, the object region 412, etc. Based thereon, the user area 420 in the second image 20 may be identified based on the location or size of the user area 410 in the first image 10 .
도 4에 도시된 바와 같이, 제1영상(10)이 표시되는 화면의 세로, 가로 길이가 각각 x, y이고, 제1영상(10)에서 식별된 얼굴 영역(411)의 세로, 가로 길이는 x', y', 오브젝트 영역(412)의 세로, 가로 길이는 x'', y'' 이다. 이 때, 화면 및 각 영역의 비율을 계산의 편의상 x:y, x':y', x'':y''로 둔다. As shown in FIG. 4 , the vertical and horizontal lengths of the screen on which the first image 10 is displayed are x and y, respectively, and the vertical and horizontal lengths of the face region 411 identified in the first image 10 are x', y', the vertical and horizontal lengths of the object region 412 are x'' and y''. In this case, the ratios of the screen and each area are set to x:y, x':y', and x'':y'' for convenience of calculation.
프로세서(180)는 제2카메라에 의해 획득된 제2영상(20)에서도 마찬가지로 얼굴 영역(421)과 오브젝트 영역(422)을 포함하는 사용자 영역(420)을 식별한다. 제2영상(20)의 세로, 가로 길이가 각각 a, b이고, 제2영상(20)에서 식별된 얼굴 영역(421)의 세로, 가로 길이는 a', b', 오브젝트 영역(422)의 세로, 가로 길이는 a'',b''이다. 이 때, 화면 및 각 영역의 비율을 계산의 편의상 a:b, a':b', a'':b''로 둔다. 또한 본 도면은 원근법을 고려하지 않고 도시한 것으로, 제1영상(10)과 제2영상(20)의 크기는 보이는 것과 달리 a가 x보다 훨씬 클 수 있다. 이하 나머지 도면에서 마찬가지이다.The processor 180 also identifies the user area 420 including the face area 421 and the object area 422 in the second image 20 acquired by the second camera. The vertical and horizontal lengths of the second image 20 are a and b, respectively, and the vertical and horizontal lengths of the face region 421 identified in the second image 20 are a′, b′, and the object region 422 . The length and width are a'',b''. In this case, the ratios of the screen and each area are set to a:b, a':b', a'':b'' for convenience of calculation. In addition, this drawing is illustrated without considering the perspective, and the sizes of the first image 10 and the second image 20 may differ from what is shown in that a may be much larger than x. Hereinafter, the same applies to the rest of the drawings.
이 때, 제2카메라에 의해 획득된 제2영상(20)의 경우 사용자를 포함하여 복수의 인물이 표시되는 바, 프로세서(180)는 각 인물 별로 사용자 영역을 식별할 수 있다. 프로세서(180)는 제2영상(20) 내에서 식별된 사용자 영역 중에서 제1영상(10)에서 식별된 사용자 영역(410)과 대응하는 사용자 영역(420)을 특정한다.In this case, in the case of the second image 20 acquired by the second camera, a plurality of people including the user are displayed, and the processor 180 may identify a user area for each person. The processor 180 specifies a user area 420 corresponding to the user area 410 identified in the first image 10 from among the user areas identified in the second image 20 .
혹은 보다 빠른 처리를 위하여 프로세서(180)는 제2영상(20)에서 제1영상(10) 내 사용자 영역(410)과 대응하는 사용자 영역(420)을 식별한 경우 나머지 인물에 대한 사용자 영역 식별 처리를 중단할 수 있다. Alternatively, for faster processing, the processor 180 identifies the user area 420 corresponding to the user area 410 in the first image 10 in the second image 20, processing the user area identification for the remaining persons. can be stopped
이 외에도 사용자 관련 정보는 카메라의 화각에 관한 정보를 포함한다. 프로세서(180)는 제1카메라의 화각과 제2카메라의 화각 간의 관계에 기초하여 제2영상 내 사용자 영역을 식별할 수 있다.In addition to this, the user-related information includes information about the angle of view of the camera. The processor 180 may identify the user area in the second image based on the relationship between the angle of view of the first camera and the angle of view of the second camera.
일 실시예에 따르면, 제1영상 내 사용자 영역을 식별하여 전환되는 제2영상에서 제1영상의 사용자 영역에 대응하는 영역을 보다 정확하게 식별할 수 있다. According to an embodiment, a region corresponding to the user region of the first image may be more accurately identified in the converted second image by identifying the user region in the first image.
도 5는 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.5 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
본 도면은 도 3의 S330과 관련하여, 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 모습을 도시한다. This figure shows a state in which a call image corresponding to the user area in the identified second image is transmitted to the other party device of the video call through the interface in relation to S330 of FIG. 3 .
제1영상(10) 내 사용자 영역과 제2영상(20) 내 사용자 영역을 식별하는 구성은 도 4에서 설명한 바와 같다. The configuration for identifying the user area in the first image 10 and the user area in the second image 20 is the same as described in FIG. 4 .
앞서 도 4와 관련하여 서술한 바와 동일하게, 프로세서(180)는 제1영상(10)에서 사용자 영역(410)을 식별하고, 제2영상(20)에서 그에 대응되는 사용자 영역(420)을 포함하는 제2영상(20)의 일부 영상(431)을 식별한다. 일부 영상(431)은 영상통화의 상대방 장치로 전송하게 되는 통화영상을 의미한다. 프로세서(180)는 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부(110)를 통해 영상통화의 상대방 장치로 전송할 수 있다. 일 실시예에 따르면, 프로세서(180)는 제2영상(20)의 불필요한 부분을 크롭(crop)하여 일부 영상(431)을 획득할 수 있다.As described above with reference to FIG. 4 , the processor 180 identifies the user area 410 in the first image 10 and includes the corresponding user area 420 in the second image 20 . A partial image 431 of the second image 20 is identified. The partial image 431 means a call image to be transmitted to the counterpart device of the video call. The processor 180 may transmit a call image corresponding to the user area in the identified second image to the other party device of the video call through the interface unit 110 . According to an embodiment, the processor 180 may obtain a partial image 431 by cropping an unnecessary portion of the second image 20 .
이외에도 프로세서(180)는 획득한 일부 영상(431)을 조정할 수 있다.In addition, the processor 180 may adjust some acquired images 431 .
일 예로, 프로세서(180)는 제1영상(10)이 표시되는 화면 비율(x:y)과 사용자 영역(410)의 비율(x':y') 및 사용자 영역(410)의 크기에 기초하여, 식별된 일부 영상(431)을 제1영상(10)이 표시되는 화면 비율(x:y)과 사용자 영역(410)의 비율(x':y', x'': y'')간의 관계를 유지하면서, 디스플레이(121) 화면의 비율에 맞도록 조정하여 조정된 영상(510)을 표시할 수 있다. As an example, the processor 180 is configured to display the first image 10 based on an aspect ratio (x:y) and a ratio (x':y') of the user area 410 and the size of the user area 410 . , the relationship between the aspect ratio (x:y) in which the identified partial image 431 is displayed and the ratio (x':y', x'':y'') of the user area 410 on which the first image 10 is displayed While maintaining , the adjusted image 510 may be displayed by adjusting it to fit the screen ratio of the display 121 .
도 5의 실시예에서는, 디스플레이(121)의 화면 비율과 영상(10)이 표시되는 화면 비율이 상이하다. 이 경우, 먼저 표시된 제1영상(10)이 표시되는 화면이 세로로 긴 점에 비추어, 프로세서(180)는 제1영상이 표시되는 화면의 세로(x)와 제1영상의 얼굴 영역(411)의 화면의 세로(x') 의 비율인 x: x'에 기초하여, 조정된 영상(510)이 디스플레이(121) 화면의 세로(a)와 조정된 영상(510)의 얼굴 영역(421)의 세로(a')의 비율 a:a'가 비율 x:x'에 대응하도록 조정할 수 있다. 다만, 이에 한정되지 않고, 프로세서(180)는 영역의 비율 뿐만 아니라, 영역의 위치(영역이 화면 내 가로, 세로 방향으로 어디에 위치하는지 등)에 대응하도록 조정할 수 있다. 이 때, 본 도면에서는 디스플레이(121) 화면과 제2영상(20)의 크기가 동일하다고 가정한다. In the embodiment of FIG. 5 , the aspect ratio of the display 121 and the screen ratio at which the image 10 is displayed are different. In this case, in light of the fact that the screen on which the first image 10 is displayed is vertically long, the processor 180 determines the length (x) of the screen on which the first image is displayed and the face region 411 of the first image. Based on x: x', which is the ratio of the vertical (x') of the screen of The ratio a:a' of the length (a') may be adjusted to correspond to the ratio x:x'. However, the present invention is not limited thereto, and the processor 180 may adjust not only the ratio of the area but also the location of the area (where the area is located in the horizontal and vertical directions on the screen, etc.). At this time, in this drawing, it is assumed that the size of the screen of the display 121 and the size of the second image 20 are the same.
도 6은 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.6 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment.
도 6에서는 앞서 설명한 실시예의 동작의 구체적인 예를 설명한다. 6 , a specific example of the operation of the above-described embodiment will be described.
사용자는 외부장치(200)를 이용하여 영상통화를 진행하고 있다. 외부장치는, 일 예로, 휴대폰일 수 있다. 사용자는 외부장치(200)에 내장된 카메라로 영상통화를 하다가, 전자장치(100)를 이용하여 영상통화를 진행하고자 한다. The user is conducting a video call using the external device 200 . The external device may be, for example, a mobile phone. The user intends to conduct a video call using the electronic device 100 while making a video call with the camera built into the external device 200 .
프로세서(180)는 외부장치(200), 인터페이스부(110), 혹은 사용자입력부(130) 중 어느 하나를 통해 카메라 전환을 요청하는 사용자입력을 수신한 것에 기초하여 영상통화 어플리케이션을 실행하고, 영상통화 기능을 활성화 시킨다. The processor 180 executes a video call application based on receiving a user input requesting camera change through any one of the external device 200 , the interface unit 110 , or the user input unit 130 , and performs a video call. Activate the function.
이 때, 프로세서(180)는 외부장치(200)에 표시된 영상(610)에 대한 데이터를 수신하여 영상(610)의 사용자 영역을 식별하거나, 영상(610)의 사용자 영역에 관한 정보를 인터페이스부(110)를 통해 수신할 수 있다. 프로세서(180)는 외부장치(200)로부터 인터페이스부(110)를 통해 사용자 영역에 관한 정보를 수신한 경우, 프로세서(180)는 수신한 정보를 기초로 사용자를 자동으로 탐색하고 수신한 정보에 포함된 화면의 비율과 동일한 비율로 영상을 잘라내어(crop) 디스플레이(121)에 표시할 수 있다.At this time, the processor 180 receives data about the image 610 displayed on the external device 200 to identify a user area of the image 610 or transmits information about the user area of the image 610 to the interface unit ( 110) can be received. When the processor 180 receives information about the user area from the external device 200 through the interface 110 , the processor 180 automatically searches for a user based on the received information and is included in the received information. The image may be cropped and displayed on the display 121 at the same ratio as the screen ratio.
프로세서(180)는 전자장치(100)와 연결된 다른 카메라를 이용하여 영상을 획득하고, 획득된 영상을 영상(610)의 사용자 영역에 대응하도록 영상(620)을 디스플레이(121)에 표시할 수 있다. 프로세서(180)는 식별한 영상(620)을 내 인터페이스부(110)를 통해 영상통화의 상대방 장치로 전송할 수 있다.The processor 180 may acquire an image using another camera connected to the electronic device 100 , and display the image 620 on the display 121 so that the acquired image corresponds to a user area of the image 610 . . The processor 180 may transmit the identified image 620 to the counterpart device of the video call through the internal interface unit 110 .
외부장치(200)에서 수행되던 영상통화 기능이 전자장치(100)에서 활성화 됨에 따라 전환된 카메라에 기초하여 획득되는 영상은 앞선 도면에서 기술한 바와 같이 영상(610)에 대응하도록 조정된다. As the video call function performed in the external device 200 is activated in the electronic device 100, the image acquired based on the switched camera is adjusted to correspond to the image 610 as described in the preceding figure.
프로세서(180)는 제1카메라에서 제2카메라로의 전환에 대응하여 영상(620)의 표시가 준비되는 동안, 즉, 사용자 영역이 식별되는 동안 상대방 장치로 영상(610)을 전송하거나 다른 영상으로 대체하여 전송할 수 있다. 이는 영상(620)의 표시가 미처 준비되지 못한 채 제2카메라로 표시되는 영상을 그대로 송출하는 경우 여전히 사용자가 원하지 않는 영상이 노출될 가능성이 있기 때문이다. 따라서, 영상(620) 표시 전 영상(610)이 일부 딜레이 되어 표시되거나, 화면 자체가 뿌옇게(blurring) 처리되거나, 화면이 준비 중임을 나타내는 화면을 표시하는 등 다양한 실시예가 적용될 수 있다. The processor 180 transmits the image 610 to the counterpart device while preparing the display of the image 620 in response to the transition from the first camera to the second camera, that is, while the user area is identified, or transfers the image 610 to another image. can be transferred instead. This is because, when the image displayed by the second camera is transmitted as it is without the display of the image 620 being prepared, there is a possibility that an image that the user does not want is still exposed. Accordingly, various embodiments may be applied, such as displaying the image 610 with a partial delay before displaying the image 620 , blurring the screen itself, or displaying a screen indicating that the screen is being prepared.
도 7은 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다. 도 7은 도 6에서 프로세서(180)가 상대방 장치로 영상(620)을 전송한 이후의 전자장치의 동작모습을 도시한다.7 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment. 7 illustrates an operation of the electronic device after the processor 180 transmits the image 620 to the counterpart device in FIG. 6 .
일 실시예에 따른 전자장치(100)는 사용자입력부(130)를 더 포함할 수 있다. 프로세서(180)는 사용자입력부(130)를 통해 수신되는 사용자입력에 기초하여, 영상(620) 내 사용자영역을 조정하고, 조정된 사용자영역에 대응하는 통화영상을 상대방 장치로 전송할 수 있다. The electronic device 100 according to an embodiment may further include a user input unit 130 . The processor 180 may adjust the user area in the image 620 based on the user input received through the user input unit 130 and transmit a call image corresponding to the adjusted user area to the counterpart device.
프로세서(180)는 영상(620) 내 사용자영역을 나타내는 UI(User Interface)를 표시하고, UI를 이용하여 수신되는 사용자입력에 기초하여 영상(620) 내 사용자영역을 조정할 수 있다.The processor 180 may display a user interface (UI) indicating the user area within the image 620 and adjust the user area within the image 620 based on a user input received using the UI.
영상(620)이 영상(610)의 사용자 영역에 대응하도록 표시되고 난 뒤에는 사용자는 자신이 의도하는 부분을 추가로 표시하거나, 확대/축소시켜 표시하는 등 다양하게 조정할 수 있다. After the image 620 is displayed to correspond to the user area of the image 610 , the user may make various adjustments, such as additionally displaying the intended part or displaying it by enlarging/reducing the image 610 .
사용자입력부(130)는 영상을 조정하는 사용자 입력을 수신할 수 있는 다양한 입력수단, 예컨대, 전자장치(100)에 마련된 물리적 버튼이나 터치패드(또는 입력패널)를 포함한다. 프로세서(180)는 디스플레이(121)에 영상을 조정할 수 있는 그래픽 유저 인터페이스(GUI: Graphic Usr Interface)를 표시하고, 터치패트를 통해 영상을 조정하는 사용자 입력을 수신할 수 있다. 혹은, 전자장치(100)와 이격 분리되어, 유, 무선 인터페이스부(110)를 통해 제어 가능한 신호를 전송하는 입력장치, 예컨대, 리모컨(remote control), 키보드(keyboard), 마우스(mouse) 등으로부터 표시된 GUI에서 영상을 조정하는 사용자 입력을 수신할 수 있다.The user input unit 130 includes various input means capable of receiving a user input for adjusting an image, for example, a physical button or a touch pad (or input panel) provided in the electronic device 100 . The processor 180 may display a graphic user interface (GUI) capable of adjusting an image on the display 121 and receive a user input for adjusting the image through a touch pad. Alternatively, it is separated from the electronic device 100 and is separated from an input device that transmits a controllable signal through the wired/wireless interface unit 110, for example, from a remote control, a keyboard, a mouse, etc. A user input for adjusting an image in the displayed GUI may be received.
도 7과 같이 사용자의 옆에 앉은 다른 사람을 함께 표시하고 싶은 경우, 프로세서(180) 사용자입력부(130)를 통해 수신되는 사용자입력에 기초하여, 영상(620)을 영상(710)과 같이 조정하여 디스플레이(121)에 표시한다. If you want to display another person sitting next to the user as shown in FIG. 7 , the image 620 is adjusted to the image 710 based on the user input received through the processor 180 user input unit 130 . displayed on the display 121 .
일 실시예에 따르면, 먼저 카메라를 자연스럽게 전환하여 전환 전 후의 영상에 불필요한 부분이 표시되는 것을 방지하고, 사용자가 원하는 영상을 송출할 수 있도록 하여 사용자의 편의를 높일 수 있다.According to an embodiment, first, by naturally switching the camera, unnecessary parts are prevented from being displayed in the image before and after the change, and the user's convenience can be enhanced by allowing the user to transmit the desired image.
도 8은 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다. 도 8은 도 6에서 프로세서(180)가 영상(620)을 표시한 이후의 전자장치의 동작모습을 도시한다.8 is a diagram illustrating an operation of an electronic device according to an exemplary embodiment. FIG. 8 shows an operation state of the electronic device after the processor 180 displays the image 620 in FIG. 6 .
도 8은 도 7에서 설명한 동작을 외부장치(200)를 이용하여 동작하는 것을 나타낸다. 프로세서(180)는 인터페이스부(110)를 통해 유선 혹은 무선으로 외부장치(200)와 연결될 수 있다. FIG. 8 shows that the operation described with reference to FIG. 7 is performed using the external device 200 . The processor 180 may be connected to the external device 200 by wire or wirelessly through the interface unit 110 .
프로세서(180)는 영상(620)의 데이터와, 외부장치(200)가 영상(620) 내 사용자영역을 조정하도록 영상(620) 내 사용자영역에 관한 정보를 인터페이스부(110)를 통해 외부장치(200)로 전송한다.The processor 180 transmits data of the image 620 and information on the user area within the image 620 so that the external device 200 adjusts the user area within the image 620 through the interface unit 110 to the external device ( 200) is sent.
본 실시예에서 외부장치(200)는 리모컨 어플리케이션이 설치된 스마트폰과 같은 단말장치를 포함하며, 이 경우 터치스크린을 통한 사용자의 터치입력이 수신 가능하다. 외부장치(200)는 전자장치(100) 본체와 무선통신이 가능하며, 무선통신은 블루투스, 적외선 통신, RF 통신, 무선랜, 와이파이 다이렉트 등을 포함한다.In this embodiment, the external device 200 includes a terminal device such as a smart phone in which a remote control application is installed, and in this case, a user's touch input through the touch screen can be received. The external device 200 is capable of wireless communication with the main body of the electronic device 100 , and the wireless communication includes Bluetooth, infrared communication, RF communication, wireless LAN, Wi-Fi Direct, and the like.
외부장치(200)는 수동으로 배율을 조정할 수 있는 소프트웨어를 통해, 사용자입력에 기초하여 영상(620)을 조정한다. 배율 조정 소프트웨어에는 원본 데이터에 대비하여 크롭되는 범위와 좌표를 설정할 수 있다.The external device 200 adjusts the image 620 based on a user input through software capable of manually adjusting the magnification. In the scaling software, you can set the cropped range and coordinates against the original data.
외부장치(200)는 영상(620)를 확대하는 사용자입력을 수신하여, 영상(620)을 확대하고, 이를 전자장치(100)로 드래그 앤 드롭(drag & drop)하여 다시 전송한다. The external device 200 receives a user input to enlarge the image 620 , enlarges the image 620 , drags and drops it to the electronic device 100 , and transmits it again.
이 때, 외부장치(200)에서 수행될 수 있는 사용자입력은 확대 뿐만 아니라 영상 편집과 관련하여 적용될 수 있는 기술에는 제한이 없고, 외부장치(200)에서 전자장치(100)로 다시 영상을 전송하는 기술은 드래그 앤 드롭 이외에도 다양하게 실시될 수 있다. At this time, the user input that can be performed in the external device 200 is not limited to a technique that can be applied in relation to image editing as well as enlargement, and the image is transmitted from the external device 200 back to the electronic device 100 . The technique may be variously implemented in addition to drag and drop.
또한, 원격 기술이 적용되어, 드래그 앤 드롭 등 전송 기술과 상관없이 실시간으로 조정이 가능할 수 있다.In addition, since remote technology is applied, adjustment in real time may be possible regardless of transmission technology such as drag and drop.
프로세서(180)는 인터페이스부(110)를 통해 수신한 영상(810)을 디스플레이(121)에 표시하거나, 인터페이스부(110)를 통해 수신한 사용자 입력에 기초하여 영상(620)을 영상(810)가 되도록 조정한다. The processor 180 displays the image 810 received through the interface unit 110 on the display 121 or converts the image 620 into the image 810 based on a user input received through the interface unit 110 . adjust to be
일 실시예에 따르면, 영상을 조정함에 있어서 무선 단말 등 외부 단말 장치를 이용하여 편리하게 조작할 수 있다. According to an embodiment, in adjusting an image, an external terminal device such as a wireless terminal may be used to conveniently manipulate the image.
이상, 본 개시의 바람직한 실시예들에 대하여 상세히 설명하였으나, 본 개시는 이에 한정되는 것은 아니며, 특허청구범위 내에서 다양하게 실시될 수 있다. As mentioned above, although preferred embodiments of the present disclosure have been described in detail, the present disclosure is not limited thereto, and may be variously practiced within the scope of the claims.

Claims (15)

  1. 전자장치에 있어서,In an electronic device,
    인터페이스부;interface unit;
    디스플레이; 및display; and
    제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하고,Identifies the user-related information of the first image acquired by the first camera,
    상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하고,In response to switching from the first camera to another second camera, based on the identified user-related information, identify a user area in the second image acquired by the second camera,
    상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 상기 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 프로세서를 포함하는 전자장치. and a processor for transmitting a call image corresponding to the user area in the identified second image to a counterpart device of the video call through the interface unit.
  2. 제1항에 있어서,According to claim 1,
    상기 사용자 관련 정보는 상기 제1영상 내 사용자영역의 위치 또는 크기 중 적어도 하나에 관한 정보를 포함하고,The user-related information includes information about at least one of the location and size of the user area in the first image,
    상기 프로세서는,The processor is
    상기 제1영상 내 사용자영역의 위치 또는 크기에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 전자장치.An electronic device for identifying a user area in the second image based on a location or size of the user area in the first image.
  3. 제1항에 있어서,According to claim 1,
    상기 사용자 관련 정보는 상기 제1카메라의 화각에 관한 정보를 포함하고,The user-related information includes information about the angle of view of the first camera,
    상기 프로세서는,The processor is
    상기 제1카메라의 화각과 상기 제2카메라의 화각 간의 관계에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 전자장치.An electronic device for identifying a user area in the second image based on a relationship between the angle of view of the first camera and the angle of view of the second camera.
  4. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 인터페이스부를 통해 상기 제1카메라를 포함하는 외부장치로부터 상기 사용자 관련 정보를 수신하는 전자장치.An electronic device receiving the user-related information from an external device including the first camera through the interface unit.
  5. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 제1카메라에서 상기 제2카메라로의 전환에 대응하여, 상기 제2영상 내 사용자 영역이 식별되는 동안 상기 상대방 장치로 상기 제1영상을 전송하거나 다른 영상으로 대체하여 전송하는 전자장치. In response to the switching from the first camera to the second camera, while the user area in the second image is identified, the electronic device transmits the first image to the counterpart device or replaces it with another image for transmission.
  6. 제1항에 있어서,According to claim 1,
    상기 제2카메라를 더 포함하는 전자장치. The electronic device further comprising the second camera.
  7. 제1항에 있어서,According to claim 1,
    사용자입력부를 더 포함하고,Further comprising a user input unit,
    상기 프로세서는,The processor is
    상기 사용자입력부를 통해 수신되는 사용자 입력에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 전자장치.An electronic device for identifying a user area in the second image based on a user input received through the user input unit.
  8. 제7항에 있어서,8. The method of claim 7,
    상기 사용자입력은 사용자 음성 입력을 포함하는 전자장치.The user input is an electronic device including a user voice input.
  9. 제1항에 있어서,According to claim 1,
    사용자입력부를 더 포함하고,Further comprising a user input unit,
    상기 프로세서는, The processor is
    상기 사용자입력부를 통해 수신되는 사용자입력에 기초하여, 상기 제2영상 내 사용자영역을 조정하고,Based on the user input received through the user input unit, adjust the user area in the second image,
    상기 조정된 사용자영역에 대응하는 통화영상을 상기 상대방 장치로 전송하는 전자장치.An electronic device for transmitting a call image corresponding to the adjusted user area to the counterpart device.
  10. 제9항에 있어서,10. The method of claim 9,
    상기 프로세서는,The processor is
    상기 제2영상 내 사용자영역을 나타내는 UI(User Interface)를 표시하고,Displaying a UI (User Interface) indicating a user area in the second image,
    상기 UI를 이용하여 수신되는 상기 사용자입력에 기초하여 상기 제2영상 내 사용자영역을 조정하는 전자장치.An electronic device for adjusting a user area in the second image based on the user input received using the UI.
  11. 제1항에 있어서,The method of claim 1,
    상기 프로세서는, The processor is
    외부장치를 통해 수신되는 사용자입력에 기초하여, 상기 제2영상 내 사용자영역을 조정하고,Based on a user input received through an external device, adjust the user area in the second image,
    상기 조정된 사용자영역에 대응하는 통화영상을 상기 상대방 장치로 전송하는 전자장치.An electronic device for transmitting a call image corresponding to the adjusted user area to the counterpart device.
  12. 제11항에 있어서,12. The method of claim 11,
    상기 프로세서는, The processor is
    상기 외부장치가 상기 제2영상 내 사용자영역을 조정하도록 상기 제2영상 내 사용자영역에 관한 정보를 상기 인터페이스부를 통해 상기 외부장치로 전송하는 전자장치.The electronic device transmits information on the user area in the second image to the external device through the interface unit so that the external device adjusts the user area in the second image.
  13. 전자장치의 제어방법에 있어서,In the control method of an electronic device,
    제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하는 단계;identifying user-related information of a first image acquired by a first camera;
    상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하는 단계; 및identifying a user area in a second image acquired by the second camera based on the identified user-related information in response to switching from the first camera to another second camera; and
    상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 단계를 포함하는 것을 특징으로 하는 전자장치의 제어방법. and transmitting a call image corresponding to the user area in the identified second image to a counterpart device of the video call through an interface unit.
  14. 제13항에 있어서,14. The method of claim 13,
    상기 사용자 관련 정보는 상기 제1영상 내 사용자영역의 위치 또는 크기 중 적어도 하나에 관한 정보를 포함하고,The user-related information includes information about at least one of the location and size of the user area in the first image,
    상기 제2영상 내 사용자 영역을 식별하는 단계는,The step of identifying the user area in the second image,
    상기 제1영상 내 사용자영역의 위치 또는 크기에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 단계를 포함하는 것을 특징으로 하는 전자장치의 제어방법. and identifying the user area in the second image based on the location or size of the user area in the first image.
  15. 컴퓨터가 읽을 수 있는 코드로서, 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, A computer-readable code, comprising a computer program stored thereon, comprising a code for performing a control method of an electronic device
    상기 전자장치의 제어방법은, The control method of the electronic device,
    제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하는 단계;identifying user-related information of a first image acquired by a first camera;
    상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하는 단계; 및identifying a user area in a second image acquired by the second camera based on the identified user-related information in response to switching from the first camera to another second camera; and
    상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 단계를 포함하는 것을 특징으로 하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체.and transmitting the call image corresponding to the user area in the identified second image to the other party device of the video call through the interface unit.
PCT/KR2021/011830 2020-09-08 2021-09-02 Electronic apparatus and control method thereof WO2022055174A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200114720A KR20220032867A (en) 2020-09-08 2020-09-08 Electronic apparatus and the method thereof
KR10-2020-0114720 2020-09-08

Publications (1)

Publication Number Publication Date
WO2022055174A1 true WO2022055174A1 (en) 2022-03-17

Family

ID=80632281

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/011830 WO2022055174A1 (en) 2020-09-08 2021-09-02 Electronic apparatus and control method thereof

Country Status (2)

Country Link
KR (1) KR20220032867A (en)
WO (1) WO2022055174A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120327176A1 (en) * 2011-06-21 2012-12-27 Broadcom Corporation Video Call Privacy Control
KR20120140190A (en) * 2011-06-20 2012-12-28 폴리콤 인코포레이티드 Automatic camera selection for videoconferencing
KR20140035753A (en) * 2012-09-14 2014-03-24 엘지전자 주식회사 Sns system and sns information protecting method thereof
KR20150097536A (en) * 2012-12-20 2015-08-26 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Camera with privacy modes
KR20160016553A (en) * 2014-07-31 2016-02-15 삼성전자주식회사 Method of modifying image including photographing restricted element, device and system for performing the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120140190A (en) * 2011-06-20 2012-12-28 폴리콤 인코포레이티드 Automatic camera selection for videoconferencing
US20120327176A1 (en) * 2011-06-21 2012-12-27 Broadcom Corporation Video Call Privacy Control
KR20140035753A (en) * 2012-09-14 2014-03-24 엘지전자 주식회사 Sns system and sns information protecting method thereof
KR20150097536A (en) * 2012-12-20 2015-08-26 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Camera with privacy modes
KR20160016553A (en) * 2014-07-31 2016-02-15 삼성전자주식회사 Method of modifying image including photographing restricted element, device and system for performing the same

Also Published As

Publication number Publication date
KR20220032867A (en) 2022-03-15

Similar Documents

Publication Publication Date Title
WO2020171583A1 (en) Electronic device for stabilizing image and method for operating same
CN108900790B (en) Video image processing method, mobile terminal and computer readable storage medium
CN110602401A (en) Photographing method and terminal
WO2018070762A1 (en) Device and method of displaying images
WO2021190428A1 (en) Image capturing method and electronic device
WO2013172636A1 (en) Display apparatus, server, and controlling method thereof
WO2022030855A1 (en) Electronic device and method for generating image by applying effect to subject and background
CN108616687B (en) Photographing method and device and mobile terminal
WO2014107025A1 (en) Method and apparatus for controlling contents in electronic device
WO2021167231A1 (en) Electronic device and control method therefor
WO2022055174A1 (en) Electronic apparatus and control method thereof
WO2021256760A1 (en) Movable electronic device and method for controlling same
WO2022255730A1 (en) Electronic device and control method thereof
WO2021172713A1 (en) Electronic device and control method therefor
WO2021107308A1 (en) Electronic device and control method therefor
WO2017086635A1 (en) Remote control device, method for driving remote control device, image display device, method for driving image display device, and computer-readable recording medium
WO2020075925A1 (en) Mobile device and control method for mobile device
WO2022025420A1 (en) Electronic device and control method therefor
WO2022124640A1 (en) Electronic device and control method thereof
WO2023090893A1 (en) Method for providing user interface supporting interaction, and electronic device performing same
WO2022092530A1 (en) Electronic device and control method thereof
WO2022050622A1 (en) Display device and method of controlling same
WO2022065663A1 (en) Electronic device and control method thereof
WO2017122961A1 (en) Display apparatus and operating method thereof
WO2022114482A1 (en) Electronic device and method for controlling same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21867040

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21867040

Country of ref document: EP

Kind code of ref document: A1