WO2022065663A1 - Electronic device and control method thereof - Google Patents

Electronic device and control method thereof Download PDF

Info

Publication number
WO2022065663A1
WO2022065663A1 PCT/KR2021/009866 KR2021009866W WO2022065663A1 WO 2022065663 A1 WO2022065663 A1 WO 2022065663A1 KR 2021009866 W KR2021009866 W KR 2021009866W WO 2022065663 A1 WO2022065663 A1 WO 2022065663A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
size
user image
image
reference body
Prior art date
Application number
PCT/KR2021/009866
Other languages
French (fr)
Korean (ko)
Inventor
장성현
정성욱
Original Assignee
삼성전자(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자(주) filed Critical 삼성전자(주)
Publication of WO2022065663A1 publication Critical patent/WO2022065663A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Definitions

  • the present invention relates to an electronic device and a method for controlling the same, and more particularly, to an electronic device for enlarging or reducing a user image and a method for controlling the same.
  • the video call function is a function that provides convenience for the user to talk with the other party while viewing the user image or the other party image by displaying the user's image of the user or the other party's image on the screen of the electronic device.
  • a multi-party video conference is also possible while viewing the images of the plurality of counterparts.
  • the user in the user image or the counterpart in the counterpart image may not be displayed in a predetermined size.
  • the predetermined size includes the actual body size of the user or the other party.
  • the electronic device enlarges or reduces the user image or the counterpart image so that the user in the user image or the counterpart in the counterpart image is displayed in the actual body size of the user or the counterpart. Since the user can make a video call while looking at the user or the other party displayed in actual body size, the user can have a more lively conversation and can concentrate more on the conversation.
  • the electronic device utilizes the reference information in enlarging or reducing the user image or the counterpart image.
  • the reference information may include information about the actual body size of the user or the other party. However, since the body size is different for each user or for each counterpart, convenience and efficiency may be reduced in that reference information must be input one by one or received from the outside.
  • An object of the present invention is to increase convenience and efficiency by excluding unnecessary processes in enlarging or reducing a user image or a counterpart image in order to display the user in the user image or the counterpart in the counterpart image in the actual body size of the user or the counterpart.
  • An object of the present invention is to provide an electronic device capable of improving and a method for controlling the same.
  • An object of the present invention is to obtain a user image through a camera, identify a reference body region of the user in the user image, and a user image to be displayed on the display based on the screen size of the display on which the user image is to be displayed
  • the reference body region includes a region corresponding to the user's iris.
  • the processor obtains the user image from an external device, and performs an operation related to a video call based on the received user image.
  • the user image includes a plurality of user images
  • the processor enlarges or reduces the plurality of user images displayed on the display so that the reference body regions of the plurality of users in the plurality of user images have the same size.
  • the processor may reduce the user image so that the main region corresponds to the screen size when the main region of the user image corresponding to the reference body region corresponds to the reference size exceeds the screen size of the display.
  • the user image includes a user region including the reference body region and a background region, and the processor enlarges the user image so that the reference body region corresponds to the reference size while maintaining the size of the background region. or reduce
  • the processor identifies a position of the reference body region, and moves the user image so that the position of the reference body region corresponds to a reference position defined in the screen of the display.
  • the processor identifies the degree of participation of the user based on a change in the user area corresponding to the user in the user image, and enlarges or reduces the user image based on the identified degree of participation.
  • the processor identifies a gaze direction of the user based on a change in a user area corresponding to the user in the user image, and moves the user image according to the identified gaze direction.
  • the processor adjusts the reference size based on the user's viewing distance, and enlarges or reduces the user image so that the size of the reference body region corresponds to the adjusted reference size.
  • the processor enlarges or reduces the user image so that a reference body region selected based on a priority among a plurality of reference body regions corresponds to the reference size.
  • the processor sets the priority based on a user input.
  • An object of the present invention is to obtain a user image; identifying a reference body region of the user in the user image; identifying the size of the reference body region in the user image to be displayed on the display based on the screen size of the display on which the user image is to be displayed; and enlarging or reducing the user image to be displayed on the display so that the size of the reference body region corresponds to the reference size defined based on the reference body of a plurality of users.
  • the obtaining of the user image may include: obtaining the user image from an external device; and performing an operation related to a video call based on the received user image.
  • the user image includes a plurality of user images
  • the step of enlarging or reducing the user image includes a plurality of user images displayed on the display such that the sizes of reference body regions of the plurality of users in the plurality of user images are the same. Including the step of enlarging or reducing the.
  • the step of enlarging or reducing the user image may include, when a main region of the user image corresponding to the reference body region of the reference size exceeds the screen size of the display, the main region corresponds to the screen size. and reducing the user image.
  • the user image includes a user region including the reference body region and a background region, and the step of enlarging or reducing the user image includes maintaining the size of the background region, and adjusting the reference body region to the reference size. and enlarging or reducing the user image to correspond to it.
  • the method may further include identifying a position of the reference body region, wherein the enlarging or reducing the user image includes moving the user image so that the position of the reference body region corresponds to a defined reference position within the screen of the display. including the steps of
  • An object of the present invention is to provide a computer-readable code, comprising the steps of: acquiring a user image; identifying a reference body region of the user in the user image; identifying the size of the reference body region in the user image to be displayed on the display based on the screen size of the display on which the user image is to be displayed; and enlarging or reducing the user image to be displayed on the display so that the size of the reference body region corresponds to the reference size defined based on the reference body of a plurality of users. It can also be achieved by a recorded recording medium.
  • FIG 1 illustrates an electronic device according to an embodiment of the present invention.
  • FIG. 2 shows an example of the configuration of the electronic device of FIG. 1 .
  • FIG. 3 shows an example of a control method for the electronic device of FIG. 1 .
  • FIG. 4 shows a specific example of identifying a reference body region in relation to operation S32 of FIG. 3 .
  • FIG. 5 shows a specific example of identifying the size of a reference body region in relation to operation S33 of FIG. 3 .
  • FIG. 6 illustrates an additional example of acquiring a counterpart image in relation to operation S31 of FIG. 3 .
  • FIG. 7 illustrates an additional example of acquiring a user image and a counterpart image together with respect to operation S31 of FIG. 3 .
  • FIG. 8 illustrates another example of enlarging or reducing a user image and a counterpart image in the case of a vertical display in relation to operation S34.
  • FIG. 9 shows an additional example of identifying a main region in relation to operation S34 of FIG. 3 .
  • FIG. 10 illustrates an example of additionally identifying a background region in addition to the operation of identifying a reference body region in relation to operation S32 of FIG. 3 .
  • FIG. 11 shows an example of enlarging or reducing the user image based on the position of the reference body region in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to operation S32 of FIG. 3 do.
  • FIG. 12 shows an example of enlarging or reducing the user image based on the user's participation in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to the embodiment of FIG. 3 . do.
  • FIG. 13 is an example of enlarging or reducing the user image based on the gaze direction of the user area in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to the embodiment of FIG. show
  • FIG. 14 shows an example of enlarging or reducing the user image based on the user viewing distance in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to the embodiment of FIG. 3 . .
  • 15 shows an alternative example of selecting a reference body region according to priority in relation to operation S32 of FIG. 3 .
  • FIG. 16 shows a specific example of setting the priority of a reference body region based on a user input with reference to FIG. 15 .
  • FIG 1 illustrates an electronic device according to an embodiment of the present invention.
  • the electronic device 10 is a set-top that does not include a display 12 as well as an image display device such as a TV, a smart phone, a tablet, a portable media player, a wearable device, a video wall, an electronic picture frame, etc. It is implemented with various types of devices, such as image processing devices such as boxes, household appliances such as refrigerators and washing machines, and information processing devices such as computer bodies.
  • the electronic device 10 is implemented as an AI speaker, an AI robot, etc. equipped with an artificial intelligence (AI) function.
  • AI artificial intelligence
  • the type of the electronic device 10 is not limited thereto.
  • the electronic device 10 is implemented as a TV.
  • the electronic device 10 may perform a video call function.
  • the video call function displays the user image 3 photographing the user 1 or the counterpart image 9 in FIG. It is a function that provides convenience to talk with the other party 7 while viewing the user area 2 in the user image 3 or the counterpart area (8 in FIG. 6 ) in the counterpart image 9 .
  • the user area 2 includes an area 2 within the user image 3 corresponding to the user 1
  • the counterpart area 8 includes an area 8 within the counterpart image 9 corresponding to the counterpart 7 .
  • the user image 3 may be acquired through the camera 13 of the electronic device 10
  • the counterpart image 9 may be acquired from an external device ( 20 in FIG. 6 ).
  • the electronic device 10 enlarges or reduces the user image 3 .
  • the size of the user area 2 in the user image 3 may exceed or fall short of a predetermined size.
  • the predetermined size includes the actual body size of the user 1 .
  • the predetermined size may be variously set.
  • the electronic device 10 enlarges or reduces the user image 3 so that the size of the user area 2 in the user image 3 corresponds to the body size of the user 1 .
  • the enlargement or reduction of the user image 3 will be described in detail with reference to FIG. 4 and the like.
  • the electronic device 10 enlarges or reduces the counterpart image 9 so that the size of the counterpart region 8 in the counterpart image 9 corresponds to the actual body size of the counterpart 7 . This will be described with reference to FIG. 6 and the like.
  • the user image 3 or the counterpart image so that the user region 2 in the user image 3 or the counterpart region 8 in the counterpart image 9 is displayed in the body size of the user 1 or the counterpart 7 Since (9) can be enlarged or reduced, it is possible to provide liveliness during a video call, and to create an environment where you can focus more on conversation.
  • FIG. 2 shows an example of the configuration of the electronic device of FIG. 1 .
  • the configuration of the electronic device 10 will be described in detail with reference to FIG. 2 .
  • the electronic device 10 may be implemented as various types of devices, and thus the present embodiment does not limit the configuration of the electronic device 10 .
  • the electronic device 10 is not implemented as a display device such as a TV.
  • the electronic device 10 may not include components for displaying an image, such as the display 12 .
  • the electronic device 10 when the electronic device 10 is implemented as a set-top box, the electronic device 10 outputs an image signal to an external TV through the interface unit 11 .
  • the electronic device 10 includes an interface unit 11 .
  • the interface unit 11 is connected to the external device 20 and the like to transmit and receive data.
  • the interface unit 11 connects to various devices connected through a network.
  • the interface unit 11 includes a wired interface unit.
  • the wired interface unit includes a connector or port to which an antenna capable of receiving a broadcast signal according to a broadcasting standard such as terrestrial/satellite broadcasting is connected, or a cable capable of receiving a broadcast signal according to the cable broadcasting standard is connected.
  • the electronic device 10 may have a built-in antenna capable of receiving a broadcast signal.
  • the wired interface unit includes a connector or port according to video and/or audio transmission standards, such as HDMI port, DisplayPort, DVI port, Thunderbolt, Composite video, Component video, Super Video, SCART, etc. includes
  • the wired interface unit includes a connector or port according to a universal data transmission standard such as a USB port.
  • the wired interface unit includes a connector or a port to which an optical cable can be connected according to an optical transmission standard.
  • the wired interface unit includes an internal audio receiver.
  • the wired interface unit is connected to an external audio device having an audio receiver and includes a connector or a port capable of receiving or inputting an audio signal from the audio device.
  • the wired interface unit is connected to an audio device such as a headset, earphone, or external speaker, and includes a connector or port capable of transmitting or outputting an audio signal to the audio device.
  • the wired interface unit includes a connector or port according to a network transmission standard such as Ethernet.
  • the wired interface unit is implemented as a LAN card connected to a router or a gateway by wire.
  • the wired interface unit is connected to an external device such as a set-top box, an optical media player, or an external display device, a speaker, a server, etc. in a 1:1 or 1:N (N is a natural number) method through the connector or port, so that the corresponding It receives a video/audio signal from an external device or transmits a video/audio signal to the corresponding external device.
  • the wired interface unit may include a connector or a port for separately transmitting video/audio signals.
  • the wired interface unit may be embedded in the electronic device 10 , or implemented in the form of a dongle or a module to be detachably attached to the connector of the electronic device 10 .
  • the interface unit 11 includes a wireless interface unit.
  • the wireless interface unit is implemented in various ways corresponding to the implementation form of the electronic device 10 .
  • the wireless interface unit uses wireless communication such as RF (Radio Frequency), Zigbee, Bluetooth, Wi-Fi, UWB (Ultra-Wideband) and NFC (Near Field Communication) as a communication method.
  • the wireless interface unit is implemented as a wireless communication module for performing wireless communication with the AP according to the Wi-Fi method or a wireless communication module for performing one-to-one direct wireless communication such as Bluetooth.
  • the wireless interface unit transmits and receives data packets by wirelessly communicating with the external device 20 on the network.
  • the wireless interface unit includes an IR transmitter and/or an IR receiver capable of transmitting and/or receiving an IR (Infrared) signal according to an infrared communication standard.
  • the wireless interface unit receives or inputs a remote controller signal from the remote controller or other external device through the IR transmitter and/or the IR receiver, or transmits or outputs a remote controller signal to the remote controller or other external device.
  • the electronic device 10 transmits/receives a remote controller signal to and from a remote controller or other external device through a wireless interface unit of another method such as Wi-Fi or Bluetooth.
  • the remote controller includes a smart phone and the like, and a remote controller application is installed on the smart phone or the like.
  • a smartphone or the like performs a function of a remote controller, for example, a function of controlling the electronic device 10 through an installed application.
  • These remote controller applications are installed in various external devices such as AI speakers and AI robots.
  • the electronic device 10 When the video/audio signal received through the interface unit 11 is a broadcast signal, the electronic device 10 further includes a tuner for tuning the received broadcast signal for each channel.
  • the electronic device 10 includes a display 12 .
  • the display 12 includes a display panel capable of displaying an image on a screen.
  • the display panel may have various screen sizes. For example, it may be provided in various forms having different screen sizes, such as a vertical type and a horizontal type.
  • the display panel is provided with a light-receiving structure such as a liquid crystal type or a self-luminous structure such as an OLED type.
  • the display 12 may further include additional components according to the structure of the display panel.
  • the display panel is a liquid crystal type
  • the display 12 includes a liquid crystal display panel, a backlight unit for supplying light, and liquid crystal. and a panel driving substrate for driving the liquid crystal of the display panel.
  • the display 12 is omitted when the electronic device 10 is implemented as a set-top box or the like.
  • the electronic device 10 includes a camera 13 .
  • the camera 13 photographs the front of the electronic device 10 .
  • the user area 2 in the user image 3 may be identified based on the image captured by the camera 13 . However, since the present invention is not limited thereto, the presence or absence of the user area 2 in the user image 3 and the movement of the user 1 may be identified.
  • the camera 13 is implemented as a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD) type camera. Since the camera 13 is not limited to the internal camera 13, it includes a camera provided in an external device. In this case, an image signal obtained by the camera from an external device may be received or input through the interface unit 11 .
  • CMOS complementary metal oxide semiconductor
  • CCD charge coupled device
  • the electronic device 10 includes a communication unit 15 .
  • the communication unit 15 is connected to the external device 20 and the like to transmit video/audio signals.
  • the communication unit 15 includes at least one of a wired interface unit and a wireless interface according to a design method, and performs at least one function of the wired interface unit and the wireless interface.
  • the electronic device 10 includes a user input unit 14 .
  • the user input unit 14 includes various types of input interface related circuits provided to be operated by the user 1 in order to receive a user input.
  • the user input unit 14 may be configured in various forms depending on the type of the electronic device 10 , for example, a mechanical or electronic button unit of the electronic device 10 , a touch pad, a touch screen installed on the display 12 , etc. There is this.
  • the electronic device 10 includes an output unit 16 .
  • the output unit 16 may be implemented as a speaker that outputs audio based on an audio signal.
  • the speaker includes an internal speaker or an external speaker provided in an external device. When audio is output through the external speaker, the audio signal may be transmitted to the external device through the interface unit 11 .
  • the display 12 , the camera 13 , the user input unit 14 , the communication unit 15 , the output unit 16 , etc. have been described as separate components from the interface unit 11 , but the interface unit 11 according to the design method It can be configured to be included in
  • the electronic device 10 includes a storage unit 17 .
  • the storage unit 17 stores digitized data.
  • the storage unit 17 includes storage of non-volatile properties capable of preserving data regardless of whether or not power is provided.
  • the storage includes a flash memory, a hard-disc drive (HDD), a solid-state drive (SSD), a read only memory (ROM), and the like.
  • the storage unit 17 is loaded with data to be processed by the processor 4 , and includes a memory having a volatile property that cannot store data when power is not provided.
  • the memory includes a buffer, a random access memory, and the like.
  • the electronic device 10 includes a processor 4 .
  • the processor 4 includes one or more hardware processors implemented as a CPU, a chipset, a buffer, a circuit, etc. mounted on a printed circuit board, and may be implemented as a system on chip (SOC) depending on a design method.
  • SOC system on chip
  • the processor 4 includes modules corresponding to various processes such as a demultiplexer, a decoder, a scaler, an audio digital signal processor (DSP), and an amplifier.
  • DSP audio digital signal processor
  • some or all of these modules are implemented as SOC.
  • a module related to image processing such as a demultiplexer, a decoder, and a scaler may be implemented as an image processing SOC
  • an audio DSP may be implemented as a chipset separate from the SOC.
  • the processor 4 identifies the reference body region ( 5 in FIG. 4 ) of the user region 2 in the user image 3 .
  • the processor 4 determines the size of the reference body region 5 in the user image 3 to be displayed on the display 12 based on the screen size (w in FIG. 5 ) of the display 12 on which the user image 3 is to be displayed. (FIG. 4 a) is identified.
  • the processor 4 enlarges or reduces the user image 3 to be displayed on the display 12 so that the size a of the reference body region 5 corresponds to the reference size defined based on the reference body of a plurality of users.
  • the configuration of the electronic device 10 is not limited to that shown in FIG. 2 , some of the above-described components may be excluded or include components other than the above-described components according to a design method.
  • the processor 4 of the electronic device 10 builds an AI system by applying an AI technology using a rule-based or AI algorithm to at least a part of data analysis, processing, and result information generation for the above operations.
  • the AI system is a computer system that implements human-level intelligence, and the machine learns and judges on its own, and the recognition rate improves the more it is used.
  • AI technology is composed of elemental technologies that simulate functions such as cognition and judgment of the human brain using at least one of machine learning, a neural network, or a deep learning algorithm.
  • the element technologies are linguistic understanding technology that recognizes human language/text, visual understanding technology that recognizes objects as if they were human eyes, reasoning/prediction technology that logically infers and predicts by judging information, and uses human experience information as knowledge data. It may include at least one of a knowledge expression technology that is processed with
  • Linguistic understanding is a technology for recognizing and applying/processing human language/text, and includes natural language processing, machine translation, dialogue system, question and answer, and speech recognition/synthesis.
  • Visual understanding is a technology for recognizing and processing objects like human vision, and includes object recognition, object tracking, image search, human recognition, scene understanding, spatial understanding, image improvement, and the like.
  • Inferential prediction is a technology for logically reasoning and predicting by judging information, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendation.
  • Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data generation/classification) and knowledge management (data utilization).
  • the processor 4 performs the functions of the learning unit and the recognition unit together.
  • the learning unit performs a function of generating a learned neural network network
  • the recognition unit performs a function of recognizing, inferring, predicting, estimating, and judging data using the learned neural network network.
  • the learning unit creates or updates the neural network.
  • the learning unit acquires learning data to generate a neural network.
  • the learning unit acquires the learning data from the storage unit 17 or from the outside.
  • the learning data may be data used for learning of the neural network, and the neural network may be trained by using the data obtained by performing the above-described operation as learning data.
  • the learning unit performs preprocessing on the acquired training data before training the neural network using the training data, or selects data to be used for learning from among a plurality of training data. For example, the learning unit processes the learning data in a preset format, filters, or adds/remove noise to form data suitable for learning. The learning unit generates a neural network set to perform the above-described operation by using the pre-processed learning data.
  • the learned neural network is composed of a plurality of neural network networks or layers. Nodes of the plurality of neural networks have weights, and the plurality of neural networks are connected to each other so that an output value of one neural network is used as an input value of another neural network.
  • Examples of neural networks include Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN) and Including models such as Deep Q-Networks.
  • the recognition unit acquires target data to perform the above-described operation.
  • the target data is acquired from the storage unit 17 or is acquired from the outside.
  • the target data may be data to be recognized by the neural network.
  • the recognition unit performs preprocessing on the acquired target data before applying the target data to the learned neural network, or selects data to be used for recognition from among a plurality of target data. For example, the recognition unit processes target data into a preset format, filters, or adds/remove noise to form data suitable for recognition.
  • the recognition unit obtains an output value output from the neural network by applying the preprocessed target data to the neural network.
  • the recognition unit obtains a probability value or a reliability value together with the output value.
  • FIG. 3 shows an example of a control method for the electronic device of FIG. 1 .
  • the processor 4 identifies the reference body region 5 of the user region 2 in the user image 3 ( S31 ).
  • the processor 4 determines the size (a) of the reference body region 5 in the user image 3 to be displayed on the display 12 based on the screen size w of the display 12 on which the user image 3 is to be displayed. is identified (S32).
  • the processor 4 enlarges or expands the user image 3 to be displayed on the display 12 so that the size (a) of the reference body region 5 corresponds to the reference size (b) defined based on the reference body of a plurality of users. Reduced (S33).
  • the processor 4 identifies the size (a) of the reference body region 5 of the user region 2 based on the user image 3, and the size (a) of the reference body region 5 is the reference
  • the user image 3 may be enlarged or reduced to correspond to the size b. Accordingly, since it is not necessary to obtain reference information used in enlarging or reducing the user image 3 from the user or the outside, convenience and efficiency can be improved.
  • FIG. 4 shows a specific example of identifying a reference body region in relation to operation S32 of FIG. 3 .
  • the processor 4 identifies the reference body region 5 of the user region 2 in the user image 3 .
  • the reference body region 5 may include a region 5 corresponding to the iris of the user region 2 .
  • the iris performs the function of controlling the amount of light entering the eyeball.
  • the region 5 corresponding to the iris has a circular or oval shape, and shares an external boundary with the white part of the eyeball externally, and shares an internal boundary with the pupil, the black part of the eyeball, internally.
  • the reference body region 5 is not limited to the region 5 corresponding to the iris, other body regions of the user region 2 may be identified as the reference body region 5 .
  • Various reference body regions 5 will be described in detail with reference to FIG. 15 .
  • the processor 4 may utilize various image recognition algorithms to identify the reference body region 5 of the user region 2 in the user image 3 .
  • the image recognition algorithm includes, but is not limited to, CNN, Histogram of Oriented Gradient (HOG), etc. as described above.
  • the processor 4 identifies the size (a) of the reference body region 5 of the user region 2 in the user image 3 .
  • the size (a) of the reference body region 5 is the size (a) of the region 5 corresponding to the iris, and contains the transverse length (a) of the outer boundary of .
  • the transverse length (a) includes the major radius (a) of the outer boundary.
  • the size (a) of the region 5 corresponding to the iris may include a minor radius, which is the vertical length of the outer boundary with the white.
  • the size a of the reference body region 5 may be identified based on the screen size w of the display 12 . This will be described in more detail with reference to FIG. 5 .
  • the processor 4 can identify the reference body region 5 or the size a of the reference body region 5 of the user region 2 in the user image 3, see FIG. 5 below. As described above, it is possible to provide a condition for enlarging or reducing the user image 3 so that the user area 2 in the user image 3 corresponds to a predetermined size.
  • FIG. 5 shows a specific example of identifying the size of a reference body region in relation to operation S33 of FIG. 3 .
  • the processor 4 identifies the size a of the reference body region 5 of the user region 2 in the user image 3 displayed on the display 12 .
  • the processor 4 may identify the size a of the reference body region 5 in consideration of the screen size w of the display 12 on which the user image 3 is displayed. For example, when the size (a) of the reference body region 5 is the horizontal length (a) of the region 5 corresponding to the iris, the processor 4 determines the width w of the screen on which the user image 3 is displayed. In contrast to , the horizontal length a of the region 5 corresponding to the iris in the user image 3 displayed on the display 12 can be identified. When the width w of the screen is 100 mm, it can be identified that the horizontal length a of the region 5 corresponding to the iris is 6 mm, 12 mm, 18 mm, or the like.
  • the processor 4 may enlarge or reduce the user image 3 so that the size a of the reference body region 5 corresponds to the reference size b.
  • the user image 3 may be enlarged.
  • the reference size b is smaller than the size a of the reference body region 5, the user image 3 may be reduced.
  • the reference size (b) includes a reference size (b) defined based on the reference body of a plurality of users.
  • the reference size (b) is an average size (b) of the iris of a plurality of users, and includes an average horizontal length (b) of the outer boundary of the iris.
  • the transverse length (b) includes the major radius (b) of the outer boundary.
  • the average size b of the iris of a plurality of users may include a minor radius that is an average vertical length of the outer boundary of the iris.
  • Information about the reference size (b) may be received from the outside.
  • the information about the average horizontal length b of the outer boundary of the iris may be received from a server connected through a network, another display device, or the like.
  • the information regarding the reference size b may be input from the user 1 .
  • Information on the reference size b may be stored in the storage unit 17 in the form of a lookup table.
  • the average horizontal length b of the iris of a plurality of users is 12 mm.
  • the processor 4 determines that the horizontal length (a) of the region 5 corresponding to the iris 6 mm is the average of the iris.
  • the user image 3 can be magnified twice to correspond to the horizontal length (b) of 12 mm.
  • the horizontal length of the user image 3 may be enlarged twice, and the vertical length of the user image 3 may also be enlarged in proportion to the enlargement of the horizontal length.
  • the processor 4 determines the region 5 corresponding to the identified iris in the user image 3 .
  • the user image 3 may be reduced 2/3 times so that the horizontal length (a) of 18 mm corresponds to the average horizontal length (b) of the iris (b) 12 mm.
  • the horizontal length of the user image 3 may be reduced to 2/3 times, and the vertical length of the user image 3 may be reduced in proportion to the reduction in the horizontal length.
  • the user image ( 3) My user area 2 may be displayed in a predetermined size.
  • the predetermined size includes the actual body size of the user 1 .
  • the processor 4 considers the characteristics of the iris with little difference between gender and race, so that the size (a) of the region 5 corresponding to the iris is equal to the average size (b) of the iris of a plurality of users. Since the user image 3 can be enlarged or reduced to correspond to it, convenience and efficiency can be improved in displaying the size of the user area 2 in the user image 3 to correspond to the actual body size of the user 1 . can
  • FIG. 6 illustrates an additional example of acquiring a counterpart image in relation to operation S31 of FIG. 3 .
  • the counterpart image 9 may be received from the external device 20 .
  • the external device 20 like the electronic device 10, is implemented with various types of devices, such as an image display device such as a TV, an image processing device such as a set-top box, a home appliance, and an information processing device.
  • an image display device such as a TV
  • an image processing device such as a set-top box
  • a home appliance such as a smart phone
  • an information processing device such as a smartphone.
  • the external device 20 acquires the counterpart image 9 of the counterpart 7 through the camera 23 .
  • the external device 20 transmits the acquired counterpart image 9 to the electronic device 10 .
  • the processor 4 may display the counterpart image 9 received from the external device 20 on the screen of the display 12 .
  • the processor 4 transmits the user image 3 of the user 1 obtained through the camera 13 to the external device 20, so that the external device 20 transmits the user image 3 to the external device. (20) to be displayed on the display (24).
  • the size of the counterpart area 8 in the counterpart image 9 displayed on the screen of the display 12 may be different from the actual body size of the counterpart 7 .
  • the processor 4 identifies the size (a) of the reference body region 5 of the counterpart region 8 in the counterpart image 9 based on the screen size w of the display 12, and the reference body region 5 ) by enlarging or reducing the counterpart image 9 so that the size (a) corresponds to the reference size (b), the size of the counterpart area 8 in the counterpart image 9 corresponds to the actual body size of the counterpart 7 can be indicated to do so.
  • the processor 4 can enlarge or reduce the counterpart image 9 so that the size (a) of the reference body region 5 in the counterpart image 9 corresponds to the reference size (b), the counterpart image ( 9) Convenience and efficiency can be improved in displaying the size of the counterpart area 8 to correspond to the actual body size of the counterpart 7 .
  • FIG. 7 illustrates an additional example of acquiring a user image and a counterpart image together with respect to operation S31 of FIG. 3 .
  • both the user image 3 and the counterpart image 9 are enlarged.
  • an additional example of reduction will be described with reference to FIG. 7 .
  • descriptions overlapping those of the embodiments of FIGS. 5 and 6 will be omitted, and different parts will be mainly described.
  • the processor 4 may display the user image 3 and the counterpart image 9 on the screen of the display 12 .
  • the user image 3 and the counterpart image 9 may be named as a plurality of user images 3 , but for convenience of explanation, the user image 3 and the counterpart image 9 are divided and described.
  • the processor 4 determines the size (a) of the reference body region 5 of the user region 2 in the user image 3 and the size (a) of the reference body region 5 of the counterpart region 8 in the counterpart image 9 ( a) is identified.
  • the size (a) of the reference body region 5 of the user region 2 in the user image 3 includes the horizontal length a of the region 5 corresponding to the iris of the user region 2, and the counterpart image (9)
  • the size (a) of the reference body region (5) of the counterpart region (8) includes the horizontal length (a) of the region (5) corresponding to the iris of the counterpart region (8).
  • the processor 4 determines the size (a) of the reference body region 5 of the user region 2 in the user image 3 and the size (a) of the reference body region 5 of the counterpart region 8 in the counterpart image 9 ( In identifying a), the screen size w of the display 12 is taken into account.
  • the screen size (w) includes the width (w) of the screen. For example, when the width w of the screen is 100 mm, the horizontal length (a) of the region 5 corresponding to the iris of the user region 2 is 18 mm, and the region corresponding to the iris of the counterpart region 8 ( 5) can be identified as having a horizontal length (a) of 6 mm.
  • the processor 4 determines the size (a) of the reference body region 5 of the user region 2 in the user image 3 and the size (a) of the reference body region 5 of the counterpart region 8 in the counterpart image 9 ( At least one of the user image 3 and the counterpart image 9 may be enlarged or reduced so that a) is the same. For example, at least one of the user image 3 and the counterpart image 9 may be enlarged or reduced so that the size a of each reference body region 5 corresponds to the reference size b.
  • the reference size (b) includes a reference size (b) defined based on the reference body of a plurality of users. For example, the reference size (b) includes the average horizontal length (b) of the iris.
  • the processor 4 determines that the horizontal length (a) of the region 5 corresponding to the iris of the user region 2 (a) 18 mm is the average horizontal length (b) of the iris )
  • the user image 3 can be reduced by 2/3 times to correspond to 12mm.
  • the processor 4 converts the counterpart image 9 to 2 so that the horizontal length (a) 6 mm of the region 5 corresponding to the iris of the counterpart region 8 corresponds to the average horizontal length (b) 12 mm of the iris. You can double magnify.
  • the processor 4 determines that the size (a) of the reference body region 5 of the user region 2 in the user image 3 is the reference body region 5 of the counterpart region 8 in the counterpart image 9.
  • the user image 3 can be enlarged or reduced to correspond to the size (a) of .
  • the reverse is also possible.
  • the processor 4 determines the size (a) of the reference body region 5 of the user region 2 in the user image 3 and the reference body region 5 of the counterpart region 8 in the counterpart image 9. Since at least one of the user image 3 and the counterpart image 9 can be enlarged or reduced so that the size (a) of is the same, it is possible to provide an environment capable of improving the vitality during a video call and increasing the concentration.
  • FIG. 8 illustrates another example of enlarging or reducing a user image and a counterpart image displayed on the vertical display in relation to operation S34.
  • the processor 4 displays the user image 3 and the counterpart image 9 on the display 12 of a different form from the horizontal display 12, when the user image (3) or at least one of the other party image 9 can be enlarged or reduced.
  • the processor 4 determines the size (a) of the reference body region 5 of the user region 2 in the user image 3 displayed on the vertical display 12 and the criterion of the counterpart region 8 in the counterpart image 9. Identifies the size (a) of the body region (5).
  • the processor 4 determines the size (a) of the reference body region 5 of the user region 2 in the user image 3 displayed on the vertical display 12 and the criterion of the counterpart region 8 in the counterpart image 9. Even if the size (a) of the body region 5 is different, the size (a) of the reference body region 5 of the user region 2 in the user image 3 and the counterpart region 8 in the counterpart image 9 At least one of the user image 3 and the counterpart image 9 may be enlarged or reduced so that the size (a) of the reference body region 5 corresponds to the reference size (b).
  • the vertical display 12 is taken as an example, but this is for convenience of explanation, so the processor 4 displays the user image 3 and the counterpart image 9 on the display 12 having various shapes other than horizontal and vertical types. ) is displayed, at least one of the user image 3 and the counterpart image 9 may be enlarged or reduced. Accordingly, it is possible to provide an environment capable of improving the vitality during video calls and increasing concentration even in various types of displays 12 .
  • FIG. 9 shows an additional example of identifying a main region in relation to operation S34 of FIG. 3 .
  • the user image 3 is enlarged so that the size (a) of the reference body region 5 of the user region 2 in the user image 3 corresponds to the reference size (b).
  • the user image 3 is enlarged so that the horizontal length (a) of the region 5 corresponding to the iris of the user region 2 corresponds to the reference size (b) of 12 mm.
  • the processor 4 identifies the main area 6 in the user image 3 .
  • the main area 6 includes an area 6 corresponding to a body part of the user area 2 .
  • the main area 6 may be an area including the reference body area 5 of the user area 2 or an area excluding the reference body area 5 of the user area 2 .
  • the main region 6 includes a region corresponding to at least one of a face, a feature, an upper body, a lower body, and a whole body of the user area 2 .
  • the main region 6 is the region 6 corresponding to the upper body from the shoulder line to the tip of the head.
  • the processor 4 identifies whether the size c of the area 6 corresponding to the upper body of the user area 2 exceeds the screen size h of the display 12 .
  • the size c of the area 6 corresponding to the upper body includes the height c of the area 6 corresponding to the upper body.
  • the processor 4 identifies whether the height c of the area 6 corresponding to the upper body exceeds the height h of the screen.
  • the processor 4 may identify whether the width c of the region 6 corresponding to the upper body exceeds the width w of the screen.
  • the processor 4 determines that the area 6 corresponding to the upper body is the screen of the display 12 .
  • the user image 3 is reduced to correspond to a height d that does not exceed a height h of As an example, the user image 3 may be reduced by 1/2.
  • the above operation may be equally applied to the counterpart image 9 . That is, when is displayed, as described above, the counterpart image 9 can be reduced so that the size c of the counterpart area 8 does not exceed the screen size h. When both the user image 3 and the counterpart image 9 are displayed, either one may be reduced so as not to exceed the screen size h.
  • the processor 4 can enlarge or reduce the user image 3 in consideration of the screen size h of the display 12, so that the user image 3 optimized for the screen size h can be displayed. can Accordingly, it is possible to enable a video call optimized for the screen size h of the display 12 .
  • FIG. 10 illustrates an example of additionally identifying a background region in addition to the operation of identifying a reference body region in relation to operation S32 of FIG. 3 .
  • the processor 4 identifies not only the user area 2 but also the background area 102 in the user image 3 .
  • the background area 102 includes an area corresponding to the background excluding the user area 2 in the user image 3 .
  • it includes areas corresponding to office furniture, wallpaper, foreground, and the like.
  • the region corresponding to the blackboard is the background region 102 .
  • the user area 2 and the background area 102 may be identified by various image recognition algorithms as described above.
  • the processor 4 enlarges the user image 3 so that the size (a) of the reference body region 5 of the user region 2 in the user image 3 corresponds to the reference size (b), and the user image 3 ), the user area 2 within the user image 3 is also enlarged.
  • the horizontal length (a) of the region 5 corresponding to the iris of the user region 2 is enlarged twice from 6mm to 12mm to correspond to the reference size (b)
  • the user image 3 is magnified twice Not only that, but the user area 2 is also doubled.
  • the size of the background area 102 may be maintained.
  • the horizontal length (a) of the region 5 corresponding to the iris of the user region 2 is doubled from 6 mm to 12 mm to correspond to the reference size (b), so that the user image 3 and the user region ( 2) Even if the figure is enlarged twice, the size of the area 102 corresponding to the blackboard may be maintained as it is.
  • the horizontal length (a) of the area (5) corresponding to the iris of the user area (2) is reduced 1/2 times from 18 mm to 12 mm to correspond to the reference size (b), so that the user image 3 and the user area Even if (2) is reduced to 1/2 times, the size of the area 102 corresponding to the blackboard may be maintained as it is.
  • the above operation may be equally applied to the counterpart image 9 . That is, the processor 4 identifies the counterpart region 8 and the background region 102 even in the counterpart image 9 , and maintains the size of the background region 102 despite the enlargement or reduction of the counterpart region 8 . can
  • the processor 4 can maintain the size of the background area 102 despite the enlargement or reduction of the user area 2 in the user image 3, so that a video call is performed in a virtual space. can be produced. Accordingly, it is possible to provide a different experience during a video call.
  • FIG. 11 shows an example of enlarging or reducing the user image based on the position of the reference body region in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to operation S32 of FIG. 3 do.
  • the processor 4 determines the reference body region 5 of the user region 2 in the user image 3 displayed on the display 12 based on the screen size h of the display 12 on which the user image 3 is displayed. Identifies location (e).
  • location (e) When the processor 4 identifies the reference body region 3 of the user region 2 in the user image 3 as in operation S32 of FIG. 3 , the position of the reference body region 5 of the user region 2 is (e) can be identified.
  • the screen size (h) of the display 12 includes the height (h) of the screen of the display 12 , and the position (e) of the reference body region 5 is the height (e) to the reference body region 5 . includes
  • the processor 4 may move the user image 3 so that the position e of the reference body region 5 corresponds to the reference position f.
  • the movement of the user image 3 includes enlarging or reducing the user image 3 .
  • the reference position f includes a reference position f defined based on reference bodies of a plurality of users. When the reference position (f) is higher than the position (e) of the reference body region 5 , the user image 3 may be moved upward. On the other hand, when the reference position f is lower than the position e of the reference body region 5, the user image 3 may be moved downward. Of course, the user image 3 may be moved left and right according to the reference position f.
  • the reference position (f) and the position (e) of the reference body region (5) are expressed as a ratio of the screen size (h) of the display (12), the reference position (f) of the display (12) It can be 2/3 of the screen size (h).
  • the processor 4 determines that the position (e) 1/3 of the reference body region 5 is the reference position (f).
  • the reference position f may be set in various ways.
  • the processor 4 may move the user image 3 so that the position e of the reference body region 5 corresponds to the reference position f. Accordingly, since it is not necessary to obtain reference information used in moving the user image 3 from the user or the outside, convenience and efficiency can be improved.
  • FIG. 12 shows an example of enlarging or reducing the user image based on the user's participation in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to the embodiment of FIG. 3 . do.
  • the processor 4 identifies a change in the user area 2 corresponding to the user 1 in the user image 3 .
  • a change in the user area 2 includes a change in the movement of the user area 2 .
  • the change in movement includes the degree of change in movement, the number of changes in movement, and the like.
  • the processor 4 may identify the degree of participation of the user 1 based on the change in the user area 2 For example, when the degree of change or the number of changes is greater than or equal to a predetermined threshold, the degree of participation of the user 1 is can be identified as high.
  • the processor 4 may identify the degree of participation of the user 1 based on the received user voice.
  • the user's voice may be received through the audio receiver.
  • the processor 4 may identify that there is a change in the user area 2 based on the user's voice.
  • the size or frequency of the user's voice is greater than or equal to a predetermined threshold, it is possible to identify that there is a change in the user area 2 and identify that the user 1 has a high degree of participation.
  • the processor 4 enlarges the user image 3 so that the user area 2 corresponding to the user 1 identified as having a high degree of participation is enlarged.
  • the user image 3 may be enlarged so that the size (a) of the reference body region 5 corresponds to the reference size (b).
  • the user area 2 corresponding to the user 1 identified as having a low level of participation is reduced.
  • the size of the background area 102 is maintained, and the user area 2 corresponding to the user 1 according to the identified degree of participation. can be enlarged or reduced.
  • the user image 3 includes a plurality of user areas 2 corresponding to the plurality of users 1, each of the plurality of user areas 2 in the user image 3 is identified, and the Based on the participation degree of the plurality of users (1) may be identified. At least one user area 2 among the plurality of user areas 2 may be enlarged or reduced according to the identified degree of participation.
  • a plurality of counterpart regions 8 corresponding to each of the plurality of counterparts 8 in the counterpart image 9 are identified, and based on each change
  • the degree of participation may be identified, and at least one counterpart area 8 among the plurality of counterpart areas 8 may be enlarged or reduced according to the identified degree of participation.
  • the processor 4 can enlarge the user image 3 according to the degree of participation of the user 1 identified based on the change in the user area 2 in the user image 3, so that the video call is lively. It can provide an environment that can improve and enhance concentration.
  • FIG. 13 is an example of enlarging or reducing the user image based on the gaze direction of the user area in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to the embodiment of FIG. show
  • the processor 4 identifies the gaze direction 130 of the user area 2 in the user image 3 .
  • the gaze direction 130 includes a direction in which the reference body region 3 of the user region 2 faces.
  • the reference body region 3 includes regions corresponding to the iris, face, upper body, lower body, whole body, and the like.
  • the processor 4 performs the reference body region 3 of the user region 2 in the user image 3 as in operation S32 of FIG. 3 .
  • the gaze direction 130 of the user area 2 can be identified.
  • the gaze direction 130 may be identified based on a change in movement of the user area 2 corresponding to the user 1 .
  • the change in the movement of the user area 2 includes the change in the movement of the reference body area 3 .
  • the gaze direction 130 may be identified based on various image recognition algorithms.
  • the processor 4 moves the user image 3 to the right according to the gaze direction 130 toward the right.
  • the background area 102 corresponding to the blackboard may be displayed according to the right movement of the user image 3 .
  • the processor 4 identifies the gaze direction 130 facing the front, and according to the gaze direction 130 facing the front, the user image 3 ) to the left, so that it becomes the original state assumed in the first place.
  • the processor 4 can move the user image 3 according to the gaze direction 130 of the user area 2 identified based on the change of the user area 2 in the user image 3 , the image It is possible to provide an environment that can improve liveliness during a call and increase concentration.
  • FIG. 14 shows an example of enlarging or reducing the user image based on the user viewing distance in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to the embodiment of FIG. 3 . .
  • the processor 4 identifies the user viewing distance.
  • the user viewing distance includes a distance between the user 1 and the electronic device 10 .
  • the processor 4 may identify the user viewing distance based on the distance to the reference body region 5 . .
  • the processor 4 adjusts the reference size b based on the user's viewing distance, and enlarges or enlarges the user image 3 so that the size (a) of the reference body region 5 corresponds to the adjusted reference size (b). reduce As an example, it is assumed that the user image 3 is adjusted so that the size (a) of the reference body region 5 corresponds to the adjusted reference size (b) 12 mm.
  • the processor 4 reduces the user image 3 according to the first user viewing distance g.
  • the processor 4 adjusts the reference size (b) 12mm to the reference size (b) 6mm corresponding to the first user viewing distance (g), and the size (a) 12mm of the reference body region 5 is adjusted
  • the user image (3) can be reduced to correspond to the standard size (b) of 6 mm.
  • the reference size b according to the viewing distance g of the first user may be set in various ways.
  • the processor 4 enlarges the user image 3 according to the second user viewing distance j.
  • the processor 4 adjusts the reference size (b) 12mm to the reference size (b) 18mm corresponding to the second user viewing distance (j), and the size (a) 12mm of the reference body region 5 is adjusted
  • the user image (3) can be enlarged to correspond to the reference size (b) 18mm.
  • the reference size b according to the second user viewing distance j may be set in various ways.
  • the processor 4 adjusts the reference size b based on the user's viewing distance, and the user image 3 so that the size a of the reference body region 5 corresponds to the adjusted reference size b. can be enlarged or adjusted, so that it is possible to provide an environment capable of enhancing liveliness and concentration during a video call.
  • 15 shows an alternative example of selecting a reference body region according to priority in relation to operation S32 of FIG. 3 .
  • the processor 4 may consider a plurality of various reference body regions 5 .
  • the reference body area 5 may be considered as the reference body area 5 .
  • the reference size (b) for the key may be input by the user or received from the outside.
  • the processor 4 may identify the size of the area corresponding to the key of the user area 2 in the user image 3 .
  • the screen size h of the display 12 may be considered.
  • the screen size h of the display 12 includes the height h of the screen of the display 12 .
  • the processor 4 identifies the size of the area corresponding to the key of the user area 2 in the user image 3 compared to the screen size h of the display 12, and the user area 2 in the user image 3
  • the user image 3 can be enlarged or reduced so that the size of the area corresponding to the height of the user corresponds to the reference size b of 180 cm.
  • the processor 4 may identify a region corresponding to the face size of the user region 2 in the user image 3 .
  • the screen size w of the display 12 may be considered, and the screen size w of the display 12 includes the width w of the screen of the display 12 .
  • the processor 4 identifies an area corresponding to the face size of the user area 2 in the user image 3 compared to the screen size w of the display 12, and The user image 3 may be enlarged or reduced so that the area corresponding to the face size corresponds to the reference size b of 20 cm.
  • the processor 4 enlarges or reduces the user image 3 according to the reference body region 5 selected based on the priority among the plurality of reference body regions 5 such as regions corresponding to the iris, height, face size, etc. can For example, when the region corresponding to the key is selected as the reference body region 5 of the highest priority, as described above, the processor 4 controls the user in the user image 3 compared to the screen size h of the display 12 .
  • the size of the area corresponding to the height of the area 2 is identified, and the size of the area corresponding to the height of the user area 2 in the user image 3 corresponds to the reference size (b) 180 cm. can be enlarged or reduced.
  • the processor 4 can adjust the size of the user image 3 in consideration of a plurality of various reference body regions 5 , and thus can adjust the size of the user image 3 adaptively to various situations.
  • the user image 3 can be adjusted to an optimized size as necessary.
  • FIG. 16 shows a specific example of setting the priority of a reference body region based on a user input with reference to FIG. 15 .
  • the priority of the plurality of reference body regions 5 may be considered.
  • priorities are set according to a user's selection.
  • the processor 4 displays a user interface 160 indicating a plurality of reference body regions 5 .
  • the user interface 160 includes a menu for selecting a plurality of reference body regions 5 such as iris, height, face size, and the like.
  • the processor 4 identifies a region corresponding to the iris as the reference body region 5, and the size of the reference body region 5 in the user image 3
  • the user image 3 is enlarged or reduced so that (a) corresponds to the reference size (b).
  • the user interface 160 includes a menu for setting priorities for a plurality of reference body regions 5 .
  • the processor 4 preferentially sets the region corresponding to the iris as the reference body region 5 . identify If it is difficult to set the region corresponding to the iris as the reference body region 5 because the region corresponding to the iris cannot be identified in the user image 3, the processor 4 determines the region corresponding to the next key. can be set as the reference body region 5 .
  • the size (a) of the region 5 corresponding to the iris has little difference between gender and race, whereas the size (a) of the region 5 corresponding to the height, face size, etc.
  • the user interface 160 includes a menu for inputting a reference size b for a key, a face size, and the like.
  • the processor 4 determines that the size (a) of the area 5 corresponding to the height of the user area 2 in the user image 3 is The user image 3 can be enlarged or reduced so that the reference size b according to the user input becomes 180 cm.
  • the processor 4 can set priorities to the plurality of reference body regions 5 according to the user input, the user 1 adjusts the user image 3 based on the desired reference body region 5 .
  • Various embodiments disclosed in this document are implemented as software including one or more instructions stored in a storage medium readable by a machine such as the electronic device 10 .
  • the processor 4 of the electronic device 10 calls at least one of the one or more instructions stored from the storage medium and executes it. This enables a device such as the electronic device 10 to be operated to perform at least one function according to the called at least one command.
  • the one or more instructions include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium is provided in the form of a non-transitory storage medium.
  • the 'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (eg, electromagnetic wave), and this term refers to a case in which data is semi-permanently stored in a storage medium and a case in which data is temporarily stored. case is not distinguished.
  • the 'non-transitory storage medium' includes a buffer in which data is temporarily stored.
  • the computer program product includes instructions of software executed by a processor, as mentioned above.
  • Computer program products are traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg, CD-ROM), or via an application store (eg, Play StoreTM) or between two user devices (eg, smartphones).
  • Direct, online distribution eg, download or upload).
  • at least a portion of the computer program product eg, a downloadable app
  • a machine-readable storage medium such as a memory of a manufacturer's server, a server of an application store, or a relay server. Temporarily saved or created temporarily.

Abstract

The present invention relates to an electronic device which obtains a user image via a camera, identifies a reference body area of a user in the user image, identifies, on the basis of a screen size of a display to display the user image, the size of the reference body area in the user image to be displayed on the display, and enlarges or reduces the user image to be displayed on the display so that the size of the reference body area corresponds to a reference size.

Description

전자장치 및 그 제어방법Electronic device and its control method
본 출원은 2020년 9월 25일자로 대한민국 특허청에 제출된 대한민국 특허 출원번호 제10-2020-0125142호에 기초한 우선권을 주장하며, 그 개시 내용은 전체가 참조로 본 발명에 포함된다.This application claims priority based on Korean Patent Application No. 10-2020-0125142 filed with the Korean Intellectual Property Office on September 25, 2020, the disclosure of which is incorporated herein by reference in its entirety.
본 발명은 전자장치 및 그 제어방법에 관한 것으로서, 상세하게는, 사용자영상을 확대 또는 축소하는 전자장치 및 그 제어방법에 관한 것이다.The present invention relates to an electronic device and a method for controlling the same, and more particularly, to an electronic device for enlarging or reducing a user image and a method for controlling the same.
최근 전자장치는 영상 통화 기능을 제공한다. 영상 통화 기능은 사용자를 촬영한 사용자영상 또는 상대방을 촬영한 상대방영상을 전자장치의 화면에 표시하여, 사용자가 사용자영상 또는 상대방영상을 보면서 상대방과 대화하도록 편의를 제공하는 기능이다. 상대방이 복수의 경우, 복수의 상대방영상을 보면서 다자간 영상 회의도 가능하다. Recently, electronic devices provide a video call function. The video call function is a function that provides convenience for the user to talk with the other party while viewing the user image or the other party image by displaying the user's image of the user or the other party's image on the screen of the electronic device. In the case of plural counterparts, a multi-party video conference is also possible while viewing the images of the plurality of counterparts.
영상 통화 기능 수행 시, 사용자영상 내 사용자 또는 상대방영상 내 상대방이 소정 크기로 표시되지 않을 수 있다. 소정 크기는 사용자 또는 상대방의 실제 신체크기를 포함한다. 이 경우, 전자장치는 사용자영상 또는 상대방영상을 확대 또는 축소하여, 사용자영상 내 사용자 또는 상대방영상 내 상대방이 사용자 또는 상대방의 실제 신체크기로 표시되도록 한다. 사용자는 실제 신체크기로 표시된 사용자 또는 상대방을 보면서 영상 통화를 할 수 있으므로, 보다 생동감 있게 대화할 수 있으며, 대화에 더욱 집중할 수 있게 된다. When performing a video call function, the user in the user image or the counterpart in the counterpart image may not be displayed in a predetermined size. The predetermined size includes the actual body size of the user or the other party. In this case, the electronic device enlarges or reduces the user image or the counterpart image so that the user in the user image or the counterpart in the counterpart image is displayed in the actual body size of the user or the counterpart. Since the user can make a video call while looking at the user or the other party displayed in actual body size, the user can have a more lively conversation and can concentrate more on the conversation.
전자장치는 사용자영상 또는 상대방영상을 확대 또는 축소함에 있어서 기준정보를 활용한다. 일 예로, 기준정보는 사용자 또는 상대방의 실제 신체크기에 관한 정보를 포함할 수 있다. 다만, 사용자마다 또는 상대방마다 신체크기가 다르므로, 기준정보를 일일이 입력하거나 외부로부터 수신해야 하는 점에서 편의성 및 효율성이 저하될 수 있다. The electronic device utilizes the reference information in enlarging or reducing the user image or the counterpart image. For example, the reference information may include information about the actual body size of the user or the other party. However, since the body size is different for each user or for each counterpart, convenience and efficiency may be reduced in that reference information must be input one by one or received from the outside.
따라서, 사용자영상 내 사용자 또는 상대방영상 내 상대방을 사용자 또는 상대방의 실제 신체크기로 표시하기 위해, 사용자영상 또는 상대방영상을 확대 또는 축소함에 있어서, 불필요한 과정을 배제함으로써, 편의성 및 효율성을 향상시킬 수 있는 방안이 요청되고 있다.Therefore, in order to display the user in the user image or the counterpart in the counterpart image in the actual body size of the user or the other party, by excluding unnecessary processes in enlarging or reducing the user image or the counterpart image, convenience and efficiency can be improved. A solution is being requested.
본 발명의 목적은, 사용자영상 내 사용자 또는 상대방영상 내 상대방을 사용자 또는 상대방의 실제 신체크기로 표시하기 위해, 사용자영상 또는 상대방영상을 확대 또는 축소함에 있어서, 불필요한 과정을 배제함으로써, 편의성 및 효율성을 향상시킬 수 있는 전자장치 및 그 제어방법을 제공하는 것이다.An object of the present invention is to increase convenience and efficiency by excluding unnecessary processes in enlarging or reducing a user image or a counterpart image in order to display the user in the user image or the counterpart in the counterpart image in the actual body size of the user or the counterpart. An object of the present invention is to provide an electronic device capable of improving and a method for controlling the same.
상기한 본 발명의 목적은, 카메라를 통해 사용자영상을 획득하고, 상기 사용자영상 내 사용자의 기준신체 영역을 식별하고, 상기 사용자영상을 표시할 디스플레이의 화면 크기에 기초하여 상기 디스플레이에 표시될 사용자영상 내 상기 기준신체 영역의 크기를 식별하고, 상기 기준신체 영역의 크기가 복수 사용자의 기준신체에 기초하여 정의된 기준크기에 대응하도록 상기 디스플레이에 표시될 사용자영상을 확대 또는 축소하는 프로세서를 포함하는 전자장치에 의해 달성될 수 있다.An object of the present invention is to obtain a user image through a camera, identify a reference body region of the user in the user image, and a user image to be displayed on the display based on the screen size of the display on which the user image is to be displayed Electronic including a processor for identifying the size of the reference body region and enlarging or reducing the user image to be displayed on the display so that the size of the reference body region corresponds to a reference size defined based on reference bodies of a plurality of users can be achieved by the device.
상기 기준신체 영역은, 상기 사용자의 홍채에 대응하는 영역을 포함한다. The reference body region includes a region corresponding to the user's iris.
상기 프로세서는, 외부장치로부터 상기 사용자영상을 획득하고, 상기 수신된 사용자영상에 기초하여 영상 통화에 관한 동작을 수행한다. The processor obtains the user image from an external device, and performs an operation related to a video call based on the received user image.
상기 사용자영상은 복수의 사용자영상을 포함하고, 상기 프로세서는, 상기 복수의 사용자영상 내 복수의 사용자의 기준신체 영역의 크기가 동일하도록, 상기 디스플레이에 표시된 복수의 사용자영상을 확대 또는 축소한다. The user image includes a plurality of user images, and the processor enlarges or reduces the plurality of user images displayed on the display so that the reference body regions of the plurality of users in the plurality of user images have the same size.
상기 프로세서는, 상기 기준신체 영역이 상기 기준크기에 대응하는 상기 사용자영상의 주요영역이 상기 디스플레이의 화면 크기를 초과하는 경우, 상기 주요영역이 상기 화면 크기에 대응하도록 상기 사용자영상을 축소한다. The processor may reduce the user image so that the main region corresponds to the screen size when the main region of the user image corresponding to the reference body region corresponds to the reference size exceeds the screen size of the display.
상기 사용자영상은, 상기 기준신체 영역을 포함하는 사용자영역 및 배경영역을 포함하며, 상기 프로세서는, 상기 배경영역의 크기를 유지하면서, 상기 기준신체 영역이 상기 기준크기에 대응하도록 상기 사용자영상을 확대 또는 축소한다. The user image includes a user region including the reference body region and a background region, and the processor enlarges the user image so that the reference body region corresponds to the reference size while maintaining the size of the background region. or reduce
상기 프로세서는, 상기 기준신체 영역의 위치를 식별하고, 상기 기준신체 영역의 위치가 상기 디스플레이의 화면 내 정의된 기준위치에 대응하도록 상기 사용자영상을 이동한다. The processor identifies a position of the reference body region, and moves the user image so that the position of the reference body region corresponds to a reference position defined in the screen of the display.
상기 프로세서는, 상기 사용자영상 내 상기 사용자에 대응하는 사용자영역의 변화에 기초하여 상기 사용자의 참여도를 식별하고, 상기 식별된 참여도에 기초하여 상기 사용자영상을 확대 또는 축소한다. The processor identifies the degree of participation of the user based on a change in the user area corresponding to the user in the user image, and enlarges or reduces the user image based on the identified degree of participation.
상기 프로세서는, 상기 사용자영상 내 상기 사용자에 대응하는 사용자영역의 변화에 기초하여 상기 사용자의 시선 방향을 식별하고, 상기 식별된 시선 방향에 따라 상기 사용자영상을 이동한다. The processor identifies a gaze direction of the user based on a change in a user area corresponding to the user in the user image, and moves the user image according to the identified gaze direction.
상기 프로세서는, 사용자 시청거리에 기초하여 상기 기준크기를 조정하고, 상기 기준신체 영역의 크기가 상기 조정된 기준크기에 대응하도록 상기 사용자영상을 확대 또는 축소한다. The processor adjusts the reference size based on the user's viewing distance, and enlarges or reduces the user image so that the size of the reference body region corresponds to the adjusted reference size.
상기 프로세서는, 복수의 기준신체 영역 중에서 우선순위에 기초하여 선택된 기준신체 영역이 상기 기준크기에 대응하도록 상기 사용자영상을 확대 또는 축소한다. The processor enlarges or reduces the user image so that a reference body region selected based on a priority among a plurality of reference body regions corresponds to the reference size.
상기 프로세서는, 사용자입력에 기초하여 상기 우선순위를 설정한다. The processor sets the priority based on a user input.
상기한 본 발명의 목적은, 사용자영상을 획득하는 단계; 상기 사용자영상 내 사용자의 기준신체 영역을 식별하는 단계; 상기 사용자영상을 표시할 디스플레이의 화면 크기에 기초하여 상기 디스플레이에 표시될 사용자영상 내 상기 기준신체 영역의 크기를 식별하는 단계; 및 상기 기준신체 영역의 크기가 복수 사용자의 기준신체에 기초하여 정의된 기준크기에 대응하도록 상기 디스플레이에 표시될 사용자영상을 확대 또는 축소하는 단계를 포함하는 전자장치의 제어방법에 의해서도 달성될 수 있다.An object of the present invention is to obtain a user image; identifying a reference body region of the user in the user image; identifying the size of the reference body region in the user image to be displayed on the display based on the screen size of the display on which the user image is to be displayed; and enlarging or reducing the user image to be displayed on the display so that the size of the reference body region corresponds to the reference size defined based on the reference body of a plurality of users. .
상기 사용자영상을 획득하는 단계는, 외부장치로부터 상기 사용자영상을 획득하는 단계; 및 상기 수신된 사용자영상에 기초하여 영상 통화에 관한 동작을 수행하는 단계를 포함한다. The obtaining of the user image may include: obtaining the user image from an external device; and performing an operation related to a video call based on the received user image.
상기 사용자영상은 복수의 사용자영상을 포함하고, 상기 사용자영상을 확대 또는 축소하는 단계는, 상기 복수의 사용자영상 내 복수의 사용자의 기준신체 영역의 크기가 동일하도록, 상기 디스플레이에 표시된 복수의 사용자영상을 확대 또는 축소하는 단계를 포함한다. The user image includes a plurality of user images, and the step of enlarging or reducing the user image includes a plurality of user images displayed on the display such that the sizes of reference body regions of the plurality of users in the plurality of user images are the same. Including the step of enlarging or reducing the.
상기 사용자영상을 확대 또는 축소하는 단계는, 상기 기준신체 영역이 상기 기준크기에 대응하는 상기 사용자영상의 주요영역이 상기 디스플레이의 화면 크기를 초과하는 경우, 상기 주요영역이 상기 화면 크기에 대응하도록 상기 사용자영상을 축소하는 단계를 포함한다. The step of enlarging or reducing the user image may include, when a main region of the user image corresponding to the reference body region of the reference size exceeds the screen size of the display, the main region corresponds to the screen size. and reducing the user image.
상기 사용자영상은, 상기 기준신체 영역을 포함하는 사용자영역 및 배경영역을 포함하며, 상기 사용자영상을 확대 또는 축소하는 단계는, 상기 배경영역의 크기를 유지하면서, 상기 기준신체 영역이 상기 기준크기에 대응하도록 상기 사용자영상을 확대 또는 축소하는 단계를 포함한다. The user image includes a user region including the reference body region and a background region, and the step of enlarging or reducing the user image includes maintaining the size of the background region, and adjusting the reference body region to the reference size. and enlarging or reducing the user image to correspond to it.
상기 기준신체 영역의 위치를 식별하는 단계를 더 포함하고, 상기 사용자영상을 확대 또는 축소하는 단계는, 상기 기준신체 영역의 위치가 상기 디스플레이의 화면 내 정의된 기준위치에 대응하도록 상기 사용자영상을 이동하는 단계를 포함한다. The method may further include identifying a position of the reference body region, wherein the enlarging or reducing the user image includes moving the user image so that the position of the reference body region corresponds to a defined reference position within the screen of the display. including the steps of
상기한 본 발명의 목적은, 컴퓨터가 읽을 수 있는 코드로서, 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 사용자영상을 획득하는 단계; 상기 사용자영상 내 사용자의 기준신체 영역을 식별하는 단계; 상기 사용자영상을 표시할 디스플레이의 화면 크기에 기초하여 상기 디스플레이에 표시될 사용자영상 내 상기 기준신체 영역의 크기를 식별하는 단계; 및 상기 기준신체 영역의 크기가 복수 사용자의 기준신체에 기초하여 정의된 기준크기에 대응하도록 상기 디스플레이에 표시될 사용자영상을 확대 또는 축소하는 단계를 포함하는 것을 특징으로 하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체에 의해서도 달성될 수 있다.An object of the present invention is to provide a computer-readable code, comprising the steps of: acquiring a user image; identifying a reference body region of the user in the user image; identifying the size of the reference body region in the user image to be displayed on the display based on the screen size of the display on which the user image is to be displayed; and enlarging or reducing the user image to be displayed on the display so that the size of the reference body region corresponds to the reference size defined based on the reference body of a plurality of users. It can also be achieved by a recorded recording medium.
본 발명에 의하면, 사용자영상 내 사용자 또는 상대방영상 내 상대방을 사용자 또는 상대방의 실제 신체크기로 표시하기 위해, 사용자영상 또는 상대방영상을 확대 또는 축소함에 있어서, 불필요한 과정을 배제함으로써, 편의성 및 효율성을 향상시킬 수 있는 전자장치 및 그 제어방법을 제공할 수 있다.According to the present invention, convenience and efficiency are improved by excluding unnecessary processes in enlarging or reducing the user image or the counterpart image in order to display the user in the user image or the counterpart in the counterpart image in the actual body size of the user or the counterpart. It is possible to provide an electronic device capable of performing the operation and a method for controlling the same.
도 1은 본 발명의 일 실시예에 따른 전자장치를 도시한다.1 illustrates an electronic device according to an embodiment of the present invention.
도 2는 도 1의 전자장치에 관한 구성의 일 예를 도시한다.FIG. 2 shows an example of the configuration of the electronic device of FIG. 1 .
도 3은 도 1의 전자장치에 대한 제어방법의 일 예를 도시한다.FIG. 3 shows an example of a control method for the electronic device of FIG. 1 .
도 4는 도 3의 동작 S32와 관련하여, 기준신체 영역을 식별하는 구체적인 예를 도시한다.FIG. 4 shows a specific example of identifying a reference body region in relation to operation S32 of FIG. 3 .
도 5는 도 3의 동작 S33과 관련하여, 기준신체 영역의 크기를 식별하는 구체적인 예를 도시한다. FIG. 5 shows a specific example of identifying the size of a reference body region in relation to operation S33 of FIG. 3 .
도 6은 도 3의 동작 S31과 관련하여, 상대방영상을 획득하는 추가 예를 도시한다. 6 illustrates an additional example of acquiring a counterpart image in relation to operation S31 of FIG. 3 .
도 7은 도 3의 동작 S31과 관련하여, 사용자영상 및 상대방영상을 함께 획득하는 추가 예를 도시한다. 7 illustrates an additional example of acquiring a user image and a counterpart image together with respect to operation S31 of FIG. 3 .
도 8은 동작 S34와 관련하여, 세로형 디스플레이의 경우 사용자영상 및 상대방영상을 확대 또는 축소하는 다른 예를 도시한다. 8 illustrates another example of enlarging or reducing a user image and a counterpart image in the case of a vertical display in relation to operation S34.
도 9는 도 3의 동작 S34와 관련하여, 주요영역을 식별하는 추가 예를 도시한다. FIG. 9 shows an additional example of identifying a main region in relation to operation S34 of FIG. 3 .
도 10은 도 3의 동작 S32와 관련하여, 기준신체 영역을 식별하는 동작에 더하여, 배경영역을 추가로 식별하는 예를 도시한다. 10 illustrates an example of additionally identifying a background region in addition to the operation of identifying a reference body region in relation to operation S32 of FIG. 3 .
도 11은 도 3의 동작 S32와 관련하여, 기준신체 영역의 크기에 기초하여 사용자영상을 확대 또는 축소하는 동작에 더하여, 기준신체 영역의 위치에 더 기초하여 사용자영상을 확대 또는 축소하는 예를 도시한다. 11 shows an example of enlarging or reducing the user image based on the position of the reference body region in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to operation S32 of FIG. 3 do.
도 12는 도 3의 실시예와 관련하여, 기준신체의 영역의 크기에 기초하여 사용자영상을 확대 또는 축소하는 동작에 더하여, 사용자의 참여도에 더 기초하여 사용자영상을 확대 또는 축소하는 예를 도시한다. 12 shows an example of enlarging or reducing the user image based on the user's participation in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to the embodiment of FIG. 3 . do.
도 13은 도 3의 실시예와 관련하여, 기준신체의 영역의 크기에 기초하여 사용자영상을 확대 또는 축소하는 동작에 더하여, 사용자영역의 시선 방향에 더 기초하여 사용자영상을 확대 또는 축소하는 예를 도시한다. 13 is an example of enlarging or reducing the user image based on the gaze direction of the user area in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to the embodiment of FIG. show
도 14는 도 3의 실시예와 관련하여, 기준신체의 영역의 크기에 기초하여 사용자영상을 확대 또는 축소하는 동작에 더하여, 사용자 시청거리에 더 기초하여 사용자영상을 확대 또는 축소하는 예를 도시한다. FIG. 14 shows an example of enlarging or reducing the user image based on the user viewing distance in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to the embodiment of FIG. 3 . .
도 15는 도 3의 동작 S32와 관련하여, 우선순위에 따라 기준신체 영역을 선택하는 대체 예를 도시한다. 15 shows an alternative example of selecting a reference body region according to priority in relation to operation S32 of FIG. 3 .
도 16은 도 15와 관련하여, 사용자입력에 기초하여 기준신체 영역의 우선순위를 설정하는 구체적인 예를 도시한다.FIG. 16 shows a specific example of setting the priority of a reference body region based on a user input with reference to FIG. 15 .
이하에서는 첨부도면을 참조하여 본 발명에 따른 실시예들에 관해 상세히 설명한다. 이하 실시예들의 설명에서는 첨부된 도면들에 기재된 사항들을 참조하는 바, 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 동작을 수행하는 구성요소를 나타낸다. 본 명세서에서의 복수의 구성 중 적어도 하나(at least one)는, 복수의 구성 전부뿐만 아니라, 복수의 구성 중 나머지를 배제한 각 하나 혹은 이들의 조합 모두를 지칭한다. Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In the description of the embodiments below, reference is made to the matters described in the accompanying drawings, and the same reference numbers or symbols presented in each drawing indicate components that perform substantially the same operation. In the present specification, at least one of a plurality of components refers to all of the plurality of components, as well as each one or a combination thereof excluding the rest of the plurality of components.
도 1은 본 발명의 일 실시예에 따른 전자장치를 도시한다. 1 illustrates an electronic device according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 전자장치(10)는 TV, 스마트폰, 태블릿, 휴대용 미디어 플레이어, 웨어러블 디바이스, 비디오 월, 전자액자 등과 같이 영상표시장치뿐만 아니라, 디스플레이(12)를 구비하지 않는 셋탑박스 등의 영상처리장치, 냉장고, 세탁기 등의 생활가전, 컴퓨터본체와 같은 정보처리장치 등 다양한 종류의 장치로 구현된다. 또한, 전자장치(10)는 인공지능 (Artificial Intelligence, AI) 기능을 탑재한 AI 스피커, AI 로봇 등으로 구현된다. 전자장치(10)의 종류는 이에 한정되는 것은 아니며, 이하에서는 설명의 편의를 위해 전자장치(10)가 TV로 구현되는 경우를 가정한다. As shown in FIG. 1 , the electronic device 10 is a set-top that does not include a display 12 as well as an image display device such as a TV, a smart phone, a tablet, a portable media player, a wearable device, a video wall, an electronic picture frame, etc. It is implemented with various types of devices, such as image processing devices such as boxes, household appliances such as refrigerators and washing machines, and information processing devices such as computer bodies. In addition, the electronic device 10 is implemented as an AI speaker, an AI robot, etc. equipped with an artificial intelligence (AI) function. The type of the electronic device 10 is not limited thereto. Hereinafter, for convenience of description, it is assumed that the electronic device 10 is implemented as a TV.
전자장치(10)는 영상 통화 기능을 수행할 수 있다. 영상 통화 기능은 사용자(1)를 촬영한 사용자영상(3) 또는 상대방(도 6의 7)을 촬영한 상대방영상(도 6의 9)을 디스플레이(12)의 화면에 표시하여, 사용자(1)가 사용자영상(3) 내 사용자영역(2) 또는 상대방영상(9) 내 상대방영역(도 6의 8)을 보면서 상대방(7)과 대화하도록 편의를 제공하는 기능이다. 사용자영역(2)은 사용자(1)에 대응하는 사용자영상(3) 내 영역(2)을 포함하며, 상대방영역(8)은 상대방(7)에 대응하는 상대방영상(9) 내 영역(8)을 포함한다. 사용자영상(3)은 전자장치(10)의 카메라(13)를 통해 획득될 수 있으며, 상대방영상(9)은 외부장치(도 6의 20)로부터 획득될 수 있다. The electronic device 10 may perform a video call function. The video call function displays the user image 3 photographing the user 1 or the counterpart image 9 in FIG. It is a function that provides convenience to talk with the other party 7 while viewing the user area 2 in the user image 3 or the counterpart area (8 in FIG. 6 ) in the counterpart image 9 . The user area 2 includes an area 2 within the user image 3 corresponding to the user 1 , and the counterpart area 8 includes an area 8 within the counterpart image 9 corresponding to the counterpart 7 . includes The user image 3 may be acquired through the camera 13 of the electronic device 10 , and the counterpart image 9 may be acquired from an external device ( 20 in FIG. 6 ).
전자장치(10)는 사용자영상(3)을 확대 또는 축소한다. 사용자영상(3) 내 사용자영역(2)의 크기가 소정 크기를 초과하거나, 미달할 수 있다. 이하에서는 설명의 편의를 위해 소정 크기가 사용자(1)의 실제 신체크기를 포함하는 것으로 가정한다. 다만, 이에 한정되는 것은 아니므로, 소정 크기는 다양하게 설정될 수 있다. The electronic device 10 enlarges or reduces the user image 3 . The size of the user area 2 in the user image 3 may exceed or fall short of a predetermined size. Hereinafter, for convenience of description, it is assumed that the predetermined size includes the actual body size of the user 1 . However, since the present invention is not limited thereto, the predetermined size may be variously set.
전자장치(10)는 사용자영상(3) 내 사용자영역(2)의 크기가 사용자(1)의 신체크기에 대응하도록 사용자영상(3)을 확대 또는 축소한다. 사용자영상(3)의 확대 또는 축소에 대해서는 도 4 등을 참조하여 자세히 설명하기로 한다. 마찬가지로, 전자장치(10)는 상대방영상(9) 내 상대방영역(8)의 크기가 상대방(7)의 실제 신체크기에 대응하도록 상대방영상(9)을 확대 또는 축소한다. 이에 대해서는 도 6 등을 참조하여 설명하기로 한다. The electronic device 10 enlarges or reduces the user image 3 so that the size of the user area 2 in the user image 3 corresponds to the body size of the user 1 . The enlargement or reduction of the user image 3 will be described in detail with reference to FIG. 4 and the like. Similarly, the electronic device 10 enlarges or reduces the counterpart image 9 so that the size of the counterpart region 8 in the counterpart image 9 corresponds to the actual body size of the counterpart 7 . This will be described with reference to FIG. 6 and the like.
이와 같이, 사용자영상(3) 내 사용자영역(2) 또는 상대방영상(9) 내 상대방영역(8)이 사용자(1) 또는 상대방(7)의 신체크기로 표시되도록 사용자영상(3) 또는 상대방영상(9)을 확대 또는 축소할 수 있으므로, 영상 통화 시 생동감을 제공할 수 있으며, 대화에 보다 집중할 수 있는 환경을 조성할 수 있다. In this way, the user image 3 or the counterpart image so that the user region 2 in the user image 3 or the counterpart region 8 in the counterpart image 9 is displayed in the body size of the user 1 or the counterpart 7 Since (9) can be enlarged or reduced, it is possible to provide liveliness during a video call, and to create an environment where you can focus more on conversation.
도 2는 도 1의 전자장치에 관한 구성의 일 예를 도시한다. FIG. 2 shows an example of the configuration of the electronic device of FIG. 1 .
이하에서는 도 2를 참조하여, 전자장치(10)의 구성에 관해 자세히 설명한다. 본 실시예서는 전자장치(10)가 TV인 경우에 관해 설명하지만, 전자장치(10)는 다양한 종류의 장치로 구현될 수 있으므로, 본 실시예가 전자장치(10)의 구성을 한정하는 것은 아니다. 전자장치(10)가 TV와 같은 디스플레이장치로 구현되지 않는 경우도 가능하며, 이 경우 전자장치(10)는 디스플레이(12)와 같은 영상 표시를 위한 구성요소들을 포함하지 않을 수 있다. 예를 들면 전자장치(10)가 셋탑박스로 구현되는 경우에, 전자장치(10)는 인터페이스부(11)를 통해 외부의 TV에 영상 신호를 출력한다.Hereinafter, the configuration of the electronic device 10 will be described in detail with reference to FIG. 2 . Although the present embodiment describes a case where the electronic device 10 is a TV, the electronic device 10 may be implemented as various types of devices, and thus the present embodiment does not limit the configuration of the electronic device 10 . It is also possible that the electronic device 10 is not implemented as a display device such as a TV. In this case, the electronic device 10 may not include components for displaying an image, such as the display 12 . For example, when the electronic device 10 is implemented as a set-top box, the electronic device 10 outputs an image signal to an external TV through the interface unit 11 .
전자장치(10)는 인터페이스부(11)를 포함한다. 인터페이스부(11)는 외부장치(20) 등과 연결하여 데이터를 송수신한다. 다만 이에 한정되는 것은 아니므로, 인터페이스부(11)는 네트워크로 연결된 다양한 장치와 연결한다. The electronic device 10 includes an interface unit 11 . The interface unit 11 is connected to the external device 20 and the like to transmit and receive data. However, since the present invention is not limited thereto, the interface unit 11 connects to various devices connected through a network.
인터페이스부(11)는 유선 인터페이스부를 포함한다. 유선 인터페이스부는 지상파/위성방송 등 방송규격에 따른 방송신호를 수신할 수 있는 안테나가 연결되거나, 케이블 방송 규격에 따른 방송신호를 수신할 수 있는 케이블이 연결될 수 있는 커넥터 또는 포트를 포함한다. 다른 예로서, 전자장치(10)는 방송신호를 수신할 수 있는 안테나를 내장할 수도 있다. 유선 인터페이스부는 HDMI 포트, DisplayPort, DVI 포트, 썬더볼트, 컴포지트(Composite) 비디오, 컴포넌트(Component) 비디오, 슈퍼 비디오(Super Video), SCART 등과 같이, 비디오 및/또는 오디오 전송규격에 따른 커넥터 또는 포트 등을 포함한다. 유선 인터페이스부는 USB 포트 등과 같은 범용 데이터 전송규격에 따른 커넥터 또는 포트 등을 포함한다. 유선 인터페이스부는 광 전송규격에 따라 광케이블이 연결될 수 있는 커넥터 또는 포트 등을 포함한다. The interface unit 11 includes a wired interface unit. The wired interface unit includes a connector or port to which an antenna capable of receiving a broadcast signal according to a broadcasting standard such as terrestrial/satellite broadcasting is connected, or a cable capable of receiving a broadcast signal according to the cable broadcasting standard is connected. As another example, the electronic device 10 may have a built-in antenna capable of receiving a broadcast signal. The wired interface unit includes a connector or port according to video and/or audio transmission standards, such as HDMI port, DisplayPort, DVI port, Thunderbolt, Composite video, Component video, Super Video, SCART, etc. includes The wired interface unit includes a connector or port according to a universal data transmission standard such as a USB port. The wired interface unit includes a connector or a port to which an optical cable can be connected according to an optical transmission standard.
유선 인터페이스부는 내부 오디오 수신부를 포함한다. 유선 인터페이스부는 유선 인터페이스부는 오디오 수신부를 구비한 외부 오디오기기가 연결되며, 오디오기기로부터 오디오신호를 수신 또는 입력할 수 있는 커넥터 또는 포트 등을 포함한다. 유선 인터페이스부는 헤드셋, 이어폰, 외부 스피커 등과 같은 오디오기기가 연결되며, 오디오기기로 오디오신호를 전송 또는 출력할 수 있는 커넥터 또는 포트 등을 포함한다. 유선 인터페이스부는 이더넷 등과 같은 네트워크 전송규격에 따른 커넥터 또는 포트를 포함한다. 일 예로, 유선 인터페이스부는 라우터 또는 게이트웨이에 유선 접속된 랜카드 등으로 구현된다.The wired interface unit includes an internal audio receiver. The wired interface unit is connected to an external audio device having an audio receiver and includes a connector or a port capable of receiving or inputting an audio signal from the audio device. The wired interface unit is connected to an audio device such as a headset, earphone, or external speaker, and includes a connector or port capable of transmitting or outputting an audio signal to the audio device. The wired interface unit includes a connector or port according to a network transmission standard such as Ethernet. For example, the wired interface unit is implemented as a LAN card connected to a router or a gateway by wire.
유선 인터페이스부는 상기 커넥터 또는 포트를 통해 셋탑박스, 광학미디어 재생장치와 같은 외부기기, 또는 외부 디스플레이장치나, 스피커, 서버 등과 1:1 또는 1:N(N은 자연수) 방식으로 유선 접속됨으로써, 해당 외부기기로부터 비디오/오디오신호를 수신하거나 또는 해당 외부기기에 비디오/오디오신호를 송신한다. 유선 인터페이스부는, 비디오/오디오신호를 각각 별개로 전송하는 커넥터 또는 포트를 포함할 수도 있다. The wired interface unit is connected to an external device such as a set-top box, an optical media player, or an external display device, a speaker, a server, etc. in a 1:1 or 1:N (N is a natural number) method through the connector or port, so that the corresponding It receives a video/audio signal from an external device or transmits a video/audio signal to the corresponding external device. The wired interface unit may include a connector or a port for separately transmitting video/audio signals.
유선 인터페이스부는 전자장치(10)에 내장되거나, 동글(Dongle) 또는 모듈(Module) 형태로 구현되어 전자장치(10)의 커넥터에 착탈될 수도 있다. The wired interface unit may be embedded in the electronic device 10 , or implemented in the form of a dongle or a module to be detachably attached to the connector of the electronic device 10 .
인터페이스부(11)는 무선 인터페이스부를 포함한다. 무선 인터페이스부는 전자장치(10)의 구현 형태에 대응하여 다양한 방식으로 구현된다. 예컨대, 무선 인터페이스부는 통신방식으로 RF(Radio Frequency), 지그비(Zigbee), 블루투스(Bluetooth), 와이파이(Wi-Fi), UWB(Ultra-Wideband) 및 NFC(Near Field Communication) 등 무선통신을 사용한다. 무선 인터페이스부는 와이파이 방식에 따라서 AP와 무선통신을 수행하는 무선통신모듈이나, 블루투스 등과 같은 1대 1 다이렉트 무선통신을 수행하는 무선통신모듈 등으로 구현된다. The interface unit 11 includes a wireless interface unit. The wireless interface unit is implemented in various ways corresponding to the implementation form of the electronic device 10 . For example, the wireless interface unit uses wireless communication such as RF (Radio Frequency), Zigbee, Bluetooth, Wi-Fi, UWB (Ultra-Wideband) and NFC (Near Field Communication) as a communication method. . The wireless interface unit is implemented as a wireless communication module for performing wireless communication with the AP according to the Wi-Fi method or a wireless communication module for performing one-to-one direct wireless communication such as Bluetooth.
무선 인터페이스부는 네트워크 상의 외부장치(20)와 무선 통신함으로써, 데이터 패킷을 송수신한다. 무선 인터페이스부는 적외선 통신규격에 따라 IR(Infrared) 신호를 송신 및/또는 수신할 수 있는 IR송신부 및/또는 IR수신부를 포함한다. The wireless interface unit transmits and receives data packets by wirelessly communicating with the external device 20 on the network. The wireless interface unit includes an IR transmitter and/or an IR receiver capable of transmitting and/or receiving an IR (Infrared) signal according to an infrared communication standard.
무선 인터페이스부는 IR송신부 및/또는 IR수신부를 통해 리모트 컨트롤러 또는 다른 외부기기로부터 리모트 컨트롤러신호를 수신 또는 입력하거나, 리모트 컨트롤러 또는 다른 외부기기로 리모트 컨트롤러신호를 전송 또는 출력한다. 다른 예로서, 전자장치(10)는 와이파이, 블루투스 등 다른 방식의 무선 인터페이스부를 통해 리모트 컨트롤러 또는 다른 외부기기와 리모트 컨트롤러신호를 송수신한다. The wireless interface unit receives or inputs a remote controller signal from the remote controller or other external device through the IR transmitter and/or the IR receiver, or transmits or outputs a remote controller signal to the remote controller or other external device. As another example, the electronic device 10 transmits/receives a remote controller signal to and from a remote controller or other external device through a wireless interface unit of another method such as Wi-Fi or Bluetooth.
리모트 컨트롤러는 스마트폰 등을 포함하며, 스마트폰 등에는 리모트 컨트롤러 어플리케이션이 설치된다. 스마트폰 등은 설치된 어플리케이션을 통해 리모트 컨트롤러의 기능, 예컨대, 전자장치(10)를 제어하는 기능을 수행한다. 이러한 리모트 컨트롤러 어플리케이션은 AI 스피커, AI 로봇 등 다양한 외부 장치에 설치된다. The remote controller includes a smart phone and the like, and a remote controller application is installed on the smart phone or the like. A smartphone or the like performs a function of a remote controller, for example, a function of controlling the electronic device 10 through an installed application. These remote controller applications are installed in various external devices such as AI speakers and AI robots.
전자장치(10)는 인터페이스부(11)를 통해 수신하는 비디오/오디오신호가 방송신호인 경우, 수신된 방송신호를 채널 별로 튜닝하는 튜너(Tuner)를 더 포함한다. When the video/audio signal received through the interface unit 11 is a broadcast signal, the electronic device 10 further includes a tuner for tuning the received broadcast signal for each channel.
전자장치(10)는 디스플레이(12)를 포함한다. 디스플레이(12)는 화면 상에 영상을 표시할 수 있는 디스플레이 패널을 포함한다. 디스플레이 패널은 다양한 화면 크기를 가질 수 있다. 예컨대, 세로형, 가로형 등 서로 다른 화면 크기를 갖는 다양한 형태로 마련될 수 있다. 디스플레이 패널은 액정 방식과 같은 수광 구조 또는 OLED 방식과 같은 자발광 구조로 마련된다. 디스플레이(12)는 디스플레이 패널의 구조에 따라서 부가적인 구성을 추가로 포함할 수 있는데, 예컨대, 디스플레이 패널이 액정 방식이라면, 디스플레이(12)는 액정 디스플레이 패널과, 광을 공급하는 백라이트유닛과, 액정 디스플레이 패널의 액정을 구동시키는 패널구동기판을 포함한다. 다만, 앞서 설명한 바와 같이, 디스플레이(12)는 전자장치(10)가 셋탑박스 등으로 구현되는 경우 생략된다.The electronic device 10 includes a display 12 . The display 12 includes a display panel capable of displaying an image on a screen. The display panel may have various screen sizes. For example, it may be provided in various forms having different screen sizes, such as a vertical type and a horizontal type. The display panel is provided with a light-receiving structure such as a liquid crystal type or a self-luminous structure such as an OLED type. The display 12 may further include additional components according to the structure of the display panel. For example, if the display panel is a liquid crystal type, the display 12 includes a liquid crystal display panel, a backlight unit for supplying light, and liquid crystal. and a panel driving substrate for driving the liquid crystal of the display panel. However, as described above, the display 12 is omitted when the electronic device 10 is implemented as a set-top box or the like.
전자장치(10)는 카메라(13)를 포함한다. 카메라(13)는 전자장치(10)의 전방을 촬영한다. 카메라(13)에 의해 촬영된 영상에 기초하여 사용자영상(3) 내 사용자영역(2)이 식별될 수 있다. 다만, 이에 한정되는 것은 아니므로, 사용자영상(3) 내 사용자영역(2)의 유무, 사용자(1)의 움직임 등이 식별될 수 있다. 카메라(13)는 CMOS(Complementary Metal Oxide Semiconductor) 또는 CCD(Charge Coupled Device) 방식의 카메라로 구현된다. 카메라(13)는 내부 카메라(13)에 한정되는 것은 아니므로, 외부기기에 마련된 카메라를 포함한다. 이 경우, 인터페이스부(11)를 통해 외부기기로부터 카메라에 의해 획득된 이미지신호가 수신 또는 입력될 수 있다. The electronic device 10 includes a camera 13 . The camera 13 photographs the front of the electronic device 10 . The user area 2 in the user image 3 may be identified based on the image captured by the camera 13 . However, since the present invention is not limited thereto, the presence or absence of the user area 2 in the user image 3 and the movement of the user 1 may be identified. The camera 13 is implemented as a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD) type camera. Since the camera 13 is not limited to the internal camera 13, it includes a camera provided in an external device. In this case, an image signal obtained by the camera from an external device may be received or input through the interface unit 11 .
전자장치(10)는 통신부(15)를 포함한다. 통신부(15)는 외부장치(20) 등과 연결되어 비디오/오디오 신호를 전송한다. 통신부(15)는 설계 방법에 따라 유선 인터페이스부 또는 무선 인터페이스 중 적어도 하나의 구성을 포함하며, 유선 인터페이스부 또는 무선 인터페이스 중 적어도 하나의 기능을 수행한다. The electronic device 10 includes a communication unit 15 . The communication unit 15 is connected to the external device 20 and the like to transmit video/audio signals. The communication unit 15 includes at least one of a wired interface unit and a wireless interface according to a design method, and performs at least one function of the wired interface unit and the wireless interface.
전자장치(10)는 사용자입력부(14)를 포함한다. 사용자입력부(14)는 사용자입력을 수신하기 위해 사용자(1)가 조작할 수 있도록 마련된 다양한 종류의 입력 인터페이스 관련 회로를 포함한다. 사용자입력부(14)는 전자장치(10)의 종류에 따라서 여러 가지 형태의 구성이 가능하며, 예컨대, 전자장치(10)의 기계적 또는 전자적 버튼부, 터치패드, 디스플레이(12)에 설치된 터치스크린 등이 있다.The electronic device 10 includes a user input unit 14 . The user input unit 14 includes various types of input interface related circuits provided to be operated by the user 1 in order to receive a user input. The user input unit 14 may be configured in various forms depending on the type of the electronic device 10 , for example, a mechanical or electronic button unit of the electronic device 10 , a touch pad, a touch screen installed on the display 12 , etc. There is this.
전자장치(10)는 출력부(16)를 포함한다. 출력부(16)는 오디오신호에 기초하여 오디오를 출력하는 스피커로 구현될 수 있다. 스피커는 내부 스피커 또는 외부기기에 마련된 외부 스피커를 포함한다. 외부 스피커를 통해 오디오가 출력되는 경우, 오디오신호가 인터페이스부(11)를 통해 외부기기로 전송될 수 있다. The electronic device 10 includes an output unit 16 . The output unit 16 may be implemented as a speaker that outputs audio based on an audio signal. The speaker includes an internal speaker or an external speaker provided in an external device. When audio is output through the external speaker, the audio signal may be transmitted to the external device through the interface unit 11 .
디스플레이(12), 카메라(13), 사용자입력부(14), 통신부(15), 출력부(16) 등은 인터페이스부(11)와 별도의 구성으로 기재되었으나, 설계 방법에 따라 인터페이스부(11)에 포함되도록 구성될 수 있다. The display 12 , the camera 13 , the user input unit 14 , the communication unit 15 , the output unit 16 , etc. have been described as separate components from the interface unit 11 , but the interface unit 11 according to the design method It can be configured to be included in
전자장치(10)는 저장부(17)를 포함한다. 저장부(17)는 디지털화된 데이터를 저장한다. 저장부(17)는 전원의 제공 유무와 무관하게 데이터를 보존할 수 있는 비휘발성 속성의 스토리지(Storage)를 포함한다. 스토리지는 플래시메모리(Flash-Memory), HDD(Hard-Disc Drive), SSD(Solid-State Drive), ROM(Read Only Memory) 등을 포함한다. The electronic device 10 includes a storage unit 17 . The storage unit 17 stores digitized data. The storage unit 17 includes storage of non-volatile properties capable of preserving data regardless of whether or not power is provided. The storage includes a flash memory, a hard-disc drive (HDD), a solid-state drive (SSD), a read only memory (ROM), and the like.
저장부(17)는 프로세서(4)에 의해 처리되기 위한 데이터 등이 로드 되며, 전원이 제공되지 않으면 데이터를 보존할 수 없는 휘발성 속성의 메모리(Memory)를 포함한다. 메모리는 버퍼(Buffer), 램(Random Access Memory) 등을 포함한다. The storage unit 17 is loaded with data to be processed by the processor 4 , and includes a memory having a volatile property that cannot store data when power is not provided. The memory includes a buffer, a random access memory, and the like.
전자장치(10)는 프로세서(4)를 포함한다. 프로세서(4)는 인쇄회로기판 상에 장착되는 CPU, 칩셋, 버퍼, 회로 등으로 구현되는 하나 이상의 하드웨어 프로세서를 포함하며, 설계 방식에 따라서는 SOC(system on chip)로 구현될 수도 있다. 프로세서(4)는 전자장치(10)가 디스플레이장치로 구현되는 경우에 디멀티플렉서, 디코더, 스케일러, 오디오 DSP(Digital Signal Processor), 앰프 등의 다양한 프로세스에 대응하는 모듈들을 포함한다. 여기서, 이러한 모듈들 중 일부 또는 전체가 SOC로 구현된다. 예컨대, 디멀티플렉서, 디코더, 스케일러 등 영상처리와 관련된 모듈이 영상처리 SOC로 구현되고, 오디오 DSP는 SOC와 별도의 칩셋으로 구현되는 것이 가능하다.The electronic device 10 includes a processor 4 . The processor 4 includes one or more hardware processors implemented as a CPU, a chipset, a buffer, a circuit, etc. mounted on a printed circuit board, and may be implemented as a system on chip (SOC) depending on a design method. When the electronic device 10 is implemented as a display device, the processor 4 includes modules corresponding to various processes such as a demultiplexer, a decoder, a scaler, an audio digital signal processor (DSP), and an amplifier. Here, some or all of these modules are implemented as SOC. For example, a module related to image processing such as a demultiplexer, a decoder, and a scaler may be implemented as an image processing SOC, and an audio DSP may be implemented as a chipset separate from the SOC.
프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(도 4의 5)을 식별한다. The processor 4 identifies the reference body region ( 5 in FIG. 4 ) of the user region 2 in the user image 3 .
프로세서(4)는 사용자영상(3)을 표시할 디스플레이(12)의 화면 크기(도 5의 w)에 기초하여 디스플레이(12)에 표시될 사용자영상(3) 내 기준신체 영역(5)의 크기(도 4의 a)를 식별한다. The processor 4 determines the size of the reference body region 5 in the user image 3 to be displayed on the display 12 based on the screen size (w in FIG. 5 ) of the display 12 on which the user image 3 is to be displayed. (FIG. 4 a) is identified.
프로세서(4)는 기준신체 영역(5)의 크기(a)가 복수 사용자의 기준신체에 기초하여 정의된 기준크기에 대응하도록 디스플레이(12)에 표시될 사용자영상(3)을 확대 또는 축소한다. The processor 4 enlarges or reduces the user image 3 to be displayed on the display 12 so that the size a of the reference body region 5 corresponds to the reference size defined based on the reference body of a plurality of users.
전자장치(10)의 구성은 도 2에 도시된 바에 한정되는 것은 아니므로, 설계 방법에 따라 상기한 구성 중 일부를 제외하거나, 상기한 구성 이외의 구성을 포함한다. Since the configuration of the electronic device 10 is not limited to that shown in FIG. 2 , some of the above-described components may be excluded or include components other than the above-described components according to a design method.
전자장치(10)의 프로세서(4)는 상기한 동작들을 위한 데이터 분석, 처리, 및 결과 정보 생성 중 적어도 일부에 대하여, 규칙 기반 또는 AI 알고리즘을 이용한 AI 기술을 적용함으로써, AI 시스템을 구축한다. The processor 4 of the electronic device 10 builds an AI system by applying an AI technology using a rule-based or AI algorithm to at least a part of data analysis, processing, and result information generation for the above operations.
AI 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템으로서 기계가 스스로 학습하고 판단하며, 사용할수록 인식률이 향상되는 시스템이며, AI 알고리즘은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘이다. The AI system is a computer system that implements human-level intelligence, and the machine learns and judges on its own, and the recognition rate improves the more it is used.
AI 기술은 기계학습, 신경망 네트워크(Neural Network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 요소 기술들로 구성된다. AI technology is composed of elemental technologies that simulate functions such as cognition and judgment of the human brain using at least one of machine learning, a neural network, or a deep learning algorithm.
요소기술들은 인간의 언어/문자를 인식하는 언어적 이해 기술, 사물을 인간의 시각처럼 인식하는 시각적 이해 기술, 정보를 판단하여 논리적으로 추론하고 예측하는 추론/예측 기술, 인간의 경험 정보를 지식데이터로 처리하는 지식 표현 기술 및 차량의 자율 주행, 로봇의 움직임을 제어하는 동작 제어 기술 중 적어도 하나를 포함할 수 있다.The element technologies are linguistic understanding technology that recognizes human language/text, visual understanding technology that recognizes objects as if they were human eyes, reasoning/prediction technology that logically infers and predicts by judging information, and uses human experience information as knowledge data. It may include at least one of a knowledge expression technology that is processed with
언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. Linguistic understanding is a technology for recognizing and applying/processing human language/text, and includes natural language processing, machine translation, dialogue system, question and answer, and speech recognition/synthesis. Visual understanding is a technology for recognizing and processing objects like human vision, and includes object recognition, object tracking, image search, human recognition, scene understanding, spatial understanding, image improvement, and the like. Inferential prediction is a technology for logically reasoning and predicting by judging information, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendation. Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data generation/classification) and knowledge management (data utilization).
이하에서는 상기한 AI 알고리즘을 이용한 AI 기술이 전자장치(10)의 프로세서(4)에 의해 구현되는 일 예를 설명한다.Hereinafter, an example in which the AI technology using the AI algorithm is implemented by the processor 4 of the electronic device 10 will be described.
프로세서(4)는 학습부 및 인식부의 기능을 함께 수행한다. 학습부는 학습된 신경망 네트워크를 생성하는 기능을 수행하고, 인식부는 학습된 신경망 네트워크를 이용하여 데이터를 인식, 추론, 예측, 추정, 판단하는 기능을 수행한다. The processor 4 performs the functions of the learning unit and the recognition unit together. The learning unit performs a function of generating a learned neural network network, and the recognition unit performs a function of recognizing, inferring, predicting, estimating, and judging data using the learned neural network network.
학습부는 신경망 네트워크를 생성하거나 갱신한다. 학습부는 신경망 네트워크를 생성하기 위해서 학습 데이터를 획득한다. 일 예로, 학습부는 학습 데이터를 저장부(17)로부터 획득하거나, 외부로부터 획득한다. 학습 데이터는, 신경망 네트워크의 학습을 위해 이용되는 데이터일 수 있으며, 상기한 동작을 수행한 데이터를 학습데이터로 이용하여 신경망 네트워크를 학습시킬 수 있다.The learning unit creates or updates the neural network. The learning unit acquires learning data to generate a neural network. For example, the learning unit acquires the learning data from the storage unit 17 or from the outside. The learning data may be data used for learning of the neural network, and the neural network may be trained by using the data obtained by performing the above-described operation as learning data.
학습부는 학습 데이터를 이용하여 신경망 네트워크를 학습시키기 전에, 획득된 학습 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 학습 데이터들 중에서 학습에 이용될 데이터를 선별한다. 일 예로, 학습부는 학습 데이터를 기 설정된 포맷으로 가공하거나, 필터링하거나, 또는 노이즈를 추가/제거하여 학습에 적절한 데이터의 형태로 가공한다. 학습부는 전처리된 학습 데이터를 이용하여 상기한 동작을 수행하도록 설정된 신경망 네트워크를 생성한다.The learning unit performs preprocessing on the acquired training data before training the neural network using the training data, or selects data to be used for learning from among a plurality of training data. For example, the learning unit processes the learning data in a preset format, filters, or adds/remove noise to form data suitable for learning. The learning unit generates a neural network set to perform the above-described operation by using the pre-processed learning data.
학습된 신경망 네트워크는, 복수의 신경망 네트워크 또는 레이어들로 구성된다. 복수의 신경망 네트워크의 노드들은 가중치를 가지며, 복수의 신경망 네트워크들은 일 신경망 네트워크의 출력 값이 다른 신경망 네트워크의 입력 값으로 이용되도록 서로 연결된다. 신경망 네트워크의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network) 및 심층 Q-네트워크 (Deep Q-Networks)과 같은 모델을 포함한다.The learned neural network is composed of a plurality of neural network networks or layers. Nodes of the plurality of neural networks have weights, and the plurality of neural networks are connected to each other so that an output value of one neural network is used as an input value of another neural network. Examples of neural networks include Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN) and Including models such as Deep Q-Networks.
한편, 인식부는 상기한 동작을 수행하기 위해, 타겟 데이터를 획득한다. 타겟 데이터는 저장부(17)로부터 획득하거나, 외부로부터 획득한다. 타겟 데이터는 신경망 네트워크의 인식 대상이 되는 데이터일 수 있다. 인식부는 타겟 데이터를 학습된 신경망 네트워크에 적용하기 전에, 획득된 타겟 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 타겟 데이터들 중에서 인식에 이용될 데이터를 선별한다. 일 예로, 인식부는 타겟 데이터를 기 설정된 포맷으로 가공하거나, 필터링 하거나, 또는 노이즈를 추가/제거하여 인식에 적절한 데이터의 형태로 가공한다. 인식부는 전처리된 타겟 데이터를 신경망 네트워크에 적용함으로써, 신경망 네트워크로부터 출력되는 츨력값을 획득한다. 인식부는 출력값과 함께, 확률값 또는 신뢰도값을 획득한다.Meanwhile, the recognition unit acquires target data to perform the above-described operation. The target data is acquired from the storage unit 17 or is acquired from the outside. The target data may be data to be recognized by the neural network. The recognition unit performs preprocessing on the acquired target data before applying the target data to the learned neural network, or selects data to be used for recognition from among a plurality of target data. For example, the recognition unit processes target data into a preset format, filters, or adds/remove noise to form data suitable for recognition. The recognition unit obtains an output value output from the neural network by applying the preprocessed target data to the neural network. The recognition unit obtains a probability value or a reliability value together with the output value.
도 3은 도 1의 전자장치에 대한 제어방법의 일 예를 도시한다. FIG. 3 shows an example of a control method for the electronic device of FIG. 1 .
도 3에 도시된 바와 같이, 프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)을 식별한다(S31). As shown in FIG. 3 , the processor 4 identifies the reference body region 5 of the user region 2 in the user image 3 ( S31 ).
프로세서(4)는 사용자영상(3)을 표시할 디스플레이(12)의 화면 크기(w)에 기초하여 디스플레이(12)에 표시될 사용자영상(3) 내 기준신체 영역(5)의 크기(a)를 식별한다(S32). The processor 4 determines the size (a) of the reference body region 5 in the user image 3 to be displayed on the display 12 based on the screen size w of the display 12 on which the user image 3 is to be displayed. is identified (S32).
프로세서(4)는 기준신체 영역(5)의 크기(a)가 복수 사용자의 기준신체에 기초하여 정의된 기준크기(b)에 대응하도록 디스플레이(12)에 표시될 사용자영상(3)을 확대 또는 축소한다(S33).The processor 4 enlarges or expands the user image 3 to be displayed on the display 12 so that the size (a) of the reference body region 5 corresponds to the reference size (b) defined based on the reference body of a plurality of users. Reduced (S33).
이와 같이, 프로세서(4)는 사용자영상(3)에 기초하여 사용자영역(2)의 기준신체 영역(5)의 크기(a)를 식별하고, 기준신체 영역(5)의 크기(a)가 기준크기(b)에 대응하도록 사용자영상(3)을 확대 또는 축소할 수 있다. 따라서, 사용자영상(3)을 확대 또는 축소함에 있어서 활용되는 기준정보를 사용자 또는 외부로부터 획득하지 않아도 되므로, 편의성 및 효율성을 향상시킬 수 있다. In this way, the processor 4 identifies the size (a) of the reference body region 5 of the user region 2 based on the user image 3, and the size (a) of the reference body region 5 is the reference The user image 3 may be enlarged or reduced to correspond to the size b. Accordingly, since it is not necessary to obtain reference information used in enlarging or reducing the user image 3 from the user or the outside, convenience and efficiency can be improved.
도 4는 도 3의 동작 S32와 관련하여, 기준신체 영역을 식별하는 구체적인 예를 도시한다.FIG. 4 shows a specific example of identifying a reference body region in relation to operation S32 of FIG. 3 .
프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)을 식별한다. 기준신체 영역(5)은 사용자영역(2)의 홍채에 대응하는 영역(5)을 포함할 수 있다. 홍채는 안구 내로 유입되는 빛의 양을 조절하는 기능을 수행한다. 홍채에 대응하는 영역(5)은 원형 또는 타원형으로 이루어지며, 외부로는 안구의 흰 부분인 흰자와 외부 경계를 공유하며, 내부로는 안구의 검은 부분인 동공과 내부 경계를 공유한다. 다만, 기준신체 영역(5)이 홍채에 대응하는 영역(5)에 한정되는 것은 아니므로, 사용자영역(2)의 다른 신체 영역을 기준신체 영역(5)으로 식별할 수 있다. 다양한 기준신체 영역(5)에 대해서는 도 15를 참조하여 자세히 설명하기로 한다. The processor 4 identifies the reference body region 5 of the user region 2 in the user image 3 . The reference body region 5 may include a region 5 corresponding to the iris of the user region 2 . The iris performs the function of controlling the amount of light entering the eyeball. The region 5 corresponding to the iris has a circular or oval shape, and shares an external boundary with the white part of the eyeball externally, and shares an internal boundary with the pupil, the black part of the eyeball, internally. However, since the reference body region 5 is not limited to the region 5 corresponding to the iris, other body regions of the user region 2 may be identified as the reference body region 5 . Various reference body regions 5 will be described in detail with reference to FIG. 15 .
프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)을 식별하기 위해 다양한 이미지인식 알고리즘을 활용할 수 있다. 이미지인식 알고리즘은 앞서 설명한 바와 같이 CNN, HOG(Histogram of Oriented Gradient) 등을 포함하지만, 이에 한정되는 것은 아니다. The processor 4 may utilize various image recognition algorithms to identify the reference body region 5 of the user region 2 in the user image 3 . The image recognition algorithm includes, but is not limited to, CNN, Histogram of Oriented Gradient (HOG), etc. as described above.
프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a)를 식별한다. 일 예로, 기준신체 영역(5)이 홍채에 대응하는 영역(5)인 경우, 기준신체 영역(5)의 크기(a)는 홍채에 대응하는 영역(5)의 크기(a)로서, 흰자와의 외측 경계의 가로 길이(a)를 포함한다. 가로 길이(a)는 외측 경계의 장반경(a)을 포함한다. 다만, 이에 한정되는 것은 아니므로, 홍채에 대응하는 영역(5)의 크기(a)는 흰자와의 외측 경계의 세로 길이인 단반경을 포함할 수 있다. The processor 4 identifies the size (a) of the reference body region 5 of the user region 2 in the user image 3 . For example, when the reference body region 5 is the region 5 corresponding to the iris, the size (a) of the reference body region 5 is the size (a) of the region 5 corresponding to the iris, and contains the transverse length (a) of the outer boundary of . The transverse length (a) includes the major radius (a) of the outer boundary. However, since the present invention is not limited thereto, the size (a) of the region 5 corresponding to the iris may include a minor radius, which is the vertical length of the outer boundary with the white.
기준신체 영역(5)의 크기(a)는 디스플레이(12)의 화면 크기(w)에 기초하여 식별될 수 있다. 이에 대해서는 도 5를 참조하여 좀더 자세히 설명하기로 한다. The size a of the reference body region 5 may be identified based on the screen size w of the display 12 . This will be described in more detail with reference to FIG. 5 .
이와 같이, 프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5) 또는 기준신체 영역(5)의 크기(a)를 식별할 수 있으므로, 이하에서 도 5를 참조하여 설명하는 바와 같이, 사용자영상(3) 내 사용자영역(2)이 소정 크기에 대응하도록 사용자영상(3)을 확대 또는 축소할 수 있는 여건을 마련할 수 있다. In this way, since the processor 4 can identify the reference body region 5 or the size a of the reference body region 5 of the user region 2 in the user image 3, see FIG. 5 below. As described above, it is possible to provide a condition for enlarging or reducing the user image 3 so that the user area 2 in the user image 3 corresponds to a predetermined size.
도 5는 도 3의 동작 S33과 관련하여, 기준신체 영역의 크기를 식별하는 구체적인 예를 도시한다.FIG. 5 shows a specific example of identifying the size of a reference body region in relation to operation S33 of FIG. 3 .
프로세서(4)는 디스플레이(12)에 표시된 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a)를 식별한다. 프로세서(4)는 사용자영상(3)이 표시된 디스플레이(12)의 화면 크기(w)를 고려하여 기준신체 영역(5)의 크기(a)를 식별할 수 있다. 일 예로, 기준신체 영역(5)의 크기(a)가 홍채에 대응하는 영역(5)의 가로 길이(a)인 경우, 프로세서(4)는 사용자영상(3)이 표시된 화면의 폭(w)과 대비하여, 디스플레이(12)에 표시된 사용자영상(3) 내 홍채에 대응하는 영역(5)의 가로 길이(a)를 식별할 수 있다. 화면의 화면의 폭(w)이 100mm인 경우, 홍채에 대응하는 영역(5)의 가로 길이(a)가 6mm, 12mm, 18mm 등인 것으로 식별할 수 있다. The processor 4 identifies the size a of the reference body region 5 of the user region 2 in the user image 3 displayed on the display 12 . The processor 4 may identify the size a of the reference body region 5 in consideration of the screen size w of the display 12 on which the user image 3 is displayed. For example, when the size (a) of the reference body region 5 is the horizontal length (a) of the region 5 corresponding to the iris, the processor 4 determines the width w of the screen on which the user image 3 is displayed. In contrast to , the horizontal length a of the region 5 corresponding to the iris in the user image 3 displayed on the display 12 can be identified. When the width w of the screen is 100 mm, it can be identified that the horizontal length a of the region 5 corresponding to the iris is 6 mm, 12 mm, 18 mm, or the like.
프로세서(4)는 기준신체 영역(5)의 크기(a)가 기준크기(b)에 대응하도록 사용자영상(3)을 확대 또는 축소할 수 있다. 기준크기(b)가 기준신체 영역(5)의 크기(a)보다 큰 경우, 사용자영상(3)을 확대할 수 있다. 반면에, 기준크기(b)가 기준신체 영역(5)의 크기(a)보다 작은 경우, 사용자영상(3)을 축소할 수 있다. The processor 4 may enlarge or reduce the user image 3 so that the size a of the reference body region 5 corresponds to the reference size b. When the reference size (b) is larger than the size (a) of the reference body region 5 , the user image 3 may be enlarged. On the other hand, when the reference size b is smaller than the size a of the reference body region 5, the user image 3 may be reduced.
기준크기(b)는 복수 사용자의 기준신체에 기초하여 정의된 기준크기(b)를 포함한다. 일 예로, 기준크기(b)는 복수 사용자의 홍채의 평균적인 크기(b)로서, 홍채의 외측 경계의 평균적인 가로 길이(b)를 포함한다. 가로 길이(b)는 외측 경계의 장반경(b)을 포함한다. 다만, 이에 한정되는 것은 아니므로, 복수 사용자의 홍채의 평균적인 크기(b)는 홍채의 외측 경계의 평균적인 세로 길이인 단반경을 포함할 수 있다. The reference size (b) includes a reference size (b) defined based on the reference body of a plurality of users. For example, the reference size (b) is an average size (b) of the iris of a plurality of users, and includes an average horizontal length (b) of the outer boundary of the iris. The transverse length (b) includes the major radius (b) of the outer boundary. However, since the present invention is not limited thereto, the average size b of the iris of a plurality of users may include a minor radius that is an average vertical length of the outer boundary of the iris.
기준크기(b)에 관한 정보는 외부로부터 수신된 것일 수 있다. 일 예로, 홍채의 외측 경계의 평균적인 가로 길이(b)에 관한 정보는 네트워크를 통해 연결된 서버, 다른 디스플레이장치 등으로부터 수신된 것일 수 있다. 다만, 이에 한정되는 것은 아니므로, 기준크기(b)에 관한 정보는 사용자(1)로부터 입력된 것일 수 있다. 기준크기(b)에 관한 정보는 룩업 테이블의 형태로 저장부(17)에 저장될 수 있다. Information about the reference size (b) may be received from the outside. For example, the information about the average horizontal length b of the outer boundary of the iris may be received from a server connected through a network, another display device, or the like. However, since the present invention is not limited thereto, the information regarding the reference size b may be input from the user 1 . Information on the reference size b may be stored in the storage unit 17 in the form of a lookup table.
설명의 편의를 위해 복수 사용자의 홍채의 평균적인 가로 길이(b)가 12mm라고 가정한다. 사용자영상(3) 내 홍채에 대응하는 영역(5)의 가로 길이(a)가 6mm인 경우, 프로세서(4)는 홍채에 대응하는 영역(5)의 가로 길이(a) 6mm가 홍채의 평균적인 가로 길이(b) 12mm에 대응하도록 사용자영상(3)을 2배 확대할 수 있다. 예컨대, 사용자영상(3)의 가로 길이가 2배로 확대될 수 있으며, 가로 길이의 확대에 비례하여 사용자영상(3)의 세로 길이도 확대될 수 있다. For convenience of description, it is assumed that the average horizontal length b of the iris of a plurality of users is 12 mm. When the horizontal length (a) of the region 5 corresponding to the iris in the user image 3 is 6 mm, the processor 4 determines that the horizontal length (a) of the region 5 corresponding to the iris 6 mm is the average of the iris. The user image 3 can be magnified twice to correspond to the horizontal length (b) of 12 mm. For example, the horizontal length of the user image 3 may be enlarged twice, and the vertical length of the user image 3 may also be enlarged in proportion to the enlargement of the horizontal length.
반면에, 사용자영상(3) 내 식별된 홍채에 대응하는 영역(5)의 가로 길이(a)가 18mm인 경우, 프로세서(4)는 사용자영상(3) 내 식별된 홍채에 대응하는 영역(5)의 가로 길이(a) 18mm가 홍채의 평균적인 가로 길이(b) 12mm에 대응하도록 사용자영상(3)을 2/3배 축소할 수 있다. 예컨대, 사용자영상(3)의 가로 길이가 2/3배로 축소될 수 있으며, 가로 길이의 축소에 비례하여 사용자영상(3)의 세로 길이도 축소될 수 있다. On the other hand, when the horizontal length a of the region 5 corresponding to the identified iris in the user image 3 is 18 mm, the processor 4 determines the region 5 corresponding to the identified iris in the user image 3 . ), the user image 3 may be reduced 2/3 times so that the horizontal length (a) of 18 mm corresponds to the average horizontal length (b) of the iris (b) 12 mm. For example, the horizontal length of the user image 3 may be reduced to 2/3 times, and the vertical length of the user image 3 may be reduced in proportion to the reduction in the horizontal length.
사용자영상(3) 내 식별된 홍채에 대응하는 영역(5)의 가로 길이(a)가 홍채의 평균적인 가로 길이(b) 12mm에 대응하도록 사용자영상(3)을 확대 또는 축소하면, 사용자영상(3) 내 사용자영역(2)이 소정 크기로 표시될 수 있다. 소정 크기는 사용자(1)의 실제 신체크기를 포함한다. If the user image 3 is enlarged or reduced so that the horizontal length (a) of the region 5 corresponding to the identified iris in the user image 3 corresponds to the average horizontal length (b) of the iris 12 mm, the user image ( 3) My user area 2 may be displayed in a predetermined size. The predetermined size includes the actual body size of the user 1 .
이와 같이, 프로세서(4)는 성별, 인종 등 간에 차이가 거의 없는 홍채의 특성을 고려하여, 홍채에 대응하는 영역(5)의 크기(a)가 복수 사용자의 홍채의 평균적인 크기(b)에 대응하도록 사용자영상(3)을 확대 또는 축소할 수 있으므로, 사용자영상(3) 내 사용자영역(2)의 크기가 사용자(1)의 실제 신체크기에 대응하도록 표시함에 있어서, 편의성 및 효율성을 향상시킬 수 있다. In this way, the processor 4 considers the characteristics of the iris with little difference between gender and race, so that the size (a) of the region 5 corresponding to the iris is equal to the average size (b) of the iris of a plurality of users. Since the user image 3 can be enlarged or reduced to correspond to it, convenience and efficiency can be improved in displaying the size of the user area 2 in the user image 3 to correspond to the actual body size of the user 1 . can
도 6은 도 3의 동작 S31과 관련하여, 상대방영상을 획득하는 추가 예를 도시한다.6 illustrates an additional example of acquiring a counterpart image in relation to operation S31 of FIG. 3 .
앞서 도 5를 참조하여, 사용자영상(3)을 확대 또는 축소하는 구체적인 예에 대해 설명한 바 있다. 이하에서는, 상대방영상(9)을 확대 또는 축소하는 추기 예에 대해 도 6을 참조하여 설명한다. 다만, 도 5의 실시예와 중복되는 설명은 생략하고, 상이한 부분 위주로 설명한다. A specific example of enlarging or reducing the user image 3 has been described above with reference to FIG. 5 . Hereinafter, an additional recording example of enlarging or reducing the counterpart image 9 will be described with reference to FIG. 6 . However, descriptions overlapping those of the embodiment of FIG. 5 will be omitted, and different parts will be mainly described.
상대방영상(9)은 외부장치(20)로부터 수신된 것일 수 있다. 외부장치(20)는, 전자장치(10)와 같이, TV 등과 같은 영상표시장치, 셋탑박스 등의 영상처리장치, 생활가전장치, 정보처리장치 등 다양한 종류의 장치로 구현된다. 이하에서는 설명의 편의를 위해 외부장치(20)가 스마트폰으로 구현되는 경우를 가정한다.The counterpart image 9 may be received from the external device 20 . The external device 20, like the electronic device 10, is implemented with various types of devices, such as an image display device such as a TV, an image processing device such as a set-top box, a home appliance, and an information processing device. Hereinafter, for convenience of description, it is assumed that the external device 20 is implemented as a smartphone.
전자장치(10)와 영상 통화 시, 외부장치(20)는 카메라(23)를 통해 상대방(7)에 대한 상대방영상(9)을 획득한다. 외부장치(20)는 획득된 상대방영상(9)을 전자장치(10)로 전송한다. 프로세서(4)는 외부장치(20)로부터 수신된 상대방영상(9)을 디스플레이(12)의 화면에 표시할 수 있다. 마찬가지로, 프로세서(4)는 카메라(13)를 통해 획득된 사용자(1)의 사용자영상(3)을 외부장치(20)로 전송하여, 외부장치(20)로 하여금 사용자영상(3)을 외부장치(20)의 디스플레이(24)에 표시하도록 한다. During a video call with the electronic device 10 , the external device 20 acquires the counterpart image 9 of the counterpart 7 through the camera 23 . The external device 20 transmits the acquired counterpart image 9 to the electronic device 10 . The processor 4 may display the counterpart image 9 received from the external device 20 on the screen of the display 12 . Similarly, the processor 4 transmits the user image 3 of the user 1 obtained through the camera 13 to the external device 20, so that the external device 20 transmits the user image 3 to the external device. (20) to be displayed on the display (24).
디스플레이(12)의 화면에 표시된 상대방영상(9) 내 상대방영역(8)의 크기는 상대방(7)의 실제 신체크기와 다를 수 있다. 프로세서(4)는 디스플레이(12)의 화면 크기(w)에 기초하여 상대방영상(9) 내 상대방영역(8)의 기준신체 영역(5)의 크기(a)를 식별하고, 기준신체 영역(5)의 크기(a)가 기준크기(b)에 대응하도록 상대방영상(9)을 확대 또는 축소함으로써, 상대방영상(9) 내 상대방영역(8)의 크기가 상대방(7)의 실제 신체크기에 대응하도록 표시할 수 있다. The size of the counterpart area 8 in the counterpart image 9 displayed on the screen of the display 12 may be different from the actual body size of the counterpart 7 . The processor 4 identifies the size (a) of the reference body region 5 of the counterpart region 8 in the counterpart image 9 based on the screen size w of the display 12, and the reference body region 5 ) by enlarging or reducing the counterpart image 9 so that the size (a) corresponds to the reference size (b), the size of the counterpart area 8 in the counterpart image 9 corresponds to the actual body size of the counterpart 7 can be indicated to do so.
이와 같이, 프로세서(4)는 상대방영상(9) 내 기준신체 영역(5)의 크기(a)가 기준 크기(b)에 대응하도록 상대방영상(9)을 확대 또는 축소할 수 있으므로, 상대방영상(9) 내 상대방영역(8)의 크기가 상대방(7)의 실제 신체크기에 대응하도록 표시함에 있어서, 편의성 및 효율성을 향상시킬 수 있다. In this way, since the processor 4 can enlarge or reduce the counterpart image 9 so that the size (a) of the reference body region 5 in the counterpart image 9 corresponds to the reference size (b), the counterpart image ( 9) Convenience and efficiency can be improved in displaying the size of the counterpart area 8 to correspond to the actual body size of the counterpart 7 .
도 7은 도 3의 동작 S31과 관련하여, 사용자영상 및 상대방영상을 함께 획득하는 추가 예를 도시한다.7 illustrates an additional example of acquiring a user image and a counterpart image together with respect to operation S31 of FIG. 3 .
앞서 도 5 및 6을 참조하여, 사용자영상(3) 또는 상대방영상(9)을 확대 또는 축소하는 실시예에 대해 설명한 바 있으나, 이하에서는, 사용자영상(3) 및 상대방영상(9)을 모두 확대 또는 축소하는 추가 예에 대해 도 7을 참조하여 설명한다. 다만, 도 5 및 6의 실시예와 중복되는 설명은 생략하고, 상이한 부분 위주로 설명한다. Although the embodiment of enlarging or reducing the user image 3 or the counterpart image 9 has been described above with reference to FIGS. 5 and 6 , hereinafter, both the user image 3 and the counterpart image 9 are enlarged. Alternatively, an additional example of reduction will be described with reference to FIG. 7 . However, descriptions overlapping those of the embodiments of FIGS. 5 and 6 will be omitted, and different parts will be mainly described.
프로세서(4)는 사용자영상(3) 및 상대방영상(9)을 디스플레이(12)의 화면에 표시할 수 있다. 사용자영상(3) 및 상대방영상(9)을 복수의 사용자영상(3)로 명명할 수 있으나, 설명의 편의를 위해 사용자영상(3) 및 상대방영상(9)로 구분하여 설명한다. The processor 4 may display the user image 3 and the counterpart image 9 on the screen of the display 12 . The user image 3 and the counterpart image 9 may be named as a plurality of user images 3 , but for convenience of explanation, the user image 3 and the counterpart image 9 are divided and described.
프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a) 및 상대방영상(9) 내 상대방영역(8)의 기준신체 영역(5)의 크기(a)를 식별한다. 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a)는 사용자영역(2)의 홍채에 대응하는 영역(5)의 가로 길이(a)를 포함하고, 상대방영상(9) 내 상대방영역(8)의 기준신체 영역(5)의 크기(a)는 상대방영역(8)의 홍채에 대응하는 영역(5)의 가로 길이(a)를 포함한다. The processor 4 determines the size (a) of the reference body region 5 of the user region 2 in the user image 3 and the size (a) of the reference body region 5 of the counterpart region 8 in the counterpart image 9 ( a) is identified. The size (a) of the reference body region 5 of the user region 2 in the user image 3 includes the horizontal length a of the region 5 corresponding to the iris of the user region 2, and the counterpart image (9) The size (a) of the reference body region (5) of the counterpart region (8) includes the horizontal length (a) of the region (5) corresponding to the iris of the counterpart region (8).
프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a) 및 상대방영상(9) 내 상대방영역(8)의 기준신체 영역(5)의 크기(a)를 식별함에 있어서, 디스플레이(12)의 화면 크기(w)를 고려한다. 화면 크기(w)는 화면의 폭(w)을 포함한다. 일 예로, 화면의 폭(w)이 100mm인 경우, 사용자영역(2)의 홍채에 대응하는 영역(5)의 가로 길이(a)가 18mm이고, 상대방영역(8)의 홍채에 대응하는 영역(5)의 가로 길이(a)가 6mm인 것으로 식별할 수 있다. The processor 4 determines the size (a) of the reference body region 5 of the user region 2 in the user image 3 and the size (a) of the reference body region 5 of the counterpart region 8 in the counterpart image 9 ( In identifying a), the screen size w of the display 12 is taken into account. The screen size (w) includes the width (w) of the screen. For example, when the width w of the screen is 100 mm, the horizontal length (a) of the region 5 corresponding to the iris of the user region 2 is 18 mm, and the region corresponding to the iris of the counterpart region 8 ( 5) can be identified as having a horizontal length (a) of 6 mm.
프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a) 및 상대방영상(9) 내 상대방영역(8)의 기준신체 영역(5)의 크기(a)가 동일하도록 사용자영상(3) 또는 상대방영상(9) 중 적어도 하나를 확대 또는 축소할 수 있다. 일 예로, 각각의 기준신체 영역(5)의 크기(a)가 기준크기(b)에 대응하도록 사용자영상(3) 또는 상대방영상(9) 중 적어도 하나를 확대 또는 축소할 수 있다. 기준크기(b)는 복수 사용자의 기준신체에 기초하여 정의된 기준크기(b)를 포함한다. 일 예로, 기준크기(b)는 홍채의 평균적인 가로 길이(b)를 포함한다. The processor 4 determines the size (a) of the reference body region 5 of the user region 2 in the user image 3 and the size (a) of the reference body region 5 of the counterpart region 8 in the counterpart image 9 ( At least one of the user image 3 and the counterpart image 9 may be enlarged or reduced so that a) is the same. For example, at least one of the user image 3 and the counterpart image 9 may be enlarged or reduced so that the size a of each reference body region 5 corresponds to the reference size b. The reference size (b) includes a reference size (b) defined based on the reference body of a plurality of users. For example, the reference size (b) includes the average horizontal length (b) of the iris.
홍채의 평균적인 가로 길이(b)가 12mm라고 가정하면, 프로세서(4)는 사용자영역(2)의 홍채에 대응하는 영역(5)의 가로 길이(a) 18mm가 홍채의 평균적인 가로 길이(b) 12mm에 대응하도록 사용자영상(3)을 2/3배 축소할 수 있다. 반면에, 프로세서(4)는 상대방영역(8)의 홍채에 대응하는 영역(5)의 가로 길이(a) 6mm가 홍채의 평균적인 가로 길이(b) 12mm에 대응하도록 상대방영상(9)을 2배 확대할 수 있다. Assuming that the average horizontal length b of the iris is 12 mm, the processor 4 determines that the horizontal length (a) of the region 5 corresponding to the iris of the user region 2 (a) 18 mm is the average horizontal length (b) of the iris ) The user image 3 can be reduced by 2/3 times to correspond to 12mm. On the other hand, the processor 4 converts the counterpart image 9 to 2 so that the horizontal length (a) 6 mm of the region 5 corresponding to the iris of the counterpart region 8 corresponds to the average horizontal length (b) 12 mm of the iris. You can double magnify.
다른 예로, 프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a)가 상대방영상(9) 내 상대방영역(8)의 기준신체 영역(5)의 크기(a)에 대응하도록 사용자영상(3)을 확대 또는 축소할 수 있다. 그 반대의 경우도 가능하다. As another example, the processor 4 determines that the size (a) of the reference body region 5 of the user region 2 in the user image 3 is the reference body region 5 of the counterpart region 8 in the counterpart image 9. The user image 3 can be enlarged or reduced to correspond to the size (a) of . The reverse is also possible.
이상에서는, 단일 사용자영상(3) 및 단일 상대방영상(9)이 표시된 경우에 대해 설명하였으나, 이는 설명의 편의를 위한 것이므로, 복수의 사용자영상(3) 및 복수의 상대방영상(9)이 표시될 수 있으며, 이 경우, 각각의 기준신체 영역(5)의 크기(a)가 기준크기(b)에 대응하도록 복수의 사용자영상(3) 또는 복수의 상대방영상(9) 중 적어도 하나를 확대 또는 축소할 수도 있다. In the above, the case in which a single user image 3 and a single counterpart image 9 are displayed has been described, but this is for convenience of explanation, so that a plurality of user images 3 and a plurality of counterpart images 9 are displayed. In this case, at least one of the plurality of user images 3 or the plurality of counterpart images 9 is enlarged or reduced so that the size (a) of each reference body region 5 corresponds to the reference size (b). You may.
이와 같이, 프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a) 및 상대방영상(9) 내 상대방영역(8)의 기준신체 영역(5)의 크기(a)가 동일하도록 사용자영상(3) 또는 상대방영상(9) 중 적어도 하나를 확대 또는 축소할 수 있으므로, 영상 통화 시 생동감을 향상시키고, 집중도를 높일 수 있는 환경을 제공할 수 있다. In this way, the processor 4 determines the size (a) of the reference body region 5 of the user region 2 in the user image 3 and the reference body region 5 of the counterpart region 8 in the counterpart image 9. Since at least one of the user image 3 and the counterpart image 9 can be enlarged or reduced so that the size (a) of is the same, it is possible to provide an environment capable of improving the vitality during a video call and increasing the concentration.
도 8은 동작 S34와 관련하여, 세로형 디스플레이에 표시된 사용자영상 및 상대방영상을 확대 또는 축소하는 다른 예를 도시한다.8 illustrates another example of enlarging or reducing a user image and a counterpart image displayed on the vertical display in relation to operation S34.
앞서 도 7 등에서는, 사용자영상(3) 및 상대방영상(9)이 가로형 디스플레이(12)에 표시된 경우에 대해서 설명한 바 있다. 다만, 디스플레이(12)의 형태에 제한되는 아니므로, 프로세서(4)는 가로형 디스플레이(12)와 다른 형태의 디스플레이(12)에 사용자영상(3) 및 상대방영상(9)이 표시된 경우, 사용자영상(3) 또는 상대방영상(9) 중 적어도 하나를 확대 또는 축소할 수 있다. Previously, in FIG. 7 and the like, the case where the user image 3 and the counterpart image 9 are displayed on the horizontal display 12 has been described. However, since the shape of the display 12 is not limited, the processor 4 displays the user image 3 and the counterpart image 9 on the display 12 of a different form from the horizontal display 12, when the user image (3) or at least one of the other party image 9 can be enlarged or reduced.
도 8에 도시된 바와 같이, 사용자영상(3) 및 상대방영상(9)이 세로형 디스플레이(12)에 표시된 경우를 가정한다. 프로세서(4)는 세로형 디스플레이(12)에 표시된 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a) 및 상대방영상(9) 내 상대방영역(8)의 기준신체 영역(5)의 크기(a)를 식별한다. As shown in FIG. 8 , it is assumed that the user image 3 and the counterpart image 9 are displayed on the vertical display 12 . The processor 4 determines the size (a) of the reference body region 5 of the user region 2 in the user image 3 displayed on the vertical display 12 and the criterion of the counterpart region 8 in the counterpart image 9. Identifies the size (a) of the body region (5).
프로세서(4)는 세로형 디스플레이(12)에 표시된 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a) 및 상대방영상(9) 내 상대방영역(8)의 기준신체 영역(5)의 크기(a)가 서로 다르더라도, 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a) 및 상대방영상(9) 내 상대방영역(8)의 기준신체 영역(5)의 크기(a)가 기준크기(b)에 대응하도록 사용자영상(3) 또는 상대방영상(9) 중 적어도 하나를 확대 또는 축소할 수 있다. The processor 4 determines the size (a) of the reference body region 5 of the user region 2 in the user image 3 displayed on the vertical display 12 and the criterion of the counterpart region 8 in the counterpart image 9. Even if the size (a) of the body region 5 is different, the size (a) of the reference body region 5 of the user region 2 in the user image 3 and the counterpart region 8 in the counterpart image 9 At least one of the user image 3 and the counterpart image 9 may be enlarged or reduced so that the size (a) of the reference body region 5 corresponds to the reference size (b).
이상에서는 세로형 디스플레이(12)를 예로 들었지만, 이는 설명의 편의를 위한 것이므로, 프로세서(4)는 가로형, 세로형 이외의 다양한 형태를 갖는 디스플레이(12)에 사용자영상(3) 및 상대방영상(9)이 표시되더라도, 사용자영상(3) 또는 상대방영상(9) 중 적어도 하나를 확대 또는 축소할 수 있다. 따라서, 다양한 형태의 디스플레이(12)에서도 영상 통화 시 생동감을 향상시키고, 집중도를 높일 수 있는 환경을 제공할 수 있다. In the above, the vertical display 12 is taken as an example, but this is for convenience of explanation, so the processor 4 displays the user image 3 and the counterpart image 9 on the display 12 having various shapes other than horizontal and vertical types. ) is displayed, at least one of the user image 3 and the counterpart image 9 may be enlarged or reduced. Accordingly, it is possible to provide an environment capable of improving the vitality during video calls and increasing concentration even in various types of displays 12 .
도 9는 도 3의 동작 S34와 관련하여, 주요영역을 식별하는 추가 예를 도시한다. FIG. 9 shows an additional example of identifying a main region in relation to operation S34 of FIG. 3 .
앞서 도 5를 참조하여 설명한 바와 같이, 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a)가 기준크기(b)에 대응하도록 사용자영상(3)이 확대된 경우를 가정한다. 예컨대, 사용자영역(2)의 홍채에 대응하는 영역(5)의 가로 길이(a)가 기준크기(b) 12mm에 대응하도록 사용자영상(3)이 확대된 경우이다. As described above with reference to FIG. 5 , the user image 3 is enlarged so that the size (a) of the reference body region 5 of the user region 2 in the user image 3 corresponds to the reference size (b). Assume the case For example, the user image 3 is enlarged so that the horizontal length (a) of the region 5 corresponding to the iris of the user region 2 corresponds to the reference size (b) of 12 mm.
프로세서(4)는 사용자영상(3) 내 주요영역(6)을 식별한다. 주요영역(6)은 사용자영역(2)의 신체 일부에 대응하는 영역(6)을 포함한다. 주요영역(6)은 사용자영역(2)의 기준신체 영역(5)을 포함하는 영역이거나, 사용자영역(2)의 기준신체 영역(5)을 배제한 영역일 수 있다. 일 예로, 주요영역(6)은 사용자영역(2)의 얼굴, 이목구비, 상반신, 하반신, 전신 중 적어도 하나에 대응하는 영역을 포함한다. 다만, 설명의 편의를 위해 주요영역(6)이 어깨 선부터 머리 끝에 이르는 상반신에 대응하는 영역(6)인 것으로 가정한다. The processor 4 identifies the main area 6 in the user image 3 . The main area 6 includes an area 6 corresponding to a body part of the user area 2 . The main area 6 may be an area including the reference body area 5 of the user area 2 or an area excluding the reference body area 5 of the user area 2 . For example, the main region 6 includes a region corresponding to at least one of a face, a feature, an upper body, a lower body, and a whole body of the user area 2 . However, for convenience of description, it is assumed that the main region 6 is the region 6 corresponding to the upper body from the shoulder line to the tip of the head.
프로세서(4)는 주요영역(6)으로서, 사용자영역(2)의 상반신에 대응하는 영역(6)의 크기(c)가 디스플레이(12)의 화면 크기(h)를 초과하는지를 식별한다. 상반신에 대응하는 영역(6)의 크기(c)는 상반신에 대응하는 영역(6)의 높이(c)를 포함한다. 이 경우, 프로세서(4)는 상반신에 대응하는 영역(6)의 높이(c)가 화면의 높이(h)를 초과하는지 식별한다. 다만, 이에 한정되는 것은 아니므로, 프로세서(4)는 상반신에 대응하는 영역(6)의 폭(c)이 화면의 폭(w)를 초과하는지 식별할 수 있다. As the main area 6 , the processor 4 identifies whether the size c of the area 6 corresponding to the upper body of the user area 2 exceeds the screen size h of the display 12 . The size c of the area 6 corresponding to the upper body includes the height c of the area 6 corresponding to the upper body. In this case, the processor 4 identifies whether the height c of the area 6 corresponding to the upper body exceeds the height h of the screen. However, since the present invention is not limited thereto, the processor 4 may identify whether the width c of the region 6 corresponding to the upper body exceeds the width w of the screen.
프로세서(4)는 상반신에 대응하는 영역(6)의 높이(c)가 디스플레이(12)의 화면의 높이(h)를 초과하는 경우, 상반신에 대응하는 영역(6)이 디스플레이(12)의 화면의 높이(h)를 초과하지 않는 높이(d)에 대응하도록 사용자영상(3)을 축소한다. 일 예로, 사용자영상(3)을 1/2배로 축소할 수 있다. When the height c of the area 6 corresponding to the upper body exceeds the height h of the screen of the display 12 , the processor 4 determines that the area 6 corresponding to the upper body is the screen of the display 12 . The user image 3 is reduced to correspond to a height d that does not exceed a height h of As an example, the user image 3 may be reduced by 1/2.
상기의 동작은 상대방영상(9)에 대해서도 동일하게 적용될 수 있다. 즉, 이 표시된 경우, 상기한 바와 마찬가지로, 상대방영역(8)의 크기(c)가 화면 크기(h)를 초과하지 않도록 상대방영상(9)을 축소할 수 있다. 사용자영상(3) 및 상대방영상(9)이 모두 표시된 경우, 화면 크기(h)를 초과하지 않도록 어느 하나를 축소할 수 있다. The above operation may be equally applied to the counterpart image 9 . That is, when is displayed, as described above, the counterpart image 9 can be reduced so that the size c of the counterpart area 8 does not exceed the screen size h. When both the user image 3 and the counterpart image 9 are displayed, either one may be reduced so as not to exceed the screen size h.
이와 같이, 프로세서(4)는 디스플레이(12)의 화면 크기(h)를 고려하여 사용자영상(3)을 확대 또는 축소할 수 있으므로, 화면 크기(h)에 최적화된 사용자영상(3)을 표시할 수 있다. 따라서, 디스플레이(12)의 화면 크기(h)에 최적화된 영상 통화가 가능하게 할 수 있다. As such, the processor 4 can enlarge or reduce the user image 3 in consideration of the screen size h of the display 12, so that the user image 3 optimized for the screen size h can be displayed. can Accordingly, it is possible to enable a video call optimized for the screen size h of the display 12 .
도 10은 도 3의 동작 S32와 관련하여, 기준신체 영역을 식별하는 동작에 더하여, 배경영역을 추가로 식별하는 예를 도시한다.10 illustrates an example of additionally identifying a background region in addition to the operation of identifying a reference body region in relation to operation S32 of FIG. 3 .
도 10에 도시된 바와 같이, 프로세서(4)는 사용자영상(3)에서 사용자영역(2)뿐만 아니라, 배경영역(102)을 식별한다. 배경영역(102)은 사용자영상(3) 내에서 사용자영역(2) 배제한 배경에 대응하는 영역을 포함한다. 일 예로, 오피스 가구, 벽지, 전경 등에 대응하는 영역을 포함한다. 다만, 설명의 편의를 위해 칠판에 대응하는 영역이 배경영역(102)인 것으로 가정한다. 사용자영역(2) 및 배경영역(102)은 앞서 설명한 바와 같이 다양한 이미지인식 알고리즘에 의해 식별될 수 있다. As shown in FIG. 10 , the processor 4 identifies not only the user area 2 but also the background area 102 in the user image 3 . The background area 102 includes an area corresponding to the background excluding the user area 2 in the user image 3 . For example, it includes areas corresponding to office furniture, wallpaper, foreground, and the like. However, for convenience of explanation, it is assumed that the region corresponding to the blackboard is the background region 102 . The user area 2 and the background area 102 may be identified by various image recognition algorithms as described above.
프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 크기(a)가 기준크기(b)에 대응하도록 사용자영상(3)을 확대하며, 사용자영상(3)의 확대에 따라 사용자영상(3) 내 사용자영역(2)도 확대된다. 일 예로, 사용자영역(2)의 홍채에 대응하는 영역(5)의 가로 길이(a)가 기준크기(b)에 대응하도록 6mm에서 12mm로 2배 확대되면, 사용자영상(3)이 2배로 확대될 뿐만 아니라, 사용자영역(2)도 2배로 확대된다. The processor 4 enlarges the user image 3 so that the size (a) of the reference body region 5 of the user region 2 in the user image 3 corresponds to the reference size (b), and the user image 3 ), the user area 2 within the user image 3 is also enlarged. For example, when the horizontal length (a) of the region 5 corresponding to the iris of the user region 2 is enlarged twice from 6mm to 12mm to correspond to the reference size (b), the user image 3 is magnified twice Not only that, but the user area 2 is also doubled.
사용자영역(2)이 확대되더라도, 배경영역(102)의 크기는 유지될 수 있다. 일 예로, 사용자영역(2)의 홍채에 대응하는 영역(5)의 가로 길이(a)가 기준크기(b)에 대응하도록 6mm에서 12mm로 2배 확대되어, 사용자영상(3) 및 사용자영역(2)도 2배로 확대되더라도, 칠판에 대응하는 영역(102)의 크기는 그대로 유지될 수 있다. Even if the user area 2 is enlarged, the size of the background area 102 may be maintained. For example, the horizontal length (a) of the region 5 corresponding to the iris of the user region 2 is doubled from 6 mm to 12 mm to correspond to the reference size (b), so that the user image 3 and the user region ( 2) Even if the figure is enlarged twice, the size of the area 102 corresponding to the blackboard may be maintained as it is.
반대로, 사용자영역(2)의 홍채에 대응하는 영역(5)의 가로 길이(a)가 기준크기(b)에 대응하도록 18mm에서 12mm로 1/2배 축소되어, 사용자영상(3) 및 사용자영역(2)도 1/2배로 축소되더라도, 칠판에 대응하는 영역(102)의 크기는 그대로 유지될 수 있다. Conversely, the horizontal length (a) of the area (5) corresponding to the iris of the user area (2) is reduced 1/2 times from 18 mm to 12 mm to correspond to the reference size (b), so that the user image 3 and the user area Even if (2) is reduced to 1/2 times, the size of the area 102 corresponding to the blackboard may be maintained as it is.
상기의 동작은 상대방영상(9)에 대해서도 동일하게 적용될 수 있다. 즉, 프로세서(4)는 상대방영상(9)에서도 상대방영역(8) 및 배경영역(102)을 식별하고, 상대방영역(8)의 확대 또는 축소에도 불구하고, 배경영역(102)의 크기를 유지할 수 있다. The above operation may be equally applied to the counterpart image 9 . That is, the processor 4 identifies the counterpart region 8 and the background region 102 even in the counterpart image 9 , and maintains the size of the background region 102 despite the enlargement or reduction of the counterpart region 8 . can
이와 같이, 프로세서(4)는 사용자영상(3)에서 사용자영역(2)의 확대 또는 축소에도 불구하고, 배경영역(102)의 크기를 유지할 수 있으므로, 영상 통화가 가상공간에서 진행되는 것과 같은 효과를 연출할 수 있다. 따라서, 영상 통화 시 색다른 경험을 제공할 수 있다. In this way, the processor 4 can maintain the size of the background area 102 despite the enlargement or reduction of the user area 2 in the user image 3, so that a video call is performed in a virtual space. can be produced. Accordingly, it is possible to provide a different experience during a video call.
도 11은 도 3의 동작 S32와 관련하여, 기준신체 영역의 크기에 기초하여 사용자영상을 확대 또는 축소하는 동작에 더하여, 기준신체 영역의 위치에 더 기초하여 사용자영상을 확대 또는 축소하는 예를 도시한다.11 shows an example of enlarging or reducing the user image based on the position of the reference body region in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to operation S32 of FIG. 3 do.
프로세서(4)는 사용자영상(3)이 표시된 디스플레이(12)의 화면 크기(h)에 기초하여 디스플레이(12)에 표시된 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(5)의 위치(e)를 식별한다. 프로세서(4)는 도 3의 동작 S32에서와 같이, 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(3)을 식별하면, 사용자영역(2)의 기준신체 영역(5)의 위치(e)를 식별할 수 있다. 디스플레이(12)의 화면 크기(h)는 디스플레이(12)의 화면의 높이(h)를 포함하고, 기준신체 영역(5)의 위치(e)는 기준신체 영역(5)까지의 높이(e)를 포함한다. The processor 4 determines the reference body region 5 of the user region 2 in the user image 3 displayed on the display 12 based on the screen size h of the display 12 on which the user image 3 is displayed. Identifies location (e). When the processor 4 identifies the reference body region 3 of the user region 2 in the user image 3 as in operation S32 of FIG. 3 , the position of the reference body region 5 of the user region 2 is (e) can be identified. The screen size (h) of the display 12 includes the height (h) of the screen of the display 12 , and the position (e) of the reference body region 5 is the height (e) to the reference body region 5 . includes
프로세서(4)는 기준신체 영역(5)의 위치(e)가 기준위치(f)에 대응하도록 사용자영상(3)을 이동할 수 있다. 사용자영상(3)의 이동은 사용자영상(3)의 확대 또는 축소를 포함한다. 기준위치(f)는 복수 사용자의 기준신체에 기초하여 정의된 기준위치(f)를 포함한다. 기준위치(f)가 기준신체 영역(5)의 위치(e)보다 높은 경우, 사용자영상(3)을 상방으로 이동할 수 있다. 반면에, 기준위치(f)가 기준신체 영역(5)의 위치(e)보다 낮은 경우, 사용자영상(3)을 하방으로 이동할 수 있다. 물론, 기준위치(f)에 따라 사용자영상(3)을 좌우로 이동할 수도 있다. The processor 4 may move the user image 3 so that the position e of the reference body region 5 corresponds to the reference position f. The movement of the user image 3 includes enlarging or reducing the user image 3 . The reference position f includes a reference position f defined based on reference bodies of a plurality of users. When the reference position (f) is higher than the position (e) of the reference body region 5 , the user image 3 may be moved upward. On the other hand, when the reference position f is lower than the position e of the reference body region 5, the user image 3 may be moved downward. Of course, the user image 3 may be moved left and right according to the reference position f.
설명의 편의를 위해 기준위치(f) 및 기준신체 영역(5)의 위치(e)는 디스플레이(12)의 화면 크기(h) 대비 비율로 표현하면, 기준위치(f)는 디스플레이(12)의 화면 크기(h) 대비 2/3 지점이 될 수 있다. 기준신체 영역(5)의 위치(e)가 화면 크기(h) 대비 1/3 지점인 경우, 프로세서(4)는 기준신체 영역(5)의 위치(e) 1/3 지점이 기준위치(f) 2/3 지점에 대응하도록 사용자영상(3)을 상방 이동할 수 있다. 다만, 기준위치(f)는 다양하게 설정될 수 있다. For convenience of explanation, the reference position (f) and the position (e) of the reference body region (5) are expressed as a ratio of the screen size (h) of the display (12), the reference position (f) of the display (12) It can be 2/3 of the screen size (h). When the position (e) of the reference body region 5 is 1/3 of the screen size (h), the processor 4 determines that the position (e) 1/3 of the reference body region 5 is the reference position (f). ) It is possible to move the user image 3 upward to correspond to the 2/3 point. However, the reference position f may be set in various ways.
이와 같이, 프로세서(4)는 기준신체 영역(5)의 위치(e)가 기준위치(f)에 대응하도록 사용자영상(3)을 이동할 수 있다. 따라서, 사용자영상(3)을 이동함에 있어서 활용되는 기준정보를 사용자 또는 외부로부터 획득하지 않아도 되므로, 편의성 및 효율성을 향상시킬 수 있다. In this way, the processor 4 may move the user image 3 so that the position e of the reference body region 5 corresponds to the reference position f. Accordingly, since it is not necessary to obtain reference information used in moving the user image 3 from the user or the outside, convenience and efficiency can be improved.
도 12는 도 3의 실시예와 관련하여, 기준신체의 영역의 크기에 기초하여 사용자영상을 확대 또는 축소하는 동작에 더하여, 사용자의 참여도에 더 기초하여 사용자영상을 확대 또는 축소하는 예를 도시한다. 12 shows an example of enlarging or reducing the user image based on the user's participation in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to the embodiment of FIG. 3 . do.
도 12에 도시된 바와 같이, 프로세서(4)는 사용자영상(3)에서 사용자(1)에 대응하는 사용자영역(2)의 변화를 식별한다. 사용자영역(2)의 변화는 사용자영역(2)의 움직임의 변화를 포함한다. 움직임의 변화는 움직임 변화의 정도, 움직임 변화의 횟수 등을 포함한다. As shown in FIG. 12 , the processor 4 identifies a change in the user area 2 corresponding to the user 1 in the user image 3 . A change in the user area 2 includes a change in the movement of the user area 2 . The change in movement includes the degree of change in movement, the number of changes in movement, and the like.
프로세서(4)는 사용자영역(2)의 변화에 기초하여 사용자(1)의 참여도를 식별할 수 있다 일 예로, 변화 정도 또는 변화 횟수가 소정 문턱값 이상인 경우, 사용자(1)의 참여도가 높은 것으로 식별할 수 있다. The processor 4 may identify the degree of participation of the user 1 based on the change in the user area 2 For example, when the degree of change or the number of changes is greater than or equal to a predetermined threshold, the degree of participation of the user 1 is can be identified as high.
다른 예로, 프로세서(4)는 사용자(1)로부터 사용자음성이 수신되면, 수신되는 사용자음성에 기초하여 사용자(1)의 참여도를 식별할 수도 있다. 사용자음성은 오디오 수신부를 통해 수신될 수 있다. 프로세서(4)는 사용자음성에 기초하여 사용자영역(2)에 변화가 있는 것으로 식별할 수 있다. 사용자음성의 크기 또는 횟수가 소정 문턱값 이상인 경우, 사용자영역(2)에 변화가 있는 것으로 식별하고, 사용자(1)의 참여도가 높은 것으로 식별할 수 있다. As another example, when a user voice is received from the user 1 , the processor 4 may identify the degree of participation of the user 1 based on the received user voice. The user's voice may be received through the audio receiver. The processor 4 may identify that there is a change in the user area 2 based on the user's voice. When the size or frequency of the user's voice is greater than or equal to a predetermined threshold, it is possible to identify that there is a change in the user area 2 and identify that the user 1 has a high degree of participation.
프로세서(4)는 참여도가 높은 것으로 식별된 사용자(1)에 대응하는 사용자영역(2)이 확대되도록 사용자영상(3)을 확대한다. 사용자영상(3)의 확대 시, 앞서 도 5를 참조하여 설명한 바와 같이, 기준신체 영역(5)의 크기(a)가 기준크기(b)에 대응하도록 사용자영상(3)을 확대할 수 있다. 반면에, 참여도가 낮은 것으로 식별된 사용자(1)에 대응하는 사용자영역(2)을 축소한다. The processor 4 enlarges the user image 3 so that the user area 2 corresponding to the user 1 identified as having a high degree of participation is enlarged. When the user image 3 is enlarged, as described above with reference to FIG. 5 , the user image 3 may be enlarged so that the size (a) of the reference body region 5 corresponds to the reference size (b). On the other hand, the user area 2 corresponding to the user 1 identified as having a low level of participation is reduced.
앞서 도 10을 참조하여 설명한 바와 같이, 배경영역(102)과 구분되는 가상공간에서는 배경영역(102)의 크기를 유지하고, 식별된 참여도에 따라 사용자(1)에 대응하는 사용자영역(2)을 확대 또는 축소할 수 있다. As described above with reference to FIG. 10 , in a virtual space separated from the background area 102 , the size of the background area 102 is maintained, and the user area 2 corresponding to the user 1 according to the identified degree of participation. can be enlarged or reduced.
만일 사용자영상(3)에 복수의 사용자(1)에 대응하는 복수의 사용자영역(2)이 포함된 경우, 사용자영상(3) 내 복수의 사용자영역(2) 각각을 식별하고, 각각의 변화에 기초하여 복수의 사용자(1)의 참여도가 식별될 수 있다. 식별된 참여도에 따라 복수의 사용자영역(2) 중 적어도 하나의 사용자영역(2)을 확대 또는 축소할 수 있다. If the user image 3 includes a plurality of user areas 2 corresponding to the plurality of users 1, each of the plurality of user areas 2 in the user image 3 is identified, and the Based on the participation degree of the plurality of users (1) may be identified. At least one user area 2 among the plurality of user areas 2 may be enlarged or reduced according to the identified degree of participation.
상대방영상(9)에 복수의 상대방(8)이 포함된 경우, 상대방영상(9) 내 복수의 상대방(8) 각각에 대응하는 복수의 상대방영역(8)을 식별하고, 각각의 변화에 기초하여 참여도가 식별될 수 있으며, 식별된 참여도에 따라 복수의 상대방영역(8) 중 적어도 하나의 상대방영역(8)을 확대 또는 축소할 수 있다. When a plurality of counterparts 8 are included in the counterpart image 9, a plurality of counterpart regions 8 corresponding to each of the plurality of counterparts 8 in the counterpart image 9 are identified, and based on each change The degree of participation may be identified, and at least one counterpart area 8 among the plurality of counterpart areas 8 may be enlarged or reduced according to the identified degree of participation.
이와 같이, 프로세서(4)는 사용자영상(3)에서 사용자영역(2)의 변화에 기초하여 식별된 사용자(1)의 참여도에 따라 사용자영상(3)을 확대할 수 있으므로, 영상 통화 시 생동감을 향상시키고, 집중도를 높일 수 있는 환경을 제공할 수 있다. In this way, the processor 4 can enlarge the user image 3 according to the degree of participation of the user 1 identified based on the change in the user area 2 in the user image 3, so that the video call is lively. It can provide an environment that can improve and enhance concentration.
도 13은 도 3의 실시예와 관련하여, 기준신체의 영역의 크기에 기초하여 사용자영상을 확대 또는 축소하는 동작에 더하여, 사용자영역의 시선 방향에 더 기초하여 사용자영상을 확대 또는 축소하는 예를 도시한다.13 is an example of enlarging or reducing the user image based on the gaze direction of the user area in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to the embodiment of FIG. show
도 13에 도시된 바와 같이, 프로세서(4)는 사용자영상(3)에서 사용자영역(2)의 시선 방향(130)을 식별한다. 시선 방향(130)은 사용자영역(2)의 기준신체 영역(3)이 향하는 방향을 포함한다. 기준신체 영역(3)은 홍채, 얼굴, 상반신, 하반신, 전신 등에 대응하는 영역을 포함한다. 기준신체 영역(3)이 홍채에 대응하는 영역(5)인 경우, 프로세서(4)는 도 3의 동작 S32에서와 같이, 사용자영상(3) 내 사용자영역(2)의 기준신체 영역(3)을 식별하면, 사용자영역(2)의 시선 방향(130)을 식별할 수 있다. As shown in FIG. 13 , the processor 4 identifies the gaze direction 130 of the user area 2 in the user image 3 . The gaze direction 130 includes a direction in which the reference body region 3 of the user region 2 faces. The reference body region 3 includes regions corresponding to the iris, face, upper body, lower body, whole body, and the like. When the reference body region 3 is the region 5 corresponding to the iris, the processor 4 performs the reference body region 3 of the user region 2 in the user image 3 as in operation S32 of FIG. 3 . By identifying , the gaze direction 130 of the user area 2 can be identified.
시선 방향(130)은 사용자(1)에 대응하는 사용자영역(2)의 움직임 변화에 기초하여 식별될 수 있다. 사용자영역(2)의 움직임 변화는 기준신체 영역(3)의 움직임 변화를 포함한다. 시선 방향(130)은 다양한 이미지인식 알고리즘에 기초하여 식별될 수 있다. The gaze direction 130 may be identified based on a change in movement of the user area 2 corresponding to the user 1 . The change in the movement of the user area 2 includes the change in the movement of the reference body area 3 . The gaze direction 130 may be identified based on various image recognition algorithms.
설명의 편의를 위해 사용자영역(2)의 시선 방향(130)이 정면인 상태에서, 사용자영역(2)의 움직임 변화에 기초하여 사용자(1)의 시선 방향(130)이 우측인 것으로 식별된 경우를 가정한다. 프로세서(4)는 우측을 향하는 시선 방향(130)에 따라 사용자영상(3)을 우측으로 이동한다. 사용자영상(3)의 우측에 칠판에 대응하는 배경영역(102)이 있는 경우, 사용자영상(3)의 우측 이동에 따라 칠판에 대응하는 배경영역(102)이 표시될 수 있다. 반대로, 사용자(1)의 시선 방향(130)이 다시 정면을 향하는 경우, 프로세서(4)는 정면을 향하는 시선 방향(130)을 식별하고, 정면을 향하는 시선 방향(130)에 따라 사용자영상(3)을 좌측으로 이동하여, 애초에 가정한 원래 상태가 되도록 한다. For convenience of explanation, in a state in which the gaze direction 130 of the user area 2 is a frontal state, based on a change in the movement of the user area 2, when the gaze direction 130 of the user 1 is identified as being right assume The processor 4 moves the user image 3 to the right according to the gaze direction 130 toward the right. When there is a background area 102 corresponding to the blackboard on the right side of the user image 3 , the background area 102 corresponding to the blackboard may be displayed according to the right movement of the user image 3 . Conversely, when the gaze direction 130 of the user 1 faces the front again, the processor 4 identifies the gaze direction 130 facing the front, and according to the gaze direction 130 facing the front, the user image 3 ) to the left, so that it becomes the original state assumed in the first place.
이와 같이, 프로세서(4)는 사용자영상(3)에서 사용자영역(2)의 변화에 기초하여 식별된 사용자영역(2)의 시선 방향(130)에 따라 사용자영상(3)을 이동할 수 있으므로, 영상 통화 시 생동감을 향상시키고, 집중도를 높일 수 있는 환경을 제공할 수 있다.In this way, since the processor 4 can move the user image 3 according to the gaze direction 130 of the user area 2 identified based on the change of the user area 2 in the user image 3 , the image It is possible to provide an environment that can improve liveliness during a call and increase concentration.
도 14는 도 3의 실시예와 관련하여, 기준신체의 영역의 크기에 기초하여 사용자영상을 확대 또는 축소하는 동작에 더하여, 사용자 시청거리에 더 기초하여 사용자영상을 확대 또는 축소하는 예를 도시한다. FIG. 14 shows an example of enlarging or reducing the user image based on the user viewing distance in addition to the operation of enlarging or reducing the user image based on the size of the reference body region in relation to the embodiment of FIG. 3 . .
프로세서(4)는 사용자 시청거리를 식별한다. 사용자 시청거리는 사용자(1)와 전자장치(10) 간의 거리를 포함한다. 프로세서(4)는 도 3의 동작 S32에서와 같이, 사용자영역(2)의 기준신체 영역(5)이 식별되면, 기준신체 영역(5)까지의 거리에 기초하여 사용자 시청거리를 식별할 수 있다. The processor 4 identifies the user viewing distance. The user viewing distance includes a distance between the user 1 and the electronic device 10 . As in operation S32 of FIG. 3 , when the reference body region 5 of the user region 2 is identified, the processor 4 may identify the user viewing distance based on the distance to the reference body region 5 . .
프로세서(4)는 사용자 시청거리에 기초하여 기준크기(b)를 조정하고, 기준신체 영역(5)의 크기(a)가 조정된 기준크기(b)에 대응하도록 사용자영상(3)을 확대 또는 축소한다. 일 예로, 기준신체 영역(5)의 크기(a)가 조정된 기준크기(b) 12mm에 대응하도록 사용자영상(3)이 조정된 상황을 가정한다. 사용자 시청거리가 다소 짧은 제1사용자 시청거리(g)인 경우, 사용자(1)에게 사용자영상(3)이 너무 크게 보이는 상황이 연출될 수 있다. 이러한 상황을 감안하여, 프로세서(4)는 제1사용자 시청거리(g)에 따라 사용자영상(3)을 축소한다. 일 예로, 프로세서(4)는 기준크기(b) 12mm를 제1사용자 시청거리(g)에 대응하는 기준크기(b) 6mm로 조정하고, 기준신체 영역(5)의 크기(a) 12mm가 조정된 기준크기(b) 6mm에 대응하도록 사용자영상(3)을 축소할 수 있다. 다만, 이는 설명의 편의를 위한 것이므로, 제1사용자 시청거리(g)에 따른 기준크기(b)는 다양하게 설정될 수 있다. The processor 4 adjusts the reference size b based on the user's viewing distance, and enlarges or enlarges the user image 3 so that the size (a) of the reference body region 5 corresponds to the adjusted reference size (b). reduce As an example, it is assumed that the user image 3 is adjusted so that the size (a) of the reference body region 5 corresponds to the adjusted reference size (b) 12 mm. When the user viewing distance is a rather short first user viewing distance g, a situation in which the user image 3 appears too large to the user 1 may be produced. In consideration of this situation, the processor 4 reduces the user image 3 according to the first user viewing distance g. For example, the processor 4 adjusts the reference size (b) 12mm to the reference size (b) 6mm corresponding to the first user viewing distance (g), and the size (a) 12mm of the reference body region 5 is adjusted The user image (3) can be reduced to correspond to the standard size (b) of 6 mm. However, since this is for convenience of explanation, the reference size b according to the viewing distance g of the first user may be set in various ways.
다른 예로, 사용자 시청거리가 다소 긴 제2사용자 시청거리(j)인 경우, 사용자(1)에게 사용자영상(3)이 너무 작게 보이는 상황이 연출될 수 있다. 이러한 상황을 감안하여, 프로세서(4)는 제2사용자 시청거리(j)에 따라 사용자영상(3)을 확대한다. 일 예로, 프로세서(4)는 기준크기(b) 12mm를 제2사용자 시청거리(j)에 대응하는 기준크기(b) 18mm로 조정하고, 기준신체 영역(5)의 크기(a) 12mm가 조정된 기준크기(b) 18mm에 대응하도록 사용자영상(3)을 확대할 수 있다. 제2사용자 시청거리(j)에 따른 기준크기(b)는 다양하게 설정될 수 있다. As another example, when the user viewing distance is a rather long second user viewing distance j, a situation in which the user image 3 appears too small to the user 1 may be produced. In consideration of this situation, the processor 4 enlarges the user image 3 according to the second user viewing distance j. As an example, the processor 4 adjusts the reference size (b) 12mm to the reference size (b) 18mm corresponding to the second user viewing distance (j), and the size (a) 12mm of the reference body region 5 is adjusted The user image (3) can be enlarged to correspond to the reference size (b) 18mm. The reference size b according to the second user viewing distance j may be set in various ways.
이와 같이, 프로세서(4)는 사용자 시청거리에 기초하여 기준크기(b)를 조정하고, 기준신체 영역(5)의 크기(a)가 조정된 기준크기(b)에 대응하도록 사용자영상(3)을 확대 또는 조정할 수 있으므로, 영상 통화 시 생동감을 향상시키고, 집중도를 높일 수 있는 환경을 제공할 수 있다.In this way, the processor 4 adjusts the reference size b based on the user's viewing distance, and the user image 3 so that the size a of the reference body region 5 corresponds to the adjusted reference size b. can be enlarged or adjusted, so that it is possible to provide an environment capable of enhancing liveliness and concentration during a video call.
도 15는 도 3의 동작 S32와 관련하여, 우선순위에 따라 기준신체 영역을 선택하는 대체 예를 도시한다.15 shows an alternative example of selecting a reference body region according to priority in relation to operation S32 of FIG. 3 .
이상에서는 기준신체 영역(5)이 단일한 것으로 설명하였으나, 프로세서(4)는 다양한 복수의 기준신체 영역(5)를 고려할 수 있다. 일 예로, 홍채에 대응하는 영역뿐만 아니라, 얼굴 크기, 키 등에 대응하는 영역을 기준신체 영역(5)으로 고려할 수 있다. Although it has been described above that the reference body region 5 is a single reference body region, the processor 4 may consider a plurality of various reference body regions 5 . For example, not only the area corresponding to the iris but also the area corresponding to the face size, height, etc. may be considered as the reference body area 5 .
키에 대응하는 영역을 기준신체 영역(5)으로 고려하는 경우, 키 180cm이 기준크기(b)로 설정된 경우를 가정한다. 키에 관한 기준크기(b)는 사용자에 의해 입력되거나 외부로부터 수신된 것일 수 있다. 프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 키에 대응하는 영역의 크기를 식별할 수 있다. 이 경우, 디스플레이(12)의 화면 크기(h)가 고려될 수 있다. 디스플레이(12)의 화면 크기(h)는 디스플레이(12)의 화면의 높이(h)를 포함한다. When considering the area corresponding to the height as the reference body area 5, it is assumed that the height of 180 cm is set as the reference size (b). The reference size (b) for the key may be input by the user or received from the outside. The processor 4 may identify the size of the area corresponding to the key of the user area 2 in the user image 3 . In this case, the screen size h of the display 12 may be considered. The screen size h of the display 12 includes the height h of the screen of the display 12 .
프로세서(4)는 디스플레이(12)의 화면 크기(h) 대비 사용자영상(3) 내 사용자영역(2)의 키에 대응하는 영역의 크기를 식별하고, 사용자영상(3) 내 사용자영역(2)의 키에 대응하는 영역의 크기가 기준크기(b) 180cm에 대응하도록 사용자영상(3)을 확대 또는 축소할 수 있다. The processor 4 identifies the size of the area corresponding to the key of the user area 2 in the user image 3 compared to the screen size h of the display 12, and the user area 2 in the user image 3 The user image 3 can be enlarged or reduced so that the size of the area corresponding to the height of the user corresponds to the reference size b of 180 cm.
얼굴 크기에 대응하는 영역을 기준신체 영역(5)으로 고려하는 경우, 얼굴 크기 20cm이 기준크기(b)로 설정된 경우를 가정한다. 프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 얼굴 크기에 대응하는 영역을 식별할 수 있다. 디스플레이(12)의 화면 크기(w)가 고려될 수 있으며, 디스플레이(12)의 화면 크기(w)는 디스플레이(12)의 화면의 폭(w)를 포함한다. When considering the area corresponding to the face size as the reference body area 5, it is assumed that the face size 20 cm is set as the reference size b. The processor 4 may identify a region corresponding to the face size of the user region 2 in the user image 3 . The screen size w of the display 12 may be considered, and the screen size w of the display 12 includes the width w of the screen of the display 12 .
프로세서(4)는 디스플레이(12)의 화면 크기(w) 대비 사용자영상(3) 내 사용자영역(2)의 얼굴 크기에 대응하는 영역을 식별하고, 사용자영상(3) 내 사용자영역(2)의 얼굴 크기에 대응하는 영역이 기준크기(b) 20cm에 대응하도록 사용자영상(3)을 확대 또는 축소할 수 있다. The processor 4 identifies an area corresponding to the face size of the user area 2 in the user image 3 compared to the screen size w of the display 12, and The user image 3 may be enlarged or reduced so that the area corresponding to the face size corresponds to the reference size b of 20 cm.
프로세서(4)는 홍채, 키, 얼굴 크기 등에 대응하는 영역과 같이 복수의 기준신체 영역(5) 중 우선 순위에 기초하여 선택된 기준신체 영역(5)에 따라 사용자영상(3)을 확대 또는 축소할 수 있다. 일 예로, 키에 대응하는 영역이 최우선 순위의 기준신체 영역(5)으로 선택된 경우, 앞서 설명한 바와 같이, 프로세서(4)는 디스플레이(12)의 화면 크기(h) 대비 사용자영상(3) 내 사용자영역(2)의 키에 대응하는 영역의 크기를 식별하고, 사용자영상(3) 내 사용자영역(2)의 키에 대응하는 영역의 크기가 기준크기(b) 180cm에 대응하도록 사용자영상(3)을 확대 또는 축소할 수 있다. The processor 4 enlarges or reduces the user image 3 according to the reference body region 5 selected based on the priority among the plurality of reference body regions 5 such as regions corresponding to the iris, height, face size, etc. can For example, when the region corresponding to the key is selected as the reference body region 5 of the highest priority, as described above, the processor 4 controls the user in the user image 3 compared to the screen size h of the display 12 . The size of the area corresponding to the height of the area 2 is identified, and the size of the area corresponding to the height of the user area 2 in the user image 3 corresponds to the reference size (b) 180 cm. can be enlarged or reduced.
이와 같이, 프로세서(4)는 다양한 복수의 기준신체 영역(5)을 고려하여 사용자영상(3)의 크기를 조정할 수 있으므로, 다양한 상황에 적응적으로 사용자영상(3)의 크기를 조정할 수 있다. 또한, 우선순위에 따른 복수의 기준신체 영역(5)을 고려할 수 있으므로, 필요에 따라 최적화된 크기로 사용자영상(3)를 조정할 수 있다. As such, the processor 4 can adjust the size of the user image 3 in consideration of a plurality of various reference body regions 5 , and thus can adjust the size of the user image 3 adaptively to various situations. In addition, since a plurality of reference body regions 5 according to priorities can be considered, the user image 3 can be adjusted to an optimized size as necessary.
도 16은 도 15와 관련하여, 사용자입력에 기초하여 기준신체 영역의 우선순위를 설정하는 구체적인 예를 도시한다.FIG. 16 shows a specific example of setting the priority of a reference body region based on a user input with reference to FIG. 15 .
앞서 도 15를 참조하여, 사용자영상(3)의 크기를 조정함에 있어서, 복수의 기준신체 영역(5)에 대한 우선순위를 고려할 수 있음을 설명한 바 있다. 이하에서는, 사용자의 선택에 따라 우선순위가 설정되는 일 예에 대해 설명한다. It has been described above that, in adjusting the size of the user image 3 with reference to FIG. 15 , the priority of the plurality of reference body regions 5 may be considered. Hereinafter, an example in which priorities are set according to a user's selection will be described.
도 16에 도시된 바와 같이, 프로세서(4)는 복수의 기준신체 영역(5)을 나타내는 사용자인터페이스(160)를 표시한다. 사용자인터페이스(160)는 홍채, 키, 얼굴 크기 등과 같은 복수의 기준신체 영역(5)을 선택할 수 있는 메뉴를 포함한다. 사용자입력에 따라 사용자인터페이스(160)에서 홍채가 선택되면, 프로세서(4)는 홍채에 대응하는 영역을 기준신체 영역(5)으로 식별하고, 사용자영상(3)에서 기준신체 영역(5)의 크기(a)가 기준크기(b)에 대응하도록 사용자영상(3)을 확대 또는 축소한다. As shown in FIG. 16 , the processor 4 displays a user interface 160 indicating a plurality of reference body regions 5 . The user interface 160 includes a menu for selecting a plurality of reference body regions 5 such as iris, height, face size, and the like. When the iris is selected in the user interface 160 according to the user input, the processor 4 identifies a region corresponding to the iris as the reference body region 5, and the size of the reference body region 5 in the user image 3 The user image 3 is enlarged or reduced so that (a) corresponds to the reference size (b).
사용자인터페이스(160)는 앞서 도 15를 참조하여 설명한 바와 같이, 복수의 기준신체 영역(5)에 대한 우선순위를 설정할 수 있는 메뉴를 포함한다. 일 예로, 사용자입력에 따라 홍채가 제1순위, 키가 제3순위, 얼굴 크기가 제2순위 등으로 설정된 경우, 프로세서(4)는 우선적으로 홍채에 대응하는 영역을 기준신체 영역(5)으로 식별한다. 만일, 사용자영상(3)에서 홍채에 대응하는 영역을 식별할 수 없어서, 홍채에 대응하는 영역을 기준신체 영역(5)으로 설정하기 어려운 경우, 프로세서(4)는 다음 순위인 키에 대응하는 영역을 기준신체 영역(5)으로 설정할 수 있다. As described above with reference to FIG. 15 , the user interface 160 includes a menu for setting priorities for a plurality of reference body regions 5 . For example, when the iris is set as the first priority, the height as the third priority, the face size as the second priority, etc. according to the user input, the processor 4 preferentially sets the region corresponding to the iris as the reference body region 5 . identify If it is difficult to set the region corresponding to the iris as the reference body region 5 because the region corresponding to the iris cannot be identified in the user image 3, the processor 4 determines the region corresponding to the next key. can be set as the reference body region 5 .
한편, 홍채에 대응하는 영역(5)의 크기(a)는 성별, 인종 등 간에 차이가 거의 없는 반면에, 키, 얼굴 크기 등에 대응하는 영역(5)의 크기(a)는 성별, 인종 등 간에 차이가 확연한 점을 고려하여, 사용자인터페이스(160)는 키, 얼굴 크기 등에 대해서는 기준크기(b)를 입력할 수 있는 메뉴를 포함한다. 사용자입력에 따라 키에 대한 기준크기(b)가 180cm로 입력된 경우, 프로세서(4)는 사용자영상(3) 내 사용자영역(2)의 키에 대응하는 영역(5)의 크기(a)가 사용자입력에 따른 기준크기(b) 180cm가 되도록 사용자영상(3)을 확대 또는 축소할 수 있다. On the other hand, the size (a) of the region 5 corresponding to the iris has little difference between gender and race, whereas the size (a) of the region 5 corresponding to the height, face size, etc. In consideration of the obvious difference, the user interface 160 includes a menu for inputting a reference size b for a key, a face size, and the like. When the reference size (b) for the key is input as 180 cm according to the user input, the processor 4 determines that the size (a) of the area 5 corresponding to the height of the user area 2 in the user image 3 is The user image 3 can be enlarged or reduced so that the reference size b according to the user input becomes 180 cm.
이와 같이, 프로세서(4)는 사용자입력에 따라 복수의 기준신체 영역(5)에 우선순위를 설정할 수 있으므로, 사용자(1)가 원하는 기준신체 영역(5)에 기초하여 사용자영상(3)를 조정할 수 있다. In this way, since the processor 4 can set priorities to the plurality of reference body regions 5 according to the user input, the user 1 adjusts the user image 3 based on the desired reference body region 5 . can
본 문서에 개시된 다양한 실시예들은 전자장치(10)와 같은 기기(Machine)가 읽을 수 있는 저장 매체(Storage Medium)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어로서 구현된다. 일 예로, 전자장치(10)의 프로세서(4)는 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행한다. 이것은 전자장치(10)와 같은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함한다. 기기로 읽을 수 있는 저장매체는, 비일시적(Non-transitory) 저장매체의 형태로 제공된다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(예컨대, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 일 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함한다. Various embodiments disclosed in this document are implemented as software including one or more instructions stored in a storage medium readable by a machine such as the electronic device 10 . For example, the processor 4 of the electronic device 10 calls at least one of the one or more instructions stored from the storage medium and executes it. This enables a device such as the electronic device 10 to be operated to perform at least one function according to the called at least one command. The one or more instructions include code generated by a compiler or code executable by an interpreter. The device-readable storage medium is provided in the form of a non-transitory storage medium. Here, the 'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (eg, electromagnetic wave), and this term refers to a case in which data is semi-permanently stored in a storage medium and a case in which data is temporarily stored. case is not distinguished. For example, the 'non-transitory storage medium' includes a buffer in which data is temporarily stored.
일 예로, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(Computer Program Product)에 포함되어 제공된다. 본 개시에 의한 컴퓨터 프로그램 제품은, 앞서 언급된 바와 같은, 프로세서에 의해 실행되는 소프트웨어의 명령어들을 포함한다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래된다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예컨대, CD-ROM)의 형태로 배포되거나, 또는 어플리케이션 스토어(예컨대, 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예컨대, 스마트폰들) 간에 직접, 온라인으로 배포(예컨대, 다운로드 또는 업로드)된다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성된다.For example, the methods according to various embodiments disclosed in this document are included and provided in a computer program product. The computer program product according to the present disclosure includes instructions of software executed by a processor, as mentioned above. Computer program products are traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg, CD-ROM), or via an application store (eg, Play Store™) or between two user devices (eg, smartphones). Direct, online distribution (eg, download or upload). In the case of online distribution, at least a portion of the computer program product (eg, a downloadable app) is stored at least on a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or a relay server. Temporarily saved or created temporarily.
이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시된다.As mentioned above, although the present invention has been described in detail through preferred embodiments, the present invention is not limited thereto and variously implemented within the scope of the claims.

Claims (15)

  1. 전자장치에 있어서,In an electronic device,
    카메라를 통해 사용자영상을 획득하고,Acquire user image through camera,
    상기 사용자영상 내 사용자의 기준신체 영역을 식별하고,Identifies the reference body region of the user in the user image,
    상기 사용자영상을 표시할 디스플레이의 화면 크기에 기초하여 상기 디스플레이에 표시될 사용자영상 내 상기 기준신체 영역의 크기를 식별하고,Identifies the size of the reference body region in the user image to be displayed on the display based on the screen size of the display on which the user image is to be displayed,
    상기 기준신체 영역의 크기가 복수 사용자의 기준신체에 기초하여 정의된 기준크기에 대응하도록 상기 디스플레이에 표시될 사용자영상을 확대 또는 축소하는 프로세서를 포함하는 전자장치.and a processor for enlarging or reducing the user image to be displayed on the display so that the size of the reference body region corresponds to a reference size defined based on reference bodies of a plurality of users.
  2. 제1항에 있어서, According to claim 1,
    상기 기준신체 영역은, 상기 사용자의 홍채에 대응하는 영역인 전자장치.The reference body region is a region corresponding to the user's iris.
  3. 제1항에 있어서, According to claim 1,
    상기 프로세서는, The processor is
    외부장치로부터 상기 사용자영상을 획득하고,Obtaining the user image from an external device,
    상기 수신된 사용자영상에 기초하여 영상 통화에 관한 동작을 수행하는 전자장치. An electronic device that performs an operation related to a video call based on the received user image.
  4. 제1항에 있어서, According to claim 1,
    상기 사용자영상은 복수의 사용자영상을 포함하고,The user image includes a plurality of user images,
    상기 프로세서는, 상기 복수의 사용자영상 내 복수의 사용자의 기준신체 영역의 크기가 동일하도록, 상기 디스플레이에 표시된 복수의 사용자영상을 확대 또는 축소하는 전자장치.The processor is configured to enlarge or reduce the plurality of user images displayed on the display so that the sizes of the reference body regions of the plurality of users in the plurality of user images are the same.
  5. 제1항에 있어서, According to claim 1,
    상기 프로세서는, 상기 기준신체 영역이 상기 기준크기에 대응하는 상기 사용자영상의 주요영역이 상기 디스플레이의 화면 크기를 초과하는 경우, 상기 주요영역이 상기 화면 크기에 대응하도록 상기 사용자영상을 축소하는 전자장치. The processor is configured to reduce the user image so that, when a main region of the user image corresponding to the reference body region corresponds to the reference size exceeds a screen size of the display, the main region corresponds to the screen size .
  6. 제1항에 있어서, According to claim 1,
    상기 사용자영상은, 상기 기준신체 영역을 포함하는 사용자영역 및 배경영역을 포함하며, The user image includes a user area including the reference body area and a background area,
    상기 프로세서는, 상기 배경영역의 크기를 유지하면서, 상기 기준신체 영역이 상기 기준크기에 대응하도록 상기 사용자영상을 확대 또는 축소하는 전자장치. The processor enlarges or reduces the user image so that the reference body region corresponds to the reference size while maintaining the size of the background region.
  7. 제1항에 있어서, According to claim 1,
    상기 프로세서는, The processor is
    상기 기준신체 영역의 위치를 식별하고,identifying the location of the reference body region;
    상기 기준신체 영역의 위치가 상기 디스플레이의 화면 내 정의된 기준위치에 대응하도록 상기 사용자영상을 이동하는 전자장치.An electronic device for moving the user image so that the position of the reference body region corresponds to the reference position defined in the screen of the display.
  8. 제1항에 있어서, According to claim 1,
    상기 프로세서는, The processor is
    상기 사용자영상 내 상기 사용자에 대응하는 사용자영역의 변화에 기초하여 상기 사용자의 참여도를 식별하고, Identifies the degree of participation of the user based on a change in the user area corresponding to the user in the user image,
    상기 식별된 참여도에 기초하여 상기 사용자영상을 확대 또는 축소하는 전자장치.An electronic device for enlarging or reducing the user image based on the identified degree of participation.
  9. 제1항에 있어서, According to claim 1,
    상기 프로세서는, The processor is
    상기 사용자영상 내 상기 사용자에 대응하는 사용자영역의 변화에 기초하여 상기 사용자의 시선 방향을 식별하고, Identifies the gaze direction of the user based on a change in the user area corresponding to the user in the user image,
    상기 식별된 시선 방향에 따라 상기 사용자영상을 이동하는 전자장치.An electronic device that moves the user image according to the identified gaze direction.
  10. 제1항에 있어서, According to claim 1,
    상기 프로세서는, The processor is
    사용자 시청거리에 기초하여 상기 기준크기를 조정하고, Adjusting the reference size based on the user viewing distance,
    상기 기준신체 영역의 크기가 상기 조정된 기준크기에 대응하도록 상기 사용자영상을 확대 또는 축소하는 전자장치. An electronic device for enlarging or reducing the user image so that the size of the reference body region corresponds to the adjusted reference size.
  11. 제1항에 있어서, The method of claim 1,
    상기 프로세서는, 복수의 기준신체 영역 중에서 우선순위에 기초하여 선택된 기준신체 영역이 상기 기준크기에 대응하도록 상기 사용자영상을 확대 또는 축소하는 전자장치.The processor is configured to enlarge or reduce the user image so that a reference body region selected based on a priority from among a plurality of reference body regions corresponds to the reference size.
  12. 제11항에 있어서, 12. The method of claim 11,
    상기 프로세서는, 사용자입력에 기초하여 상기 우선순위를 설정하는 전자장치. The processor is configured to set the priority based on a user input.
  13. 전자장치의 제어방법에 있어서,In the control method of an electronic device,
    사용자영상을 획득하는 단계;acquiring a user image;
    상기 사용자영상 내 사용자의 기준신체 영역을 식별하는 단계;identifying a reference body region of the user in the user image;
    상기 사용자영상을 표시할 디스플레이의 화면 크기에 기초하여 상기 디스플레이에 표시될 사용자영상 내 상기 기준신체 영역의 크기를 식별하는 단계; 및 identifying the size of the reference body region in the user image to be displayed on the display based on the screen size of the display on which the user image is to be displayed; and
    상기 기준신체 영역의 크기가 복수 사용자의 기준신체에 기초하여 정의된 기준크기에 대응하도록 상기 디스플레이에 표시될 사용자영상을 확대 또는 축소하는 단계Enlarging or reducing the user image to be displayed on the display so that the size of the reference body region corresponds to a reference size defined based on reference bodies of a plurality of users
    를 포함하는 전자장치의 제어방법.A control method of an electronic device comprising a.
  14. 제13항에 있어서, 14. The method of claim 13,
    상기 기준신체 영역은, 상기 사용자의 홍채에 대응하는 영역인 전자장치의 제어방법.The reference body region is a region corresponding to the user's iris.
  15. 컴퓨터가 읽을 수 있는 코드로서, 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 상기 전자장치의 제어방법은, A computer-readable code, comprising: a computer program storing a code for performing a control method of an electronic device;
    사용자영상을 획득하는 단계;acquiring a user image;
    상기 사용자영상 내 사용자의 기준신체 영역을 식별하는 단계;identifying a reference body region of the user in the user image;
    상기 사용자영상을 표시할 디스플레이의 화면 크기에 기초하여 상기 디스플레이에 표시될 사용자영상 내 상기 기준신체 영역의 크기를 식별하는 단계; 및 identifying the size of the reference body region in the user image to be displayed on the display based on the screen size of the display on which the user image is to be displayed; and
    상기 기준신체 영역의 크기가 복수 사용자의 기준신체에 기초하여 정의된 기준크기에 대응하도록 상기 디스플레이에 표시될 사용자영상을 확대 또는 축소하는 단계Enlarging or reducing the user image to be displayed on the display so that the size of the reference body region corresponds to a reference size defined based on reference bodies of a plurality of users
    를 포함하는 것을 특징으로 하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체.A recording medium on which a computer-readable program is recorded, comprising:
PCT/KR2021/009866 2020-09-25 2021-07-29 Electronic device and control method thereof WO2022065663A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200125142A KR20220041630A (en) 2020-09-25 2020-09-25 Electronice device and control method thereof
KR10-2020-0125142 2020-09-25

Publications (1)

Publication Number Publication Date
WO2022065663A1 true WO2022065663A1 (en) 2022-03-31

Family

ID=80846650

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/009866 WO2022065663A1 (en) 2020-09-25 2021-07-29 Electronic device and control method thereof

Country Status (2)

Country Link
KR (1) KR20220041630A (en)
WO (1) WO2022065663A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110050150A (en) * 2009-11-06 2011-05-13 엘지전자 주식회사 Apparatus for displaying image and method for operating the same
US20120162356A1 (en) * 2009-09-11 2012-06-28 Koninklijke Philips Electronics N.V. Image processing system
KR20140003974A (en) * 2012-07-02 2014-01-10 삼성전자주식회사 Method for providing video call service and an electronic device thereof
KR20150055863A (en) * 2013-11-14 2015-05-22 엘지전자 주식회사 Display device and operating method thereof
KR101858895B1 (en) * 2017-03-10 2018-05-16 한국전자통신연구원 Method of providing video conferencing service and apparatuses performing the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120162356A1 (en) * 2009-09-11 2012-06-28 Koninklijke Philips Electronics N.V. Image processing system
KR20110050150A (en) * 2009-11-06 2011-05-13 엘지전자 주식회사 Apparatus for displaying image and method for operating the same
KR20140003974A (en) * 2012-07-02 2014-01-10 삼성전자주식회사 Method for providing video call service and an electronic device thereof
KR20150055863A (en) * 2013-11-14 2015-05-22 엘지전자 주식회사 Display device and operating method thereof
KR101858895B1 (en) * 2017-03-10 2018-05-16 한국전자통신연구원 Method of providing video conferencing service and apparatuses performing the same

Also Published As

Publication number Publication date
KR20220041630A (en) 2022-04-01

Similar Documents

Publication Publication Date Title
WO2020105948A1 (en) Image processing apparatus and control method thereof
WO2020032555A1 (en) Electronic device and method for providing notification related to image displayed through display and image stored in memory based on image analysis
WO2012091185A1 (en) Display device and method of providing feedback for gestures thereof
WO2021096233A1 (en) Electronic apparatus and control method thereof
WO2015170832A1 (en) Display device and video call performing method therefor
WO2020105979A1 (en) Image processing apparatus and control method thereof
WO2020251074A1 (en) Artificial intelligence robot for providing voice recognition function and operation method thereof
WO2014193093A1 (en) Display apparatus and control method thereof
WO2020256161A1 (en) Artificial intelligence home robot and control method therefor
WO2021080290A1 (en) Electronic apparatus and control method thereof
WO2022102945A1 (en) Electronic device and control method thereof
WO2022065663A1 (en) Electronic device and control method thereof
WO2019054626A1 (en) Electronic device and method for obtaining data from second image sensor by means of signal provided from first image sensor
WO2022065662A1 (en) Electronic device and control method thereof
WO2022098204A1 (en) Electronic device and method for providing virtual reality service
WO2021172713A1 (en) Electronic device and control method therefor
WO2020231243A1 (en) Electronic device and method of controlling thereof
WO2022114532A1 (en) Electronic device and control method thereof
WO2022131432A1 (en) Electronic device and control method thereof
WO2022055174A1 (en) Electronic apparatus and control method thereof
WO2024058364A1 (en) Electronic device for providing screen with optimized positioning to user, and control method therefor
WO2022215910A1 (en) Screen sharing method and electronic device therefor
WO2022255730A1 (en) Electronic device and control method thereof
WO2024025089A1 (en) Display device for displaying ar object and control method thereof
WO2024010129A1 (en) Display device and operation method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21872696

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21872696

Country of ref document: EP

Kind code of ref document: A1