JP6684883B2 - Method and system for providing camera effects - Google Patents

Method and system for providing camera effects Download PDF

Info

Publication number
JP6684883B2
JP6684883B2 JP2018196434A JP2018196434A JP6684883B2 JP 6684883 B2 JP6684883 B2 JP 6684883B2 JP 2018196434 A JP2018196434 A JP 2018196434A JP 2018196434 A JP2018196434 A JP 2018196434A JP 6684883 B2 JP6684883 B2 JP 6684883B2
Authority
JP
Japan
Prior art keywords
effect
emotion
camera image
information
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018196434A
Other languages
Japanese (ja)
Other versions
JP2019075124A (en
Inventor
ヒョンス キム
ヒョンス キム
ジヨン パク
ジヨン パク
ギョンウン イ
ギョンウン イ
ヨンオク チェー
ヨンオク チェー
ウンソル キム
ウンソル キム
ソンホ キム
ソンホ キム
ソンテク チョウ
ソンテク チョウ
ジョンミョン キム
ジョンミョン キム
ギス パク
ギス パク
ユソブ ソン
ユソブ ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Publication of JP2019075124A publication Critical patent/JP2019075124A/en
Application granted granted Critical
Publication of JP6684883B2 publication Critical patent/JP6684883B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2747Remote storage of video programs received via the downstream path, e.g. from the server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)

Description

以下の説明は、AR(Augmented Reality)カメラエフェクト(camera effect)を提供する技術に関する。   The following description relates to a technique for providing an AR (Augmented Reality) camera effect.

近年、スマートフォン、タブレット、ウェアラブルデバイスなどの個人情報端末を利用したモバイルデータ通信サービスが多く利用されている。   In recent years, mobile data communication services using personal information terminals such as smartphones, tablets, and wearable devices have been widely used.

このようなモバイルデータ通信サービスのうちで最も脚光を浴びている分野の1つとして、各種コンテンツを個人情報端末に提供する無線放送サービス分野が挙げられる。   Among such mobile data communication services, one of the most popular fields is a wireless broadcasting service field that provides various contents to personal information terminals.

一例として、特許文献1には、撮影された撮影情報を、インターネット放送、無線放送または地上波放送を介してモバイル端末に提供する技術が開示されている。   As an example, Patent Document 1 discloses a technique of providing shooting information to a mobile terminal via Internet broadcasting, wireless broadcasting, or terrestrial broadcasting.

韓国公開特許第10−2003−0029556号公報Korean Published Patent No. 10-2003-0029556

カメラ映像に対する感情に合ったカメラエフェクトを迅速に提供することができる方法およびシステムを提供する。   Provided is a method and system capable of rapidly providing a camera effect that matches emotions with respect to a camera image.

コンピュータによって実現される電子機器でのエフェクト提供方法であって、前記電子機器のカメラ映像に反映するエフェクトを選定するための基準として、前記カメラ映像に対する感情を決定する段階、および前記の決定された感情に基づき、該当の感情を示すエフェクトのうちからランダムに選定されたエフェクトを前記カメラ映像に直ちに反映する段階を含む、エフェクト提供方法を提供する。   A method of providing an effect in an electronic device realized by a computer, wherein a step of determining an emotion with respect to the camera image as a reference for selecting an effect to be reflected in a camera image of the electronic device; There is provided an effect providing method including a step of immediately reflecting an effect randomly selected from effects showing the corresponding feeling on the camera image based on the feeling.

一側面によると、前記決定する段階は、前記電子機器のユーザによって選択された感情をエフェクト選定基準として決定してよい。   According to one aspect, the determining step may determine emotion selected by a user of the electronic device as an effect selection criterion.

他の側面によると、前記決定する段階は、前記カメラ映像の顔表情から認識された感情をエフェクト選定基準として決定してよい。   According to another aspect, the determining step may determine the emotion recognized from the facial expression of the camera image as an effect selection criterion.

また他の側面によると、前記エフェクト提供方法は、前記電子機器のユーザと関連する状況情報(context)を収集する段階をさらに含み、前記反映する段階は、前記の決定された感情に対応するエフェクトのうちから、前記状況情報にマッチングするエフェクトをランダムに選定する段階を含んでよい。   According to another aspect, the effect providing method further comprises collecting context information related to a user of the electronic device, and the reflecting step includes an effect corresponding to the determined emotion. Randomly selecting an effect that matches the situation information from among the above.

また他の側面によると、前記収集する段階は、前記カメラ映像と関連する時間情報、前記カメラ映像と関連する場所情報、前記カメラ映像と関連する色情報、前記カメラ映像と関連する撮影モード情報、前記ユーザが使用したエフェクトに対する履歴情報、前記カメラ映像に対するフィードバック情報、前記カメラ映像と関連するターゲット(target)情報、および前記カメラ映像から認識された表情情報のうちの少なくとも1つの状況情報を収集してよい。   According to another aspect, the collecting step includes: time information associated with the camera image, location information associated with the camera image, color information associated with the camera image, shooting mode information associated with the camera image, Collecting at least one situation information of history information about effects used by the user, feedback information about the camera image, target information related to the camera image, and facial expression information recognized from the camera image. You may

また他の側面によると、前記選定する段階は、前記の決定された感情に対応するエフェクトに対して前記状況情報による加重値を付与し、前記加重値に基づいて前記カメラ映像に反映するエフェクトを選定してよい。   According to another aspect, in the selecting step, a weighted value based on the situation information is given to the effect corresponding to the determined emotion, and an effect to be reflected in the camera image based on the weighted value is added. You may choose.

また他の側面によると、前記選定する段階は、前記の決定された感情に応じて互いに異なる状況情報を選択してエフェクト選定基準として利用してよい。   According to another aspect, the selecting step may select different situation information according to the determined emotion and use it as an effect selection criterion.

また他の側面によると、前記選定する段階は、前記の決定された感情に対応するエフェクトに対して、前記の決定された感情に応じて前記状況情報別に異なる加重値を付与し、前記加重値に基づいて前記カメラ映像に反映するエフェクトを選定してよい。   According to another aspect, the selecting step assigns different weights to the effects corresponding to the determined emotions according to the situation information according to the determined emotions. The effect to be reflected on the camera image may be selected based on

また他の側面によると、前記決定する段階は、複数の感情アイコンで構成された感情選択メニューを提供する段階、および前記感情選択メニューから選択された感情をエフェクト選定基準として決定する段階を含む。   According to another aspect, the determining step includes providing an emotion selection menu including a plurality of emotion icons and determining the emotion selected from the emotion selection menu as an effect selection criterion.

さらに他の側面によると、前記反映する段階は、前記感情選択メニューに対するユーザジェスチャ類型に基づき、前記の決定された感情に対応するエフェクトのうちから前記カメラ映像に反映するエフェクト選定対象を異なるように選定してよい。   According to still another aspect, in the reflecting step, the effect selection target to be reflected in the camera image is different from the effects corresponding to the determined emotion based on the user gesture type for the emotion selection menu. You may choose.

前記エフェクト提供方法をコンピュータに実行させるためのコンピュータプログラムを提供する。   A computer program for causing a computer to execute the effect providing method is provided.

前記コンピュータプログラムを記録しているコンピュータ読み取り可能な記録媒体を提供する。   A computer-readable recording medium storing the computer program is provided.

コンピュータによって実現される電子機器でのエフェクト提供システムであって、コンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、前記電子機器のカメラ映像に反映するエフェクトを選定するための基準として、前記カメラ映像に対する感情を決定する感情決定部、および前記の決定された感情に基づき、該当の感情を示すエフェクトのうちからランダムに選定されたエフェクトを前記カメラ映像に直ちに反映するエフェクト選定部を備える、エフェクト提供システムを提供する。   An effect providing system in an electronic device implemented by a computer, the system including at least one processor implemented to execute a computer-readable instruction, the at least one processor displaying a camera image of the electronic device. As a criterion for selecting an effect to be reflected, an emotion determination unit that determines an emotion with respect to the camera image, and an effect randomly selected from among the effects showing the corresponding emotion based on the determined emotion are described above. Provided is an effect providing system including an effect selection unit that immediately reflects on a camera image.

カメラ映像に対する感情に合ったカメラエフェクトを迅速に提供することができる。   It is possible to quickly provide a camera effect that matches the emotion of the camera image.

本発明の一実施形態における、ネットワーク環境の例を示した図である。It is a figure showing the example of the network environment in one embodiment of the present invention. 本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。It is a block diagram for explaining an electronic device and an internal configuration of a server in one embodiment of the present invention. 本発明の一実施形態における、電子機器のプロセッサが含むことのできる構成要素の例を示した図である。FIG. 6 is a diagram showing an example of components that can be included in a processor of an electronic device according to an embodiment of the present invention. 本発明の一実施形態における、電子機器が実行することのできるエフェクト提供方法の例を示したフローチャートである。6 is a flowchart showing an example of an effect providing method that can be executed by an electronic device according to an embodiment of the present invention. 本発明の一実施形態における、エフェクト選定基準として利用される状況情報を説明するための図である。It is a figure for demonstrating the situation information utilized as an effect selection reference | standard in one Embodiment of this invention. 本発明の一実施形態における、感情に対応するエフェクトを提供する過程を説明するための例示図である。FIG. 6 is an exemplary diagram illustrating a process of providing an effect corresponding to emotions according to an exemplary embodiment of the present invention. 本発明の一実施形態における、感情に対応するエフェクトを提供する過程を説明するための例示図である。FIG. 6 is an exemplary diagram illustrating a process of providing an effect corresponding to emotions according to an exemplary embodiment of the present invention. 本発明の一実施形態における、感情に対応するエフェクトを提供する過程を説明するための例示図である。FIG. 6 is an exemplary diagram illustrating a process of providing an effect corresponding to emotions according to an exemplary embodiment of the present invention. 本発明の一実施形態における、感情に対応するエフェクトを提供する過程を説明するための例示図である。FIG. 6 is an exemplary diagram illustrating a process of providing an effect corresponding to emotions according to an exemplary embodiment of the present invention. 本発明の一実施形態における、感情に対応するエフェクトを提供する過程を説明するための例示図である。FIG. 6 is an exemplary diagram illustrating a process of providing an effect corresponding to emotions according to an exemplary embodiment of the present invention.

以下、本発明の実施形態について、添付の図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

本発明の実施形態は、カメラエフェクトを提供する技術に関し、より詳細には、カメラ映像に対する感情に合ったカメラエフェクトを迅速に提供することができる方法およびシステムに関する。   Embodiments of the present invention relate to a technique for providing a camera effect, and more particularly, to a method and a system capable of quickly providing a camera effect that matches an emotion of a camera image.

本明細書で具体的に開示される事項などを含む実施形態は、ビデオ映像撮影や生放送中にカメラエフェクトを迅速に提供することができ、これによって迅速性、効率性、多様性、娯楽要素などの側面において相当な長所を達成することができる。   Embodiments, including those specifically disclosed herein, can rapidly provide camera effects during video footage or live broadcast, thereby providing speed, efficiency, versatility, entertainment elements, etc. A considerable advantage can be achieved in the aspect of.

図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。   FIG. 1 is a diagram showing an example of a network environment in an embodiment of the present invention. The network environment in FIG. 1 shows an example including a plurality of electronic devices 110, 120, 130, 140, a plurality of servers 150, 160, and a network 170. Such FIG. 1 is merely an example for explaining the invention, and the number of electronic devices and the number of servers are not limited as in FIG.

複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話機、タブレット、ナビゲーション、PC(personal computer)、ノート型PC、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)などがある。一例として、第1電子機器110は、無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信してよい。   The plurality of electronic devices 110, 120, 130, 140 may be fixed terminals or mobile terminals realized by computer devices. Examples of the plurality of electronic devices 110, 120, 130, 140 include smartphones, mobile phones, tablets, navigation, PCs (personal computers), notebook PCs, digital broadcasting terminals, PDAs (Personal Digital Assistants), and PMPs (Portables). Multimedia Player). For example, the first electronic device 110 may communicate with other electronic devices 120, 130, 140 and / or servers 150, 160 via the network 170 using a wireless or wired communication scheme.

通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を活用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでもよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター−バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。   The communication method is not limited, and not only a communication method that utilizes a communication network (for example, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network) that the network 170 can include, but also a short distance between devices. Wireless communication may be included. For example, the network 170 includes a PAN (personal area network), a LAN (local area network), a CAN (campus area network), a MAN (a metropolitan area network), a WAN (broadband network), and a WAN (wideBear network). It may include any one or more of the networks. Further, the network 170 may include any one or more of network topologies including, but not limited to, bus networks, star networks, ring networks, mesh networks, star-bus networks, tree or hierarchical networks, and the like. It will not be done.

サーバ150、160それぞれは、電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。一例として、サーバ160は、ネットワーク170を介して接続した第1電子機器110にアプリケーションのインストールのためのファイルを提供してよい。この場合、第1電子機器110は、サーバ160から提供されたファイルを利用してアプリケーションをインストールしてよい。また、第1電子機器110が含むオペレーティングシステム(OS:Operating System)や少なくとも1つのプログラム(一例として、ブラウザやインストールされたアプリケーション)の制御にしたがってサーバ150に接続し、サーバ150が提供するサービスやコンテンツの提供を受けてもよい。例えば、第1電子機器110がアプリケーションの制御にしたがってネットワーク170を介してサービス要求メッセージをサーバ150に送信すると、サーバ150はサービス要求メッセージに対応するコードを第1電子機器110に送信してよく、第1電子機器110は、アプリケーションの制御にしたがってコードに基づいた画面を構成して表示することにより、ユーザにコンテンツを提供してよい。   Each of the servers 150 and 160 may be realized by one or more computer devices that communicate with the electronic devices 110, 120, 130 and 140 via the network 170 to provide instructions, codes, files, contents, services and the like. For example, the server 160 may provide a file for installing an application to the first electronic device 110 connected via the network 170. In this case, the first electronic device 110 may use the file provided by the server 160 to install the application. The service provided by the server 150 is connected to the server 150 under the control of an operating system (OS: Operating System) included in the first electronic device 110 and at least one program (for example, a browser or an installed application). Content may be provided. For example, when the first electronic device 110 sends a service request message to the server 150 via the network 170 under the control of the application, the server 150 may send a code corresponding to the service request message to the first electronic device 110, The first electronic device 110 may provide the content to the user by configuring and displaying a screen based on the code under the control of the application.

図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、電子機器に対する例として第1電子機器110の内部構成を説明し、サーバに対する例としてサーバ150の内部構成を説明する。他の電子機器120、130、140やサーバ160も、同一または類似の内部構成を有してよい。   FIG. 2 is a block diagram for explaining internal configurations of the electronic device and the server according to the embodiment of the present invention. In FIG. 2, the internal configuration of the first electronic device 110 will be described as an example for the electronic device, and the internal configuration of the server 150 will be described as an example for the server. The other electronic devices 120, 130, 140 and the server 160 may also have the same or similar internal configuration.

第1電子機器110およびサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、コンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永続的大容量記録装置を含んでよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、第1電子機器110においてインストールされ実行されるアプリケーションなどのためのコード)が記録されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータ読み取り可能な記録媒体からロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD−ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。   The first electronic device 110 and the server 150 may include memories 211, 221, processors 212, 222, communication modules 213, 223, and input / output interfaces 214, 224. The memories 211 and 221 are computer-readable recording media, and may include a permanent mass storage device such as a random access memory (RAM), a read only memory (ROM), and a disk drive. In addition, the memories 211 and 221 may store an operating system and at least one program code (for example, a code for an application installed and executed in the first electronic device 110). Such software components may be loaded from a computer-readable recording medium other than the memories 211 and 221. Such another computer-readable recording medium may include a computer-readable recording medium such as a floppy (registered trademark) drive, a disk, a tape, a DVD / CD-ROM drive, and a memory card. In another embodiment, the software components may be loaded into the memories 211 and 221 through the communication modules 213 and 223 which are not computer-readable recording media. For example, at least one program is a program installed by a file provided by a file distribution system (for example, the server 160 described above) that distributes an installation file of a developer or an application via the network 170 (for example, the above described It may be loaded into the memory 211, 221 based on (application).

プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に記録されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。   Processors 212, 222 may be configured to process instructions of computer programs by performing basic arithmetic, logic, and input / output operations. The instructions may be provided to the processors 212, 222 by the memory 211, 221, or the communication modules 213, 223. For example, the processors 212 and 222 may be configured to execute the received instructions according to the program code recorded in the recording device such as the memories 211 and 221.

通信モジュール213、223は、ネットワーク170を介して第1電子機器110とサーバ150とが互いに通信するための機能を提供してもよいし、他の電子機器(一例として、第2電子機器120)または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、第1電子機器110のプロセッサ212がメモリ211のような記録装置に記録されたプログラムコードにしたがって生成した要求(一例として、検索要求)が、通信モジュール213の制御にしたがってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て第1電子機器110の通信モジュール213を通じて第1電子機器110に受信されてもよい。例えば、通信モジュール213を通じて受信したサーバ150の制御信号や命令などは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、第1電子機器110がさらに含むことのできる記録媒体に記録されてよい。   The communication modules 213 and 223 may provide a function for the first electronic device 110 and the server 150 to communicate with each other via the network 170, or other electronic device (for example, the second electronic device 120). Alternatively, a function for communicating with another server (as an example, the server 160) may be provided. As an example, a request (for example, a search request) generated by the processor 212 of the first electronic device 110 according to a program code recorded in a recording device such as the memory 211 is transmitted via the network 170 under the control of the communication module 213. May be transmitted to the server 150. On the contrary, control signals, commands, contents, files, etc. provided according to the control of the processor 222 of the server 150 pass through the communication module 223 and the network 170, and through the communication module 213 of the first electronic device 110, the first electronic device 110. It may be received by the device 110. For example, control signals and commands of the server 150 received through the communication module 213 may be transmitted to the processor 212 and the memory 211, and content and files may be recorded in a recording medium that the first electronic device 110 may further include. May be done.

入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボードまたはマウスなどの装置を含んでよく、出力装置は、アプリケーションの通信セッションを表示するためのディスプレイのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。より具体的な例として、第1電子機器110のプロセッサ212がメモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や第2電子機器120が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を経てディスプレイに表示されてよい。入力/出力インタフェース224も同様に、サーバ150のプロセッサ222がメモリにロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150が提供するデータを利用して構成される情報を出力してよい。   Input / output interface 214 may be a means for interfacing with input / output device 215. For example, the input device may include a device such as a keyboard or a mouse, and the output device may include a device such as a display for displaying the communication session of the application. As another example, the input / output interface 214 may be a means for interfacing with a device having integrated functions for input and output, such as a touch screen. As a more specific example, when the processor 212 of the first electronic device 110 processes the instructions of the computer program loaded in the memory 211, the processor 212 is configured by using the data provided by the server 150 or the second electronic device 120. Service screens and content may be displayed on the display via the input / output interface 214. The input / output interface 224 may similarly output information configured using the data provided by the server 150 when the processor 222 of the server 150 processes the instructions of the computer program loaded in the memory.

また、他の実施形態において、第1電子機器110およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。例えば、第1電子機器110は、上述した入力/出力装置215のうちの少なくとも一部を含むように構成されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、第1電子機器110がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラ、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が第1電子機器110にさらに含まれるように実現されてよいことが理解できるであろう。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。   Moreover, in another embodiment, the first electronic device 110 and the server 150 may include more components than the components of FIG. 2. For example, the first electronic device 110 may be configured to include at least a part of the input / output device 215 described above, and may include a transceiver, a GPS (Global Positioning System) module, a camera, various sensors, a database, and the like. It may further include other components such as. As a more specific example, when the first electronic device 110 is a smartphone, an acceleration sensor or a gyro sensor that is generally included in the smartphone, a camera, various physical buttons, a button using a touch panel, an input / output port. It will be appreciated that various components such as a vibrator for vibration may be further included in the first electronic device 110. However, most prior art components need not be explicitly shown in the figures.

図3は、本発明の一実施形態における、電子機器のプロセッサが含むことのできる構成要素の例を示したブロック図であり、図4は、本発明の一実施形態における、電子機器が実行することのできる方法の例を示したフローチャートである。   FIG. 3 is a block diagram showing an example of components that can be included in the processor of the electronic device according to the embodiment of the present invention, and FIG. 4 is executed by the electronic device according to the embodiment of the present invention. It is the flowchart which showed the example of the possible method.

本実施形態に係る第1電子機器110には、コンピュータによって実現されたエフェクト提供システムが構成されてよい。エフェクト提供システムは、PC基盤のプログラムまたはモバイル端末専用のアプリケーションで構成されてよい。本実施形態におけるエフェクト提供システムは、独立的に動作するプログラム形態で実現されてもよいし、あるいは、特定のアプリケーション(例えば、カメラ機能など)のイン−アプリ(in−app)形態で構成され、特定のアプリケーション上で動作が可能なように実現されてもよい。エフェクト提供システムは、第1電子機器110においてインストールされるアプリケーションの形態で実現され、サーバ150との連動による生放送中に感情に合ったランダムエフェクトをカメラ上に直ちに適用することができる。   An effect providing system realized by a computer may be configured in the first electronic device 110 according to the present embodiment. The effect providing system may be composed of a PC-based program or an application dedicated to a mobile terminal. The effect providing system according to the present embodiment may be implemented in the form of a program that operates independently, or may be configured in the form of an in-app of a specific application (for example, a camera function). It may be realized so that it can operate on a specific application. The effect providing system is realized in the form of an application installed in the first electronic device 110, and a random effect suitable for emotion can be immediately applied to the camera during live broadcasting by linking with the server 150.

例えば、第1電子機器110においてインストールされたアプリケーションが提供する命令に基づき、第1電子機器110に実現されたエフェクト提供システムは、エフェクト提供方法を実行してよい。図4に係るエフェクト提供方法を実行するために、第1電子機器110のプロセッサ212は、構成要素として、図3に示すように、感情決定部310、状況収集部320、およびエフェクト選定部330を備えてよい。実施形態によっては、プロセッサ212の構成要素は、選択的にプロセッサ212に含まれても、除外されてもよい。また、実施形態によっては、プロセッサ212の構成要素は、プロセッサ212の機能の表現のために分離されても、併合されてもよい。   For example, the effect providing system implemented in the first electronic device 110 may execute the effect providing method based on a command provided by the application installed in the first electronic device 110. In order to execute the effect providing method according to FIG. 4, the processor 212 of the first electronic device 110 includes, as components, an emotion determination unit 310, a situation collection unit 320, and an effect selection unit 330, as illustrated in FIG. You may be prepared. In some embodiments, components of processor 212 may optionally be included in or excluded from processor 212. Also, in some embodiments, components of processor 212 may be separate or merged for representation of the functionality of processor 212.

このようなプロセッサ212およびプロセッサ212の構成要素は、図4のエフェクト提供方法が含む段階410〜440を実行するように第1電子機器110を制御してよい。例えば、プロセッサ212およびプロセッサ212の構成要素は、メモリ211が含むオペレーティングシステムのコードと少なくとも1つのプログラムのコードによる命令を実行するように実現されてよい。   The processor 212 and the components of the processor 212 may control the first electronic device 110 to perform steps 410 to 440 included in the effect providing method of FIG. 4. For example, the processor 212 and components of the processor 212 may be implemented to execute instructions in the code of the operating system and the code of the at least one program included in the memory 211.

ここで、プロセッサ212の構成要素は、第1電子機器110に記録されたプログラムコードが提供する命令(一例として、第1電子機器110において実行されるアプリケーションが提供する命令)にしたがってプロセッサ212によって実行される、プロセッサ212の互いに異なる機能の表現であってよい。例えば、第1電子機器110がカメラ映像に対する感情を決定するように、上述した命令にしたがって第1電子機器110を制御するプロセッサ212の機能的表現として感情決定部310が利用されてよい。   Here, the components of the processor 212 are executed by the processor 212 according to an instruction provided by a program code recorded in the first electronic device 110 (as an example, an instruction provided by an application executed in the first electronic device 110). Can be different representations of different functions of the processor 212. For example, the emotion determination unit 310 may be used as a functional expression of the processor 212 that controls the first electronic device 110 according to the above-described instruction so that the first electronic device 110 determines the emotion for the camera image.

段階410で、プロセッサ212は、第1電子機器110の制御と関連する命令がロードされたメモリ211から必要な命令を読み取ってよい。この場合、読み取られた命令は、以下で説明される段階420〜440をプロセッサ212が実行するように制御するための命令を含んでよい。   At step 410, the processor 212 may read the necessary instructions from the memory 211 loaded with the instructions related to the control of the first electronic device 110. In this case, the instructions read may include instructions for controlling processor 212 to perform steps 420-440 described below.

本発明の実施形態は、生放送やインターネット電話(VoIP)などのように、第1電子機器110のカメラで撮影された映像を、インターネット回線を介してリアルタイムで送り出すストリーミング環境において、カメラ映像にARイメージとして所定のエフェクトを合成して1つの映像として提供することができ、特に、カメラ映像に反映しようとするエフェクトを直接指定するのではなく、カメラ映像をリアルタイムで送り出す環境状況を考慮した上で、エフェクトを自動選定してより迅速に提供することを可能にする。上述したライブストリーミング環境はもちろん、ビデオ映像撮影環境などを含むカメラ映像に対してエフェクトを自動選定して提供してもよい。   According to the embodiment of the present invention, an AR image is displayed on a camera image in a streaming environment in which a video image captured by the camera of the first electronic device 110 is sent out in real time via an internet line, such as live broadcasting and internet telephone (VoIP). As a result, it is possible to combine a predetermined effect and provide it as a single image. In particular, instead of directly specifying the effect to be reflected in the camera image, in consideration of the environmental condition of sending the camera image in real time, It enables to select effects automatically and provide them more quickly. In addition to the live streaming environment described above, effects may be automatically selected and provided for camera images including video image capturing environments.

段階420で、感情決定部310は、第1電子機器110のカメラ映像に反映するエフェクトを選定するための基準として、カメラ映像に対する感情を決定してよい。本明細書において、エフェクトとは、イメージオブジェクトで構成されたコンテンツであって、カメラ映像に合成可能なフィルタ、スタンプ、絵文字などをすべて包括したものを意味してよい。このとき、固定的な形態のオブジェクトはもちろん、フラッシュやアニメーションなどが適用された動くイメージオブジェクトでも実現可能である。このようなエフェクトは、感情情報を示すものであり、感情別に事前に分類されてよい。言い換えれば、複数の感情(例えば、6種類の感情:嬉しい、愛、悲しい、怒り、クール、クレイジー)が事前に定義され、各感情別に該当の感情を示すエフェクトがグループ化されて管理されてよい。一例として、感情決定部310は、第1電子機器110のユーザが事前に定義された複数の感情のうちのいずれか1つの特定の感情を選択可能とし、ユーザによって選択された感情としてカメラ映像に対する感情を決定してよい。他の例として、感情決定部310は、カメラ映像に基づいて顔表情から感情情報を抽出することによってカメラ映像に対する感情を決定してよい。顔表情は、眉毛、目、鼻、口、肌のような顔要素に変形が起こるときに発生する顔筋肉の収縮によって示され、顔表情の強度は、顔特徴の幾何学的変化または筋肉表現の密度によって決定されてよい。例えば、感情決定部310は、表情による特徴を抽出するための関心領域(例えば、目領域、眉毛領域、鼻領域、口領域など)を抽出した後、関心領域から特徴点を抽出し、特徴点を利用して一定の特徴値を決定してよい。特徴値とは、特徴点間の距離などによって人間の表情を示す特定の数値に該当する。感情決定部310は、決定した特徴値を感情反応値モデルに適用するために、映像に示された特徴値に対する数値の程度に応じて一定の強度値を決定し、予め用意しておいたマッピングテーブルを利用して各特定値の数値にマッチングする一定の強度値を決定する。マッピングテーブルは、感情反応値モデルに基づいて事前に用意される。感情決定部310は、感情反応値モデルと強度値をマッピングし、該当の強度値を感情反応値モデルに適用した結果に基づき、決定した感情の種類と強度を抽出してよい。上述した感情情報を抽出する技術は例示的なものに過ぎず、これに限定されることはなく、周知の他の技術を利用することも可能である。   In operation 420, the emotion determination unit 310 may determine an emotion for the camera image as a reference for selecting an effect to be reflected in the camera image of the first electronic device 110. In the present specification, an effect may be a content composed of an image object and including all filters, stamps, pictograms, and the like that can be combined with a camera image. At this time, not only a fixed object but also a moving image object to which flash or animation is applied can be realized. Such effects indicate emotional information and may be classified in advance according to emotions. In other words, multiple emotions (eg, 6 emotions: happy, love, sad, angry, cool, crazy) may be predefined and each emotion may be grouped and managed according to the emotion. . As an example, the emotion determination unit 310 enables the user of the first electronic device 110 to select any one specific emotion from among a plurality of predefined emotions, and the emotion determination unit 310 selects the specific emotion for the camera image as the emotion selected by the user. You may decide your feelings. As another example, the emotion determination unit 310 may determine the emotion for the camera image by extracting emotion information from the facial expression based on the camera image. Facial expression is indicated by the contraction of facial muscles that occur when facial elements such as eyebrows, eyes, nose, mouth, and skin are deformed, and the strength of facial expression is the geometrical change of facial features or muscle expression. May be determined by the density of For example, the emotion determination unit 310 extracts a region of interest (for example, an eye region, an eyebrow region, a nose region, a mouth region, etc.) for extracting a feature based on a facial expression, and then extracts a feature point from the region of interest to extract a feature point. May be used to determine certain feature values. The feature value corresponds to a specific numerical value indicating a human facial expression, such as the distance between the feature points. The emotion determination unit 310 determines a certain intensity value according to the degree of the numerical value with respect to the feature value shown in the image, and applies the prepared mapping value in order to apply the determined feature value to the emotion reaction value model. A table is used to determine a constant intensity value that matches the numerical value of each specific value. The mapping table is prepared in advance based on the emotion reaction value model. The emotion determination unit 310 may map the emotion reaction value model and the strength value, and extract the determined emotion type and strength based on the result of applying the corresponding strength value to the emotion reaction value model. The above-described technique for extracting emotion information is merely an example, and the present invention is not limited to this, and other well-known techniques can be used.

したがって、感情決定部310は、ユーザによって選択された感情または映像から自動認識された感情を、カメラ映像に反映するエフェクトを選定するための基準のうちの1つとして決定してよい。   Therefore, the emotion determination unit 310 may determine the emotion selected by the user or the emotion automatically recognized from the image as one of the criteria for selecting the effect to be reflected in the camera image.

段階430で、状況収集部320は、第1電子機器110のユーザと関連する少なくとも1つの状況情報を収集してよい。言い換えれば、状況収集部320は、カメラ映像に反映するエフェクトを選定するための追加基準としてユーザの状況情報を収集してよい。一例として、状況収集部320は、カメラ映像と関連する時間情報を収集するものであって、映像撮影時点において第1電子機器110から取得した日付や時刻などを含む時間情報を収集してよい。他の例として、状況収集部320は、カメラ映像と関連する場所情報を収集するものであって、例えば、映像撮影時点において第1電子機器110からGPS座標のような位置情報などを収集してよい。また他の例として、状況収集部330は、カメラ映像と関連する色情報を収集するものであって、映像撮影時点においてカメラスクリーン内に含まれている色値を分析したり、カメラ映像内の顔の肌トーン、カメラ照明色などを認知したりすることによって色情報を収集してよい。また他の例として、状況収集部330は、カメラ映像と関連する撮影モード情報を収集するものであって、例えば、インカメラ撮影モード/アウトカメラ撮影モード、または人物撮影モード/背景撮影モードなどのような、映像が撮影されたモード情報を収集してよい。また他の例として、状況収集部330は、第1電子機器110のユーザが使用したエフェクトに対する履歴情報を収集するものであって、例えば、ユーザが普段よく使用するエフェクトや、このエフェクトと類似するエフェクトに関する情報を収集してよい。また他の例として、状況収集部330は、カメラ映像に対するビューア(viewer)のフィードバック情報を収集するものであって、ユーザとビューアとの間でやり取りした対話、ビューアによって登録されたコメントや反応などのコンテキストを収集してよい。また他の例として、状況収集部330は、カメラ映像と関連するターゲット情報を収集するものであって、例えば、ユーザが特定のコミュニティを選択してカメラ映像を提供しようとする場合、コミュニティの名称やカテゴリなどのように該当のコミュニティに関する情報を収集してよい。さらに他の例として、状況収集部330は、カメラ映像から感情強度(程度)を含む表情情報を収集するものであって、カメラ映像内の顔表情から感情種類はもちろん、感情強度も共に収集してよい。感情の種類だけではなく、強度表現が可能なエフェクトも対象として映像内の実際の表情を把握し、エフェクト選定基準として利用してよい。   In operation 430, the situation collecting unit 320 may collect at least one situation information related to the user of the first electronic device 110. In other words, the situation collection unit 320 may collect the situation information of the user as an additional criterion for selecting the effect to be reflected in the camera image. As an example, the situation collection unit 320 collects time information associated with a camera image, and may collect time information including the date and time acquired from the first electronic device 110 at the time of image capturing. As another example, the situation collection unit 320 collects location information related to a camera image, and collects position information such as GPS coordinates from the first electronic device 110 at the time of image capturing, for example. Good. In addition, as another example, the situation collection unit 330 collects color information related to a camera image, analyzes color values included in the camera screen at the time of image capturing, and collects color information in the camera image. The color information may be collected by recognizing the skin tone of the face, the camera illumination color, or the like. As another example, the situation collection unit 330 collects shooting mode information related to a camera image, and includes, for example, an in-camera shooting mode / out-camera shooting mode or a person shooting mode / background shooting mode. Such mode information on which the image was captured may be collected. As another example, the situation collection unit 330 collects history information about an effect used by the user of the first electronic device 110. For example, the situation collection unit 330 is similar to an effect that the user usually uses or similar to this effect. Information about effects may be collected. In addition, as another example, the situation collection unit 330 collects feedback information of a viewer with respect to a camera image, and includes a dialogue exchanged between the user and the viewer, comments and reactions registered by the viewer, and the like. The context of may be collected. In addition, as another example, the situation collection unit 330 collects target information related to a camera image. For example, when the user selects a specific community and provides the camera image, the name of the community is displayed. Information about the community may be collected, such as categories and categories. As still another example, the situation collection unit 330 collects facial expression information including emotional strength (degree) from the camera image, and collects not only the emotion type but also the emotional strength from the facial expression in the camera image. You may Not only the type of emotion but also the effect that can express the intensity may be targeted and the actual facial expression in the image may be grasped and used as the effect selection criterion.

したがって、状況収集部320は、カメラ映像に反映するエフェクトを選定するための追加基準として、ユーザの状況、すなわち、時間情報、場所情報、色情報、撮影モード情報、履歴情報、フィードバック情報、ターゲット情報、および表情情報のうちの少なくとも1つを収集してよい。   Therefore, the situation collection unit 320 uses the user's situation, that is, time information, location information, color information, shooting mode information, history information, feedback information, and target information as an additional criterion for selecting an effect to be reflected in the camera image. , And at least one of facial expression information may be collected.

段階440で、エフェクト選定部330は、段階420で決定された感情として分類された複数のエフェクトのうちからカメラ映像に反映するエフェクトをランダムに選定してよい。例えば、事前に定義された複数の感情(例えば、6種類の感情:嬉しい、愛、悲しい、怒り、クール、クレイジー)のうちからユーザが「嬉しい」を選択した場合、「嬉しい」に分類されたエフェクトグループ内から特定のエフェクトをランダムに選定してカメラ映像に直ちに適用してよい。したがって、ユーザが選択した感情に基づいて該当の感情のエフェクトをランダムに選定し、リアルタイムで送り出される映像に直ちに提供することができる。   In step 440, the effect selection unit 330 may randomly select an effect to be reflected in the camera image from the plurality of effects classified as emotions determined in step 420. For example, if the user selects "happy" from a plurality of predefined emotions (for example, 6 types of emotions: happy, love, sad, anger, cool, crazy), it is classified as "happy". A specific effect may be randomly selected from within the effect group and immediately applied to the camera image. Therefore, the effect of the corresponding emotion can be randomly selected based on the emotion selected by the user, and can be immediately provided to the image sent in real time.

さらに、エフェクト選定部330は、カメラ映像に反映するエフェクトとして、段階420で決定された感情に対応するエフェクトのうちから、段階430で収集された状況情報にマッチングするエフェクトをランダムに選定してよい。このようなランダムエフェクトは、時間情報、場所情報、色情報、撮影モード情報、履歴情報、フィードバック情報、ターゲット情報、および表情情報のうちの少なくとも1つの状況情報に基づく加重値モデリングを利用して選定されてよい。図5に示すように、エフェクト選定部330は、エフェクトを選定するための基準として、ユーザによって選択された感情または映像から自動認識された感情501を利用するようになるが、ユーザのコンテキストを考慮した状況情報(時間情報、場所情報、色情報、撮影モード情報、履歴情報、フィードバック情報、ターゲット情報、および表情情報のうちの少なくとも1つ)502を追加選定基準として利用してよい。それぞれのエフェクトは、該当のエフェクトと関連する属性情報として、メタデータや各種タグ、デザイン要素に関する情報などを含んでよい。これにより、エフェクト選定部330は、状況情報と属性情報を比較して、エフェクトに対して状況別に加重値を付与し、加重値として計算されたスコアが最も高いエフェクトを提供してもよいし、加重値として計算されたスコアが一定レベル以上のエフェクトのうちからランダムに選定されたエフェクトを提供してもよい。   Furthermore, the effect selection unit 330 may randomly select, as an effect to be reflected in the camera image, an effect matching the situation information collected in step 430 from effects corresponding to the emotion determined in step 420. . Such a random effect is selected by using weight value modeling based on at least one of situation information among time information, location information, color information, shooting mode information, history information, feedback information, target information, and facial expression information. May be done. As shown in FIG. 5, the effect selecting unit 330 uses the emotion selected by the user or the emotion 501 automatically recognized from the image as a criterion for selecting an effect, but the user's context is considered. The status information (at least one of time information, location information, color information, shooting mode information, history information, feedback information, target information, and facial expression information) 502 may be used as an additional selection criterion. Each effect may include metadata, various tags, information about design elements, and the like as attribute information related to the effect. Accordingly, the effect selection unit 330 may compare the situation information with the attribute information, give a weighted value to the effect for each situation, and provide the effect with the highest score calculated as the weighted value. An effect randomly selected from effects having a score calculated as a weighted value or higher may be provided.

状況別に加重値を付与する方法の一例として、エフェクト選定部330は、感情501とは関係なく、すべての状況情報502を追加選定基準として利用し、状況情報502別に加重値を付与してよい。他の例として、エフェクト選定部330は、感情501に応じて追加選定基準となる状況情報502を異なるように選択して利用してよい。例えば、「嬉しい」の場合には状況情報502のうちの時間情報および場所情報を追加選定基準として利用し、「悲しい」の場合には状況情報502のうちの場所情報を追加選定基準として利用してよい。また他の例として、エフェクト選定部330は、感情501に応じて状況情報502別に異なる加重値を付与してよい。例えば、「嬉しい」の場合には状況情報502のうちの時間情報および場所情報にさらに高い加重値を付与し、「悲しい」の場合には状況情報502のうちの場所情報にさらに高い加重値を付与してよい。   As an example of a method of giving a weighted value for each situation, the effect selection unit 330 may use all the situation information 502 as additional selection criteria regardless of the emotion 501 and give a weighted value for each situation information 502. As another example, the effect selection unit 330 may select and use different situation information 502 as the additional selection criterion according to the emotion 501. For example, in the case of "happy", the time information and the location information of the situation information 502 are used as additional selection criteria, and in the case of "sad", the location information of the situation information 502 is used as additional selection criteria. You may Further, as another example, the effect selection unit 330 may give different weights to the situation information 502 according to the emotion 501. For example, in the case of "happy", a higher weight is given to the time information and the place information of the situation information 502, and in the case of "sad", a higher weight is given to the place information of the situation information 502. May be given.

追加選定基準となる状況情報502のうちの時間情報の場合:ユーザの撮影日付または撮影時間帯に特化されたエフェクトに加重値を付与してよく、例えば、クリスマス、バレンタインデー、夜遅い時間帯などの特定された時間に特化されたエフェクトを選定してよい。   In the case of the time information of the situation information 502 which is the additional selection criterion: a weighted value may be given to the effect specialized for the user's shooting date or shooting time zone, for example, Christmas, Valentine's day, late night time zone. An effect specialized for a specified time such as may be selected.

追加選定基準となる状況情報502のうちの場所情報の場合:ユーザの撮影場所またはカメラ映像から特定の場所を認知し、該当の場所に特化されたエフェクトに加重値を付与してよく、例えば、エッフェル塔、ナムサン、明洞などの特定された場所に特化されたエフェクトを選定してよい。   In the case of location information in the situation information 502 that is the additional selection criterion: a specific location may be recognized from the user's shooting location or camera image, and a weight value may be given to the effect specialized for the location, for example, You may select effects that are specific to a specific location, such as Eiffel Tower, Namsan, and Myeongdong.

追加選定基準となる状況情報502のうちの色情報の場合:カメラスクリーン内に含まれている色値を分析したり、映像内の人物の肌トーンや照明色などを認知したりすることで、該当の色に適したエフェクトに加重値を付与してよく、例えば、カメラ内の全体的な背景色が極めて明るい場合には、類似の色を避け、対照となる色のカメラエフェクトを選定してよい。   In the case of the color information of the situation information 502 which is the additional selection criterion: By analyzing the color value included in the camera screen or recognizing the skin tone or illumination color of the person in the image, Weighting may be added to the effect suitable for the color.For example, if the overall background color in the camera is extremely bright, avoid similar colors and select a camera effect with a contrasting color. Good.

追加選定基準となる状況情報502のうちの撮影モード情報の場合:インカメラ撮影モード/アウトカメラ撮影モード、または人物撮影モード/背景撮影モードなどの映像撮影モードを認識し、該当のモードに適したエフェクトに加重値を付与してよく、例えば、インカメラを利用したセルフ撮影モード時にはマスクを中心としたエフェクトを選定し、複数の人物を撮影する場合にはフェイススワップエフェクトなどのように複数の人物に適用可能な形態のカメラエフェクトを選定し、アウトカメラを利用した背景撮影モード時には背景場所に特化されたエフェクトを選定してよい。   In the case of the shooting mode information of the situation information 502 serving as the additional selection criteria: the video shooting mode such as the in-camera shooting mode / out-camera shooting mode, or the person shooting mode / background shooting mode is recognized and suitable for the corresponding mode. A weighted value may be added to the effect. For example, in self-shooting mode using the in-camera, an effect centered on a mask is selected, and when shooting multiple people, multiple people such as a face swap effect are selected. It is also possible to select a camera effect of a form applicable to, and select a special effect for the background place in the background shooting mode using the out-camera.

追加選定基準となる状況情報502のうちの履歴情報の場合:ユーザが頻繁に使用するエフェクトまたはこれと類似するエフェクトに加重値を付与してよく、例えば、ユーザがここ最近使用したエフェクト、ここ最近の一定期間内に多く使用されたエフェクトなどを選定してよい。   In the case of history information of the situation information 502 which is the additional selection criterion: a weight value may be given to an effect frequently used by the user or an effect similar to this, for example, an effect used recently by the user, or an effect recently used by the user. It is possible to select an effect or the like that has been used a lot within a certain period of time.

追加選定基準となる状況情報502のうちのフィードバック情報の場合:ユーザとビューアとの間の対話、またはビューアの反応などのコンテキストを分析し、該当の内容とマッチングするエフェクトに加重値を付与してよく、例えば、ユーザとビューアとの間でやり取りした対話のタイトルに適したエフェクトなどを選定してよい。   In the case of the feedback information of the situation information 502 which is the additional selection criterion: The context such as the interaction between the user and the viewer or the reaction of the viewer is analyzed, and the weighted value is given to the effect matching the corresponding content. Of course, for example, an effect suitable for the title of the dialogue exchanged between the user and the viewer may be selected.

追加選定基準となる状況情報502のうちのターゲット情報の場合:ユーザがカメラ映像を提供しようとするターゲット対象の特性に適したエフェクトに加重値を付与してよく、例えば、スキューバダイビング同好会コミュニティグループに生放送を提供する場合にはスキューバダイビングと関連するカメラエフェクトを選定し、愛犬コミュニティグループに生放送を提供する場合には動物に関するカメラエフェクトを選定してよい。   In the case of the target information in the situation information 502 which is the additional selection criterion: A weight value may be given to an effect suitable for the characteristic of the target object for which the user intends to provide a camera image, and for example, a scuba diving club community group When providing a live broadcast to, a camera effect related to scuba diving may be selected, and when providing a live broadcast to a dog community group, a camera effect related to an animal may be selected.

追加選定基準となる状況情報502のうちの表情情報の場合:映像内の顔表情に適したエフェクトに加重値を付与してよく、例えば、映像内の人物が笑っている場合は、笑顔の表情に特化されたエフェクトを選定してよい。他の例として、映像内の顔表情から感情強度を分析し、該当の強度に特化されたエフェクトを選定してもよい。例えば、ユーザが「嬉しい」を選択し、映像から感情強度「3」が認識された場合は、「嬉しい」グループに属するエフェクトのうち感情強度「3」に適したエフェクトを選定してよい。   In the case of facial expression information of the situation information 502 serving as an additional selection criterion: a weighted value may be given to an effect suitable for the facial expression in the image, for example, a smiling expression when a person in the image is laughing. You may select an effect that is specialized for. As another example, the emotion intensity may be analyzed from the facial expressions in the image, and the effect specialized for the intensity may be selected. For example, when the user selects “happy” and the emotional strength “3” is recognized from the video, an effect suitable for the emotional strength “3” may be selected from the effects belonging to the “happy” group.

図6〜図10は、本発明の一実施形態における、感情に対応するエフェクトを提供する過程を説明するための例示図である。   6 to 10 are exemplary views for explaining a process of providing an effect corresponding to an emotion according to an exemplary embodiment of the present invention.

図6は、生放送として提供されるカメラ映像画面600を例示的に示した図である。カメラ映像画面600には、複数の感情に分類されたエフェクトグループを選択するための感情選択メニュー601が含まれてよい。例えば、エフェクトグループは、6種類の感情、すなわち、嬉しい、愛、悲しい、怒り、クール、クレイジーに分類されてよく、エフェクト選定基準として感情を選択することができるように、6つの感情アイコンで構成された感情選択メニュー601がカメラ映像画面600上に表示されてよい。   FIG. 6 is a diagram exemplifying a camera image screen 600 provided as a live broadcast. The camera image screen 600 may include an emotion selection menu 601 for selecting an effect group classified into a plurality of emotions. For example, an effect group may be classified into 6 kinds of emotions, that is, happy, love, sad, anger, cool, and crazy, and is composed of 6 emotion icons so that the emotions can be selected as an effect selection criterion. The displayed emotion selection menu 601 may be displayed on the camera image screen 600.

図7を参照すると、ユーザがカメラ映像画面600上の感情選択メニュー601から「嬉しい」アイコンを選択した場合、「嬉しい」グループに属するエフェクトのうちからランダムにエフェクトを選定してカメラに直ちに適用することにより、感情「嬉しい」に適したエフェクト、例えば、ハートマークエフェクトが反映された映像710を生放送で提供することが可能となる。   Referring to FIG. 7, when the user selects the “happy” icon from the emotion selection menu 601 on the camera image screen 600, an effect is randomly selected from effects belonging to the “happy” group and immediately applied to the camera. As a result, it is possible to provide the live image of the image 710 on which the effect suitable for the emotion “happy”, for example, the heart mark effect is reflected.

一方、図8に示すように、ユーザがカメラ映像画面600上の感情選択メニュー601から「悲しい」アイコンを選択した場合、「悲しい」グループに属するエフェクトのうちからランダムにエフェクトを選定してカメラに直ちに適用することにより、感情「悲しい」に適したエフェクト、例えば、涙マークエフェクトが反映された映像810を生放送で提供することが可能となる。   On the other hand, as shown in FIG. 8, when the user selects the “sad” icon from the emotion selection menu 601 on the camera image screen 600, an effect is randomly selected from the effects belonging to the “sad” group, and the selected effect is displayed on the camera. By immediately applying it, it is possible to provide an image suitable for emotion "sad", for example, a video 810 in which a tear mark effect is reflected in live broadcasting.

上述したように、エフェクトを選定するための基準として、ユーザによって選択された感情と共に、少なくとも1つの状況情報を追加で利用することにより、ユーザの状況に合ったランダムエフェクトを選定することが可能となる。したがって、ユーザが選択した感情グループに属するエフェクトのうちから、ユーザの実際の状況により適したエフェクトを選定して生放送で提供することができる。   As described above, as a criterion for selecting an effect, it is possible to select a random effect suitable for the user's situation by additionally using at least one situation information together with the emotion selected by the user. Become. Therefore, from the effects belonging to the emotion group selected by the user, an effect more suitable for the user's actual situation can be selected and provided in live broadcasting.

また、感情選択メニュー601に対するユーザジェスチャ類型に応じてカメラに反映するエフェクト選定対象を異なるように適用してよい。例えば、感情選択メニュー601に対するユーザジェスチャを、シングルタップ、ダブルタップ、ロングタップに区分し、シングルタップの場合には特定の感情グループ内からランダムに選定されたエフェクトを提供し、ダブルタップの場合にはここ最近使用されたエフェクトを提供し、ロングタップの場合には所定の推薦基準によって推薦されたエフェクトリストからユーザが直接選択したエフェクトを提供してよい。   Further, the effect selection target reflected on the camera may be applied differently according to the user gesture type for the emotion selection menu 601. For example, a user gesture for the emotion selection menu 601 is divided into a single tap, a double tap, and a long tap. In the case of a single tap, an effect randomly selected from a specific emotion group is provided, and in the case of a double tap, May provide recently used effects, and in the case of long tap, an effect selected directly by the user from the effect list recommended by a predetermined recommendation criterion may be provided.

ユーザがカメラ映像画面600上の感情選択メニュー601で「嬉しい」アイコンをシングルタップした場合、図7を参照して説明したように、「嬉しい」グループ内からランダムに選定されたエフェクト、例えば、ハートマークエフェクトが反映された映像710が生放送で提供されてよい。   When the user single-tapes the "happy" icon in the emotion selection menu 601 on the camera image screen 600, as described with reference to FIG. 7, an effect randomly selected from the "happy" group, for example, heart. The video 710 in which the mark effect is reflected may be provided as a live broadcast.

「嬉しい」グループ内で星マークエフェクトがここ最近使用されたエフェクトであると仮定すると、図9に示すように、ユーザがカメラ映像画面600上の感情選択メニュー601から「嬉しい」アイコンをダブルタップした場合、該当の感情グループ内から、ランダムエフェクトではなくここ最近使用されたエフェクトである星マークエフェクトをカメラ映像に直ちに適用することにより、「嬉しい」グループのエフェクトのうちここ最近使用されたエフェクトが反映された映像910が生放送で提供されるようになる。   Assuming that the star mark effect is the most recently used effect in the "happy" group, the user double taps the "happy" icon from the emotion selection menu 601 on the camera image screen 600, as shown in FIG. In this case, apply the star mark effect, which is a recently used effect instead of a random effect, to the camera image from within the emotion group, so that the recently used effect of the “happy” group effect is reflected. The captured image 910 will be provided as a live broadcast.

図10を参照すると、ユーザがカメラ映像画面600上の感情選択メニュー601で「嬉しい」アイコンをロングタップした場合、「嬉しい」グループ内において、所定の条件に該当する一部のエフェクトを推薦エフェクトリスト1011として構成して提供してよい。一例として、推薦エフェクトは、エフェクトに対するユーザ履歴情報に基づいた基準によって選定されてよく、例えば、ユーザが頻繁に利用するエフェクトを推薦してよい。ユーザが「嬉しい」グループ内で頻繁に利用したエフェクトで構成された推薦エフェクトリスト1011からカメラ映像に反映するエフェクトを直接選択してよく、ランダムエフェクトではなく、ユーザによって直接選択されたエフェクト(例えば、くちびるマークエフェクト)が反映された映像1010が生放送で提供されてよい。   Referring to FIG. 10, when the user long-tapes the “happy” icon in the emotion selection menu 601 on the camera image screen 600, some effects in the “happy” group that meet predetermined conditions are recommended in the effect list. It may be configured and provided as 1011. As an example, the recommended effect may be selected on the basis of user history information for the effect, and for example, an effect frequently used by the user may be recommended. The user may directly select the effect to be reflected on the camera image from the recommended effect list 1011 composed of the effects frequently used in the “happy” group, and not the random effect (for example, the effect selected directly by the user). A video 1010 that reflects the lip mark effect) may be provided live.

このように、本発明の実施形態によると、生放送状況を考慮し、放送の流れを切らずに迅速にカメラエフェクトを提供することができ、生放送中にユーザによって選択された感情や映像から自動認識された感情に合ったカメラエフェクトを提供することができる。また、本発明の実施形態によると、ユーザによって選択された感情や映像から自動認識された感情に合うカメラエフェクトのうちから、ユーザの状況を考慮した加重値モデリングを利用してカメラエフェクトを提供することにより、該当となる感情を極大化して表現することができるエフェクトを提供することができる。   As described above, according to the embodiments of the present invention, it is possible to quickly provide a camera effect without interrupting the flow of the broadcast in consideration of the live broadcast situation, and automatically recognize the emotion and the image selected by the user during the live broadcast. It is possible to provide a camera effect suitable for the given emotion. In addition, according to an embodiment of the present invention, a camera effect is provided by using weighted value modeling in consideration of a user's situation, among camera effects that match an emotion selected by a user and an emotion automatically recognized from a video. As a result, it is possible to provide an effect that maximizes and expresses the corresponding emotion.

上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。   The apparatus described above may be implemented by hardware components, software components, and / or a combination of hardware and software components. For example, the devices and components described in the embodiments include a processor, a controller, an ALU (arithmetic logic unit), a digital signal processor, a microcomputer, a FPGA (field programmable gate array), a PLU (programmable logic unit), a microprocessor, Alternatively, it may be implemented utilizing one or more general purpose or special purpose computers, such as various devices capable of executing and responding to instructions. The processing unit may execute an operating system (OS) and one or more software applications running on the OS. The processing device may also access, record, manipulate, process, and generate data in response to executing the software. For ease of understanding, a single processing device may be described as being used, but those skilled in the art will appreciate that the processing device may include multiple processing elements and / or multiple types of processing elements. You can understand. For example, the processing unit may include multiple processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。   Software may include computer programs, code, instructions, or combinations of one or more of these to configure the processing units to operate as desired, or to instruct the processing units independently or collectively. You can The software and / or data may be embodied in any type of machine, component, physical device, computer storage media or device for interpreting or providing instructions or data to the processing device. Good. The software may be distributed and recorded or executed in a distributed manner on computer systems connected by a network. The software and data may be recorded on one or more computer-readable recording media.

実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。このとき、媒体は、コンピュータによって実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時的に記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよいが、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD−ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。   The method according to the embodiment may be embodied in the form of program instructions executable by various computer means and recorded on a computer-readable medium. At this time, the medium may continuously record the program executable by the computer, or may temporarily record the program for execution or download. Further, the medium may be various recording means or storage means in a form in which single or plural pieces of hardware are combined, but the medium is not limited to the medium directly connected to a certain computer system, and it may be distributed over a network. And may exist. Examples of the medium include a magnetic medium such as a hard disk, a floppy (registered trademark) disc, and a magnetic tape, an optical medium such as a CD-ROM and a DVD, a magneto-optical medium such as a floppy disk, And ROM, RAM, flash memory, etc., and may be configured to record program instructions. Further, as another example of the medium, there are an application store for distributing an application, a site for supplying or distributing various other software, and a recording medium or a storage medium managed by a server or the like.

以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。   Although the embodiments have been described above based on the limited embodiments and the drawings, those skilled in the art will be able to make various modifications and variations from the above description. For example, the described techniques may be performed in a different order than the described methods, and / or components of the described systems, structures, devices, circuits, etc. may be implemented in a different manner than the described methods. Appropriate results can be achieved whether combined or combined, or apposed or replaced by other components or equivalents.

したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。   Therefore, even in the case of different embodiments, if they are equivalent to the claims, they belong to the appended claims.

212:プロセッサ
310:感情決定部
320:状況収集部
330:エフェクト選定部
212: Processor 310: Emotion determination unit 320: Situation collection unit 330: Effect selection unit

Claims (14)

コンピュータによって実現される電子機器におけるエフェクト提供方法であって、
前記電子機器のカメラ映像に反映するエフェクトを選定するための基準として、前記カメラ映像に対する感情を決定する決定段階、
前記電子機器のユーザと関連する状況情報を収集する収集段階、および
前記の決定された感情に基づき、該当の感情を示すエフェクトのうちからランダムに選定されたエフェクトを前記カメラ映像に直ちに反映する反映段階
を含み、
前記反映段階は、前記の決定された感情を示すエフェクトのうちから、前記の決定された感情に応じて前記状況情報別に異なる加重値を付与し、前記加重値に基づいて、前記カメラ映像に反映するエフェクトを選定する段階を含む、エフェクト提供方法。
A method for providing an effect in an electronic device realized by a computer,
As a reference for selecting the effect to be reflected to the camera image of the electronic device, determining step of determining an emotion that corresponds to the camera image,
A collection step of collecting situation information related to the user of the electronic device, and a reflection of immediately selecting an effect randomly selected from among effects showing the corresponding emotion on the camera image based on the determined emotion. viewing including the stage,
In the reflecting step, different weights are assigned to the situation information according to the determined emotions from among the effects indicating the determined emotions, and reflected in the camera image based on the weighted values. An effect providing method including a step of selecting an effect to be performed .
前記決定する段階は、
前記電子機器のユーザによって選択された感情をエフェクト選定基準として決定する、
請求項1に記載のエフェクト提供方法。
The determining step includes
The emotion selected by the user of the electronic device is determined as an effect selection criterion,
The effect providing method according to claim 1.
前記決定する段階は、
前記カメラ映像の顔表情から認識された感情をエフェクト選定基準として決定する、
請求項1に記載のエフェクト提供方法。
The determining step includes
The emotion recognized from the facial expression of the camera image is determined as an effect selection criterion,
The effect providing method according to claim 1.
前記状況情報は、
前記カメラ映像と関連する時間情報、前記カメラ映像と関連する場所情報、前記カメラ映像と関連する色情報、前記カメラ映像と関連する撮影モード情報、前記ユーザが使用したエフェクトに対する履歴情報、前記カメラ映像に対するフィードバック情報、前記カメラ映像と関連するターゲット情報、および前記カメラ映像から認識された表情情報のうちの少なくとも1つを含む
請求項に記載のエフェクト提供方法。
The status information is
Time information associated with the camera image, location information associated with the camera image, color information associated with the camera image, shooting mode information associated with the camera image, history information regarding effects used by the user, the camera image feedback information for the target information associated with the camera image, and at least one of the camera image recognized facial expression information from,
The effect providing method according to claim 1 .
前記選定する段階は、
前記の決定された感情に応じて互いに異なる状況情報を選択してエフェクト選定基準として利用する、
請求項に記載のエフェクト提供方法。
The step of selecting is
According to the determined emotion, different situation information is selected and used as an effect selection criterion,
The effect providing method according to claim 4 .
前記決定段階は、
複数の感情アイコンで構成された感情選択メニューを提供する段階、および
前記感情選択メニューから選択された感情をエフェクト選定基準として決定する段階
を含む、請求項1に記載のエフェクト提供方法。
The determining step includes
The effect providing method according to claim 1, further comprising: providing an emotion selection menu configured with a plurality of emotion icons; and determining an emotion selected from the emotion selection menu as an effect selection criterion.
前記反映段階は、
前記感情選択メニューに対するユーザジェスチャ類型に基づき、前記の決定された感情に対応するエフェクトのうちから前記カメラ映像に反映するエフェクト選定対象を異なるように選定する、
請求項に記載のエフェクト提供方法。
The reflecting step is
Based on a user gesture type for the emotion selection menu, different effect selection targets to be reflected in the camera image are selected from among the effects corresponding to the determined emotion.
The effect providing method according to claim 6 .
請求項1〜のうちのいずれか一項に記載のエフェクト提供方法をコンピュータに実行させるためのコンピュータプログラム。 Computer program for executing the effect providing method according to the computer in any one of claims 1-7. 請求項に記載のコンピュータプログラムを記録しているコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium recording the computer program according to claim 8 . コンピュータによって実現される電子機器でのエフェクト提供システムであって、
コンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサは、
前記電子機器のカメラ映像に反映するエフェクトを選定するための基準として、前記カメラ映像に対する感情を決定する感情決定部、
前記電子機器のユーザと関連する状況情報を収集する状況収集部、および
前記の決定された感情に基づき、該当の感情を示すエフェクトのうちからランダムに選定されたエフェクトを前記カメラ映像に直ちに反映するエフェクト選定部
を備え
前記エフェクト選定部は、前記の決定された感情を示すエフェクトのうちから、前記の決定された感情に応じて前記状況情報別に異なる加重値を付与し、前記加重値に基づいて、前記カメラ映像に反映するエフェクトを選定する、エフェクト提供システム。
A system for providing effects in electronic devices realized by a computer,
Including at least one processor implemented to execute computer readable instructions;
The at least one processor is
The basis for selecting the effect to be reflected to the camera image of the electronic device, the emotion determiner that determines an emotion that corresponds to the camera image,
Based on the determined emotion, the situation collecting unit that collects the situation information related to the user of the electronic device, and the effect randomly selected from the effects showing the corresponding emotion are immediately reflected in the camera image. Equipped with an effect selection section ,
The effect selection unit assigns a different weight value for each of the situation information items according to the determined emotion from among the effects indicating the determined emotion, and based on the weight value, the camera image is added to the camera image. An effect providing system that selects the effect to be reflected .
前記感情決定部は、
前記電子機器のユーザによって選択された感情または前記カメラ映像の顔表情から認識された感情をエフェクト選定基準として決定する、
請求項10に記載のエフェクト提供システム。
The emotion determination unit is
The emotion selected by the user of the electronic device or the emotion recognized from the facial expression of the camera image is determined as the effect selection criterion.
The effect providing system according to claim 10 .
前記状況情報は、
前記カメラ映像と関連する時間情報、前記カメラ映像と関連する場所情報、前記カメラ映像と関連する色情報、前記カメラ映像と関連する撮影モード情報、前記ユーザが使用したエフェクトに対する履歴情報、前記カメラ映像に対するフィードバック情報、前記カメラ映像と関連するターゲット情報、および前記カメラ映像から認識された表情情報のうちの少なくとも1つを含む
請求項10に記載のエフェクト提供システム。
The status information is
Time information associated with the camera image, location information associated with the camera image, color information associated with the camera image, shooting mode information associated with the camera image, history information regarding effects used by the user, the camera image feedback information for the target information associated with the camera image, and at least one of the camera image recognized facial expression information from,
The effect providing system according to claim 10 .
前記エフェクト選定部は、
前記の決定された感情に応じて互いに異なる状況情報を選択してエフェクト選定基準として利用する、
請求項12に記載のエフェクト提供システム。
The effect selection unit,
According to the determined emotion, different situation information is selected and used as an effect selection criterion,
The effect providing system according to claim 12 .
前記感情決定部は、
複数の感情アイコンで構成された感情選択メニューを提供し、前記感情選択メニューから選択された感情をエフェクト選定基準として決定し、
前記エフェクト選定部は、
前記感情選択メニューに対するユーザジェスチャ類型に基づき、前記の決定された感情に対応するエフェクトのうちから前記カメラ映像に反映するエフェクト選定対象を異なるように選定する、
請求項10に記載のエフェクト提供システム。
The emotion determination unit is
An emotion selection menu composed of a plurality of emotion icons is provided, and the emotion selected from the emotion selection menu is determined as an effect selection criterion,
The effect selection unit,
Based on a user gesture type for the emotion selection menu, different effect selection targets to be reflected in the camera image are selected from among the effects corresponding to the determined emotion.
The effect providing system according to claim 10 .
JP2018196434A 2017-10-18 2018-10-18 Method and system for providing camera effects Active JP6684883B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170135369A KR101968723B1 (en) 2017-10-18 2017-10-18 Method and system for providing camera effect
KR10-2017-0135369 2017-10-18

Publications (2)

Publication Number Publication Date
JP2019075124A JP2019075124A (en) 2019-05-16
JP6684883B2 true JP6684883B2 (en) 2020-04-22

Family

ID=66097086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018196434A Active JP6684883B2 (en) 2017-10-18 2018-10-18 Method and system for providing camera effects

Country Status (4)

Country Link
US (1) US10742900B2 (en)
JP (1) JP6684883B2 (en)
KR (1) KR101968723B1 (en)
CN (1) CN109688451B (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108305317B (en) * 2017-08-04 2020-03-17 腾讯科技(深圳)有限公司 Image processing method, device and storage medium
WO2019102619A1 (en) * 2017-11-27 2019-05-31 三菱電機株式会社 Expression recognition device
CN110233840B (en) * 2019-06-06 2022-02-25 广州虎牙信息科技有限公司 Service processing method, device, equipment and storage medium
JP7374430B2 (en) * 2019-07-26 2023-11-07 株式会社オレンジテクラボ Video processing device, video processing method, and video processing program
CN112307816B (en) * 2019-07-29 2024-08-20 北京地平线机器人技术研发有限公司 In-vehicle image acquisition method and device, electronic equipment and storage medium
US20190384380A1 (en) * 2019-08-27 2019-12-19 Lg Electronics Inc. Method for providing xr content and xr device for providing xr content
CN111144266B (en) * 2019-12-20 2022-11-22 北京达佳互联信息技术有限公司 Facial expression recognition method and device
JP7316664B2 (en) * 2020-02-03 2023-07-28 マルコムホールディングス株式会社 Apparatus for Providing Emotional Information of Conversational User
CN113434223A (en) * 2020-03-23 2021-09-24 北京字节跳动网络技术有限公司 Special effect processing method and device
US11604562B2 (en) 2020-06-10 2023-03-14 Snap Inc. Interface carousel for use with image processing software development kit
JP7385289B2 (en) * 2021-08-03 2023-11-22 株式会社フロンティアチャンネル Programs and information processing equipment
US12015865B2 (en) * 2022-06-04 2024-06-18 Jeshurun de Rox System and methods for evoking authentic emotions from live photographic and video subjects
CN115439307B (en) * 2022-08-08 2023-06-27 荣耀终端有限公司 Style conversion method, style conversion model generation method and style conversion system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4291963B2 (en) * 2000-04-13 2009-07-08 富士フイルム株式会社 Image processing method
KR20030029556A (en) 2003-03-11 2003-04-14 이상광 Method for providing broadcast contents using a mobile terminal and computer readable record medium on which a program therefor is recorded
JP4352380B2 (en) 2003-08-29 2009-10-28 株式会社セガ Video interactive communication terminal, computer program, and call control method
JP2005202854A (en) * 2004-01-19 2005-07-28 Nec Corp Image processor, image processing method and image processing program
KR100628756B1 (en) * 2004-09-07 2006-09-29 엘지전자 주식회사 Video effect provide apparatus for mobile station at Video telephony and the Method of the Same
JP2010066844A (en) * 2008-09-09 2010-03-25 Fujifilm Corp Method and device for processing video content, and program for processing video content
JP4623200B2 (en) * 2008-10-27 2011-02-02 ソニー株式会社 Image processing apparatus, image processing method, and program
KR101533065B1 (en) * 2008-12-01 2015-07-01 삼성전자주식회사 Method and apparatus for providing animation effect on video telephony call
KR20110030223A (en) * 2009-09-17 2011-03-23 엘지전자 주식회사 Mobile terminal and control method thereof
KR101649158B1 (en) * 2010-03-03 2016-08-18 엘지전자 주식회사 Method for generating emotion imformation, apparatus for generating motion imformation, and image display apparatus including the same
US9747495B2 (en) * 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
JP6369073B2 (en) * 2014-03-20 2018-08-08 フリュー株式会社 Management server, photo sticker creation apparatus, image management system, image management method, image transmission method, program, and recording medium
US9277180B2 (en) * 2014-06-30 2016-03-01 International Business Machines Corporation Dynamic facial feature substitution for video conferencing
JPWO2016088566A1 (en) * 2014-12-03 2017-09-14 ソニー株式会社 Information processing apparatus, information processing method, and program
CN105791692B (en) * 2016-03-14 2020-04-07 腾讯科技(深圳)有限公司 Information processing method, terminal and storage medium
US10554908B2 (en) * 2016-12-05 2020-02-04 Facebook, Inc. Media effect application

Also Published As

Publication number Publication date
CN109688451B (en) 2021-04-02
KR101968723B1 (en) 2019-04-12
US20190116323A1 (en) 2019-04-18
JP2019075124A (en) 2019-05-16
US10742900B2 (en) 2020-08-11
CN109688451A (en) 2019-04-26

Similar Documents

Publication Publication Date Title
JP6684883B2 (en) Method and system for providing camera effects
CN112738408B (en) Selective identification and ordering of image modifiers
US20200412975A1 (en) Content capture with audio input feedback
US10606609B2 (en) Context-based discovery of applications
KR101989089B1 (en) Method and system for authoring ar content by collecting ar content templates based on crowdsourcing
US11263459B2 (en) Shared augmented reality system
TWI617930B (en) Method and system for sorting a search result with space objects, and a computer-readable storage device
US11567638B2 (en) Method, system, and non-transitory computer-readable record medium for providing reputation badge for video chat
US12063321B2 (en) Modular camera interface with context-based display elements utilizing first and second lens
KR102199735B1 (en) Method and system for sharing effects for video
CN115066667A (en) Determining gaze using deep learning
JP5605725B2 (en) Information notification system, information notification method, information processing apparatus, control method thereof, and control program
JP2021520535A (en) Augmented reality providing device, providing method, and computer program that recognize the situation using neural networks
KR20200076273A (en) Method and system for managing image based on interworking face image and messenger account
CN108052506B (en) Natural language processing method, device, storage medium and electronic equipment
KR20180043866A (en) Method and system to consume content using wearable device
JP2021152942A (en) Dress coordination method and device, computing device and medium
KR20220156099A (en) Method, system, and non-transitory computer readable record medium for recommending profile photos
CN111625101A (en) Display control method and device
KR102647904B1 (en) Method, system, and computer program for classify place review images based on deep learning
KR102485811B1 (en) Method, system, and non-transitory computer readable record medium for filtering image using keyword extracted form image
KR102147485B1 (en) Guide method and system for taking a picture
WO2024051467A1 (en) Image processing method and apparatus, electronic device, and storage medium
US20190042065A1 (en) Portable terminal and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200330

R150 Certificate of patent or registration of utility model

Ref document number: 6684883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250