JP6684883B2 - Method and system for providing camera effects - Google Patents
Method and system for providing camera effects Download PDFInfo
- Publication number
- JP6684883B2 JP6684883B2 JP2018196434A JP2018196434A JP6684883B2 JP 6684883 B2 JP6684883 B2 JP 6684883B2 JP 2018196434 A JP2018196434 A JP 2018196434A JP 2018196434 A JP2018196434 A JP 2018196434A JP 6684883 B2 JP6684883 B2 JP 6684883B2
- Authority
- JP
- Japan
- Prior art keywords
- effect
- emotion
- camera image
- information
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000694 effects Effects 0.000 title claims description 204
- 238000000034 method Methods 0.000 title claims description 43
- 230000008451 emotion Effects 0.000 claims description 129
- 230000008921 facial expression Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 description 16
- 230000015654 memory Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000002996 emotional effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000009189 diving Effects 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 208000006930 Pseudomyxoma Peritonei Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229920000306 polymethylpentene Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25808—Management of client data
- H04N21/25841—Management of client data involving the geographical location of the client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/274—Storing end-user multimedia data in response to end-user request, e.g. network recorder
- H04N21/2747—Remote storage of video programs received via the downstream path, e.g. from the server
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44222—Analytics of user selections, e.g. selection of programs or purchase activity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
- H04N2005/2726—Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Databases & Information Systems (AREA)
- Social Psychology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Studio Devices (AREA)
Description
以下の説明は、AR(Augmented Reality)カメラエフェクト(camera effect)を提供する技術に関する。 The following description relates to a technique for providing an AR (Augmented Reality) camera effect.
近年、スマートフォン、タブレット、ウェアラブルデバイスなどの個人情報端末を利用したモバイルデータ通信サービスが多く利用されている。 In recent years, mobile data communication services using personal information terminals such as smartphones, tablets, and wearable devices have been widely used.
このようなモバイルデータ通信サービスのうちで最も脚光を浴びている分野の1つとして、各種コンテンツを個人情報端末に提供する無線放送サービス分野が挙げられる。 Among such mobile data communication services, one of the most popular fields is a wireless broadcasting service field that provides various contents to personal information terminals.
一例として、特許文献1には、撮影された撮影情報を、インターネット放送、無線放送または地上波放送を介してモバイル端末に提供する技術が開示されている。 As an example, Patent Document 1 discloses a technique of providing shooting information to a mobile terminal via Internet broadcasting, wireless broadcasting, or terrestrial broadcasting.
カメラ映像に対する感情に合ったカメラエフェクトを迅速に提供することができる方法およびシステムを提供する。 Provided is a method and system capable of rapidly providing a camera effect that matches emotions with respect to a camera image.
コンピュータによって実現される電子機器でのエフェクト提供方法であって、前記電子機器のカメラ映像に反映するエフェクトを選定するための基準として、前記カメラ映像に対する感情を決定する段階、および前記の決定された感情に基づき、該当の感情を示すエフェクトのうちからランダムに選定されたエフェクトを前記カメラ映像に直ちに反映する段階を含む、エフェクト提供方法を提供する。 A method of providing an effect in an electronic device realized by a computer, wherein a step of determining an emotion with respect to the camera image as a reference for selecting an effect to be reflected in a camera image of the electronic device; There is provided an effect providing method including a step of immediately reflecting an effect randomly selected from effects showing the corresponding feeling on the camera image based on the feeling.
一側面によると、前記決定する段階は、前記電子機器のユーザによって選択された感情をエフェクト選定基準として決定してよい。 According to one aspect, the determining step may determine emotion selected by a user of the electronic device as an effect selection criterion.
他の側面によると、前記決定する段階は、前記カメラ映像の顔表情から認識された感情をエフェクト選定基準として決定してよい。 According to another aspect, the determining step may determine the emotion recognized from the facial expression of the camera image as an effect selection criterion.
また他の側面によると、前記エフェクト提供方法は、前記電子機器のユーザと関連する状況情報(context)を収集する段階をさらに含み、前記反映する段階は、前記の決定された感情に対応するエフェクトのうちから、前記状況情報にマッチングするエフェクトをランダムに選定する段階を含んでよい。 According to another aspect, the effect providing method further comprises collecting context information related to a user of the electronic device, and the reflecting step includes an effect corresponding to the determined emotion. Randomly selecting an effect that matches the situation information from among the above.
また他の側面によると、前記収集する段階は、前記カメラ映像と関連する時間情報、前記カメラ映像と関連する場所情報、前記カメラ映像と関連する色情報、前記カメラ映像と関連する撮影モード情報、前記ユーザが使用したエフェクトに対する履歴情報、前記カメラ映像に対するフィードバック情報、前記カメラ映像と関連するターゲット(target)情報、および前記カメラ映像から認識された表情情報のうちの少なくとも1つの状況情報を収集してよい。 According to another aspect, the collecting step includes: time information associated with the camera image, location information associated with the camera image, color information associated with the camera image, shooting mode information associated with the camera image, Collecting at least one situation information of history information about effects used by the user, feedback information about the camera image, target information related to the camera image, and facial expression information recognized from the camera image. You may
また他の側面によると、前記選定する段階は、前記の決定された感情に対応するエフェクトに対して前記状況情報による加重値を付与し、前記加重値に基づいて前記カメラ映像に反映するエフェクトを選定してよい。 According to another aspect, in the selecting step, a weighted value based on the situation information is given to the effect corresponding to the determined emotion, and an effect to be reflected in the camera image based on the weighted value is added. You may choose.
また他の側面によると、前記選定する段階は、前記の決定された感情に応じて互いに異なる状況情報を選択してエフェクト選定基準として利用してよい。 According to another aspect, the selecting step may select different situation information according to the determined emotion and use it as an effect selection criterion.
また他の側面によると、前記選定する段階は、前記の決定された感情に対応するエフェクトに対して、前記の決定された感情に応じて前記状況情報別に異なる加重値を付与し、前記加重値に基づいて前記カメラ映像に反映するエフェクトを選定してよい。 According to another aspect, the selecting step assigns different weights to the effects corresponding to the determined emotions according to the situation information according to the determined emotions. The effect to be reflected on the camera image may be selected based on
また他の側面によると、前記決定する段階は、複数の感情アイコンで構成された感情選択メニューを提供する段階、および前記感情選択メニューから選択された感情をエフェクト選定基準として決定する段階を含む。 According to another aspect, the determining step includes providing an emotion selection menu including a plurality of emotion icons and determining the emotion selected from the emotion selection menu as an effect selection criterion.
さらに他の側面によると、前記反映する段階は、前記感情選択メニューに対するユーザジェスチャ類型に基づき、前記の決定された感情に対応するエフェクトのうちから前記カメラ映像に反映するエフェクト選定対象を異なるように選定してよい。 According to still another aspect, in the reflecting step, the effect selection target to be reflected in the camera image is different from the effects corresponding to the determined emotion based on the user gesture type for the emotion selection menu. You may choose.
前記エフェクト提供方法をコンピュータに実行させるためのコンピュータプログラムを提供する。 A computer program for causing a computer to execute the effect providing method is provided.
前記コンピュータプログラムを記録しているコンピュータ読み取り可能な記録媒体を提供する。 A computer-readable recording medium storing the computer program is provided.
コンピュータによって実現される電子機器でのエフェクト提供システムであって、コンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、前記電子機器のカメラ映像に反映するエフェクトを選定するための基準として、前記カメラ映像に対する感情を決定する感情決定部、および前記の決定された感情に基づき、該当の感情を示すエフェクトのうちからランダムに選定されたエフェクトを前記カメラ映像に直ちに反映するエフェクト選定部を備える、エフェクト提供システムを提供する。 An effect providing system in an electronic device implemented by a computer, the system including at least one processor implemented to execute a computer-readable instruction, the at least one processor displaying a camera image of the electronic device. As a criterion for selecting an effect to be reflected, an emotion determination unit that determines an emotion with respect to the camera image, and an effect randomly selected from among the effects showing the corresponding emotion based on the determined emotion are described above. Provided is an effect providing system including an effect selection unit that immediately reflects on a camera image.
カメラ映像に対する感情に合ったカメラエフェクトを迅速に提供することができる。 It is possible to quickly provide a camera effect that matches the emotion of the camera image.
以下、本発明の実施形態について、添付の図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
本発明の実施形態は、カメラエフェクトを提供する技術に関し、より詳細には、カメラ映像に対する感情に合ったカメラエフェクトを迅速に提供することができる方法およびシステムに関する。 Embodiments of the present invention relate to a technique for providing a camera effect, and more particularly, to a method and a system capable of quickly providing a camera effect that matches an emotion of a camera image.
本明細書で具体的に開示される事項などを含む実施形態は、ビデオ映像撮影や生放送中にカメラエフェクトを迅速に提供することができ、これによって迅速性、効率性、多様性、娯楽要素などの側面において相当な長所を達成することができる。 Embodiments, including those specifically disclosed herein, can rapidly provide camera effects during video footage or live broadcast, thereby providing speed, efficiency, versatility, entertainment elements, etc. A considerable advantage can be achieved in the aspect of.
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。
FIG. 1 is a diagram showing an example of a network environment in an embodiment of the present invention. The network environment in FIG. 1 shows an example including a plurality of
複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話機、タブレット、ナビゲーション、PC(personal computer)、ノート型PC、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)などがある。一例として、第1電子機器110は、無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信してよい。
The plurality of
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を活用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでもよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター−バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。
The communication method is not limited, and not only a communication method that utilizes a communication network (for example, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network) that the
サーバ150、160それぞれは、電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。一例として、サーバ160は、ネットワーク170を介して接続した第1電子機器110にアプリケーションのインストールのためのファイルを提供してよい。この場合、第1電子機器110は、サーバ160から提供されたファイルを利用してアプリケーションをインストールしてよい。また、第1電子機器110が含むオペレーティングシステム(OS:Operating System)や少なくとも1つのプログラム(一例として、ブラウザやインストールされたアプリケーション)の制御にしたがってサーバ150に接続し、サーバ150が提供するサービスやコンテンツの提供を受けてもよい。例えば、第1電子機器110がアプリケーションの制御にしたがってネットワーク170を介してサービス要求メッセージをサーバ150に送信すると、サーバ150はサービス要求メッセージに対応するコードを第1電子機器110に送信してよく、第1電子機器110は、アプリケーションの制御にしたがってコードに基づいた画面を構成して表示することにより、ユーザにコンテンツを提供してよい。
Each of the
図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、電子機器に対する例として第1電子機器110の内部構成を説明し、サーバに対する例としてサーバ150の内部構成を説明する。他の電子機器120、130、140やサーバ160も、同一または類似の内部構成を有してよい。
FIG. 2 is a block diagram for explaining internal configurations of the electronic device and the server according to the embodiment of the present invention. In FIG. 2, the internal configuration of the first
第1電子機器110およびサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、コンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永続的大容量記録装置を含んでよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、第1電子機器110においてインストールされ実行されるアプリケーションなどのためのコード)が記録されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータ読み取り可能な記録媒体からロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD−ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。
The first
プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に記録されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。
通信モジュール213、223は、ネットワーク170を介して第1電子機器110とサーバ150とが互いに通信するための機能を提供してもよいし、他の電子機器(一例として、第2電子機器120)または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、第1電子機器110のプロセッサ212がメモリ211のような記録装置に記録されたプログラムコードにしたがって生成した要求(一例として、検索要求)が、通信モジュール213の制御にしたがってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て第1電子機器110の通信モジュール213を通じて第1電子機器110に受信されてもよい。例えば、通信モジュール213を通じて受信したサーバ150の制御信号や命令などは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、第1電子機器110がさらに含むことのできる記録媒体に記録されてよい。
The
入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボードまたはマウスなどの装置を含んでよく、出力装置は、アプリケーションの通信セッションを表示するためのディスプレイのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。より具体的な例として、第1電子機器110のプロセッサ212がメモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や第2電子機器120が提供するデータを利用して構成されるサービス画面やコンテンツが、入力/出力インタフェース214を経てディスプレイに表示されてよい。入力/出力インタフェース224も同様に、サーバ150のプロセッサ222がメモリにロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150が提供するデータを利用して構成される情報を出力してよい。
Input /
また、他の実施形態において、第1電子機器110およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。例えば、第1電子機器110は、上述した入力/出力装置215のうちの少なくとも一部を含むように構成されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、第1電子機器110がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラ、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が第1電子機器110にさらに含まれるように実現されてよいことが理解できるであろう。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。
Moreover, in another embodiment, the first
図3は、本発明の一実施形態における、電子機器のプロセッサが含むことのできる構成要素の例を示したブロック図であり、図4は、本発明の一実施形態における、電子機器が実行することのできる方法の例を示したフローチャートである。 FIG. 3 is a block diagram showing an example of components that can be included in the processor of the electronic device according to the embodiment of the present invention, and FIG. 4 is executed by the electronic device according to the embodiment of the present invention. It is the flowchart which showed the example of the possible method.
本実施形態に係る第1電子機器110には、コンピュータによって実現されたエフェクト提供システムが構成されてよい。エフェクト提供システムは、PC基盤のプログラムまたはモバイル端末専用のアプリケーションで構成されてよい。本実施形態におけるエフェクト提供システムは、独立的に動作するプログラム形態で実現されてもよいし、あるいは、特定のアプリケーション(例えば、カメラ機能など)のイン−アプリ(in−app)形態で構成され、特定のアプリケーション上で動作が可能なように実現されてもよい。エフェクト提供システムは、第1電子機器110においてインストールされるアプリケーションの形態で実現され、サーバ150との連動による生放送中に感情に合ったランダムエフェクトをカメラ上に直ちに適用することができる。
An effect providing system realized by a computer may be configured in the first
例えば、第1電子機器110においてインストールされたアプリケーションが提供する命令に基づき、第1電子機器110に実現されたエフェクト提供システムは、エフェクト提供方法を実行してよい。図4に係るエフェクト提供方法を実行するために、第1電子機器110のプロセッサ212は、構成要素として、図3に示すように、感情決定部310、状況収集部320、およびエフェクト選定部330を備えてよい。実施形態によっては、プロセッサ212の構成要素は、選択的にプロセッサ212に含まれても、除外されてもよい。また、実施形態によっては、プロセッサ212の構成要素は、プロセッサ212の機能の表現のために分離されても、併合されてもよい。
For example, the effect providing system implemented in the first
このようなプロセッサ212およびプロセッサ212の構成要素は、図4のエフェクト提供方法が含む段階410〜440を実行するように第1電子機器110を制御してよい。例えば、プロセッサ212およびプロセッサ212の構成要素は、メモリ211が含むオペレーティングシステムのコードと少なくとも1つのプログラムのコードによる命令を実行するように実現されてよい。
The
ここで、プロセッサ212の構成要素は、第1電子機器110に記録されたプログラムコードが提供する命令(一例として、第1電子機器110において実行されるアプリケーションが提供する命令)にしたがってプロセッサ212によって実行される、プロセッサ212の互いに異なる機能の表現であってよい。例えば、第1電子機器110がカメラ映像に対する感情を決定するように、上述した命令にしたがって第1電子機器110を制御するプロセッサ212の機能的表現として感情決定部310が利用されてよい。
Here, the components of the
段階410で、プロセッサ212は、第1電子機器110の制御と関連する命令がロードされたメモリ211から必要な命令を読み取ってよい。この場合、読み取られた命令は、以下で説明される段階420〜440をプロセッサ212が実行するように制御するための命令を含んでよい。
At step 410, the
本発明の実施形態は、生放送やインターネット電話(VoIP)などのように、第1電子機器110のカメラで撮影された映像を、インターネット回線を介してリアルタイムで送り出すストリーミング環境において、カメラ映像にARイメージとして所定のエフェクトを合成して1つの映像として提供することができ、特に、カメラ映像に反映しようとするエフェクトを直接指定するのではなく、カメラ映像をリアルタイムで送り出す環境状況を考慮した上で、エフェクトを自動選定してより迅速に提供することを可能にする。上述したライブストリーミング環境はもちろん、ビデオ映像撮影環境などを含むカメラ映像に対してエフェクトを自動選定して提供してもよい。
According to the embodiment of the present invention, an AR image is displayed on a camera image in a streaming environment in which a video image captured by the camera of the first
段階420で、感情決定部310は、第1電子機器110のカメラ映像に反映するエフェクトを選定するための基準として、カメラ映像に対する感情を決定してよい。本明細書において、エフェクトとは、イメージオブジェクトで構成されたコンテンツであって、カメラ映像に合成可能なフィルタ、スタンプ、絵文字などをすべて包括したものを意味してよい。このとき、固定的な形態のオブジェクトはもちろん、フラッシュやアニメーションなどが適用された動くイメージオブジェクトでも実現可能である。このようなエフェクトは、感情情報を示すものであり、感情別に事前に分類されてよい。言い換えれば、複数の感情(例えば、6種類の感情:嬉しい、愛、悲しい、怒り、クール、クレイジー)が事前に定義され、各感情別に該当の感情を示すエフェクトがグループ化されて管理されてよい。一例として、感情決定部310は、第1電子機器110のユーザが事前に定義された複数の感情のうちのいずれか1つの特定の感情を選択可能とし、ユーザによって選択された感情としてカメラ映像に対する感情を決定してよい。他の例として、感情決定部310は、カメラ映像に基づいて顔表情から感情情報を抽出することによってカメラ映像に対する感情を決定してよい。顔表情は、眉毛、目、鼻、口、肌のような顔要素に変形が起こるときに発生する顔筋肉の収縮によって示され、顔表情の強度は、顔特徴の幾何学的変化または筋肉表現の密度によって決定されてよい。例えば、感情決定部310は、表情による特徴を抽出するための関心領域(例えば、目領域、眉毛領域、鼻領域、口領域など)を抽出した後、関心領域から特徴点を抽出し、特徴点を利用して一定の特徴値を決定してよい。特徴値とは、特徴点間の距離などによって人間の表情を示す特定の数値に該当する。感情決定部310は、決定した特徴値を感情反応値モデルに適用するために、映像に示された特徴値に対する数値の程度に応じて一定の強度値を決定し、予め用意しておいたマッピングテーブルを利用して各特定値の数値にマッチングする一定の強度値を決定する。マッピングテーブルは、感情反応値モデルに基づいて事前に用意される。感情決定部310は、感情反応値モデルと強度値をマッピングし、該当の強度値を感情反応値モデルに適用した結果に基づき、決定した感情の種類と強度を抽出してよい。上述した感情情報を抽出する技術は例示的なものに過ぎず、これに限定されることはなく、周知の他の技術を利用することも可能である。
In operation 420, the
したがって、感情決定部310は、ユーザによって選択された感情または映像から自動認識された感情を、カメラ映像に反映するエフェクトを選定するための基準のうちの1つとして決定してよい。
Therefore, the
段階430で、状況収集部320は、第1電子機器110のユーザと関連する少なくとも1つの状況情報を収集してよい。言い換えれば、状況収集部320は、カメラ映像に反映するエフェクトを選定するための追加基準としてユーザの状況情報を収集してよい。一例として、状況収集部320は、カメラ映像と関連する時間情報を収集するものであって、映像撮影時点において第1電子機器110から取得した日付や時刻などを含む時間情報を収集してよい。他の例として、状況収集部320は、カメラ映像と関連する場所情報を収集するものであって、例えば、映像撮影時点において第1電子機器110からGPS座標のような位置情報などを収集してよい。また他の例として、状況収集部330は、カメラ映像と関連する色情報を収集するものであって、映像撮影時点においてカメラスクリーン内に含まれている色値を分析したり、カメラ映像内の顔の肌トーン、カメラ照明色などを認知したりすることによって色情報を収集してよい。また他の例として、状況収集部330は、カメラ映像と関連する撮影モード情報を収集するものであって、例えば、インカメラ撮影モード/アウトカメラ撮影モード、または人物撮影モード/背景撮影モードなどのような、映像が撮影されたモード情報を収集してよい。また他の例として、状況収集部330は、第1電子機器110のユーザが使用したエフェクトに対する履歴情報を収集するものであって、例えば、ユーザが普段よく使用するエフェクトや、このエフェクトと類似するエフェクトに関する情報を収集してよい。また他の例として、状況収集部330は、カメラ映像に対するビューア(viewer)のフィードバック情報を収集するものであって、ユーザとビューアとの間でやり取りした対話、ビューアによって登録されたコメントや反応などのコンテキストを収集してよい。また他の例として、状況収集部330は、カメラ映像と関連するターゲット情報を収集するものであって、例えば、ユーザが特定のコミュニティを選択してカメラ映像を提供しようとする場合、コミュニティの名称やカテゴリなどのように該当のコミュニティに関する情報を収集してよい。さらに他の例として、状況収集部330は、カメラ映像から感情強度(程度)を含む表情情報を収集するものであって、カメラ映像内の顔表情から感情種類はもちろん、感情強度も共に収集してよい。感情の種類だけではなく、強度表現が可能なエフェクトも対象として映像内の実際の表情を把握し、エフェクト選定基準として利用してよい。
In operation 430, the
したがって、状況収集部320は、カメラ映像に反映するエフェクトを選定するための追加基準として、ユーザの状況、すなわち、時間情報、場所情報、色情報、撮影モード情報、履歴情報、フィードバック情報、ターゲット情報、および表情情報のうちの少なくとも1つを収集してよい。
Therefore, the
段階440で、エフェクト選定部330は、段階420で決定された感情として分類された複数のエフェクトのうちからカメラ映像に反映するエフェクトをランダムに選定してよい。例えば、事前に定義された複数の感情(例えば、6種類の感情:嬉しい、愛、悲しい、怒り、クール、クレイジー)のうちからユーザが「嬉しい」を選択した場合、「嬉しい」に分類されたエフェクトグループ内から特定のエフェクトをランダムに選定してカメラ映像に直ちに適用してよい。したがって、ユーザが選択した感情に基づいて該当の感情のエフェクトをランダムに選定し、リアルタイムで送り出される映像に直ちに提供することができる。
In step 440, the
さらに、エフェクト選定部330は、カメラ映像に反映するエフェクトとして、段階420で決定された感情に対応するエフェクトのうちから、段階430で収集された状況情報にマッチングするエフェクトをランダムに選定してよい。このようなランダムエフェクトは、時間情報、場所情報、色情報、撮影モード情報、履歴情報、フィードバック情報、ターゲット情報、および表情情報のうちの少なくとも1つの状況情報に基づく加重値モデリングを利用して選定されてよい。図5に示すように、エフェクト選定部330は、エフェクトを選定するための基準として、ユーザによって選択された感情または映像から自動認識された感情501を利用するようになるが、ユーザのコンテキストを考慮した状況情報(時間情報、場所情報、色情報、撮影モード情報、履歴情報、フィードバック情報、ターゲット情報、および表情情報のうちの少なくとも1つ)502を追加選定基準として利用してよい。それぞれのエフェクトは、該当のエフェクトと関連する属性情報として、メタデータや各種タグ、デザイン要素に関する情報などを含んでよい。これにより、エフェクト選定部330は、状況情報と属性情報を比較して、エフェクトに対して状況別に加重値を付与し、加重値として計算されたスコアが最も高いエフェクトを提供してもよいし、加重値として計算されたスコアが一定レベル以上のエフェクトのうちからランダムに選定されたエフェクトを提供してもよい。
Furthermore, the
状況別に加重値を付与する方法の一例として、エフェクト選定部330は、感情501とは関係なく、すべての状況情報502を追加選定基準として利用し、状況情報502別に加重値を付与してよい。他の例として、エフェクト選定部330は、感情501に応じて追加選定基準となる状況情報502を異なるように選択して利用してよい。例えば、「嬉しい」の場合には状況情報502のうちの時間情報および場所情報を追加選定基準として利用し、「悲しい」の場合には状況情報502のうちの場所情報を追加選定基準として利用してよい。また他の例として、エフェクト選定部330は、感情501に応じて状況情報502別に異なる加重値を付与してよい。例えば、「嬉しい」の場合には状況情報502のうちの時間情報および場所情報にさらに高い加重値を付与し、「悲しい」の場合には状況情報502のうちの場所情報にさらに高い加重値を付与してよい。
As an example of a method of giving a weighted value for each situation, the
追加選定基準となる状況情報502のうちの時間情報の場合:ユーザの撮影日付または撮影時間帯に特化されたエフェクトに加重値を付与してよく、例えば、クリスマス、バレンタインデー、夜遅い時間帯などの特定された時間に特化されたエフェクトを選定してよい。
In the case of the time information of the
追加選定基準となる状況情報502のうちの場所情報の場合:ユーザの撮影場所またはカメラ映像から特定の場所を認知し、該当の場所に特化されたエフェクトに加重値を付与してよく、例えば、エッフェル塔、ナムサン、明洞などの特定された場所に特化されたエフェクトを選定してよい。
In the case of location information in the
追加選定基準となる状況情報502のうちの色情報の場合:カメラスクリーン内に含まれている色値を分析したり、映像内の人物の肌トーンや照明色などを認知したりすることで、該当の色に適したエフェクトに加重値を付与してよく、例えば、カメラ内の全体的な背景色が極めて明るい場合には、類似の色を避け、対照となる色のカメラエフェクトを選定してよい。
In the case of the color information of the
追加選定基準となる状況情報502のうちの撮影モード情報の場合:インカメラ撮影モード/アウトカメラ撮影モード、または人物撮影モード/背景撮影モードなどの映像撮影モードを認識し、該当のモードに適したエフェクトに加重値を付与してよく、例えば、インカメラを利用したセルフ撮影モード時にはマスクを中心としたエフェクトを選定し、複数の人物を撮影する場合にはフェイススワップエフェクトなどのように複数の人物に適用可能な形態のカメラエフェクトを選定し、アウトカメラを利用した背景撮影モード時には背景場所に特化されたエフェクトを選定してよい。
In the case of the shooting mode information of the
追加選定基準となる状況情報502のうちの履歴情報の場合:ユーザが頻繁に使用するエフェクトまたはこれと類似するエフェクトに加重値を付与してよく、例えば、ユーザがここ最近使用したエフェクト、ここ最近の一定期間内に多く使用されたエフェクトなどを選定してよい。
In the case of history information of the
追加選定基準となる状況情報502のうちのフィードバック情報の場合:ユーザとビューアとの間の対話、またはビューアの反応などのコンテキストを分析し、該当の内容とマッチングするエフェクトに加重値を付与してよく、例えば、ユーザとビューアとの間でやり取りした対話のタイトルに適したエフェクトなどを選定してよい。
In the case of the feedback information of the
追加選定基準となる状況情報502のうちのターゲット情報の場合:ユーザがカメラ映像を提供しようとするターゲット対象の特性に適したエフェクトに加重値を付与してよく、例えば、スキューバダイビング同好会コミュニティグループに生放送を提供する場合にはスキューバダイビングと関連するカメラエフェクトを選定し、愛犬コミュニティグループに生放送を提供する場合には動物に関するカメラエフェクトを選定してよい。
In the case of the target information in the
追加選定基準となる状況情報502のうちの表情情報の場合:映像内の顔表情に適したエフェクトに加重値を付与してよく、例えば、映像内の人物が笑っている場合は、笑顔の表情に特化されたエフェクトを選定してよい。他の例として、映像内の顔表情から感情強度を分析し、該当の強度に特化されたエフェクトを選定してもよい。例えば、ユーザが「嬉しい」を選択し、映像から感情強度「3」が認識された場合は、「嬉しい」グループに属するエフェクトのうち感情強度「3」に適したエフェクトを選定してよい。
In the case of facial expression information of the
図6〜図10は、本発明の一実施形態における、感情に対応するエフェクトを提供する過程を説明するための例示図である。 6 to 10 are exemplary views for explaining a process of providing an effect corresponding to an emotion according to an exemplary embodiment of the present invention.
図6は、生放送として提供されるカメラ映像画面600を例示的に示した図である。カメラ映像画面600には、複数の感情に分類されたエフェクトグループを選択するための感情選択メニュー601が含まれてよい。例えば、エフェクトグループは、6種類の感情、すなわち、嬉しい、愛、悲しい、怒り、クール、クレイジーに分類されてよく、エフェクト選定基準として感情を選択することができるように、6つの感情アイコンで構成された感情選択メニュー601がカメラ映像画面600上に表示されてよい。
FIG. 6 is a diagram exemplifying a
図7を参照すると、ユーザがカメラ映像画面600上の感情選択メニュー601から「嬉しい」アイコンを選択した場合、「嬉しい」グループに属するエフェクトのうちからランダムにエフェクトを選定してカメラに直ちに適用することにより、感情「嬉しい」に適したエフェクト、例えば、ハートマークエフェクトが反映された映像710を生放送で提供することが可能となる。
Referring to FIG. 7, when the user selects the “happy” icon from the
一方、図8に示すように、ユーザがカメラ映像画面600上の感情選択メニュー601から「悲しい」アイコンを選択した場合、「悲しい」グループに属するエフェクトのうちからランダムにエフェクトを選定してカメラに直ちに適用することにより、感情「悲しい」に適したエフェクト、例えば、涙マークエフェクトが反映された映像810を生放送で提供することが可能となる。
On the other hand, as shown in FIG. 8, when the user selects the “sad” icon from the
上述したように、エフェクトを選定するための基準として、ユーザによって選択された感情と共に、少なくとも1つの状況情報を追加で利用することにより、ユーザの状況に合ったランダムエフェクトを選定することが可能となる。したがって、ユーザが選択した感情グループに属するエフェクトのうちから、ユーザの実際の状況により適したエフェクトを選定して生放送で提供することができる。 As described above, as a criterion for selecting an effect, it is possible to select a random effect suitable for the user's situation by additionally using at least one situation information together with the emotion selected by the user. Become. Therefore, from the effects belonging to the emotion group selected by the user, an effect more suitable for the user's actual situation can be selected and provided in live broadcasting.
また、感情選択メニュー601に対するユーザジェスチャ類型に応じてカメラに反映するエフェクト選定対象を異なるように適用してよい。例えば、感情選択メニュー601に対するユーザジェスチャを、シングルタップ、ダブルタップ、ロングタップに区分し、シングルタップの場合には特定の感情グループ内からランダムに選定されたエフェクトを提供し、ダブルタップの場合にはここ最近使用されたエフェクトを提供し、ロングタップの場合には所定の推薦基準によって推薦されたエフェクトリストからユーザが直接選択したエフェクトを提供してよい。
Further, the effect selection target reflected on the camera may be applied differently according to the user gesture type for the
ユーザがカメラ映像画面600上の感情選択メニュー601で「嬉しい」アイコンをシングルタップした場合、図7を参照して説明したように、「嬉しい」グループ内からランダムに選定されたエフェクト、例えば、ハートマークエフェクトが反映された映像710が生放送で提供されてよい。
When the user single-tapes the "happy" icon in the
「嬉しい」グループ内で星マークエフェクトがここ最近使用されたエフェクトであると仮定すると、図9に示すように、ユーザがカメラ映像画面600上の感情選択メニュー601から「嬉しい」アイコンをダブルタップした場合、該当の感情グループ内から、ランダムエフェクトではなくここ最近使用されたエフェクトである星マークエフェクトをカメラ映像に直ちに適用することにより、「嬉しい」グループのエフェクトのうちここ最近使用されたエフェクトが反映された映像910が生放送で提供されるようになる。
Assuming that the star mark effect is the most recently used effect in the "happy" group, the user double taps the "happy" icon from the
図10を参照すると、ユーザがカメラ映像画面600上の感情選択メニュー601で「嬉しい」アイコンをロングタップした場合、「嬉しい」グループ内において、所定の条件に該当する一部のエフェクトを推薦エフェクトリスト1011として構成して提供してよい。一例として、推薦エフェクトは、エフェクトに対するユーザ履歴情報に基づいた基準によって選定されてよく、例えば、ユーザが頻繁に利用するエフェクトを推薦してよい。ユーザが「嬉しい」グループ内で頻繁に利用したエフェクトで構成された推薦エフェクトリスト1011からカメラ映像に反映するエフェクトを直接選択してよく、ランダムエフェクトではなく、ユーザによって直接選択されたエフェクト(例えば、くちびるマークエフェクト)が反映された映像1010が生放送で提供されてよい。
Referring to FIG. 10, when the user long-tapes the “happy” icon in the
このように、本発明の実施形態によると、生放送状況を考慮し、放送の流れを切らずに迅速にカメラエフェクトを提供することができ、生放送中にユーザによって選択された感情や映像から自動認識された感情に合ったカメラエフェクトを提供することができる。また、本発明の実施形態によると、ユーザによって選択された感情や映像から自動認識された感情に合うカメラエフェクトのうちから、ユーザの状況を考慮した加重値モデリングを利用してカメラエフェクトを提供することにより、該当となる感情を極大化して表現することができるエフェクトを提供することができる。 As described above, according to the embodiments of the present invention, it is possible to quickly provide a camera effect without interrupting the flow of the broadcast in consideration of the live broadcast situation, and automatically recognize the emotion and the image selected by the user during the live broadcast. It is possible to provide a camera effect suitable for the given emotion. In addition, according to an embodiment of the present invention, a camera effect is provided by using weighted value modeling in consideration of a user's situation, among camera effects that match an emotion selected by a user and an emotion automatically recognized from a video. As a result, it is possible to provide an effect that maximizes and expresses the corresponding emotion.
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。 The apparatus described above may be implemented by hardware components, software components, and / or a combination of hardware and software components. For example, the devices and components described in the embodiments include a processor, a controller, an ALU (arithmetic logic unit), a digital signal processor, a microcomputer, a FPGA (field programmable gate array), a PLU (programmable logic unit), a microprocessor, Alternatively, it may be implemented utilizing one or more general purpose or special purpose computers, such as various devices capable of executing and responding to instructions. The processing unit may execute an operating system (OS) and one or more software applications running on the OS. The processing device may also access, record, manipulate, process, and generate data in response to executing the software. For ease of understanding, a single processing device may be described as being used, but those skilled in the art will appreciate that the processing device may include multiple processing elements and / or multiple types of processing elements. You can understand. For example, the processing unit may include multiple processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。 Software may include computer programs, code, instructions, or combinations of one or more of these to configure the processing units to operate as desired, or to instruct the processing units independently or collectively. You can The software and / or data may be embodied in any type of machine, component, physical device, computer storage media or device for interpreting or providing instructions or data to the processing device. Good. The software may be distributed and recorded or executed in a distributed manner on computer systems connected by a network. The software and data may be recorded on one or more computer-readable recording media.
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。このとき、媒体は、コンピュータによって実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時的に記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよいが、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD−ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。 The method according to the embodiment may be embodied in the form of program instructions executable by various computer means and recorded on a computer-readable medium. At this time, the medium may continuously record the program executable by the computer, or may temporarily record the program for execution or download. Further, the medium may be various recording means or storage means in a form in which single or plural pieces of hardware are combined, but the medium is not limited to the medium directly connected to a certain computer system, and it may be distributed over a network. And may exist. Examples of the medium include a magnetic medium such as a hard disk, a floppy (registered trademark) disc, and a magnetic tape, an optical medium such as a CD-ROM and a DVD, a magneto-optical medium such as a floppy disk, And ROM, RAM, flash memory, etc., and may be configured to record program instructions. Further, as another example of the medium, there are an application store for distributing an application, a site for supplying or distributing various other software, and a recording medium or a storage medium managed by a server or the like.
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。 Although the embodiments have been described above based on the limited embodiments and the drawings, those skilled in the art will be able to make various modifications and variations from the above description. For example, the described techniques may be performed in a different order than the described methods, and / or components of the described systems, structures, devices, circuits, etc. may be implemented in a different manner than the described methods. Appropriate results can be achieved whether combined or combined, or apposed or replaced by other components or equivalents.
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。 Therefore, even in the case of different embodiments, if they are equivalent to the claims, they belong to the appended claims.
212:プロセッサ
310:感情決定部
320:状況収集部
330:エフェクト選定部
212: Processor 310: Emotion determination unit 320: Situation collection unit 330: Effect selection unit
Claims (14)
前記電子機器のカメラ映像に反映するエフェクトを選定するための基準として、前記カメラ映像に対応する感情を決定する決定段階、
前記電子機器のユーザと関連する状況情報を収集する収集段階、および
前記の決定された感情に基づき、該当の感情を示すエフェクトのうちからランダムに選定されたエフェクトを前記カメラ映像に直ちに反映する反映段階
を含み、
前記反映段階は、前記の決定された感情を示すエフェクトのうちから、前記の決定された感情に応じて前記状況情報別に異なる加重値を付与し、前記加重値に基づいて、前記カメラ映像に反映するエフェクトを選定する段階を含む、エフェクト提供方法。 A method for providing an effect in an electronic device realized by a computer,
As a reference for selecting the effect to be reflected to the camera image of the electronic device, determining step of determining an emotion that corresponds to the camera image,
A collection step of collecting situation information related to the user of the electronic device, and a reflection of immediately selecting an effect randomly selected from among effects showing the corresponding emotion on the camera image based on the determined emotion. viewing including the stage,
In the reflecting step, different weights are assigned to the situation information according to the determined emotions from among the effects indicating the determined emotions, and reflected in the camera image based on the weighted values. An effect providing method including a step of selecting an effect to be performed .
前記電子機器のユーザによって選択された感情をエフェクト選定基準として決定する、
請求項1に記載のエフェクト提供方法。 The determining step includes
The emotion selected by the user of the electronic device is determined as an effect selection criterion,
The effect providing method according to claim 1.
前記カメラ映像の顔表情から認識された感情をエフェクト選定基準として決定する、
請求項1に記載のエフェクト提供方法。 The determining step includes
The emotion recognized from the facial expression of the camera image is determined as an effect selection criterion,
The effect providing method according to claim 1.
前記カメラ映像と関連する時間情報、前記カメラ映像と関連する場所情報、前記カメラ映像と関連する色情報、前記カメラ映像と関連する撮影モード情報、前記ユーザが使用したエフェクトに対する履歴情報、前記カメラ映像に対するフィードバック情報、前記カメラ映像と関連するターゲット情報、および前記カメラ映像から認識された表情情報のうちの少なくとも1つを含む、
請求項1に記載のエフェクト提供方法。 The status information is
Time information associated with the camera image, location information associated with the camera image, color information associated with the camera image, shooting mode information associated with the camera image, history information regarding effects used by the user, the camera image feedback information for the target information associated with the camera image, and at least one of the camera image recognized facial expression information from,
The effect providing method according to claim 1 .
前記の決定された感情に応じて互いに異なる状況情報を選択してエフェクト選定基準として利用する、
請求項4に記載のエフェクト提供方法。 The step of selecting is
According to the determined emotion, different situation information is selected and used as an effect selection criterion,
The effect providing method according to claim 4 .
複数の感情アイコンで構成された感情選択メニューを提供する段階、および
前記感情選択メニューから選択された感情をエフェクト選定基準として決定する段階
を含む、請求項1に記載のエフェクト提供方法。 The determining step includes
The effect providing method according to claim 1, further comprising: providing an emotion selection menu configured with a plurality of emotion icons; and determining an emotion selected from the emotion selection menu as an effect selection criterion.
前記感情選択メニューに対するユーザジェスチャ類型に基づき、前記の決定された感情に対応するエフェクトのうちから前記カメラ映像に反映するエフェクト選定対象を異なるように選定する、
請求項6に記載のエフェクト提供方法。 The reflecting step is
Based on a user gesture type for the emotion selection menu, different effect selection targets to be reflected in the camera image are selected from among the effects corresponding to the determined emotion.
The effect providing method according to claim 6 .
コンピュータ読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサは、
前記電子機器のカメラ映像に反映するエフェクトを選定するための基準として、前記カメラ映像に対応する感情を決定する感情決定部、
前記電子機器のユーザと関連する状況情報を収集する状況収集部、および
前記の決定された感情に基づき、該当の感情を示すエフェクトのうちからランダムに選定されたエフェクトを前記カメラ映像に直ちに反映するエフェクト選定部
を備え、
前記エフェクト選定部は、前記の決定された感情を示すエフェクトのうちから、前記の決定された感情に応じて前記状況情報別に異なる加重値を付与し、前記加重値に基づいて、前記カメラ映像に反映するエフェクトを選定する、エフェクト提供システム。 A system for providing effects in electronic devices realized by a computer,
Including at least one processor implemented to execute computer readable instructions;
The at least one processor is
The basis for selecting the effect to be reflected to the camera image of the electronic device, the emotion determiner that determines an emotion that corresponds to the camera image,
Based on the determined emotion, the situation collecting unit that collects the situation information related to the user of the electronic device, and the effect randomly selected from the effects showing the corresponding emotion are immediately reflected in the camera image. Equipped with an effect selection section ,
The effect selection unit assigns a different weight value for each of the situation information items according to the determined emotion from among the effects indicating the determined emotion, and based on the weight value, the camera image is added to the camera image. An effect providing system that selects the effect to be reflected .
前記電子機器のユーザによって選択された感情または前記カメラ映像の顔表情から認識された感情をエフェクト選定基準として決定する、
請求項10に記載のエフェクト提供システム。 The emotion determination unit is
The emotion selected by the user of the electronic device or the emotion recognized from the facial expression of the camera image is determined as the effect selection criterion.
The effect providing system according to claim 10 .
前記カメラ映像と関連する時間情報、前記カメラ映像と関連する場所情報、前記カメラ映像と関連する色情報、前記カメラ映像と関連する撮影モード情報、前記ユーザが使用したエフェクトに対する履歴情報、前記カメラ映像に対するフィードバック情報、前記カメラ映像と関連するターゲット情報、および前記カメラ映像から認識された表情情報のうちの少なくとも1つを含む、
請求項10に記載のエフェクト提供システム。 The status information is
Time information associated with the camera image, location information associated with the camera image, color information associated with the camera image, shooting mode information associated with the camera image, history information regarding effects used by the user, the camera image feedback information for the target information associated with the camera image, and at least one of the camera image recognized facial expression information from,
The effect providing system according to claim 10 .
前記の決定された感情に応じて互いに異なる状況情報を選択してエフェクト選定基準として利用する、
請求項12に記載のエフェクト提供システム。 The effect selection unit,
According to the determined emotion, different situation information is selected and used as an effect selection criterion,
The effect providing system according to claim 12 .
複数の感情アイコンで構成された感情選択メニューを提供し、前記感情選択メニューから選択された感情をエフェクト選定基準として決定し、
前記エフェクト選定部は、
前記感情選択メニューに対するユーザジェスチャ類型に基づき、前記の決定された感情に対応するエフェクトのうちから前記カメラ映像に反映するエフェクト選定対象を異なるように選定する、
請求項10に記載のエフェクト提供システム。 The emotion determination unit is
An emotion selection menu composed of a plurality of emotion icons is provided, and the emotion selected from the emotion selection menu is determined as an effect selection criterion,
The effect selection unit,
Based on a user gesture type for the emotion selection menu, different effect selection targets to be reflected in the camera image are selected from among the effects corresponding to the determined emotion.
The effect providing system according to claim 10 .
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170135369A KR101968723B1 (en) | 2017-10-18 | 2017-10-18 | Method and system for providing camera effect |
KR10-2017-0135369 | 2017-10-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019075124A JP2019075124A (en) | 2019-05-16 |
JP6684883B2 true JP6684883B2 (en) | 2020-04-22 |
Family
ID=66097086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018196434A Active JP6684883B2 (en) | 2017-10-18 | 2018-10-18 | Method and system for providing camera effects |
Country Status (4)
Country | Link |
---|---|
US (1) | US10742900B2 (en) |
JP (1) | JP6684883B2 (en) |
KR (1) | KR101968723B1 (en) |
CN (1) | CN109688451B (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108305317B (en) * | 2017-08-04 | 2020-03-17 | 腾讯科技(深圳)有限公司 | Image processing method, device and storage medium |
WO2019102619A1 (en) * | 2017-11-27 | 2019-05-31 | 三菱電機株式会社 | Expression recognition device |
CN110233840B (en) * | 2019-06-06 | 2022-02-25 | 广州虎牙信息科技有限公司 | Service processing method, device, equipment and storage medium |
JP7374430B2 (en) * | 2019-07-26 | 2023-11-07 | 株式会社オレンジテクラボ | Video processing device, video processing method, and video processing program |
CN112307816B (en) * | 2019-07-29 | 2024-08-20 | 北京地平线机器人技术研发有限公司 | In-vehicle image acquisition method and device, electronic equipment and storage medium |
US20190384380A1 (en) * | 2019-08-27 | 2019-12-19 | Lg Electronics Inc. | Method for providing xr content and xr device for providing xr content |
CN111144266B (en) * | 2019-12-20 | 2022-11-22 | 北京达佳互联信息技术有限公司 | Facial expression recognition method and device |
JP7316664B2 (en) * | 2020-02-03 | 2023-07-28 | マルコムホールディングス株式会社 | Apparatus for Providing Emotional Information of Conversational User |
CN113434223A (en) * | 2020-03-23 | 2021-09-24 | 北京字节跳动网络技术有限公司 | Special effect processing method and device |
US11604562B2 (en) | 2020-06-10 | 2023-03-14 | Snap Inc. | Interface carousel for use with image processing software development kit |
JP7385289B2 (en) * | 2021-08-03 | 2023-11-22 | 株式会社フロンティアチャンネル | Programs and information processing equipment |
US12015865B2 (en) * | 2022-06-04 | 2024-06-18 | Jeshurun de Rox | System and methods for evoking authentic emotions from live photographic and video subjects |
CN115439307B (en) * | 2022-08-08 | 2023-06-27 | 荣耀终端有限公司 | Style conversion method, style conversion model generation method and style conversion system |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4291963B2 (en) * | 2000-04-13 | 2009-07-08 | 富士フイルム株式会社 | Image processing method |
KR20030029556A (en) | 2003-03-11 | 2003-04-14 | 이상광 | Method for providing broadcast contents using a mobile terminal and computer readable record medium on which a program therefor is recorded |
JP4352380B2 (en) | 2003-08-29 | 2009-10-28 | 株式会社セガ | Video interactive communication terminal, computer program, and call control method |
JP2005202854A (en) * | 2004-01-19 | 2005-07-28 | Nec Corp | Image processor, image processing method and image processing program |
KR100628756B1 (en) * | 2004-09-07 | 2006-09-29 | 엘지전자 주식회사 | Video effect provide apparatus for mobile station at Video telephony and the Method of the Same |
JP2010066844A (en) * | 2008-09-09 | 2010-03-25 | Fujifilm Corp | Method and device for processing video content, and program for processing video content |
JP4623200B2 (en) * | 2008-10-27 | 2011-02-02 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
KR101533065B1 (en) * | 2008-12-01 | 2015-07-01 | 삼성전자주식회사 | Method and apparatus for providing animation effect on video telephony call |
KR20110030223A (en) * | 2009-09-17 | 2011-03-23 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
KR101649158B1 (en) * | 2010-03-03 | 2016-08-18 | 엘지전자 주식회사 | Method for generating emotion imformation, apparatus for generating motion imformation, and image display apparatus including the same |
US9747495B2 (en) * | 2012-03-06 | 2017-08-29 | Adobe Systems Incorporated | Systems and methods for creating and distributing modifiable animated video messages |
JP6369073B2 (en) * | 2014-03-20 | 2018-08-08 | フリュー株式会社 | Management server, photo sticker creation apparatus, image management system, image management method, image transmission method, program, and recording medium |
US9277180B2 (en) * | 2014-06-30 | 2016-03-01 | International Business Machines Corporation | Dynamic facial feature substitution for video conferencing |
JPWO2016088566A1 (en) * | 2014-12-03 | 2017-09-14 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
CN105791692B (en) * | 2016-03-14 | 2020-04-07 | 腾讯科技(深圳)有限公司 | Information processing method, terminal and storage medium |
US10554908B2 (en) * | 2016-12-05 | 2020-02-04 | Facebook, Inc. | Media effect application |
-
2017
- 2017-10-18 KR KR1020170135369A patent/KR101968723B1/en active IP Right Grant
-
2018
- 2018-10-17 CN CN201811210847.7A patent/CN109688451B/en active Active
- 2018-10-17 US US16/163,332 patent/US10742900B2/en active Active
- 2018-10-18 JP JP2018196434A patent/JP6684883B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN109688451B (en) | 2021-04-02 |
KR101968723B1 (en) | 2019-04-12 |
US20190116323A1 (en) | 2019-04-18 |
JP2019075124A (en) | 2019-05-16 |
US10742900B2 (en) | 2020-08-11 |
CN109688451A (en) | 2019-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6684883B2 (en) | Method and system for providing camera effects | |
CN112738408B (en) | Selective identification and ordering of image modifiers | |
US20200412975A1 (en) | Content capture with audio input feedback | |
US10606609B2 (en) | Context-based discovery of applications | |
KR101989089B1 (en) | Method and system for authoring ar content by collecting ar content templates based on crowdsourcing | |
US11263459B2 (en) | Shared augmented reality system | |
TWI617930B (en) | Method and system for sorting a search result with space objects, and a computer-readable storage device | |
US11567638B2 (en) | Method, system, and non-transitory computer-readable record medium for providing reputation badge for video chat | |
US12063321B2 (en) | Modular camera interface with context-based display elements utilizing first and second lens | |
KR102199735B1 (en) | Method and system for sharing effects for video | |
CN115066667A (en) | Determining gaze using deep learning | |
JP5605725B2 (en) | Information notification system, information notification method, information processing apparatus, control method thereof, and control program | |
JP2021520535A (en) | Augmented reality providing device, providing method, and computer program that recognize the situation using neural networks | |
KR20200076273A (en) | Method and system for managing image based on interworking face image and messenger account | |
CN108052506B (en) | Natural language processing method, device, storage medium and electronic equipment | |
KR20180043866A (en) | Method and system to consume content using wearable device | |
JP2021152942A (en) | Dress coordination method and device, computing device and medium | |
KR20220156099A (en) | Method, system, and non-transitory computer readable record medium for recommending profile photos | |
CN111625101A (en) | Display control method and device | |
KR102647904B1 (en) | Method, system, and computer program for classify place review images based on deep learning | |
KR102485811B1 (en) | Method, system, and non-transitory computer readable record medium for filtering image using keyword extracted form image | |
KR102147485B1 (en) | Guide method and system for taking a picture | |
WO2024051467A1 (en) | Image processing method and apparatus, electronic device, and storage medium | |
US20190042065A1 (en) | Portable terminal and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6684883 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |